Double Down sur le CRM et la Fidélisation

Montée des adblockers, GDPR, prise de conscience sur les sujets de Privacy, etc… C’est le moment de reprendre la main sur le relationnel client, de dépoussiérer votre CRM et de rebooter vos programmes de fidélisation !

La période de grâce de GDPR se termine dans moins de 6 semaines. A partir du 25 mai prochain, toute entreprise faisant du business avec des clients finaux citoyens d’un des pays de l’UE y sera astreinte. A tel point que même Facebook – actuellement sous les feux des projecteurs avec le scandale Cambridge Analytica – aurait décidé de faire de GDPR la norme à l’international pour sa plateforme, même hors UE.

 

Si sur le principe, on peut dire que GDPR n’interdit rien formellement, elle encadre et elle régule. Le fait, en particulier d’exiger des opt-ins explicites et éclairés de la part de chaque internaute ou client final va certainement rebattre profondément tout un tas d’activités dans l’ad-tech, à commencer par le domaine des fournisseurs de données 3rd Party.

 

A terme, c’est très probablement tout l’ad-tech qui va voir ses pratiques changer, et tout ça ira forcément dans le sens de limiter soit le reach des campagnes, soit leurs economics, et probablement les deux à la fois.

 

Entre les opt-ins explicites d’un côté et la part croissante des adblocks, c’est tout le programmatique et le display en particulier qui vont en prendre un coup. Je suis même assez persuadé qu’à terme, les DMP vont devenir quasiment inutiles – ou bien en tout cas économiquement non viables – de ce côté de l’Atlantique : GDPR partout ; la prise de conscience des internautes sur les sujets de la privacy ; des marchés fragmentés par pays avec des audiences sans commune mesure avec celles du marché intérieur US ; des données third party plus rares et donc encore plus couteuses ; etc. Et on n’a pas encore « subi » le passage de ePrivacy avec cette idée des consentements exprimés directement au niveau des browsers, ce breaking change majeur qui doit empêcher de dormir tous les patrons d’ad-tech.

Alors que faire ?

L’opportunité, on l’a déjà dit, c’est de se reprendre en main, et de revenir aux fondamentaux. On va éviter les poncifs et les tartes à la crème du genre « remettre le client au centre » mais néanmoins c’est d’une certaine façon l’idée.

 

Sachant que les produits et les expériences de qualité sont toujours des meilleurs vendeurs qu’un campagne de pub sur un produit moyen ou médiocre, il serait temps de revoir de A à Z à quoi ressemblent les expériences que les marques proposent – ou parfois imposent – à leurs clients.

 

Alors on investit sur la connaissance client, on recherche tous les irritants au long des parcours clients, on optimise les touchpoints, l’UX des sites et des apps, on ne fait pas semblant de faire « enfin » du Mobile First, et on s’attache à éliminer les coutures entre le online et le offline.

 

Au final, on reprend la parole en direct avec ses clients, on leur témoigne de l’attention qu’ils méritent et on les suit dans leurs parcours et on les récompense, d’une façon ou d’une autre avec des vrais programmes de fidélité, et non plus avec des cartes en plastiques aux avantages douteux qui ne sont qu’un moyen de plus de faire du tracking, parfois assez sale.

CRM, Relationnel et Programmes de Fidélité

Si vous avez un CRM, c’est le moment de le dépoussiérer – au fait, vous avez rafraîchi les opt-in de vos abonnés newsletters ? GDPR is coming…

 

Parce qu’en travaillant le relationnel au niveau de votre CRM, vous êtes dans un univers où il est possible de collecter des opt-ins explicites, où il devient lisible de proposer des bénéfices client contre l’acceptation de la collecte des données essentielles (contactabilité, scorings et rankings), et parce que à ce niveau relationnel, le creep factor est au plus bas et que ces communications sont bien mieux acceptées par les clients.

 

Alors, vous en êtes où sur votre CRM et votre programme de fidélité ? C’est quoi votre solution de Marketing Automation ? 

 

(*) Double Down : c’est littéralement “doubler sa mise” à une table de jeu…

Dashboards pour tous !

Aujourd’hui je vais vous parler d’un de mes sujets préférés du moment : la démocratisation de l’accès aux données du Web Analytics dans l’organisation, pour que chaque métier puisse avoir accès aux données pertinentes dans sa prise de décision. Le but étant d’éviter que les décisions ne soient prises uniquement sur l’intuition – ou bien pire – simplement en reproduisant ce qui a toujours été fait jusque là.

Aujourd’hui je vais vous parler d’un de mes sujets préférés du moment : la démocratisation de l’accès aux données du Web Analytics dans l’organisation, pour que chaque métier puisse avoir accès aux données pertinentes dans sa prise de décision. Le but étant d’éviter que les décisions ne soient prises uniquement sur l’intuition – ou bien pire – simplement en reproduisant ce qui a toujours été fait jusque là.

Libérez les données des analytics !

Pour avoir croisé bon nombre de clients depuis des années, il y a un schéma qui se reproduit invariablement chez beaucoup : dans une organisation, il y a en moyenne 2,5 personnes qui ont accès aux outils d’analytics. Et principalement, il s’agit des équipes analytics elles mêmes.

 

En dehors des équipes analytics, digital performance et IT, on n’a soit jamais eu accès, soit on aura perdu les logins depuis longtemps, ou bien on n’aura jamais trouvé d’intérêt dans ces graphiques et ces courbes qui affichent des choses très abstraites et éloignées du business : Bounce rate, Unique users, Sessions, Referrers, etc.

 

On aura bien essayé de s’intéresser aux rapports mensuels en PDF, reçus une fois par mois dans un email automatique, mais ces rapports sont trop longs ou trop synthétiques, et surtout : il présentent une vision « figée » de la donnée, de la donnée morte, en somme.

“You cannot manage that which you cannot measure”

Pourquoi s’intéresser autant à ces données ? Parce que selon le vieil adage, on ne peut pas efficacement gérer quelque chose qui ne peut pas être mesuré. (Corollaire : “Tout ce qui peut être mesuré ne doit pas nécessairement l’être”).

 

Du coup, quand on n’a pas accès aux données, on apprend à s’en passer. Ça me permet de placer ici une de mes quotes préférées, que l’on doit à Jim Barksdale, ancien CEO de Netscape :

 

« If we have data, let’s look at data. If all we have are opinions, let’s go with mine. »
Au passage, si vous avez aimé cette quote, je vous invite à lire cet article qui en dévoile un peu plus sur Jim Barksdale, qui a aussi été COO de FedEx et chez qui il a mis en place des moyens et des process de collecte et d’analyse des données. C’est passionnant.

Pourquoi chaque entité de votre entreprise devrait avoir accès à ses propres dashboards 

Pour toutes ces raisons, il est essentiel que chaque fonction et chaque métier dans votre organisation puisse avoir accès simplement et rapidement à des dashboards synthétiques, présentant les données sous un angle métier et non pas sous un angle technique (exit les métriques « standard » issues de Google Analytics…).

 

Et comme par définition, chaque entité intervient à un niveau différent et aura des préoccupations différentes, il est essentiel de concevoir plusieurs versions des dashboards, adaptés aux besoins de la cellule acquisition, du marketing produit, des ventes, du channel, du trade marketing, de la relation client et de la fidélité, etc.

 

Le tout, bien entendu, sans oublier les dashboards hyper synthétiques destinés au top management.
Exemple de dashboard avec Toucan Toco — il n’est question ici que de termes et KPIs métier

Lingua Franca

Quand on a fait ça, on s’assurera que les définitions et la compréhension des différents KPIs métier présentés dans ces tableaux de bord soient partagées et connues de toutes et tous. On peut sourire, mais c’est courant de rencontrer dans des organisations des personnes qui ne font pas de différence entre les Sessions, les Visiteurs Uniques ou bien les Pages Vues.

 

Oui, il est probable qu’il y ait besoin d’expliquer encore.

Dashboards = Data + Interactivité 

Exit les « rapports » en PDF qui circulent en pièce jointe, une fois par mois. Ca ne sert à rien, si ce n’est à informer le reste de l’organisation que les p’tits gars de la cellule Analytics font des choses. Ce dont les équipes ont besoin, c’est de pouvoir interroger les données, de façon interactive, au minimum en appliquant des critères de filtrage ou de tri, ou de restriction des dates de la période d’observation. En somme, tout ce que Google Data Studio permet de façon standard.
Bien entendu, on ne conseille pas d’utiliser les templates par défaut de Google Data Studio. Sauf si vous n’aimez pas vos collaborateurs :)
C’est la différence fondamentale entre Reporting et Analytics. Le reporting c’est une vision figée de ce qui s’est passé. Looking in the mirror. L’analytics est un processus interactif et itératif visant à apporter des réponses aux questions, confirmer ou infirmer des hypothèses. Contrairement au reporting, on ne “lit” pas les analytics, on les exploite.

Start with “why?”

Une fois qu’on en est arrivé là, c’est vraiment là que ça démarre. Parce que la finalité n’est pas l’accès aux données, c’est de pouvoir les comprendre, les analyser et ensuite prendre action. Je vais prendre deux exemples simples.

 

Sur le site d’une marque traditionnelle qui s’est lancée dans le commerce unifié, on constate en crunchant les données que certaines références produit ne sont commandées en ligne que le week-end, et pour certains SKUs, uniquement le dimanche. Pourquoi ? Et surtout, quand on a découvert cette info, qu’en fait-on ensuite ? Est-ce qu’on va promouvoir ces produits dès la home page pendant la journée de dimanche, pour fluidifier les parcours clients ? Ou bien au contraire est-ce qu’on va essayer de booster les ventes pendant les six autres jours de la semaine, via des promos ou des frais de port réduits ? Ou bien les deux ?

 

Autre cas, une marque de produits de cosmétique qui découvre que sur un certain segment de clientèle, parmi le top 20 des produits vendus en ligne, 5 sont des échantillons. Que faire de cette information ?

 

Est-ce que les clientes qui commandent des échantillons sont des nouvelles clientes, ou bien des nouvelles clientes de _ce_ produit spécifique ?

 

Si oui, que fait-on à J+15 ou J+30 pour les recontacter, savoir leur appréciation du produit en échantillon et tenter de les orienter vers le conditionnement normal ?

 

Si non, qui sont les clientes qui achètent régulièrement des échantillons et quel problème cherchent elles à résoudre ? Est-ce pour obtenir des conditionnements de moins de 100ml compatibles avec les bagages en cabines pour les voyages professionnels en avion ? Du coup, est-ce que sur le site ecommerce on propose des bundles de produits en petits conditionnements, ou bien est-ce que le site propose une facette de recherche permettant de rechercher ces petits conditionnements ?

 

Parce qu’au final, mesurer et analyser sans prendre action… ça ne sert à rien. Autant ne rien faire !

Do you really need a DMP in 2018?

A couple of months ago, I was discussing with two business contacts of mine about their plans and priorities for 2018: they had to decide about strategic investments, and they asked my opinion about choosing and implementing a DMP for their business. This got me thinking. Well, it’s 2018, and DMPs are so 2016…

A couple of months ago, I was discussing with two business contacts of mine about their plans and priorities for 2018: they had to decide about strategic investments, and they asked my opinion about choosing and implementing a DMP for their business. This got me thinking.

Well, it’s 2018, and DMPs are so 2016…

Reminder : DMPs are an (optional) link in the RTB programmatic chain. DMP’s main capability is to combine 1st, 2nd and 3rd party data in order to create specific audience segments, to be exposed to display ad campaigns.

If you live in the EU, or if your business has some B2C activity with individuals from Europe, then you will soon be bound by the now famous GDPR regulation. As we’ll explain here after, the GDPR regulation has some direct consequences on the way a DMP (and on a wider scale, the programmatic ad-tech industry) can be operated.

3rd Party Data Vendors

The business of selling massive amounts of anonymous data will probably not survive GDPR. This business was already in bad shape a couple of years ago, and most of the pure players had tried to pivot to some other form of activity, but this time it’s getting worse. GDPR enforces full opt-in for data collection, and makes it mandatory to clearly state the all usages for the collected data.

Where do 3rd Party Data vendors collect their data from has always been the dirty little secret in this ad-tech industry. It’s in nobody’s interest to ask too much questions. All you want to know, is that someone acts as a proxy, sells data and does the dirty job in the back-office. And I won’t even discuss 3rd party data accuracy.

Here for instance, Oracle Bluekai thinks I’m a soccer and WorldCup enthusiast, and a NASCAR fan. Those of you who do know me also know how ridiculous this is.

It’s going to be _very_ tough for data vendors to be able to collect, trace, anonymize and allow for deletion of all collected data. I honestly don’t see how these business could survive. The funny thing is that every now and then, I stumble on interviews from 3rd party data vendors(*) who swear to God that they are already GDPR compliant, or they will soon be…

The market for 3rd Party Data is almost dead. Let’s consider DMPs only for 2nd and 1st party data then…

(*) : not all of them.

2nd Party Data

Second party data is just someone else’s first party data. 2nd party data happens when several advertisers and/or published agree to ID sync and share information about their common audiences. With GDPR, all data collected will have to be collected with full opt-in, and after presenting all the details of the use of the data to the individuals.

Collecting the opt-ins for a 2nd party data sharing scenario on some Example.com website could look like this:

Do you believe that many people would simply click « OK » and blindly accept to share their personal data with sites and services they never heard about, if they are asked to? I don’t think so.

I think we can assume that 2nd party data partnerships will disappear when GDPR comes into play.

OK then. Let’s play safe and use DMPs just for 1st party data

Why not. But if your DMP is only useful for using your first party data for segmentation, you could probably directly use some modern DSP capabilities. Or if you want to use some of your CRM data, you could use services of some CRM onboarder like Temelio or Graphinium. Or if you want to do social advertising, or retargeting, you could use formats from Facebook, Amazon, Google, or twitter such as « custom audiences », RLSA, and the likes.

And you don’t need a DMP. And you don’t have to spend 3 to 6 months on the deployment and invest between 100 and 200k€ of your budget on year 1 just for the platform fees and setup.

DMPs for insights and customer intelligence?

Not really either. In a recent industry report, 9 out of 11 DMP vendors were rated « Poor » about « Analytics and audiences insights offerings ». By design. Simply because most of the DMPs were designed as activation platforms, not as analytics platforms. There’s a disconnect between DMP capabilities and the reality. In my opinion, this is partly caused by the name « Data Management Platforms » and the fact that few people do their homework and fully try to understand what they’re really buying.

If you want to get insights about your customers, and want one platform for actually managing all PII and non-PII data, also while keeping track of the opt-ins and be able to provide an audit trail, you should probably look for CDPs (aka Customer Data Platforms) which are getting more and more popular as the deadline for GDPR compliance comes closer.

If I was running your business, would I buy a DMP in 2018?

Would I sign a PO for a three years engagement for a DMP, if I were you? Probably not.

More than 50% of enterprises currently use a DMP, either directly or through an agency partner, according to Gartner’s Marketing Technology Survey (published Sept 2017, also numbers may slightly differ in our old Europe). Of the marketers without a DMP, one in five felt they didn’t need one.

Does this means that it’s the end of « Data Driven Marketing »? Absolutely not. There are many tools and solution alternatives, and also, GDPR is a great opportunity for businesses for adopt a different, more long term and customer centered approach to online marketing. And I’m convinced that your customers will appreciate this.

The Golden Age for DMPs is behind us. I’m glad I wrote my DMP blog posts series in 2016 :)

What then?

Start with small data. Do your homework. Understand your customers. Understand who they are, and why they buy from you, what they like in your brand and products. And surprise them. Please them. Add value by easing their lives as a customer, solving one issue at a time.

See also…

[DIGIDAY UK] GDPR is coming, and data management platforms are in the crosshairs

[DIGIDAY UK] With GDPR looming, DSPs are under pressure to adapt

[DIGIDAY UK] Ad retargeters scramble to get consumer consent

[DIGIDAY UK] Once a must-have, marketers sour on DMPs

L’analyse de données devient un outil stratégique

Au hasard de ma veille, je suis tombé dernièrement sur cet article qui a retenu mon intérêt, et j’avais envie de vous le partager tout en mettant en lumière certains passages…

Au hasard de ma veille, je suis tombé dernièrement sur cet article qui a retenu mon intérêt, et j’avais envie de vous le partager tout en mettant en lumière certains passages.

Cet article commence ainsi, par le chapeau suivant :

« Hier encore réservée aux statisticiens, l’analyse des données est aujourd’hui à la portée des spécialistes du marketing dans les entreprises. Les outils sont devenus faciles à manier et à peu près compréhensibles pour le commun des mortels. Le procédé a gagné en vitesse. Aujourd’hui, on obtient en quarante-huit heures une segmentation qui demandait plusieurs mois auparavant. »

Et puis cet article démarre en nous expliquant que « l’analyse des données est aujourd’hui au cœur de la chaine de la valeur client ». On peut difficilement être plus d’accord avec ceci, sachant que de nos jours il est quasiment impossible dans le domaine du marketing de ne pas entendre parler de « Data driven marketing », de « Big data » ou bien encore de « predictive analytics » et d’intelligence artificielle.

Cependant, que l’on ne s’y trompe pas, si le principe est séduisant, sa mise en œuvre doit se faire avec méthode parce que « les masses d’informations à traiter sont colossales. Cela inspire une démarche prudente, surtout lorsque l’on prend en compte le retour sur investissement ». Effectivement, si la démarche doit s’inscrire dans la recherche d’un ROI à court ou moyen terme, on prendra garde à évaluer les coûts directs et indirects (plateformes techniques, stockage de données, licences de solutions d’analyse, honoraires de consultants et de data scientists, etc.) en regard des bénéfices induits par la fidélisation ou un meilleur ciblage publicitaire.

Ensuite, l’article cite quelques cas dans plusieurs industries, à commencer par les telco et la finance : « L’opérateur de télécommunications Sprint fait appel à l’analyse des données dans le cadre de son programme de fidélisation pour ses 23 millions de clients. Il aurait réussi à réduire le taux d’attrition en élaborant des offres ciblées pour les clients multiproduits ». Voilà bien un sujet d’actualité : être en mesure de segmenter ses audiences de prospects et de clients, pouvoir proposer des offres adaptées à chaque profils en vue de lutter contre l’attrition, et en cherchant à développer l’équipement multiproduit chez ses clients.

Dans la finance : « Les banques demandent des outils simples et surtout automatisés dans toutes les analyses d’informations sur le comportement des clients (…) Même démarche d’ailleurs que dans la téléphonie : le scoring doit être fait en temps réel ». Grâce aux récentes avancées technologiques, les outils ont gagné en simplicité et offrent des possibilités d’analyse en quasi-temps réel, ainsi, « on peut réagir aux premiers retours d’une campagne test en quarante-huit heures, pour vérifier l’adéquation du message ». J’ai envie de répondre « Alléliua, Welcome to Data Driven Marketing ! », tant ce genre de besoin est présent chez un grand nombre d’entreprises.

Autre sujet abordé par cet article, celui qui se penche sur les préférences et les habitudes des clients afin de maximiser le ROI : « Comment repérer les clients les plus rentables, ceux qui couvrent 80 % du chiffre d’affaires ? Quels types de communication doit-on investir pour toucher ces clients ? Quelle est leur affinité par rapport à tel ou tel canal ? ».

Enfin, l’article aborde un point crucial : celui de la qualité des données. Parce qu’avec des données de mauvaise qualité en entrée, ou incomplètes, les meilleurs outils et les meilleurs algorithmes ne pourront pas faire de miracle. On nous dit ainsi que « l’actualité et la cohérence des données constituent le facteur-clé de la réussite. Il faut savoir traiter une masse d’informations stockées sur différents supports et systèmes. La qualité des données est responsable à 70 % du succès. Le reste dépend de la méthode utilisée pour l’analyse ».

Parce que, n’oublions pas que tout ceci s’inscrit dans une démarche de recherche de performance opérationnelle, et que « chaque somme investie dans une prédiction doit aboutir à une augmentation du taux de fidélité, d’achat ou de réponse. C’est le seul critère de rentabilité d’un programme ».

A ce stade, je pense que vous et moi sommes totalement convaincus par les bénéfices et la nécessité de mettre en œuvre des solutions de collecte et d’analyse des données client dans vos process de marketing.

Je vous invite à lire l’intégralité de cet article, maintenant que j’ai – je l’espère – attisé votre curiosité.

Ah aussi, juste un dernier point. J’allais oublier. L’article en question est daté de décembre 2001. Décembre 2001 !

Plus de quinze ans plus tard, le sujet reste terriblement d’actualité, comme le prouvent ces quelques tweets pris au hasard :

 

 

 

 

 

[Ce billet avait été initialement publié sur le blog Emakina]

Predictive Analytics, ou le cache-sexe de la donnée

2017 : c’est année des bots et de l’IA. En résumé, ce qu’on entend quasiment quotidiennement, c’est : « Si tu n’utilises pas d’intelligence artificielle ou du machine-learning pour piloter ton business, tu vas rater ta target. »

TL;DR

 

    1. Les solutions d’Analytics sont au fil du temps devenues très puissantes, mais aussi très complexes
    2. En entreprise, l’exploitation de l’analytics et du web analytics reste basique, voire parfois quasi inexistante
    3. Les éditeurs de solutions vendent l’idée que l’IA couplée aux outils de marketing permet d’obtenir des résultats sans besoin d’injecter de l’intelligence humaine
    4. En l’absence d’intelligence humaine, les solutions de Predictive Analytics sont elles aussi vouées à l’échec

Intro

2017 : c’est année des bots et de l’IA. En résumé, ce qu’on entend quasiment quotidiennement, c’est : « Si tu n’utilises pas d’intelligence artificielle ou du machine-learning pour piloter ton business, tu vas rater ta target. »

Et si on avait un doute, les éditeurs de suites marketing enfoncent le clou et nous parlent tous les jours de leurs intelligences artificielles maison.

Chez IBM, les technologies cognitives s’appellent collectivement « Watson ». Chez Salesforce, on nous parle de « Einstein » – pas besoin de sortir de Polytechnique pour comprendre que Einstein c’est quelqu’un de beaucoup plus intelligent que nous.

Chez Adobe, c’est « Sensei », ce nom inspire plus la confiance envers un Maître dont les oracles (no pun intended) sont parfois difficiles à interpréter pour un mortel, mais ne devraient jamais être remises en cause :)

Qu’est-ce que le Predictive Analytics ?

Plus sérieusement, le Predictive Analytics, c’est un ensemble de technologies utilisant des données, des algorithmes statistiques et de machine-learning en vue de déterminer la probabilité de l’occurrence de faits futurs par l’observation de faits et données passées.

On pourrait préciser un peu plus en disant qu’il existe deux grandes catégories : les algorithmes purement statistiques et utilisant diverses sortes de régressions sur des ensembles de données temporelles, et une autre catégorie basée sur les techniques de machine-learning (réseaux de neurones, deep-learning, etc.).

Predictive Analytics : une idée nouvelle ?

Non. L’idée n’est pas nouvelle. Simplement de nos jours elle s’appuie sur le big data et le machine-learning.

Il y a 30 ans de cela, en 1986, alors que j’étais encore étudiant, j’étais en stage chez IBM dans l’entrepôt de préparation de commandes entièrement robotisé de Evry-Lisses, et j’avais travaillé sur un logiciel collectant des données liées au fonctionnement, anomalies et pannes de divers équipements à des fins de maintenance préventive. Par exemple, un chariot autonome filoguidé sur lequel on constatait un nombre d’anomalies de pertes de signal de guidage en augmentation hors-normes, était sorti de la ligne de production et envoyé en maintenance avant d’avoir causé une panne plus profonde, voire une interruption de toute la ligne.

Plus récemment, vers 1997 j’étais en mission à Evry dans la biscuiterie Belin-LU où le service marketing avait développé un système de prévision des ventes, collectant des données de remontée de tickets de caisse afin de prévoir les ventes par produit, famille de produit, quantités et conditionnement afin de piloter les unités de production. Les biscuits sont fragiles et ont des DLC courtes. Produire de grosses quantités à l’aveuglette sans avoir une idée des niveaux de demande à venir, c’est assurément aller vers des volumes de retours massifs, et de la perte de bénéfices – sans même parler du gâchis de matières alimentaires.

Egalement, on a toutes et tous déjà entendu parler de GFT : Google Flu Trends. Or, même pour Google, ça n’était visiblement pas aussi facile que la légende le disait : Le service a fermé en 2015.

Bref, assez d’histoire ancienne…

Le Predictive Analytics qui marche

Mon propos ici n’est pas de dénigrer tout le domaine du Predictive Analytics. Il est des domaines – comme celui évoqué précédemment lié à la maintenance préventive des équipements et matériels – qui fonctionnent et donnent de bons résultats. Dernièrement, la SNCF a annoncé utiliser des technologies IBM Watson sur ces mêmes problématiques.

Marketing et Predictive Analytics

En revanche, il y a un domaine du Predictive Analytics pour lequel j’ai une approche, disons, plus nuancée, voire carrément critique. C’est le domaine du Predictive Analytics lié aux données marketing et appliqué au marketing digital.

Il est effarant de constater le nombre d’entreprises, de marques et de business de tous types, dans lesquels la culture de la donnée est encore quasi inexistante, et cela à tous les niveaux : on réalise des campagnes d’affichage en extérieur sur des affiches 4×3 ou sur du mobilier urbain mais… on n’a mis en place aucun processus pour récupérer de la donnée de tickets de caisse afin d’évaluer l’impact de la campagne sur les ventes. Ou bien on a encore des approches de campagnes marketing Print / Online / Social / etc qui sont totalement en silos, sans cohérence et sans aucun souci de répartition ou d’optimisation en fonction de l’attribution des ventes à ces points de contact. Les budgets sont pilotés par des services différents. Ou bien, encore, et de façon plus classique : on a bien mis en place une solution de Web analytics – gratuite ou payante, peu importe à ce niveau –  mais on ne fait quasiment aucune exploitation des données collectées, et les rapports produits en sont encore quasiment du niveau « nombre de visiteurs uniques / nombre de pages vues ». Nous sommes en 2017.

Ce nom de « Web analytics » est un terme très réducteur, et quasiment plus adapté. Les plus avancées de ces solutions permettent de nos jours en plus des données d’activité sur les sites web de croiser les chiffres du mobile, mais aussi d’y injecter des données et attributs provenant de votre CRM, afin de pouvoir affiner les analyses. Les outils d’Analytics donc sont devenus très complets, et très puissants.

Trop, peut être ?

Concrètement, qui dans votre organisation sait se connecter à votre solution Analytics, sait identifier les données intéressantes, peut produire un rapport ad-hoc permettant de comparer les comportements de deux cohortes distinctes ou pourrait analyser les causes d’un pic de trafic en anomalie ?

Cherchez bien. Peu de gens, certainement. Personne, parfois.

Predictive Analytics : le cache-sexe de la donnée

J’imagine qu’à un moment, les grands éditeurs de suites marketing ont été lassés de créer des solutions de plus en plus puissantes, mais de moins en moins bien utilisées par leurs clients. C’est le paradoxe de ces solutions devenues tellement puissantes qu’elles ont développé un côté si intimidant que finalement peu d’entreprises sont en mesure de les exploiter correctement, et n’en ont finalement qu’une utilisation basique.

Or, parmi ces clients ne réalisant pas la valeur de la solution qu’ils s’étaient offerts, certains étaient tentés de basculer vers le gratuit « good enough » au moment de renouveler le contrat : passer à Google Analytics Standard. Pour suivre leur business. Comme s’il s’agissait de leur blog perso. En 2017.

Alors, depuis, les éditeurs ont compris la leçon et face à l’alternative entre produire des solutions très puissantes mais complexes, ou bien tenter de simplifier à outrance au risque de produire des outils simplistes, ils ont ouvert une troisième voie : celle de l’intelligence artificielle et du Predictive Analytics.

Avec Watson, Einstein et autres Sensei, c’est la promesse de plateformes intelligentes, qui sont capables de faire automatiquement tout le travail d’analyse, de diagnostic voire de poser les actions correctives et de lancer les activations, de façon automatique, et sans aucun besoin d’intelligence humaine.

Bingo. L’argument fait mouche. Le Predictive Analytics est un must have.

Ce que certains ont oublié, c’est que, peu importe les souches algorithmiques de ces solutions (statistiques, machine-learning, etc.), elles ont besoin de données en quantité afin de produire des résultats. Et que, pour comparer vos chiffres de cette année, à ceux de l’année dernière… il faut au moins 1 an d’historique dans vos données. Damned. Ces solutions n’apporteront pas de réponses magiques overnight. L’an prochain, peut-être. Au mieux. Et d’ici là, vous allez devoir dresser la machine pour qu’elle apprenne que les soldes, les fêtes de fin d’année et la St Valentin sont des anomalies… normales :)

Reprenez le contrôle de vos données !

Nous sommes en 2017. Le marketing est définitivement Data Driven. Les expériences qu’attendent vos clients et vos consommateurs sont également construites sur des Insights qui sont tirés de l’analyse de données.

Reprenez le contrôle de vos données. L’investissement dans des solutions de pointe ne dispense en aucun cas d’investir dans des collaborateurs ou des partenaires qui pourront vous accompagner et sauront en tirer toute la valeur.

Faites-vous aider. Ces investissements sont payants.