Votre Fidélité Récompensée !

Je suis joueur. Ce matin l’aimable caissière du Franprix de mon quartier me propose la carte de fidélité, et m’indique que je peux m’enregistrer en ligne. Pratique, non ? Mais étant d’un naturel méfiant, je suspecte un truc…

Je suis joueur. Ce matin l’aimable caissière du Franprix de mon quartier me propose la carte de fidélité, et m’indique que je peux m’enregistrer en ligne. Pratique, non ? Mais étant d’un naturel méfiant, je suspecte un truc…



Alors comme je suis joueur, de retour chez moi je lance Firefox, je vide tous les cookies et autres données et je procède à mon inscription en ligne.


A l’issue du processus – pendant lequel je dois fournir nom, prénom, adresse, email, mobile et indiquer le nombre de membres de mon foyer, je compte 65 nouveaux cookies tout frais dans mon browser, dont la majorité provenant des plus actives parmi les boites de l’ad-tech.


 En voici une liste partielle :
  • Adsrvr.org (The Trade Desk)
  • Pubmatic
  • Google (bien entendu !)
  • Bluekai (qui est désormais la DMP de Oracle)
  • Facebook (forcément aussi, bien que je me sois bien gardé d’utiliser le Facebook Login)
  • SmartAdserver
  • Mediarithmics
  • Rubicon Project
  • StickyAd
  • Weborama
  • Krxd.net (aka Krux, désormais la DMP de Salesforce)
  • Demdex (donc cette fois la DMP de Adobe)
  • OpenX
  • 3WRégie
Voilà voilà. Si vous vous demandiez où et comment se passent les ID Sync entre les plateformes d’ad-tech, sachez que c’est très souvent chez les e-commerçants que ça se passe, là ou vous avez tout intérêt à fournir vos vraies données et coordonnées – parce que vous comptez bien recevoir votre commande rapidement et à la bonne adresse, mais donc comme on vient de l’expérimenter, ceci ne se passe pas uniquement chez les Pure Players. Soit typiquement, chez les retailers clients du dernier acteur de la liste.


Allez, profitez-en bien les gars, parce que très prochainement la GDPR et ePrivacy vont siffler la fin de la récré…


En attendant, c’est comme dans « La Haine » : on dirait que pour le moment la posture de l’industrie de l’ad-tech c’est « Jusqu’ici tout va bien, jusqu’ici tout va bien, jusqu’ici tout va bien. Mais l’important n’est pas la chute, c’est l’atterrissage. »


[Edit du 21/Fév/2018] Puisque ce sujet semble vous passionner (plus de 5,600+ vues sur LinkedIn), je me raccroche à l’actu récente : dans le cas que je décris, on aura bien compris que 1/ je ne suis pas loggué sur Facebook et 2/ je n’ai surfé sur aucune web property de Facebook. Pourtant j’en récolte un cookie. Voilà ce qu’en pense Bruxelles : https://techcrunch.com/2018/02/19/facebooks-tracking-of-non-users-ruled-illegal-again/ A méditer…

Do you really need a DMP in 2018?

A couple of months ago, I was discussing with two business contacts of mine about their plans and priorities for 2018: they had to decide about strategic investments, and they asked my opinion about choosing and implementing a DMP for their business. This got me thinking. Well, it’s 2018, and DMPs are so 2016…

A couple of months ago, I was discussing with two business contacts of mine about their plans and priorities for 2018: they had to decide about strategic investments, and they asked my opinion about choosing and implementing a DMP for their business. This got me thinking.

Well, it’s 2018, and DMPs are so 2016…

Reminder : DMPs are an (optional) link in the RTB programmatic chain. DMP’s main capability is to combine 1st, 2nd and 3rd party data in order to create specific audience segments, to be exposed to display ad campaigns.

If you live in the EU, or if your business has some B2C activity with individuals from Europe, then you will soon be bound by the now famous GDPR regulation. As we’ll explain here after, the GDPR regulation has some direct consequences on the way a DMP (and on a wider scale, the programmatic ad-tech industry) can be operated.

3rd Party Data Vendors

The business of selling massive amounts of anonymous data will probably not survive GDPR. This business was already in bad shape a couple of years ago, and most of the pure players had tried to pivot to some other form of activity, but this time it’s getting worse. GDPR enforces full opt-in for data collection, and makes it mandatory to clearly state the all usages for the collected data.

Where do 3rd Party Data vendors collect their data from has always been the dirty little secret in this ad-tech industry. It’s in nobody’s interest to ask too much questions. All you want to know, is that someone acts as a proxy, sells data and does the dirty job in the back-office. And I won’t even discuss 3rd party data accuracy.

Here for instance, Oracle Bluekai thinks I’m a soccer and WorldCup enthusiast, and a NASCAR fan. Those of you who do know me also know how ridiculous this is.

It’s going to be _very_ tough for data vendors to be able to collect, trace, anonymize and allow for deletion of all collected data. I honestly don’t see how these business could survive. The funny thing is that every now and then, I stumble on interviews from 3rd party data vendors(*) who swear to God that they are already GDPR compliant, or they will soon be…

The market for 3rd Party Data is almost dead. Let’s consider DMPs only for 2nd and 1st party data then…

(*) : not all of them.

2nd Party Data

Second party data is just someone else’s first party data. 2nd party data happens when several advertisers and/or published agree to ID sync and share information about their common audiences. With GDPR, all data collected will have to be collected with full opt-in, and after presenting all the details of the use of the data to the individuals.

Collecting the opt-ins for a 2nd party data sharing scenario on some Example.com website could look like this:

Do you believe that many people would simply click « OK » and blindly accept to share their personal data with sites and services they never heard about, if they are asked to? I don’t think so.

I think we can assume that 2nd party data partnerships will disappear when GDPR comes into play.

OK then. Let’s play safe and use DMPs just for 1st party data

Why not. But if your DMP is only useful for using your first party data for segmentation, you could probably directly use some modern DSP capabilities. Or if you want to use some of your CRM data, you could use services of some CRM onboarder like Temelio or Graphinium. Or if you want to do social advertising, or retargeting, you could use formats from Facebook, Amazon, Google, or twitter such as « custom audiences », RLSA, and the likes.

And you don’t need a DMP. And you don’t have to spend 3 to 6 months on the deployment and invest between 100 and 200k€ of your budget on year 1 just for the platform fees and setup.

DMPs for insights and customer intelligence?

Not really either. In a recent industry report, 9 out of 11 DMP vendors were rated « Poor » about « Analytics and audiences insights offerings ». By design. Simply because most of the DMPs were designed as activation platforms, not as analytics platforms. There’s a disconnect between DMP capabilities and the reality. In my opinion, this is partly caused by the name « Data Management Platforms » and the fact that few people do their homework and fully try to understand what they’re really buying.

If you want to get insights about your customers, and want one platform for actually managing all PII and non-PII data, also while keeping track of the opt-ins and be able to provide an audit trail, you should probably look for CDPs (aka Customer Data Platforms) which are getting more and more popular as the deadline for GDPR compliance comes closer.

If I was running your business, would I buy a DMP in 2018?

Would I sign a PO for a three years engagement for a DMP, if I were you? Probably not.

More than 50% of enterprises currently use a DMP, either directly or through an agency partner, according to Gartner’s Marketing Technology Survey (published Sept 2017, also numbers may slightly differ in our old Europe). Of the marketers without a DMP, one in five felt they didn’t need one.

Does this means that it’s the end of « Data Driven Marketing »? Absolutely not. There are many tools and solution alternatives, and also, GDPR is a great opportunity for businesses for adopt a different, more long term and customer centered approach to online marketing. And I’m convinced that your customers will appreciate this.

The Golden Age for DMPs is behind us. I’m glad I wrote my DMP blog posts series in 2016 :)

What then?

Start with small data. Do your homework. Understand your customers. Understand who they are, and why they buy from you, what they like in your brand and products. And surprise them. Please them. Add value by easing their lives as a customer, solving one issue at a time.

See also…

[DIGIDAY UK] GDPR is coming, and data management platforms are in the crosshairs

[DIGIDAY UK] With GDPR looming, DSPs are under pressure to adapt

[DIGIDAY UK] Ad retargeters scramble to get consumer consent

[DIGIDAY UK] Once a must-have, marketers sour on DMPs

L’analyse de données devient un outil stratégique

Au hasard de ma veille, je suis tombé dernièrement sur cet article qui a retenu mon intérêt, et j’avais envie de vous le partager tout en mettant en lumière certains passages…

Au hasard de ma veille, je suis tombé dernièrement sur cet article qui a retenu mon intérêt, et j’avais envie de vous le partager tout en mettant en lumière certains passages.

Cet article commence ainsi, par le chapeau suivant :

« Hier encore réservée aux statisticiens, l’analyse des données est aujourd’hui à la portée des spécialistes du marketing dans les entreprises. Les outils sont devenus faciles à manier et à peu près compréhensibles pour le commun des mortels. Le procédé a gagné en vitesse. Aujourd’hui, on obtient en quarante-huit heures une segmentation qui demandait plusieurs mois auparavant. »

Et puis cet article démarre en nous expliquant que « l’analyse des données est aujourd’hui au cœur de la chaine de la valeur client ». On peut difficilement être plus d’accord avec ceci, sachant que de nos jours il est quasiment impossible dans le domaine du marketing de ne pas entendre parler de « Data driven marketing », de « Big data » ou bien encore de « predictive analytics » et d’intelligence artificielle.

Cependant, que l’on ne s’y trompe pas, si le principe est séduisant, sa mise en œuvre doit se faire avec méthode parce que « les masses d’informations à traiter sont colossales. Cela inspire une démarche prudente, surtout lorsque l’on prend en compte le retour sur investissement ». Effectivement, si la démarche doit s’inscrire dans la recherche d’un ROI à court ou moyen terme, on prendra garde à évaluer les coûts directs et indirects (plateformes techniques, stockage de données, licences de solutions d’analyse, honoraires de consultants et de data scientists, etc.) en regard des bénéfices induits par la fidélisation ou un meilleur ciblage publicitaire.

Ensuite, l’article cite quelques cas dans plusieurs industries, à commencer par les telco et la finance : « L’opérateur de télécommunications Sprint fait appel à l’analyse des données dans le cadre de son programme de fidélisation pour ses 23 millions de clients. Il aurait réussi à réduire le taux d’attrition en élaborant des offres ciblées pour les clients multiproduits ». Voilà bien un sujet d’actualité : être en mesure de segmenter ses audiences de prospects et de clients, pouvoir proposer des offres adaptées à chaque profils en vue de lutter contre l’attrition, et en cherchant à développer l’équipement multiproduit chez ses clients.

Dans la finance : « Les banques demandent des outils simples et surtout automatisés dans toutes les analyses d’informations sur le comportement des clients (…) Même démarche d’ailleurs que dans la téléphonie : le scoring doit être fait en temps réel ». Grâce aux récentes avancées technologiques, les outils ont gagné en simplicité et offrent des possibilités d’analyse en quasi-temps réel, ainsi, « on peut réagir aux premiers retours d’une campagne test en quarante-huit heures, pour vérifier l’adéquation du message ». J’ai envie de répondre « Alléliua, Welcome to Data Driven Marketing ! », tant ce genre de besoin est présent chez un grand nombre d’entreprises.

Autre sujet abordé par cet article, celui qui se penche sur les préférences et les habitudes des clients afin de maximiser le ROI : « Comment repérer les clients les plus rentables, ceux qui couvrent 80 % du chiffre d’affaires ? Quels types de communication doit-on investir pour toucher ces clients ? Quelle est leur affinité par rapport à tel ou tel canal ? ».

Enfin, l’article aborde un point crucial : celui de la qualité des données. Parce qu’avec des données de mauvaise qualité en entrée, ou incomplètes, les meilleurs outils et les meilleurs algorithmes ne pourront pas faire de miracle. On nous dit ainsi que « l’actualité et la cohérence des données constituent le facteur-clé de la réussite. Il faut savoir traiter une masse d’informations stockées sur différents supports et systèmes. La qualité des données est responsable à 70 % du succès. Le reste dépend de la méthode utilisée pour l’analyse ».

Parce que, n’oublions pas que tout ceci s’inscrit dans une démarche de recherche de performance opérationnelle, et que « chaque somme investie dans une prédiction doit aboutir à une augmentation du taux de fidélité, d’achat ou de réponse. C’est le seul critère de rentabilité d’un programme ».

A ce stade, je pense que vous et moi sommes totalement convaincus par les bénéfices et la nécessité de mettre en œuvre des solutions de collecte et d’analyse des données client dans vos process de marketing.

Je vous invite à lire l’intégralité de cet article, maintenant que j’ai – je l’espère – attisé votre curiosité.

Ah aussi, juste un dernier point. J’allais oublier. L’article en question est daté de décembre 2001. Décembre 2001 !

Plus de quinze ans plus tard, le sujet reste terriblement d’actualité, comme le prouvent ces quelques tweets pris au hasard :






[Ce billet avait été initialement publié sur le blog Emakina]

Predictive Analytics, ou le cache-sexe de la donnée

2017 : c’est année des bots et de l’IA. En résumé, ce qu’on entend quasiment quotidiennement, c’est : « Si tu n’utilises pas d’intelligence artificielle ou du machine-learning pour piloter ton business, tu vas rater ta target. »



    1. Les solutions d’Analytics sont au fil du temps devenues très puissantes, mais aussi très complexes
    2. En entreprise, l’exploitation de l’analytics et du web analytics reste basique, voire parfois quasi inexistante
    3. Les éditeurs de solutions vendent l’idée que l’IA couplée aux outils de marketing permet d’obtenir des résultats sans besoin d’injecter de l’intelligence humaine
    4. En l’absence d’intelligence humaine, les solutions de Predictive Analytics sont elles aussi vouées à l’échec


2017 : c’est année des bots et de l’IA. En résumé, ce qu’on entend quasiment quotidiennement, c’est : « Si tu n’utilises pas d’intelligence artificielle ou du machine-learning pour piloter ton business, tu vas rater ta target. »

Et si on avait un doute, les éditeurs de suites marketing enfoncent le clou et nous parlent tous les jours de leurs intelligences artificielles maison.

Chez IBM, les technologies cognitives s’appellent collectivement « Watson ». Chez Salesforce, on nous parle de « Einstein » – pas besoin de sortir de Polytechnique pour comprendre que Einstein c’est quelqu’un de beaucoup plus intelligent que nous.

Chez Adobe, c’est « Sensei », ce nom inspire plus la confiance envers un Maître dont les oracles (no pun intended) sont parfois difficiles à interpréter pour un mortel, mais ne devraient jamais être remises en cause :)

Qu’est-ce que le Predictive Analytics ?

Plus sérieusement, le Predictive Analytics, c’est un ensemble de technologies utilisant des données, des algorithmes statistiques et de machine-learning en vue de déterminer la probabilité de l’occurrence de faits futurs par l’observation de faits et données passées.

On pourrait préciser un peu plus en disant qu’il existe deux grandes catégories : les algorithmes purement statistiques et utilisant diverses sortes de régressions sur des ensembles de données temporelles, et une autre catégorie basée sur les techniques de machine-learning (réseaux de neurones, deep-learning, etc.).

Predictive Analytics : une idée nouvelle ?

Non. L’idée n’est pas nouvelle. Simplement de nos jours elle s’appuie sur le big data et le machine-learning.

Il y a 30 ans de cela, en 1986, alors que j’étais encore étudiant, j’étais en stage chez IBM dans l’entrepôt de préparation de commandes entièrement robotisé de Evry-Lisses, et j’avais travaillé sur un logiciel collectant des données liées au fonctionnement, anomalies et pannes de divers équipements à des fins de maintenance préventive. Par exemple, un chariot autonome filoguidé sur lequel on constatait un nombre d’anomalies de pertes de signal de guidage en augmentation hors-normes, était sorti de la ligne de production et envoyé en maintenance avant d’avoir causé une panne plus profonde, voire une interruption de toute la ligne.

Plus récemment, vers 1997 j’étais en mission à Evry dans la biscuiterie Belin-LU où le service marketing avait développé un système de prévision des ventes, collectant des données de remontée de tickets de caisse afin de prévoir les ventes par produit, famille de produit, quantités et conditionnement afin de piloter les unités de production. Les biscuits sont fragiles et ont des DLC courtes. Produire de grosses quantités à l’aveuglette sans avoir une idée des niveaux de demande à venir, c’est assurément aller vers des volumes de retours massifs, et de la perte de bénéfices – sans même parler du gâchis de matières alimentaires.

Egalement, on a toutes et tous déjà entendu parler de GFT : Google Flu Trends. Or, même pour Google, ça n’était visiblement pas aussi facile que la légende le disait : Le service a fermé en 2015.

Bref, assez d’histoire ancienne…

Le Predictive Analytics qui marche

Mon propos ici n’est pas de dénigrer tout le domaine du Predictive Analytics. Il est des domaines – comme celui évoqué précédemment lié à la maintenance préventive des équipements et matériels – qui fonctionnent et donnent de bons résultats. Dernièrement, la SNCF a annoncé utiliser des technologies IBM Watson sur ces mêmes problématiques.

Marketing et Predictive Analytics

En revanche, il y a un domaine du Predictive Analytics pour lequel j’ai une approche, disons, plus nuancée, voire carrément critique. C’est le domaine du Predictive Analytics lié aux données marketing et appliqué au marketing digital.

Il est effarant de constater le nombre d’entreprises, de marques et de business de tous types, dans lesquels la culture de la donnée est encore quasi inexistante, et cela à tous les niveaux : on réalise des campagnes d’affichage en extérieur sur des affiches 4×3 ou sur du mobilier urbain mais… on n’a mis en place aucun processus pour récupérer de la donnée de tickets de caisse afin d’évaluer l’impact de la campagne sur les ventes. Ou bien on a encore des approches de campagnes marketing Print / Online / Social / etc qui sont totalement en silos, sans cohérence et sans aucun souci de répartition ou d’optimisation en fonction de l’attribution des ventes à ces points de contact. Les budgets sont pilotés par des services différents. Ou bien, encore, et de façon plus classique : on a bien mis en place une solution de Web analytics – gratuite ou payante, peu importe à ce niveau –  mais on ne fait quasiment aucune exploitation des données collectées, et les rapports produits en sont encore quasiment du niveau « nombre de visiteurs uniques / nombre de pages vues ». Nous sommes en 2017.

Ce nom de « Web analytics » est un terme très réducteur, et quasiment plus adapté. Les plus avancées de ces solutions permettent de nos jours en plus des données d’activité sur les sites web de croiser les chiffres du mobile, mais aussi d’y injecter des données et attributs provenant de votre CRM, afin de pouvoir affiner les analyses. Les outils d’Analytics donc sont devenus très complets, et très puissants.

Trop, peut être ?

Concrètement, qui dans votre organisation sait se connecter à votre solution Analytics, sait identifier les données intéressantes, peut produire un rapport ad-hoc permettant de comparer les comportements de deux cohortes distinctes ou pourrait analyser les causes d’un pic de trafic en anomalie ?

Cherchez bien. Peu de gens, certainement. Personne, parfois.

Predictive Analytics : le cache-sexe de la donnée

J’imagine qu’à un moment, les grands éditeurs de suites marketing ont été lassés de créer des solutions de plus en plus puissantes, mais de moins en moins bien utilisées par leurs clients. C’est le paradoxe de ces solutions devenues tellement puissantes qu’elles ont développé un côté si intimidant que finalement peu d’entreprises sont en mesure de les exploiter correctement, et n’en ont finalement qu’une utilisation basique.

Or, parmi ces clients ne réalisant pas la valeur de la solution qu’ils s’étaient offerts, certains étaient tentés de basculer vers le gratuit « good enough » au moment de renouveler le contrat : passer à Google Analytics Standard. Pour suivre leur business. Comme s’il s’agissait de leur blog perso. En 2017.

Alors, depuis, les éditeurs ont compris la leçon et face à l’alternative entre produire des solutions très puissantes mais complexes, ou bien tenter de simplifier à outrance au risque de produire des outils simplistes, ils ont ouvert une troisième voie : celle de l’intelligence artificielle et du Predictive Analytics.

Avec Watson, Einstein et autres Sensei, c’est la promesse de plateformes intelligentes, qui sont capables de faire automatiquement tout le travail d’analyse, de diagnostic voire de poser les actions correctives et de lancer les activations, de façon automatique, et sans aucun besoin d’intelligence humaine.

Bingo. L’argument fait mouche. Le Predictive Analytics est un must have.

Ce que certains ont oublié, c’est que, peu importe les souches algorithmiques de ces solutions (statistiques, machine-learning, etc.), elles ont besoin de données en quantité afin de produire des résultats. Et que, pour comparer vos chiffres de cette année, à ceux de l’année dernière… il faut au moins 1 an d’historique dans vos données. Damned. Ces solutions n’apporteront pas de réponses magiques overnight. L’an prochain, peut-être. Au mieux. Et d’ici là, vous allez devoir dresser la machine pour qu’elle apprenne que les soldes, les fêtes de fin d’année et la St Valentin sont des anomalies… normales :)

Reprenez le contrôle de vos données !

Nous sommes en 2017. Le marketing est définitivement Data Driven. Les expériences qu’attendent vos clients et vos consommateurs sont également construites sur des Insights qui sont tirés de l’analyse de données.

Reprenez le contrôle de vos données. L’investissement dans des solutions de pointe ne dispense en aucun cas d’investir dans des collaborateurs ou des partenaires qui pourront vous accompagner et sauront en tirer toute la valeur.

Faites-vous aider. Ces investissements sont payants.

DMPSeries #6 – De l’importance d’avoir défini les Use Cases DMP

Dans le billet précédent, j’ai présenté 5 facteurs qui – à mon sens – sont clé dans la réussite d’un projet DMP chez un annonceur. Le second point insistait sur l’importance des Use Cases et des KPIs. Ici j’explique pourquoi.

Sixième billet d’une série consacrée aux plateformes DMP.

Dans le billet précédent, j’ai présenté 5 facteurs qui – à mon sens – sont clé dans la réussite d’un projet DMP chez un annonceur. Le second point insistait sur l’importance des Use Cases et des KPIs.

Alors bien entendu, si ça semble être simplement du bon sens de dire qu’avant de se lancer dans un projet de mise en place d’une DMP, il est plus que conseillé d’avoir déjà réfléchi en amont à l’utilisation de cette DMP et à quels cas d’usage on souhaitera répondre. Ça frise la Lapalissade :)

Mais au delà de ce truisme, il faut comprendre que le fait d’avoir pris le soin en amont de définir et de documenter de façon claire et compréhensible une liste de Use Cases prioritaires sera bénéfique non seulement au projet DMP lui-même, mais aussi plus largement à votre société.

Les bénéfices obtenus seront de plusieurs ordres :

a – Les bénéfices en interne

  • s’assurer qu’on a bien identifié tous les besoins et les business cases qui seront confiés à terme à la DMP
  • collecter l’ensemble des besoins des différents services : branding, marketing, pays ou départements, marques, CRM, etc

On aura pris soin de recenser tous les besoins surtout en termes d’activation, de la part des différents services : l’équipe acquisition, le marketing, les agences média, le CRM, les ventes, les différents départements / marques ou pays, etc.

On évitera ainsi de lancer un projet de DMP qui serait uniquement piloté par exemple par l’équipe acquisition avec une vision très media et display tout en oubliant les uses cases du CRM, ou réciproquement.

Le fait d’avoir listé l’ensemble des besoins et des cas d’usage des différents services et départements permet aussi – bien entendu – d’obtenir leur adhésion au projet dès le départ, et de pouvoir prioriser les différents use cases, car il y aura immanquablement des arbitrages à opérer, et certains use cases pourront être repoussés pour les phase II ou phase III du projet.

b – Les bénéfices pour le chiffrage

  • lister les sources de données à prendre en compte
  • lister les plateformes d’activation à prendre en compte
  • valider la faisabilité technique / fonctionnelle / juridique des use cases

Les principaux bénéfices à ce niveau sont assez clairs : soumettre vos use cases aux fournisseurs technologiques (ie les éditeurs de plateformes DMP consultés dans votre RFP) permet de vous assurer que la plateforme sélectionnée sera en mesure d’opérer les use cases que vous comptez réaliser. Ca n’est pas anodin.

Accessoirement, ceci permet aussi au fournisseur de réaliser un chiffrage plus précis, parce qu’ayant une vision plus détaillée du travail d’intégration et de configuration à réaliser (besoin de mettre en place un import de données CRM ou pas, nombre de sites Web à tracker, nombre de plateformes DSP à interfacer, avec des connecteurs standards déjà existants ou bien des besoins d’intégrations spéciques, etc.)

c – Les bénéfices pour la planification du projet d’implémentation

  • prioriser la réalisation des use cases (ie imports CRM en phase 1 ou phase 2 ; use cases LAL nécessitant un cookie pool déjà conséquent ; etc)
  • matière de base pour prioriser (prioriser sur 3 axes : urgence, importance, délai de mise en oeuvre)

Là encore, les éditeurs de plateformes DMP et leurs équipes projet ont l’habitude de réaliser ce type de projet. Ils sont en mesure de vous conseiller sur un planning et un phasage optimal pour la réalisation de vos use cases. Typiquement, le use case très populaire qu’est le « look alike modeling » est généralement relégué en phase II ou en phase III, car il suppose pour être efficace que la DMP ait au préalable collecté un volume de profils et de données conséquent. On ne met pas en œuvre un « look alike modeling » dans les 3 premiers mois d’un projet DMP. Ca serait juste du temps perdu.

d – Les bénéfices pour le déroulement du projet d’implémentation

  • prioriser les uses cases c’est aussi pouvoir planifier les besoins et les disponibilités des resources. Par ex, on saura que sur la 2ème quinzaine de tel mois, on aura besoin de l’IT pour réaliser l’export depuis le CRM vers la DMP, etc
  • ensemble des uses cases = ensemble des données devant être collectées et des “personas” d’audiences à considérer, donc à partir de là on peut lister les données nécessaires, rechercher les sources de données correspondantes en 1st party, voire le cas échéant chercher à complémenter via de la 2nd party, auquel cas on n’attendra pas la fin de l’implémentation de la DMP pour entamer les discussions de partenariat et le paperwork lié à l’échange des données, ou autre type de contrepartie
  • aussi, in fine, disposer du catalogue de l’ensemble des données à considérer permet d’en déduire et de définir les taxonomies

Et c’est ici sans doute l’argument le plus important : c’est uniquement par l’étude des use cases souhaités et priorisés par le client qu’il sera possible par déduction de lister les données nécessaires devant être collectées par la DMP, et que l’on pourra aussi en déduire les taxonomies pour ces données. Le cas échéant, quand les données nécessaires ne seront pas disponibles directement en 1st Party sur les sites web ou apps du client, on pourra investiguer dans les jeux de données des fournisseurs 3rd Party ou bien imaginer des partenariats de données 2nd Party avec d’autres acteurs.

Quels use cases considérer ?

Les use cases à considérer ne sont pas uniquement restreints à ceux qui répondent à la question : « quel contenu ou quelle bannière vais-je afficher à telle ou telle audience ? ».

Par exemple, c’est le cas de cette chaine d’hôtellerie haut de gamme qui exclue de toutes campagnes de publicité en media display les 5 ou 10% de ses meilleurs clients, qui sont des business travelers et qui réservent déjà naturellement plusieurs nuitées par moi dans les enseignes du groupe. La marque a décidé de ne pas risquer de froisser et d’ennuyer ses clients fidèles avec des publicités inutiles. En revanche, elle laisse aux équipes CRM et aux programmes de fidélisation toute latitude pour s’assurer que ces meilleurs clients seront très bien servis et qu’ils seront satisfaits de leur expérience avant, pendant et après leurs séjours dans l’hôtel.

Bonus : Avoid the “Creep Factor”

Citation de Tom Goodwin de l’agence Zenith (voir à ce sujet mon précédent billet) :

“Millions of conversations in media is about data, distribution and targeting.
Nothing about the actual ad served.”

Quand on imagine les Use Cases, on devrait aussi et surtout se mettre à la place du client final, du prospect. Par exemple, le cas de l’opérateur Telco qui envoie un emailing de promo sur les nouveaux forfaits 4G (ou broadband, disons fibre) à des clients existants qui… ne sont pas éligibles à l’offre parce qu’ils vivent dans une zone/région non couverte. Il en résulte de la frustration du client.

Pourtant l’opérateur détient toutes les données utiles et connait son client.

En principe !


Jusqu’à encore récemment, je fus ingénieur avant-vente spécialisé sur la DMP chez Adobe. Néanmoins, je m’attache ici à présenter le sujet DMP de façon neutre, en restant au niveau des généralités, sauf mention contraire. Ce billet fait partie d’une série de billets consacrés aux DMP. Vous pouvez trouver la liste de ces billets via ce lien.