Comment exploiter le big data pour améliorer l'expérience client ? Quelles utilisations de la DMP pour un marketing personnalisé et créatif ? Comment associer big data et programmatiques ?
Toutes les réponses à ces questions, et bien d'autres encore, dans ce livret de synthèse clôturant ce cycle de l'année 2017 consacré à la big data, organisé par l'EBG en partenariat avec IBM, Turn et fifty-five.
EBG - Livret de synthèse - Task Force CDO 201855 | fifty-five
Avec la nouvelle réglementation et la pression de nouveaux acteurs, le rôle du Chief Data Officer prend de plus en plus d'ampleur.
Quels ont été les défis rencontrés par les CDO en 2018 ? C'est la question à laquelle ont répondu l'EBG, fifty-five et Informatica dans cet ouvrage de synthèse.
Soft Computing & IBM : Digital, Big Data & DMPSoft Computing
Soft Computing et IBM partagent leurs retours d'expériences.
La digitalisation bouleverse toutes les facettes de la relation client. Le marketing digital n'existe plus, c'est l'ensemble du marketing qui est passé à l'ère du digital. Tout est devenu générateur de données, mais comment les valoriser ?
Les frontières entre marketing services, données, design, publicité, social, web et mobile s'estompent au fur et à mesure que la technologie évolue pour simplifier les interactions entre disciplines.
S'appuyant notamment sur diverses solutions avancées en matière de Big Data & Analytics, le large panorama de l'offre d'IBM vous sera replacé dans le contexte des besoins du marketing client et produit.
Soft Computing partagera avec vous des cas d'usages métiers en partant du CRM multi canal confronté aux nouveaux parcours, puis en intégrant les nouveaux médias et les Big Data.
Enfin, pour répondre aux nouveaux enjeux marketing sans tomber dans les difficultés de mise en œuvre de projets complexes et couteux, Soft Computing vous présentera le dispositif « Soft Computing Marketing Ready » tel que mis en œuvre notamment pour de grandes enseignes de la distribution alimentaire. Il comprend à la fois des outils informatiques et des prestations de services, qui couvrent l'ensemble des fonctions marketing de manière intégrée : connaissance client, campagnes marketing, fidélité, promotions, référentiel client, qualité des données, moteur de recommandations, référencement web, veille et animation sociale, enquêtes, reporting marketing, datasharing et data onboarding.
06/07/17 Table ronde Data Transformation ProgramSoft Computing
Data Transformation Program : une nouvelle révolution déjà en marche
Pourquoi aujourd'hui les entreprises mettent la Data au coeur de leur transformation ? Comment initier et déployer ces programmes ? Quels impacts pour quelle création de valeur espérée ?
Avec le témoignage de la Responsable du Programme de Transformation Data d’ACCOR HOTELS.
Les entreprises ont largement initié leur mue digitale. Cette transformation est souvent, comme toutes les grandes mutations, dans un premier temps sous-estimée, faute d’intégration de tous les acteurs, de trajectoire partagée et séquencée, de valorisation concrète des bénéfices.
A l’heure de l’industrialisation des projets Big Data et du stockage des données en masse, il est nécessaire de s’interroger sur la création de valeur générée par la collecte, l’usage et la gouvernance de ces données.
Alors au-delà de la promesse d’améliorer la connaissance client, qu’entend-on par «Data Transformation » ? Pourquoi est-ce un projet d’Entreprise ? Quels peuvent en être les bénéfices concrets ? Quelles sont les dimensions prioritaires ? Quelles missions pour le Chief Data Officer ?
Machine Learning et Intelligence ArtificielleSoft Computing
Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de visages, de sentiments, analyse de signaux issus notamment d’objets connectés. Comment capitaliser sur ces méthodologies pour des applications Marketing ? Avec quels outils, méthodes et compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle. Cette débauche de moyens en recherche et développement génère la diffusion en Open Source de nombreux algorithmes ou le foisonnement de fonctions et d’API de Machine Learning et Deep Learning et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, des sentiments …
En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitement considérables qui permettent d’appliquer ces algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Le Marketing et la connaissance client capitalisent sur toutes ces nouvelles possibilités : conseiller le bon produit – en mode recommandation ou substitution, anticiper des changements dans les comportements, s’adresser au client de façon complètement personnalisée, surveiller en temps réel des indicateurs de bon ou mauvais fonctionnement – objets connectés, fluidifier et optimiser l’expérience client en identifiant des axes d’amélioration des parcours ou process.
Ce séminaire vise à démystifier le Machine Learning, à en dessiner des applications potentielles pour le Marketing. Les modalités de mise en œuvre – outils, procédures et techniques, forces et faiblesses – seront détaillées à travers la présentation de cas d’usage.
Gouvernance des données : le potentiel DATA au service de votre business !
La gouvernance des données devient aujourd’hui une priorité stratégique pour beaucoup d’entreprises… Mais quels sont concrètement les facteurs-clés de succès, les impacts de sa mise en œuvre et la création de valeur espérée ?
Les entreprises ont pour la plupart largement initié leur mue digitale. Cette transformation majeure fut, comme toutes les grandes mutations, dans un premier temps sous-estimée, faute de valorisation concrète des bénéfices. Cette situation semble se reproduire aujourd’hui avec la gouvernance data.
Pourtant, à l’heure de l’industrialisation des projets Big Data et du stockage des données tous azimuts, il devient fondamental de s’interroger sur la véritable création de valeur générée par la collecte, l’usage et la gouvernance de toutes ces données.
Alors au-delà de cette promesse, qu’entend-on par gouvernance des données ? Quelles sont les données à collecter ? Les outils à utiliser ? Les bénéfices concrets ? Quels sont les freins à sa mise en œuvre ? Quelles sont les dimensions prioritaires ? Quelle méthodologie adopter ? Quelles missions pour le Chief Data Officer ?
Objets connectés et Data Science, quels usages marketing ?
Les objets connectés provoquent un véritable déluge de données. Les techniques de Machine Learning et de Data Science combinées aux technologies Big Data permettent de transformer ces données en connaissance actionnable pour améliorer l’expérience utilisateur, la qualité des produits ou l’efficacité des processus. Quelles données remontent de l’IoT ? quelles techniques permettent d’en extraire de la connaissance utile ? comment cette connaissance peut-elle créer de la valeur ?
Que ce soit dans le domaine de la santé, de la domotique, des véhicules, des réseaux de distribution, la quantité d’objets connectés croît de manière exponentielle. Dans le même temps, les innovations technologiques concourent à augmenter la fréquence et la quantité d’informations captée et exploitable.
Les services rendus à son utilisateur par chaque objet connecté reposent sur la donnée collectée et son analyse. Mais l’accumulation de données que rendent possible les technologies Big Data et la puissance d’analyse qu’offrent les techniques de Deep Machine Learning et de Data Science ouvrent de nouveaux horizons à l’utilisation marketing des données de l’IoT : primes d’assurances tarifées à l’usage, prévisions des ventes de produits frais ou des consommations d’énergie, anticipation des files d’attente en caisse, yield management et pricing dynamique, ...
Ce séminaire prospectif vise à présenter au travers de quelques exemples, les données, les technologies et les techniques sous-jacentes à l’analyse de données massives produites par les objets connectés ainsi que des conseils sur les modalités pratiques de mise en œuvre.
La promesse du data lake est simple : tirer profit de la puissance et de la souplesse des technologies Big Data pour stocker en vrac, c’est-à-dire avec très peu de transformation, de gouvernance ou de sémantique, toutes les données structurées ou non sans préjuger des traitements qui leur seront appliqués, afin de les exposer à des outils de visualisation et d’analyse pour démultiplier l’autonomie et l’agilité des data scientists.
Au-delà de la promesse marketing, qu’en est-il réellement du data lake ? Que contient-il en pratique ? Où se situent réellement les gisements de création de valeur ? Data lake et data warehouse, complémentarité, redondance ou compétition ? Comment palier au manque de méta-données et à la faible qualité des données ? Jusqu’à quel point le data lake d’entreprise est-il gérable, quand doit-on basculer sur un niveau départemental ? Quelles fonctions supportent le data lake, avec quel outillage technique, avec quelles compétences ? Quelle organisation mettre en place autour d’un data lake ? Quelle gouvernance des données sur un data lake ? Le data lake est-il compatible avec des exigences de sécurité, de pseudonymisation et de respect de la vie privée ?
Le séminaire conclura sur un cas pratique de mise en place d’un data lake d’une dizaine de téra-octets avec des outils de visualisation et d’analyse opérationnel en moins d’un mois. Ce cas permettra de mieux appréhender les enjeux de coûts, de planning, de choix techniques, d’organisation et de modélisation du retour sur investissement.
Le HUBFORUM Paris 2017 a réuni pendant deux jours plus de 3 000
participants autour du thème «Accelerate ! ». Le premier temps de la
transformation numérique des grands groupes, celui du réveil collectif, des
POCs et de la communication institutionnelle doit laisser place au deuxième
temps, celui de l’accélération, de l’industrialisation, du passage à l’ère de la
normalisation et du passage à l’échelle des nouveaux modèles d’affaires.
100 intervenants ont partagé leurs expériences, leurs conseils avisés, leurs
réussites et leurs difficultés afin d’aider les entreprises à aborder 2018 avec
sérénité, inspiration et créativité.
Retrouvez dans ce rapport les moments clés des quatre sessions du
HUBFORUM Paris 2017.
EBG - Livret de synthèse - Task Force CDO 201855 | fifty-five
Avec la nouvelle réglementation et la pression de nouveaux acteurs, le rôle du Chief Data Officer prend de plus en plus d'ampleur.
Quels ont été les défis rencontrés par les CDO en 2018 ? C'est la question à laquelle ont répondu l'EBG, fifty-five et Informatica dans cet ouvrage de synthèse.
Soft Computing & IBM : Digital, Big Data & DMPSoft Computing
Soft Computing et IBM partagent leurs retours d'expériences.
La digitalisation bouleverse toutes les facettes de la relation client. Le marketing digital n'existe plus, c'est l'ensemble du marketing qui est passé à l'ère du digital. Tout est devenu générateur de données, mais comment les valoriser ?
Les frontières entre marketing services, données, design, publicité, social, web et mobile s'estompent au fur et à mesure que la technologie évolue pour simplifier les interactions entre disciplines.
S'appuyant notamment sur diverses solutions avancées en matière de Big Data & Analytics, le large panorama de l'offre d'IBM vous sera replacé dans le contexte des besoins du marketing client et produit.
Soft Computing partagera avec vous des cas d'usages métiers en partant du CRM multi canal confronté aux nouveaux parcours, puis en intégrant les nouveaux médias et les Big Data.
Enfin, pour répondre aux nouveaux enjeux marketing sans tomber dans les difficultés de mise en œuvre de projets complexes et couteux, Soft Computing vous présentera le dispositif « Soft Computing Marketing Ready » tel que mis en œuvre notamment pour de grandes enseignes de la distribution alimentaire. Il comprend à la fois des outils informatiques et des prestations de services, qui couvrent l'ensemble des fonctions marketing de manière intégrée : connaissance client, campagnes marketing, fidélité, promotions, référentiel client, qualité des données, moteur de recommandations, référencement web, veille et animation sociale, enquêtes, reporting marketing, datasharing et data onboarding.
06/07/17 Table ronde Data Transformation ProgramSoft Computing
Data Transformation Program : une nouvelle révolution déjà en marche
Pourquoi aujourd'hui les entreprises mettent la Data au coeur de leur transformation ? Comment initier et déployer ces programmes ? Quels impacts pour quelle création de valeur espérée ?
Avec le témoignage de la Responsable du Programme de Transformation Data d’ACCOR HOTELS.
Les entreprises ont largement initié leur mue digitale. Cette transformation est souvent, comme toutes les grandes mutations, dans un premier temps sous-estimée, faute d’intégration de tous les acteurs, de trajectoire partagée et séquencée, de valorisation concrète des bénéfices.
A l’heure de l’industrialisation des projets Big Data et du stockage des données en masse, il est nécessaire de s’interroger sur la création de valeur générée par la collecte, l’usage et la gouvernance de ces données.
Alors au-delà de la promesse d’améliorer la connaissance client, qu’entend-on par «Data Transformation » ? Pourquoi est-ce un projet d’Entreprise ? Quels peuvent en être les bénéfices concrets ? Quelles sont les dimensions prioritaires ? Quelles missions pour le Chief Data Officer ?
Machine Learning et Intelligence ArtificielleSoft Computing
Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de visages, de sentiments, analyse de signaux issus notamment d’objets connectés. Comment capitaliser sur ces méthodologies pour des applications Marketing ? Avec quels outils, méthodes et compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle. Cette débauche de moyens en recherche et développement génère la diffusion en Open Source de nombreux algorithmes ou le foisonnement de fonctions et d’API de Machine Learning et Deep Learning et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, des sentiments …
En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitement considérables qui permettent d’appliquer ces algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Le Marketing et la connaissance client capitalisent sur toutes ces nouvelles possibilités : conseiller le bon produit – en mode recommandation ou substitution, anticiper des changements dans les comportements, s’adresser au client de façon complètement personnalisée, surveiller en temps réel des indicateurs de bon ou mauvais fonctionnement – objets connectés, fluidifier et optimiser l’expérience client en identifiant des axes d’amélioration des parcours ou process.
Ce séminaire vise à démystifier le Machine Learning, à en dessiner des applications potentielles pour le Marketing. Les modalités de mise en œuvre – outils, procédures et techniques, forces et faiblesses – seront détaillées à travers la présentation de cas d’usage.
Gouvernance des données : le potentiel DATA au service de votre business !
La gouvernance des données devient aujourd’hui une priorité stratégique pour beaucoup d’entreprises… Mais quels sont concrètement les facteurs-clés de succès, les impacts de sa mise en œuvre et la création de valeur espérée ?
Les entreprises ont pour la plupart largement initié leur mue digitale. Cette transformation majeure fut, comme toutes les grandes mutations, dans un premier temps sous-estimée, faute de valorisation concrète des bénéfices. Cette situation semble se reproduire aujourd’hui avec la gouvernance data.
Pourtant, à l’heure de l’industrialisation des projets Big Data et du stockage des données tous azimuts, il devient fondamental de s’interroger sur la véritable création de valeur générée par la collecte, l’usage et la gouvernance de toutes ces données.
Alors au-delà de cette promesse, qu’entend-on par gouvernance des données ? Quelles sont les données à collecter ? Les outils à utiliser ? Les bénéfices concrets ? Quels sont les freins à sa mise en œuvre ? Quelles sont les dimensions prioritaires ? Quelle méthodologie adopter ? Quelles missions pour le Chief Data Officer ?
Objets connectés et Data Science, quels usages marketing ?
Les objets connectés provoquent un véritable déluge de données. Les techniques de Machine Learning et de Data Science combinées aux technologies Big Data permettent de transformer ces données en connaissance actionnable pour améliorer l’expérience utilisateur, la qualité des produits ou l’efficacité des processus. Quelles données remontent de l’IoT ? quelles techniques permettent d’en extraire de la connaissance utile ? comment cette connaissance peut-elle créer de la valeur ?
Que ce soit dans le domaine de la santé, de la domotique, des véhicules, des réseaux de distribution, la quantité d’objets connectés croît de manière exponentielle. Dans le même temps, les innovations technologiques concourent à augmenter la fréquence et la quantité d’informations captée et exploitable.
Les services rendus à son utilisateur par chaque objet connecté reposent sur la donnée collectée et son analyse. Mais l’accumulation de données que rendent possible les technologies Big Data et la puissance d’analyse qu’offrent les techniques de Deep Machine Learning et de Data Science ouvrent de nouveaux horizons à l’utilisation marketing des données de l’IoT : primes d’assurances tarifées à l’usage, prévisions des ventes de produits frais ou des consommations d’énergie, anticipation des files d’attente en caisse, yield management et pricing dynamique, ...
Ce séminaire prospectif vise à présenter au travers de quelques exemples, les données, les technologies et les techniques sous-jacentes à l’analyse de données massives produites par les objets connectés ainsi que des conseils sur les modalités pratiques de mise en œuvre.
La promesse du data lake est simple : tirer profit de la puissance et de la souplesse des technologies Big Data pour stocker en vrac, c’est-à-dire avec très peu de transformation, de gouvernance ou de sémantique, toutes les données structurées ou non sans préjuger des traitements qui leur seront appliqués, afin de les exposer à des outils de visualisation et d’analyse pour démultiplier l’autonomie et l’agilité des data scientists.
Au-delà de la promesse marketing, qu’en est-il réellement du data lake ? Que contient-il en pratique ? Où se situent réellement les gisements de création de valeur ? Data lake et data warehouse, complémentarité, redondance ou compétition ? Comment palier au manque de méta-données et à la faible qualité des données ? Jusqu’à quel point le data lake d’entreprise est-il gérable, quand doit-on basculer sur un niveau départemental ? Quelles fonctions supportent le data lake, avec quel outillage technique, avec quelles compétences ? Quelle organisation mettre en place autour d’un data lake ? Quelle gouvernance des données sur un data lake ? Le data lake est-il compatible avec des exigences de sécurité, de pseudonymisation et de respect de la vie privée ?
Le séminaire conclura sur un cas pratique de mise en place d’un data lake d’une dizaine de téra-octets avec des outils de visualisation et d’analyse opérationnel en moins d’un mois. Ce cas permettra de mieux appréhender les enjeux de coûts, de planning, de choix techniques, d’organisation et de modélisation du retour sur investissement.
Le HUBFORUM Paris 2017 a réuni pendant deux jours plus de 3 000
participants autour du thème «Accelerate ! ». Le premier temps de la
transformation numérique des grands groupes, celui du réveil collectif, des
POCs et de la communication institutionnelle doit laisser place au deuxième
temps, celui de l’accélération, de l’industrialisation, du passage à l’ère de la
normalisation et du passage à l’échelle des nouveaux modèles d’affaires.
100 intervenants ont partagé leurs expériences, leurs conseils avisés, leurs
réussites et leurs difficultés afin d’aider les entreprises à aborder 2018 avec
sérénité, inspiration et créativité.
Retrouvez dans ce rapport les moments clés des quatre sessions du
HUBFORUM Paris 2017.
Référentiel Client Unique, la technologie au service des ventes et du marketing
Comment le Référentiel Client Unique peut-il aider votre organisation à mettre en œuvre une vision client fédérée, fiable, partagée, « compliant » et génératrice de valeur ?
Dans un contexte d’explosion des données clients, de multiplication des outils d’animation et à quelques mois de l’entrée en vigueur du nouveau règlement européen sur les données personnelles, réconcilier les différentes identités d’un client pour améliorer son expérience avec la marque est devenu un enjeu majeur pour toutes les entreprises. Un enjeu à plusieurs titres : commercial, juridique et technologique. Mais comment initier un projet de Référentiel Client Unique ? Quelles solutions retenir ? Pour quels objectifs business ? Quelles données y intégrer ? Quels sont les use cases concrets ? Les erreurs à éviter ? Pour répondre à ces interrogations, nous vous invitons à un séminaire gratuit, au cours duquel nous partagerons nos meilleures pratiques au travers de cas concrets.
Agenda :
• Les enjeux, pourquoi un RCU ?
• Qu'est-ce qu'un RCU ? Quelles fonctions ?
• Quelles solutions techniques ? (RCU et MDM, les impacts du Big Data, DMP & CIM)
• Quelles sont les best practices ? Quelle démarche adopter ?
• Illustration de cas clients
• Conclusion
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?OCTO Technology Suisse
Session jouée à l'Afterwork OCTO de Genève le 20 mai 2015.
Digitalisation, Big Data, data-driven company : trois buzz words omniprésents dans les stratégies informatiques aujourd'hui, et qui semblent intimement liés. Alors, qu'est qu'une "data driven company" ? Est-ce une entreprise poussant à l'extrême l'utilisation de Big Data afin de se digitaliser ?
Pas seulement... une "data driven company" est une entreprise qui cherche continuellement à améliorer l’ensemble des processus de l’entreprise par l’utilisation qualitative et quantitative de données, tout le temps, partout et sur tout.
Ce sujet nous touche dans notre quotidien, que ce soit au niveau technologique, des processus, de l'organisation, et surtout de la culture, et a des conséquences qui transforment tous les métiers.
Cette session reviendra sur les éléments structurants qui distinguent une data driven company et détaillera en quoi cette culture peut être un accélérateur de votre stratégie de transformation digitale.
Quelles sont les nouveautés et les stratégies gagnantes à mettre en œuvre pour un moteur de recommandation performant ?
Quels algorithmes de Machine Learning appliquer pour y parvenir ?
Un des défis majeurs pour 2017 pour les organisations est de transformer l’ensemble des data collectées en véritables actions opérationnelles. Ces actions s’appuient sur une compréhension plus profonde et unifiée du client en tant qu’individus et non plus en tant que partie d’un segment.
En parallèle, la démocratisation des technologies Big Data donne accès à des puissances de traitement considérables qui permettent d’appliquer les algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Les moteurs de recommandations sont une des applications phares du marketing prédictif.
Ce séminaire vise à apporter un nouvel éclairage sur la nature des moteurs de recommandation : objectifs visés et principaux algorithmes mis à contribution, les points de vigilances et les bonnes pratiques à respecter pour créer de la valeur. Il s’appuiera sur des retours d’expériences concrets tant dans la définition, la mise en œuvre et que dans le suivi de la performance.
28/09/2017 Séminaire Data & Activation ClientSoft Computing
Data & Activation Client : les clés du succès
DMP, Social, CRM onboarding, Data Science et Intelligence Artificielle quelles techniques pour décupler la connaissance client et le ROI marketing ?
Comment démultiplier votre ROI marketing en passant d'une poignée d'informations client à des milliers de datapoints par client ?
Un client ne se caractérise plus seulement par quelques données socio-démographiques et un historique des achats et des réactions à des sollicitations. Aujourd'hui, il est possible de réconcilier autour d'un client ou prospect par des techniques de data science et d'intelligence artificielle, une quantité inimaginable de données de comportements digitaux (DMP, comportement social, CRM onboarding, 2nd et 3rd-party data, look-alike...).
• Quelles données peuvent être collectées réellement ?
• Quelles techniques pour les collecter ? ... pour extrapoler les données d'une population sur une autre,
• Quelles sont les limites contractuelles/légales à la collecte et l'utilisation des données de profil ?
• Comment stocker et analyser ces masses d'informations pour les transformer en connaissance activable ?
• Comment industrialiser l'activation des données à des fins de recrutement de prospects ou d'animation relationnelle des clients ?
Référentiel Client Unique, une solution pour accroître la valeur de vos données.
Aujourd’hui, les entreprises ont plus que jamais besoin d’une vision client fédérée, fiable et génératrice de valeur. Comment le Référentiel Client Unique (RCU) peut-il répondre à cet
enjeu ?
Avec la transformation digitale, le renforcement des contraintes réglementaires, l’évolution des comportements clients et l’avènement du Big Data, réconcilier les différentes identités d’un client est devenu un enjeu majeur pour toutes les entreprises. De nombreuses solutions affirment couvrir toute ou partie de cette problématique : MDM, CIM, DMP, …, avec des approches on premise ou cloud. Comment y voir clair dans ce foisonnement d’offres ? Quels outils utiliser pour quels objectifs ? Quelle méthodologie adopter ? Quels sont les bénéfices concrets ? Les freins à la mise en œuvre ?
Pour répondre à ces interrogations, nous vous invitons à un séminaire gratuit, au cours duquel nous partagerons nos meilleures pratiques au travers de cas concrets.
Synthèse Solucom - Big data : une mine d'or pour l'AssuranceWavestone
Quelles sont les données exploitables ? Comment reconsidérer les métiers de l’Assurance à l’ère du Big data ?
Est-ce si simple et sans risque ? Quelle est la meilleure voie pour se lancer et pérenniser la transformation ? Cette Synthèse est le fruit de ces échanges et des travaux menés par Solucom pour concrétiser la promesse du Big data comme levier de transformation.
Activation omnicanal : usages, moyens et organisation pour créer de la valeur.
De quelle manière coupler le CRM et la DMP afin d'optimiser les contacts avec vos prospects & clients identifiés ? Quels sont les impacts dans son utilisation au quotidien ?
Quels sont les usages et les impacts réels de l'intégration d'une DMP dans un écosystème marketing existant ? De nombreux projets ont été mis en œuvre ces dernières années avec comme promesse une activation omnicanal cohérente. Quelles conclusions pouvons-nous en tirer et quelles sont les perspectives futures ?
Participez à notre matinale en accès libre qui abordera les thèmes suivants au travers de nos expériences clients :
• Quel modèle d’intégration d'une DMP avec les outils marketing existants ?
• Comment maximiser son usage et sa productivité opérationnelle ?
• Quelle organisation dans son exécution ?
• Quelles évolutions à prévoir ?
Agenda :
• Introduction : le panorama du marché et ses évolutions
• Cas d'usages réalisés chez nos clients :
• Activation des audiences couplées
• Définition des principes de mise en œuvre
• Process d'exécution
• ROI
• Conclusion : les évolutions à prévoir entre la nouvelle promesse de la CDP (Customer Data Platform) et la GDPR ?
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETIMicrosoft Technet France
En 2012, 58% des entreprises considèrent les technologies collaboratives comme stratégiques pour atteindre leurs objectifs business. Et vous ? Vos utilisateurs collaborent au quotidien, à travers de multiples canaux, avec leurs collègues, vos clients et vos partenaires… Ils aimeraient se servir de leur propre matériel, choisir les outils et logiciels avec lesquels travailler. Comment faire ? Chez SOGETI, nous sommes convaincus que votre efficacité passe par celle de vos clients mais aussi celle de vos collaborateurs, en s'adossant à un environnement de travail digital dynamique et connecté. Pour anticiper et mener à bien cette transformation digitale, vous aurez de nombreux défis à relever. C’est pour cela que SOGETI, accompagné de son partenaire PROSODIE, vous propose avec le programme « Connected Workforce » une démarche pragmatique et éprouvée qui vous permet : • D’évaluer le niveau de maturité de votre organisation face à cette transformation digitale • D’imaginer la technologie adaptée à votre stratégie • De vous lancer grâce aux « Rocket Projects » • D’améliorer de façon continue l’efficacité digitale de votre S.I.
Data Driven Stratégie Relationnelle & DigitalSoft Computing
« Mettre en œuvre des enquêtes à chaud selon les parcours clients »
Comment générer des enquêtes sur les points-clés des Parcours et les analyser en fonction de ces parcours ? Pour quels bénéfices opérationnels et relationnels ?
Dans le cadre d’une relation client omni-canal, l’amélioration des parcours clients est un enjeu majeur. La digitalisation des interactions offre des opportunités nouvelles pour dialoguer avec son client au bon moment, connaître sa satisfaction et les raisons de transformation ou pas de sa visite, et ainsi améliorer les interfaces qui lui sont proposées.
Ces évolutions impliquent une profonde mutation pour le métier des enquêtes :
- La frontière entre Enquête et Outil relationnel s’estompe ;
- Les baromètres de satisfaction « à froid » coexistent avec un écosystème d’enquêtes « à chaud » plus interactives, centré sur l’événement et le ressenti immédiat ;
- Les questionnaires sont déclenchés en temps réel en fonction du parcours client ;
- Les KPI de l’expérience client sont analysés au regard du parcours suivi.
Spécialiste de la satisfaction clients et du marketing digital, Soft Computing met en œuvre des dispositifs d’enquêtes à chaud pour analyser les expériences client sur les canaux physiques ou digitaux. Soft Computing s’appuie sur un ensemble d’expertises technologiques pour mesurer l’Expérience Client au plus près en fonction des différentes situations et propose notamment un module d’interception pour solliciter les visiteurs d’un site web en fonction de leur parcours.
L’avènement du Digital s’accompagne d’une démultiplication de données à analyser : structurées et non structurées.
Parallèlement, les entreprises sont à la recherche de sources d’avantages concurrentiels et d’identification de nouveaux débouchés marketing associés à un enjeu de défendre leur part de marché. Celles-ci sont conscientes, que la valorisation de leurs données constituera la réponse.
Afin de pouvoir analyser ces mines de données, les technologies ont fortement évolué :
• Mise en place de Big Data pour stocker d’importantes volumétries de données ;
• Parallélisation/montée en mémoire des traitements pour permettre de réduire les délais de réalisation ;
• Développement de nouveaux algorithmes qui offrent de nouvelles perspectives d’analyses ;
• Evolution des outils statistiques.
Dans ce contexte de mutations technologiques et à l’heure du temps réel, quels sont les impacts pour le Data Mining?
Nous vous invitons à un séminaire gratuit qui abordera les questions suivantes :
• Quels impacts sur le quotidien du Data Miner : quelles sont les techniques/outils à maîtriser ?
• Quelles sont les possibilités et les nouvelles perspectives d’analyse offertes par le Big Data ?
• Quels sont les pièges à éviter ?
Marketing Omnicanal : quelle réalité et quelles perspectives pour demain ?
Comment connaître, reconnaître et communiquer auprès de ses clients ? Comment mettre en place des cas d'usage rapidement et efficacement et quels sont les enjeux organisationnels à résoudre ? Soft Computing partagera des retours d'expérience de mise en place de projets de marketing omnicanal à l'occasion de cette matinale.
L'évolution des comportements prospects et clients est maintenant un constat partagé par l'ensemble des annonceurs.
Digital, social, mobile, influenceur, hyper connecté et hyper informé, le consommateur a pris le pouvoir sur les marques et son parcours d'achat est devenu très complexe à suivre.
Au-delà des programmes informatiques chronophages et coûteux, les annonceurs sont à la recherche de solutions agiles et pragmatiques permettant de mettre en place des premiers cas d'usage à valeur ajoutée, et de dégager un ROI rapidement.
Ces évolutions vers un marketing pleinement omnicanal impliquent de développer sa connaissance client, savoir reconnaître ses clients quel que soit le canal et être capable de lui adresser des messages cohérents. Cela passe par un SI plus souple, mais également par des adaptations organisationnelles. Quelles sont les directions concernées ? Doivent-elles évoluer ? Quels sont les nouveaux modèles ?
Agenda :
- Les nouveaux comportements clients et leurs conséquences en terme de recueil et d'exploitation des données ?
- Comment mettre en place de premiers Use Cases de manière pragmatique et rapide ?
- Quels challenges organisationnels, notamment pour les équipes marketing et comment y répondre ?
- Retours d'expérience de mise en place de projets de marketing omnicanal.
- Organisation, compétences et gouvernance pour une mise en œuvre réussie.
- Conclusion.
Les données personnelles : un patrimoine à sécuriser !
Dans un environnement réglementaire français et européen complexe et évolutif, comment la nouvelle réglementation européenne va-t-elle changer vos processus marketing et digitaux ?
Le 14 avril dernier, le parlement européen votait un nouveau règlement sur la protection des données.
Cette nouvelle réglementation s’inscrit dans la continuité du cadre législatif français existant mais modifie significativement les droits et les rapports entre les consommateurs, les entreprises et les autorités de protection et impose en particulier de se mettre en conformité d’ici deux ans.
Accompagnés du Cabinet PBA et fort de notre expérience opérationnelle, nous vous proposons une démarche concrète en évoquant les questions suivantes :
- Quelles sont les bonnes pratiques actuelles en matière de protection de données personnelles dans les bases marketing et le marketing digital ?
- Quels sont les principaux points du règlement de l’Union Européenne ?
- Quelle approche méthodologique et outils à adopter pour une mise en place d’une politique de traitement des données ?
- Quelles conséquences sur votre activité ? Concrètement, quels impacts sur votre animation digitale, votre pratique actuelle de gestion des consentements, de stockage et de protection des données.
Ce livre blanc, qui fait suite au livre noir de JEMS présente les projets pilotes, qui a l'inverse des POC sont une bonne méthode pour mettre en place un projet Big Data.
Pour télécharger le livre blanc, rendez-vous sur www.jems-group.com/livre-blanc-du-big-data. (http://bit.ly/livre-noir-blanc)
Ch&cie présentation du big data dans l'assuranceBetito Yan
Big data is a common word and concept with major business and operational impacts for companies. Specifically insurance companies will have to face a significant shift in their activities to cope with this new paradigm. More than a concept, actions and operational changes are required now.
L'avènement du Digital s'accompagne d'une démultiplication de données à analyser : structurées et non structurées.
Parallèlement, les entreprises sont à la recherche de sources d'avantage concurrentielles et d'identification de nouveaux débouchés marketing associés à un enjeu de défendre leur part de marché.
Celles-ci sont conscientes, que la valorisation de leurs données constituera la réponse.
Afin de pouvoir analyser ces mines de données, les technologies ont fortement évoluées :
• Mise en place de Big Data pour stocker d'importantes volumétries de données,
• Parallélisation des traitements pour permettre de réduire les délais de réalisation,
• Développement de nouveaux algorithmes qui offrent de nouvelles perspectives d'analyse,
• Evolution des outils statistiques.
Dans ce contexte de mutation technologique et à l'heure du temps réel, quels impacts pour le Data Mining ?
• Quels impacts sur le quotidien du Data Miner : quelles sont les techniques/outils à maitriser ?
• Quelles sont les possibilités et les nouvelles perspectives d'analyse offertes par le Big Data ?
• Quels sont les pièges à éviter ?
Data Science : organisation et liens avec les Directions Métiers et la DSI
Comment positionner les Data Scientists dans l’entreprise ? Comment structurer les relations entre Data Science et les autres Directions Métiers ou Support ?
L’explosion des volumes de données et la vulgarisation des outils de Mining et de Machine Learning ont poussé les entreprises à se doter de Data Scientists. Après les premiers succès, l’heure est maintenant à la généralisation et se posent des choix d’organisation.
Doit-on centraliser la Data Science ou laisser l’autonomie aux Directions Métiers ? Comment ventiler les responsabilités entre une Direction Data Science et une Direction Digitale ou Informatique ? Comment organiser la gouvernance autour des données utilisées par les Data Scientists ? Quels sont les enjeux du management d’une team de Data Scientists ?
Pour répondre à ces questions, nous vous invitons à notre matinale en accès libre, au cours de laquelle Gilles VENTURI, Directeur Général de Soft Computing, partagera un panorama des choix effectués par un panel d’entreprises clientes ainsi que des retours d’expérience sur les différents modèles organisationnels autour de la Data Science.
Agenda :
• Data Science : périmètre
• Data Science : les 5 niveaux de maturité
• Modèles d’organisation des fonctions Data Science
• Data Science et autres Directions : RACI
• Data Science : panorama des compétences à cultiver
• Data Science : attirer et fidéliser les talents
• Conclusion
Machine Learning et Intelligence Artificielle : quelles applications pour le marketing digital ?
Deep Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de voix, de visages, de sentiments, quelles possibilités d’applications au marketing digital ? Comment commencer ? Avec quels outils et quelles compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle, que ce soit pour conduire des voitures autonomes, identifier les utilisateurs à partir de leur visage, traduire en temps réel des conversations téléphoniques, conseiller le bon produit, mimer le comportement du parfait assistant…
Cette débauche de moyens en recherche et développement génère la diffusion en Open Source des sources de nombreux algorithmes ou le foisonnement de fonctions et d’API de ML et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, les sentiments à partir d’un texte, ou pour anticiper des ruptures dans des comportements… En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitements considérables qui permettent d’appliquer ces algorithmes de ML sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Ce séminaire prospectif vise à démystifier le Deep Machine Learning, à en dessiner les premières applications potentielles pour le Marketing Digital et à en préciser les modalités de mise en œuvre ainsi que les impacts et les risques à identifier.
LiveRamp - 5 minutes pour comprendre le data onboardingLiveRamp_FR
Votre stratégie marketing évolue dans un monde chaotique et fragmenté. C’est dans cet environnement hostile que vos équipes marketing doivent travailler.
Les petits lots de données clients dispersées entre vos différentes applications détiennent la clé pour améliorer l’efficacité de votre stratégie. Mais tant que ces données sont organisées en silos, toutes vos initiatives seront entravées par votre incapacité à établir les connexions les plus basiques.
Lisez notre présentation pour découvrir :
– Comment les silos nuisent à votre stratégie marketing
– Comment le data onboarding peut connecter vos données en silo
– Pourquoi c’est la clé pour améliorer l’efficacité de vos actions de mesure, de ciblage et de personnalisation
Réalité augmentée, objets connectés, intelligence artificielle… alors que 2017 s’annonce comme une année riche en avancées technologiques et que le numérique va prendre une place plus importante que jamais dans les projets des candidats à l’élection présidentielle, iProspect dresse un panorama des grands enjeux auxquels les marques devront faire face pour répondre aux attentes des consommateurs dans le maelström numérique.
Référentiel Client Unique, la technologie au service des ventes et du marketing
Comment le Référentiel Client Unique peut-il aider votre organisation à mettre en œuvre une vision client fédérée, fiable, partagée, « compliant » et génératrice de valeur ?
Dans un contexte d’explosion des données clients, de multiplication des outils d’animation et à quelques mois de l’entrée en vigueur du nouveau règlement européen sur les données personnelles, réconcilier les différentes identités d’un client pour améliorer son expérience avec la marque est devenu un enjeu majeur pour toutes les entreprises. Un enjeu à plusieurs titres : commercial, juridique et technologique. Mais comment initier un projet de Référentiel Client Unique ? Quelles solutions retenir ? Pour quels objectifs business ? Quelles données y intégrer ? Quels sont les use cases concrets ? Les erreurs à éviter ? Pour répondre à ces interrogations, nous vous invitons à un séminaire gratuit, au cours duquel nous partagerons nos meilleures pratiques au travers de cas concrets.
Agenda :
• Les enjeux, pourquoi un RCU ?
• Qu'est-ce qu'un RCU ? Quelles fonctions ?
• Quelles solutions techniques ? (RCU et MDM, les impacts du Big Data, DMP & CIM)
• Quelles sont les best practices ? Quelle démarche adopter ?
• Illustration de cas clients
• Conclusion
Qu'est qu'une Data Driven Company à l'heure de la digitalisation ?OCTO Technology Suisse
Session jouée à l'Afterwork OCTO de Genève le 20 mai 2015.
Digitalisation, Big Data, data-driven company : trois buzz words omniprésents dans les stratégies informatiques aujourd'hui, et qui semblent intimement liés. Alors, qu'est qu'une "data driven company" ? Est-ce une entreprise poussant à l'extrême l'utilisation de Big Data afin de se digitaliser ?
Pas seulement... une "data driven company" est une entreprise qui cherche continuellement à améliorer l’ensemble des processus de l’entreprise par l’utilisation qualitative et quantitative de données, tout le temps, partout et sur tout.
Ce sujet nous touche dans notre quotidien, que ce soit au niveau technologique, des processus, de l'organisation, et surtout de la culture, et a des conséquences qui transforment tous les métiers.
Cette session reviendra sur les éléments structurants qui distinguent une data driven company et détaillera en quoi cette culture peut être un accélérateur de votre stratégie de transformation digitale.
Quelles sont les nouveautés et les stratégies gagnantes à mettre en œuvre pour un moteur de recommandation performant ?
Quels algorithmes de Machine Learning appliquer pour y parvenir ?
Un des défis majeurs pour 2017 pour les organisations est de transformer l’ensemble des data collectées en véritables actions opérationnelles. Ces actions s’appuient sur une compréhension plus profonde et unifiée du client en tant qu’individus et non plus en tant que partie d’un segment.
En parallèle, la démocratisation des technologies Big Data donne accès à des puissances de traitement considérables qui permettent d’appliquer les algorithmes de Machine Learning sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Les moteurs de recommandations sont une des applications phares du marketing prédictif.
Ce séminaire vise à apporter un nouvel éclairage sur la nature des moteurs de recommandation : objectifs visés et principaux algorithmes mis à contribution, les points de vigilances et les bonnes pratiques à respecter pour créer de la valeur. Il s’appuiera sur des retours d’expériences concrets tant dans la définition, la mise en œuvre et que dans le suivi de la performance.
28/09/2017 Séminaire Data & Activation ClientSoft Computing
Data & Activation Client : les clés du succès
DMP, Social, CRM onboarding, Data Science et Intelligence Artificielle quelles techniques pour décupler la connaissance client et le ROI marketing ?
Comment démultiplier votre ROI marketing en passant d'une poignée d'informations client à des milliers de datapoints par client ?
Un client ne se caractérise plus seulement par quelques données socio-démographiques et un historique des achats et des réactions à des sollicitations. Aujourd'hui, il est possible de réconcilier autour d'un client ou prospect par des techniques de data science et d'intelligence artificielle, une quantité inimaginable de données de comportements digitaux (DMP, comportement social, CRM onboarding, 2nd et 3rd-party data, look-alike...).
• Quelles données peuvent être collectées réellement ?
• Quelles techniques pour les collecter ? ... pour extrapoler les données d'une population sur une autre,
• Quelles sont les limites contractuelles/légales à la collecte et l'utilisation des données de profil ?
• Comment stocker et analyser ces masses d'informations pour les transformer en connaissance activable ?
• Comment industrialiser l'activation des données à des fins de recrutement de prospects ou d'animation relationnelle des clients ?
Référentiel Client Unique, une solution pour accroître la valeur de vos données.
Aujourd’hui, les entreprises ont plus que jamais besoin d’une vision client fédérée, fiable et génératrice de valeur. Comment le Référentiel Client Unique (RCU) peut-il répondre à cet
enjeu ?
Avec la transformation digitale, le renforcement des contraintes réglementaires, l’évolution des comportements clients et l’avènement du Big Data, réconcilier les différentes identités d’un client est devenu un enjeu majeur pour toutes les entreprises. De nombreuses solutions affirment couvrir toute ou partie de cette problématique : MDM, CIM, DMP, …, avec des approches on premise ou cloud. Comment y voir clair dans ce foisonnement d’offres ? Quels outils utiliser pour quels objectifs ? Quelle méthodologie adopter ? Quels sont les bénéfices concrets ? Les freins à la mise en œuvre ?
Pour répondre à ces interrogations, nous vous invitons à un séminaire gratuit, au cours duquel nous partagerons nos meilleures pratiques au travers de cas concrets.
Synthèse Solucom - Big data : une mine d'or pour l'AssuranceWavestone
Quelles sont les données exploitables ? Comment reconsidérer les métiers de l’Assurance à l’ère du Big data ?
Est-ce si simple et sans risque ? Quelle est la meilleure voie pour se lancer et pérenniser la transformation ? Cette Synthèse est le fruit de ces échanges et des travaux menés par Solucom pour concrétiser la promesse du Big data comme levier de transformation.
Activation omnicanal : usages, moyens et organisation pour créer de la valeur.
De quelle manière coupler le CRM et la DMP afin d'optimiser les contacts avec vos prospects & clients identifiés ? Quels sont les impacts dans son utilisation au quotidien ?
Quels sont les usages et les impacts réels de l'intégration d'une DMP dans un écosystème marketing existant ? De nombreux projets ont été mis en œuvre ces dernières années avec comme promesse une activation omnicanal cohérente. Quelles conclusions pouvons-nous en tirer et quelles sont les perspectives futures ?
Participez à notre matinale en accès libre qui abordera les thèmes suivants au travers de nos expériences clients :
• Quel modèle d’intégration d'une DMP avec les outils marketing existants ?
• Comment maximiser son usage et sa productivité opérationnelle ?
• Quelle organisation dans son exécution ?
• Quelles évolutions à prévoir ?
Agenda :
• Introduction : le panorama du marché et ses évolutions
• Cas d'usages réalisés chez nos clients :
• Activation des audiences couplées
• Définition des principes de mise en œuvre
• Process d'exécution
• ROI
• Conclusion : les évolutions à prévoir entre la nouvelle promesse de la CDP (Customer Data Platform) et la GDPR ?
Réussir votre transformation digitale grâce à "Connected Workforce" de SOGETIMicrosoft Technet France
En 2012, 58% des entreprises considèrent les technologies collaboratives comme stratégiques pour atteindre leurs objectifs business. Et vous ? Vos utilisateurs collaborent au quotidien, à travers de multiples canaux, avec leurs collègues, vos clients et vos partenaires… Ils aimeraient se servir de leur propre matériel, choisir les outils et logiciels avec lesquels travailler. Comment faire ? Chez SOGETI, nous sommes convaincus que votre efficacité passe par celle de vos clients mais aussi celle de vos collaborateurs, en s'adossant à un environnement de travail digital dynamique et connecté. Pour anticiper et mener à bien cette transformation digitale, vous aurez de nombreux défis à relever. C’est pour cela que SOGETI, accompagné de son partenaire PROSODIE, vous propose avec le programme « Connected Workforce » une démarche pragmatique et éprouvée qui vous permet : • D’évaluer le niveau de maturité de votre organisation face à cette transformation digitale • D’imaginer la technologie adaptée à votre stratégie • De vous lancer grâce aux « Rocket Projects » • D’améliorer de façon continue l’efficacité digitale de votre S.I.
Data Driven Stratégie Relationnelle & DigitalSoft Computing
« Mettre en œuvre des enquêtes à chaud selon les parcours clients »
Comment générer des enquêtes sur les points-clés des Parcours et les analyser en fonction de ces parcours ? Pour quels bénéfices opérationnels et relationnels ?
Dans le cadre d’une relation client omni-canal, l’amélioration des parcours clients est un enjeu majeur. La digitalisation des interactions offre des opportunités nouvelles pour dialoguer avec son client au bon moment, connaître sa satisfaction et les raisons de transformation ou pas de sa visite, et ainsi améliorer les interfaces qui lui sont proposées.
Ces évolutions impliquent une profonde mutation pour le métier des enquêtes :
- La frontière entre Enquête et Outil relationnel s’estompe ;
- Les baromètres de satisfaction « à froid » coexistent avec un écosystème d’enquêtes « à chaud » plus interactives, centré sur l’événement et le ressenti immédiat ;
- Les questionnaires sont déclenchés en temps réel en fonction du parcours client ;
- Les KPI de l’expérience client sont analysés au regard du parcours suivi.
Spécialiste de la satisfaction clients et du marketing digital, Soft Computing met en œuvre des dispositifs d’enquêtes à chaud pour analyser les expériences client sur les canaux physiques ou digitaux. Soft Computing s’appuie sur un ensemble d’expertises technologiques pour mesurer l’Expérience Client au plus près en fonction des différentes situations et propose notamment un module d’interception pour solliciter les visiteurs d’un site web en fonction de leur parcours.
L’avènement du Digital s’accompagne d’une démultiplication de données à analyser : structurées et non structurées.
Parallèlement, les entreprises sont à la recherche de sources d’avantages concurrentiels et d’identification de nouveaux débouchés marketing associés à un enjeu de défendre leur part de marché. Celles-ci sont conscientes, que la valorisation de leurs données constituera la réponse.
Afin de pouvoir analyser ces mines de données, les technologies ont fortement évolué :
• Mise en place de Big Data pour stocker d’importantes volumétries de données ;
• Parallélisation/montée en mémoire des traitements pour permettre de réduire les délais de réalisation ;
• Développement de nouveaux algorithmes qui offrent de nouvelles perspectives d’analyses ;
• Evolution des outils statistiques.
Dans ce contexte de mutations technologiques et à l’heure du temps réel, quels sont les impacts pour le Data Mining?
Nous vous invitons à un séminaire gratuit qui abordera les questions suivantes :
• Quels impacts sur le quotidien du Data Miner : quelles sont les techniques/outils à maîtriser ?
• Quelles sont les possibilités et les nouvelles perspectives d’analyse offertes par le Big Data ?
• Quels sont les pièges à éviter ?
Marketing Omnicanal : quelle réalité et quelles perspectives pour demain ?
Comment connaître, reconnaître et communiquer auprès de ses clients ? Comment mettre en place des cas d'usage rapidement et efficacement et quels sont les enjeux organisationnels à résoudre ? Soft Computing partagera des retours d'expérience de mise en place de projets de marketing omnicanal à l'occasion de cette matinale.
L'évolution des comportements prospects et clients est maintenant un constat partagé par l'ensemble des annonceurs.
Digital, social, mobile, influenceur, hyper connecté et hyper informé, le consommateur a pris le pouvoir sur les marques et son parcours d'achat est devenu très complexe à suivre.
Au-delà des programmes informatiques chronophages et coûteux, les annonceurs sont à la recherche de solutions agiles et pragmatiques permettant de mettre en place des premiers cas d'usage à valeur ajoutée, et de dégager un ROI rapidement.
Ces évolutions vers un marketing pleinement omnicanal impliquent de développer sa connaissance client, savoir reconnaître ses clients quel que soit le canal et être capable de lui adresser des messages cohérents. Cela passe par un SI plus souple, mais également par des adaptations organisationnelles. Quelles sont les directions concernées ? Doivent-elles évoluer ? Quels sont les nouveaux modèles ?
Agenda :
- Les nouveaux comportements clients et leurs conséquences en terme de recueil et d'exploitation des données ?
- Comment mettre en place de premiers Use Cases de manière pragmatique et rapide ?
- Quels challenges organisationnels, notamment pour les équipes marketing et comment y répondre ?
- Retours d'expérience de mise en place de projets de marketing omnicanal.
- Organisation, compétences et gouvernance pour une mise en œuvre réussie.
- Conclusion.
Les données personnelles : un patrimoine à sécuriser !
Dans un environnement réglementaire français et européen complexe et évolutif, comment la nouvelle réglementation européenne va-t-elle changer vos processus marketing et digitaux ?
Le 14 avril dernier, le parlement européen votait un nouveau règlement sur la protection des données.
Cette nouvelle réglementation s’inscrit dans la continuité du cadre législatif français existant mais modifie significativement les droits et les rapports entre les consommateurs, les entreprises et les autorités de protection et impose en particulier de se mettre en conformité d’ici deux ans.
Accompagnés du Cabinet PBA et fort de notre expérience opérationnelle, nous vous proposons une démarche concrète en évoquant les questions suivantes :
- Quelles sont les bonnes pratiques actuelles en matière de protection de données personnelles dans les bases marketing et le marketing digital ?
- Quels sont les principaux points du règlement de l’Union Européenne ?
- Quelle approche méthodologique et outils à adopter pour une mise en place d’une politique de traitement des données ?
- Quelles conséquences sur votre activité ? Concrètement, quels impacts sur votre animation digitale, votre pratique actuelle de gestion des consentements, de stockage et de protection des données.
Ce livre blanc, qui fait suite au livre noir de JEMS présente les projets pilotes, qui a l'inverse des POC sont une bonne méthode pour mettre en place un projet Big Data.
Pour télécharger le livre blanc, rendez-vous sur www.jems-group.com/livre-blanc-du-big-data. (http://bit.ly/livre-noir-blanc)
Ch&cie présentation du big data dans l'assuranceBetito Yan
Big data is a common word and concept with major business and operational impacts for companies. Specifically insurance companies will have to face a significant shift in their activities to cope with this new paradigm. More than a concept, actions and operational changes are required now.
L'avènement du Digital s'accompagne d'une démultiplication de données à analyser : structurées et non structurées.
Parallèlement, les entreprises sont à la recherche de sources d'avantage concurrentielles et d'identification de nouveaux débouchés marketing associés à un enjeu de défendre leur part de marché.
Celles-ci sont conscientes, que la valorisation de leurs données constituera la réponse.
Afin de pouvoir analyser ces mines de données, les technologies ont fortement évoluées :
• Mise en place de Big Data pour stocker d'importantes volumétries de données,
• Parallélisation des traitements pour permettre de réduire les délais de réalisation,
• Développement de nouveaux algorithmes qui offrent de nouvelles perspectives d'analyse,
• Evolution des outils statistiques.
Dans ce contexte de mutation technologique et à l'heure du temps réel, quels impacts pour le Data Mining ?
• Quels impacts sur le quotidien du Data Miner : quelles sont les techniques/outils à maitriser ?
• Quelles sont les possibilités et les nouvelles perspectives d'analyse offertes par le Big Data ?
• Quels sont les pièges à éviter ?
Data Science : organisation et liens avec les Directions Métiers et la DSI
Comment positionner les Data Scientists dans l’entreprise ? Comment structurer les relations entre Data Science et les autres Directions Métiers ou Support ?
L’explosion des volumes de données et la vulgarisation des outils de Mining et de Machine Learning ont poussé les entreprises à se doter de Data Scientists. Après les premiers succès, l’heure est maintenant à la généralisation et se posent des choix d’organisation.
Doit-on centraliser la Data Science ou laisser l’autonomie aux Directions Métiers ? Comment ventiler les responsabilités entre une Direction Data Science et une Direction Digitale ou Informatique ? Comment organiser la gouvernance autour des données utilisées par les Data Scientists ? Quels sont les enjeux du management d’une team de Data Scientists ?
Pour répondre à ces questions, nous vous invitons à notre matinale en accès libre, au cours de laquelle Gilles VENTURI, Directeur Général de Soft Computing, partagera un panorama des choix effectués par un panel d’entreprises clientes ainsi que des retours d’expérience sur les différents modèles organisationnels autour de la Data Science.
Agenda :
• Data Science : périmètre
• Data Science : les 5 niveaux de maturité
• Modèles d’organisation des fonctions Data Science
• Data Science et autres Directions : RACI
• Data Science : panorama des compétences à cultiver
• Data Science : attirer et fidéliser les talents
• Conclusion
Machine Learning et Intelligence Artificielle : quelles applications pour le marketing digital ?
Deep Machine Learning (ML) et Intelligence Artificielle (AI) sont au cœur des stratégies des géants du net : reconnaissance de textes, de voix, de visages, de sentiments, quelles possibilités d’applications au marketing digital ? Comment commencer ? Avec quels outils et quelles compétences ?
Google, Facebook, Apple et autres Microsoft se livrent une bataille de Titan sur le terrain de l’Intelligence Artificielle, que ce soit pour conduire des voitures autonomes, identifier les utilisateurs à partir de leur visage, traduire en temps réel des conversations téléphoniques, conseiller le bon produit, mimer le comportement du parfait assistant…
Cette débauche de moyens en recherche et développement génère la diffusion en Open Source des sources de nombreux algorithmes ou le foisonnement de fonctions et d’API de ML et d’AI « as a service ». Avec des efforts minimes, tout-un-chacun peut aujourd’hui accéder simplement et pour un coût modique à des fonctionnalités puissantes pour reconnaître un visage, une voix, les sentiments à partir d’un texte, ou pour anticiper des ruptures dans des comportements… En outre, la démocratisation des technologies Big Data donne accès à des puissances de traitements considérables qui permettent d’appliquer ces algorithmes de ML sur des centaines de milliers de points, des milliards d’enregistrements et des volumes de plusieurs péta-octets.
Ce séminaire prospectif vise à démystifier le Deep Machine Learning, à en dessiner les premières applications potentielles pour le Marketing Digital et à en préciser les modalités de mise en œuvre ainsi que les impacts et les risques à identifier.
LiveRamp - 5 minutes pour comprendre le data onboardingLiveRamp_FR
Votre stratégie marketing évolue dans un monde chaotique et fragmenté. C’est dans cet environnement hostile que vos équipes marketing doivent travailler.
Les petits lots de données clients dispersées entre vos différentes applications détiennent la clé pour améliorer l’efficacité de votre stratégie. Mais tant que ces données sont organisées en silos, toutes vos initiatives seront entravées par votre incapacité à établir les connexions les plus basiques.
Lisez notre présentation pour découvrir :
– Comment les silos nuisent à votre stratégie marketing
– Comment le data onboarding peut connecter vos données en silo
– Pourquoi c’est la clé pour améliorer l’efficacité de vos actions de mesure, de ciblage et de personnalisation
Réalité augmentée, objets connectés, intelligence artificielle… alors que 2017 s’annonce comme une année riche en avancées technologiques et que le numérique va prendre une place plus importante que jamais dans les projets des candidats à l’élection présidentielle, iProspect dresse un panorama des grands enjeux auxquels les marques devront faire face pour répondre aux attentes des consommateurs dans le maelström numérique.
La data au service de l'experience client - Livre blanc - Netbooster - Mars 2015Romain Fonnier
Dans son livre blanc «La data au service de l’expérience client» de 55 pages, l’agence de performance digitale NetBooster explique la notion de data, et fait un état des lieux des nouveaux acteurs et des nouvelles exploitations de la data. Le rapport montre également comment une marque peut maîtriser et optimiser l’exploitation de sa donnée, afin de livrer des messages plus efficaces et de choisir les supports les plus adaptés au moment, au public et à l’objectif.
En marketing, la data, c’est d’abord des signaux reliés à des individus ou des ordinateurs qu’il faut ensuite grouper et analyser pour créer de la connaissance.
Cette connaissance servira à améliorer les décisions, à livrer des messages plus efficaces à des cibles plus réceptives et à choisir les supports les plus adaptés au moment, au public et surtout à l’objectif.
Introduction
La Data, c’est quoi ?
......................................
p.05
L’expérience client, pourquoi faire ?
.....
p.05
Les entreprises face à l’océan de données
p.06
Le marketing digital, première appli
-
cation de l’exploitation de la data ?
Data et parcours client
...............................
p.10
L’importance de ne jamais briser la chaîne
p.11
Quelle data utiliser ?
Data transactionnelle
.................................
p.14
Data comportementale
..............................
p.14
First ou third ?
................................................
p.16
Data & valeur client :
un aspect patrimonial
.................................
p.17
Le cookie disparaît, l’intelligence reste
p.17
La data et l’achat média
..............................
p.18
Le RTB, catalyseur de data
........................
p.18
La data, un sujet brûlant.
La ‘libre circulation’ de la Data
................
p.22
Volatilité de la third party :
circulation de la donnée marché
............
p.22
Volatilité de la first party :
protection des données annonceurs
....
p.23
Comment une marque peut-elle
maitriser et optimiser l’exploita
-
tion de sa donnée ?
Maitriser les données
.................................
p.26
Exploiter les données
..................................
p.26
4 étapes simples pour démarrer
dans la data
.....................................................
p.27
Zoom sur le DMP
(data management platform)
Le rôle du DMP
..............................................
p.30
L’homme et la machine
...............................
p.31
Machine Learning :
donner de la valeur à la data
Définition du Machine Learning
.............
p.34
Utilisation de la data : le DSP
(Demand Side Platform)
Rôle du DSP
....................................................
p.38
Quels DSP choisir ?
......................................
p.38
Data et créa : le lien évident
mais sous exploité
.........................
p.42
Quelles nouvelles exploitations de
la Data ?
Les nouveaux acteurs
[Livre Blanc] la Data au service de l’expérience client - Netboosteryann le gigan
>>[Livre Blanc] la Data au service de l’expérience client
[netbooster 01.02.15]
En marketing, la data, c’est d’abord des signaux reliés à des individus ou des ordinateurs qu’il faut ensuite grouper et analyser pour créer de la connaissance. Cette connaissance servira à améliorer les décisions, à livrer des messages plus efficaces à des cibles plus réceptives et à choisir les supports les plus adaptés au moment, au public et surtout à l’objectif.
http://www.netbooster.com/fr/Livre_Blanc_Data.pdf
iProspect Futur Focus 2018 : The New Machine RulesiProspect France
A travers notre livre blanc Future Focus 2018, iProspect examine quelles seront les impacts des machines et la technologie vont avoir des impacts sur le marketing et la publicité dans les années à venir.
Le HUBFORUM Paris 2017 a réuni pendant deux jours plus de 3 000 participants autour du thème «Accelerate ! ». Le premier temps de la transformation numérique des grands groupes, celui du réveil collectif, des POCs et de la communication institutionnelle doit laisser place au deuxième temps, celui de l’accélération, de l’industrialisation, du passage à l’ère de la
normalisation et du passage à l’échelle des nouveaux modèles d’affaires.
100 intervenants ont partagé leurs expériences, leurs conseils avisés, leurs réussites et leurs difficultés afin d’aider les entreprises à aborder 2018 avec sérénité, inspiration et créativité.
Retrouvez dans ce rapport les moments clés des quatre sessions du HUBFORUM Paris 2017.
Data Marketing
Congrès E-mail & Data Marketing de Lyon 2019 : nous y serons !
Kiss The Bride 8 mars 2019 Environ 1 minute de lecture
sharePartager cet article
Loyalty Company participera à cette 2ème édition du Congrès E-mail et Data Marketing qui se déroulera le 26 Mars 2019 au Centre de Congrès de Lyon sur le thème du data marketing.
Etude Apec - La relation client : enjeu stratégique pour les entreprises et c...Apec
La relation client, au cœur de toutes les transactions économiques et objet de nombreuses mutations, constitue un enjeu primordial. Aussi suscite-t-elle beaucoup d’attentes en termes de compétences. Cette étude explore l’étendue de ces besoins, que ce soit pour des métiers impliquant une interaction directe avec le client ou pour les autres types de métiers.
ADI Nouvelle-Aquitaine au service de votre ambition numérique
Plaquette d'information sur la transformation numérique des entreprises
Agence de Développement et d'Innovation Nouvelle-Aquitaine
Janvier 2017
Synthese barometre metiers_communication_2015 UCC MED
Nous vous proposons de retrouver la présentation de Mr Amaury Laurentin, ayant intervenu à l'occasion de notre Master Class #2 : Le baromètre des métiers de la communication, répondant à l'une de nos interrogations : la nouvelle donne agences/annonceurs.
Nous avons eu le plaisir de partager ce moment accompagnés des adhérents du Club Média Méditerranée ce qui a permis d'ouvrir un échange constructif sur des problématiques communes.
"L'utilisation du numérique dans les relations clients" Guide de bonnes prati...yann le gigan
>>5 conseils du Medef pour bien numériser sa relation client
[Scribd Usine digitale 20.07.15]
Le Medef donne un coup de pied au derrière des entreprises BtoC qui n'ont pas encore basculé vers le digital, avec son guide de bonnes pratiques "L'utilisation du numérique dans les relations clients", destiné aux équipes dirigeantes. Passer au cross-canal, mettre en place une stratégie marketing "conversationnelle" axée sur les réseaux sociaux, tisser des partenariats pour proposer des offres élargies... L'organisation patronale donne cinq conseils aux acteurs à la traine, en s'inspirant de l'expérience de 15 entreprises françaises.
https://www.scribd.com/document_downloads/271649265?extension=pdf&from=embed&source=embed
Magellan Partners - Valoriser l’expérience client et augmenter la rentabilité...Magellan Consulting
Les premiers signes d’activité bancaire datent de 2000 avant JC, avant même l’apparition de la monnaie : des commerçants mésopotamiens reçoivent des biens précieux en dépôts et octroient des crédits sur la base de ces mêmes biens. Ces échanges commerciaux asynchrones étaient retranscrits grâce à des inscriptions cunéiformes sur des tablettes d’argile, qu’il fallait produire, archiver et analyser lorsque les engagements arrivaient à échéance. Il y a 4 millénaires, le destin de la banque était déjà lié à celui de la donnée. Depuis quelques années, les enjeux des données pour la banque ont investi une nouvelle dimension : ces données seraient une source inépuisable de développement de l’activité et d’optimisation des coûts. Leur utilisation serait même la solution à l’ensemble des défis que rencontre le secteur bancaire :
• Pour personnaliser les services rendus au client, • Pour développer de nouveaux produits et services, • Pour gagner en performance dans l’octroi des crédits, • Pour détecter la fraude et protéger tant le client que l’établissement, • Pour contrer les offensives commerciales des FinTechs, redoutables nouveaux concurrents, • Pour répondre aux besoins d’information exprimés par les régulateurs…
Après un tour d’horizon de ces nouvelles potentialités, ce numéro d’iMAGine propose des éléments de réflexion autour des aspects les plus fondamentaux de l’exploitation des données :
n Quelles en sont les limites ? Est-ce que le client consentira à ce que la banque utilise ses données comme il autorise les GAFA à le faire ? n Comment définir les initiatives à mener dans une banque ? Comment les mettre en place et via quelles technologies possibles? n Quel principe d’investissement peut être envisagé pour se lancer? n La qualité et la sécurité de ces données sont-elles des contraintes ou des opportunités ? n Comment passer d’une idée à une industrialisation ?
Si la donnée est indéniablement le pétrole du XXIe siècle, le chemin jusqu’à une extraction performante, un raffinage efficace et une distribution pertinente est encore long. Les consultants et experts du groupe Magellan Partners sauront vous accompagner sur chacune de ces étapes.
Interview de Séverine Marquay, Directrice de la relation client augmentée à la Direction Digitale du marché Entreprises d'Orange, concernant l'utilisation de l'intelligence artificielle au service de la relation client et des collaborateurs Orange
Conférence Mediabul le Hors Domicile à l'heure du digitalLoyalty Company
Le 16 mars dernier, Olivier Bertin, Directeur de la Stratégie du groupe Loyalty Company, est intervenu à la conférence Mediabul sur le sujet « Le hors domicile à l’heure de la transformation digitale ».
Waisso conférence au Digital Performances de l'EBGWaisso
RCU/ CDP/ DMP/ MARKETING AUTOMATION: quelle solution pour gérer mes données clients ?
À l’heure où l’on annonce la mort prochaine du cookie, les annonceurs se repositionnent de plus en plus sur l’exploitation de leurs données propriétaires.
Actif très largement inexploité par les entreprises, la data client constitue un vivier de croissance important.
Reste à savoir comment l’orchestrer et via quel outil?
BI, data gouvernance, activation multi-canale, nurturing, analyse, gestion de la customer journey… à chaque use case correspond sa solution technologique.
Vous souhaitez téléchargez la présentation ? C'est par ici : https://waisso.com/blog/retour-sur-le-digital-performances/?preview_id=7419&preview_nonce=6113187daa&post_format=standard&_thumbnail_id=7432&preview=true
EBG - Livret de synthèse de la TaskForce CDO 2019 - CDO, de l'inspiration à l...55 | fifty-five
Une 3e saison et de nouveaux défis :
Voilà déjà 3 ans que l'EBG s'est associé à fifty-five et Informatica pour se pencher en profondeur sur la fonction alors très récente de Chief Data Officer.
En 2017, seules 45 % des entreprises avaient mis en place une stratégie data (Baromètre CDO, EBG et Informatica, juillet 2017) et 23 % comptaient un CDO dans leur organigramme (BCD2O, Baromètre des Chief Digital/Data Officers, Digital Jobs, Criteo, Salesforce et Viseo réalisé par Novamétrie, 2e édition, 2017). Aujourd'hui, la quasi-totalité des organisations pour lesquelles travaillent les répondants au Baromètre « CDO : de l'inspiration à l'action » ont mis en place des chantiers data et plus de la moitié ont recruté un Chief Data Officer (Baromètre CDO : de l'inspiration à l'action, réalisé par l'EBG en partenariat avec fifty-five et Informatica, juillet 2019). Cette évolution se traduit aussi dans les défis qu'ont à relever les experts de la donnée. Après avoir installé les fondamentaux (gouvernance, outils, acculturation, etc.) et s'être concentrés sur les aspects réglementaires, les CDO se lancent dans la création de valeur et le passage à l'échelle.
As far as digital marketing is concerned, attribution is unquestionably one of the major stakes in these last years. Nevertheless, the concept of attribution still seems to be a fuzzy subject. So what exactly is attribution and which model should you choose?
It is in order to answer these questions that a taskforce lead by Facebook dealt with the challenges of attribution.
[Livre blanc] Attribution : comprendre ses enjeux pour faire le bon choix55 | fifty-five
Dans le cadre du marketing digital, l'attribution est sans conteste l'un des enjeux majeurs des années actuelles. Alors qu'est-ce que l'attribution, et comment mettre en oeuvre une bonne stratégie ? Découvrez la réponse dans ce livre blanc écrit par Facebook et co-signé par 55.
Optimizing your WeChat strategy through Data & Analytics55 | fifty-five
Are you using your data efficiently?
Do you want to go beyond standard WeChat KPIs like reach and fan acquisition, and start measuring engagement and conversion?
Do you want to start optimizing your WeChat performance and start driving business results more effectively?
Are you curious about WeChat analytics, both in terms of tools and applications?
Are you looking for a one-stop solution to auditing your Wechat performance and getting an actionable strategy for optimization?
fifty-five & Madjor uncover how data can be interpreted to help inform, audit and optimize your WeChat strategy.
Chief Data Officer, data privacy, machine learning, API, Ad Exchange, data mining, DMP, data gouvernance, mode agile, test & learn...
L'EBG, fifty-five, IBM, Turn et PwC ont tenté de clarifier les grands concepts du data marketing au sein de cet ouvrage. Du buzzword au keyword d'une stratégie digitale, vous pourrez y découvrir les retours d'expérience de nombreux annonceurs et des conseils d'experts.
55 | fifty-five | White paper : Ad blocking (FR)55 | fifty-five
Un internaute sur dix en France, un sur cinq au Royaume-Uni, un sur quatre en Allemagne. Le développement des "ad blocks", ces logiciels qui permettent de bloquer l'affichage de publicités sur internet est loin d'être marginal. Qualifié de question critique dans le rapport 2016 des Luma Partners, le phénomène, inscrit dans la durée et en croissance, n'est circonscrit ni à une population ni à une région en particulier. En Chine et aux Etats Unis, marchés réputés plus ouverts à la publicité, le taux d'usage des ad blocks est comparable, si ce n'est supérieur, à celui mesuré en France.
Quarante et un milliards de dollars - telle est l’estimation des pertes engendrées pour le secteur publicitaire en 2016. Que faire face à la montée des ad blocks lorsqu'on travaille dans le secteur ?
55 | fifty-five | Fact Sheet: From Google Analytics to Universal Analytics55 | fifty-five
Universal Analytics is a new version of Google Analytics, offering new ways to process and analyse your data, and exclusive features.
Here is what you need to know about this tool.
Dans un contexte où la transmission et l'installation d'agriculteurs sont des enjeux cruciaux pour la profession agricole, de nouveaux agriculteurs s'installent chaque année et, parmi eux, certains Bac+5 ou plus. Les cursus des écoles d'ingénieurs n'ont pas vocation à former de futurs agriculteurs. Pourtant, certains apprenants ayant suivi ces cursus BAC + 5, qu'ils soient ou non issus du milieu agricole, tentent l'aventure de l'entrepreneuriat agricole. Qui sont-ils ? Quelles sont leurs motivations et visions ? Comment travaillent-ils ?
Novascope Télécoms et Réseaux Informatiques en BtoB 2023Enov
Depuis 1996, nous mesurons la digitalisation des entreprises françaises grâce à notre observatoire Novascope Télécoms et Réseaux informatiques en B2B. Découvrez quelques résultats exclusifs de la vague 2023.
4. 2
PRÉAMBULE
Le big data est mort, vive le big data !
Les annonceurs semblent entrer dans
une nouvelle phase de maturité vis-à-
vis de l’utilisation qu’ils font de la data
client. La course au stockage effrénée
est pour beaucoup révolue, et le nerf
de la guerre réside aujourd’hui dans
la capacité à activer la data de façon
rapide et innovante.
Dans la bataille, les lignes des organi-
sations vacillent et s’ouvrent néces-
sairement, l’enjeu étant de croiser les
données au-delà des silos de l’entre-
prise : c’est la fameuse data-driven
company qui émerge. Soit dit entre
nous, le terme est un euphémisme,
car la data n’a de valeur qu’à partir
du moment où elle permet de faire
entendre la voix du client, encore et
toujours roi, plus exigeant que jamais.
Le nouvel eldorado, c’est peut-être la
customer-driven company.
Finalement, les choix technologiques
derrière l’élaboration d’infrastructures
big data ne sont qu’une composante
de chantiers éminemment stratégiques
et dont l’enjeu est simple : continuer
d’exister face au client dans un contexte
de transformation des usages.
5. 3
Pour réfléchir aux meilleures
manières de résoudre le défi, pour
la 3ème année consécutive, l’EBG a
conduit en association avec 55, Turn
et IBM, un cycle de 7 événements,
pour permettre à 150 décideurs mar-
keting, data et digital de partager
leurs retours d’expérience autour de
l’avancée de leurs projets big data.
Le présent livret restitue les enseigne-
ments du cycle, cette année intitulé
Data-Driven Company, à travers sept
grandes synthèses des rencontres,
parsemées de citations des partici-
pants, de chiffres éloquents, d’avis
d’experts et enrichies d’entretiens
complémentaires.
L’EBG remercie l’ensemble des adhé-
rents contributeurs aux rencontres
et aux interviews complémentaires
d’avoir joué le jeu du partage d’expé-
riences. Merci également à nos
partenaires de 55, Turn et IBM avec
qui nous avons bâti le cycle et qui ont
parfaitement su animer ou éclairer les
rencontres de leurs avis experts.
Bonne lecture !
6. 4
P.18
PRÉAMBULEP.02 P.06
P.20
P.08
P.22
P.32
P.34
P.36
P.46
CHAPITRE 1 :
COMMENT EXPLOITER
LE BIG DATA
POUR AMÉLIORER
L'EXPÉRIENCE CLIENT ?
SYNTHÈSE
DE LA TABLE RONDE
DU 17.06.2016
ENTRETIEN AVEC
ALEXIS TRICHET,
ORANGE
CHAPITRE 2 :
QUELLES UTILISATIONS
DE LA DMP POUR
UN MARKETING
PERSONNALISÉ
ET CRÉATIF ?
SYNTHÈSE
DE L’ATELIER DU
20.09.2016
ENTRETIEN AVEC
NICOLAS CAPURON,
TF1
CHAPITRE 3 :
DATA LAKE, L’OUTIL
INDISPENSABLE DE LA
VISION CLIENT 360°?
SYNTHÈSE
DE L’ATELIER DU
16.10.2017
ENTRETIEN AVEC
GAUTHIER LE MASNE
DE CHERMONT,
AIR FRANCE
7. 5
CONTRIBUTEURS
PARTENAIRESP.72
P.86
P.50 P.74
P.58
P.62
P.70
P.60
P.84
P.88
P.96
P.98
P.104
SOMMAIRECHAPITRE 4 :
ASSOCIER BIG DATA
ET PROGRAMMATIQUE
POUR DES CAMPAGNES
PLUS PERFORMANTES
SYNTHÈSE
DE L’ATELIER DU
13.12.2016
ENTRETIEN AVEC
JULIEN CAFEDE,
AUCHAN.FR
CHAPITRE 5 :
METTRE LA DATA
SCIENCE AU SERVICE
DES MÉTIERS
SYNTHÈSE
DE L’ATELIER DU
17.01.2017
ENTRETIEN AVEC
ÉLISABETH ZEHNDER,
KIABI
CHAPITRE 6 :
INTERNALISATION
DE L'ACHAT MÉDIA :
UNE TENDANCE
DE FOND ?
SYNTHÈSE
DE LA TABLE RONDE
DU 17.03.2017
ENTRETIEN AVEC
SIMON VIVIEN,
WARNER BROS
CHAPITRE 7 :
LA DATA AU SERVICE
DE L'EFFICACITÉ
MARKETING
SYNTHÈSE
DE L’ATELIER DU
17.05.2017
ENTRETIEN AVEC
JULIEN-HENRI
MAURICE,
BAZARCHIC
P.48
8. 6
Comment exploiter
le big data pour améliorer
l'expérience client ?
La montée en puissance des canaux digitaux réinterroge la proximité
entre la marque et le client. Beaucoup d’annonceurs ont gardé trace
des interactions à distance qu’ils entretenaient avec leurs cibles, et qu’ils ont
transformées en masses de données éclatées dans diverses bases.
Depuis, le big data est passé par là. Dès lors, comment repenser
sa stratégie marketing pour mobiliser ses données au service
du nerf de la guerre : l’expérience client ?
11. 9 9
PROGRAMME
Le big data est capable de traiter de très forts volumes de données
et de prendre en charge des types d’informations très hétérogènes.
Comment peut-il contribuer à pousser un cran plus loin l’optimisation
de l’expérience client, et à la décliner dans une logique omnicanale ?
• Comment globaliser la gestion de l’expérience client avec le
big data ?
• Visualisation, tableaux de bord : comment suivre en temps réel
les comportements des clients ?
• Comment croiser efficacement données internes et externes
dans une perspective big data ?
ANIMATEURS
• LA MUTUELLE GÉNÉRALE, Stéphane Barde, Responsable big data,
Information Management
• ORANGE, Alexis Trichet, Directeur Anticipation et Connaissance Client
• VOYAGES-SNCF.COM, Béatrice Tourvieille, Directrice Marketing
INTERVENANTS
• FIFTY-FIVE
Samboy Camara,
Practice Leader : Tech, Insurance
Utilities
• IBM
Yan Lemoigne, Head of Sales
Analytics Platform
12. 10
L’EXPÉRIENCE CLIENT,
3 ENJEUX, 1 MÊME
PRIORITÉ
La montée en puissance des canaux
digitaux réinterroge la proximité entre
la marque et le client. La question de
l’expérience en ligne devient absolument
décisive. Essentielle, même, pour tout pure
player. Chez voyages-sncf.com, Béatrice
Tourvieille considère d’ailleurs que « c'est
le premier driver de préférence et de choix
du service de réservations. » Cette priorité
révèle un fort enjeu de personnalisation.
« L'an passé (en 2015), nous avons lancé
un grand projet de refonte de notre service
avec une stratégie axée autour de la notion
de smart tourisme. Cette dernière repose
sur plusieurs piliers : un accès fluide aux
inventaires, un accompagnement sans
couture du voyage. Pour soutenir cette
stratégie, l'expérience client et la data sont
les deux blocs majeurs.
Voyages-sncf.com est le site de tous
les Français. Les 12 millions de visiteurs
mensuels n'attendent pas la même chose.
Le voyage est une expérience impliquante
et on a tous des besoins différents. Les
niveaux de maturité des clients sont très
hétérogènes. C'est pour cela que le besoin
de personnalisation est très puissant. La
convergence de l'expérience client et de la
data vise à répondre à ces enjeux-là. »
Hyperconnecté et de moins
en moins engagé envers une
marque ou un fournisseur,
le consommateur cherche
non seulement des prix
avantageux, mais aussi à
faire de son acte d’achat une
expérience affinitaire auprès
d’un vendeur qui le connaît,
le reconnaît et anticipe ses
besoins.
À ce titre, l’amélioration de
l’expérience client reste plus
que jamais essentielle pour
attirer et retenir les
consommateurs.
13. 11
Chez Orange, c’est la satisfaction client qui
préside à la recherche d’une « expérience
incomparable », notion centrale du plan
Essentiel 2020, rapporte Alexis Trichet.
« Si on veut parvenir à piloter l'expérience
client comme on pilote aujourd'hui le CA ou
la conquête de clients, il faut se donner un
objectif clair. Pour nous l’objectif c’est de
diminuer le nombre de clients insatisfaits
et d’augmenter le nombre de clients très
satisfaits. Si l’on parle des clients insa-
tisfaits, aujourd'hui, ils sont environ 20 %.
Les entreprises les plus performantes
sont plutôt autour de 10 %. Ce sont ces
niveaux que nous voulons atteindre. C'est
une rupture par rapport aux périodes
précédentes où l'on s'attaquait à la notion
d'expérience client par petites touches et
sans objectif global. »
Mais la révolution de la relation client se
joue à la fois du physique et du digital. C’est
particulièrement le cas dans le monde de
l’assurance. « Historiquement, rappelle
Stéphane Barde (La Mutuelle Générale),
les contacts se sont faits en agence, puis
en call-center. Désormais, nous sommes
dans l'ère de la multicanalité. » Dès lors,
avant même de penser personnalisation,
un premier enjeu s’impose, celui de la
« cohérence de l'expérience que l'on fait
vivre à nos clients. Les interactions sont
peu fréquentes, et lorsque l'on appelle son
assureur, c'est généralement parce qu'il
y a un problème. L'interaction est donc
connotée assez négativement. L'enjeu
consiste à avoir davantage d'interactions
positives. »
ENRICHIR LES DONNÉES
INTERNES DE LA VOIX
DU CLIENT
Les canaux digitaux ont permis aux marques
d’accumuler foultitude de données depuis
plusieurs années, sans doute davantage
qu’elles n’étaient réellement capables de
traiter. Le big data en permet maintenant
une exploitation suffisamment rapide parfois
même en temps réel. Belle promesse, mais
qui ne saurait suffire.
Pour Alexis Trichet, les data internes à
l’entreprise doivent impérativement être
croisées avec « la voix du client ». Au
regard de l’enjeu d’Orange de maximiser
la satisfaction client, il s’en explique. « On
note trois grands motifs d'insatisfaction
des clients : le réseau, l'offre et la
relation client. Le premier produit d'un
opérateur, c'est le réseau. On considère
que les principaux efforts doivent se
concentrer sur ce point. Cela passe par
une compréhension fine des attentes des
clients. Cela a modifié la vision des équipes
techniques. Typiquement sur le mobile,
40 %
RÉCONCILIATION / AGRÉGATION
DE DONNÉES HÉTÉROGÈNES
32 %
COMMUNICATION / COMPRÉHENSION ENTRE
LES INTERVENANTS TECHNIQUES ET MÉTIERS
31 %
PROCESSUS DE COLLECTE
DE LA DONNÉE COMPLEXE
31 %
MANQUE DE COMPÉTENCES TECHNIQUES OU
DE RESSOURCES QUALIFIÉES
QUELLES SONT LES PRINCIPALES DIFFICULTÉS À SURMONTER CONCERNANT
VOS PROJETS STRATÉGIQUES AUTOUR DE LA DATA ? (Plusieurs réponses possibles)
Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
14. 12
cela nous a obligés à revoir l’importance
de la couverture vs les débits, et de revenir
à des évidences : les gens veulent être
connectés partout et aujourd’hui cette
demande n’est pas encore totalement
satisfaite. Il y a donc une grande mutation
en cours : le marketing, qui était jusque-
là concentré sur l'ingénierie tarifaire, doit
désormais éclairer les porteurs de coûts,
soit les équipes techniques et relation
client, sur les projets prioritaires pour tenir
nos objectifs de satisfaction. »
Voyages-sncf.com a « également vécu
cette phase de remise au centre des
attentes clients » confie Béatrice Tourvieille.
« Il y a une grande complémentarité
entre la partie data et la partie études
pour permettre aux équipes de mieux
s'approprier les attentes des clients. Notre
communication était très centrée sur les
tarifs ; il a fallu faire davantage remonter
des éléments liés au voyage en tant que
tel. La voix du client a été un élément très
fédérateur et mobilisateur pour les équipes,
à travers des KPIs très clairs. »
Le big data porte peut-être mal son nom.
À l’heure du marketing personnalisé, son
principal avantage n’est pas tant de permettre
l’exploitation de larges bases de données,
mais de savoir faire parler des données
de diverses sources et recelant des
informations variées. « L'expérience client
est également un moyen de capter des
données qui, aujourd'hui, nous manquent.
Ces données, une fois travaillées, nous
permettront de personnaliser ce que l'on
apporte aux clients, avant et après la vente. »
observe ainsi Stéphane Barde (La Mutelle
Générale).
SOURCES DE DONNÉES :
FAUT-IL ALLER VOIR
AILLEURS ?
Une fois la « voix du client » captée, faut-
il se tourner vers les multiples sources de
données externes, aujourd’hui disponibles,
en accès libre ou payant ?
Chez voyages-sncf.com, qui a « la chance
de ne pas manquer de données (CRM,
usage, navigation), le cœur de ce qui est
utilisé, ce sont les données internes. »
Ce qui n’empêche pas d’aller voir ailleurs.
« Nous utilisons aussi des données
externes, comme les données de ciblage
que peuvent nous apporter tous les outils
d'acquisition. Nous avons aussi recours à
des données autour du voyage (référentiels
géographiques, points d'intérêts, données
météorologiques, etc.). »
Une logique similaire prévaut chez Orange,
où la priorité va d’abord à l’exploitation des
données internes. « Nous faisons quelques
achats pour ce qui concerne l'activation
sur Internet. Mais sur l'amélioration du
service rendu, ce sont avant tout nos
propres données qu'il convient de scruter.
88 % des entreprises estiment disposer
d’une bonne connaissance de leurs clients
15. 13
Les équipes techniques n'ont pas manqué
l'arrivée d'Hadoop il y a quelques années.
Elles étaient plutôt en avance sur nous. »
Le recours aux données externes vient
donc dans un second temps. Il importe
avant cela de savoir capter soi-même les
bonnes données. En 2016, La Mutuelle
Générale travaillait sur ce chantier. « Il y a de
nombreuses réflexions menées autour de
la donnée. Il nous manque énormément de
matière pour faire de la personnalisation.
Il convient donc d'identifier les données
clefs qui nous manquent et de modifier nos
parcours clients pour capter ces données.
Des projets de personnalisation de la page
d’accueil, du tunnel de vente, de l'espace
client sont en cours et la Data Management
Platform devrait nous y aider.
Pour l'heure, nous n'avons pas tellement
eu recours à des données externes. Sur
l'open data, on reste sur de grand classique
(données INSEE, densité de professionnels
de santé par km², etc.). Une expérience
intéressante en cours vise à avoir un
thermomètre sur le mécontentement en
analysant des forums. On n'en est encore
qu'au stade du balbutiement sur ce point. »
UN EFFORT DE
DÉSILOTAGE CHEZ TOUT
LE MONDE ENGAGÉ
Une fois les données captées ou acquises,
le chantier ne fait que débuter. Et puisque
l’expérience client implique de près ou de
loin toutes les fonctions, la transformation
sera collaborative ou ne sera pas. Pour
Stéphane Barde (La Mutuelle Générale),
« l'enjeu de l'expérience client est avant tout
un enjeu de prise de conscience sur le fait
que cela ne concerne pas que le marketing !
Il s'agit donc de travailler de manière
transverse autour du concept de parcours
client et d'amélioration de l'expérience. »
Béatrice Tourvieille (voyages-sncf.com)
dresse un constat similaire. « La partie data
a été placée au marketing. Ensuite, il y a
un vrai enjeu de rayonnement de cette data
au sein de l'organisation. Nous sommes
organisés autour de feature teams, qui
sont des équipes multi-compétences
chargées de gérer des fonctionnalités du
site. Aujourd'hui, la data doit être injectée
au sein de chacune de ces feature teams. »
Chez Orange, la transversalité est aussi de
mise, avec pour objectif d’aligner chaque
direction autour des mêmes objectifs
de satisfaction client. « Au point de vue
organisationnel, témoigne Alexis Trichet,
il a fallu s'appuyer sur une gouvernance
destinée à traiter les problèmes de
1. Source : Talend
Mais seulement 61%des consommateurs
pensent que les entreprises comprennent leurs
besoins1
16. 14
satisfaction client. Elle réunit la Direction
Technique, la Direction de la Relation Client
et la Direction Marketing. Tous les quinze
jours, nous analysons les indicateurs de
qualité tournés clients. »
Cet alignement dépasse la question de
l’organisation et de la gouvernance. Les
outils utilisés doivent également évoluer
pour permettre un pilotage plus customer-
centric. « Ce que nous cherchons à faire
c’est à piloter pour chacun de nos clients
leur satisfaction. Cela nécessite une
évolution notable de notre CRM qui, jusqu’à
présent, était plutôt orienté historiques des
interactions, offres et options. Notre vision
c’est qu’il contienne tous les éléments qui
nous permettront de considérer ce client
comme satisfait ou insatisfait pour pouvoir
agir en conséquence.
Il y a évidemment des fiches clients sur
lesquelles sont inscrites quasiment toutes
les interactions. Il s'agit ici de construire une
vue à 360 degrés en inscrivant également
ce que l'on a compris de l'expérience
technique telle que le client l'a vécue.
Nous n'en sommes qu'aux prémices, mais
l'interaction avec le produit/service doit
être résumable. »
DEPUIS 2016, PREMIERS
PAS VERS LA DMP
Interrogés sur leurs recours à la DMP,
les intervenants confient tous trois s’être
lancés. Mais Béatrice Tourvieille avertit,
« pour bien utiliser la DMP, il faut déjà avoir
un niveau de compréhension des canaux
assez fin. On travaille ainsi sur des scénarii
d'activation en cross-canal. » Elle précise le
contexte du recours de voyages-sncf.com à
la DMP. « L'acquisition est assez centrale
dans le modèle, avec des degrés
d'importance différents dans le business.
En France, on est davantage dans une
approche CRM ; à l'international on est plus
dans une logique de conquête. La DMP
nous permet d'avoir une activation la plus
fine possible pour activer en acquisition et
sur des canaux externes des clients que
nous connaissons déjà. Il a d'abord fallu
passer par une phase de mise à niveau de
tous les canaux d'activation. »
À La Mutuelle Générale, la DMP est
également vue comme un levier d’optimi-
sation de la stratégie d’acquisition. « Pour
l’acquisition, explique Stéphane Barde, en
fonction des canaux d'entrée, on essaie
déjà de comprendre comment les clients
vont se révéler appartenir à tel ou tel type
de profil. L'idée consiste à faire les bons
investissements médias en amont, en
TOP 3 DES OUTILS D’ANALYSE DE LA DATA (Plusieurs réponses possibles)
OUTILS DE WEB ANALYTICS
OUTILS CLASSIQUES DE REPORTING
OUTILS D’ANALYSE STATISTIQUE / DATAMINING
55 %
48 %
45 %
Source : Baromètre EBG « Data Driven Entreprise » conduit auprès de 800 répondants, novembre 2016
17. 15
fonction du type de clients que l'on aimerait
avoir. La DMP nous servira à atteindre cet
objectif, en faisant le lien entre différents
segments de données. »
NOUVELLES
COMPÉTENCES : LES
ATTIRER…ETLESRETENIR
On l’a vu, repenser l’expérience client
grâce au big data, c’est savoir capter les
bonnes données et par la suite, repenser
l’organisation, la gouvernance et ses outils.
Mais ce n’est pas tout. Le nerf de la guerre,
ce sont les compétences.
Des remarques récurrentes à ce propos
pointent la difficulté à trouver des profils de
data scientists. La compétence est sans
doute d’autant plus rare qu’elle requiert
tout à la fois une bonne compréhension des
enjeux métiers et la maîtrise d’outils pointus.
À La Mutuelle Générale, la compétence
est d’ailleurs « partagée entre différentes
équipes travaillant en mode agile ». Aussi
Stéphane Barde confie-t-il. « Le premier
challenge, avec les data scientists, c'est
de parvenir à les recruter ! Les vrais
profils sont assez rares et le monde de la
data science est actuellement très petit.
Il y a peu de seniors dans ce domaine.
Quand on n'est pas un pure player et que
l'on se lance dans la data science, c'est
difficile. Nous avons choisi de valoriser les
compétences internes et de prendre un
ou deux très bons data scientists. Nous
avons aussi pris des stagiaires issus de
très bonnes écoles que nous formons.
Cette formule fonctionne plutôt bien. Tout
l'enjeu consiste à les faire rester en rendant
les missions intéressantes. »
Pour disposer des compétences suffisantes,
Béatrice Tourvieille (voyages-sncf.com) mise
elle aussi sur la montée en compétences,
avec le développement d’un écosystème
de profils. « Il est en effet très difficile
de recruter, puis de retenir des data
scientists. Nous avons recruté des juniors
et seniors avec cette logique de montée en
compétences. Des prestataires travaillent
également avec nous pour compléter les
équipes. Nous tenons à mettre en place
une certaine porosité entre les équipes
datamining et les équipes data science
pour offrir de la montée en compétences.
La confrontation des équipes data science
avec des contraintes business, des con-
traintes d'implémentation ne se fait pas
naturellement. Nous avons créé des
nouveaux rôles, comme par exemple celui
de product owner d'algorithme, pour jouer
un rôle de facilitateur. Un écosystème de
profils se crée et évolue dans le temps ; il
convient de le faire vivre régulièrement. »
Pour les quelques acteurs qui, comme
Orange, ont la chance de pouvoir capitaliser
sur une expertise historique d’analyse de la
donnée, la data science peut également être
vue comme une chance de nourrir une partie
d’équipe en sujets nouveaux et entrainants.
« Historiquement, rappelle Alexis Trichet, il
y a toute une partie recherche de France
En 2016
19% des annonceurs français affirmaient s’être déjà dotés d’une DMP
23% y travaillaient 25% y réfléchissaient
18. 0
0
60 %
48 %
47 %
46 %
Source : Forrester Consulting pour Accenture Interactive, Juin 2016, Via EMarketer
DÉVELOPPER/AMÉLIORER LES CANAUX DIGITAUX
DÉVELOPPER/AMÉLIORER LES CANAUX
TRADITIONNELS
AMÉLIORER SES CAPACITÉS D’ANALYSE POUR
AMÉLIORER LES INSIGHTS
CRÉER DAVANTAGE DE CONTENUS PERTINENTS
POUR LES CLIENTS
Télécom qui était très pointue dans le
domaine des statistiques. Nous avons
donc la chance d’avoir une expertise très
solide depuis de nombreuses années.
L’équipe de datamining/datascience, qui
traditionnellement au marketing était
concentré sur des sujets de pricing et
d’évaluation de ROI, est depuis 2 ans
redéployée en partie sur le sujet de la
satisfaction, sujet passionnant pour les
équipes. »
LA CONFIANCE AU CŒUR
DES DÉBATS
La condition essentielle pour une expé-
rience client incomparable est sans conteste
le maintien du lien de confiance entre
l’utilisateur et la marque. Le client n’autorisera
pas la manipulation à distance de ses
données personnelles sans contreparties ;
en premier lieu, il exigera de se voir apporter
un supplément de valeur. Un pure player
comme voyages-sncf.com en a pleinement
pris conscience. « Nous utilisons les données
clients pour travailler des éléments de
personnalisation et améliorer la satisfaction.
On reste donc dans des enjeux d'apport de
valeur ajoutée. C'est d'ailleurs notre sujet
principal, il n'y a donc aucune tentation de
diverger de cette ligne.
L'expérience client est globalement en
train de se disperser, de s’éclater. Il y a un
enjeu fort à porter notre message et notre
service à l'endroit où sont nos clients.
Pour apporter de la valeur ajoutée partout,
c'est la connaissance client qui constitue
le socle. C'est là-dessus que se fonde la
pertinence de nos interactions. »
La deuxième contrepartie pour avoir
légitimité à manipuler à distance les
données personnelles du client, c’est
d’être transparent sur l’usage que l’on fait
des data – ainsi que le prévoit d’ailleurs la
réglementation. Alexis Trichet rappelle pour
Orange : « Dès que l'on entre dans des
démarches commerciales, on demande
évidemment l'accord du consommateur.
La CNIL est prise au pied de la lettre et on
reste bien à distance des terrains glissants. »
Stéphane Barde (La Mutuelle Générale)
résume en concluant qu’il y a pour eux
« deux garde-fous naturels : les contraintes
légales et la nature même de l'entreprise.
Une des valeurs essentielles des mutuelles,
c'est la solidarité. Nous avons donc une
barrière éthique qui s'impose naturellement
à nous-mêmes. Par exemple, nous avons
refusé d'établir un score qui prenne en
compte le prénom.
Par défaut, les données sont anonymisées.
Ce parti-pris fort coûte de l'argent et de
l'énergie. Pour chaque data set traité, une
fiche sécurité est créée pour mentionner
les données sensibles qui s'y rapportent. »
PRINCIPALES INITIATIVES POUR AMÉLIORER L’EXPÉRIENCE CLIENT
(Étude internationale)
19. 17
Nicolas Vaudran
55
L’analyse et l’activation des données ont désormais des applications infinies à chaque
étape du parcours client, que ce soit en phase :
• d’acquisition : scoring de lead, ciblage, segmentation, personnalisation des canaux
proposés selon les préférences du client…
• d’engagement et de conversion : pilotage des parcours grâce à l’analytics, up-sell
et cross-sell ciblé…
• ou de fidélisation / rétention : campagnes de fidélisation personnalisées, programmes
prédictifs anti-churn…
L’exploitation des données permet de mettre en perspective les comportements des clients
pour adapter sa stratégie de marque, et de mesurer la juste performance des actions menées.
Face à cette richesse, l’enjeu est de proposer une expérience client différenciante par
rapport aux concurrents et cohérente du point de vue client, à l’heure où celle-ci devient
centrale dans la stratégie de marque.
Le pilotage de l’expérience client par la donnée dépasse maintenant le seul cadre du digital :
ainsi, l’utilisation de bases de données tierces, par exemple celle de Facebook et ses
30 millions d’utilisateurs en France, permet de recouper les informations contenues dans
les programmes de fidélité des commerçants (nom, prénom, adresse email) et les données
de navigation digitales, décrivant ainsi les parcours client digitaux en amont de l’achat en
boutique.
De nouvelles notions voient alors le jour, comme le super chiffre d’affaires (CA)
rassemblant CA digital et CA en magasin, ou encore les contributions des campagnes
mobiles aux conversions en magasin, qui constituent autant d’outils de pilotage de
l’amélioration de l’expérience client globale, à la fois physique et digitale.
Comment exploiter le big data pour améliorer
l'expérience client ?
AVIS D'EXPERT
20. 18
« Le potentiel
est gigantesque »
ORANGE
ALEXIS TRICHET
Directeur Anticipation
et Connaissance Client
Alexis Trichet partage ses impressions
sur la conférence d’ouverture et insiste
sur le potentiel de l’utilisation des
données internes dans l’amélioration
de la satisfaction client.
Entretien
QUE VOUS INSPIRENT LES PROJETS
DE VOYAGES-SNCF.COM, LA
MUTUELLEGÉNÉRALEETVOUS-MÊME?
Ce qui m’a marqué, c’est que nous avons
tous décidé de prendre le sujet du big data
par les use cases. Nous partageons l’idée
qu’il faut avoir une question business à
résoudre.
J’ai également observé que nous sommes
tous en train de nous réapproprier nos
propres données : il y a déjà tant à faire
avec ce dont nous disposons. Le potentiel
est gigantesque et alimentera sans doute
fortement les 2-3 prochaines années.
COMMENT SÉLECTIONNEZ-VOUS LA
BONNE DONNÉE ?
Nous faisons quelques achats pour ce
qui concerne l'activation sur Internet.
Mais sur l'amélioration du service rendu,
ce sont avant tout nos propres données
qu'il convient de scruter. Les équipes
techniques n'ont pas manqué l'arrivée
d'Hadoop il y a quelques années. Elles
étaient plutôt en avance sur nous.
VOUS AVEZ DÉCRIT LA SATISFACTION
CLIENT COMME UN ÉLÉMENT CENTRAL
DU PLAN ESSENTIEL 2020 ?
Nous sommes en plein effort pour
comprendre ce qui est déterminant dans
la satisfaction de nos clients. Le fait de
croiser la voix du client et les données
internes à l’entreprise se révèle donc
absolument essentiel pour poser les bons
diagnostics. Et sans bon diagnostic, pas
de bon remède.
Si l’on n'est pas en mesure d'aller loin
dans la résolution de nos problèmes de
qualité, c'est parce que jusqu'à présent,
les équipes s'attachaient soit aux données
internes, soit au client, mais pas à ces
deux éléments simultanément. La réunion
de ces deux axes permet d'avoir une
vision autrement plus pertinente.
AVEZ-VOUS, VOUS AUSSI, FAIT LE
CHOIX DE LA DMP ?
Nous avons aussi décidé de mettre
en place une DMP qui tourne depuis
quelques mois sur deux cas : la fibre
et Sosh. Nous sommes encore en
rodage mais les premiers résultats sont
prometteurs.
18
21. 19
CONCLUSION
Les directeurs marketing seraient en passe de devenir les gardiens du temple
de l’expérience client. Une affirmation à nuancer, au moins deux fois.
Tout d’abord, parce que les métiers du marketing devront accélérer leur
mutation, autour du triptyque personnalisation, contenus et data. Ces trois
ambitions sollicitent des compétences et des savoir-faire nouveaux : la maîtrise
des outils issus du big data, la capacité à entraîner les agences vers une
créativité sans cesse renouvelée, le bagage technique pour dialoguer avec des
profils davantage math que mad men…
De plus, pour faire de l’expérience client l’alpha et l’oméga de sa stratégie
marketing, la transformation des métiers du marketing ne saurait y suffire.
Il revient aussi aux équipes IT, digitales, data, ou encore, des opérations, de
se changer en éclaireuses au-delà des silos ; car ce dernier obstacle empêche
encore de disposer d’un réel panorama clients, prélude indispensable à la
qualité de l’expérience.
22. 20
Quelles utilisations de la DMP
pour un marketing
personnalisé et créatif ?
Les consommateurs ont adopté toute une série de tactiques
pour contourner les messages publicitaires.
La DMP peut-elle aider les équipes marketing
à construire des messages plus percutants
qui sachent (re)conquérir l’attention de leur audience ?
25. 23 23
• TURN, Kamal Mouhcine, Sales Director South Europe
• TURN, Eymeric Chateau, Country manager Central Southern Europe
ANIMATEURS
PROGRAMME
La DMP promet de maximiser la connaissance de chaque client et
prospect pour produire une interaction hyper-individualisée. Mais dans
le même temps, les équipes marketing doivent repenser leur stratégie
éditoriale et trouver de nouvelles façons d’engager l’utilisateur tout au
long du tunnel de conversion.
• Comment la data peut-elle nourrir une stratégie de marketing
de contenus créative ?
• Scénarisation : quelles bonnes pratiques pour construire
des campagnes imaginatives et engageantes ?
• Quels sont les apports et les limites de la DMP dans ce nouveau
marketing personnalisé et créatif ?
PARTICIPANTS
• TRANSAT FRANCE
Roberta Graser, Responsable Pôle
Audience Acquisition
• FRANCE TÉLÉVISIONS
Skander Essid, Responsable
Technique Data et Digital Marketing
• SPECIALCHEM
Éric Escure, Directeur Technique
• IBM
Bertrand Douriez, IBM Software Sales
• CRÉDIT MUTUEL NORD EUROPE
Rémi Deltombe,
Responsable Data Management
• BOURSORAMA
Caroline Baldeyrou, Directrice Média
• BOURSORAMA
Aurélie Rossignol,
Responsable Datamining
• FNAC
Camille Berland, Responsable
Marketing Digital Relationnel
• UBISOFT
Gwenn Berhault, EMEA CRM Manager
• FIFTY-FIVE
Mike Bettan, Media Analytics
Senior Manager
• FIFTY-FIVE
Gwenn Charlot, Project Lead
• CABINET HOCHE
Régis Carral, Avocat Associé
• RENAULT
Servane Corot,
Chef de projet PRM
• CHANEL
Laura Yedid, Responsable
Fidélisation e-commerce
• ORANGE
Valérie Pernelle,
Head of Customer Value
Management Big data
• KIABI
Arnaud Mandon, Trafic Manager
26. 24
RÉPONDRE À UN DEVOIR
D’INSTANTANÉITÉ
Avant de débuter les échanges, Kamal
Mouhcine (Turn) rappelle la raison d’être de
la DMP.
« Une Data Management Platform est, en
quelque sorte, un entrepôt de données
dans lequel seront stockées un maximum
d’informations issues de sources différen-
tes. Le principal enjeu consiste à unifier
ces sources d’informations afin de les
mettre au service de l’amélioration de
la connaissance client. La grande force
d’une bonne DMP, c’est d’avoir un
maximum de connexions préétablies, afin
de faciliter le fonctionnement du dispositif
global. Tout ce système doit répondre à
un devoir d’instantanéité : bien souvent,
une information (par exemple, le signe
d’une volonté de résiliation du contrat d’un
consommateur) doit nécessiter une réaction
marketing immédiate (appeler l’abonné pour
faire le point sur sa situation, selon le même
exemple). Malheureusement, l’insight est
bien souvent assez peu valorisé, les acteurs
tendent à rechercher le ROI immédiat… Le
grand défi n’est pas de récolter toujours
davantage de données, mais de parvenir à
identifier les bons insights.
Concernant la notion de programmatique,
l’écosystème n’en est encore qu’aux
balbutiements. Mais l’objectif ultime consiste
à disposer d’une vision véritablement unifiée
(social, vidéo, mobile, display, etc.). »
Par Kamal Mouhcine
et Eymeric Chateau, Turn
« La notion de big data ouvre
la voie à la collecte d’un
nombre très important de
données, peut-être même
trop important… Au cours
des dernières années, de
plus en plus d’internautes
ont adopté les dispositifs
adblockers, car ils estiment
que les messages ne sont
pas adaptés, ou sont trop
peu créatifs. Aujourd’hui, il
est nécessaire de parvenir à
déclencher une véritable
conversation avec les
consommateurs, sinon le
message sera noyé parmi
des centaines d’autres… »
27. 25
DE LA CONNAISSANCE À
L’ENGAGEMENT CLIENT
Kamal Mouhcine (Turn) prolonge ses propos
introductifs.
« Comment la data peut-elle vous aider à
proposer des campagnes plus intelligentes ?
La donnée brute relève de la notion de
connaissance client, alors que la créativité
se propose de toucher à la notion
d’engagement. En un mot, la créativité
permet d’optimiser l’expérience de marque.
Du côté de l’annonceur, l’enjeu principal
consisteàrationalisertouteslesdonnéesafin
d’aller rapidement à l’essentiel : commencer
par des choses simples, identifier une
poignée de données clefs, regrouper cette
donnée en cibles marketing, rechercher
des insights utiles. Dans ce contexte,
les créatifs doivent impérativement être
intégrés dans l’ensemble de cette chaîne.
Turn a interrogé environ 250 créatifs présents
au Royaume-Uni. Le premier grand ensei-
gnement de cette étude, c’est que le
concept de data est bien peu maîtrisé par
cette population, alors même qu’il est d’une
très grande utilité et que les data ont tout
intérêt à être partagées avec la totalité de la
chaîne de valeur.
Cette étude contribue également à montrer
qu’il existe de très grands écarts en fonction
des générations de créatifs. Jeunesse
ne rime pas forcément avec sagesse, car
pour les millennials ou la génération Y,
la donnée n’est pas jugée absolument
nécessaire… Or, bien comprendre son
audience à travers les data permet de
proposer des formats beaucoup plus
impactants. Il convient donc d’évangéliser
ces populations en proposant davantage de
transparence, en les impliquant beaucoup
plus dans la réflexion, en fluidifiant au
maximum le partage. »
PERSONNALISER LES
MESSAGES GRÂCE À
LA DMP
L’objet de l’atelier était de réfléchir aux
usages de la DMP au service de campagnes
imaginatives et engageantes. Il convient
donc de sortir des messages standardisés.
L’importance de la personnalisation à l’ère
du marketing digital n’est plus à démontrer :
début 2014, une étude Terradata révélait
déjà que 80 % des directions marketing
digital y voyaient la clé de succès de leurs
initiatives1
.
Skander Essid (France Télévisions) partage
un cas d’usage de la DMP en ce sens. « Sur
la plateforme Culturebox qui regroupe
toute l’offre culturelle de France Télévisions,
la newsletter proposait auparavant à tous
les abonnés les mêmes sujets présentés
de la même façon... Depuis quelques
temps, grâce à la DMP, nous sommes en
1. Teradata 2014, Étude « Digital Marketing Insight Report » menée auprès de 1506 décideurs marketing
à travers le monde.
Début 2014, 80%des directions marketing
digital voyaient déjà dans la personnalisation la
clé de succès de leurs initiatives1
.
28. mesure de proposer une personnalisation.
Une analyse du parcours sur Culturebox
et sur les autres sites du groupe France
Télévisions permet de segmenter les
appétences : théâtre, cinéma, comédies
musicales, etc. Il s’agit de données
comportementales et anonymes, car il
n’est pas nécessaire d’être logué pour
naviguer sur nos sites.
Aujourd’hui, l’objet de la newsletter
ainsi que l’article présenté à la une sont
personnalisés en fonction du profil de
chaque abonné. Le dispositif nous a permis
de multiplier par cinq le taux d’ouverture. »
La DMP peut donc être utilisée pour affiner
en continu le ciblage de l’audience et en
ce sens, scénariser une succession de
messages plus percutants, plus vivants.
Eymeric Chateau (Turn) détaille ce principe
de scénarisation. « Au-delà de la data,
l’enjeu est de créer différents segments.
Sur le marché, une grande tendance
émerge : le dispositif d’analyse de clusters.
Le premier constat, c’est qu’il y a plein
de caractéristiques contradictoires dans
l’audience, et le risque est d’entrer bien
trop dans le détail. Autant d’opportunités
manquées pour les marques…
L’ambition de l’analyse de clusters consiste
à identifier quelques grandes tendances
dans des populations très larges afin
de former, ensuite, des sous-groupes
représentatifs dotés d’une poignée de
caractéristiques définies.
Cette analyse offre la possibilité de voir
subtilementdequellemanièrelesaudiences
réagissent aux messages créatifs. C’est
l’opportunité de créer des contenus qui
vont faire écho à votre audience.
Il s’agit également de comprendre la
complexité du fameux customer journey :
on porte une analyse macro sur chacun
des groupes afin de déterminer quelle
fréquence de messages paraît la plus
appropriée, par exemple.
Enfin, l’objectif ultime consiste à prédire les
prochains intérêts de vos clients et de vos
prospects. À terme, nous parviendrons à
déployer des outils qui soient en mesure de
tout intégrer : CRM, vidéo, mobile, social… »
ADAPTER SA PUBLICITÉ À LA GÉNÉRATION : RÉPARTITION DE
L’INVESTISSEMENT MÉDIA PAR CANAL
Les annonceurs investissent 500 % de plus auprès de la génération Y que de toute autre audience
Dans le display Dans les réseaux
sociaux
Dans les appareils
mobiles
Dans les vidéos
26
29. 27
Régis Carral
Cabinet Hoche
L’ŒIL DE L’AVOCAT
« Vouloir mieux connaître son client ne doit
pas avoir pour conséquence de limiter
ses droits et libertés »
La DMP a pour objet d’améliorer la qualité de la relation client, notamment en centralisant
l’ensemble des données le concernant collectées par différents moyens au cours de la
relation. Une fois centralisées, ces données peuvent être analysées et classées afin d’établir
le profil du client et lui proposer des services adaptés et personnalisés. Les informations
analysées sont de plus en nombreuses et précises en vue d’élaborer ces profils clients
qui se veulent plus pertinents.
Toutefois, vouloir mieux connaitre son client ne doit pas avoir pour conséquence de limiter
ses droits et libertés en matière de protection des données personnelles, à plus forte raison
si les interactions avec le client et leurs contenus dépendent de l’appartenance à un profil
déterminé.
En effet, selon le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des
données personnelles, applicable à compter du 25 mai 2018, le profilage consiste à traiter
des données personnelles pour analyser, évaluer certains aspects personnels ou prédire
les préférences et les comportements d’une personne. Le principe est l’interdiction de
recourir au profilage puisque le texte prévoit le droit ne pas faire l’objet d’une décision
exclusivement fondée sur le profilage, sous réserve des quelques dérogations prévues par
ce texte. Dans l’hypothèse d’un profilage, la personne concernée doit être informée de son
existence, des conséquences et de son droit de s’opposer à celui-ci.
Enfin, en cas d’évaluation systématique et approfondie d’aspects personnels, notamment
grâce au profilage, le Règlement prévoit qu’une analyse d’impact relative à la protection
des données est requise.
Source : Résultats de l’analyse des données provenant de la plateforme Turn, 2016
30. 28
MÉDIAS VS. CRM :
QUI PILOTE LA DMP ?
Comme Gwenn Berhault (Ubisoft) le rappelle,
« on tend généralement à opérer une
distinction assez nette entre DMP CRM
et DMP Média. Pourtant, il semble que le
grand enjeu consiste justement à fondre
ces deux environnements, sinon les
organisations verront les silos perdurer…
Pour l’heure, le média semble dans le
flou ; il a besoin de la connaissance client
pour pouvoir déclencher des campagnes
véritablement optimisées. »
Eymeric Chateau (Turn) consent qu’il existe
en effet « des DMP qui ont un ADN média,
et d’autres qui ont un ADN plutôt CRM.
S’ajoute à cette distinction la complexité
liée à la question de la privacy. Mais
évidemment, le grand enjeu qui doit nous
animer, c’est que demain la DMP soit aussi
performante côté CRM que côté média. »
Ce qui amène à la question centrale, posée
par Kamal Mouchine (Turn), « qui pilote la
DMP ? Ce ne doit pas être une équipe
CRM ni une équipe média, mais une équipe
véritablement unifiée. »
Eymeric Chateau conclut alors : « au plan
organisationnel, l’objectif doit être de briser
les silos et de limiter les outils technologiques.
Pendant la phase d’exécution de la DMP, le
piège serait de recréer des silos… aussitôt,
tout l’avantage de la DMP serait réduit à
néant. »
BÉNÉFICES ET LIMITES
DE LA DMP
KamalMouhcine(Turn)poursuitlaconclusion
en ces termes.
« Même si nous n’en sommes encore
qu’aux balbutiements sur la DMP, les princi-
paux bénéfices sont les suivants :
• Segmenter
• Avoir une vision unifiée du customer
journey
• Casser les silos
• Améliorer la connaissance client
• Créer des sous-segments à transmettre
à l’agence créative (laquelle doit être
data approach)
• Réagir rapidement
• Faire travailler des équipes qui n’auraient
a priori jamais évolué ensemble
Dans ce contexte, demeurent quelques
limites :
• Risques de tiraillements au sein des
équipes
• L’implémentation représente un processus
long et complexe qui nécessite des
ingénieurs pour bien saisir l’ensemble
des enjeux
• Intégrer une technologie nouvelle à
l’existant est un véritable challenge
technologique et humain (d’autant que,
au sein de l’entreprise, certains métiers
peuvent être mis en péril) »
Au même titre que le design et le synopsis, font partie des
priorités d’une publicité digitale4
:
La pertinence, pour 67%des collaborateurs en agence
Le lieu, pour 60% La temporalité, pour 59%
4. Étude Morar Consulting pour Turn, mai 2016
31. 29
Eymeric Chateau
Turn
Créativité et programmatique devraient être en symbiose. La programmatique peut
en effet donner aux créatifs les données dont ils ont besoin pour créer des publicités
efficaces et ciblées. Malheureusement, aujourd’hui, les équipes programmatiques et
créatives ne travaillent pas suffisamment ensemble. Dans le monde de l’entreprise, la
tendance est en effet de fonctionner en silos.
Les responsables créatifs pensent souvent que leur travail repose sur l’inspiration et
consiste à créer quelque chose de convaincant et d’émotif. Les données pourraient
pourtant renforcer cette créativité, tout en rendant leur approche moins intrusive. Au
cours des dernières années, de plus en plus d’internautes ont adopté les dispositifs
adblockers, jugeant les messages inadaptés ou trop peu créatifs. Aujourd’hui, il est
nécessaire de parvenir à déclencher une véritable conversation avec les consommateurs,
pour éviter que le message ne soit noyé parmi des centaines d’autres…
En parallèle, la notion de big data ouvre la voie à la collecte d’un nombre toujours
plus important de données, dont le principal enjeu consiste à unifier ces sources
d’informations afin de les mettre au service de l’amélioration de la connaissance client.
Les meilleures campagnes créatives ont souvent comme point de départ une analyse de
ces données. Pour optimiser l’impact de leurs campagnes, les marques doivent veiller
à ce que les équipes créatives d'une part, et les équipes de planification et d'exécution
de plan média d’autre part, travaillent ensemble et aient accès aux mêmes données et
informations.
AVIS D'EXPERT
35%des créatifs britanniques indiquent
que les marques ont du mal à partager leurs
données avec eux3
3. Étude Morar Consulting pour Turn, mai 2016
32.
33. 31
CONCLUSION
Les consommateurs ont adopté toute une série de tactiques pour contourner
les messages publicitaires, quel que soit le format : généralisation des
adblockers, fermeture immédiate des messages vidéos détection des
informercials… Les marques doivent donc développer des stratégies de
content marketing à valeur ajoutée, dont la promesse produit authentiquement
du sens pour le visiteur. Cette stratégie d’animation doit être à la fois créative
et omnicanale, avec une cohérence entre le message et la recherche du client,
ses besoins, son profil familial, sa localisation géographique ou sa CSP…
La DMP promet précisément de maximiser la connaissance de chaque client
et prospect pour produire une interaction hyper-individualisée. Mais comme
tout projet data de grande ampleur, la mise en place d’une DMP, avertit Kamal
Mouhcine (Turn), doit « être portée par des équipes communes, l’idée étant de
chercher toujours à fluidifier le partage. Il ne faut pas chercher à démontrer trop
de choses à la fois. La bonne pratique consiste à définir en amont un objectif
avec un impact clair et rapidement quantifiable. Sinon, on risque de bâtir des
usines à gaz dans lesquelles prennent part bien trop d’intervenants. »
34. « Mettre la technologie
au service du business »
TF1
NICOLAS CAPURON
Directeur Transformation Digitale,
Data Marketing Digital
TF1 a fait le choix de la DMP
et de l’approche Data Lake. En 2017,
le déploiement de l’infrastructure
big data s’accélère.
Entretien POURQUOI AVOIR FAIT LE CHOIX
DE LA DMP ?
La DMP a été déployée chez TF1
dès 2016, sur l’ensemble de nos
services et de nos écrans. Ce choix
s’est inscrit dans le cadre de la mise
en place d’une infrastructure big data,
dans une approche data lake. Avec la
DMP, nous récupérons des données
comportementales que nous associons
depuis avril au SSO de mytf1, donc à
une donnée non plus anonymisée mais
associée à un nom, prénom et à un
e-mail.
QU’ALLEZ-VOUS FAIRE DE CETTE
DATA AINSI COLLECTÉE ?
Le bénéfice sera double : des
performances publicitaires optimisées,
bien évidemment, mais également, sur
notre activité d’éditeur, une meilleure
compréhension des usages et des
attentes qui va nous permettre de faire
de la recommandation personnalisée.
L’objectif final, c’est une augmentation
de l’audience et de la satisfaction client
grâce à une expérience optimisée.
32
35. QUELS SONT VOS PROCHAINS
DÉFIS ?
Nous connaissions déjà particulièrement
bien nos utilisateurs, l’authentification
va nous permettre d’aller encore
plus loin. Le niveau de finesse dans
la compréhension de notre audience
va nous permettre d’individualiser
l’expérience consommateur et de
développer des dispositifs innovants
pour nos partenaires annonceurs. Un
chantier important est également le
déploiement de notre infrastructure big
data qui va occasionner un changement
des métiers et des savoir faire, au-delà
du digital. Car notre approche data lake
implique de centraliser la donnée de
l’ensemble des métiers du groupe, le
digital, l’entertainment, la musique, les
spectacles mais aussi la télévision.
Pour ce faire, nous sommes entourés
de data scientists et d’architectes
techniques avec des compétences
pointues.
ALLEZ-VOUS AUSSI TRAVAILLER
SUR LE CONTENU DES MESSAGES ?
Notre principale préoccupation est
la compréhension des besoins des
annonceurs et notre capacité à répondre
à leurs demandes. Aujourd’hui, les
messages vidéo sont ciblés sur des
critères Socio-Demo ; la DMP et
notre data lake vont permettre de le
faire de manière encore plus efficace.
L’objectif à terme sera en effet d’adapter
également les créations et les messages
publicitaires au regard de notre
segmentation extrêmement fine.
À QUELLE ÉCHÉANCE ?
Nous le faisons d’ores et déjà et allons
amplifier le mouvement d’ici la fin de
l’année 2017.
AVEZ-VOUS DES DIFFICULTÉS À
TROUVER DES PROFILS SUR LES
COMPÉTENCES BIG DATA ?
Un peu moins qu’avant. On trouve
de plus en plus de compétences
techniques, les formations big data sont
aujourd’hui bien mieux adaptées qu’il y a
2 ou 3 ans. La difficulté, c’est de trouver
des personnes avec la double sensibilité
technique et business. Car l’enjeu majeur
de transformation des métiers, c’est la
mise à disposition de la technologie au
service du business.
33
36. 34
Data lake,
l’outil indispensable
de la vision client 360°?
Prérequis au déploiement de nouvelles stratégies de conquête
et de fidélisation, la vision client 360° suppose de disposer de toutes
les données relatives aux consommateurs, quelles qu’en soient
la provenance et la fraîcheur.
Mais pour agréger cette masse considérable de données
souvent fortement hétérogènes, les traditionnels data marts
et data warehouses suffisent-ils encore ?
39. 37 37
• IBM, Jacques Milman, Executive Architect IBM Analytics
• IBM, Laurent Sergueenkoff, IBM Analytics Platform - Sales Manager
ANIMATEURS
PROGRAMME
Le data lake constitue un gisement de données brutes qui seront
ensuite retravaillées par les data scientists et exploitées en fonction des
différents besoins. La mise en œuvre initiale d’une vision client 360°
est sans doute envisageable sans data lake, mais ce dernier semble
s’imposer dès que les quantités de données manipulées augmentent.
• État des lieux : quelle est la valeur ajoutée à ce jour du data lake dans
la mise en place d’une vision client 360°?
• Quelles stratégies internes mettre en place pour s’assurer que le
data lake est bien alimenté par toutes les entités ?
• Le data lake est-il un composant inévitable ou existe-t-il des
alternatives ?
PARTICIPANTS
• GROUPE CHANTELLE
Amélie Le Deist, Responsable CRM
Data Management
• LA MUTUELLE GÉNÉRALE
Yann-Erlé Le Roux, Dataminer
• SAINT-GOBAIN
Deniz Loué, Responsable Projets et
Veille Marketing Stratégique
• YVES ROCHER LABORATOIRES
David Ramond, Head of Data
Business Analyst / IT
• BOURSORAMA
Aurélie Rossignol,
Responsable Datamining
• COYOTE
Florian Servaux, Chef de Produit
Services Smart Data
• FRANCE TÉLÉVISIONS
Valentin Vivier, Chef de Projets Data
• UBISOFT
Jérôme Durand,
Directeur, Data Science
• UBISOFT
Vincent Nicolas, Data Scientist
• ORANGE GROUPE
Anne-Sophie Gimenez,
Head of learning agency
• ORANGE
Éric Moison, Information based
strategy Program Manager
• CANAL + DISTRIBUTION
Fatma Kourar,
Responsable MOA Data
• BOUYGUES TÉLÉCOM
César Lagarde, Responsable
Pilotage Planification CRM
• FIFTY-FIVE
Pierre Harand,
Directeur Général, France
• FIFTY-FIVE
Jean-Hubert Cornet,
Head of Automotive Practice
40. 38
DENIZ LOUÉ
SAINT-GOBAIN
Au sein de l'équipe marketing, je suis
responsable des projets liés à la donnée.
Nous venons de lancer un projet relatif aux
données clients, et sommes surtout dans
une phase exploratoire.
AMÉLIE LE DEIST
GROUPE CHANTELLE
Je suis responsable CRM et data
management pour les marques Orcanta
et Passionata. Nous sommes aux
prémices d'un projet data lake. Nous
nous interrogeons encore sur ce que ce
dispositif pourrait réellement nous apporter.
DAVID RAMOND
YVES ROCHER LABORATOIRES
Nous sortons tout juste d'un prototype big
data mené autour de la vision de la cliente.
Cela a permis aux Métiers de concrétiser
les apports de ces nouvelles technologies
et tester la possibilité de nouveaux usages
autour de la data. Cela a été également
une étape indispensable pour faire
émerger un consensus parmi les différents
sponsors et préparer le lancement d’un
projet de nouvelle plateforme data orientée
omnicanale.
FLORIAN SERVAUX
COYOTE
Je suis responsable de l'équipe Smart
Data. Nous travaillons actuellement sur
la mise en place d'un data lake, avec
une double ambition : tendre vers cette
fameuse vision 360 de nos clients, et
faciliter le traitement et l'analyse de notre
historique de données volumineux.
YANN-ERLÉ LE ROUX
LA MUTUELLE GÉNÉRALE
Le terme data lake me semble
relativement récent, par rapport au data
warehouse ou au data mart. Dans ce
contexte, l'idée est d'identifier clairement
les spécificités du data lake en vue d'une
bonne exploitation.
VALENTIN VIVIER
FRANCE TÉLÉVISIONS
France Télévisions a mis en place une
cellule data depuis 2015. Celle-ci répond
aux besoins des métiers sous le prisme
de la data et du client et déploie les outils
nécessaires pour y arriver. Forts d’une DMP
et d’un data warehouse interconnectés à
notre écosystème d’outils, un projet data
lake est en cours. Celui-ci devrait nous
permettre notamment d’historiser la data et
d’avoir un grand niveau de granularité pour
croiser nos données. Nous souhaitons
donc recenser les meilleures pratiques,
identifier les écueils et affiner notre
compréhension des cas d’usage.
AURÉLIE ROSSIGNOL
BOURSORAMA
Un projet data lake mené par l'équipe
BI est actuellement en cours chez
Boursorama. Nous avons mis en place
différents PoCs avec l'ambition de repérer
les principaux écueils.
LE DATA LAKE VU PAR
LES PARTICIPANTS
41. 39
ÉRIC MOISON
ORANGE
Je suis justement en charge de cette
vue à 360 du client pour le groupe, sur
les aspects métiers/business. Nous
définissons les orientations pour les pays,
avec les équipes ITN. Ce sur différents
aspects, dont les technologies comme le
data lake, qui contribuent à la vue 360° du
client. Il sera donc nécessaire d'en avoir
une parfaite maîtrise.
ANNE-SOPHIE GIMENEZ
ORANGE GROUPE
Mon client, c'est plutôt le salarié Orange.
Je suis à la tête de l'entité Learning
agency qui, pour le compte du client
interne, développe des projets de digital
learning. Dans ce cadre, il nous faut
structurer la donnée des employés,
avec de nombreuses problématiques de
sécurité. La RH accuse un certain retard
par rapport aux équipes marketing sur ce
sujet.
VINCENT NICOLAS
UBISOFT
Avant de rejoindre Ubisoft récemment,
j'étais data engineer chez Mille Mercis,
en charge notamment de la co-création
du data lake. Ubisoft ayant un projet de
data lake, ma mission est, entre autres, de
conduire les équipes dédiées.
JÉRÔME DURAND
UBISOFT
L'idée est de savoir dans quelle mesure le
data lake que l'on souhaite créer permettra
bel et bien d'ouvrir la donnée à tous les
départements... Le risque est que les silos
perdurent.
CÉSAR LAGARDE
BOUYGUES TELECOM
Notre objectif est d'acquérir une meilleure
vision à 360 degrés de nos clients, ainsi
qu'une meilleure perception de leur
ressenti, que ce soit en boutique, sur
le Web ou en mobilité... Nous avons
beaucoup de données, mais notre
organisation silotée nous empêche de les
exploiter de manière satisfaisante. L'enjeu
est justement de briser ces silos pour que
chacun puisse véritablement s'approprier
la donnée.
Au regard de la complexité de la structure
IT actuelle, le data lake est-il réellement
la solution ultime ? Aura-t-il une valeur
ajoutée, alors même que nous faisons par
exemple du trigger web avec notre data
warehouse actuel, que nous faisons des
emails de processus sur du comportement
sans data lake.
FATMA KOURAR
CANAL + DISTRIBUTION
Après un audit de quelques mois,
Canal+ s’est lancé en septembre dans
un grand plan de transformation data :
20 chantiers opérationnels et techniques
et une organisation data-driven, avec
la structuration d’un pôle dédié à la data
au sein du Marketing. Côté Canal+, nous
avons une bonne et longue culture de la
data avec un data warehouse riche et en
accès direct à différents métiers (analystes)
et une maitrise d’ouvrage décisionnelle
pour accompagner son évolution et
les utilisateurs métier. La mise en place
d’un data lake m’est présentée comme
complémentaire à notre data warehouse.
J’admets ne pas être au clair sur ce qui
les différencie : Quelle donnée est stockée
où ? Quel(le) retraitement/intelligence où ?
Temps réel ? Quel positionnement du data
lake dans l'architecture globale ?
42. Jacques MILMAN
IBM France
Le concept de data lake est généralement associé aux big data. Il permet d’analyser un
grand volume d’informations issues de sources multiples et hétérogènes, internes, externes,
structurées, non-structurées…
Pour beaucoup d’entreprises, le data lake est une évolution de l’entrepôt de données
traditionnel. Le big data et le machine learning poussent à organiser les données et les
traitements différemment. C’est là une évolution importante. À l’ère du big data, on ne connaît
pas toujours par avance la valeur et l’intérêt de toutes les données que l’on capture et l’usage
que l’on pourrait en faire dans le futur.
Le concept de data lake offre la possibilité de créer des plateformes d’innovation puissantes
et souples permettant très rapidement d’intégrer et d’analyser des données.
Ingérer des données à l’état le plus brut change la nature de la chaîne de traitement qui
prévalait jusqu’alors. D’une logique d’ETL (Extract, Transform, Load), on passe à un mode
'ELT', où l’on extrait les données, on les charge et on les transforme seulement après.
Enfin, dernier argument de poids, le coût d’une telle solution est inférieure à celle d’un data
warehouse dans un facteur d’un à dix, même si l’intégration des applications existantes peut
révéler d’importants coûts cachés.
Pour les aider à mettre en œuvre un data lake, les entreprises peuvent s’appuyer sur
des approches progressives et des méthodes agiles permettant de limiter les risques et
d’apporter au plus vite de la valeur aux métiers tout en aidant les équipes informatiques à
prendre en main ces technologies innovantes.
AVIS D'EXPERT
A DATA LAKE IS . . .
AN ENVIRONMENT WHERE USERS CAN ACCESS
VAST AMOUNTS OF RAW DATA
AN ENVIRONMENT FOR DEVELOPING AND PROVING AN
ANALYTICS MODEL, AND THEN MOVING IT INTO PRODUCTION
AN ANALYTICS SANDBOX FOR EXPLORING DATA
TO GAIN INSIGHT
AN ENTERPRISE-WIDE CATALOG THAT HELPS USERS FIND DATA
AND LINK BUSINESS TERMS WITH TECHNICAL METADATA
AN ENVIRONMENT FOR ENABLING REUSE OF DATA
TRANSFORMATIONS AND QUERIES
A DATA LAKE IS NOT . . .
A DATA WAREHOUSE OR DATA MART FOR HOUSING ALL OF THE
DATA IN AN ENTERPRISE
A REPLACEMENT OPERATIONAL DATA STORE (ODS)
A HIGH-PERFORMANCE PRODUCTION ENVIRONMENT
A PRODUCTION REPORTING APPLICATION
A PURPOSE-BUILT SYSTEM TO SOLVE A SPECIFIC PROBLEM
(THOUGH A PURPOSE-BUILT DATA MART COULD BE FED FROM
A DATA LAKE)
43. 41
LE DATA LAKE ET LE DÉFI
DU TEMPS RÉEL
Un avantage fréquemment associé au
data lake est celui du temps réel. Mais
comme l’observe Fatma Kourar (Canal +
Distribution), s’il ne s’agit que de stocker
en temps réel des données brutes
inexploitables, cela n’a pas d’intérêt.
« Le data lake m’a été avant tout présenté
en mettant en avant la possibilité d’un
stockage temps réel, quitte à se passer
d’une partie de l’intelligence apportée
par les retraitements/enrichissements. Cela
pose un problème, car la stratégie
déployée autour du client ne peut se faire
uniquement avec des données brutes à
mon sens à l’heure de la personnalisation…
Le temps réel ne se suffit pas. Et apporter
de l’intelligence à la donnée coûte en
temps de calcul. »
Il est donc important de prendre conscience
que « faire un data lake n'est pas une fin
en soi : le projet est lancé pour servir
certains usages bien identifiés. Vouloir
tout collecter, tout réconcilier pour prévoir
tous les usages, ce n’est pas réalisable.
Au contraire, le cas d’usage doit toujours
être un point de départ à partir duquel il
convient de construire l’ensemble de la
chaîne » (Pierre Harand, fifty-five).
Car Jacques Milman d’IBM le rappelle,
« il est difficile de fournir une définition
précise du data lake. C'est avant tout une
plateforme qui va permettre d'intégrer
Par Jacques Milman et Laurent
Sergueenkoff, IBM
« Il y a un peu plus d’un an,
nous avions déjà organisé un
atelier autour du sujet data
lake. Sur une vingtaine de
participants présents, seuls
deux ou trois avaient lancé
des projets data lake, mais
les autres participants avaient
envie de faire de même.
L’idée, pour la majorité, était
de construire un data lake
rassemblant l’ensemble des
données de l’entreprise… Or,
depuis, il est apparu que ceux
qui menaient une telle initiative
avaient bien des difficultés à
progresser. Ils se heurtent à
des problématiques liées à la
sécurisation, à la gouvernance,
à la confidentialité des
données… Autant de freins
à l’agilité.
En revanche, ceux qui avaient
mis en place un data lake plus
thématique (IoT ou CRM, par
exemple) avancent bien plus
rapidement. Les premiers
succès qu’ils rencontrent sur
des thèmes bien précis
permettent de déclencher un
effet boule de neige et le
data lake s’ouvre progressive-
ment à d’autres sujets. Ce qui
a été mis en place pour le sujet
de l’IoT donne envie aux autres
entités d’utiliser le data lake
pour leurs cas d’usage… »
44. l'ensemble des données et de les partager.
Ensuite, des services peuvent s'intégrer
à cette plateforme : machine learning,
indexation, search, découverte... »
DATA LAKE OU DATA
WAREHOUSE ?
Lorsque le terme data lake a émergé, il
était fréquemment confondu avec celui de
data warehouse. Il semble s’en être suivi
un second temps, qui voit les deux modèles
s’opposer, comme s’ils étaient concurrents.
Laurent Sergueenkoff clarifie la distinction.
« Dans un data warehouse traditionnel, il y
aura plutôt des données structurées, alors
qu'un data lake peut accueillir tous types
de données. Autre bénéfice du data lake :
les technologies actuelles permettent de
stocker dans un format brut d'immenses
volumes de données. Les capacités
de traitement peuvent directement être
implantées sur le data lake, avec des
technologies Hadoop. »
Il n’empêche que les deux modèles peuvent
parfaitement co-exister. C’est par exemple
le cas chez Yves Rocher Laboratoires, où
David Ramond témoigne qu’en « en termes
d’architecture cible, l'idée consisterait plutôt
à mettre en œuvre une architecture hybride :
• D’une part, un data lake à même
de stocker de grands volumes de
données à un coût raisonnable, avec
peu ou pas de transformation de la
donnée brute, nous permettant d’être
le plus agnostique vis-à-vis des futurs
modèles de données de l’entreprise ;
• D’autre part, un data warehouse qui
gère une couche sémantique et qui
permet d’exposer les données métier
structurées, contrôlées et avec un
niveau de service élevé. »
Yves Rocher Laboratoires ne s’arrête pas
là. David Ramond confie ainsi qu’ « il est
également envisagé de mettre en œuvre
des data hubs dédiés à des usages
spécifiques. Par exemple, il peut s’agir
d’utiliser la puissance de calcul du data
lake pour consolider à la volée une vision
360 du client à partir des éléments de
signalétiques, de comportements d’achats,
de contacts CRM, etc. et d’exposer cette
vue via une API à des fins opérationnelles. »
UN DATA LAKE, OUI MAIS
POUR QUOI ?
Vincent Nicolas (Ubisoft) en convient
également, le data lake n’est « certainement
pas un substitut au data warehouse.
Les deux éléments sont totalement
complémentaires. Le data lake offre
la possibilité de jouer et de faire des
scorings avec des données très variées
(ce que l’on ne peut pas faire dans un
data warehouse) et avec une puissance
incroyable. » Ce qui ramène à la conclusion
qu’ « avoir un data lake n’est pas une fin
L'APPROCHE DATA LAKE : EXEMPLE DE GOUVERNANCE
Data
Data is used
and reused
Relevant data is
collaboratively
governed
Data is cataloged,
tagged and
registered
42
45. 43
plug and play » (Pierre Harand, fifty-five).
Tout d’abord, « il faut considérer l’outil
dans son environnement technique :
quels sont les flux de données entrants et
sortants ? » Deuxièmement, « la question
organisationnelle est également majeure,
avec la mise en place d’une gouvernance. »
Le troisième point à poursuivre, et c’est
l’objectif final, c’est de demander du data
lake qu’il serve à « mettre la data dans les
mains des opérationnels » (Anne-Sophie
Gimenez). « Par exemple, un commercial
doit pouvoir accéder en un clic à une vue à
360 degrés du client qu’il a en face de lui. Le
point fort de ce dispositif, c’est la réactivité.
L’idée serait de crawler les données, où
qu’elles soient, sans pour autant se poser
la question du format utilisé. »
En corollaire, cela pourrait avoir pour effet
de favoriser le développement d’une data
science au service des métiers. Florian
Servaux (Coyote) observe ainsi que
« la problématique se situe plutôt sur les
performances à traiter la données brute et
la capacité à comprendre la donnée d'un
point de vue métier. (…) Selon moi, le data
scientist doit avant tout pouvoir partir de la
vision métier de la donnée. »
Dans cette perspective, Florian Servaux
préconiserait plutôt, « pour les entreprises
disposant par exemple d’une équipe BI
(…), de partir de structures BI traduisant les
données brutes en données Métier. »
en soi » (Jérôme Durand, Ubisoft). Car « la
data science va directement chercher les
données dans le data lake quand elle a
une idée précise de ce qu’elle cherche, où
le trouver et comment l’interpréter. Sinon,
mieux vaut passer par l’IT ou le créateur
de la donnée pour générer des tables
d’analyse dans un data warehouse. (…)
Le débat intéressant porte surtout sur ce
que l'on fait de la donnée, quelle que soit la
techno placée derrière. »
Quels sont justement ces usages de la
donnée qui pourraient justifier d’un recours
à ce nouvel outil surpuissant ? « Pour nous,
confie César Lagarde (Bouygues Telecom),
dans l’objectif de créer des campagnes
CRM, le data lake vise surtout à garantir
la transparence sur une information pour
toutes les parties prenantes. Il y a donc une
différence entre l'étude de la connaissance
client et l'interopérabilité directe de la
donnée. »
« Au final le data lake peut être intéressant
au plan de la vision client », reconnaît César
Lagarde.
UNE TRANSFORMATION
EN 3 ÉTAPES
Le pré-requis absolu, lorsque l’on veut
s’équiper d’un data lake, c’est donc de
réfléchir d’abord à l’usage. Et quel qu’il
soit, plusieurs éléments connexes sont
également à prendre en compte dans le
déploiement de cet outil qui est « tout sauf
80%des Décideurs marketing
Se disent satisfaits des solutions de collecte de données en temps
réel qu’ils utilisent3
3. Information recueillie auprès de 40 décideurs marketing en France et au Royaume-Uni dans le cadre de l’étude
Benchmark by EBG 2017
Et 84 %des DSI pensent que leur entreprise est capable
d'analyser les données en temps réel4
46. 44
Régis Carral
Cabinet Hoche
L’ŒIL DE L’AVOCAT
« Assurer un traitement de données personnelles
loyal et transparent »
« L’intérêt du data lake est de pouvoir stocker de grands volumes de données brutes non
structurées, tout en ne sachant pas à l’avance la façon dont celles-ci vont être analysées
et exploitées. Au regard des données à caractère personnel, la personne concernée
doit savoir quelle utilisation est faite des données personnelles la concernant et pouvoir
maîtriser cette exploitation. Le cadre juridique vient ainsi freiner cette collecte de masse
qu’offre par exemple le recours à un data lake de telle sorte que lorsqu’il s’agit de données
personnelles, la collecte ne peut pas être quantitative mais doit être qualitative.
À cet égard, le Règlement UE n°2016/679 du 27 avril 2016 relatif à la protection des
données personnelles vient notamment renforcer les obligations d’information du
responsable de traitement. Ce dernier doit assurer un traitement de données personnelles
loyal et transparent. En vertu de ce principe de transparence, les personnes concernées
doivent avoir connaissance des finalités spécifiques, explicites et déterminées et ce, au
moment de la collecte de leurs données personnelles. De plus, lorsque le responsable de
traitement a l’intention d’effectuer un traitement ultérieur des données personnelles pour
une finalité autre que celle pour laquelle les données ont été collectées, il doit fournir au
préalable des informations sur cette autre finalité.
Enfin, le Règlement pose également un principe de minimisation des données, selon lequel
les données personnelles collectées doivent être adéquates, pertinentes et limitées à ce qui
est nécessaire au regard des finalités pour lesquelles elles sont traitées. »
4. Étude 2015 Real-time Data Report menée auprès de 150 DSI, responsables informatiques et développeurs, in ZDnet.fr,
« Les données en temps réel, de la réalité à la perception », mars 2016
Mais 66 %des DSI, responsables informatiques et
développeurs pensent que, dans plus de la moitié des cas, les
applications en temps réel ne répondent pas aux besoins de
l'entreprise4
47. 45
CONCLUSION
Le recours au data lake revêt souvent un caractère exploratoire, mais aussi,
nécessairement transformateur… Ce qui fait que, « par rapport aux coûts et
à l’engagement que cela implique, par rapport aux lourds enjeux de
gouvernance », beaucoup d’annonceurs hésitent encore à se lancer plus avant.
Mais comme Laurent Sergueenkoff (IBM) le rappelle, « il ne faut pas opposer
data lake et data warehouse, les usages étant totalement complémentaires.
L'un ne peut remplacer l'autre. Si c'est pour placer un usage existant du data
warehouse dans un data lake, le ROI n'est en effet pas évident... En revanche,
le ROI du data lake se situe incontestablement sur des usages nouveaux, sur
des données nouvelles. »
Source tableau et figure : IBM Analytics, « The governed data lake approach », Copyright IBM Corporation 2016
48. « Réduire le stress de nos
clients »
AIR FRANCE
GAUTHIER LE MASNE DE CHERMONT
Chief Customer Data Officer
Si Air France a développé son data
lake customer 360, c’est que le
partage des données tout au long
du parcours client est une priorité.
Gauthier le Masne de Chermont
revient sur les initiatives de ses
équipes en la matière.
Entretien
TOUTES VOS SOURCES DE
DONNÉES VIENNENT ALIMENTER
UNE BASE COMMUNE, ET
INVERSEMENT. AVEC QUELLE
ORGANISATION ?
Nous avons mis en place une
organisation dédiée au Customer
Data Management il y a deux ans,
avec une double mission. La première
était de relever le défi technique de
créer une plateforme Big Data en vue
d’optimiser l’utilisation de la donnée
sur l’ensemble des métiers du groupe,
pour la connaissance et le service
au client. La seconde mission portait
sur le management de la donnée, en
améliorer la qualité et s’assurer que la
réglementation sur la protection des
donné est respectée.
Nous aidons à ce que tous les métiers
puissent avancer de façon coordonnée.
C’est indispensable si l’on veut proposer
au client une expérience personnalisée
sur les différents canaux et avec une
réelle cohérence d’informations.
VERS QUELS CAS D’USAGE
SE PORTE VOTRE DATA LAKE
CUSTOMER 360 ?
Nous faisons un peu de mesure de
performance, tout comme le réalise
par ailleurs chaque métier. Mais les
principaux cas d’usage consistent à
proposer la bonne offre sur le bon canal
au bon moment. Je vous donne un
exemple. Dès lors que nous savons d’un
client qu’il aura une appétence pour
voyager avec un bagage supplémentaire,
nous sommes en capacité de le lui
proposer au moment que nous jugeons
le plus opportun : lors d’une promotion,
d’un document de préparation au vol, de
l’enregistrement, etc. Plus généralement
nous sommes en mesure de suivre et
d’anticiper des préférences : si le client
voyage toujours côté hublot, on peut
choisir ce siège pour lui sans avoir à lui
poser de questions.
46
49. COMMENT MESURER LA
PERFORMANCE DE CETTE
PERSONNALISATION ?
Sur la satisfaction, d’une part, même si
cet élément est aujourd’hui devenu un
facteur attendu plutôt que différentiant.
Par ailleurs, nous personnalisons de plus
en plus nos communications avec de
l’A/B testing. Une communication qui
met en avant des destinations dont on
a calculé qu’elles sont plus susceptibles
d’intéresser apporte une différence
significative en termes de performance.
QUELLES PROCHAINES ÉTAPES
VOUS FIXEZ-VOUS ?
Le prochain objectif important, c’est
d’avoir l’ensemble des points de
contact bien coordonnés et à même
de communiquer entre eux de façon
fluide. Cela permettra, par exemple, de
pouvoir tenir au courant les hôtesses
et stewards d’un appel qui aurait été
passé par un client avant le vol vers un
call center. Nous avons également pour
objectif d’automatiser le traitement d’un
certain nombre d’aléas. Nous voulons
nous focaliser sur la réduction du stress
de nos clients : les informer le plus
rapidement possible, communiquer de
façon toujours plus fluide et régler les
problèmes avant même que les clients
n’aient pu se faire le moindre souci.
VOUS ÊTES-VOUS ÉQUIPÉS
D’UN BOT ?
Il a été initié par les équipes digitales
et sera lancé en juin. Nous venons en
support pour être sûrs que l‘initiative
bénéficie au maximum de la compétence
client que nous avons collectée.
QUELLE GOUVERNANCE AVEZ-VOUS
MISE EN PLACE POUR JOUER CE
RÔLE DE SOUTIEN ?
Chaque personne du Customer Data
Management est à la fois responsable
de développements en propre mais
aussi de l’interface avec les différents
métiers, avec pour objectif de récolter
leurs besoins autour de l’utilisation de la
donnée et de partager les initiatives au
sein de l’entreprise.
COMMENT GÉREZ-VOUS LES
ÉVOLUTIONS RÉGLEMENTAIRES
LIÉES AUX DONNÉES
PERSONNELLES ?
Les données que nous utilisons étaient
déjà en base ; notre valeur additionnelle
est de les réunir et d’injecter de
l’algorithmie. Cela dit, nos use cases
sont conçus au service des clients,
et pour ce faire, en coopération avec
les équipes techniques, les équipes
opérationnelles et les clients. Finalement,
cette réglementation a un effet plutôt
bénéfique. Elle apporte de la clarté sur
ce que l’on veut faire de la donnée.
C’est le positionnement que nous avions
de toute façon adopté vis-à-vis de nos
clients.
47
50. 48
Associer big data
et programmatique pour des
campagnes plus performantes
Le programmatique permet d’automatiser les prises de décision
et de gagner un temps considérable dans l’exécution des campagnes.
Mais pour adresser des messages personnalisés et contextualisés,
il devient indispensable d’y adjoindre les ressources du big data,
tant la quantité de data à prendre en compte a récemment explosé.
Comment combiner les ressources du programmatique et du big data ?
53. 51 51
PARTICIPANTS
• TURN, Kamal Mouhcine, Sales Director South Europe
• FIFTY-FIVE, Samboy Camara, Practice Leader : Tech, Insurance Utilities
• FIFTY-FIVE, Salem Handoura, Consulting Manager
ANIMATEURS
PROGRAMME
Le programmatique permet certes de gagner du temps. Mais pour
que chaque campagne porte ses fruits, aller plus vite ne suffit pas :
il faut aussi cibler avec un maximum de précision, se baser non plus
sur des groupes définis par des caractéristiques globales, mais sur un
croisement de toutes les informations associées à un consommateur
potentiel : profil, historique des relations, localisation, actions
récentes, etc.
C’est tout l’enjeu de l’association du programmatique et du big data.
Mais comment réussir à combiner ainsi agilité et précision dans la
construction de ses campagnes ?
• Faire converger les démarches programmatiques et les projets
big data : quelles équipes, quelle organisation, quel timing ?
• Comment faire dialoguer data scientists et opérationnels marketing ?
• Le data-driven marketing est-il un objectif prioritaire ?
Quelles stratégies pour le mettre en place ?
• ORANGE
Samira Amgroud,
Communication Group Buyer
• EUROP ASSISTANCE
Olivier Baes,
Head of Digital Data Innovation
• AUCHAN
Julien Cafede, Traffic Manager
• UBISOFT
Camille Duval,
Responsable média digital
• ANTALIS
Aïcha Hellal, Marketing E-business
Project Manager
• LA FOURCHETTE
Fiona Ongaro, Responsable
Connaissance Client
• BNP PARIBAS PERSONAL
FINANCE
Djamel Megharbi, Responsable
du Centre de Compétence
54. 52
L’ESSOR DU
PROGRAMMATIQUE
Pour Samboy Camara (fifty-five), « il y a
toujours eu du programmatique dans le
digital. Le levier display, qui était jusque-là
acheté avec des méthodes traditionnelles,
est en train de devenir de plus en plus
automatisé. Sur les marchés les plus
avancés, 80 % des achats digitaux sont
réalisés en programmatique… Qui dit pro-
grammatique dit modes d’achats automati-
sés et données permettant d’acheter
intelligemment les bons profils. C’est là que
se pose la question de la collecte, pour faire
en sorte de disposer d’un réel avantage
concurrentiel.
Pour rappel, on distingue communément
trois types de données :
• Les données first party : certaines
entreprises sont richement dotées,
comme les opérateurs télécoms, alors
que d’autres sont plus data poor, car
elles n’ont pas de points de contact
directs avec leurs clients. Cette donnée
est rare, mais c’est incontestablement
celle qui a le plus de valeur, car elle
permettra de vous positionner avec le
plus de singularité.
• Les données second party : c’est la
data issue de partenaires, comme
des annonceurs qui disposent de jeux
de données (échanges de données ou
échanges financiers).
• Les données third party : elles seront
louées à des spécialistes de l’achat
La personnalisation des
campagnes marketing a
franchi une nouvelle étape
avec l’émergence des
plateformes programmatiques.
Celles-ci augmentent la
réactivité des annonceurs
en automatisant les prises
de décision complexes, un
gain de temps qui autorise
à multiplier les niveaux de
personnalisation, à faire 10,
100 ou 1 000 campagnes au
lieu d’une.
Mais comment réussir à
combiner ainsi agilité et
précision dans la construction
de ses campagnes ?
EN 2016
des annonceurs
et agences
utilisaient le
programmatique
pour leurs achats
display online
des entreprises
avaient déjà
réalisé ou
conduisaient
déjà un projet
big data
67% 59%
55. 53
de données. Ces data très étendues
permettront de rechercher des signaux
complémentaires afin d’enrichir la
connaissance client.
L’univers est totalement fragmenté, avec
une multitude de devices, de systèmes
d’exploitation, etc. Il convient donc de
réconcilier l’utilisateur sous son identité
unique. La maturité montre qu’on se dirige
de plus en plus vers un marketing des
segments, un marketing des audiences.
La DMP a l‘ambition de réunir des données
issues de sources variées pour les mettre
en cohérence. »
RÉUNIR AUTOUR DE
LA TABLE TOUTES LES
PARTIES PRENANTES
Dès lors que l’on veut adjoindre au
marketing programmatique les ressources
du big data, la première difficulté consiste
à faire converger les enjeux. Car, « si vous
faites le compte des acteurs impliqués dans
une campagne , observe Samboy Camara
(fifty-five), on descend très rarement sous
la barre des cinq interlocuteurs ! Or,
aujourd’hui, la notion de temps réel devient
une obligation. Le programmatique a
justement vocation à simplifier la phase de
gestion des campagnes. L’automatisation
permet de gagner du temps pour éviter les
points bloquants. Cela implique toutefois
un réajustement organisationnel pour
passer d’une approche patrimoniale de
la donnée (data = stock) à une vision en
termes de circulation (data = flux).»
Fiona Ongaro (La Fourchette) confie ainsi
avoir « recruté quelqu'un qui fait avant tout
figure d’électron libre, c’est-à-dire qu’il n’est
pas rattaché à un pôle Métier en particulier »
mais reconnaît : « Nous avons encore du
mal à identifier la bonne organisation. »
Pour Kamal Mouhcine (Turn), il est important
de créer ce rôle transverse notamment pour
démontrer la valeur ajoutée des plateformes
data pouvant préfigurer de l'automatisation.
« Pour les organisations qui ont une taille
critique, la DMP présente un réel intérêt.
Encore faut-il parvenir à démontrer cet
intérêt, d’où l’importance du rôle dévolu au
CDO. Lors de la mise en place d’une DMP,
il convient de commencer par démontrer
des choses très simples. »
Ce travail de démonstration est essentiel,
d'autant qu'au final, « comme avec des
tels projets [data], le ROI à court terme est
difficilement lisible, il est bien difficile de
prioriser » (Fiona Ongaro, La Fourchette).
En retour, le big data est une opportunité
d'ancrer dans l'opérationnel un réajustement
organisationnel. Julien Cafede témoigne
ainsi du cas d'Auchan. « Notre DMP nous
permet notamment de créer et utiliser
des segments des données dynamiques
que nous pouvons ensuite plugger à nos
plateformes partenaires. Aujourd’hui,
les entités e-commerce, Drive, Direct,
Proximité, etc. ont été regroupées sous
une nouvelle entité : Auchan Retail ; il
s’agit désormais de les faire communiquer
plus étroitement et le big data semble être
une bonne clé d’entrée. »
« L’automatisation permet de gagner du temps pour éviter les
points bloquants. »
Samboy Camara, fifty-five
56. 54
Eymeric Chateau
TURN
La personnalisation des campagnes marketing a franchi une nouvelle étape avec
l’émergence des plateformes programmatiques. Ces plateformes augmentent en effet la
réactivité des annonceurs en automatisant les prises de décision complexes, un gain de
temps qui permet de multiplier les niveaux de personnalisation.
La personnalisation des campagnes n’est cependant pas le seul facteur pour qu’elles
portent leurs fruits. Il faut également cibler l’audience avec un maximum de précision.
C’est tout l’enjeu de l’association du programmatique et du big data : réussir à combiner
agilité et précision dans la construction des campagnes.
L’enjeu consiste à avoir une approche unifiée, depuis la collecte jusqu’à l’exécution.
Il faut veiller à ne pas multiplier les outils technologiques, car ce serait prendre
le risque de s’exposer à un problème de communication entre tous ces outils,
ce qui provoquerait des déperditions.
AVIS D'EXPERT
AVOIR UNE APPROCHE
UNIFIÉE
La réconciliation de données hétéroclites
constitue sans conteste une priorité majeure
pour tout annonceur souhaitant renforcer
la personnalisation de ses campagnes.
Chez La Fourchette, qui propose déjà la
personnalisation dans les e-mails, l'ambition
est bien « de disposer d'une meilleure vue
à 360 degrés du client, en nous appuyant
sur nos propres données. » Comme bien
d'autres, « La Fourchette n'a pas forcément
vocation à aller vers des partenaires pour
les jeux de données. »
Et bien que l'on entende nombre d'annon-
ceurs s'avouer dépassés par les quantités
colossales de données collectées, certains
rencontrent dans les faits des problèmes
de volumétrie sur leurs data 1st
party.
C'est par exemple le cas chez Auchan.
Julien Cafede s'en explique. « Malgré un
volume important de data, nous sommes
confrontés à une problématique liée au
57. 55
volume de contacts adressables. Le
premier frein est le taux de matching qui
varie énormément entre nos partenaires.
À titre d’exemple, Facebook retrouve
entre 40 et 60 % des adresses que nous
lui communiquons et parvient à toucher
la moitié de ces utilisateurs. Pour Google,
le taux et entre 20 et 40 % et la portée
s’avère désastreuse. Un acteur comme
Criteo nous offre la possibilité d’avoir un
taux de matching très intéressant, mais,
contrairement à Facebook ou Google, il ne
dispose pas de réseau en propre et donc
de nouvelles problématiques se créent.
Conséquencedirectedelafaiblevolumétrie:
dès que l’on souhaite toucher nos affini-
taires, nous avons du mal à générer un
volume conséquent de CA. L’une des
solutions : se tourner vers des scénarii de
look alike, et le seul acteur performant et
pertinent dans ce domaine aujourd’hui,
c’est Facebook… »
Kamal Mouhcine (Turn) préconise donc
« un gros travail en amont en termes de
structuration de la first party data », avec
pour objectif, la possibilité de« recourir
à une plateforme unifiée, extrêmement
intéressante en ceci qu’elle permet d’éviter
les déperditions (…). Multiplier les outils
technologiques, c’est prendre le risque de
s’exposer à un problème de communication
entre tous ces outils. Rares sont les
technologies qui unifient complètement
l’approche, depuis la collecte jusqu’à
l’exécution. »
UNE NOUVELLE DONNE
STRATÉGIQUE
Au-delà des choix technologiques,
« ce qui fait la richesse des plateformes
programmatiques, c'est l'exploitation des
données propres » rappelle Kamal Mouhcine
(Turn). Cette nouvelle donne apporte deux
novations dans le pilotage de la stratégie
marketing.
Lapremièreconsisteà«délaisserl'approche
en termes de volume, où l'objectif est
de faire le maximum de conversions.
Les indicateurs choisis doivent être les
plus proches possible de votre équation
économique, afin de rémunérer au mieux
les bons partenaires. » (Samboy Camara,
fifty-five)
La deuxième novation découle de la
première. Le rapport aux agences évolue.
Dès lors, « le rôle des agences passe par le
conseil. Celles-ci doivent être en capacité
de réunir autour de la table toutes les
parties prenantes. Sur la partie Média,
l'agence de demain n'est pas une agence
qui opère, mais une agence qui conseille. »
En corollaire, l'annonceur doit veiller à
ramener de la valeur vers lui, à conserver les
« learnings » des campagnes ; car « le KPI
principal en programmatique, c'est la vision
du Marketing Director. »
PILOTER LES CAMPAGNES EN
TEMPS RÉEL
AFFINER ET OPTIMISER LE
CIBLAGE DES CAMPAGNES
75 %
66 %
AUGMENTER LA PERFORMANCE
DES CAMPAGNES
74 %
40 %
33 %
42 %
2016 2015
LES 3 AVANTAGES PRINCIPAUX DU PROGRAMMATIQUE CITÉS PAR
LES UTILISATEURS (Plusieurs réponses possibles)
58. 56
Mike Bettan
55
La gestion et l’analyse des campagnes programmatiques imposent le traitement de volumes
de données colossaux. Ces traitements varient selon les objectifs ou les KPI suivis, mais
également selon les acteurs qui les effectuent.
Les agences média ou trading desks indépendants ont pour but de combiner rentabilité
et performance de l’achat média, c’est-à-dire acheter ou vendre un maximum d’espaces
publicitaires au meilleur prix, tout en garantissant le ROI des campagnes en termes de
couverture sur cible, d’engagement ou de recrutement. Pour cela, ils misent sur leur
propre infrastructure technique (DSP compris), leurs algorithmes propriétaires émulés au
machine learning, et capitalisent sur l’ensemble des données disponibles : historiques
de performance, enchères, ciblages, attributs des audiences (device, géolocalisation,
comportement). Ceci, en vue d’optimiser les campagnes selon les objectifs fixés : reach,
volume de conversions, CPA...
Côté conseil média, les traitements big data appliqués au programmatique portent
généralement sur des sujets différents : il pourra s’agir de la réconciliation ou l’enrichissement
de données (CRM onboarding, second-party data, etc.), de segmentation ou scoring de
prospects et clients, d’analyses d’attribution... L’accès aux données dites “granulaires”, où
chaque action d’exposition, de clic ou de conversion est répertoriée et qualifiée selon une
temporalité, permet de recomposer les différents parcours des consommateurs. On pourra
alors mieux allouer les investissements et optimiser la performance globale. Ces études
nécessitent donc des manipulations de volumes de données conséquents, une infrastructure
technique, et de l’expertise pour réussir à en sortir des enseignements stratégiques.
Le mariage entre big data et programmatique (ou plus largement, campagnes digitales) est
désormais une évidence, pour ne pas dire un pré-requis de pilotage.
Associer big data et programmatique pour des campagnes
performantes
AVIS D'EXPERT
Source Graphiques et chiffres : Baromètres EBG « Data Driven Entreprise » et « Programmatique Branding », chacun
conduit auprès de 800 répondants, septembre et novembre 2016.
59. 57
CONCLUSION
Chez Ubisoft, qui réalise ses campagnes digitales majoritairement en
programmatique depuis fin 2015, Camille Duval a l'impression que « tout ce
que l'on peut faire en programmatique est fait. »
Mais comme le rappelle Samboy Camara (fifty-five), « nous ne sommes qu'au
début du chemin : le programmatique va s’ouvrir progressivement à d’autres
canaux et va prendre de nouvelles formes. Demain, le programmatique va
concerner les achats en TV ou en radio. D’où l’importance de bien anticiper
toutes ces perspectives nouvelles. » Pour l'heure, l'enjeu se résume, pour
revenir à l'exemple d'Ubisoft, à unifier et à « mieux utiliser ses data ».
Sans oublier, pour ceux qui en disposent, ses data offline qui peuvent être
onboardées. Il existe sur ces sujets un goulot d'étranglement, car cette mise en
ordre des données internes nécessite des ajustements organisationnels, une
approche unifiée et une gouvernance idoine. Des sujets que l'on ne peut mener
depuis sa tour d'ivoire, mais dont il convient au contraire de démontrer la valeur
ajoutée à travers quelques cas choisis.
60. 58
« La data comme point
de départ »
AUCHAN.FR
JULIEN CAFEDE
Traffic manager
Entretien
QUEL EST VOTRE PÉRIMÈTRE CHEZ
AUCHAN.FR ?
Je suis Traffic manager pour le site
Auchan.fr, en charge de l’ensemble
des leviers push marketing : Display,
Retargeting, Social Adset Affiliation. Je
m’occupe notamment du projet de
« Médias Ciblés », qui consiste à utiliser
nos data online et offline afin d’optimiser
notre communication en termes de
coût et de pertinence, mais aussi, de
créer des scénarii de campagnes
d’acquisitions beaucoup plus fins et
personnalisés.
QUELLES SONT VOS SOURCES
DE DONNÉES ?
Notre site faisant régulièrement partie
du top 15 français en termes de trafic,
nous récoltons d’importants volumes
de data Online que nous complétons en
acquisition par des données provenant
de nos partenaires. J’ai aussi la chance
de faire partie d’une entreprise acteur
majeur de la distribution, et qui donc,
possède beaucoup de data offline, avec
une volonté d’accélérer sa mue
omni-canal.
QUELLE PART LE
PROGRAMMATIQUE PREND-IL
DANS VOTRE ACHAT MÉDIA ?
Chez Auchan.fr, notre achat média
s’effectue majoritairement en
programmatique mais sans passer
par les trading desks habituels. Nous
l’effectuons en temps réel notamment
via Facebook, Google et Criteo, dans un
modèle de CPC, car nous souhaitons
avant tout optimiser la rentabilité de nos
campagnes.
VOUS ÉVOQUIEZ EN ATELIER
TRAVAILLER DE FAÇON
RAPPROCHÉE AVEC CES
3 ACTEURS ?
Nous avançons effectivement très bien
avec eux trois sur l’activation des data.
Avec l’exploitation des mécaniques
de Custom Audiences (audience
personnalisée), nous sommes en mesure
61. de préparer en amont des ciblages
de population sur une thématique
précise afin de les activer ensuite sur
les réseaux. Par exemple, un segment
affinitaire jardin nous permet, avec Criteo,
de recibler les clients appétant au jardin
online ou ayant acheté des produits
s’y rattachant offline. Avec Facebook,
nous pouvons également adresser les
look alike de nos segments de clients.
Via Google, plus particulièrement sur
le search, nous sommes en mesure
de pousser un message particulier
ou d’augmenter le niveau d’enchère,
auprès d’une population affinitaire de
sorte à booster nos taux de clic et de
transformation.
ÊTES-VOUS SATISFAITS DE
CES DISPOSITIFS ?
Globalement très satisfait. Le réseau
propriétaire, connecté et mobile
de Facebook nous permet d’avoir
un excellent taux de matching. Sur
Criteo, même si le matching est aussi
intéressant, la portée est plus faible mais
nous générons tout de même un volume
d’impressions très élevés sur nos cibles
stratégiques. Dans le cas de Google,
nous cherchons à nous concentrer sur
leur force, notamment celle de créer
des audiences sur la base de parcours
sur site en exploitant les données de
navigation.
QUELS OUTILS UTILISEZ-VOUS
POUR LA SEGMENTATION ?
Nous avons une DMP qui nous sert à
collecter et ordonner nos données first
party, que l’on connecte ensuite via API
aux plateformes de nos partenaires.
Nous l’utilisons aussi onsite pour
améliorer le parcours client couplé avec
des outils de personnalisation. Cela
permet d’afficher la bonne publicité
au bon endroit tout en créant une
cohérence entre l’acquisition en dehors
du site et l’expérience sur site.
QUELS SONT VOS PROCHAINS
CHANTIERS ?
Nous continuons d’avancer avec nos
partenaires afin d’atteindre nos objectifs
de visibilité et de rentabilité avec des
stratégies marketing orientées clients
dans une démarche data-driven. Dans
ce cadre, nous prenons toujours la data
comme point de départ. Une campagne,
c’est avant tout une problématique
marketing et un ciblage pertinent. Dans
un second temps,on peut alors imaginer
aller chercher du look alike ou bien
croiser nos données avec des 2nd
ou 3rd
party, dès lors que l’on recherche plus
de volume.
Dans cette perspective, il est évident
que Facebook excelle sur le modèle de
Custom Audiences. Concernant Google,
comme je vous l’expliquais, nous
cherchons à conserver le très bon niveau
de performance du search tout en
poursuivant la personnalisation de nos
messages par une exploitation optimisée
des cookies. Le cas de Criteo est
aussi intéressant que particulier. Nous
ne les voyons plus comme un simple
retargeter mais comme un véritable
partenaire stratégique pour avancer
sur de nombreux sujets, notamment
de prospection ; avec Criteo, 30 % des
produits achetés en retargeting n’ont
jamais été vus par l’internaute. Ils ont su
nous démontrer que leur algorithme est
aussi pertinent pour la recommandation
de produit et le ciblage d’internaute que
pour le reciblage classique.
ILS VOUS ACCOMPAGNENT AUSSI
POUR FAIRE CONVERGER
ON ET OFFLINE ?
Nous cherchons effectivement à mettre
en évidence les impacts du online sur le
offline et inversement. Ces partenaires
doivent à eux trois réunis couvrir 99 %
du reach français ; ils pourraient donc
nous permettre d’être beaucoup plus fins
dans la mesure, l’attribution et in fine,
l’optimisation et la rentabilité de nos
campagnes.
59
62. 60
Mettre la data science au
service des métiers
Le big data et les nouvelles technologies open source ont ouvert le champ
des possibles de la data science, mais ils apportent leur lot de questions…
Quels outils utiliser ? Comment enrichir ses compétences et rester à niveau ?
Quel langage privilégier ? Quels algorithmes choisir ?
Comment partager ses résultats ?
65. 63
PARTICIPANTS
• IBM, Laurent Sergueenkoff, Big Data Sales Team Leader
• IBM, Jacques Milman, Big Data Executive Architect
ANIMATEURS
PROGRAMME
Cet atelier réservé à 25 décideurs a permis de croiser les regards entre
profils data et métiers pour imaginer une data science qui permette de :
• construire plus facilement des solutions pertinentes pour les métiers
• rendre simple l'exploitation de tout type de données
• permettre d'accélérer les cycles de développement et
l'industrialisation des projets
• favoriser la co-création / la co-innovation
• LA POSTE
Géraud Felgines, Directeur Marketing
Particuliers et Professionnels
Benoît De Corn, Directeur Innovations
et Stratégie Télécom
Gaëlle Bonnefoux, Responsable
Études, Performance et Pilotage
Stratégique
• IDBUS
Anthony Delmeire, Responsable BI
• MALAKOFF MÉDÉRIC
Nicolas Baron, Directeur de Projets -
Direction du Plan de Transformation
• EUROP ASSISTANCE
Olivier Baes,
Head of Digital Data Innovation
• CRM SERVICES
Anne-Sophie D’anthouard, Product
Owner Projets Clients
• CAISSE DES DÉPÔTS
Clément Carrier, Data Scientist
• MEILLEURTAUX.COM
Yannick Busson, Responsable
datamining
• CRÉDIT AGRICOLE SA
Claire Bussac, Direction du
Développement et de l'innovation RH
Sébastien Dulys, Responsable du pôle
Big Data et CRM
• MÉTEO FRANCE
Hugues Berthelot, Chargé d'études
• SOCIÉTÉ GÉNÉRALE
Laurence Ricaud,
Responsable Marketing Études
• AIR FRANCE KLM
Francine Quentel, Director IMO Sales,
Data BI
• MOËT HENNESSY
Amine Mekouar, Data Manager
• M6
Karim Louedec, Head of Data Strategy /
Chief Data Scientist
• CHANEL PARFUMS BEAUTÉ
Xavier Le Roy, Études Internationales -
Département Marketing Research and
Consumer Insight
• CHANEL
Benoît Rigaut, Responsable internet
digital corporate
• BNP PARIBAS
Cédric Le Merlus, Responsable Business
Intelligence
• PMU
Christelle Jason, Responsable
Datamining et Sponsor Data du projet
Big Data
• BARCLAYS BANK PLC
Pierre-Yves Hemon, Head of Digital
Channel development
• GROUPE ERAM
Julien Haillot, Digital Project Manager
• SYNGENTA
Vincent Godet, Digital Project Manager
• CABINET HOCHE
Régis Carral, Avocat Associé
• FIFTY FIVE
Romain Warlop, Data Scientist Lead
Céline Craipeau, Senior Data Analyst
• SPECIALCHEM
Aldric Tourres, Exec. VP Head of Sales
Marketing
• TF1
Philippe Toublant, Directeur Adjoint Data
• BOURSORAMA
Aurélie Rossignol, Responsable
Datamining