0
j
BRÈVE HISTOIRE DU
DIGITAL ANALYTICS
Retour historique sur la discipline, les principaux événements qui ont
marqué son ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 1
Sommaire
Préambule..............................................
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 2
Préambule
Comme le disait Nicolas Machiavel, penseur humanist...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 3
Le digital analytics, une activité cruciale pour les annonceu...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 4
Heureusement, une des spécificités des supports et canaux de ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 5
Présentation du marché du digital analytics
Le marché du digi...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 6
Evolution du digital analytics de 1993 à aujourd’hui
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 7
L’évolution du digital analytics est étroitement liée aux évo...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 8
Nous l’utilisons inconsciemment en le renseignant dans la bar...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 9
Au début du Web (de 1990 à 1996), les pages étaient des pages...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 10
1997 : première utilisation de la méthode de récolte des don...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 11
8.3 Schéma simplifié du fonctionnement de la récolte des don...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 12
Les lignes 7 et 8 permettent respectivement de définir le nu...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 13
Une fois les données récoltées par le tag, il ne reste plus ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 14
Les noms des paramètres utilisés par les solutions dans les ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 15
Les solutions majeures de digital analytics
Les solutions de...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 16
Il faut donc prévoir dans l’enveloppe budgétaire initiale « ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 17
9.2 Le coût des solutions payantes
Le coût des solutions pay...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 18
Exemples de rapport
Voici trois exemples de rapport : le pre...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 19
Exemple de rapport Google Analytics de l'entonnoir de conver...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 20
Évolution des solutions majeures de digital analytics de 199...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 21
Le marché du digital analytics a été créé par la société web...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 22
Positionnement des solutions majeures de digital analytics
L...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 23
On retrouve dans cette étude les solutions Adobe, Google, IB...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 24
Les communautés qui gravitent autour du digital analytics
Le...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 25
En 2007, Eric Peterson a continué à faire progresser la disc...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 26
L’idée a été convertie en événement grâce à Peter O'Neill (à...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 27
2010 : Lancement des Tag Management System (TMS)
14.1 Défini...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 28
14.2 Avant et après l’arrivée des TMS
Avant l’arrivée des TM...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 29
14.3 Fonctionnalités avancées des TMS
Certains TMS ont été p...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 30
La déduplication permet de rémunérer uniquement les prestata...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 31
14.4 Les solutions majeures de TMS
Voici les solutions majeu...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 32
2012 : Création de la directive européenne sur les cookies
1...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 33
15.2 Que dit la loi exactement ?
La directive européenne peu...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 34
 Les visiteurs soumis à une demande de consentement qui ne ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 35
15.5 Les solutions pour se mettre en conformité avec la loi
...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 36
La révolution technologique à lancer
16.1 Introduction
La br...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 37
Google, en 2010, montre de nouveau la voie en sortant une ét...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 38
Les prochaines grandes tendances
La maturité et les besoins ...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 39
Au sujet de l’encadrement de la collecte de données, l’inval...
© 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 40
Le marché des TMS est un marché assez mature, les solutions ...
Prochain SlideShare
Chargement dans…5
×

Breve histoire-digital-analytics-par-brice-bottegal

9 225 vues

Publié le

Par Brice Bottégal

Publié dans : Données & analyses
0 commentaire
7 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
9 225
Sur SlideShare
0
Issues des intégrations
0
Intégrations
4 642
Actions
Partages
0
Téléchargements
51
Commentaires
0
J’aime
7
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Breve histoire-digital-analytics-par-brice-bottegal

  1. 1. 0 j BRÈVE HISTOIRE DU DIGITAL ANALYTICS Retour historique sur la discipline, les principaux événements qui ont marqué son évolution et prévision des prochaines grandes tendances Par Brice Bottégal A Time Traveller’s Dream par Michael Vincent Manalo
  2. 2. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 1 Sommaire Préambule.....................................................................................................................................................2 A propos de l’auteur......................................................................................................................................2 Le digital analytics, une activité cruciale pour les annonceurs .....................................................................3 Définition du digital analytics........................................................................................................................4 Présentation du marché du digital analytics.................................................................................................5 Evolution du digital analytics de 1993 à aujourd’hui ....................................................................................6 1993 : début de l’analyse Web grâce à l’analyse des logs.............................................................................7 7.1 Schéma simplifié du fonctionnement de la récolte des données via les logs...........................................8 1997 : première utilisation de la méthode de récolte des données par tag JavaScript ..............................10 8.1 Introduction............................................................................................................................................10 8.2 Définition et fonctionnement des tags JavaScript..................................................................................10 8.3 Schéma simplifié du fonctionnement de la récolte des données via les tags ........................................11 Les solutions majeures de digital analytics .................................................................................................15 9.1 Les valeurs ajoutées des solutions payantes ..........................................................................................16 9.2 Le coût des solutions payantes...............................................................................................................17 Exemples de rapport...................................................................................................................................18 Évolution des solutions majeures de digital analytics de 1993 à nos jours.................................................20 Positionnement des solutions majeures de digital analytics ......................................................................22 Les communautés qui gravitent autour du digital analytics .......................................................................24 2010 : Lancement des Tag Management System (TMS) .............................................................................27 14.1 Définition et fonctionnement d’un TMS.................................................................................................27 14.2 Avant et après l’arrivée des TMS............................................................................................................28 14.3 Fonctionnalités avancées des TMS.........................................................................................................29 14.4 Les solutions majeures de TMS ..............................................................................................................31 14.5 Evolution des principales solutions de TMS de 2007 à aujourd’hui .......................................................31 2012 : Création de la directive européenne sur les cookies .......................................................................32 15.1 Introduction............................................................................................................................................32 15.2 Que dit la loi exactement ?.....................................................................................................................33 15.3 Subtilités à connaitre..............................................................................................................................33 15.4 Comment se mettre en conformité avec la loi ? ....................................................................................34 15.5 Les solutions pour se mettre en conformité avec la loi..........................................................................35 La révolution technologique à lancer..........................................................................................................36 16.1 Introduction............................................................................................................................................36 16.2 Présentation ...........................................................................................................................................36 16.3 Les grands événements de l’évolution des technologies de stockage ...................................................37 Les prochaines grandes tendances .............................................................................................................38
  3. 3. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 2 Préambule Comme le disait Nicolas Machiavel, penseur humaniste italien du XVIème siècle, il est nécessaire de connaitre le passé pour bien comprendre le présent et construire l’avenir. L’objectif de cette étude est de faire un retour historique sur la discipline, les principaux événements qui ont marqué son évolution et de tenter de prédire les prochaines tendances. Elle s’adresse à la fois aux débutants et aux confirmés ayant des connaissances techniques ou non qui souhaitent améliorer leur culture digital analytics en (re)découvrant son histoire. Cette étude est une amélioration et une mise à jour de l’article « Histoire du Web analytics » disponible sur le blog : bricebottegal.com qui a été lu plus de 10.000 fois. Le blog a été mis à jour avec le contenu de cette étude, n’hésitez pas à y partager vos retours. A propos de l’auteur Brice Bottégal a débuté sa carrière chez Hub’Sales, une agence spécialisée dans le conseil en digital analytics, en tant que consultant digital analytics. Il a pris ensuite la responsabilité de l’avant-vente et a participé au lancement de la solution d’assurance qualité Hub’Scan. Suite au rachat de Hub’Sales par le groupe Business & Decision, Brice Bottégal a rejoint l’éditeur TagCommander en tant que product manager. TagCommander édite une des solutions majeures de Tag Management System mais aussi une solution de data management et une solution de suivi et pilotage de l’acquisition de trafic. Brice Bottégal est également professeur de digital analytics à l’école HETIC depuis 6 ans.
  4. 4. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 3 Le digital analytics, une activité cruciale pour les annonceurs Les annonceurs ont compris que leur présence digitale était devenue indispensable dans le marketing et la commercialisation de leurs produits / services et qu’elle ne « cannibalisait » pas leur présence traditionnelle. Ils ont aussi compris que leur présence digitale n’existait pas que grâce à l’acquisition de trafic mais essentiellement grâce à sa monétisation et donc aux visiteurs que les annonceurs réussissent à convertir en client, en inscrit, ou encore en internaute engagé. Cependant, aujourd’hui, les prospects / clients utilisent une multitude d’appareils (PC, téléphones, tablettes, TV etc.) pour se connecter à de nombreux supports (sites Web, sites mobiles, applications etc.) via un nombre croissant de canaux de communication online (liens sponsorisés, emailing, display etc.). A cela s’ajoute les supports offlines (presse écrite, TV, radio etc.) avec lesquels les annonceurs doivent jongler en harmonie. L’ensemble forme un écosystème complexe qui rend difficile le marketing et la commercialisation des produits / services des annonceurs :
  5. 5. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 4 Heureusement, une des spécificités des supports et canaux de communication online (par rapport aux supports et canaux de communication offline) est qu’ils sont entièrement mesurables et donc pilotables à la performance. L’objectif majeur de tous les annonceurs aujourd’hui est de comprendre leur écosystème pour savoir le piloter, l’optimiser de manière semi-automatisée et fournir à leur prospect / client l’expérience la plus personnalisée possible. Le digital analytics est une des composantes permettant d’atteindre cet objectif. Définition du digital analytics Le digital analytics c’est la mesure, le suivi et l’analyse du comportement des visiteurs dans le but d’augmenter les performances des annonceurs. C’est une discipline transversale à ces trois domaines du digital marketing : La discipline est basée sur l’utilisation d’une ou plusieurs solution(s) de mesure d’audience qui récolte des données sur les visiteurs et génère des rapports à analyser.
  6. 6. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 5 Présentation du marché du digital analytics Le marché du digital analytics en Europe et en Amérique du nord est mature. On y distingue principalement 3 types d’acteur : les annonceurs, les agences et les éditeurs. Les annonceurs sont conscients de la valeur ajoutée que leur apporte le digital analytics et cela quel que soit leur(s) modèle(s) économique(s). Ils sont maintenant quasiment tous équipés d’une ou plusieurs solutions. De nombreuses agences généralistes ou spécialisées se sont lancées dans le domaine du conseil en digital analytics et accompagnent de plus en plus d’annonceurs. L’accompagnement va généralement de l’aide au choix de la solution jusqu’à l’analyse des données et la rédaction de recommandations d’optimisation. Certaines agences font également de l’achat média, c’est-à-dire qu’il achète pour leur client annonceur des espaces pour diffuser leur publicité, des liens sponsorisés etc. Le but est de faire venir des visiteurs qualifiés sur le site Web de l’annonceur. Ils sont alors généralement rémunérés en prélevant un pourcentage du budget média investi. Dans la plupart des cas, pour être neutre et tiers de confiance, les agences ne mêlent pas activité de conseil en digital analytics et achat média. Les agences ont fortement contribué à l’évolution rapide de la maturité du marché grâce à leur compétence et à l’expérience acquise par l’accompagnement de l’ensemble de leur client. En parallèle, les éditeurs de solution jouent aussi un rôle important dans l’évolution de la maturité du marché. Ils sont en effet chargés de répondre et d’anticiper les besoins des annonceurs via la mise à disposition de fonctionnalité adaptée et facile à prendre en main. Généralement, un annonceur travaille avec une ou plusieurs agence(s) qui se charge pour lui de gérer ses relations avec le ou les éditeurs (Criteo, Google par exemple pour l’achat média, Adobe Analytics pour le digital analytics etc.). Il est aussi possible que l’annonceur ait des ressources compétentes en interne pour gérer lui- même les relations avec son ou ses éditeur(s).
  7. 7. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 6 Evolution du digital analytics de 1993 à aujourd’hui
  8. 8. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 7 L’évolution du digital analytics est étroitement liée aux évolutions du Web. Trois évolutions majeures du Web ont bouleversé le digital analytics : deux évolutions technologiques, l’arrivée du langage JavaScript et des nouvelles technologies de stockage et une évolution légale : la directive européenne sur les cookies. L’arrivée du langage JavaScript a révolutionné la discipline en permettant de collecter de nouvelles données de façon plus précise (voir le chapitre « 1997 : première utilisation de la méthode de récolte des données par tag JavaScript »). La démocratisation des nouvelles technologies de stockage a rendu possible de nouveaux usages comme l’accès et l’utilisation des données en temps réel à des fins d’optimisation des performances digitales tant au niveau de l’acquisition de trafic que de la personnalisation (voir le chapitre « La révolution technologique à lancer »). L’application de la directive européenne sur les cookies dans les pays de l’union européenne a obligé les annonceurs à demander le consentement de leur visiteur avant l’utilisation de solution de suivi de leur comportement. Les annonceurs doivent maintenant trouver un juste milieu entre le fait d’être en accord la loi et le fait de toujours collecter plus de données (voir le chapitre « 2012 : création de la directive européenne sur les cookies »). Dans le domaine du digital analytics, suite à la création du marché par la solution webtrends, deux événements majeurs ont marqué l’évolution de la discipline : la sortie de la solution de mesure d’audience gratuite Google Analytics et la sortie des premiers Tag Management System (TMS). Ces deux événements ont modifié le marché. La solution Google Analytics a largement contribué au développement de la discipline. Elle est connue de tous et rare sont les annonceurs à ne pas l’avoir déjà utilisée. Les solutions de TMS sont maintenant incontournables et facilitent tous les jours la vie des équipes marketing (voir les chapitres suivant sur « Les solutions majeures de digital analytics » et « 2010 : lancement des Tag Management System (TMS) »). 1993 : début de l’analyse Web grâce à l’analyse des logs Le digital analytics est né grâce au protocole http qui a la particularité d’enregistrer chaque échange entre le visiteur et le site Web dans un fichier log. C’est grâce à ces données que l’analyse du comportement des visiteurs a pu débuter. Un protocole est un ensemble de règles définies pour un type de communication. Si on veut trouver une analogie dans la vie courante, le protocole utilisé pour parler avec une autre personne pourrait être le langage. Il y aurait alors un protocole français, anglais ou encore français canadien. Le protocole http est le protocole que nous utilisons tous les jours pour afficher les pages Web des sites que nous visitons.
  9. 9. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 8 Nous l’utilisons inconsciemment en le renseignant dans la barre d’adresse de notre navigateur Web, lorsque nous souhaitons visiter un site : Emplacement du protocole HTTP et du WWW dans une adresse Web classique Vous connaissez surement d’autres protocoles comme le protocole https, qui est une version sécurisée du protocole http de plus en plus utilisée ou encore le protocole ftp par exemple. Le protocole http a été inventé en 1990 par Tim Berners-Lee avec les url et le langage HTML pour créer le World Wide Web (qui est la signification de l’acronyme WWW visible dans la majorité des adresses web également). 7.1 Schéma simplifié du fonctionnement de la récolte des données via les logs Voici un extrait de fichier log : Extrait d'un fichier log Le premier travail des solutions de mesure d’audience fonctionnant à partir de l’analyse des logs est d’attribuer chacune des demandes (chaque ligne du fichier log correspond à une demande, aussi appelée « hit », de la part du navigateur Web) au bon visiteur. Cela permet ensuite de reconstituer les visites de chacun d’eux sur la base de leur adresse IP.
  10. 10. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 9 Au début du Web (de 1990 à 1996), les pages étaient des pages statiques composées quasi- exclusivement de texte et de lien. Un hit était donc équivalent à l’affichage d’une page. Petit à petit, les pages se sont beaucoup enrichies avec l’arrivée d’images, de vidéos, d’animations grâce à des technologies comme l’AJAX ou le HTML5. Étant donné que chaque hit correspond à l’appel d’un élément de la page, le nombre de hits a augmenté de façon exponentielle ce qui a rendu difficile la reconstitution des visites par les solutions de digital analytics via l’analyse des logs. De plus, la mesure des interactions avec les contenus dynamiques (lecture d’une vidéo etc.) était quant à elle impossible étant donné que ces interactions n’entrainent, par défaut, aucune écriture dans les logs. D’autres nouveautés externes à l’évolution des sites Web ont vu le jour et ont dégradé la qualité des données récoltées via l’analyse des logs : l’apparition des moteurs de recherche et de leur robot, les serveurs proxys permettant de surfer anonymement, l’attribution d’adresses IP dynamiques par les Fournisseurs d’Accès à Internet (FAI) et les techniques de mise en cache des contenus intégrées au système de gestion de contenu (CMS). L’évolution des pages et du Web en général ont rendu inutilisable l’analyse des logs. Aussi, les services marketing se sont vite appropriés le Web du fait de sa valeur ajoutée. Pour ces services, l’analyse des fichiers logs s’est révélée être une méthode trop technique pour être facilement utilisable. La mesure d’audience via l’analyse des logs était donc devenue inadaptée. Les éditeurs de solution de digital analytics ont dû faire évoluer leur méthode de récolte des données avec l’évolution du Web. Aujourd’hui, la récolte des données via l’analyse des logs n’est quasiment plus utilisée. La solution Urchin de Google, l’une des dernières basée sur l’analyse des logs, rachetée en 2005 pour créer Google Analytics, n’est plus vendue ni supportée depuis le 28 mars 2012.
  11. 11. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 10 1997 : première utilisation de la méthode de récolte des données par tag JavaScript 8.1 Introduction Deux ans après la création du langage JavaScript (JS) les éditeurs de solution de digital analytics ont créé la méthode de récolte des données via l’utilisation de tag JavaScript. 8.2 Définition et fonctionnement des tags JavaScript Un tag est un bout de code JavaScript. Voici un exemple de tag de la solution Google Analytics : Exemple de tag de la solution Google Analytics Google Analytics a été pris en exemple car c’est la solution la plus répandue Le tag des solutions digital analytics doit être inséré sur toutes les pages du site Web. Le tag est exécuté par le navigateur au chargement de la page, il récolte des données sur le visiteur et sur sa visite : des informations concernant la page en cours de visualisation, le navigateur utilisé, la zone géographique, la résolution d’écran, etc. Il envoie ces données à un serveur distant, ou local dans de rares cas, suivant la solution de mesure d’audience utilisée. La solution associe ensuite, dès réception, ces données à la bonne visite et au bon visiteur. Elle les stocke et les restitue enfin sous forme graphique à l’utilisateur en temps réel ou avec un délai maximum de 24h.
  12. 12. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 11 8.3 Schéma simplifié du fonctionnement de la récolte des données via les tags Les tags de la majeure partie des solutions sont constitués de deux éléments : - L’initialisation des différentes variables et l’appel des fonctions - Une librairie JavaScript contenant l’ensemble des définitions des différentes fonctions appelées dans le tag pour obtenir et envoyer les données Reprenons l’exemple du tag Google Analytics présenté plus haut : Exemple de tag de la solution Google Analytics Les lignes 1 et 10 correspondent à l’ouverture et à la fermeture de la balise JavaScript indiquant au navigateur que le code qui suivra devra être interprété comme du code JavaScript.
  13. 13. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 12 Les lignes 7 et 8 permettent respectivement de définir le numéro de la propriété Google Analytics (il existe en général une propriété par site Web) et d’envoyer l’information qu’une page a été vue. En complément de la page vue, Google Analytics enverra d’autres informations sur l’internaute et sa visite aux serveurs de Google Analytics (ex. : résolution d’écran, navigateur etc.). Les lignes 2 à 5 permettent entres autres d’appeler la librairie JavaScript contenant les définitions de l’ensemble des fonctions disponibles. Voici un extrait du contenu de la librairie JavaScript de Google Analytics : Extrait du contenu de la librairie JavaScript de Google Analytics La définition de la fonction appelée plus haut est surlignée (voir la librairie JavaScript Google Analytics complète). Cette librairie, pour diminuer son poids (environ 25Ko) et donc son temps de chargement, a été volontairement minifiée (suppression des sauts de ligne, de l’indentation etc.) et obfusquée (remplacement du nom des variables par des lettres etc.) par Google. Elle est donc telle quelle difficilement lisible. Si vous voulez la rendre plus lisible en supprimant la minification, vous pouvez utiliser par exemple le service en ligne jsbeautifier. Sur ce site, il vous suffit, de copier-coller le contenu de la librairie JavaScript puis de cliquer sur le bouton « Beautify JavaScript or HTML ». Chez certains éditeurs comme Google, la librairie est commune à tous les utilisateurs de la solution et est hébergée sur les serveurs de l’éditeur. Dans la solution Adobe Analytics par exemple, la librairie est hébergée sur les serveurs de l’annonceur et peut donc être spécifique à chaque annonceur. Le choix entre hébergement local ou distant de la librairie, s’il est permis par la solution, dépend des besoins de l’annonceur. Chaque solution de mesure d’audience dispose de son propre tag incluant sa propre librairie. Le tag doit être placé en général juste au-dessus de la balise </body> ou de la balise </head>. Les valeurs prises par chacune des variables inclues dans le tag sont généralement contextuelles. Elles peuvent dépendre de la page en cours de visite (la catégorie de contenu etc.), de la visite (niveau d’engagement etc.) ou du visiteur (sexe, âge etc.). La valeur de chaque variable et les données envoyées sont donc différentes d’une page à l’autre.
  14. 14. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 13 Une fois les données récoltées par le tag, il ne reste plus qu’à les envoyer aux serveurs de la solution de mesure d’audience. L’exécution de la fonction d’envoi (pour Google Analytics, la fonction « send ») contenue dans le tag transmet l’ensemble des données récoltées sur le visiteur et sur sa visite. Ces données sont récoltées via différentes sources : la première, celle présentée ci-dessus, par l’intermédiaire des variables présentes dans le tag, la seconde par l’intermédiaire des cookies (fichiers textes propres au navigateur Web) qui permettent de stocker des informations spécifiques sur le visiteur, et enfin la troisième par l’intermédiaire du navigateur qui détient un certain nombre d’information sur le visiteur (résolution d’écran, navigateur utilisé etc.). Les données sont transmises via une requête composée de plusieurs paramètres contenant chacun une ou plusieurs données sur le visiteur et sur sa visite. La requête est envoyée en utilisant la méthode d’envoi GET (en utilisant le protocole HTTP ou HTTPS en fonction du protocole utilisé par la page Web où est exécuté le tag). Voici un extrait de requête faite par la solution Google Analytics : Extrait de requête de la solution Google Analytics (visualisée grâce à la console du navigateur Google Chrome) On constate par exemple que le paramètre tid prend la valeur du numéro de compte Google Analytics défini dans le tag (voir le code du tag plus haut). Il est possible de visualiser les requêtes effectuées vers l’ensemble des solutions en utilisant le debugger du navigateur (exemples : sur Firefox, le plugin Firebug est souvent utilisé et sur Chrome, le Chrome Developer Tools). Les données sur le visiteur et sur sa visite sont en général envoyées grâce à la méthode GET sous forme de paramètre via l’appel d’une image transparente d’1×1 pixel. Une fois reçues par les serveurs de la solution de mesure d’audience, les données sont enregistrées et traitées. Capture d’écran de Chrome Developer Tools (raccourci : CTRL + MAJ + i)
  15. 15. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 14 Les noms des paramètres utilisés par les solutions dans les requêtes qui sont envoyées à leurs serveurs sont différents des noms des variables utilisées dans le tag à cause de la limite de taille des requêtes envoyées. Cette limite est variable d’un navigateur à l’autre mais est en moyenne de 3000 caractères (pour les requêtes réalisées en utilisant la méthode GET). Si la requête envoyée dépasse cette limite, elle est coupée par le navigateur et le serveur de la solution ne reçoit alors qu’une partie des données. C’est pour cela que les noms des paramètres utilisés par les solutions dans leurs requêtes sont souvent très courts. Cette différence entre noms des paramètres des requêtes et variables utilisées dans le tag rend fastidieux la vérification des données envoyées. C’est la raison pour laquelle les solutions fournissent en général un tableau descriptif de chaque paramètre permettant de s’assurer de la valeur de chacun d’entre eux (exemple : tableau descriptif des paramètres Google Analytics). Si l’implémentation de la solution a bien été réalisée, une requête est faite par page vue étant donné que le tag de la solution aura été soigneusement inséré sur toutes les pages. Si l’annonceur souhaite mesurer un ou plusieurs éléments précis contenus dans la page (ex. : le nombre de téléchargement d’un fichier, le nombre de lecture d’une vidéo etc.), autant de requêtes supplémentaires qu’il y a d’éléments précis mesurés seront envoyées aux serveurs de la solution. La méthode de récolte des données via l’utilisation des tags JavaScript permet de quasiment tout mesurer, des transactions e-commerce jusqu’au nombre de clics effectués sur n’importe quel élément de la page. La mesure du nombre de visiteur unique reste cependant approximative et devrait plutôt être appelée navigateur unique (terme utilisé dans la solution ComScore Digital Analytix, racheté par Adobe en novembre 2015). En effet, les solutions créent et utilisent un cookie (propre au navigateur du visiteur et stocké dans celui-ci) pour identifier spécifiquement chaque visiteur. Il suffit alors qu’un visiteur se rende sur le même site avec deux navigateurs différents (en ayant préalablement supprimé ses cookies s’il s’est déjà rendu sur le site) pour que la solution de digital analytics utilisée comptabilise 2 nouveaux visiteurs uniques au lieu d’un seul.
  16. 16. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 15 Les solutions majeures de digital analytics Les solutions de digital analytics gratuites et payantes Toutes ces solutions fonctionnent en SaaS (Software As A Service). On s’y connecte donc comme on se connecte à son webmail par exemple. Certains éditeurs comme webtrends ou IBM proposent des versions installées (dite “On- Premise”) de leur solution pour répondre aux besoins de certains annonceurs mais les demandes dans ce sens tendent à diminuer. Suite au lancement de sa solution payante Google Analytics Premium, Google est devenu le seul éditeur à proposer à la fois une solution payante et une solution gratuite performante. La stratégie de proposer une solution gratuite dans un premier temps puis une solution payante permet à Google aujourd’hui de disposer d’un nombre très important d’utilisateurs de sa solution et donc de prospect. Google peut ainsi accompagner les annonceurs tout au long de l’évolution de leur maturité en leur permettant de passer de la version gratuite à la version payante en douceur, à la fois pour les équipes métiers et techniques. Les annonceurs matures ayant des besoins avancés utilisent les solutions payantes et les annonceurs débutants se tournent plutôt, dans un premier temps, vers Google Analytics. Il n’y a pas de meilleure solution de digital analytics mais plutôt une solution plus adaptée que les autres pour répondre à un besoin donné. Une expression de besoin organisée, claire et exhaustive est donc cruciale pour garantir le choix de la bonne solution. Aussi, le principal facteur de réussite de la mise en place d’une stratégie digital analytics efficace repose beaucoup plus sur les personnes internes / externes utilisant la solution plutôt que sur la solution elle-même.
  17. 17. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 16 Il faut donc prévoir dans l’enveloppe budgétaire initiale « l’après », c’est-à-dire la suite de la mise en place de la solution : qui va l’utiliser ? Qui va analyser les données et faire des recommandations ? Qui va mettre en place ces recommandations et mesurer les résultats ? Trop souvent encore, les annonceurs sont équipés d’une ou plusieurs solutions performantes mais n’utilisent que 50% de leurs capacités faute de temps et de budget pour recruter un digital analyste ou pour faire appel à une agence pour les accompagner. 9.1 Les valeurs ajoutées des solutions payantes Les solutions payantes se différencient des solutions gratuites pour 5 raisons principales :  Une garantie contractuelle de support (jusqu’à 24h/24h, 7 j. / 7 j. en langue locale)  Une garantie contractuelle de disponibilité des serveurs de collecte de données et de rapport (en général à plus de 99%) et de performance (temps de traitement des requêtes jusqu’à l’affichage dans les rapports)  Une garantie contractuelle de la propriété des données  Un service conseil et commercial attitré  Des fonctionnalités avancées inclues dans une suite de produits complémentaires pour répondre aux besoins des annonceurs tout au long de l’évolution de leur maturité
  18. 18. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 17 9.2 Le coût des solutions payantes Le coût des solutions payantes est basé en général sur l’achat d’une licence annuelle comprenant un pack de requêtes. En fonction des besoins de l’annonceur, des produits complémentaires au produit de base peuvent être souscrits. Un cout annuel fixe et / ou variable supplémentaire sera alors à prévoir. Les licences sont généralement souscrites pour une durée de 1 an. Il y a, si la solution est correctement implémentée, au moins une requête faite par page vue. Si l’annonceur mesure grâce à sa solution le nombre de clic sur les liens sortant, les liens de téléchargement de fichier etc., on peut atteindre sur certaines pages vues 4 à 5 requêtes par exemple. Voici une base de calcul à adapter pour estimer son nombre de requêtes par an : (Nombre de pages vues sur l’année N-1) + (pourcentage de croissance prévisionnelle de pages vues sur l’année N) + (25% des pages vues prévisionnelles sur l’année N * 3). La dernière parenthèse comprend l’ajout de l’estimation des pages vues entrainant plus d’une requête (ici on estime que 25% des pages vues prévisionnelles sur l’année N comporteront 3 requêtes). Exemple pour un site ayant 1.000.000 de pages vues sur son année N-1 et prévoyant une croissance de 10% de son nombre de pages vues sur l’année N : ( 1.000.000 + (10% de 1.000.000) ) + (25% de 1.000.000 * 3) = 1.850.000 requêtes. Attention à ne pas sous-estimer son nombre de requête car si le pack de requête acheté est dépassé, un surcoût, au prix unitaire d’une requête, est facturé. Le coût unitaire d’une requête dépend des solutions et du pack de requête acheté (plus le pack de requête acheté est important, plus le coût unitaire d’une requête est faible). Globalement, les prix peuvent aller d’environ 5.000 € / an pour un site à faible trafic (inférieur à 500.000 pages vues par mois) jusqu’à 50.000 € / an pour un site à trafic moyen (plusieurs millions de pages vues par mois).
  19. 19. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 18 Exemples de rapport Voici trois exemples de rapport : le premier lié à l’acquisition de trafic, le second à la navigation et le troisième à la conversion. Ils sont tous issus de Google Analytics à titre d’exemple. Des rapports similaires sont disponibles dans les autres solutions de digital analytics. Voici les différents rapports : Exemple de rapport Google Analytics sur la performance de l'acquisition de trafic Exemple de rapport Google Analytics des flux de navigation des internautes
  20. 20. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 19 Exemple de rapport Google Analytics de l'entonnoir de conversion
  21. 21. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 20 Évolution des solutions majeures de digital analytics de 1993 à nos jours
  22. 22. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 21 Le marché du digital analytics a été créé par la société webtrends en 1993. Entre 1996 et 2000, 6 acteurs suivent le pas et lancent leur solution de digital analytics : WebSideStory, Omniture, Unica, Coremetrics, NedStat et XiTi. Le marché a ensuite évolué modérément jusqu’en mars 2005. A cette date, Google fait son entrée et donne le rythme en rachetant Urchin software en mars 2005 et en lançant Google Analytics en novembre 2005, soit seulement 8 mois plus tard. La seule notoriété de la marque Google constitue un avantage important pour l’adoption de leur solution Google Analytics, qui est en plus gratuite et dont les fonctionnalités évoluent rapidement. Cette concurrence est bénéfique à la fois pour les annonceurs, car elle pousse l’ensemble des éditeurs de solution digital analytics à faire évoluer leur produit plus rapidement, mais aussi pour les autres éditeurs car la maturité du marché évolue plus vite et donc le nombre de prospect potentiel augmente. Google a sorti Google Analytics Premium, une version de Google Analytics plus puissante et payante en septembre 2011. Depuis cette date, Google étend peu à peu ses parts de marché sur les grands comptes. Une vague importante de rachats a débuté avec celui d’Omniture par Adobe en septembre 2009. Le marché s’est ensuite concentré avec le rachat de Coremetrics et Unica par IBM et de Nedstat par ComScore. Grâce à ce dernier, ComScore, reconnu pour sa mesure via les panels, a complété son offre avec la mesure digitale ce qui lui confèrait un positionnement unique et intéressant vis-à-vis de ses concurrents. La concentration du marché a continué en novembre 2015 avec le rachat de la solution ComScore digital analytics par Adobe (la solution ComScore digital analytics aura existé 3 ans et demi). Grâce à ces rachats, Adobe et IBM ont constitué les premières briques de ce qu’ils appellent aujourd’hui leur suite de solutions de digital analytics : Adobe Marketing Cloud et IBM Enterprise Marketing Management (EMM). L’évolution a été marquée également par la fin brutale des solutions de digital analytics de Microsoft en mars 2009 (la solution aura existé 3 ans) puis de Yahoo! en juin 2012 (la solution aura existé 5 ans) à cause d’une vague de suppression des activités non génératrices de revenu dans les deux cas (ces deux solutions étaient gratuites). Trois solutions restent indépendantes aujourd’hui sur le marché : webtrends, AT Internet et Webtrekk. Ces solutions tirent leur épingle du jeu : webtrends avec sa volonté d’innovation, AT Internet est leader sur le marché Français et Webtrekk est leader sur le marché Allemand. A noter également, l’initiative open-source de Piwik avec deux offres, une offre basique lancée en mars 2008 et une offre professionnelle lancée en septembre 2013.
  23. 23. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 22 Positionnement des solutions majeures de digital analytics Les 7 solutions majeures Etude « Magic quadrant », catégorie « Digital Marketing Analytics » par le cabinet Gartner (septembre 2015)
  24. 24. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 23 On retrouve dans cette étude les solutions Adobe, Google, IBM, comScore et webtrends. Les solutions non présentes sont les solutions AT Internet et Webtrekk. Seules les solutions de digital analytics fournissant une suite de solutions éprouvée sont présentes dans cette analyse. Cette suite de solution a pour objectif de répondre à l’ensemble des besoins des annonceurs, de la collecte de données jusqu’à l’analyse et l’optimisation. Google est leader dans cette étude. Grâce à la sortie de sa solution payante Google Analytics Premium et aux autres produits de sa suite (dont Doubleclick, Adwords, Retargeting etc.), Google a la suite de solution la plus complète du marché. Adobe est également leader dans cette étude. Adobe, suite au rachat d’Omniture, a créé la suite Adobe Marketing Cloud comprenant toutes les solutions de la suite d’Omniture. Cette suite de solution a ensuite été étoffée avec le rachat de la solution Française Neolane pour renforcer la suite sur le suivi et l’optimisation de l’acquisition de trafic. Neolane est devenu le produit Adobe Campaign au sein de la suite Adobe Marketing Cloud. Par ailleurs, la solution de mesure Adobe Analytics et la solution de testing et personnalisation Adobe Target de la suite Adobe Marketing Cloud sont intégrables dans les solutions Dreamweaver, Flash, et Flash Builder de la suite Adobe Creative grâce à des extensions. IBM est challenger dans cette étude. IBM, suite aux rachats des solutions Coremetrics et Unica entres autres, a créé la suite Entreprise Marketing Management (EMM) qui fait partie dorénavant de l’offre « IBM’s Smarter Commerce » composée, entre autre, du framework e- commerce WebSphere Commerce. ComScore est visionnaire dans cette étude. ComScore Digital Analytix, suite à son rachat en novembre 2015 par Adobe, devrait contribuer à l’amélioration du classement d’Adobe dans la prochaine version de l’étude tant sur la capacité à délivrer que sur l’exhaustivité de sa suite. webtrends est un acteur de niche dans cette étude au même titre que d’autres acteurs spécialisés dans des domaines précis (comme Visual IQ par exemple dans le domaine de l’attribution). En effet, webtrends ne dispose que d’une solution de digital analytics et d’une solution de testing et de personnalisation alors que les autres éditeurs disposent de solution d’optimisation de l’acquisition de trafic par exemple. En résumé, Google et Adobe sont leaders, IBM est challenger et webtrends est un acteur de niche comme les éditeurs AT Internet et Webtrekk qui ne sont pas présents dans cette étude.
  25. 25. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 24 Les communautés qui gravitent autour du digital analytics Le digital analytics en Amérique du nord et en Europe était, à ses débuts, une discipline confidentielle et peu pratiquée. C’était difficile pour les premiers pratiquants de trouver des ressources et de partager leur expérience. Le niveau de maturité progressait donc lentement. Cela en a poussé certains à se réunir sous forme de communauté. La première initiative a été lancée aux Etats-Unis avec la Web Analytics Association (WAA) en 2003 (renommée depuis en Digital Analytics Association). Elle a été créée par Jim Sterne, Andrew Edwards et Bryan Eisenberg (de gauche à droite) : Elle s’articule autour de plusieurs pôles :  Evangélisation  Education  Evènement  Internationalisation de la discipline  Gestion des membres / sponsoring  Recherche  Définition de standards Elle a de multiples objectifs dans chacun de ses pôles, l’objectif transverse est d’évangéliser la discipline en présentant sa valeur sous forme de cas concrets. Elle est surtout active aux Etats-Unis même si elle est présente également en Europe. Ensuite, Eric Peterson, un consultant reconnu en digital analytics aux Etats Unis, a lancé en 2004 le premier forum dédié au digital analytics. Le forum est soutenu et modéré par la Digital Analytics Association. Il a été très actif de 2005 à 2011 (jusqu’à 661 messages en avril 2008). Etant donné que la maturité du marché a évolué, il l’est moins aujourd’hui, même s’il y a toujours environ 30 messages soumis par mois. On y trouve des offres d’emploi, des questions pratiques liées à des sujets d’implémentation ou de changement de solution, etc.
  26. 26. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 25 En 2007, Eric Peterson a continué à faire progresser la discipline en lançant les WAW : « Web Analytics Wednesday ». Les WAW sont des événements digital analytics gratuits permettant aux personnes intéressées par le digital analytics de se rencontrer et d’échanger. De nombreux événements ont été organisés aux États-Unis mais aussi en Australie, en France, en Pologne, etc. Aujourd’hui, les WAW sont moins populaires même si des événements ont toujours lieu aux États-Unis et en Angleterre notamment. Enfin, en 2009, pour aider les personnes intéressées par le digital analytics à se lancer et à acquérir de l’expérience, Eric Peterson, toujours, avec le soutien de deux autres consultants en digital analytics reconnus (John Lovett et Aurélie Pols) a lancé « Analysis Exchange ». L’objectif de « Analysis Exchange » est d’aider les associations et les organisations à but non lucratif à progresser en digital analytics gratuitement avec l’aide d’une personne souhaitant se faire une expérience (un étudiant par exemple) sous la direction d’un mentor expérimenté. En 2014, soit 5 ans après le lancement, plus de 400 organismes en avaient profité. En Europe, deux initiatives majeures ont été lancées : les measure bowling et camp. L’idée des « measure bowling » est de réunir les personnes intéressées par le digital analytics autour d’une partie de bowling afin de s’amuser et d’échanger. Les measure bowling ont été lancés sur la base d’un échange sur Twitter :
  27. 27. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 26 L’idée a été convertie en événement grâce à Peter O'Neill (à gauche) et Nicolas Malo (à droite). Des measure bowling sont maintenant organisés partout en Europe… Tous à la même date ! Peu après le premier measure bowling à Londres a été organisé le premier Measure camp, toujours à Londres, en septembre 2012 par Peter O'Neill. Les measure camp sont des « unconference », c’est-à-dire que le contenu est créé par les participants eux-mêmes au début de l’événement avec une volonté de partage et d’échange. Chaque participant peut ensuite se rendre dans la salle où est traité le sujet qu’il souhaite. Les « unconference » existaient déjà dans beaucoup de domaine dont le développement Web sous forme de bar camp (le premier bar camp a eu lieu en 2005). Le concept s’est exporté à Paris avec l’organisation du premier measure camp en juin 2015. A noter également qu’au fur et à mesure du temps, de nombreuses ressources ont été créées que ce soit sous forme de livres ou d’articles de blog. On peut citer, entre autres, les livres et articles de Avinash Kaushik (le premier livre s’intitule : « Web Analytics: An Hour A Day » et le second s’intitule « Web Analytics 2.0 »), les livres et articles de Bryan Eisenberg (livres « Call to action », « Waiting for Your Cat to Bark? » et « Always Be Testing »), de Jim Stern (livres « Social media metrics » et « The Devil's Data Dictionary ») et le modèle de maturité analytics créé par Stéphane Hamel : « Online Analytics Maturity Model ». Voici les sites pour suivre l’actualité des événements cités : - Digital Analytics Association : http://www.digitalanalyticsassociation.org/ - Forum dédié au digital analytics : lien - Site de « Analysis Exchange » : http://www.webanalyticsdemystified.com/ae/ - Measure Bowling : http://www.measurebowling.org/ - Measure Camp Londres : http://www.measurecamp.org/ - Measure Camp Paris : http://paris.measurecamp.org/
  28. 28. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 27 2010 : Lancement des Tag Management System (TMS) 14.1 Définition et fonctionnement d’un TMS Les solutions de Tag Management System sont nées sur la base d’une frustration. Une frustration des équipes marketing pour gérer rapidement et facilement leurs solutions et une frustration des équipes techniques dont ce n’est pas le métier de gérer des solutions (ils ont déjà beaucoup à faire avec la gestion des sites entres autres). Un TMS est un conteneur regroupant l’ensemble des solutions de l’annonceur et les règles de déclenchement associées. Le conteneur peut être mis en place sur un site Web ou une application mobile et est administrable par l’annonceur via une interface Web. Voici un schéma présentant le fonctionnement global d’un TMS : Les tags des solutions sont alimentés par une source de donnée unique et normalisée appelée le datalayer (littéralement « couche de données »). Le datalayer est un objet JavaScript contenant l’ensemble des variables utiles au fonctionnement des tags. En plus des tags, le conteneur contient l’intelligence des TMS : les règles de déclenchement. Les règles de déclenchement sont définies au sein de l’interface d’administration du conteneur. Elles permettent de déclencher un ou plusieurs tags en fonction du type de page visité (home page, catégorie, produit etc.) ou encore en fonction du visiteur (son navigateur, son statut : prospect / client etc.). Les règles de déclenchement peuvent se baser sur les variables du datalayer mais aussi sur la valeur d’un cookie ou sur l’url de la page par exemple.
  29. 29. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 28 14.2 Avant et après l’arrivée des TMS Avant l’arrivée des TMS, les équipes marketing devaient passer par leur direction informatique ou leur prestataire technique pour ajouter / modifier / supprimer une solution (les délais pouvaient varier de 1 à 6 mois en fonction du rythme de mise à jour du site de l’annonceur). Cela induisait la réalisation d’un projet traditionnel long, couteux et source d’erreur du fait du manque de savoir-faire de la direction informatique ou des prestataires techniques sur ce sujet. Les initiatives des équipes marketing étaient par conséquent bridées et cela se ressentait sur les performances des campagnes d’acquisition et du site en général. Beaucoup d’illustrations concrètes de l’impact négatif de ce manque de réactivité existent. On peut citer notamment l’impossibilité de lancer une campagne car le tag permettant de mesurer ses résultats ne pouvait pas être mis en place avant le lancement ou encore l’impossibilité de tester une solution car son temps de mise en place était trop long par rapport au besoin. Aujourd’hui les TMS sont devenus une commodité, au même titre que les solutions de digital analytics, la majorité des annonceurs en sont équipés. Cela leur permet de mettre en place et gérer leur solution de manière quasi-autonome et rapide et ainsi de répondre à leur besoin d’agilité (délais de 1 heure à 1 semaine en fonction de la complexité des solutions à ajouter). Beaucoup de nouveaux usages ont été démocratisés via les fonctionnalités offertes par les TMS comme la mise en concurrence de plusieurs solutions par l’intermédiaire d’un A/B test, la capacité de définir facilement un niveau d’engagement des visiteurs ou encore la possibilité de retraiter / nettoyer certaines données avant de les envoyer à une solution.
  30. 30. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 29 14.3 Fonctionnalités avancées des TMS Certains TMS ont été plus loin que les autres en fournissant des fonctionnalités avancées telles que la déduplication sur la base de la customer journey du visiteur, le suivi des performances des tags, l’assurance qualité des données envoyées ou encore la possibilité de se mettre en conformité avec les contraintes légales de chaque pays. Voici, par exemple, une présentation de l’intérêt de la déduplication : 4 tags de prestataire sont appelés sur la page de conversion pour la conversion 1234. Quel(s) prestataire(s) l’annonceur doit-il rémunérer pour la conversion 1234 ?
  31. 31. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 30 La déduplication permet de rémunérer uniquement les prestataires d’acquisition de trafic à la performance qui ont réellement contribué à la vente selon les règles définies par l’annonceur. Les règles de déduplication définies sont basées sur la customer journey des visiteurs et permettent de déclencher ou non le tag du prestataire. Si le tag du prestataire ne se déclenche pas car la règle de déduplication associée ne le permet pas, alors celui-ci n’enregistrera pas la conversion. Il ne demandera donc pas d’être rémunéré pour celle-ci. La customer journey regroupe les points de contact entre chaque visiteur et l’annonceur : Voici quelques exemples de règles de déduplication : - Je déclenche le tag de mon prestataire de retargeting 1 (et donc je le rémunère) si le point de contact lié est présent dans la customer journey quelle que soit sa position - Je déclenche le tag de mon prestataire d’affiliation A si le point de contact lié est présent en dernière position dans la customer journey - Je déclenche le tag de mon prestataire d’affiliation B si le point de contact lié est présent en première position dans la customer journey Imaginons que ces règles soient mises en place et que la customer journey du visiteur soit celle ci-dessus. Dans ce cas, seul le tag du prestataire de retargeting 1 se déclenchera et seul le prestataire de retargeting 1 sera donc rémunéré pour la conversion 1234. Sans déduplication, les annonceurs payent souvent plusieurs fois pour la même conversion. Les annonceurs ont deux possibilités pour dédupliquer. Ils peuvent se servir de leur solution de TMS pour automatiser la déduplication ou alors réaliser la déduplication manuellement. Pour réaliser la déduplication manuellement, les annonceurs doivent prendre une solution de référence qui est en général leur solution de digital analytics. Si leur solution de digital analytics leur indique que la vente 1234 a été remportée par le canal Affiliation avec le prestataire A alors l’annonceur dédupliquera manuellement en enlevant la conversion 1234 des conversions revendiquées par les autres prestataires. Il y a deux inconvénients majeurs à la déduplication manuelle : le premier est que c’est un travail long et fastidieux, le second est que la vision de l’attribution de la conversion donnée par les solutions de digital analytics est souvent une vision « dernière position » / « last click » uniquement sans même prendre en compte la visualisation des bannières (post-impression / « post-view »).
  32. 32. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 31 14.4 Les solutions majeures de TMS Voici les solutions majeures de TMS existantes aujourd’hui : A noter que la solution d’Adobe, Adobe Dynamic Tag Management, n’est fournie gratuitement que si l’annonceur dispose d’au moins une des solutions de la suite Adobe Marketing Cloud. 14.5 Evolution des principales solutions de TMS de 2007 à aujourd’hui Voici un retour historique sur l’évolution de la discipline :
  33. 33. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 32 2012 : Création de la directive européenne sur les cookies 15.1 Introduction Les cookies sont des fichiers textes stockés dans le navigateur du visiteur. Ils contiennent des informations sur le visiteur qui sont utiles aux sites visités pour se rappeler de l’identifiant et du mot de passe du visiteur par exemple ou encore pour lui afficher des publicités ciblées. Afin de garantir à ses citoyens un meilleur niveau de protection de leurs données personnelles, l’Union Européenne (UE) a mis en œuvre une directive obligeant les sites à demander aux internautes la permission de déposer des cookies sur leur navigateur. Cette directive doit être adaptée et appliquée par tous les pays membres de l’UE. En France, par exemple, elle a pris le nom de la loi “Paquet télécom” et a été mise en application le 24 août 2011. Cette loi a fait polémique dès sa sortie car les annonceurs et les éditeurs ont tout de suite vue l’impact négatif qu’elle pourrait avoir sur leur activité. En effet, si les internautes décidaient massivement de refuser les cookies, beaucoup de solutions ne seraient plus capables de fonctionner et les annonceurs n’auraient plus de données à analyser. Certains éditeurs seraient obligés de modifier le fonctionnement de leur solution avec une forte probabilité de le dégrader. Côté annonceur, pour un site média par exemple qui se rémunère en grande partie grâce à la publicité, si les cookies étaient désactivés, la majeure partie des solutions de diffusion des publicités ne fonctionnerait plus ou aurait un fonctionnement dégradé. Le chiffre d’affaire généré par les publicités pourrait donc baisser. La France et les autres pays de l’union Européenne ont laissé du temps au marché pour s’adapter. Par exemple, les premiers contrôles en France ont été effectués en octobre 2014 (soit 3 ans après la mise en application de la loi). Des solutions existent aujourd’hui pour se mettre en conformité avec la loi.
  34. 34. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 33 15.2 Que dit la loi exactement ? La directive européenne peut avoir été adaptée différemment en fonction des pays de l’UE. En France et en Italie par exemple, les visiteurs doivent être informés clairement des finalités et doivent pouvoir choisir de ne pas avoir de cookie de déposé lorsqu'ils visitent un site. Les sites ont donc l'obligation de solliciter, au préalable de tout dépôt de cookie, le consentement de leurs visiteurs. Cette demande de consentement s'applique sur la majorité des cookies, qu’ils collectent des données à caractère personnel ou non. Exemple de cookies devant faire l’objet d’une demande de consentement :  Les cookies des solutions d’acquisition de trafic (retargeting, liens sponsorisés etc.)  Les cookies des solutions de digital analytics  Etc. Seuls les cookies liés au fonctionnement du site sont exemptés du recueil du consentement des visiteurs (exemple : panier d’achat, identifiant de session, whishlist etc.). Voici un exemple de demande de consentement recommandé par la France (via la CNIL) : L’enjeu pour les annonceurs est de trouver un juste milieu entre collecter toujours autant de données pour aider à la prise de décision tout en étant conformes à la loi sur les cookies. 15.3 Subtilités à connaitre  Le terme « cookie » est à prendre au sens large, ce terme recouvre également : o Le finger printing (méthode d’identification sans cookie) o Tous types d’identifiant (utilisés par les systèmes d’exploitation mobile par ex.) o Les cookies utilisés dans les animations Flash  Le message d’information affiché doit informer clairement les visiteurs de la finalité des cookies qui seront déposés s’ils donnent leur consentement. De plus, il est conseillé de créer une page dédiée, type « Mentions légales », expliquant de manière plus détaillée ce qu’est un cookie, son fonctionnement, etc. et de placer un lien vers cette page dans le message d’information  Les visiteurs doivent pouvoir modifier à tout moment leur consentement  Le consentement des visiteurs doit être redemandé tous les 13 mois En poursuivant votre navigation sur ce site, vous acceptez l’utilisation de [ Cookies ou autres traceurs ] pour vous proposer [Par exemple, des publicités ciblées adaptées à vos centres d’intérêts] et [ Par exemple, réaliser des statistiques de visites]. En savoir plus
  35. 35. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 34  Les visiteurs soumis à une demande de consentement qui ne répondent ni « J’accepte » ou « Je refuse » et qui poursuivent leur navigation sont considérés comme des visiteurs ayant accepté. Par conséquent, la demande de consentement devra apparaitre sur la première page de leur visite mais plus sur les pages suivantes (sauf si le visiteur se rend suite à son arrivée sur le site sur la page de mentions légales, dans ce cas, le message d’information devra toujours être affiché)  Le classement par catégorie des solutions est conseillé mais pas obligatoire. Il permet aux visiteurs non pas de choisir d’accepter ou de refuser toutes les solutions, mais de choisir d’accepter ou de refuser une ou plusieurs catégories de solutions. C’est bénéfique à la fois pour le visiteur car cela lui permet de donner un consentement fin et personnalisé, et à la fois pour l’annonceur car cela lui permet d’obtenir le consentement pour des solutions qu’il n’aurait probablement pas obtenu si le visiteur avait simplement répondu « Je refuse »  La loi s’applique sur tous les supports : sites Web et mobile et applications  Il n’est pas autorisé de simplement orienter le visiteur vers une page décrivant comment, dans chaque navigateur, supprimer ses cookies 15.4 Comment se mettre en conformité avec la loi ? Pour se mettre en conformité avec la loi, il faut demander le consentement des visiteurs préalablement au dépôt de cookie et mettre en application ce consentement. La mise en application de ce consentement est généralement faite par une solution dédiée créée par un éditeur ou une solution développée par l’annonceur. Elle peut être faite de deux manières : 1. Mise en application immédiate : si l’internaute refuse le dépôt de cookie pour l’ensemble ou une partie des solutions alors ces solutions seront désactivées et aucun dépôt de cookie ne sera fait 2. Mise en application à posteriori : si le visiteur refuse le dépôt de cookie sur l’ensemble ou une partie des solutions, cela n’aura aucun impact direct sur celles-ci. Le dépôt de cookie sera fait. Cependant, la solution utilisée pour demander le consentement des visiteurs demandera aux solutions pour lesquelles le visiteur a refusé de donner son consentement de ne pas utiliser / supprimer les données enregistrées.
  36. 36. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 35 15.5 Les solutions pour se mettre en conformité avec la loi Les solutions leader pour se mettre en conformité avec la loi sont les solutions de TMS. La majorité des TMS fournit cette fonctionnalité nativement ou sous forme d’option. Les TMS peuvent désactiver immédiatement les solutions pour lesquelles le visiteur a refusé de donner son consentement. Ce qui fait qu’aucun cookie n’est déposé par celle-ci. Voici un schéma présentant comment les tags sont désactivés en fonction du consentement : Voici un schéma présentant la mise en application a posteriori du consentement : (*) Le « comportement » de l’étape « Réponse ou comportement » signifie par exemple la poursuite de la visite du visiteur sans avoir donné de consentement (du coup le consentement est implicite)
  37. 37. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 36 La révolution technologique à lancer 16.1 Introduction La brique de base des solutions de digital analytics, la collecte de données, repose souvent sur des technologies anciennes datant du début des années 1990. Les solutions de digital analytics doivent franchir le pas et migrer vers de nouvelles technologies pour parvenir à répondre aux nouveaux besoins des annonceurs. 16.2 Présentation La révolution technologique a été lancée (in)volontairement par Google entre 2003 et 2004 avec la sortie de son étude MapReduce et du système d’organisation de fichier associé : GoogleFS (Google File System). MapReduce est un modèle de programmation permettant de distribuer intelligemment la charge de collecte et de calcul d’un grand nombre de données sur des grappes de serveur (« cluster » en anglais). Doug Cutting, qui travaille alors pour la fondation Apache Software (connue principalement pour l’édition du serveur Web Apache), sur le projet Nutch (crawler de page Web) s’est intéressé à cette étude dès sa sortie. En effet, il rencontrait à ce moment les mêmes problèmes de traitement de grand volume de données (plusieurs PetaOctets de données, 1 PetaOctet est égal à 1.000.000 de GigaOctets). En 2006, Doug Cutting rejoint l’équipe de Yahoo! pour créer une version open-source de MapReduce. Le projet aboutira au lancement de Hadoop et du système de fichier associé HDFS (Hadoop File System). Devant la croissance exponentielle de la quantité de données récoltées, Facebook a rencontré au fur et à mesure les mêmes problèmes de stockage que Google et s’est intéressé dès sa sortie à Hadoop. Hadoop était utilisé en interne chez Facebook principalement par des profils techniques pour deux raisons : l’interrogation des données était complexe et requérait des compétences techniques, et les résultats fournis n’étaient pas fournis en temps réel mais au bout de plusieurs heures (en fonction des données à récupérer et de la quantité de données collectées). Pour favoriser l’utilisation des données en interne, Facebook a alors décidé de rendre ses données plus accessibles en créant un langage d’interrogation simple similaire au langage SQL (Structured Query Langage). Ce projet fut déployé et utilisé en interne en 2007 puis mis à disposition en open source en 2008 sous le nom de Hive et du langage d’interrogation associé HiveQL (Hive Query Langage). La mise à disposition en open source a favorisé son adoption et son développement grâce à la communauté de développeurs. Yahoo est aujourd’hui la société qui utilise le plus grand cluster Hadoop au monde avec 455 PetaOctets en 2014 (en Europe, c’est Criteo qui revendique utiliser le plus grand cluster). Il reste alors un problème à résoudre : le temps trop important de récupération des données.
  38. 38. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 37 Google, en 2010, montre de nouveau la voie en sortant une étude sur Dremel. Dremel permet d’interroger une grande quantité de données et d’avoir une réponse en quasi temps réel. Cette technologie est utilisée en interne chez Google depuis 2006 pour analyser les données collectées par les différentes applications (Google Maps etc.). Dremel est une technologie complémentaire à MapReduce. Depuis 2012, Google propose cette technologie sous forme d’un service Web : Google BigQuery qui permet de stocker et d’interroger un grand nombre de données facilement et rapidement. En 2011, Twitter, également confronté aux mêmes enjeux de stockage, rachète une société prometteuse dans le domaine, Backtype et publie en open source ensuite Storm. Storm permet aussi de stocker et d’interroger facilement en temps réel un grand nombre de données. Hadoop, Hive, Storm ne sont que des exemples d’un grand nombre de solution open source disponible pour répondre au besoin de stockage et d’interrogation simple et si possible rapide d’une grande quantité de données. Comme toujours, il n’y a pas de meilleures technologies, mais une technologie plus adaptée qu’une autre à un besoin donné. L’essentiel est donc de bien connaître ses besoins en terme de quantité de stockage, d’interrogation et de temps de réponse pour choisir la technologie la plus adaptée. 16.3 Les grands événements de l’évolution des technologies de stockage Voici un retour historique sur les grands événements de l’évolution des technologies de stockage :
  39. 39. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 38 Les prochaines grandes tendances La maturité et les besoins des annonceurs ont évolué. Ils ne veulent maintenant plus simplement des rapports personnalisés ou non de suivi de leur performance Web. Ils veulent que leur solution leur offre une vue plus fine de leur investissement média avec une vue complète sur la customer journey de leurs visiteurs tout en ayant la possibilité d’appliquer des modèles d’attribution différents. Ils veulent que leur solution leur permette de mesurer les complémentarités entre le online et le offline. Enfin, ils veulent avoir la possibilité de prendre des actions d’optimisation, idéalement semi- automatiquement, pour optimiser les objectifs de leur site / application. Les solutions de digital analytics doivent évoluer du statut de solution de mesure et de suivi du comportement des visiteurs au statut de solution d’optimisation des performances digitales. Cette évolution peut être effectuée en se constituant, via le rachat d’autres solutions ou en nouant des partenariats, une plateforme permettant de répondre au besoin de collecte de données, de suivi, jusqu’au besoin de personnalisation des campagnes et du site / application. Cela tout en s’assurant d’être neutre et tiers de confiance en ne gérant pas l’achat média ou en ayant une activité d’achat média indépendante de l’activité de mesure et d’optimisation. Cette évolution, déjà difficile, a en plus des prérequis technologiques (voir chapitre ci-dessus). La majeure partie des solutions ont un programme de migration technologique enclenché ou partiellement terminé pour permettre à leurs utilisateurs de bénéficier des avantages des nouvelles technologies. A cela s’ajoute la concurrence, toujours plus féroce entre les solutions existantes, et l’arrivée de nouveaux concurrents, plus agiles, résolument tournés vers l’optimisation et ayant un socle technologique reposant déjà sur les nouveaux standards. Seules les solutions de digital analytics qui se sont orientées vers ces nouveaux besoins seront sereines, conserveront et feront évoluer leur part de marché d’ici à 2018. Nous devrions assister aussi de 2016 à 2018 à l’émergence d’une nouvelle forme de collecte de données : le server-side. Le server-side, après la collecte de données via l’analyse des logs puis via les tags JavaScript, sera la troisième génération de collecte de données. L’idée est de ne plus envoyer plusieurs fois les mêmes données à plusieurs solutions mais de n’envoyer les données qu’une seule fois à sa solution de TMS qui se chargera de les envoyer ensuite à l’ensemble des solutions souhaitées. Les solutions auxquelles sont envoyées les données restent bien sûr administrables via une interface Web par l’annonceur. Les points forts du server-side, par rapport à la méthode de récolte des données via les tags JavaScript, sont la réduction drastique des temps de chargement des pages ainsi qu’une meilleure fiabilité et maitrise des données envoyées. L’adoption du server-side est ralentie par le manque de compatibilité des solutions avec ce mode de fonctionnement. Cependant, de plus en plus d’annonceurs sont conscients des avantages et poussent pour que l’ensemble des solutions qu’ils utilisent deviennent compatibles.
  40. 40. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 39 Au sujet de l’encadrement de la collecte de données, l’invalidation du mécanisme « Safe Harbor » devra être suivi de prêt. La décision de la Cour de Justice de l’Union Européenne a été rendue le 06 Octobre 2015. Cette décision invalide le mécanisme « Safe Habor » permettant le transfert de données vers les entreprises domiciliées aux Etats-Unis. Par conséquent, il ne sera plus possible d’envoyer des données de visiteur de l’union Européenne vers les Etats-Unis dès le mois de février 2016. Le mécanisme « Safe Harbor » a été invalidé car le niveau de sécurité des données hébergées aux Etats-Unis n’est plus jugé assez important. En France par exemple, la CNIL (l’autorité de l’état chargée du respect de la vie privée) examine actuellement avec ses homologues au sein du G29 les conséquences juridiques et opérationnelles de cet arrêt. Au-delà du digital analytics, certains types de solutions sont à suivre particulièrement : - Data Management Platform (DMP) : BlueKai, Krux, Lotame, Exalate etc. - Tag Management System (TMS) : Tealium, Ensighten, Signal, TagCommander etc. - Personnalisation et testing : Optimizely, Qubit, A/B Tasty etc. - Visualisation de données : Tableau, Qlik, Tibco Spotfire etc. Voici un schéma présentant certaines hypothèses d’évolution :
  41. 41. © 2016 Brice Bottégal – @bricebottegal - bricebottegal.com 40 Le marché des TMS est un marché assez mature, les solutions de TMS sont déjà en train de remonter dans la chaine de valeur sur la collecte et la segmentation de données en allant sur le marché des DMP ou en mêlant une approche DMP avec une couche d’activation de données sous forme de testing et de personnalisation comme Qubit. Le marché des DMP est naissant, les solutions de DMP sont pour l’instant uniquement dans une phase de croissance de leur part sur les différents marchés même si le marché commence à s’organiser en grandes familles (DMP orientée Publisher etc.). Les solutions de testing et personnalisation sont elles aussi en phase de croissance de leur part de marché. Une hypothèse d’évolution serait qu’elles collectent de plus en plus de données en remontant vers le domaine des DMP pour parfaire leur capacité de personnalisation et de testing. Le marché des solutions de visualisation de données est mature. Deux acteurs sortent systématiquement du lot : Tableau et Qlik même s’il existe une multitude d’autres acteurs. Une hypothèse d’évolution serait qu’elles aillent plus loin que la visualisation de données en gérant elles-mêmes la collecte et en intégrant de l’intelligence dans leurs solutions. Elles se rapprocheraient alors du marché des DMP. Le marché du digital analytics est mature, l’ensemble des solutions tentent, en créant ou en rachetant des solutions, de composer une suite de produit composée au moins d’un produit dans ces grands domaines : DMP, TMS, Testing et personnalisation et visualisation de données. Cela pour aller vers l’optimisation des performances digitales. Comme toujours, la majorité de ces marchés vont se concentrer : DMP, TMS (poursuite) et personnalisation et testing. Le marché du digital analytics et de la visualisation de données sont assez structurés et matures pour continuer tel qu’ils sont aujourd’hui. A noter également que les solutions de CRM et BI (SalesForce ou SAS par exemple) vont surement se rapprocher du monde du digital analytics en rachetant un ou plusieurs acteurs de ces domaines. Pour l’instant, seulement Oracle y a mis un pied en rachetant la DMP BlueKai en février 2014 pour un montant estimé à $400 millions afin de faire converger CRM et DMP. Sources : - Les éditeurs de solution de digital analytics, DMP, TMS, personnalisation et testing - Présentation de snowplow sur les nouvelles technologies de stockage de données - Présentation de Hive par l’équipe ingénierie de Facebook - Article « Google’s Dremel makes big data look small » - Stackoverflow (pour les questions techniques) - Article « The history of Hadoop: From 4 nodes to the future of data » - Site de la CNIL (Commission National Informatique et Liberté) - Site de la digital analytics association, du measure camp et du measure bowling - Site Analysis exchange - Wikipedia

×