Projet de recherche appliquée
Marty Chloé CCN 4B
Promotion : 2015 - 2016
Tuteur : Clément Brygier
Société : Digital Insigh...
4
Je tiens à remercier très sincèrement toutes les personnes qui m’ont soutenue et aidée
pour la rédaction de ce mémoire.
...
5
Sommaire
I. L’utilisation et l’exploitation des données sur les réseaux
sociaux posent des problèmes de complexité et d’...
6
Les réseaux sociaux sont des espaces qui permettent à tout un chacun de créer des
réseaux d’amis et de relations profess...
7
a. La complexité technique et financière
La data entraîne une modification et une transformation des organisations mais el...
8
C’est dans ce contexte qu’une nouvelle génération d’outils a été développée. La
majorité ont été développés en open-sour...
9
IBM a déclaré que « 90% des données de l'entreprise seraient inexploitables » . Les8
entreprises utilisent des outils tr...
10
Elles ne mettent également pas à distance la qualité des données ce qui reste l'un des
enjeux majeurs de la récupératio...
11
La diminution des effectifs représente donc un manque alors que en terme de coûts et
selon la loi de Moore (co-fondateu...
12
En effet une donnée dite personnelle est récoltée grâce à un formulaire que les
utilisateurs remplissent sur Internet p...
13
depuis une décision de justice du 6 octobre 2015 )». Le cloud s'avère être également12
un souci dans l'analyse des donn...
14
De plus la récupération et l’analyse des données n’est encadrée par aucun statut
légal. Ce sont les propriétaires de ce...
15
c. L’éthique
L’éthique est un code moral et comme tout code moral il évolue avec le temps. Le
code devient flou lorsqu’i...
16
Les organisations peuvent donc respecter la loi en rédigeant des mentions légales
qu'aucun utilisateur ne lira jamais, ...
17
Les conditions autour de la data ne sont pas les mêmes dans chaque pays et
certaines entreprises jouent de ces conditio...
18
a. Un ciblage beaucoup plus pertinent

En ce qui concerne l’audience ou la communauté d’une marque, elle doit être
ente...
19
Prenons l'exemple du groupe media belge Roularta qui a utilisé la plateforme de16
marketing relationnel Selligent afin d...
20
La publicité sur les réseaux sociaux que ce soit sur Facebook, Twitter, Instagam ou
YouTube est intéressante pour les a...
21
Après la visite de la page fan de la marque où va l’utilisateur ? que fait-il ?. La position
sociale, socio-démographiq...
22
Facebook a donc comme Twitter, Quantcast, Facebook ou encore Google capté la
demande des entreprises concernant les fra...
23
La première campagne a utilisé un ciblage par rapport aux informations renseignées
par les membres (âge, sexe, localisa...
24
La société Quantquast qui gère une plateforme de données en utilisant la Big Data et22
le machine learning, aide les an...
25
Ce terme désigne le fait d’utiliser la data pour créer des communications enrichies,
impactantes et inspirantes. Le but...
26
La société Linkfluence a notamment déterminer l'importance des données relatives à
la connaissance du client pour le com...
27
La donnée permet donc d’analyser en profondeur les contenus, les réactions, les
comportements etc. des communautés des ...
28
Ce langage est principalement utilisé pour produire un site web dynamique. Il est
courant que ce langage soit associé à...
29
En effet les consommateurs sont de plus en plus sur Internet, sur le web social pour
vérifier le prix ou obtenir des inf...
30
extraordinaire pour détecter des insights clients. En effet aujourd'hui un utilisateur
mécontent postera un tweet ou pa...
31
L’agence The Social client a développé un dispositif de social media intelligence et,
l’un de ses clients qui l’utilise...
32
Le top management est également impliqué dans cette démarche afin de les aider à
comprendre plus amplement les bénéfices ...
33
d’une tendance ou d’un événement important. » . En somme ce sont les éléments de32
perception d’un environnement, ces o...
34
Il est primordial que les marques définissent leurs objectifs afin de sélectionner ces
données que représentent des signa...
35
a. Traiter le volume en déterminant des KPI’s exploitables
Le volume de données est actuellement pharaonique. Pour que ...
36
Le KPI de la synthèse se définit tout simplement par une collaboration de toutes les
strates de l’entreprise. La Big Dat...
37
Ainsi que l'élargissement de la communauté, l'augmentation du trafic généré sur le site
internet ou encore l'augmentatio...
38
Comme vous pouvez le voir sur le schéma ci-contre, la real time data est un mélange
entre plusieurs stratégies : téléme...
39
Tout d’abord en intégrant l’idée de cette stratégie au quotidien dans l’entreprise. La
real time data est traitée en ad...
40
c. Prendre en considération la variété des données pour créer une stratégie pertinente
La Big Data représente un ensemb...
41
Les équipes en alliant et en rassemblant ces deux types de données peuvent s’en
servir pour découvrir et explorer des n...
42
Il est évident que de nombreuses marques sont encore frileuses face à l'avancée
époustouflante que représente la Big Dat...
43
Toutes ces analyses sont le fruit de nombreuses recherches et réflexions et m'amènent
à penser que la Big Data deviendra...
44
Hadoop : « Un cluster Hadoop est un type particulier de traitement informatique en
grappe, conçu spécialement pour stoc...
45
insérer, et interpréter pour des besoins divers, les données de la base de données, en
toute sécurité. » 40
Mode Batch ...
46
Ouvrages / Livres Blancs
- KHAN G.F., "Seven Layers of social media analytics" 2015
- SCHMARZO B., "Big Data, Tirer par...
47
- BALAGUE C. - http://www.soft-concept.com/surveymagazine/opportunites-big-data-
et-donnees-reseaux-sociaux/ - "Opportu...
48
Annexe 1 - Fiches de lecture Page 49
Annexe 2 - Synthèse des focus groups Page 55
Annexe 3 - Interviews Page 61
Annexe ...
49
Annexe 1 - FICHES DE LECTURE
1/ Big Data - Tirer parti des données massives pour développer l’entreprise
Auteur : Bill ...
50
«Exploiter les perspectives exploitables et les recommandations personnalisées
basées sur les comportements et les tend...
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Prochain SlideShare
Chargement dans…5
×

Mémoire de fin d'étude - La big data et les réseaux sociaux

65 vues

Publié le

Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?

Publié dans : Médias sociaux
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
65
Sur SlideShare
0
Issues des intégrations
0
Intégrations
2
Actions
Partages
0
Téléchargements
4
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Mémoire de fin d'étude - La big data et les réseaux sociaux

  1. 1. Projet de recherche appliquée Marty Chloé CCN 4B Promotion : 2015 - 2016 Tuteur : Clément Brygier Société : Digital Insighters Titre : Co-fondateur et CEO Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?
  2. 2. 4 Je tiens à remercier très sincèrement toutes les personnes qui m’ont soutenue et aidée pour la rédaction de ce mémoire. Je remercie particulièrement mon directeur de mémoire Monsieur Clément Brygier directeur et CEO de Digital Insighters qui a su m’épauler et m’orienter lors de mes recherches et de ma rédaction afin que ce mémoire puisse être tel que je le souhaitais. Je remercie également Madame Maillet ma tutrice de mémoire ainsi que l’équipe enseignante de l’ISCOM pour leurs conseils si précieux. Je tiens également à remercier : Zorana Ratkovic, Isabelle Tronchet et Marguerite Leenhardt pour leur temps et leur professionnalisme lors de mes interviews. Enfin merci aux acteurs qui permettent chaque jour à des centaines de marques de cibler et de produire des contenus adéquats grâce à la Big Data.
 Remerciements
  3. 3. 5 Sommaire I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent des problèmes de complexité et d’éthique.. a. La complexité technique et financière b. La complexité légale c. L’éthique II. Quelques marques même si elles restent rares voient l’opportunité que peuvent apporter les données.. a. Un ciblage beaucoup plus pertinent b. Des contenus optimisés c. Une meilleure relation client à clé d. Une détection des signaux forts et faibles III.Mais les marques devraient adopter une stratégie social media intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété.. a. Traiter le volume en déterminant des KPI’s exploitables b. Créer des stratégies real-time data pour faire face à la vitesse c. Prendre en considération la variété des données pour créer une stratégie pertinente IV. Conclusion V. Glossaire VI. Bibliographie/Webographie VII. Annexes Page 7 à 15 Page 7 à 11 Page 11 à 14 Page 15 à 17 Page 42 Page 18 à 34 Page 18 à 24 Page 24 à 28 Page 28 à 32 Page 32 à 34 Page 35 à 15 Page 35 à 37 Page 37 à 39 Page 40 à 41 Page 44 à 45 Page 46 à 47 Page 48 à 84
  4. 4. 6 Les réseaux sociaux sont des espaces qui permettent à tout un chacun de créer des réseaux d’amis et de relations professionnelles. Ces réseaux sociaux génèrent chaque jour des millions de données. En effet chaque minute plus de 4 166 667 likes ont été distribués sur des posts Facebook, plus de 1 736 111 photos ont été likées sur Instagram et 347 222 tweets ont été envoyés sur Twitter. Toutes ces données font parties du web social. Le web est dit social depuis qu’Internet est devenu un espace de socialisation où des millions d’utilisateurs créent et interagissent avec du contenu. Internet a donc évolué en même temps que les usages. Ces nouvelles pratiques ont contraint les communicants et les marques à trouver une nouvelle manière d’analyser et d’utiliser ce flux de données numériques qu’on appelle la data. C’est pour analyser ces données sur les réseaux sociaux qu’en 2009 le terme «social media analytics» est apparu sur Google. Ce terme désigne le fait de convertir et de transformer en connaissances signifiantes des données non structurées grâce à des outils et des solutions adaptées. L’analyse des conversations sur les réseaux sociaux représente un enjeux identitaire pour les marques afin de déterminer leur influence, les sentiments des utilisateurs et même prédire des sujets émergeants. Mais ces données représentent également un enjeux financier car selon une étude Syncapse de 2013, un fan Facebook aurait une valeur de 174,17$ .1 Ce mémoire a pour vocation de répondre à la problématique : «Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?» en se basant sur des études concrètes et en induisant des préconisations pour appréhender les trois V de la données : volume, vitesse et variété dans les stratégies social media des marques. 
 Syncapse - Value of a Facebook Fan - 2013 - : http://www.syncapse.com/value-of-a-facebook-1 fan-2013/#.Vwp7ljb1bkH / Consulté le 28/02/2016 Introduction
  5. 5. 7 a. La complexité technique et financière La data entraîne une modification et une transformation des organisations mais elle entraîne également une certaine complexité notamment technique. En effet avec plus de 3,2 billion d’utilisateurs du web , le volume de données générées est faramineux.2 En 2011 l’humanité aurait créé environ 2 zetta octets (Zo) de données numériques ce3 qui équivaut à 2 millions de To. Cela requiert donc des solutions et des outils adaptés à ces nouveaux ordres de grandeurs afin de récupérer, analyser et utiliser les données. Aujourd’hui nous entendons les termes Hadoop (cf. glossaire), Mapreduce (cf. glossaire), NoSQL (cf. glossaire) ou encore In Memory (cf. glossaire), ce sont ces outils relativement complexes pour des personnes non initiées, qui permettent d’analyser les données. Depuis plusieurs années les entreprises utilisent ces outils avec des architectures relationnelles de type OLTP (cf. glossaire) pour traiter les données. Ce type d’architecture était efficace lorsqu’il ne fallait analyser que des centaines de gigaoctets voir des teraoctets en mode batch, ce qui veut dire en traitement par lots mais aujourd’hui tout va plus vite, plus loin et ces architectures sont pour la plupart dépassées. Les utilisateurs métier ont eu l’habitude d’un traitement nécessitant plusieurs semaines voir plusieurs mois. Au final ces outils n’étaient pas pourvus d’une «intelligence» et n’étaient centrés que sur des données structurées ce qui ne permettaient pas l’analyse des données sur les réseaux sociaux étant qualifiées de données non structurées. BERGE F. "La terre compte 3,2 milliards d'internautes" / Consulté le 04/03/2016 : http://2 bfmbusiness.bfmtv.com/entreprise/la-terre-compte-32-milliards-d-internautes-890165.html SIMEON G. "Données le vertige" / Consulté le 04/03/2016 http://www.liberation.fr/futurs/2012/12/03/3 donnees-le-vertige_864585 I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent des problèmes de complexité et d’éthique..
  6. 6. 8 C’est dans ce contexte qu’une nouvelle génération d’outils a été développée. La majorité ont été développés en open-source afin de permettre un développement et une innovation en mode agile. La méthode agile a été élaborée en 2011 par 17 acteurs influents en informatique et permet de « proposer un nouveau mode de conception des programmes informatiques. Cette méthode fonctionne sur la base de l'itératif et de l'incrémental, les tâches vont s'effectuer petit à petit, par ordre de priorité, avec des phases de contrôle et d'échange avec le client » . Le but en utilisant cette méthode4 était réellement de les faire évoluer plus rapidement qu’un fournisseur traditionnel. Facebook ne pouvant exploiter les outils traditionnels a notamment développé ses propres outils comme : Hive , qui permet d'effectuer des requêtes sur un cluster5 Hadoop en langage SQL et Cassandra qui est une base de données orientée par6 colonnes de type NoSQL. Cette nouvelle génération d’outils a donné naissance à une architecture dites «scale- out» (cf glossaire) et donc à extensibilité horizontale qui permet de nombreuses applications dédiées. Que ce soit au niveau des outils ou des architectures, le domaine de la Big Data a évolué très rapidement ces dernières années et les marques se sont souvent découragées face à cette évolution technique complexe. Si certaines marques ont eu le courage et les moyens de s'offrir certains de ses outils, elles en sont tout de même venu à se poser la question de la récupération des données dont elles disposent. II convient de savoir que les données provenant des réseaux sociaux sont à quasiment 85% détenues par les géants : Facebook, Google7 et Twitter et qui selon leurs envies définissent les règles de la récupération de données. Les marques peinent donc à suivre et à comprendre ces nouveaux usages, les opportunités et les risques de ces données. Si les entreprises disposent de ces outils, elles en viennent à se poser la question de la récupération des données dont elles disposent. Sémaweb "La méthode agile" / Consulté le 07/03/2016 : http://www.semaweb.fr/101-prestations/2714 Wikipédia "Hive" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Apache Hive5 Wikipédia "Cassandra" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Cassandra (base de6 données) Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 07/03/2016 : https://www.cnil.fr/fr/loi-78-17-du-6-7 janvier-1978-modifiee
  7. 7. 9 IBM a déclaré que « 90% des données de l'entreprise seraient inexploitables » . Les8 entreprises utilisent des outils trop traditionnels, en mode macro, et cela entraîne la perte de beaucoup de données. Les données exploitables seraient donc partielles, informelles ou non consolidées. La société a notamment mis en garde les entreprises en déclarant : «Plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes.» et le directeur du département analytics déclarait en 2001 que «les entreprises les plus chanceuses sont capables d'analyser 7 % de leurs données tout au plus». Alan Mitchell, expert britannique de la question des données a également déclaré «le principal défi est celui de la "logistique de l'information" : comment transmettre la bonne information aux bonnes personnes, au bon format, au bon moment, pour éclairer les actions à mettre en place pour servir les objectifs business de l'entreprise sur Internet et dans le monde réel.» La disposition des bons outils n'entraîne donc pas forcément la récupération de la donnée dont veut se servir l'entreprise. La question d'analyse des données intervient également dans cette complexité technique. En effet aujourd'hui il s'avère être relativement complexe de transférer des gros volumes de données entre l'entrepôt de données et les environnements d'analyse. Cela oblige les organisations à travailler uniquement sur des données agrégées ou échantillonnées car le processus s'avère handicapant pour la découverte et l'exploration de nouvelles données. Les organisations ne sont donc aujourd'hui pas encore équipées pour analyser ces flux. Admettons que l'entreprise dispose des bons outils, qu'elle a pu récupérer les données des réseaux sociaux des mains de Facebook ou Google, qu'elle a su utiliser un processus court pour éviter le temps d'attente entre l'entrepôt et les environnements d'analyse, il lui faut tout de même se poser la question de la qualification de la donnée qu'elle compte analyser et utiliser. Lors de l'analyse de celle-ci les marques ne mettent pas à distance la qualification. Elles voient les données comme des variables mais pas comme des chiffres. Or les données n'ont pas de sens lorsqu'elles sont traitées en tant que chiffres. Médias sociaux "Les enjeux de la Big Data à l'heure des médias sociaux" / Consulté le 09/03/20168 http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a-lheure-des-medias-sociaux/
  8. 8. 10 Elles ne mettent également pas à distance la qualité des données ce qui reste l'un des enjeux majeurs de la récupération et de l'analyse de celles-ci. En effet il faut déterminer leur influence et leur pertinence. Par exemple un commentaire n'aura pas le même poids, la même valeur, qu'un article sur un blog et un tweet d'un utilisateur lambda n'aura pas la même valeur qu'un tweet de Jack Dorsey (créateur de Twitter). Une donnée doit donc être analysée pour sa qualité et en terme de variable. La question de la complexité technique est une réelle interrogation au sein des équipes. Les utilisateurs métiers ainsi que leurs hiérarchies doivent être plus ouverts et intégrer une mentalité d’abondance pour utiliser cette puissance de calcul illimitée afin de transformer les données et créer des nouveaux algorithmes enrichis. Malheureusement aujourd’hui encore trop d’entreprises utilisent des outils d’analyse traditionnels et sont incapables de gérer le tsunami de données qui arrivent des réseaux sociaux. Selon l’étude Axys Consultants réalisée par OpinionWay , ce qui9 freine les entreprises par rapport à la data sont : la complexité technique (50%) , un manque de compétence (42%) et entre autres les moyens financiers (39%). Cette incapacité et cette peur, est notamment observée dans les grandes entreprises qui fonctionnent en silos étanches et qui freinent les différentes équipes à travailler ensemble. Aujourd’hui encore beaucoup de directions métiers qui cherchent à lancer des projets rapidement pensent qu’un projet affecté aux directions informatiques est couteux et long, alors qu’en réalité cela se révèle dans la majorité des cas inexact. Les métiers doivent accepter de travailler ensemble et de partager leurs informations pour conduire des projets Big Data efficaces et pour rentabiliser ces stratégies. En terme financier, la data représente également une complexité pour les entreprises comme cité précédemment. Toujours selon l’étude d’Opinion Way, seulement 14% des dirigeants prévoient des investissements sur la Big Data à terme. Les entreprises diminuent leurs effectifs de jours en jours et le nombre de ressources disponibles pour gérer les données diminue alors que le volume des données augmente. Les plates-formes utilisées aujourd’hui pour gérer les données ont besoin de compétences humaines très spécialisées. Cela à d’ailleurs fait émerger un nouveau métier spécialisé : le data scientist. Axys "Big Data" / Consulté le 09/03/2016 : http://www.axys-consultants.fr/wp-content/files_mf/9 1435679233CPAxys_EtudeBigData_02.07.15.pdf
  9. 9. 11 La diminution des effectifs représente donc un manque alors que en terme de coûts et selon la loi de Moore (co-fondateur d’Intel) la puissance de calcul double tous les 1810 mois à coût constant, ce qui produit en somme un avantage économique relativement prévisible. Il faut néanmoins mettre en exergue le fait que le coût d’extraction au Go est relativement faible mais le coût des licences des outils est très élevé. Pour une grande entreprise cela peut aller de milliers K€ à des M K€. Malgré le petit budget dont disposent la plupart des entreprises au niveau de la data cela représenterait donc selon la loi de Moore un investissement constant qui permet entre autre de réduire les coûts des tâches comme le reporting, la collecte de données etc. et leur permet d’innover et d’optimiser les coûts de production. Durant les prochaines années les entreprises vont devoir choisir parmi différentes stratégies pour déployer la data au sein de leurs stratégies de communication : former leurs employés en interne, former des partenariats stratégiques avec des solutions spécialisées, acquérir une start-up dans l’analyse des données ou faire appel à des fournisseurs tiers en mode SaaS. Chacune de ces solutions engrangera différents niveaux de coûts mais en effet face à l’augmentation des données elles n’auront plus le choix que de se lancer pour se démarquer de la concurrence. Bien sur chaque décision propulsera l’entreprise au statut d’audacieuse et la complexité technique que cela entraînera n’en sera que bénéfique à son fonctionnement. Certaines entreprises investissent déjà lourdement dans l'analyse de données pour s'améliorer et gagner en parts de marchés. Ces entreprises sont : Amazon, Facebook, Google, Uber ou encore Airbnb. b. La complexité légale La Big Data entraîne une complexité légale à savoir ses contours qui sont encore flous et posent de nombreuses interrogations. La loi informatique et liberté du 6 janvier 1978 fait la distinction entre données11 comportementales et données personnelles. Futura Science "Loi de moore" / Consulté le 09/03/2016 : http://www.futura-sciences.com/magazines/10 high-tech/infos/dico/d/informatique-loi-moore-2447/ Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 09/03/2016 https://www.cnil.fr/fr/loi-78-17-du-6-11 janvier-1978-modifiee
  10. 10. 12 En effet une donnée dite personnelle est récoltée grâce à un formulaire que les utilisateurs remplissent sur Internet par exemple. En revanche les données dites comportementales sont des données anonymes qui ont été récoltées via un volume important d’utilisateurs. Il convient donc de savoir que seuls les traceurs comportementaux nécessitent l’accord de l’utilisateur alors que les traceurs techniques mis en place par les sites e- commerce par exemple n’ont pas besoin du consentement de l’utilisateur. La loi déclare également : « les données à caractère personnel ne peuvent être collectées et traitées que de manière « loyale et licite » nécessitant d’obtenir un accord préalable des individus et de ne pas les utiliser pour autre chose ». Par ailleurs certaines données dites sensibles sont tout simplement interdites de collecte ou traitement: les données de santé (il existe quelques exceptions), origines raciales, opinions politiques, religieuses etc... Cependant il convient de remarquer que toutes les autres données peuvent être exploitées et que les détournements sont possibles. La loi ne parvient pas à fixer un cadre clair. La question que se posent les marques est donc de savoir si une donnée est personnelle ou non afin de l'utiliser. La CNIL soulève de nombreux débats à ce sujet car selon ses termes une adresse IP est une donnée personnelle, or une adresse IP est affectée à une machine et non à un individu. Une adresse IP est-elle donc une donnée personnelle ? Du côté des entreprises la CNIL tente de cadrer leurs agissements. Elle les a notamment, depuis 2014, obligées à supprimer au bout de 13 mois les données personnelles des internautes qu'elles ont pu récolter grâce à des formulaires, (sachant que les données récoltées anonymement ne sont pas inclues dans cette décision). Les entreprises n'ayant pas supprimé les données en 2015 ont donc été mises en demeures par la CNIL. Le géant Facebook a d'ailleurs été mis en demeure en 2016 car il trackait les utilisateurs alors même qu'ils n'étaient pas connectés sur le réseau social. Plusieurs autres faits sont reprochés à Facebook comme : «le recueil et traitement sans consentement des opinions politiques, religieuses, et-liées-à l'orientation sexuelle des utilisateurs, le dépôt des cookies publicitaires sans informations au préalable et le transfert des données des utilisateurs européens vers les Etats-Unis (plus possible
  11. 11. 13 depuis une décision de justice du 6 octobre 2015 )». Le cloud s'avère être également12 un souci dans l'analyse des données car ils nécessitent de transférer les data vers des serveurs dont la localisation est opaque. Aujourd'hui les entreprises ont besoin d'être rassurées sur le fait que leurs données se seront pas stockées aux Etats-Unis.13 La présidente de la CNIL va même plus loin car elle «demande aussi que les membres puissent s'opposer à la combinaison de l'ensemble de leurs données à des fins publicitaires». Cela reviendrait à la fin de la publicité ciblée et donc à une grande part des revenus du réseau social, ce qui serait catastrophique pour le bien-être financier du géant. L’entreprise aurait 3 mois pour se remettre en conformité sous peine de poursuites judiciaires. Du côté des utilisateurs la CNIL met également des actions en place. Elle a mis en place en 2014 une procédure de plainte afin que les utilisateurs puissent se retourner contre les entreprises qui ont dépassé leur délais de conservation des données. Il s’avère cependant très complexe pour les utilisateurs de mener ces procédures et de savoir quelles entreprises conservent leurs données et pourquoi. L’article 40 de la loi permet même que « Toute personne physique justifiant de son identité peut exiger du responsable d’un traitement que soient, selon les cas, rectifiées, complétées, mises à jour, verrouillées ou effacées les données à caractère personnel la concernant, qui sont inexactes, incomplètes, équivoques, périmées, ou dont la collecte, l’utilisation, la communication ou la conservation est interdite.  » Et il existe également un droit d’opposition « Vous pouvez vous opposer, pour des motifs légitimes, à figurer dans un fichier. En matière de prospection, notamment commerciale, ce droit peut s'exercer sans avoir à justifier d'un motif légitime. Vous pouvez vous opposer à ce que les données vous concernant soient diffusées, transmises ou conservées. ». En effet la data se trouve être une problématique juridique très complexe car elle se trouve au croisement de plusieurs régimes : la propriété intellectuelle, le droit d'auteur, le droit des systèmes d'information et le droit des bases de données. Cnil / Consulté le 11/03/2016 https://www.cnil.fr/frfinvalidation-du-safe-harbor-par-la-cour-de-justice-de-12 lunion-europeenne-une-decision-cle-pour-la-o CHEMINAT J. "La justice européenne invalide le Safe Harbor, et après ? / Consulté le 22/04/201613 http://www.silicon.fr/justice-europeenne-invalide-safe-harbor-apres-128210.html
  12. 12. 14 De plus la récupération et l’analyse des données n’est encadrée par aucun statut légal. Ce sont les propriétaires de ces contenus qui régissent cet univers. En 2013 la Commission Européenne a mis en place un groupe de travail sensé réfléchir sur le14 statut légal de cette exploitation automatisée des données mais les résultats ne sont pas encore concluants. Des propositions de licence ont été présentées afin de maintenir un droit de regard sur les projets de recherches mais les défenseurs de «la culture libre» les ont rejeté en indiquant que les données devraient avoir les mêmes droits que la citation. Les contracteurs et les défenseurs de la data ne parviennent donc pas à rédiger un statut légal probant. L’exploration des données pose également différents problèmes. Il convient que lorsque le nombre de données est trop grand, il faut les exporter pour les analyser mais cela implique qu'elles soient disponibles à l’ensemble du groupe de recherche et donc d'excéder la limite du «cercle familial». De plus en Europe il y a un droit sur les bases de données qui possède un contour flou car il est prévu que les bases durent 15 ans mais elles sont sans cesses réactualisées ce qui change leur statut. L’application de cette loi est donc relativement souple et permet la majorité des initiatives de data mining. Certains experts déclarent donc qu’en état de fait le data mining est interdit car on ne peut pas extraire les données sans l’accord de son propriétaire. Cela dit bon nombre d’experts ne sont pas d’accord avec ces propos. En effet en France le code de la propriété intellectuelle porte sur les créations intellectuelles (oeuvres) mais pas sur les expressions originales (paroles) ce qui revient à dire que les données et les informations individuelles ne sont pas concernées par cette loi. Si un cadre juridique venait à être déclaré il faudrait se poser la question de son application. Faudrait-il l’appliquer en amont de la loi ou en fonction du résultat ? La loi informatique et liberté n’a pas encore de réponse à cette question et en appelle à une réflexion approfondie. L’Union Européenne travaillerait sur un projet de loi pour répondre à ces différentes questions juridique courant de l’année 2016. Il devrait permettre aux utilisateurs de mieux comprendre et d'avoir un droit de regard sur les données qu'utilisent les marques. CNPD / Consulté le 11/03/2016 http://www.cnpd.public.lu/fr/commission-nationalehQtivites-eur-inter/14 groupe29findex.html
  13. 13. 15 c. L’éthique L’éthique est un code moral et comme tout code moral il évolue avec le temps. Le code devient flou lorsqu’il s’agit de la data et cela entraîne une certaine complexité. La revente de données personnelles a toujours existé mais n’était pas aussi médiatisée il y a quelques années. Cela ne fait que très peu de temps que les utilisateurs ont eu connaissance de la récupération et de l’utilisation de leur données à des buts non pour pro lucratif grâce aux médias et à leur curiosité personnelle. Il serait inexact de déclarer que les utilisateurs sont totalement au fait de ce qu'il advient de leurs données. Pourtant la loi actuelle prévoit que chaque individu a un droit d’accès et de modification sur ses données. Malheureusement personne à ce jour ne prend le temps de lire les mentions légales ou ne demande un droit de regard et de mise à jour sur les données extraites. Dans la plupart des cas ils ne sont tout simplement pas avertis de la récupération de leurs données. Ils sont bien évidemment contre et ne voient pas l'intérêt in fine comme j'ai pu le voir dans mes focus groupes (voir annexe). Pour eux la Big Data n'a rien d'éthique quelque soit l'utilisation, elle peut juste parfois se révéler bienveillante lors de cas exceptionnels. Du côté des entreprises, peu respectent les valeurs dites morales envers leurs utilisateurs. Elles ne collectent pas les données pour être au service de leurs clients, elles n'utilisent pas ces mêmes données dans un cadre loyal et sincère, elles n'indiquent pas le temps de récupération et de stockage de ces dernières etc. Beaucoup d'entreprises se cachent aujourd'hui derrière des cookies peu clairs afin de contourner la finalité spécifique mentionnée dans la loi de 1978 . Qui prévoit que « le15 responsable du traitement doit associer à tout traitement de données personnelles une finalité spécifique et la respecter pendant tout le traitement sous peine de lourdes sanctions pénales (5 ans d'emprisonnement et 300.000 euros d'amende). » Elles ne font pas la balance entre leur intérêt légitime et les libertés fondamentales des utilisateurs et cela remet en cause les impacts des études qu'elles mènent, qu'elles soient positives ou négatives. Données personnelles "Le principe de finalité" / Consulté le 13/03/2016 https://15 www.donneespersonnelles.fr/le-principe-de-finalite
  14. 14. 16 Les organisations peuvent donc respecter la loi en rédigeant des mentions légales qu'aucun utilisateur ne lira jamais, mais cela ne veut pas dire pour autant qu'elles sont bienveillantes. Chaque entreprise détermine comment elle veut exploiter les données et comment elle veut être perçue par rapport à cela. En effet une mauvaise exploitation des données et une mise en lumière des activités illicites des entreprises peuvent engendrer d'énormes scandales et de ce fait ternir l'image des organisations. Pour exemple au Pays-Bas la banque ING direct a été accusée de vente de données clients. Même si cette accusation s'est révélée fausse, les déclarations de la banque étaient floues et cela a gravement nui à leur image. Le problème de confiance entre les utilisateurs et les marques est aujourd'hui un réel enjeux. Du côté des réseaux sociaux qui détiennent quasiment toutes les données que souhaitent exploiter les marques, il existe une réelle course à la revente des social data* (*données collectées sur les réseaux sociaux). En effet Twitter est associé au géant de l’analyse prédictive GNIP et Facebook à l’entreprise Datasift. Les deux réseaux sociaux sont donc rivaux également sur la revente des données personnelles de leurs utilisateurs. Mais ils se dédouanent de toute infraction au code moral en affirmant qu’ils ne louent l’accès que à des sociétés intermédiaires sélectionnées et que ce sont ces sociétés qui facturent l’exploitation aux annonceurs. Les géants Facebook et Twitter ne considèrent donc pas qu’ils enfreignent un code moral ou éthique et rejettent en quelque sorte la faute aux sociétés intermédiaires. Plusieurs enjeux sont donc liés à l’éthique de la donnée : la sécurité de celle-ci, la maîtrise, la transparence, le respect de la vie privée et enfin le libre arbitre. En effet aujourd’hui la production de contenu est complexe et peut venir d’une activité humaine, de capteurs, de traitements et d’enrichissements provenants de différents acteurs. Les organisations captent ces multiples flux grâce aux différentes méthodes et solutions, mais cela ne se révèle pas toujours très moral, loin de là. L’enjeu de disparité internationale se pose également en terme de complexité. En effet les entreprises se trouvant dans plusieurs pays doivent appliquer différentes législations et cela complexifie la collecte et l’utilisation des données.
  15. 15. 17 Les conditions autour de la data ne sont pas les mêmes dans chaque pays et certaines entreprises jouent de ces conditions pour s'approprier un avantage compétitif. L’éthique est donc absente de leurs démarches. Pour regagner la confiance de leurs utilisateurs et in fine promouvoir des services qui se disent respectueux, les entreprises doivent : intégrer la protection de la vie privée dans leurs démarches, garantir un niveau très élevé de protection des données. Mais également garantir une visibilité à l'utilisateur, renseigner sur l'algorithme et le traitement, ainsi que sur la portabilité des données. Ce n'est qu'à ces conditions que les entreprises pourront prétendre mener des stratégies de Big Data qui se veulent respectueuses envers leurs clients/utilisateurs. C'est une relation de confiance qui doit s'établir avec le marché, pour que l'utilisation de la donnée soit pertinente, durable et garantisse une éthique. Car une stratégie Big Data a pour but de servir l'utilisateur en lui communiquant les bonnes informations au bon moment mais la notion de « service » reste encore peu utilisée par les entreprises actuellement.
  16. 16. 18 a. Un ciblage beaucoup plus pertinent
 En ce qui concerne l’audience ou la communauté d’une marque, elle doit être entendue et comprise pour avoir de la valeur, or encore beaucoup de marques aujourd’hui ne parviennent pas à comprendre et à (ré)agir de manière adéquate aux comportements de leurs clients/utilisateurs. Elles ne parviennent pas à exploiter les données récoltées au sujet de leurs utilisateurs à leur avantage. C'est grâce à la Big Data qu'elles peuvent y parvenir. Les marques se demandent encore comment appréhender et cibler leurs audiences. Elles se questionnent sur le fait de commencer par un ensemble de données sur un public large pour resserrer les utilisateurs et ainsi optimiser leur ciblage ou alors débuter leur ciblage sur un ensemble très restreint pour l’élargir par la suite. Les deux voies d’analyse sont possibles mais l’approche choisie par l’entreprise dépend essentiellement de ses moyens. Les grandes entreprises ayant des moyens et une base de données déjà existante peuvent choisir l’approche d’un ciblage très précis pour l’élargir. Or les startups qui ne disposent pas encore de base données ne peuvent privilégier cette approche. Il est donc très important de choisir sa voie d'entrée dans une stratégie Big Data visant à cibler de manière plus fine une audience, sinon cela risque de ne rapporter aucun bénéfice et une perte d'argent considérable à la marque. Aujourd’hui concrètement il n’est plus question de segmentation au sens propre du terme. Le ciblage doit être fluide et évolutif, au rythme des changements de comportement des consommateurs. En effet, une audience ne se comporte quasiment jamais de la même manière d’une campagne digitale à une autre. Les marques doivent donc être réactives, spontanées et adapter leur ciblage en temps réel pour espérer délivrer le bon message aux bonnes personnes et au bon moment. II. Quelques marques même si elles restent rares voient l’opportunité que peuvent apporter les données..
  17. 17. 19 Prenons l'exemple du groupe media belge Roularta qui a utilisé la plateforme de16 marketing relationnel Selligent afin d'augmenter son nombre d'inscrits et améliorer sa17 rétention grâce à un ciblage plus précis. La plateforme a proposé une approche reliant le transactionnel et les données CRM afin de cibler lors des campagnes de communication les non-abonnés de manière qualitative et de ne plus importuner les personnes étant déjà abonnées. L'entreprise a donc défini des segments comportementaux (abonnés, non-abonnés) afin de communiquer ces informations précieuses à leur service publicitaire dans le but de réserver des emplacements publicitaires dédiés à un profil utilisateur défini et non plus réserver un emplacement dans une section définie sans réelle cible déterminée. Un ciblage doit donc être précis et juste pour rapporter un quelconque bénéfice à la l'entreprise. Les marques ne doivent cependant pas se lancer dans un ciblage excessif et répétitif qui risque de lasser les utilisateurs. Encore trop de marques martèlent sans arrêt les internautes de publicités sur Facebook, Twitter et Instagram après un seul regard sur un site web. Mais cela apporte t-il réellement une plus value ? Cette démarche se conclue t-elle par un achat ou du brand love ? Dans la quasi totalité des cas la réponse est non. La fréquence de diffusion des annonces et le re- ciblage/ re-targetting de celles-ci doit donc être maîtrisée avec parcimonie afin d’être efficaces et toucher les bons utilisateurs au moment propice. Le trop grand nombre de publicités non ciblées et de re-targetting mal utilisés a d'ailleurs fait émerger une société florissante nommée Adblock. La société propose un plugin nommé "AdblockPlus" à ajouter à son navigateur. Ce18 dernier bloque par exemple tous les boutons likes sur Facebook afin de ne plus être profilé par des publicitaires à des fins commerciales. Roularta Media Group : http://www.roularta.be/fr/accueil/RC-1184688299798.html16 Selligent "Roularta" / Consulté le 14/03/2016 https://www.selligent.com/sites/default/files/media/case-17 study-roularta-fr.pdf Adblock : https://adblockplus.org/fr/subscriptions18 Exemple d'application AdBlockPlus sur Facebook
  18. 18. 20 La publicité sur les réseaux sociaux que ce soit sur Facebook, Twitter, Instagam ou YouTube est intéressante pour les annonceurs, dans la mesure où elle permet de diffuser des campagnes, en fonction des centres d'intérêts des utilisateurs. La liste "anti-sociale" de la société Adblock, qui comme son nom l'indique "boycotte" les réseaux, se révèle être une réelle catastrophe pour les marques et pour les réseaux sociaux. Privées de données fines et précises sur les utilisateurs les marques devraient retomber dans des campagnes de masse, non ciblées qui globalement rapportent des bénéfices financiers beaucoup moins élevés. Les réseaux sociaux quant à eux perdraient également des données précieuses qu'ils peuvent revendre aux annonceurs. Ce manque à gagner plongerait les "géants" dans un vaste trou financier. A l'heure où les consommateurs ne veulent plus de publicités intrusives et de masses, il est donc nécessaire pour les marques de créer des stratégies Big Data efficaces afin de cibler plus précisément les utilisateurs et ne plus diffuser de publicités de manière excessive. Comme évoqué plus haut, les utilisateurs aujourd’hui souhaitent être considérés comme des personnes à part entière / uniques et ne plus subir un ciblage de masse et être noyés par des publicités qui ne sont pas en adéquation avec leurs envies, leurs valeurs etc. Malgré le fait qu’ils soient derrière un écran comme des millions d’autres utilisateurs et même si la récupération de leurs données ne les enchantent guère, ils préfèrent de loin recevoir des annonces ciblées en fonction de leurs goûts et à des moments bien définis plutôt que des annonces inappropriées . Les marques doivent prendre en compte de nombreuses variables pour cibler correctement leurs audiences sur les réseaux sociaux : la visibilité, l’engagement, le comportement, les réactions mais aussi l’étape suivante.
  19. 19. 21 Après la visite de la page fan de la marque où va l’utilisateur ? que fait-il ?. La position sociale, socio-démographique, les centres d'intérêts etc. Toutes ces variables doivent amener la marque à se demander comment elle peut cibler et mieux servir à l’avenir son audience sur les réseaux sociaux. Même si encore beaucoup de marques sont dans l’incapacité de visualiser les avantages d'une analyse, de nombreuses marques ont su tirer profit de la technologie Big Data pour obtenir un ciblage beaucoup plus pertinent lors de leurs communications digitales sur les réseaux sociaux. Celles qui ont su prendre le virage de la Big Data ce sont donc lancées dans le social media listening : "activité d’écoute (d’une entreprise ou d’une marque le plus souvent) des internautes présents sur les médias sociaux. (...) Le social listening concerne principalement l’écoute des propos concernant directement ou indirectement la marque. Mais pas seulement, car il peut être également profitable à la marque pour identifier par exemple des tendances de consommation que des études marketing conventionnelles n’auraient pas encore révélées." Grâce à cette écoute, elles peuvent par exemple déterminer que leur cible B2B est active le lundi matin sur Linkedin depuis son ordinateur et que leur client final est plus actif le samedi matin depuis son smartphone via Facebook. L’analyse de l’audience sur les réseaux sociaux permet réellement de déterminer les différents profils et comportements ainsi que les insights qui vont permettre de créer des campagnes impactantes et pertinentes. Facebook ayant capté cette opportunité a développé depuis plusieurs années : Custom Audience. Cette solution permet d’obtenir de manière très sécurisée et anonyme un volume important de données. Les marketers peuvent donc s’en servir pour créer des segments d’audience propre à leur marque sur le réseau social grâce à : des données CRM (de leurs clients), des données de campagne (ouvertures mails), des données provenant de leur site internet et des données tierces. Il est important néanmoins de déterminer des objectifs clairs et de déterminer la valeur de chaque entrée pour faire les croisements adéquats afin d’obtenir in fine le bon ciblage. Si une marque souhaite cibler une audience grâce à différentes données elle peut se baser sur des critères : géographiques, socio-démographiques, les centres d’intérêts etc.
  20. 20. 22 Facebook a donc comme Twitter, Quantcast, Facebook ou encore Google capté la demande des entreprises concernant les frais qu'entraine la Big Data pour obtenir une base de données très pointue pour faire de la publicité. Ce nouveau marché leur permet donc aujourd'hui, de se faire beaucoup d'argent en réduisant considérablement l'accès à la donnée ciblée. En 2015 Nextperf, une plateforme de marketing à la performance, a lancé : « Look alike audience  » qui permet de partir d’une audience d'un site web pour utiliser Facebook Custom Audience afin de rapprocher les profils similaires non acquis à ceux déjà acquis grâce aux données. Le site de e-commerce Spartoo a servi de cobaye et a testé pendant 10 jours cette19 solution sur différents segments bien identifiés. Selon leur communiqué de presse : +12% de taux de conversion et +138% de taux de clic. En somme il y a eu -9% de CPO (coût par achat) ce qui représente une économie non négligeable en terme de ciblage d’audience. Nous pouvons également citer le cas d’Etam , acteur majeur de la mode féminine sur20 les marchés européens qui avait pour objectif d’adapter sa segmentation de reciblage suivant sa stratégie média et sa problématique ROIste ainsi que de mettre en place un levier de reciblage à la performance sur un objectif de coût d’acquisition dédupliqué. Grâce à la solution Look alike de Nextperf les résultats sont significatifs : +7% de ventes globales, 400K de visites en 8 mois, 0,3% de taux de clic moyen. Les solutions se diversifient donc pour garantir aux marques un ciblage toujours plus adéquat en fonction avec des KPI's des marques. La société Axciom travaille avec une solution qu'elle a développée, pour de nombreux clients : Social Connect qui permet avec Facebook Custom audience d’affiner le21 ciblage des publicités. Pour un éditeur outre-manche qui souhaitait recruter de nouveaux abonnés sur Facebook, la société a testé et comparé deux mécaniques display sur le réseau social. Spartoo : http://www.nextperf.com/wp-content/uploads/2015/03/Spartoo-FR.pdf19 Etam : http://www.nextperf.com/wp-content/uploads/2015/03/Etam-FR.pdf20 Axciom "Social Connect" / Consulté le 14/03/2016 : http://dq1prkp9edh4z.cloudfront.net/wp-content/21 uploads/2013/11/Acxiom-accompagne-Paypal-dans-la-segmentation-et-la-personnalisation-de-sa- relation-client.pdf
  21. 21. 23 La première campagne a utilisé un ciblage par rapport aux informations renseignées par les membres (âge, sexe, localisation, centres d’intérêts..). La seconde à été réalisée à partir des données de Acxiom et ciblée sur des profils de lecteurs quotidiens. Les résultats ont montré que la publicité réalisée avec le ciblage Axciom était plus performante et que le taux de clic avait été de 60% supérieur à la première campagne. Un autre exemple de la société Acxiom est également parlant. La chaîne d’hôtel Best Western, a dans un premier temps transféré sa base de clients potentiels sur Facebook pour faire correspondre le coeur de cible aux utilisateurs du réseau social. Dans un second temps Acxiom a étendu la couverture de cibles Facebook à 700 000 « lookalike ». Le regroupement de ces deux bases de données combiné à la solution de la société a permis plus de 15 millions d’impressions et 3 194 clics. Les marques ont donc réellement besoin d’utiliser des solutions innovantes et adaptées aux nouveaux usages des utilisateurs ou de s’allier à des partenaires qui peuvent optimiser leur ciblage de manière conséquente. Outre Facebook, la data est également présente sur Twitter, pour obtenir un ciblage plus précis. Il faut savoir que Twitter a été le premier réseau social à louer l’accès aux données de ses utilisateurs à des intermédiaires a des fins marketing. Si le profil des utilisateurs n’est pas détaillé comme celui d’un utilisateur Facebook, toute la mécanique de ciblage du réseau repose sur des critères comportementaux et contextuels qui permettent un ciblage au moins aussi précis. Le réseau social permet depuis 2015 d’établir des audiences personnalisées en fonction de publicités (Twitter Ads). Les marques envoient simplement un fichier avec les données de leurs clients, le réseau social rapproche ce fichier avec des personnes actives sur Twitter afin de créer un ciblage pertinent et efficace pour les campagnes. La société Axciom utilise cette méthodologie dans ces solutions datamining
  22. 22. 24 La société Quantquast qui gère une plateforme de données en utilisant la Big Data et22 le machine learning, aide les annonceurs à réaliser des campagnes marketing et des expériences utilisateurs enrichies. Pour sa propre promotion la société a décidé de mener une campagne de publicité sur Twitter associée au ciblage d’audience personnalisée afin d’attirer de nouveaux clients. La société a pour cela intégré des tags à son site afin de créer des segments permettant d’identifier les utilisateurs de Twitter. Twitter a ensuite de la même manière que la solution « look alike » identifié des audiences similaires dans sa base utilisateur. Une fois les segments identifiés, les options de targeting ont été configurés et des tweets ont été créés afin d’augmenter les téléchargements du dernier livre blanc de la société. Le taux d’interaction a été de 9,55% ce qui est très rare pour ce réseau social. Le CPA* (*"mode de facturation d’un espace publicitaire ou d’une action marketing qui consiste à facturer l’annonceur en fonction des résultats obtenus lors de la campagne") moyen a été inférieur de 50% à la moyenne. La vice présidente de Quantcast Christina Cubeta a déclaré : «  Les données des audiences personnalisées nous ont permis de toucher des utilisateurs au-delà de notre base d’utilisateurs connus et d’atteindre un taux d’interaction incroyable. La popularité de Twitter nous aide à améliorer encore davantage la performance de nos campagnes et à réduire le CPA. Twitter Ads est en tête de liste de nos partenaires les plus performants. ». La data permet donc que ce soit sur les réseaux sociaux ou sur d’autres médias d’obtenir un ciblage plus pertinent et plus qualitatif de par des solutions optimisées et pensées pour maximiser les campagnes marketing. Les marques devraient s'y mettre rapidement pour détenir un avantage hautement concurrentiel. b. Des contenus optimisés L’analyse des données des utilisateurs permet aux marques de mieux cibler certes, mais également de créer des contenus créatifs et optimisés sur les réseaux sociaux. Depuis peu de temps nous avons vu apparaitre un nouveau terme dans le monde de la donnée : le data storytelling. Quantcast : https://www.quantcast.fr/case-study/quantcast-twitter-tailored-audiences-drives-leads-22 at-50-below-cpa/
  23. 23. 25 Ce terme désigne le fait d’utiliser la data pour créer des communications enrichies, impactantes et inspirantes. Le but est tout simplement de tirer le meilleur de la donnée pour créer un contenu valorisant pour une audience. Les entreprises qui savent aujourd’hui tirer parti de la donnée pour en créer un contenu sont parmi les plus innovantes de leurs domaines. Certaines sociétés ce sont d'ailleurs spécialisées dans ce data-storytelling comme par exemple ADventori qui propose de mettre à disposition des annonceurs des « data- scenarists qui feront la combinaison entre les données et les objectifs de l’annonceur, et ainsi établir la scénarisation de la campagne : à chaque nouvelle exposition, l’utilisateur verra un nouveau message. » Selon la directrice du marketing Carole Ellouk ce procédé remet « la création au centre des problématiques d’achats média. Alors que celle-ci avait quelque peu été mise de côté face aux objectifs de volume et de prix de l’achat média. » La data retrouve donc sa place dans le processus créatif et dans l’achat média. Avant de faire appel à une société spécialisée les marques ont besoin de déterminer les données qu'elles pourront utiliser afin d'optimiser leurs contenus. Différents types de données permettent l'élaboration de contenus créatifs : - Les données relatives à la connaissance du client. En effet il est important, voir vital, de connaitre l’expérience de l’utilisateur en question, s'il est déjà familier avec la marque, s'il a déjà une relation avec elle, si la marque lui apparait en top of mind, s'il a déjà entendu parler d'elle etc. Cette donnée est la plus utilisée lors des campagnes digitales. - Les données relatives au contexte de l’utilisateur. Il est important de savoir comment il va rentrer en contact avec elle. Car la marque ne va pas proposer le même contenu si c’est un prospect ou si c’est un nouveau client. - Les données relatives au contexte d'utilisation du produit proposé par la marque. Ces données sont également importantes à connaître et sont généralement en open data ce qui permet d’obtenir rapidement des informations. - Les données relatives à l’annonceur et à l’éditeur. Enfin la combinaison de toutes ces données pourrait permettre à toutes les marques de créer des contenus optimisés, performants et attractifs pour n’importe quel utilisateur. Malheureusement à l’heure actuelle seul Facebook ou Google sont capables d’allier toutes ces données dans un but créatif.
  24. 24. 26 La société Linkfluence a notamment déterminer l'importance des données relatives à la connaissance du client pour le compte de l'un de ses annonceurs. En effet la société a monitoré les conversations sur les réseaux sociaux "autour d’une crème de beauté largement distribuée en Europe, les Social Media Researchers de Linkfluence ont réalisé que l’immense majorité des consommateurs connectés et intéressés avaient une peau mate ou foncée. Problème : cette population était très peu prise en compte dans la communication de la marque. Ses visuels montraient uniquement des mannequins à la peau claire. Grâce à la social media data, des contenus spécifiques ont été créés pour aborder les problèmes d’épidermes spécifiques de ces clients et qui grâce à cette prise en compte, sont devenus des acheteurs à cause desquels ils achetaient justement ces produits." La connaissance du client a donc permis à cette société d'adapter ses communications pour être au plus proche de la cible qui utilisait et parlait le plus de son produit. Sans le social media listening les marques sont dans l'impossibilité de détecter des insights comme ceux-là. En terme de données relatives au contexte d'utilisation, prenons le cas de la société Aldebaran , concepteur de robots humanoïdes compagnons. La société a fait appel à23 Linkfluence (leader français du social media intelligence) pour déployer une communication horizontale* (*"Cette forme de communication a pour finalité de favoriser les échanges entre les différents acteurs de l’entreprise, dans la perspective de partager les connaissances et d’intégrer tous les salariés dans la prise de décision.") grâce à une connaissance ciblée de chaque internaute. Petit à petit les robots humanoïdes s’immiscent dans les foyers des particuliers et cela est aujourd'hui perçu de manière très enthousiaste même si les robots suscitent de nombreuses interrogations. Les réseaux sociaux représentent un outil de premier choix pour la marque afin de répondre aux questions de leur audience. Linkfluence a mis en place grâce à sa solution nommée "Radarly", une écoute du web social qui a permis d’identifier les membres clés de la communauté de la société et ainsi de mener des actions ciblées au quotidien. Cela a permis à la marque de rentrer en contact avec des utilisateurs qui ont besoin d’information, s’intéressent à la société et s’expriment sur les produits. Les contenus produits sur les réseaux sociaux par la marque sont donc intrinsèquement liés aux centres d’intérêts de chaque utilisateur. Linkfluence "Aldebaran" / Consulté le 15/03/2016 : http://linkfluence.com/2016/01/04/aldebaran-animer-23 sa-communaute/
  25. 25. 27 La donnée permet donc d’analyser en profondeur les contenus, les réactions, les comportements etc. des communautés des marques et d’en faire émerger des sujets et des thèmes qui permettent d’optimiser les prises de paroles sur les réseaux sociaux. Les contenus optimisés grâce à la data ont généralement un taux d’engagement beaucoup plus élevé que les publications produites de manière créative aléatoire. La Big Data peut donc s’avérer utile créativement et obtenir des contenus à plus fort taux d'engagement. Le constructeur automobile Mercedes-Benz avait déjà en décembre 2012 utilisé la24 Big Data pour produire des contenus dans le cadre d'une campagne digitale sur les réseaux sociaux. Le constructeur a créé l’opération Tweet-Fleet. Pour promouvoir la fonction park assist qui reconnaît les places de parking vides, ils ont orchestré une opération offline mais également online sur Twitter. Grâce à la data des GPS des voitures et un système Arduino* (*"C'est une plate-forme basée sur une interface entrée/sortie simple. Il était destiné à l'origine principalement mais pas exclusivement à la programmation multimédia interactive en vue de spectacle ou d'animations artistiques.") ainsi qu’un couplage en relai PHP* (*"Le PHP est un langage informatique utilisé sur l'internet. Le terme PHP est un acronyme récursif de "PHP: Hypertext Preprocessor". Awards "Mercedes Benz Tweet Fleet" / Consulté le 17/03/2016 http://awards.jvm-neckar.de/2012/24 tweet-fleet/fwa/
  26. 26. 28 Ce langage est principalement utilisé pour produire un site web dynamique. Il est courant que ce langage soit associé à une base de données, tel que MySQL."), des tweets étaient automatiquement générés pour indiquer à tous les followers du compte dédié que des places de parkings étaient disponibles à proximité ou non de leur emplacement. Cette campagne a été très médiatisée et a connue un fort succès auprès des utilisateurs qui ont perçu le côté pratique et intéressant de la récupération de données à des fins servicielles. La société de réservations d’Hôtels TripAdvisor a également surfé sur ce qu’on25 appelle le data storytelling pour une campagne lors de la coupe du monde de 2014 au Brésil. La société a prédit pour chacun des matchs de la coupe, quelle équipe allait gagner en comparant tout simplement les hôtels où les joueurs séjournaient. Pendant les matchs des tweets créaient un lien entre la partie de football et les appréciations sur les hôtels. Grâce à un algorithme relativement simple, la société commentait donc le jeu des joueurs en fonction de la qualité de leur sommeil la nuit passée et pronostiquait grâce à cela l'équipe gagnante et l'équipe perdante. Les prévisions se sont avérées correctes dans 93% des cas et TripAdvisor a donc prouvé l’efficacité autour des discussions sur les hôtels. Le storytelling intervient donc à l’intersection entre les médias sociaux et la Big Data. Pour créer une vraie histoire aujourd’hui sur les réseaux sociaux, il faut visualiser, écouter et savoir interpréter la donnée. Parfois le contenu peut se révéler extrêmement créatif grâce à la data comme relaté précédemment. Une section « Creative Data » a même été ajoutée aux Cannes Lions pour récompenser les marques les plus audacieuses. Les marques ont donc tout intérêt à ce familiariser avec ce nouveau moyen de création pour rendre leurs campagnes plus attractives pour leurs cibles et surtout plus performantes. c. Une meilleure relation client à la clé Aujourd’hui les réseaux sociaux jouent un rôle primordial lors d’un achat en ligne. TripAdvisor : https://www.tripadvisor.fr25
  27. 27. 29 En effet les consommateurs sont de plus en plus sur Internet, sur le web social pour vérifier le prix ou obtenir des informations sur un produit ou un service avant de finaliser l’acte d’achat. Ce comportement a été nommé ROPO (research online pourchase offline) et "désigne donc un comportement d’achat quand on se place du coté du consommateur et la démarche d’utilisation d’Internet à des fins de création de trafic en point de vente physique pour les responsables marketing ou commerciaux." Et "78% des acheteurs déclarent que les avis des consommateurs encouragent leurs achats, en ligne notamment" . Les marques ont donc tout intérêt à examiner les26 conversations des utilisateurs autour de leurs produits et services mais également à fournir des informations optimisées et des services performants afin d'obtenir des conversations positives et brand-centric et d'influencer les clients potentiels de manière positive à finaliser leurs achats. Le social CRM (customer relationship management) "désigne les pratiques de gestion de la relation client sur les réseaux sociaux". L’interaction avec les consommateurs via les médias sociaux est généralement plus fructueuse et plus intime que les interactions par téléphone ou par "chat" car elle est généralement plus rapide et plus pertinente. Selon une étude du cabinet Gartner , le marché du CRM social valait 20,4 milliards de27 dollars en 2013 et dépassera de loin cette somme d’ici à 2018. Le social CRM représente donc un élément clé d'une stratégie marketing performante et peut être optimisé grâce à la donnée. En effet avec plus de 1,59 milliards d’utilisateurs actifs sur Facebook, 307 millions sur Twitter et 400 millions sur Instagram , le web social est une mine d’informations28 Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/26 communication-media/social_crm/ Source Image : http://fr.slideshare.net/Kuliza_Research/social-crm-6928709 Gartner / Consulté le 20/03/2016 http://www.gartner.com/newsroom/id/266521527 TAUZIN A. "Combien d'utilisateurs de Facebook" / Consulté le 24/03/2016 http://www.alexitauzin.com/28 2013/04/combien-dutilisateurs-de-facebook.html
  28. 28. 30 extraordinaire pour détecter des insights clients. En effet aujourd'hui un utilisateur mécontent postera un tweet ou partagera son expérience sur le mur de la page de la marque sur Facebook plutôt que de passer des heures au téléphone avec un interlocuteur qui ne l'écoutera pas vraiment. L'utilisateur sait aujourd'hui que sa voix sur les réseaux sociaux a de l'impact et cela doit être pris en compte par les marques. La voix de ces clients doit donc être intégrée aux activités marketing des marques afin d’améliorer la relation marque / consommateur. La Big Data est devenue l’approche de prédilection dans ce domaine car c’est grâce à elle, à l’analyse de ces conversations si puissantes, que les marques parviennent à mieux répondre à la demande de leurs clients en écoutant réellement ce qu’ils ont à dire. L’enjeu est donc pour les marques de suivre les insights, les réactions et les prises de parole des utilisateurs en observant leurs conversations sur les réseaux sociaux en temps réel afin de gagner en réactivité et ainsi développer une relation de confiance et solide avec les utilisateurs. Des marques ont donc fait appel à des sociétés tierces pour travailler sur leur relation client grâce à la Big Data. Pour exemple Orange , l’un des principaux opérateurs de télécommunications au29 monde, a fait appel à la société Linkfluence pour tirer parti des conversations de ses consommateurs sur le web social. Chaque produit de la marque a bénéficié d’un dispositif de monitoring propre afin d’en dégager une structuration marketing via les prises de parole des consommateurs. Les verbatims ont été captés et analysés pour en dégager des insights forts. En résultat la marque a pu ajouter ou modifier des offres produits déjà existantes ou accompagner certaines offres par des plans de communications spécifiques afin d’obtenir une meilleure compréhension de la part des utilisateurs. Les chefs de produits de la marque se servent également du dispositif au quotidien car cela leur permet de mettre à jour les FAQ lorsqu’une interrogation est décelée dans les conversations. La marque a donc réellement mis le consommateur au centre de sa stratégie afin d’obtenir un marketing opérationnel à forte valeur ajoutée. Linfkfluence "Orange" / Consulté le 24/03/2016 http://linkfluence.com/2015/04/23/consommateur-29 connecte-linkfluence-dans-le-social-hub-dorange/
  29. 29. 31 L’agence The Social client a développé un dispositif de social media intelligence et, l’un de ses clients qui l’utilise pour améliorer sa relation client, est l’opérateur de télécommunications SFR . La marque tente d’améliorer la connaissance et les30 attentes de ses clients afin d’alimenter les différentes directions du groupe et produire des campagnes et des lancements de produits réellement impactants. SFR peut aujourd’hui, grâce au dispositif de The Social client, capter en temps réel ce que disent ses clients sur ses offres et ses services. Cela permet à la marque de récupérer des données précises et qualitatives extraites des discussions sur les réseaux sociaux pour en déduire des insights forts et utiles. Outre la surveillance et l’analyse des conversations des utilisateurs avant un lancement de produit ou une campagne de communication, le dispositif leur sert également à analyser les post-conversations. C’est à dire de capter les retours des clients sur une publicité ou le lancement d’un nouveau forfait par exemple. Les marketers ont besoin d’analyser les campagnes sur les réseaux sociaux pour en dégager la nature ROIste* ("se dit d’un canal marketing ou d’un annonceur qui privilégie un retour sur investissement des campagnes le plus direct possible") pour la marque. Et les conversations des utilisateurs est un élément important de cette analyse. Les chiffres ont beau être bons, si le consommateur ne l’entend pas de la même manière une marque a besoin de le savoir pour rebondir. Dans le cadre de cette démarche, SFR tente également de déceler des signaux faibles de la part de ses clients afin de réagir de manière pro-active à des problèmes qui peuvent potentiellement s’amplifier. Par exemple si la marque détecte un tweet d’un de ses utilisateurs qui lui signale que le réseau ne fonctionne plus, il est fort probable que le réseau ne fonctionne plus ailleurs que chez le dit utilisateur. La marque peut donc faire des recherches auprès des équipes techniques et déceler une panne par exemple. L’analyse de ce tweet permettra donc à SFR de régler le problème avec rapidité et cela lui évitera des dizaines voire des centaines de tweets de mécontentement. La marque a mobilisé de nombreuses équipes pour ce projet et diffuse régulièrement des rapports à destination de ses équipes. YouTube "La relation client à l'heure du digital et de la disruption | The Social Client, PMU, SFR :30 https://www.youtube.com/watch?v=CeGJK5080YI
  30. 30. 32 Le top management est également impliqué dans cette démarche afin de les aider à comprendre plus amplement les bénéfices d’une telle stratégie. Un social wall* (*mur numérique permettant d’afficher en un seul et même endroit tous des posts des réseaux sociaux grâce à un hashtag ou tout simplement en rapport avec une marque) a même été installé dans les locaux de chez SFR pour suivre en temps réel toutes les conversations liées à la marque. SFR s’est donc investi totalement dans une stratégie Big Data qui in fine va lui rapporter des bénéfices tangibles et mesurables sur sa relation client. Le social CRM lié à la data permet donc de réellement mieux identifier les attentes des différentes typologies de clients grâce à des données précises et qualifiées. Les marques ont donc toutes besoin de fusionner leur stratégie de social CRM et la Big Data pour monitorer, comprendre, suivre, capter et gérer les conversations des consommateurs. Selon le directeur associé de la société Mc Kinsey, Eric Hazan « les entreprises qui ont une bonne connaissance du client ont une croissance supérieure à la moyenne.  » Cela s’avère donc être un enjeu stratégique déterminant pour les marques souhaitant se différencier de la concurrence, tisser des liens solides avec ses clients et connaître une croissance importante. "Le rêve des marketeurs d’optimiser leur valeur client ne pourra se réaliser via les réseaux que par le passage du seul mode transactionnel au mode conversationnel avec le client. E-commerce, M-commerce, F-commerce constituent désormais une opportunité inévitable pour une meilleure optimisation de la relation client." Et le31 community manager va jouer un rôle essentiel dans cette transition pour passer aux nouveaux "4P : Permission, Proximité, Perception, Participation". d. Une détection des signaux forts et faibles Est désigné comme un signal faible selon l’économiste russo-américain Igor Ansoff «  une information d’alerte précoce, de faible intensité, pouvant être annonciatrice Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/31 communication-media/social_crm/
  31. 31. 33 d’une tendance ou d’un événement important. » . En somme ce sont les éléments de32 perception d’un environnement, ces opportunités et ces menaces. Les signaux faibles font partis de la small data qui selon Rufus Pollock33 désigne une « quantité de données que vous pouvez aisément stocker et utiliser sur une seule machine et plus précisément sur un seul ordinateur portable ou serveur de haute qualité». Les signaux faibles détectés grâce à la small data permettent donc de répondre à un problème ou à une q u e s t i o n d e m a n i è r e m o i n s contraignante qu'avec une solution Big Data, plus lourde et plus complexe. Elle marque le début d’un processus de décision qui va permettre de réfléchir à ce signal faible pour en dégager des actions. Les signaux faibles extraits permettent d’identifier de nouveaux comportements, de nouveaux consommateurs, de nouveaux critères de segmentation etc. Sur les réseaux sociaux les contenus sont abondants et il n’est pas rare de voir émerger des signaux faibles intéressants. Mais les marques ont pour obligation d’être prudentes avec cette masse d’informations car elles ne se révèlent pas toujours pertinentes. Les signaux faibles doivent être croisés à d’autres données de sources différentes pour révéler leur valeur. Un signal faible doit donc être travaillé, il ne peut pas être utilisé tel quel lorsqu’il est détecté parmi tous les flux de données statiques. Un signal faible peut être "qualitatif, ambigu, sans pertinence intrasèque, fragmentaire et de formes et de sources diverses". Un professionnel peut s’en servir pour produire une analyse prédictive intéressante pour son client mais seulement s’il le met en contexte. M2IE "Signaux faibles et angles morts, élargir sa vision périphérique" / Consulté le 27/03/2016 http://32 www.m2ie.fr/signaux-faibles-et-angles-morts-elargir-sa-vision-peripherique/ POLLOCK R "Forget Big Data, small data is the real revolution" / Consulté le 27/03/2016 http://33 blog.okfn.org/2013/04/22/forget-big-data-small-data-is-the-real-revolution/
  32. 32. 34 Il est primordial que les marques définissent leurs objectifs afin de sélectionner ces données que représentent des signaux faibles, les traiter et les interpréter afin d’en faire ressortir des actions précises. Elles ont besoin de déterminer qu'est ce qu'une information critique pour elle, si toutes les informations fragmentaires doivent être traitées ou si il y a une délimitation des données à effectuer afin d'être en alerte et porter son attention sur un élément en particulier. Par exemple pour les sociétés de téléphonie comme SFR, Orange ou encore Bouygues Telecom une panne peut être détectée en tant que signal faible grâce à un hashtag sur Twitter ou un commentaire sur Facebook et peut donc être traitée de manière proactive. Les marques sont aujourd'hui pour la plupart très à l'écoute de ces signaux faibles mais certaines n'ont pas su y prêter attention et ce sont retrouvées sur le banc de touche. Comme exemple, nous pouvons citer l'entreprise Kodak qui n'a pas su détecter les signaux faibles annonçant le tournant du numérique. Elle n'a pas, à contrario de ses concurrents, adapté ses offres et services avec l'évolution des usages de ses clients. En 1988 elle comptait plus de 180 000 salariés aujourd'hui elle n'en compte plus que 17 000 et "se bat pour survivre" dans cet univers très largement concurrentiel. Les sociétés comme Instagram ou Snapchat ont su s'adapter à la génération connectée en écoutant les signaux faibles. Les chiffres sont évocateurs, en effet en 2012 Instagram valait 1 milliard de dollars pour 14 salariés et Snapchat valait en 2015, 20 milliards de dollars pour 60 salariés. Les signaux faibles détectés peuvent se34 transformer en signaux forts. Un signal fort est une "information qui confirme une tendance actuelle et qui permet de bâtir une stratégie de réponse adéquate" .35 Ces signaux détectés, ils représentent une opportunité de créer des produits et des services adaptés et optimisés en se calquant sur les besoins et usages des consommateurs. Inouixcurius "La force des Signaux faibles" / Consulté le 01/04/2016 http://www.inouixcurius.com/la-34 force-des-signaux-faibles/ MAUGER C. "Le glossaire de la veille" / Consulté le 01/04/2016 http://www.christianamauger.com/35 glossaire-de-la-veille
  33. 33. 35 a. Traiter le volume en déterminant des KPI’s exploitables Le volume de données est actuellement pharaonique. Pour que ce gigantesque flux complexe, qui ne cesse d’évoluer, fasse sens et devienne un vecteur utile et profitable à l'entreprise avec un retour sur investissement, il est nécessaire de déterminer des KPI's exploitables et sensés. Les KPI's « Indicateurs clés de performance (Key Performance Indicator) permettent le pilotage et le suivi de l’efficacité des éléments auxquels ils sont rattachés. Leurs principes résident essentiellement dans leur capacité à s’affranchir de la stérilité d’une donnée brute. Ils sont très utiles lors de l'analyse des stratégies Big Data et informatiques. Il est donc vital pour l'entreprise de déterminer des KPI's en adéquation avec son modèle économique, son ambition et les données dont elle dispose, pour tendre à la réussite d'une stratégie Big Data. Un KPI se détermine de plusieurs manières. Il doit être : - En cohérence avec la stratégie business de l’entreprise - Mesuré - Actionnable - Simple - Unique - Déterminé par une équipe mélangeant toutes les strates de l’entreprise - Sans limite apparente - Intégré (à l’entreprise) L'entreprise doit, avant de déterminer des KPI's sur des actions externes, déterminer des KPI's internes à l'entreprise. Ces trois KPI's sont : la synthèse, la vitesse et la signifiance. III. Mais les marques devraient adopter une stratégie social media intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété..
  34. 34. 36 Le KPI de la synthèse se définit tout simplement par une collaboration de toutes les strates de l’entreprise. La Big Data ne fonctionne pas en silos, elle ne peut être efficace si le top management n’engage pas la discussion avec le service informatique et le marketing. Les employés de chaque service doivent communiquer entre eux et déterminer ensemble l’utilité ou non d’une stratégie Big Data au sein de leur entreprise. Il est également indispensable d’obtenir l’engagement d’un expert en Big Data qui saura rassembler les employés autour des réelles opportunités et menaces de la Big Data. Le KPI de la vitesse se détermine lui par un bouleversement des méthodes de management des équipes directrices. Les méthodes traditionnelles et dépassées, où un processus durait des semaines voir des mois, ne fonctionnent plus dans un monde ou tout va toujours plus vite. La Big Data a besoin de méthodes agiles et rapides qui cassent les silos et permettent des processus courts et performants. La vitesse implique également une provision constante en terme de données, ce qui va permettre à l’entreprise de visualiser des insights sur le long terme. Un stratégie Big Data qui n’est pas alimentée par des données en flux continu n’a aucune raison d’exister. Les temps de réponse entre les différents acteurs de la stratégie doivent également être courts pour permettre des prises de décisions rapides. Le dernier KPI à prendre en compte est la signifiance. En effet l'entreprise doit déterminer si une stratégie Big Data fait sens ou non, si l'analyse des données dont elle dispose peut lui apporter de la valeur, qu'elle soit financière ou sociale. Tout le processus doit être clair et signifiant pour toutes les strates de l'entreprise afin d'être efficace. Une fois les KPI's internes détectés et formulés l'entreprise doit déterminer ses objectifs externes pour être plus performante sur les réseaux sociaux, que ce soit à travers une campagne de communication, ou une gestion de la relation client. Sur les réseaux sociaux différents indicateurs de performance peuvent être déterminés comme : l'augmentation des conversions, l'augmentation des interactions avec la communauté, l'augmentation de l'engagement de la communauté.
  35. 35. 37 Ainsi que l'élargissement de la communauté, l'augmentation du trafic généré sur le site internet ou encore l'augmentation du nombre d'achats réalisés grâce au plan média mis en place. Mais ce qui permet de savoir si la marque a atteint ses objectifs est réellement : l'intention d'achat déclarée sur les réseaux sociaux, le nombre de nouveaux leads, le taux de transformation de la campagne ainsi que le sentiment de la campagne (% positif, neutre ou négatif). Pour une campagne de communication que ce soit sur les réseaux sociaux ou ailleurs, il est essentiel de définir des objectifs de performance pour chaque cible. En effet une donnée n’a de sens que si elle révèle un insight qui permettra d’améliorer ou de créer une expérience utilisateur nouvelle pour un segment précis par exemple. Elle doit être attribuée à un but déterminé afin qu’il en résulte une satisfaction de la cible et une relation client forte et profitable pour l'entreprise. La donnée qui servira à déterminer ces KPI’s doit donc avoir un objectif clair pour servir l’entreprise et être utile. Elle doit être pensée comme un projet déterminant de la performance. Le flux de données sur les réseaux sociaux peut faire peur, le traitement peut être complexe mais la détermination d’objectifs clairs peut simplifier et clarifier une stratégie. Afin d'être appliqués efficacement ces KPI’s doivent être déterminés en real-time, selon l’environnement et la société actuelle et plus sur des objectifs passés pour être performants et apporter de la valeur à l’entreprise. b. Créer des stratégies real-time data pour faire face à la vitesse Afin de créer des stratégies Big Data rapides et performantes les entreprises peuvent s’appuyer sur ce qu’on appelle la real-time data (RTD). Cette data permet d’obtenir directement une donnée après sa collection. Il n’y a pas de délai entre le temps ou l’information est collectée et celui ou elle est traitée. Ce type de donnée est utilisée pour le tracking ou bien pour la navigation mais peut être utilisée dans d’autres situations.
  36. 36. 38 Comme vous pouvez le voir sur le schéma ci-contre, la real time data est un mélange entre plusieurs stratégies : télémesure (« Technique permettant d'obtenir à distance les valeurs de mesures effectuées dans des installations techniques. Par extension, une télémesure désigne l'une de ces mesures à distance. ») + Big Data + smart data (« Le smart data, que l'on pourrait traduire par données intelligentes, est une nouvelle approche du traitement des données. Elle consiste à extraire de l'immense masse de données procurées par la Big Data, les informations les plus pertinentes pour mener des campagnes marketing. ») + l’internet des objets et enfin une stratégie digitale. Une stratégie en real time permet donc d’agir directement dans le présent. Elle permet de prendre des décisions rapides, de détecter des opportunités pour l’entreprise à l’instant et de trouver rapidement des solutions à des problèmes. En somme la real time data permet d’augmenter la performance opérationnelle immédiate de toutes les équipes de l’entreprise. Par exemple une entreprise qui souhaite diffuser une offre promotionnelle auprès de prospects via leur géolocalisation dès qu'ils se trouvent près d'une enseigne, va privilégier une stratégie real time. En effet de cette manière et grâce à la rapidité d'acquisition des données, l'entreprise va pouvoir être pro-active et toucher sa cible avant même qu'elle n'ait eu l'intention d'entrer dans l'enseigne. L’avantage d’utiliser cette stratégie est de s’affranchir de toutes les complexités que peut entrainer la donnée comme : l’installation de capteurs, l’opération, la maintenance, les erreurs, le retravail des données, la logistique, la gestion des services etc. L’architecture de cette donnée tend à être la plus simple possible pour permettre une utilisation instantanée et une résolution des problèmes quasi immédiate. Cependant la real time data représente un flux de données immense, elle est très changeante, il y a de fortes variations, elle est hétérogène et surtout elle est non standardisée. Elle nécessite un traitement spécial pour que l’architecture soit efficace. Il faut donc que l'entreprise se pose les bonnes questions avant de se lancer dans une stratégie real time. Par exemple : quels bénéfices peuvent être réalisés ? quel est l’investissement à fournir dans une stratégie real time ? quels sont les outils pour mener une telle stratégie ? etc. et cela est tout à fait compréhensible mais elles doivent réfléchir étapes par étapes.
  37. 37. 39 Tout d’abord en intégrant l’idée de cette stratégie au quotidien dans l’entreprise. La real time data est traitée en ad hoc, elle est centrée sur un segment ou sur un problème individuel et les revenus de cette stratégie peuvent variés largement en fonction des objectifs. Chaque strate doit intégrer ces différents faits avant d’allouer un budget à une telle stratégie. Enfin après une évaluation des risques et un état des lieux des technologies à mettre en place, la stratégie pourra être créé et déployée. Même complexe, cette donnée est une incroyable opportunité de monétisation pour les marques capables de la capter. En effet dans notre société actuelle tout va très vite, l’information apparaît et disparaît si rapidement que des analyses traditionnelles sont rarement capables de capter ces flux et ainsi d’identifier les possibilités qu'offre la real time data aux marques pour agir. Par exemple une marque qui parviendra à communiquer et à envoyer directement des informations à son client pendant qu'il déambulera dans les allées de son magasin grâce à ses données détiendra un avantage non négligeable par rapport à ses concurrents et pourra ainsi, possiblement influer sur sa décision et l’amener à finaliser son achat. Les real time datas peuvent donc sensiblement réduire le temps entre la pensée et l’acte d’achat et ainsi permettre aux marques d'être plus à l’écoute, plus réactives mais également plus opérationnelles. Les modèles traditionnels en sont donc bouleversés mais cela est intrinsèquement relié au bien-être financier des marques. Ces données en temps réel ont également un aspect hautement positif au niveau de la création de contenus. En effet une marque peut tout à fait s’en servir pour alimenter ses posts sur les réseaux sociaux en étant la première à rebondir sur un insight fort dégagé grâce aux données collectées. La marque peut par exemple se servir des opinions positives ou négatives diffusées sur les médias sociaux par ses clients et répercuter immédiatement ce qu’elle aura appris pour améliorer son modèle, ses produits, son expérience client etc. En somme la real time data possède de nombreux avantages comme le fait de pouvoir utiliser des informations immédiatement pour manager des équipes, donner des informations aux clients, rendre des processus plus performants et prendre des décisions qui rapporteront de la valeur à l’entreprise.
  38. 38. 40 c. Prendre en considération la variété des données pour créer une stratégie pertinente La Big Data représente un ensemble. Comme nous avons pu le voir précédemment, une donnée seule n’a aucune valeur car elle ne traduit rien, elle ne fait ressortir aucun insight et ne peut être utile à l’entreprise en l'état. La Big Data doit être considérée comme un ensemble. Comme un ensemble de données très variées (données structurées et non structurées). Les marques doivent comprendre que la donnée peut venir de n’importe où, que ce soit des médias, des réseaux sociaux, des smartphones, des sites web, de la télévision.. La donnée vient de partout et c'est cette diversité qui fait d’elle un élément à forte valeur ajoutée pour les entreprises. Certes ce nouveau flux est difficile à capter lorsqu’on sait qu’il vient des données de : géolocalisation, mobile, cartes de fidélités, recherches, connexions.. mais c'est la diversité et la richesse des différentes sources qui dans leur ensemble, le rende pertinent. Pour mener à bien une stratégie Big Data les marques doivent comprendre que c’est cette variété qui représente une opportunité. C’est grâce à l’analyse de textes, d’images, de vidéos et de photos, tout cela en combiné que les marques pourront capter des insights forts. Dans ce mémoire les réseaux sociaux ont été privilégiés mais les marques, si elles souhaitent réussir à utiliser efficacement les données qu'elles pourront détecter sur Facebook ou sur Twitter par exemple, devront apprendre à fusionner et croiser ces datas avec d'autres datas qui proviendront des GPS ou alors des médias traditionnels par exemple. Bien entendu cette variété nécessite de mettre en place des solutions non plus traditionnelles mais sophistiquées car 90% des données sont non structurées (les données provenant des réseaux sociaux ne le sont pas, les images, les vidéos, et l’audio, ne le sont pas non plus). Des solutions innovantes doivent donc être mises en place par les marques pour explorer ce champ des possibles afin de visualiser et modéliser ces données complexes. Les marques disposent aujourd’hui de nombreuses données non structurées comme des photos, des mails, des données provenant des GPS etc. mais également de données structurées. Malheureusement elles ne savent pas encore comment s’en servir et comment les fusionner pour mettre en place une stratégie efficace.
  39. 39. 41 Les équipes en alliant et en rassemblant ces deux types de données peuvent s’en servir pour découvrir et explorer des nouvelles métriques, des perspectives sur les clients, les produits ou même les opérations en cours dans l’entreprise. L’alliance des données peut donc amener les employés à prendre des décisions plus justes et les plus précises in fine. Il faut toutefois mettre en relief cette variété. Sur les réseaux sociaux par exemple, la variété des données est immense entre la langue, la nature du post, la date etc. et il serait tentant de tout analyser et de tout considérer comme important or tous les tweets ne sont pas aussi importants les uns que les autres. Par exemple le tweet d’une personne influente n’aura pas le même poids qu’un tweet d’une personne moins influente. La variété de la donnée est donc très utile pour une stratégie complète et performante mais elle peut également être un défi. Les marques et les équipes marketing ont donc tout intérêt à se poser la question de la fusion de toutes leurs données afin de s'appuyer sur cette mine d'information pour mieux cibler et mieux comprendre les consommateurs mais également mieux mesurer les performances des campagnes.
  40. 40. 42 Il est évident que de nombreuses marques sont encore frileuses face à l'avancée époustouflante que représente la Big Data et préfèrent rester figées dans leurs méthodes d'analyse de données traditionnelles qui ne fonctionnent malheureusement pas sur les réseaux sociaux. Aujourd'hui une marque qui souhaite donc s'implanter sur Facebook ou Twitter de manière efficace et pertinente, sans la Big Data, n'y obtiendra aucun résultat. Comme nous avons pu le voir et malgré les réticences des marques, les différentes complexités qu'entraîne la data que ce soit au niveau légal, financier ou encore technique, ne doivent pas représenter un frein face aux bénéfices engendrés par leurs choix stratégique. La Big Data permet de capter des opportunités, d'être pro-actif, d'être cohérent. Elle permet aux marques de mieux cibler et de mieux s'adresser à leurs publics sur les réseaux sociaux en créant des contenus adaptés et pertinents en fonction d'insights forts. Si les marques veulent devenir audacieuses, innovantes et se démarquer de la concurrence elles ont pour mission de s'intéresser au monde de la Big Data. Elles ont besoin de trouver la stratégie qui leur convient en fonction de leurs objectifs, de leurs moyens mais également de leurs employés. Créer des méthodes agiles et surtout de casser les silos afin de rassembler toutes les composantes de l'entreprise autour d'un projet n'est pas chose facile, mais c'est une étape inévitable dans un tel projet. Créer une stratégie en real time data grâce à des KPI's définis et pertinents, en fonction des différentes variables de l'entreprise et en tenant compte de la variété de toutes les données dont elle dispose, développera forcément une stratégie bénéfique que ce soit au niveau financier ou au niveau social. Aujourd'hui peu de marques ont vu leurs stratégies Big Data échouées, parce qu'elles ont su prendre la mesure et la pertinence des retombées avant de se lancer dans cette aventure. IV. Conclusion
  41. 41. 43 Toutes ces analyses sont le fruit de nombreuses recherches et réflexions et m'amènent à penser que la Big Data deviendra très vite (si ce n'est pas déjà le cas) un département privilégié dans chaque grande entreprise et un élément dopant et utile à toutes les startups. Ce mémoire m'a permis de remettre en question mes acquis sur les réseaux sociaux d'avoir un regard neuf et une approche différente et encore plus pertinente pour exploiter le maximum de la data à ma disposition au quotidien dans mes recommandations pour des clients. La Big Data analyse le présent et prédit le futur, j'en vient donc à me demander quel sera le futur des marques mais également des utilisateurs sur les réseaux sociaux grâce à elle.
  42. 42. 44 Hadoop : « Un cluster Hadoop est un type particulier de traitement informatique en grappe, conçu spécialement pour stocker et analyser de grandes quantités de données non structurées dans un environnement distribué. » « En 2013, Facebook a été identifié comme ayant le plus important cluster Hadoop dans le monde. Parmi les autres utilisateurs clés de cette technologie, on retrouve Google, Yahoo et IBM. »36 Mapreduce : « C’est un modèle de programmation massivement parallèle adapté au traitement de très grandes quantités de données. MapReduce est un produit Google Corp. Les programmes adoptant ce modèle sont automatiquement parallélisés et exécutés sur des clusters (grappes) d’ordinateurs. » 37 NoSQL : «  Le NoSQL (Not only SQL) désigne une catégorie de base de données apparue en 2009 qui se différencie du modèle relationnel que l'on trouve dans des bases de données connues comme MySQL ou PostgreSQL. Ceci permet d'offrir une alternative au langage SQL. »38 In Memory : « Une base de données dite « en mémoire » (in-memory), ou IMDB (In Memory DataBase), ou encore MMDB (Main Memory DB), désigne une base de données dont les informations sont stockées en mémoire centrale afin d'accélérer les temps de réponse. »39 OLTP (online transaction processing) : «  L’OLTP est un traitement transactionnel en ligne qui sert à effectuer des modifications d'informations en temps réel. On le retrouve essentiellement dans des opérations commerciales comme les opérations bancaires, ou l’achat de bien divers. L’objectif de l’utilisation d’un tel système est de pouvoir Le MagIt : http://www.lemagit.fr/definition/Hadoop-Cluster36 Piloter : http://www.piloter.org/business-intelligence/map-reduce.htm37 Igm Univ : http://www-igm.univ-mlv.fr/~dr/XPOSE2010/Cassandra/nosql.html38 Le MagIt : http://www.lemagit.fr/definition/In-Memory-Base-de-donnees-en-memoire39 V. Glossaire
  43. 43. 45 insérer, et interpréter pour des besoins divers, les données de la base de données, en toute sécurité. » 40 Mode Batch : « En informatique, un traitement par lots (batch processing en anglais) est un enchaînement automatique d'une suite de commandes (processus) sur un ordinateur sans intervention d'un opérateur1. Une fois que ce processus est terminé (quel que soit le résultat), l'ordinateur traite le lot suivant. Le traitement des lots se termine une fois que tous les lots de la pile ont été exécutés. »41 Architecture scale-out : « L'architecture scale-out s'applique aussi à l'informatique en cluster ou distribuée, dans laquelle plusieurs petits serveurs se partagent la charge de traitement d'une seule application. Par exemple, une charge de travail critique peut être exécutée sur deux serveurs ou plus, le traitement étant partagé entre ces serveurs selon une configuration actif-actif. Si un serveur tombe en panne, un autre peut prendre le relais afin d'assurer la disponibilité de l'application. S'il faut plus de redondance, il est possible d'étendre encore le cluster en y ajoutant d'autres noeuds de serveur. »42 Petite Entreprise : http://www.petite-entreprise.net/P-3081-136-G1-definition-oltp-vs-olap.html40 Wikipedia : https://fr.wikipedia.org/wiki/Traitement_par_lots41 Le MagIt : http://www.lemagit.fr/conseil/Scale-up-ou-scale-out-le-meilleur-choix-pour-votre-datacenter42
  44. 44. 46 Ouvrages / Livres Blancs - KHAN G.F., "Seven Layers of social media analytics" 2015 - SCHMARZO B., "Big Data, Tirer parti des données massives pour développer l'entreprise" 2013 - ORACLE, "La valeurs des données sociales" 2013 - JAMESPOT, "Big Data et réseaux sociaux : Mythes et Réalités" 2013 - Corps, "Guide du Big Data, l'annuaire de référence à destination des utilisateurs" 2015 - Synthesio, "Utiliser les médias sociaux pour créer de la valeur. Le social intelligence au service de l'entreprise" Article de Presse - JAIME N. - CB News et JDN - 2015 "Comment dominer la data" Sites Internet - DENIAUD C. - http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a- lheure-des-medias-sociaux/ - "Les enjeux de la Big Data à l'heure des médias sociaux" - 2013 - LOULIDI N. - https://blogs.oracle.com/marketingcloud/fr/la-data-au-service-de-sa- prsence-sur-les-rseaux-sociaux - "La data au service de sa présence sur les réseaux sociaux" - 2015 - CLEMENT T. - http://www.madalana.fr/social-media-intelligence/ - "Social media intelligence : une arme stratégique pour votre marque" - THE SOCIAL CLIENT - http://www.actimag-relation-client.com/fr/article/social-media- intelligence-service-toute-entreprise - "LE SOCIAL MEDIA INTELLIGENCE AU SERVICE DE TOUTE L’ENTREPRISE " - MICHIELS M. - http://culture-rp.com/2016/01/18/le-big-data-au-service-dun-modele- customer-centric/ - "La Big Data au service d'un modèle customer centric" 2016 - MOISAN B. - https://siecledigital.fr/2015/11/25/data-marketing-efficace-inquietant/ - "Le data marketing : efficace mais inquiétant" VI. Bibliographie - Webographie
  45. 45. 47 - BALAGUE C. - http://www.soft-concept.com/surveymagazine/opportunites-big-data- et-donnees-reseaux-sociaux/ - "Opportunités du Big Data et des données issues des réseaux sociaux" - TERADATA - http://www.forbes.com/sites/teradata/2015/05/27/capitalize-on-social- media-with-big-data-analytics/#53e9740cca3e - "Capitalize on social media with big data analytics" 2015 - BOWDEN J. - http://www.socialmediatoday.com/content/reasons-explore-big-data- social-media-analytics-videos - "Reasons to Explore Big Data with social media analytics" 2014 - HUNG D. - http://tech.co/impact-big-data-social-media-marketing-strategies-2016-01 - "The impact of Big Data on social media marketing strategies" 2016 - INCITE GROUP - http://www.incite-group.com/data-and-insights/big-data-social- media-social-mining-part-2-finding-insight - "Big Data in Social Media : Social mining part 2 : finding insight"

  46. 46. 48 Annexe 1 - Fiches de lecture Page 49 Annexe 2 - Synthèse des focus groups Page 55 Annexe 3 - Interviews Page 61 Annexe 4 - Etudes quantitatives Page 78 Annexe 5 - Corpus d’articles Page 80 VII. Annexes
  47. 47. 49 Annexe 1 - FICHES DE LECTURE 1/ Big Data - Tirer parti des données massives pour développer l’entreprise Auteur : Bill Schmarzo Date de parution : 2013 «Le big data exploite des perspectives uniques et concrètes recueillies sur vos clients, vos produits et vos opérations pour réorganiser vos processus de création de valeur, optimiser vos initiatives métier clés et découvrir de nouvelles opportunités de monétisation.» «De nouvelles sources de données provenant des médias sociaux et des mobiles, générées par des capteurs ou des machines, ont le potentiel de renouveler les processus de création de valeur d’une organisation. Avec les indications qu’elles nous fournissent sur les intérêts, les passions, les affiliations et les associations des consommateurs, les données issues des médias sociaux peuvent servir à optimiser l’engagement client (de l’acquisition des clients de la brand-advocacy, en passant par l’activation, la maturation, la vente croisée (cross-selling), la vente initiative (up selling) et la rétention).» «Les volumes massifs de données (se chiffrant en téraoctet, voire en pétaoctets), leur diversité et leur complexité mettent à rude épreuve les capacités des piles technologiques existantes.» «En conséquence, les organisations informatiques ou non, sont confrontées aux difficultés suivantes : les indications fournies par les médias sociaux, les mobiles ou les machines ne sont pas disponibles en temps voulu, dans un monde où l’expérience client en temps réel est en train de devenir la norme.» «Le mouvement du Big Data est en train d’engendrer une transformation des organisations. Celles qui l’adoptent comme un facteur transformationnel passent d’une vision rétrospective tournée vers le passé, qui utilise des tranches partielles de données échantillonnées ou agrégées par lots pour surveiller l’activité à une vision des opérations prédictive, tournée vers l’avenir qui exploité en temps réel toutes les données disponibles.»
  48. 48. 50 «Exploiter les perspectives exploitables et les recommandations personnalisées basées sur les comportements et les tendances des consommateurs pour améliorer leurs relations et repenser leur expérience client.» «Identifier vos clients cibles et les solutions qu’ils souhaitent. Concentrez-vous sur la recherche de solutions qui améliorent leur performance et les aident à gagner de l’argent. Ce faisant, vous devez détailler les profils types (personas) des décideurs économiques. Investissez du temps pour suivre ces derniers et comprendre quelles décisions ils essaient de prendre, à quelle fréquence et dans quelles situations. Passez ce temps à recueillir des informations sur ce qu’ils essaient d’accomplir, au lieu d’essayer de comprendre ce qu’ils font.» «Des sociétés comme Facebook ont réalisé des expérimentations «live» pour réaliser des itérations rapides dans l’amélioration de leur expérience utilisateur. Instrumentez chaque point d’engagement de l’expérience utilisateur pour pouvoir détecter les habitudes d’utilisation ainsi que les goulets d’étranglement potentiels et les éléments de frustration que les utilisateurs pourraient avoir dans leur interaction avec l’interface.» «Les données deviennent pour l’entreprise un actif à exploiter (...) plus on en possède, plus elles sont détaillées, et plus vous serez susceptible d’en tirer des perspectives.» «Les modèles qui vous permettent d’acquérir, de profiler et de segmenter vos clients, qui vous servent à mesurer l’efficacité d’une campagne ou que vous utilisez pour la maintenance prédictive sont tous des facteurs susceptibles de vous différencier sur le marché, qui peuvent être exploités pour augmenter votre valeur globale et qui peuvent nécessiter une protection juridique.» «Le Big Data offre quatre possibilités (...) : fouiller dans le moindre détail toutes les données transactionnelles dont la plus grande partie n’est pas analysée aujourd’hui en raison des coûts d’entreposage des données. C’est ce qu’on appelle les dark data. Intégrer des données non structurées avec des données structurées. Exploiter en temps réel et intégrer l’analytique prédictive.» «Les données non structurées (...) (par exemple des documents texte, des publications sur les réseaux sociaux, des commentaires de médecins, des fichiers logs, des commentaires de clients.»

×