SlideShare une entreprise Scribd logo
1  sur  82
Télécharger pour lire hors ligne
Projet de recherche appliquée
Marty Chloé CCN 4B
Promotion : 2015 - 2016
Tuteur : Clément Brygier
Société : Digital Insighters
Titre : Co-fondateur et CEO
Comment l’explosion quantitative de la data va donner aux marques
l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur
les réseaux sociaux alors que l’utilisation et l’exploitation de ces
données s’avère être très complexe et pose un problème d’éthique ?
4
Je tiens à remercier très sincèrement toutes les personnes qui m’ont soutenue et aidée
pour la rédaction de ce mémoire.
Je remercie particulièrement mon directeur de mémoire Monsieur Clément Brygier
directeur et CEO de Digital Insighters qui a su m’épauler et m’orienter lors de mes
recherches et de ma rédaction afin que ce mémoire puisse être tel que je le souhaitais.
Je remercie également Madame Maillet ma tutrice de mémoire ainsi que l’équipe
enseignante de l’ISCOM pour leurs conseils si précieux.
Je tiens également à remercier : Zorana Ratkovic, Isabelle Tronchet et Marguerite
Leenhardt pour leur temps et leur professionnalisme lors de mes interviews.
Enfin merci aux acteurs qui permettent chaque jour à des centaines de marques de
cibler et de produire des contenus adéquats grâce à la Big Data.

Remerciements
5
Sommaire
I. L’utilisation et l’exploitation des données sur les réseaux
sociaux posent des problèmes de complexité et d’éthique..
a. La complexité technique et financière
b. La complexité légale
c. L’éthique
II. Quelques marques même si elles restent rares voient
l’opportunité que peuvent apporter les données..
a. Un ciblage beaucoup plus pertinent
b. Des contenus optimisés
c. Une meilleure relation client à clé
d. Une détection des signaux forts et faibles
III.Mais les marques devraient adopter une stratégie social
media intelligence en exploitant les 3 V de la donnée :
volume, vitesse et variété..
a. Traiter le volume en déterminant des KPI’s exploitables
b. Créer des stratégies real-time data pour faire face à la vitesse
c. Prendre en considération la variété des données pour créer une
stratégie pertinente
IV. Conclusion
V. Glossaire
VI. Bibliographie/Webographie
VII. Annexes
Page 7 à 15
Page 7 à 11
Page 11 à 14
Page 15 à 17
Page 42
Page 18 à 34
Page 18 à 24
Page 24 à 28
Page 28 à 32
Page 32 à 34
Page 35 à 15
Page 35 à 37
Page 37 à 39
Page 40 à 41
Page 44 à 45
Page 46 à 47
Page 48 à 84
6
Les réseaux sociaux sont des espaces qui permettent à tout un chacun de créer des
réseaux d’amis et de relations professionnelles. Ces réseaux sociaux génèrent chaque
jour des millions de données. En effet chaque minute plus de 4 166 667 likes ont été
distribués sur des posts Facebook, plus de 1 736 111 photos ont été likées sur
Instagram et 347 222 tweets ont été envoyés sur Twitter. Toutes ces données font
parties du web social. Le web est dit social depuis qu’Internet est devenu un espace
de socialisation où des millions d’utilisateurs créent et interagissent avec du contenu.
Internet a donc évolué en même temps que les usages. Ces nouvelles pratiques ont
contraint les communicants et les marques à trouver une nouvelle manière d’analyser
et d’utiliser ce flux de données numériques qu’on appelle la data. C’est pour analyser
ces données sur les réseaux sociaux qu’en 2009 le terme «social media analytics» est
apparu sur Google. Ce terme désigne le fait de convertir et de transformer en
connaissances signifiantes des données non structurées grâce à des outils et des
solutions adaptées.
L’analyse des conversations sur les réseaux sociaux représente un enjeux identitaire
pour les marques afin de déterminer leur influence, les sentiments des utilisateurs et
même prédire des sujets émergeants. Mais ces données représentent également un
enjeux financier car selon une étude Syncapse de 2013, un fan Facebook aurait une
valeur de 174,17$ .1
Ce mémoire a pour vocation de répondre à la problématique : «Comment l’explosion
quantitative de la data va donner aux marques l’opportunité de mieux cibler et de
mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et
l’exploitation de ces données s’avère être très complexe et pose un problème
d’éthique ?» en se basant sur des études concrètes et en induisant des préconisations
pour appréhender les trois V de la données : volume, vitesse et variété dans les
stratégies social media des marques. 

Syncapse - Value of a Facebook Fan - 2013 - : http://www.syncapse.com/value-of-a-facebook-1
fan-2013/#.Vwp7ljb1bkH / Consulté le 28/02/2016
Introduction
7
a. La complexité technique et financière
La data entraîne une modification et une transformation des organisations mais elle
entraîne également une certaine complexité notamment technique. En effet avec plus
de 3,2 billion d’utilisateurs du web , le volume de données générées est faramineux.2
En 2011 l’humanité aurait créé environ 2 zetta octets (Zo) de données numériques ce3
qui équivaut à 2 millions de To. Cela requiert donc des solutions et des outils adaptés
à ces nouveaux ordres de grandeurs afin de récupérer, analyser et utiliser les
données. Aujourd’hui nous entendons les termes Hadoop (cf. glossaire), Mapreduce
(cf. glossaire), NoSQL (cf. glossaire) ou encore In Memory (cf. glossaire), ce sont ces
outils relativement complexes pour des personnes non initiées, qui permettent
d’analyser les données.
Depuis plusieurs années les entreprises utilisent ces outils avec des architectures
relationnelles de type OLTP (cf. glossaire) pour traiter les données. Ce type
d’architecture était efficace lorsqu’il ne fallait analyser que des centaines de gigaoctets
voir des teraoctets en mode batch, ce qui veut dire en traitement par lots mais
aujourd’hui tout va plus vite, plus loin et ces
architectures sont pour la plupart
dépassées. Les utilisateurs métier ont eu
l’habitude d’un traitement nécessitant
plusieurs semaines voir plusieurs mois. Au
final ces outils n’étaient pas pourvus d’une
«intelligence» et n’étaient centrés que sur
des données structurées ce qui ne
permettaient pas l’analyse des données sur
les réseaux sociaux étant qualifiées de
données non structurées.
BERGE F. "La terre compte 3,2 milliards d'internautes" / Consulté le 04/03/2016 : http://2
bfmbusiness.bfmtv.com/entreprise/la-terre-compte-32-milliards-d-internautes-890165.html
SIMEON G. "Données le vertige" / Consulté le 04/03/2016 http://www.liberation.fr/futurs/2012/12/03/3
donnees-le-vertige_864585
I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent
des problèmes de complexité et d’éthique..
8
C’est dans ce contexte qu’une nouvelle génération d’outils a été développée. La
majorité ont été développés en open-source afin de permettre un développement et
une innovation en mode agile. La méthode agile a été élaborée en 2011 par 17 acteurs
influents en informatique et permet de « proposer un nouveau mode de conception
des programmes informatiques. Cette méthode fonctionne sur la base de l'itératif et de
l'incrémental, les tâches vont s'effectuer petit à petit, par ordre de priorité, avec des
phases de contrôle et d'échange avec le client » . Le but en utilisant cette méthode4
était réellement de les faire évoluer plus rapidement qu’un fournisseur traditionnel.
Facebook ne pouvant exploiter les outils traditionnels a notamment développé ses
propres outils comme : Hive , qui permet d'effectuer des requêtes sur un cluster5
Hadoop en langage SQL et Cassandra qui est une base de données orientée par6
colonnes de type NoSQL.
Cette nouvelle génération d’outils a donné naissance à une architecture dites «scale-
out» (cf glossaire) et donc à extensibilité horizontale qui permet de nombreuses
applications dédiées.
Que ce soit au niveau des outils ou des architectures, le domaine de la Big Data a
évolué très rapidement ces dernières années et les marques se sont souvent
découragées face à cette évolution technique complexe.
Si certaines marques ont eu le courage et les moyens de s'offrir certains de ses outils,
elles en sont tout de même venu à se poser la question de la récupération des
données dont elles disposent. II convient de savoir que les données provenant des
réseaux sociaux sont à quasiment 85% détenues par les géants : Facebook, Google7
et Twitter et qui selon leurs envies définissent les règles de la récupération de
données. Les marques peinent donc à suivre et à comprendre ces nouveaux usages,
les opportunités et les risques de ces données.
Si les entreprises disposent de ces outils, elles en viennent à se poser la question de
la récupération des données dont elles disposent.
Sémaweb "La méthode agile" / Consulté le 07/03/2016 : http://www.semaweb.fr/101-prestations/2714
Wikipédia "Hive" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Apache Hive5
Wikipédia "Cassandra" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Cassandra (base de6
données)
Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 07/03/2016 : https://www.cnil.fr/fr/loi-78-17-du-6-7
janvier-1978-modifiee
9
IBM a déclaré que « 90% des données de l'entreprise seraient inexploitables » . Les8
entreprises utilisent des outils trop traditionnels, en mode macro, et cela entraîne la
perte de beaucoup de données. Les données exploitables seraient donc partielles,
informelles ou non consolidées. La société a notamment mis en garde les entreprises
en déclarant : «Plus la puissance de calcul des ordinateurs progresse et plus les
entreprises deviennent bêtes.» et le directeur du département analytics déclarait en
2001 que «les entreprises les plus chanceuses sont capables d'analyser 7 % de leurs
données tout au plus». Alan Mitchell, expert britannique de la question des données a
également déclaré «le principal défi est celui de la "logistique de l'information" :
comment transmettre la bonne information aux bonnes personnes, au bon format, au
bon moment, pour éclairer les actions à mettre en place pour servir les objectifs
business de l'entreprise sur Internet et dans le monde réel.» La disposition des bons
outils n'entraîne donc pas forcément la récupération de la donnée dont veut se servir
l'entreprise.
La question d'analyse des données intervient également dans cette complexité
technique. En effet aujourd'hui il s'avère être relativement complexe de transférer des
gros volumes de données entre l'entrepôt de données et les environnements
d'analyse. Cela oblige les organisations à travailler uniquement sur des données
agrégées ou échantillonnées car le processus s'avère handicapant pour la découverte
et l'exploration de nouvelles données. Les organisations ne sont donc aujourd'hui pas
encore équipées pour analyser ces flux.
Admettons que l'entreprise dispose des bons outils, qu'elle a pu récupérer les
données des réseaux sociaux des mains de Facebook ou Google, qu'elle a su utiliser
un processus court pour éviter le temps d'attente entre l'entrepôt et les
environnements d'analyse, il lui faut tout de même se poser la question de la
qualification de la donnée qu'elle compte analyser et utiliser. Lors de l'analyse de
celle-ci les marques ne mettent pas à distance la qualification. Elles voient les données
comme des variables mais pas comme des chiffres. Or les données n'ont pas de sens
lorsqu'elles sont traitées en tant que chiffres.
Médias sociaux "Les enjeux de la Big Data à l'heure des médias sociaux" / Consulté le 09/03/20168
http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a-lheure-des-medias-sociaux/
10
Elles ne mettent également pas à distance la qualité des données ce qui reste l'un des
enjeux majeurs de la récupération et de l'analyse de celles-ci. En effet il faut
déterminer leur influence et leur pertinence. Par exemple un commentaire n'aura pas
le même poids, la même valeur, qu'un article sur un blog et un tweet d'un utilisateur
lambda n'aura pas la même valeur qu'un tweet de Jack Dorsey (créateur de Twitter).
Une donnée doit donc être analysée pour sa qualité et en terme de variable.
La question de la complexité technique est une réelle interrogation au sein des
équipes. Les utilisateurs métiers ainsi que leurs hiérarchies doivent être plus ouverts et
intégrer une mentalité d’abondance pour utiliser cette puissance de calcul illimitée afin
de transformer les données et créer des nouveaux algorithmes enrichis.
Malheureusement aujourd’hui encore trop d’entreprises utilisent des outils d’analyse
traditionnels et sont incapables de gérer le tsunami de données qui arrivent des
réseaux sociaux. Selon l’étude Axys Consultants réalisée par OpinionWay , ce qui9
freine les entreprises par rapport à la data sont : la complexité technique (50%) , un
manque de compétence (42%) et entre autres les moyens financiers (39%). Cette
incapacité et cette peur, est notamment observée dans les grandes entreprises qui
fonctionnent en silos étanches et qui freinent les différentes équipes à travailler
ensemble. Aujourd’hui encore beaucoup de directions métiers qui cherchent à lancer
des projets rapidement pensent qu’un projet affecté aux directions informatiques est
couteux et long, alors qu’en réalité cela se révèle dans la majorité des cas inexact. Les
métiers doivent accepter de travailler ensemble et de partager leurs informations pour
conduire des projets Big Data efficaces et pour rentabiliser ces stratégies.
En terme financier, la data représente également une complexité pour les entreprises
comme cité précédemment. Toujours selon l’étude d’Opinion Way, seulement 14% des
dirigeants prévoient des investissements sur la Big Data à terme.
Les entreprises diminuent leurs effectifs de jours en jours et le nombre de ressources
disponibles pour gérer les données diminue alors que le volume des données
augmente. Les plates-formes utilisées aujourd’hui pour gérer les données ont besoin
de compétences humaines très spécialisées. Cela à d’ailleurs fait émerger un nouveau
métier spécialisé : le data scientist.
Axys "Big Data" / Consulté le 09/03/2016 : http://www.axys-consultants.fr/wp-content/files_mf/9
1435679233CPAxys_EtudeBigData_02.07.15.pdf
11
La diminution des effectifs représente donc un manque alors que en terme de coûts et
selon la loi de Moore (co-fondateur d’Intel) la puissance de calcul double tous les 1810
mois à coût constant, ce qui produit en somme un avantage économique relativement
prévisible. Il faut néanmoins mettre en exergue le fait que le coût d’extraction au Go
est relativement faible mais le coût des licences des outils est très élevé. Pour une
grande entreprise cela peut aller de milliers K€ à des M K€.
Malgré le petit budget dont disposent la plupart des entreprises au niveau de la data
cela représenterait donc selon la loi de Moore un investissement constant qui permet
entre autre de réduire les coûts des tâches comme le reporting, la collecte de données
etc. et leur permet d’innover et d’optimiser les coûts de production.
Durant les prochaines années les entreprises vont devoir choisir parmi différentes
stratégies pour déployer la data au sein de leurs stratégies de communication : former
leurs employés en interne, former des partenariats stratégiques avec des solutions
spécialisées, acquérir une start-up dans l’analyse des données ou faire appel à des
fournisseurs tiers en mode SaaS. Chacune de ces solutions engrangera différents
niveaux de coûts mais en effet face à l’augmentation des données elles n’auront plus
le choix que de se lancer pour se démarquer de la concurrence. Bien sur chaque
décision propulsera l’entreprise au statut d’audacieuse et la complexité technique que
cela entraînera n’en sera que bénéfique à son fonctionnement. Certaines entreprises
investissent déjà lourdement dans l'analyse de données pour s'améliorer et gagner en
parts de marchés. Ces entreprises sont : Amazon, Facebook, Google, Uber ou encore
Airbnb.
b. La complexité légale
La Big Data entraîne une complexité légale à savoir ses contours qui sont encore flous
et posent de nombreuses interrogations.
La loi informatique et liberté du 6 janvier 1978 fait la distinction entre données11
comportementales et données personnelles.
Futura Science "Loi de moore" / Consulté le 09/03/2016 : http://www.futura-sciences.com/magazines/10
high-tech/infos/dico/d/informatique-loi-moore-2447/
Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 09/03/2016 https://www.cnil.fr/fr/loi-78-17-du-6-11
janvier-1978-modifiee
12
En effet une donnée dite personnelle est récoltée grâce à un formulaire que les
utilisateurs remplissent sur Internet par exemple. En revanche les données dites
comportementales sont des données anonymes qui ont été récoltées via un volume
important d’utilisateurs.
Il convient donc de savoir que seuls les traceurs comportementaux nécessitent
l’accord de l’utilisateur alors que les traceurs techniques mis en place par les sites e-
commerce par exemple n’ont pas besoin du consentement de l’utilisateur.
La loi déclare également : « les données à caractère personnel ne peuvent être
collectées et traitées que de manière « loyale et licite » nécessitant d’obtenir un
accord préalable des individus et de ne pas les utiliser pour autre chose ». Par ailleurs
certaines données dites sensibles sont tout simplement interdites de collecte ou
traitement: les données de santé (il existe quelques exceptions), origines raciales,
opinions politiques, religieuses etc... Cependant il convient de remarquer que toutes
les autres données peuvent être exploitées et que les détournements sont possibles.
La loi ne parvient pas à fixer un cadre clair. La question que se posent les marques est
donc de savoir si une donnée est personnelle ou non afin de l'utiliser. La CNIL soulève
de nombreux débats à ce sujet car selon ses termes une adresse IP est une donnée
personnelle, or une adresse IP est affectée à une machine et non à un individu. Une
adresse IP est-elle donc une donnée personnelle ?
Du côté des entreprises la CNIL tente de cadrer leurs agissements. Elle les a
notamment, depuis 2014, obligées à supprimer au bout de 13 mois les données
personnelles des internautes qu'elles ont pu récolter grâce à des formulaires, (sachant
que les données récoltées anonymement ne sont pas inclues dans cette décision). Les
entreprises n'ayant pas supprimé les données en 2015 ont donc été mises en
demeures par la CNIL.
Le géant Facebook a d'ailleurs été mis en demeure en 2016 car il trackait les
utilisateurs alors même qu'ils n'étaient pas connectés sur le réseau social. Plusieurs
autres faits sont reprochés à Facebook comme : «le recueil et traitement sans
consentement des opinions politiques, religieuses, et-liées-à l'orientation sexuelle des
utilisateurs, le dépôt des cookies publicitaires sans informations au préalable et le
transfert des données des utilisateurs européens vers les Etats-Unis (plus possible
13
depuis une décision de justice du 6 octobre 2015 )». Le cloud s'avère être également12
un souci dans l'analyse des données car ils nécessitent de transférer les data vers des
serveurs dont la localisation est opaque. Aujourd'hui les entreprises ont besoin d'être
rassurées sur le fait que leurs données se seront pas stockées aux Etats-Unis.13
La présidente de la CNIL va même plus loin car elle «demande aussi que les membres
puissent s'opposer à la combinaison de l'ensemble de leurs données à des fins
publicitaires».
Cela reviendrait à la fin de la publicité ciblée et donc à une grande part des revenus
du réseau social, ce qui serait catastrophique pour le bien-être financier du géant.
L’entreprise aurait 3 mois pour se remettre en conformité sous peine de poursuites
judiciaires.
Du côté des utilisateurs la CNIL met également des actions en place. Elle a mis en
place en 2014 une procédure de plainte afin que les utilisateurs puissent se retourner
contre les entreprises qui ont dépassé leur délais de conservation des données. Il
s’avère cependant très complexe pour les utilisateurs de mener ces procédures et de
savoir quelles entreprises conservent leurs données et pourquoi. L’article 40 de la loi
permet même que « Toute personne physique justifiant de son identité peut exiger du
responsable d’un traitement que soient, selon les cas, rectifiées, complétées, mises à
jour, verrouillées ou effacées les données à caractère personnel la concernant, qui
sont inexactes, incomplètes, équivoques, périmées, ou dont la collecte, l’utilisation, la
communication ou la conservation est interdite.  » Et il existe également un droit
d’opposition « Vous pouvez vous opposer, pour des motifs légitimes, à figurer dans un
fichier. En matière de prospection, notamment commerciale, ce droit peut s'exercer
sans avoir à justifier d'un motif légitime. Vous pouvez vous opposer à ce que les
données vous concernant soient diffusées, transmises ou conservées. ».
En effet la data se trouve être une problématique juridique très complexe car elle se
trouve au croisement de plusieurs régimes : la propriété intellectuelle, le droit d'auteur,
le droit des systèmes d'information et le droit des bases de données.
Cnil / Consulté le 11/03/2016 https://www.cnil.fr/frfinvalidation-du-safe-harbor-par-la-cour-de-justice-de-12
lunion-europeenne-une-decision-cle-pour-la-o
CHEMINAT J. "La justice européenne invalide le Safe Harbor, et après ? / Consulté le 22/04/201613
http://www.silicon.fr/justice-europeenne-invalide-safe-harbor-apres-128210.html
14
De plus la récupération et l’analyse des données n’est encadrée par aucun statut
légal. Ce sont les propriétaires de ces contenus qui régissent cet univers. En 2013 la
Commission Européenne a mis en place un groupe de travail sensé réfléchir sur le14
statut légal de cette exploitation automatisée des données mais les résultats ne sont
pas encore concluants.
Des propositions de licence ont été présentées afin de maintenir un droit de regard sur
les projets de recherches mais les défenseurs de «la culture libre» les ont rejeté en
indiquant que les données devraient avoir les mêmes droits que la citation. Les
contracteurs et les défenseurs de la data ne parviennent donc pas à rédiger un statut
légal probant.
L’exploration des données pose également différents problèmes. Il convient que
lorsque le nombre de données est trop grand, il faut les exporter pour les analyser
mais cela implique qu'elles soient disponibles à l’ensemble du groupe de recherche et
donc d'excéder la limite du «cercle familial». De plus en Europe il y a un droit sur les
bases de données qui possède un contour flou car il est prévu que les bases durent
15 ans mais elles sont sans cesses réactualisées ce qui change leur statut.
L’application de cette loi est donc relativement souple et permet la majorité des
initiatives de data mining.
Certains experts déclarent donc qu’en état de fait le data mining est interdit car on ne
peut pas extraire les données sans l’accord de son propriétaire. Cela dit bon nombre
d’experts ne sont pas d’accord avec ces propos. En effet en France le code de la
propriété intellectuelle porte sur les créations intellectuelles (oeuvres) mais pas sur les
expressions originales (paroles) ce qui revient à dire que les données et les
informations individuelles ne sont pas concernées par cette loi.
Si un cadre juridique venait à être déclaré il faudrait se poser la question de son
application. Faudrait-il l’appliquer en amont de la loi ou en fonction du résultat ? La loi
informatique et liberté n’a pas encore de réponse à cette question et en appelle à une
réflexion approfondie. L’Union Européenne travaillerait sur un projet de loi pour
répondre à ces différentes questions juridique courant de l’année 2016. Il devrait
permettre aux utilisateurs de mieux comprendre et d'avoir un droit de regard sur les
données qu'utilisent les marques.
CNPD / Consulté le 11/03/2016 http://www.cnpd.public.lu/fr/commission-nationalehQtivites-eur-inter/14
groupe29findex.html
15
c. L’éthique
L’éthique est un code moral et comme tout code moral il évolue avec le temps. Le
code devient flou lorsqu’il s’agit de la data et cela entraîne une certaine complexité. La
revente de données personnelles a toujours existé mais n’était pas aussi médiatisée il
y a quelques années.
Cela ne fait que très peu de temps que les utilisateurs ont eu connaissance de la
récupération et de l’utilisation de leur données à des buts non pour pro lucratif grâce
aux médias et à leur curiosité personnelle.
Il serait inexact de déclarer que les utilisateurs sont totalement au fait de ce qu'il
advient de leurs données.
Pourtant la loi actuelle prévoit que chaque individu a un droit d’accès et de
modification sur ses données. Malheureusement personne à ce jour ne prend le temps
de lire les mentions légales ou ne demande un droit de regard et de mise à jour sur les
données extraites. Dans la plupart des cas ils ne sont tout simplement pas avertis de
la récupération de leurs données. Ils sont bien évidemment contre et ne voient pas
l'intérêt in fine comme j'ai pu le voir dans mes focus groupes (voir annexe). Pour eux la
Big Data n'a rien d'éthique quelque soit l'utilisation, elle peut juste parfois se révéler
bienveillante lors de cas exceptionnels.
Du côté des entreprises, peu respectent les valeurs dites morales envers leurs
utilisateurs. Elles ne collectent pas les données pour être au service de leurs clients,
elles n'utilisent pas ces mêmes données dans un cadre loyal et sincère, elles
n'indiquent pas le temps de récupération et de stockage de ces dernières etc.
Beaucoup d'entreprises se cachent aujourd'hui derrière des cookies peu clairs afin de
contourner la finalité spécifique mentionnée dans la loi de 1978 . Qui prévoit que « le15
responsable du traitement doit associer à tout traitement de données personnelles une
finalité spécifique et la respecter pendant tout le traitement sous peine de lourdes
sanctions pénales (5 ans d'emprisonnement et 300.000 euros d'amende). » Elles ne
font pas la balance entre leur intérêt légitime et les libertés fondamentales des
utilisateurs et cela remet en cause les impacts des études qu'elles mènent, qu'elles
soient positives ou négatives.
Données personnelles "Le principe de finalité" / Consulté le 13/03/2016 https://15
www.donneespersonnelles.fr/le-principe-de-finalite
16
Les organisations peuvent donc respecter la loi en rédigeant des mentions légales
qu'aucun utilisateur ne lira jamais, mais cela ne veut pas dire pour autant qu'elles sont
bienveillantes. Chaque entreprise détermine comment elle veut exploiter les données
et comment elle veut être perçue par rapport à cela.
En effet une mauvaise exploitation des données et une mise en lumière des activités
illicites des entreprises peuvent engendrer d'énormes scandales et de ce fait ternir
l'image des organisations. Pour exemple au Pays-Bas la banque ING direct a été
accusée de vente de données clients. Même si cette accusation s'est révélée fausse,
les déclarations de la banque étaient floues et cela a gravement nui à leur image. Le
problème de confiance entre les utilisateurs et les marques est aujourd'hui un réel
enjeux.
Du côté des réseaux sociaux qui détiennent quasiment toutes les données que
souhaitent exploiter les marques, il existe une réelle course à la revente des social
data* (*données collectées sur les réseaux sociaux). En effet Twitter est associé au
géant de l’analyse prédictive GNIP et Facebook à l’entreprise Datasift. Les deux
réseaux sociaux sont donc rivaux également sur la revente des données personnelles
de leurs utilisateurs. Mais ils se dédouanent de toute infraction au code moral en
affirmant qu’ils ne louent l’accès que à des sociétés intermédiaires sélectionnées et
que ce sont ces sociétés qui facturent l’exploitation aux annonceurs. Les géants
Facebook et Twitter ne considèrent donc pas qu’ils enfreignent un code moral ou
éthique et rejettent en quelque sorte la faute aux sociétés intermédiaires.
Plusieurs enjeux sont donc liés à l’éthique de la donnée : la sécurité de celle-ci, la
maîtrise, la transparence, le respect de la vie privée et enfin le libre arbitre. En effet
aujourd’hui la production de contenu est complexe et peut venir d’une activité
humaine, de capteurs, de traitements et d’enrichissements provenants de différents
acteurs. Les organisations captent ces multiples flux grâce aux différentes méthodes
et solutions, mais cela ne se révèle pas toujours très moral, loin de là.
L’enjeu de disparité internationale se pose également en terme de complexité. En effet
les entreprises se trouvant dans plusieurs pays doivent appliquer différentes
législations et cela complexifie la collecte et l’utilisation des données.
17
Les conditions autour de la data ne sont pas les mêmes dans chaque pays et
certaines entreprises jouent de ces conditions pour s'approprier un avantage
compétitif. L’éthique est donc absente de leurs démarches.
Pour regagner la confiance de leurs utilisateurs et in fine promouvoir des services qui
se disent respectueux, les entreprises doivent : intégrer la protection de la vie privée
dans leurs démarches, garantir un niveau très élevé de protection des données.
Mais également garantir une visibilité à l'utilisateur, renseigner sur l'algorithme et le
traitement, ainsi que sur la portabilité des données. Ce n'est qu'à ces conditions que
les entreprises pourront prétendre mener des stratégies de Big Data qui se veulent
respectueuses envers leurs clients/utilisateurs.
C'est une relation de confiance qui doit s'établir avec le marché, pour que l'utilisation
de la donnée soit pertinente, durable et garantisse une éthique. Car une stratégie Big
Data a pour but de servir l'utilisateur en lui communiquant les bonnes informations au
bon moment mais la notion de « service » reste encore peu utilisée par les entreprises
actuellement.
18
a. Un ciblage beaucoup plus pertinent

En ce qui concerne l’audience ou la communauté d’une marque, elle doit être
entendue et comprise pour avoir de la valeur, or encore beaucoup de marques
aujourd’hui ne parviennent pas à comprendre et à (ré)agir de manière adéquate aux
comportements de leurs clients/utilisateurs. Elles ne parviennent pas à exploiter les
données récoltées au sujet de leurs utilisateurs à leur avantage. C'est grâce à la Big
Data qu'elles peuvent y parvenir.
Les marques se demandent encore comment appréhender et cibler leurs audiences.
Elles se questionnent sur le fait de commencer par un ensemble de données sur un
public large pour resserrer les utilisateurs et ainsi optimiser leur ciblage ou alors
débuter leur ciblage sur un ensemble très restreint pour l’élargir par la suite. Les deux
voies d’analyse sont possibles mais l’approche choisie par l’entreprise dépend
essentiellement de ses moyens. Les grandes entreprises ayant des moyens et une
base de données déjà existante peuvent choisir l’approche d’un ciblage très précis
pour l’élargir. Or les startups qui ne disposent pas encore de base données ne
peuvent privilégier cette approche. Il est donc très important de choisir sa voie
d'entrée dans une stratégie Big Data visant à cibler de manière plus fine une
audience, sinon cela risque de ne rapporter aucun bénéfice et une perte d'argent
considérable à la marque.
Aujourd’hui concrètement il n’est plus question de segmentation au sens propre du
terme. Le ciblage doit être fluide et évolutif, au rythme des changements de
comportement des consommateurs.
En effet, une audience ne se comporte quasiment jamais de la même manière d’une
campagne digitale à une autre. Les marques doivent donc être réactives, spontanées
et adapter leur ciblage en temps réel pour espérer délivrer le bon message aux
bonnes personnes et au bon moment.
II. Quelques marques même si elles restent rares voient l’opportunité que
peuvent apporter les données..
19
Prenons l'exemple du groupe media belge Roularta qui a utilisé la plateforme de16
marketing relationnel Selligent afin d'augmenter son nombre d'inscrits et améliorer sa17
rétention grâce à un ciblage plus précis. La plateforme a proposé une approche reliant
le transactionnel et les données CRM afin de cibler lors des campagnes de
communication les non-abonnés de manière qualitative et de ne plus importuner les
personnes étant déjà abonnées. L'entreprise a donc défini des segments
comportementaux (abonnés, non-abonnés) afin de communiquer ces informations
précieuses à leur service publicitaire dans le but de réserver des emplacements
publicitaires dédiés à un profil utilisateur défini et non plus réserver un emplacement
dans une section définie sans réelle cible déterminée.
Un ciblage doit donc être précis et juste pour rapporter un quelconque bénéfice à la
l'entreprise. Les marques ne doivent cependant pas se lancer dans un ciblage
excessif et répétitif qui risque de lasser les utilisateurs. Encore trop de marques
martèlent sans arrêt les internautes de publicités sur Facebook, Twitter et Instagram
après un seul regard sur un site web. Mais cela apporte t-il réellement une plus value ?
Cette démarche se conclue t-elle par un achat ou du brand love ? Dans la quasi
totalité des cas la réponse est non. La fréquence de diffusion des annonces et le re-
ciblage/ re-targetting de celles-ci doit donc être maîtrisée avec parcimonie afin d’être
efficaces et toucher les bons utilisateurs au moment propice.
Le trop grand nombre de publicités non ciblées
et de re-targetting mal utilisés a d'ailleurs fait
émerger une société florissante nommée
Adblock. La société propose un plugin nommé
"AdblockPlus" à ajouter à son navigateur. Ce18
dernier bloque par exemple tous les boutons
likes sur Facebook afin de ne plus être profilé par
des publicitaires à des fins commerciales.
Roularta Media Group : http://www.roularta.be/fr/accueil/RC-1184688299798.html16
Selligent "Roularta" / Consulté le 14/03/2016 https://www.selligent.com/sites/default/files/media/case-17
study-roularta-fr.pdf
Adblock : https://adblockplus.org/fr/subscriptions18
Exemple d'application AdBlockPlus sur Facebook
20
La publicité sur les réseaux sociaux que ce soit sur Facebook, Twitter, Instagam ou
YouTube est intéressante pour les annonceurs, dans la mesure où elle permet de
diffuser des campagnes, en fonction des centres d'intérêts des utilisateurs. La liste
"anti-sociale" de la société Adblock, qui comme son nom l'indique "boycotte" les
réseaux, se révèle être une réelle catastrophe pour les marques et pour les réseaux
sociaux. Privées de données fines et précises sur les utilisateurs les marques
devraient retomber dans des campagnes de masse, non ciblées qui globalement
rapportent des bénéfices financiers beaucoup moins élevés. Les réseaux sociaux
quant à eux perdraient également des données précieuses qu'ils peuvent revendre
aux annonceurs. Ce manque à gagner plongerait les "géants" dans un vaste trou
financier.
A l'heure où les consommateurs ne veulent plus de publicités intrusives et de masses,
il est donc nécessaire pour les marques de créer des stratégies Big Data efficaces afin
de cibler plus précisément les utilisateurs et ne plus diffuser de publicités de manière
excessive.
Comme évoqué plus haut, les utilisateurs aujourd’hui souhaitent être considérés
comme des personnes à part entière / uniques et ne plus subir un ciblage de masse et
être noyés par des publicités qui ne sont pas en adéquation avec leurs envies, leurs
valeurs etc. Malgré le fait qu’ils soient derrière un écran comme des millions d’autres
utilisateurs et même si la récupération de leurs données ne les enchantent guère, ils
préfèrent de loin recevoir des annonces ciblées en fonction de leurs goûts et à des
moments bien définis plutôt que des annonces inappropriées .
Les marques doivent prendre en compte de nombreuses variables pour cibler
correctement leurs audiences sur les réseaux sociaux : la visibilité, l’engagement, le
comportement, les réactions mais aussi l’étape suivante.
21
Après la visite de la page fan de la marque où va l’utilisateur ? que fait-il ?. La position
sociale, socio-démographique, les centres d'intérêts etc. Toutes ces variables doivent
amener la marque à se demander comment elle peut cibler et mieux servir à l’avenir
son audience sur les réseaux sociaux.
Même si encore beaucoup de marques sont dans l’incapacité de visualiser les
avantages d'une analyse, de nombreuses marques ont su tirer profit de la technologie
Big Data pour obtenir un ciblage beaucoup plus pertinent lors de leurs
communications digitales sur les réseaux sociaux.
Celles qui ont su prendre le virage de la Big Data ce sont donc lancées dans le social
media listening : "activité d’écoute (d’une entreprise ou d’une marque le plus souvent)
des internautes présents sur les médias sociaux. (...) Le social listening concerne
principalement l’écoute des propos concernant directement ou indirectement la
marque. Mais pas seulement, car il peut être également profitable à la marque pour
identifier par exemple des tendances de consommation que des études marketing
conventionnelles n’auraient pas encore révélées."
Grâce à cette écoute, elles peuvent par exemple déterminer que leur cible B2B est
active le lundi matin sur Linkedin depuis son ordinateur et que leur client final est plus
actif le samedi matin depuis son smartphone via Facebook. L’analyse de l’audience
sur les réseaux sociaux permet réellement de déterminer les différents profils et
comportements ainsi que les insights qui vont permettre de créer des campagnes
impactantes et pertinentes.
Facebook ayant capté cette opportunité a développé depuis plusieurs années :
Custom Audience.
Cette solution permet d’obtenir de manière très sécurisée et anonyme un volume
important de données. Les marketers peuvent donc s’en servir pour créer des
segments d’audience propre à leur marque sur le réseau social grâce à : des données
CRM (de leurs clients), des données de campagne (ouvertures mails), des données
provenant de leur site internet et des données tierces. Il est important néanmoins de
déterminer des objectifs clairs et de déterminer la valeur de chaque entrée pour faire
les croisements adéquats afin d’obtenir in fine le bon ciblage. Si une marque souhaite
cibler une audience grâce à différentes données elle peut se baser sur des critères :
géographiques, socio-démographiques, les centres d’intérêts etc.
22
Facebook a donc comme Twitter, Quantcast, Facebook ou encore Google capté la
demande des entreprises concernant les frais qu'entraine la Big Data pour obtenir une
base de données très pointue pour faire de la publicité. Ce nouveau marché leur
permet donc aujourd'hui, de se faire beaucoup d'argent en réduisant
considérablement l'accès à la donnée ciblée.
En 2015 Nextperf, une plateforme de marketing à la performance, a lancé : « Look
alike audience  » qui permet de partir d’une audience d'un site web pour utiliser
Facebook Custom Audience afin de rapprocher les profils similaires non acquis à ceux
déjà acquis grâce aux données.
Le site de e-commerce Spartoo a servi de cobaye et a testé pendant 10 jours cette19
solution sur différents segments bien identifiés. Selon leur communiqué de presse :
+12% de taux de conversion et +138% de taux de clic. En somme il y a eu -9% de
CPO (coût par achat) ce qui représente une économie non négligeable en terme de
ciblage d’audience.
Nous pouvons également citer le cas d’Etam , acteur majeur de la mode féminine sur20
les marchés européens qui avait pour objectif d’adapter sa segmentation de reciblage
suivant sa stratégie média et sa problématique ROIste ainsi que de mettre en place un
levier de reciblage à la performance sur un objectif de coût d’acquisition dédupliqué.
Grâce à la solution Look alike de Nextperf les résultats sont significatifs : +7% de
ventes globales, 400K de visites en 8 mois, 0,3% de taux de clic moyen.
Les solutions se diversifient donc pour garantir aux marques un ciblage toujours plus
adéquat en fonction avec des KPI's des marques.
La société Axciom travaille avec une solution qu'elle a développée, pour de nombreux
clients : Social Connect qui permet avec Facebook Custom audience d’affiner le21
ciblage des publicités. Pour un éditeur outre-manche qui souhaitait recruter de
nouveaux abonnés sur Facebook, la société a testé et comparé deux mécaniques
display sur le réseau social.
Spartoo : http://www.nextperf.com/wp-content/uploads/2015/03/Spartoo-FR.pdf19
Etam : http://www.nextperf.com/wp-content/uploads/2015/03/Etam-FR.pdf20
Axciom "Social Connect" / Consulté le 14/03/2016 : http://dq1prkp9edh4z.cloudfront.net/wp-content/21
uploads/2013/11/Acxiom-accompagne-Paypal-dans-la-segmentation-et-la-personnalisation-de-sa-
relation-client.pdf
23
La première campagne a utilisé un ciblage par rapport aux informations renseignées
par les membres (âge, sexe, localisation, centres d’intérêts..). La seconde à été
réalisée à partir des données de Acxiom et ciblée sur des profils de lecteurs
quotidiens. Les résultats ont montré que la publicité réalisée avec le ciblage Axciom
était plus performante et que le taux de clic avait été de 60% supérieur à la première
campagne.
Un autre exemple de la société Acxiom est également parlant. La chaîne d’hôtel Best
Western, a dans un premier temps transféré sa base de clients potentiels sur
Facebook pour faire correspondre le coeur de cible aux utilisateurs du réseau social.
Dans un second temps Acxiom a étendu la couverture de cibles Facebook à 700 000
« lookalike ».
Le regroupement de ces deux bases de données combiné à la solution de la société a
permis plus de 15 millions d’impressions et 3 194 clics.
Les marques ont donc réellement besoin d’utiliser des solutions innovantes et
adaptées aux nouveaux usages des utilisateurs ou de s’allier à des partenaires qui
peuvent optimiser leur ciblage de manière conséquente.
Outre Facebook, la data est également présente sur Twitter, pour obtenir un ciblage
plus précis.
Il faut savoir que Twitter a été le premier réseau social à louer l’accès aux données de
ses utilisateurs à des intermédiaires a des fins marketing.
Si le profil des utilisateurs n’est pas détaillé comme celui d’un utilisateur Facebook,
toute la mécanique de ciblage du réseau repose sur des critères comportementaux et
contextuels qui permettent un ciblage au moins aussi précis.
Le réseau social permet depuis 2015 d’établir des audiences personnalisées en
fonction de publicités (Twitter Ads). Les marques envoient simplement un fichier avec
les données de leurs clients, le réseau social rapproche ce fichier avec des personnes
actives sur Twitter afin de créer un ciblage pertinent et efficace pour les campagnes.
La société Axciom utilise cette méthodologie dans ces solutions datamining
24
La société Quantquast qui gère une plateforme de données en utilisant la Big Data et22
le machine learning, aide les annonceurs à réaliser des campagnes marketing et des
expériences utilisateurs enrichies. Pour sa propre promotion la société a décidé de
mener une campagne de publicité sur Twitter associée au ciblage d’audience
personnalisée afin d’attirer de nouveaux clients. La société a pour cela intégré des
tags à son site afin de créer des segments permettant d’identifier les utilisateurs de
Twitter. Twitter a ensuite de la même manière que la solution « look alike » identifié des
audiences similaires dans sa base utilisateur. Une fois les segments identifiés, les
options de targeting ont été configurés et des tweets ont été créés afin d’augmenter
les téléchargements du dernier livre blanc de la société. Le taux d’interaction a été de
9,55% ce qui est très rare pour ce réseau social. Le CPA* (*"mode de facturation d’un
espace publicitaire ou d’une action marketing qui consiste à facturer l’annonceur en
fonction des résultats obtenus lors de la campagne") moyen a été inférieur de 50% à la
moyenne.
La vice présidente de Quantcast Christina Cubeta a déclaré : «  Les données des
audiences personnalisées nous ont permis de toucher des utilisateurs au-delà de
notre base d’utilisateurs connus et d’atteindre un taux d’interaction incroyable. La
popularité de Twitter nous aide à améliorer encore davantage la performance de nos
campagnes et à réduire le CPA. Twitter Ads est en tête de liste de nos partenaires les
plus performants. ».
La data permet donc que ce soit sur les réseaux sociaux ou sur d’autres médias
d’obtenir un ciblage plus pertinent et plus qualitatif de par des solutions optimisées et
pensées pour maximiser les campagnes marketing. Les marques devraient s'y mettre
rapidement pour détenir un avantage hautement concurrentiel.
b. Des contenus optimisés
L’analyse des données des utilisateurs permet aux marques de mieux cibler certes,
mais également de créer des contenus créatifs et optimisés sur les réseaux sociaux.
Depuis peu de temps nous avons vu apparaitre un nouveau terme dans le monde de
la donnée : le data storytelling.
Quantcast : https://www.quantcast.fr/case-study/quantcast-twitter-tailored-audiences-drives-leads-22
at-50-below-cpa/
25
Ce terme désigne le fait d’utiliser la data pour créer des communications enrichies,
impactantes et inspirantes. Le but est tout simplement de tirer le meilleur de la donnée
pour créer un contenu valorisant pour une audience. Les entreprises qui savent
aujourd’hui tirer parti de la donnée pour en créer un contenu sont parmi les plus
innovantes de leurs domaines.
Certaines sociétés ce sont d'ailleurs spécialisées dans ce data-storytelling comme par
exemple ADventori qui propose de mettre à disposition des annonceurs des « data-
scenarists qui feront la combinaison entre les données et les objectifs de l’annonceur,
et ainsi établir la scénarisation de la campagne : à chaque nouvelle exposition,
l’utilisateur verra un nouveau message. » Selon la directrice du marketing Carole Ellouk
ce procédé remet « la création au centre des problématiques d’achats média. Alors
que celle-ci avait quelque peu été mise de côté face aux objectifs de volume et de prix
de l’achat média. » La data retrouve donc sa place dans le processus créatif et dans
l’achat média.
Avant de faire appel à une société spécialisée les marques ont besoin de déterminer
les données qu'elles pourront utiliser afin d'optimiser leurs contenus. Différents types
de données permettent l'élaboration de contenus créatifs :
- Les données relatives à la connaissance du client. En effet il est important, voir vital,
de connaitre l’expérience de l’utilisateur en question, s'il est déjà familier avec la
marque, s'il a déjà une relation avec elle, si la marque lui apparait en top of mind, s'il a
déjà entendu parler d'elle etc. Cette donnée est la plus utilisée lors des campagnes
digitales.
- Les données relatives au contexte de l’utilisateur. Il est important de savoir comment
il va rentrer en contact avec elle. Car la marque ne va pas proposer le même contenu
si c’est un prospect ou si c’est un nouveau client.
- Les données relatives au contexte d'utilisation du produit proposé par la marque. Ces
données sont également importantes à connaître et sont généralement en open data
ce qui permet d’obtenir rapidement des informations.
- Les données relatives à l’annonceur et à l’éditeur.
Enfin la combinaison de toutes ces données pourrait permettre à toutes les marques
de créer des contenus optimisés, performants et attractifs pour n’importe quel
utilisateur. Malheureusement à l’heure actuelle seul Facebook ou Google sont
capables d’allier toutes ces données dans un but créatif.
26
La société Linkfluence a notamment déterminer l'importance des données relatives à
la connaissance du client pour le compte de l'un de ses annonceurs. En effet la
société a monitoré les conversations sur les réseaux sociaux "autour d’une crème de
beauté largement distribuée en Europe, les Social Media Researchers de Linkfluence
ont réalisé que l’immense majorité des consommateurs connectés et intéressés
avaient une peau mate ou foncée. Problème : cette population était très peu prise en
compte dans la communication de la marque. Ses visuels montraient uniquement des
mannequins à la peau claire. Grâce à la social media data, des contenus spécifiques
ont été créés pour aborder les problèmes d’épidermes spécifiques de ces clients et
qui grâce à cette prise en compte, sont devenus des acheteurs à cause desquels ils
achetaient justement ces produits."
La connaissance du client a donc permis à cette société d'adapter ses
communications pour être au plus proche de la cible qui utilisait et parlait le plus de
son produit. Sans le social media listening les marques sont dans l'impossibilité de
détecter des insights comme ceux-là.
En terme de données relatives au contexte d'utilisation, prenons le cas de la société
Aldebaran , concepteur de robots humanoïdes compagnons. La société a fait appel à23
Linkfluence (leader français du social media intelligence) pour déployer une
communication horizontale* (*"Cette forme de communication a pour finalité de
favoriser les échanges entre les différents acteurs de l’entreprise, dans la perspective
de partager les connaissances et d’intégrer tous les salariés dans la prise de
décision.") grâce à une connaissance ciblée de chaque internaute.
Petit à petit les robots humanoïdes s’immiscent dans les foyers des particuliers et cela
est aujourd'hui perçu de manière très enthousiaste même si les robots suscitent de
nombreuses interrogations. Les réseaux sociaux représentent un outil de premier choix
pour la marque afin de répondre aux questions de leur audience.
Linkfluence a mis en place grâce à sa solution nommée "Radarly", une écoute du web
social qui a permis d’identifier les membres clés de la communauté de la société et
ainsi de mener des actions ciblées au quotidien. Cela a permis à la marque de rentrer
en contact avec des utilisateurs qui ont besoin d’information, s’intéressent à la société
et s’expriment sur les produits. Les contenus produits sur les réseaux sociaux par la
marque sont donc intrinsèquement liés aux centres d’intérêts de chaque utilisateur.
Linkfluence "Aldebaran" / Consulté le 15/03/2016 : http://linkfluence.com/2016/01/04/aldebaran-animer-23
sa-communaute/
27
La donnée permet donc d’analyser en profondeur les contenus, les réactions, les
comportements etc. des communautés des marques et d’en faire émerger des sujets
et des thèmes qui permettent d’optimiser les prises de paroles sur les réseaux
sociaux. Les contenus optimisés grâce à la data ont généralement un taux
d’engagement beaucoup plus élevé que les publications produites de manière
créative aléatoire.
La Big Data peut donc s’avérer utile créativement et obtenir des contenus à plus fort
taux d'engagement.
Le constructeur automobile Mercedes-Benz avait déjà en décembre 2012 utilisé la24
Big Data pour produire des contenus dans le cadre d'une campagne digitale sur les
réseaux sociaux.
Le constructeur a créé l’opération Tweet-Fleet. Pour promouvoir la fonction park assist
qui reconnaît les places de parking vides, ils ont orchestré une opération offline mais
également online sur Twitter.
Grâce à la data des GPS des voitures et un système Arduino* (*"C'est une plate-forme
basée sur une interface entrée/sortie simple. Il était destiné à l'origine principalement
mais pas exclusivement à la programmation multimédia interactive en vue de
spectacle ou d'animations artistiques.") ainsi qu’un couplage en relai PHP* (*"Le PHP
est un langage informatique utilisé sur l'internet. Le terme PHP est un acronyme
récursif de "PHP: Hypertext Preprocessor".
Awards "Mercedes Benz Tweet Fleet" / Consulté le 17/03/2016 http://awards.jvm-neckar.de/2012/24
tweet-fleet/fwa/
28
Ce langage est principalement utilisé pour produire un site web dynamique. Il est
courant que ce langage soit associé à une base de données, tel que MySQL."), des
tweets étaient automatiquement générés pour indiquer à tous les followers du compte
dédié que des places de parkings étaient disponibles à proximité ou non de leur
emplacement. Cette campagne a été très médiatisée et a connue un fort succès
auprès des utilisateurs qui ont perçu le côté pratique et intéressant de la récupération
de données à des fins servicielles.
La société de réservations d’Hôtels TripAdvisor a également surfé sur ce qu’on25
appelle le data storytelling pour une campagne lors de la coupe du monde de 2014 au
Brésil. La société a prédit pour chacun des matchs de la coupe, quelle équipe allait
gagner en comparant tout simplement les hôtels où les joueurs séjournaient. Pendant
les matchs des tweets créaient un lien entre la partie de football et les appréciations
sur les hôtels. Grâce à un algorithme relativement simple, la société commentait donc
le jeu des joueurs en fonction de la qualité de leur sommeil la nuit passée et
pronostiquait grâce à cela l'équipe gagnante et l'équipe perdante. Les prévisions se
sont avérées correctes dans 93% des cas et TripAdvisor a donc prouvé l’efficacité
autour des discussions sur les hôtels.
Le storytelling intervient donc à l’intersection entre les médias sociaux et la Big Data.
Pour créer une vraie histoire aujourd’hui sur les réseaux sociaux, il faut visualiser,
écouter et savoir interpréter la donnée. Parfois le contenu peut se révéler extrêmement
créatif grâce à la data comme relaté précédemment. Une section « Creative Data » a
même été ajoutée aux Cannes Lions pour récompenser les marques les plus
audacieuses.
Les marques ont donc tout intérêt à ce familiariser avec ce nouveau moyen de création
pour rendre leurs campagnes plus attractives pour leurs cibles et surtout plus
performantes.
c. Une meilleure relation client à la clé
Aujourd’hui les réseaux sociaux jouent un rôle primordial lors d’un achat en ligne.
TripAdvisor : https://www.tripadvisor.fr25
29
En effet les consommateurs sont de plus en plus sur Internet, sur le web social pour
vérifier le prix ou obtenir des informations sur un produit ou un service avant de
finaliser l’acte d’achat. Ce comportement a été nommé ROPO (research online
pourchase offline) et "désigne donc un comportement d’achat quand on se place du
coté du consommateur et la démarche d’utilisation d’Internet à des fins de création de
trafic en point de vente physique pour les responsables marketing ou commerciaux."
Et "78% des acheteurs déclarent que les avis des consommateurs encouragent leurs
achats, en ligne notamment" . Les marques ont donc tout intérêt à examiner les26
conversations des utilisateurs autour de leurs produits et services mais également à
fournir des informations optimisées et des services performants afin d'obtenir des
conversations positives et brand-centric et d'influencer les clients potentiels de
manière positive à finaliser leurs achats.
Le social CRM (customer relationship
management) "désigne les pratiques de
gestion de la relation client sur les
réseaux sociaux". L’interaction avec les
consommateurs via les médias sociaux
est généralement plus fructueuse et plus
intime que les interactions par téléphone
ou par "chat" car elle est généralement
plus rapide et plus pertinente.
Selon une étude du cabinet Gartner , le marché du CRM social valait 20,4 milliards de27
dollars en 2013 et dépassera de loin cette somme d’ici à 2018.
Le social CRM représente donc un élément clé d'une stratégie marketing performante
et peut être optimisé grâce à la donnée.
En effet avec plus de 1,59 milliards d’utilisateurs actifs sur Facebook, 307 millions sur
Twitter et 400 millions sur Instagram , le web social est une mine d’informations28
Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/26
communication-media/social_crm/
Source Image : http://fr.slideshare.net/Kuliza_Research/social-crm-6928709
Gartner / Consulté le 20/03/2016 http://www.gartner.com/newsroom/id/266521527
TAUZIN A. "Combien d'utilisateurs de Facebook" / Consulté le 24/03/2016 http://www.alexitauzin.com/28
2013/04/combien-dutilisateurs-de-facebook.html
30
extraordinaire pour détecter des insights clients. En effet aujourd'hui un utilisateur
mécontent postera un tweet ou partagera son expérience sur le mur de la page de la
marque sur Facebook plutôt que de passer des heures au téléphone avec un
interlocuteur qui ne l'écoutera pas vraiment. L'utilisateur sait aujourd'hui que sa voix
sur les réseaux sociaux a de l'impact et cela doit être pris en compte par les marques.
La voix de ces clients doit donc être intégrée aux activités marketing des marques afin
d’améliorer la relation marque / consommateur. La Big Data est devenue l’approche de
prédilection dans ce domaine car c’est grâce à elle, à l’analyse de ces conversations
si puissantes, que les marques parviennent à mieux répondre à la demande de leurs
clients en écoutant réellement ce qu’ils ont à dire.
L’enjeu est donc pour les marques de suivre les insights, les réactions et les prises de
parole des utilisateurs en observant leurs conversations sur les réseaux sociaux en
temps réel afin de gagner en réactivité et ainsi développer une relation de confiance et
solide avec les utilisateurs.
Des marques ont donc fait appel à des sociétés tierces pour travailler sur leur relation
client grâce à la Big Data.
Pour exemple Orange , l’un des principaux opérateurs de télécommunications au29
monde, a fait appel à la société Linkfluence pour tirer parti des conversations de ses
consommateurs sur le web social. Chaque produit de la marque a bénéficié d’un
dispositif de monitoring propre afin d’en dégager une structuration marketing via les
prises de parole des consommateurs. Les verbatims ont été captés et analysés pour
en dégager des insights forts.
En résultat la marque a pu ajouter ou modifier des offres produits déjà existantes ou
accompagner certaines offres par des plans de communications spécifiques afin
d’obtenir une meilleure compréhension de la part des utilisateurs. Les chefs de
produits de la marque se servent également du dispositif au quotidien car cela leur
permet de mettre à jour les FAQ lorsqu’une interrogation est décelée dans les
conversations.
La marque a donc réellement mis le consommateur au centre de sa stratégie afin
d’obtenir un marketing opérationnel à forte valeur ajoutée.
Linfkfluence "Orange" / Consulté le 24/03/2016 http://linkfluence.com/2015/04/23/consommateur-29
connecte-linkfluence-dans-le-social-hub-dorange/
31
L’agence The Social client a développé un dispositif de social media intelligence et,
l’un de ses clients qui l’utilise pour améliorer sa relation client, est l’opérateur de
télécommunications SFR . La marque tente d’améliorer la connaissance et les30
attentes de ses clients afin d’alimenter les différentes directions du groupe et produire
des campagnes et des lancements de produits réellement impactants.
SFR peut aujourd’hui, grâce au dispositif de The Social client, capter en temps réel ce
que disent ses clients sur ses offres et ses services. Cela permet à la marque de
récupérer des données précises et qualitatives extraites des discussions sur les
réseaux sociaux pour en déduire des insights forts et utiles.
Outre la surveillance et l’analyse des conversations des utilisateurs avant un lancement
de produit ou une campagne de communication, le dispositif leur sert également à
analyser les post-conversations. C’est à dire de capter les retours des clients sur une
publicité ou le lancement d’un nouveau forfait par exemple. Les marketers ont besoin
d’analyser les campagnes sur les réseaux sociaux pour en dégager la nature ROIste*
("se dit d’un canal marketing ou d’un annonceur qui privilégie un retour sur
investissement des campagnes le plus direct possible") pour la marque. Et les
conversations des utilisateurs est un élément important de cette analyse. Les chiffres
ont beau être bons, si le consommateur ne l’entend pas de la même manière une
marque a besoin de le savoir pour rebondir.
Dans le cadre de cette démarche, SFR tente également de déceler des signaux
faibles de la part de ses clients afin de réagir de manière pro-active à des problèmes
qui peuvent potentiellement s’amplifier.
Par exemple si la marque détecte un tweet d’un de ses utilisateurs qui lui signale que
le réseau ne fonctionne plus, il est fort probable que le réseau ne fonctionne plus
ailleurs que chez le dit utilisateur. La marque peut donc faire des recherches auprès
des équipes techniques et déceler une panne par exemple. L’analyse de ce tweet
permettra donc à SFR de régler le problème avec rapidité et cela lui évitera des
dizaines voire des centaines de tweets de mécontentement.
La marque a mobilisé de nombreuses équipes pour ce projet et diffuse régulièrement
des rapports à destination de ses équipes.
YouTube "La relation client à l'heure du digital et de la disruption | The Social Client, PMU, SFR :30
https://www.youtube.com/watch?v=CeGJK5080YI
32
Le top management est également impliqué dans cette démarche afin de les aider à
comprendre plus amplement les bénéfices d’une telle stratégie. Un social wall* (*mur
numérique permettant d’afficher en un seul et même endroit tous des posts des
réseaux sociaux grâce à un hashtag ou tout simplement en rapport avec une marque)
a même été installé dans les locaux de chez SFR pour suivre en temps réel toutes les
conversations liées à la marque.
SFR s’est donc investi totalement dans une stratégie Big Data qui in fine va lui
rapporter des bénéfices tangibles et mesurables sur sa relation client.
Le social CRM lié à la data permet donc de réellement mieux identifier les attentes des
différentes typologies de clients grâce à des données précises et qualifiées. Les
marques ont donc toutes besoin de fusionner leur stratégie de social CRM et la Big
Data pour monitorer, comprendre, suivre, capter et gérer les conversations des
consommateurs. Selon le directeur associé de la société Mc Kinsey, Eric Hazan « les
entreprises qui ont une bonne connaissance du client ont une croissance supérieure à
la moyenne.  » Cela s’avère donc être un enjeu stratégique déterminant pour les
marques souhaitant se différencier de la concurrence, tisser des liens solides avec ses
clients et connaître une croissance importante.
"Le rêve des marketeurs d’optimiser leur valeur client ne pourra se réaliser via les
réseaux que par le passage du seul mode transactionnel au mode conversationnel
avec le client. E-commerce, M-commerce, F-commerce constituent désormais une
opportunité inévitable pour une meilleure optimisation de la relation client." Et le31
community manager va jouer un rôle essentiel dans cette transition pour passer aux
nouveaux "4P : Permission, Proximité, Perception, Participation".
d. Une détection des signaux forts et faibles
Est désigné comme un signal faible selon l’économiste russo-américain Igor Ansoff
«  une information d’alerte précoce, de faible intensité, pouvant être annonciatrice
Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/31
communication-media/social_crm/
33
d’une tendance ou d’un événement important. » . En somme ce sont les éléments de32
perception d’un environnement, ces opportunités et ces menaces.
Les signaux faibles font partis de la
small data qui selon Rufus Pollock33
désigne une « quantité de données
que vous pouvez aisément stocker et
utiliser sur une seule machine et plus
précisément sur un seul ordinateur
portable ou serveur de haute qualité».
Les signaux faibles détectés grâce à la
small data permettent donc de
répondre à un problème ou à une
q u e s t i o n d e m a n i è r e m o i n s
contraignante qu'avec une solution Big Data, plus lourde et plus complexe.
Elle marque le début d’un processus de décision qui va permettre de réfléchir à ce
signal faible pour en dégager des actions.
Les signaux faibles extraits permettent d’identifier de nouveaux comportements, de
nouveaux consommateurs, de nouveaux critères de segmentation etc.
Sur les réseaux sociaux les contenus sont abondants et il n’est pas rare de voir
émerger des signaux faibles intéressants. Mais les marques ont pour obligation d’être
prudentes avec cette masse d’informations car elles ne se révèlent pas toujours
pertinentes. Les signaux faibles doivent être croisés à d’autres données de sources
différentes pour révéler leur valeur.
Un signal faible doit donc être travaillé, il ne peut pas être utilisé tel quel lorsqu’il est
détecté parmi tous les flux de données statiques.
Un signal faible peut être "qualitatif, ambigu, sans pertinence intrasèque, fragmentaire
et de formes et de sources diverses". Un professionnel peut s’en servir pour produire
une analyse prédictive intéressante pour son client mais seulement s’il le met en
contexte.
M2IE "Signaux faibles et angles morts, élargir sa vision périphérique" / Consulté le 27/03/2016 http://32
www.m2ie.fr/signaux-faibles-et-angles-morts-elargir-sa-vision-peripherique/
POLLOCK R "Forget Big Data, small data is the real revolution" / Consulté le 27/03/2016 http://33
blog.okfn.org/2013/04/22/forget-big-data-small-data-is-the-real-revolution/
34
Il est primordial que les marques définissent leurs objectifs afin de sélectionner ces
données que représentent des signaux faibles, les traiter et les interpréter afin d’en
faire ressortir des actions précises. Elles ont besoin de déterminer qu'est ce qu'une
information critique pour elle, si toutes les informations fragmentaires doivent être
traitées ou si il y a une délimitation des données à effectuer afin d'être en alerte et
porter son attention sur un élément en particulier. Par exemple pour les sociétés de
téléphonie comme SFR, Orange ou encore Bouygues Telecom une panne peut être
détectée en tant que signal faible grâce à un hashtag sur Twitter ou un commentaire
sur Facebook et peut donc être traitée de manière proactive.
Les marques sont aujourd'hui pour la plupart très à l'écoute de ces signaux faibles
mais certaines n'ont pas su y prêter attention et ce sont retrouvées sur le banc de
touche. Comme exemple, nous pouvons citer l'entreprise Kodak qui n'a pas su
détecter les signaux faibles annonçant le tournant du numérique. Elle n'a pas, à
contrario de ses concurrents, adapté ses offres et services avec l'évolution des usages
de ses clients. En 1988 elle comptait plus de 180 000 salariés aujourd'hui elle n'en
compte plus que 17 000 et "se bat pour survivre" dans cet univers très largement
concurrentiel.
Les sociétés comme Instagram ou Snapchat ont su s'adapter à la génération
connectée en écoutant les signaux faibles. Les chiffres sont évocateurs, en effet en
2012 Instagram valait 1 milliard de dollars pour 14 salariés et Snapchat valait en 2015,
20 milliards de dollars pour 60 salariés. Les signaux faibles détectés peuvent se34
transformer en signaux forts. Un signal fort est une "information qui confirme une
tendance actuelle et qui permet de bâtir une stratégie de réponse adéquate" .35
Ces signaux détectés, ils représentent une opportunité de créer des produits et des
services adaptés et optimisés en se calquant sur les besoins et usages des
consommateurs.
Inouixcurius "La force des Signaux faibles" / Consulté le 01/04/2016 http://www.inouixcurius.com/la-34
force-des-signaux-faibles/
MAUGER C. "Le glossaire de la veille" / Consulté le 01/04/2016 http://www.christianamauger.com/35
glossaire-de-la-veille
35
a. Traiter le volume en déterminant des KPI’s exploitables
Le volume de données est actuellement pharaonique. Pour que ce gigantesque flux
complexe, qui ne cesse d’évoluer, fasse sens et devienne un vecteur utile et profitable
à l'entreprise avec un retour sur investissement, il est nécessaire de déterminer des
KPI's exploitables et sensés.
Les KPI's « Indicateurs clés de performance (Key Performance Indicator) permettent
le pilotage et le suivi de l’efficacité des éléments auxquels ils sont rattachés. Leurs
principes résident essentiellement dans leur capacité à s’affranchir de la stérilité d’une
donnée brute. Ils sont très utiles lors de l'analyse des stratégies Big Data et
informatiques.
Il est donc vital pour l'entreprise de déterminer des KPI's en adéquation avec son
modèle économique, son ambition et les données dont elle dispose, pour tendre à la
réussite d'une stratégie Big Data.
Un KPI se détermine de plusieurs manières. Il doit être :
- En cohérence avec la stratégie business de l’entreprise
- Mesuré
- Actionnable
- Simple
- Unique
- Déterminé par une équipe mélangeant toutes les strates de l’entreprise
- Sans limite apparente
- Intégré (à l’entreprise)
L'entreprise doit, avant de déterminer des KPI's sur des actions externes, déterminer
des KPI's internes à l'entreprise. Ces trois KPI's sont : la synthèse, la vitesse et la
signifiance.
III. Mais les marques devraient adopter une stratégie social media
intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété..
36
Le KPI de la synthèse se définit tout simplement par une collaboration de toutes les
strates de l’entreprise. La Big Data ne fonctionne pas en silos, elle ne peut être
efficace si le top management n’engage pas la discussion avec le service informatique
et le marketing. Les employés de chaque service doivent communiquer entre eux et
déterminer ensemble l’utilité ou non d’une stratégie Big Data au sein de leur
entreprise. Il est également indispensable d’obtenir l’engagement d’un expert en Big
Data qui saura rassembler les employés autour des réelles opportunités et menaces
de la Big Data.
Le KPI de la vitesse se détermine lui par un bouleversement des méthodes de
management des équipes directrices. Les méthodes traditionnelles et dépassées, où
un processus durait des semaines voir des mois, ne fonctionnent plus dans un monde
ou tout va toujours plus vite. La Big Data a besoin de méthodes agiles et rapides qui
cassent les silos et permettent des processus courts et performants. La vitesse
implique également une provision constante en terme de données, ce qui va permettre
à l’entreprise de visualiser des insights sur le long terme. Un stratégie Big Data qui
n’est pas alimentée par des données en flux continu n’a aucune raison d’exister. Les
temps de réponse entre les différents acteurs de la stratégie doivent également être
courts pour permettre des prises de décisions rapides.
Le dernier KPI à prendre en compte est la signifiance. En effet l'entreprise doit
déterminer si une stratégie Big Data fait sens ou non, si l'analyse des données dont
elle dispose peut lui apporter de la valeur, qu'elle soit financière ou sociale. Tout le
processus doit être clair et signifiant pour toutes les strates de l'entreprise afin d'être
efficace.
Une fois les KPI's internes détectés et formulés l'entreprise doit déterminer ses
objectifs externes pour être plus performante sur les réseaux sociaux, que ce soit à
travers une campagne de communication, ou une gestion de la relation client.
Sur les réseaux sociaux différents indicateurs de performance peuvent être déterminés
comme : l'augmentation des conversions, l'augmentation des interactions avec la
communauté, l'augmentation de l'engagement de la communauté.
37
Ainsi que l'élargissement de la communauté, l'augmentation du trafic généré sur le site
internet ou encore l'augmentation du nombre d'achats réalisés grâce au plan média
mis en place.
Mais ce qui permet de savoir si la marque a atteint ses objectifs est réellement :
l'intention d'achat déclarée sur les réseaux sociaux, le nombre de nouveaux leads, le
taux de transformation de la campagne ainsi que le sentiment de la campagne (%
positif, neutre ou négatif).
Pour une campagne de communication que ce soit sur les réseaux sociaux ou ailleurs,
il est essentiel de définir des objectifs de performance pour chaque cible. En effet une
donnée n’a de sens que si elle révèle un insight qui permettra d’améliorer ou de créer
une expérience utilisateur nouvelle pour un segment précis par exemple. Elle doit être
attribuée à un but déterminé afin qu’il en résulte une satisfaction de la cible et une
relation client forte et profitable pour l'entreprise.
La donnée qui servira à déterminer ces KPI’s doit donc avoir un objectif clair pour
servir l’entreprise et être utile. Elle doit être pensée comme un projet déterminant de la
performance. Le flux de données sur les réseaux sociaux peut faire peur, le traitement
peut être complexe mais la détermination d’objectifs clairs peut simplifier et clarifier
une stratégie. Afin d'être appliqués efficacement ces KPI’s doivent être déterminés en
real-time, selon l’environnement et la société actuelle et plus sur des objectifs passés
pour être performants et apporter de la valeur à l’entreprise.
b. Créer des stratégies real-time data pour faire face à la vitesse
Afin de créer des stratégies Big Data rapides et performantes les entreprises peuvent
s’appuyer sur ce qu’on appelle la real-time
data (RTD). Cette data permet d’obtenir
directement une donnée après sa
collection. Il n’y a pas de délai entre le
temps ou l’information est collectée et
celui ou elle est traitée. Ce type de
donnée est utilisée pour le tracking ou
bien pour la navigation mais peut être
utilisée dans d’autres situations.
38
Comme vous pouvez le voir sur le schéma ci-contre, la real time data est un mélange
entre plusieurs stratégies : télémesure (« Technique permettant d'obtenir à distance les
valeurs de mesures effectuées dans des installations techniques. Par extension, une
télémesure désigne l'une de ces mesures à distance. ») + Big Data + smart data (« Le
smart data, que l'on pourrait traduire par données intelligentes, est une nouvelle
approche du traitement des données. Elle consiste à extraire de l'immense masse de
données procurées par la Big Data, les informations les plus pertinentes pour mener
des campagnes marketing. ») + l’internet des objets et enfin une stratégie digitale.
Une stratégie en real time permet donc d’agir directement dans le présent. Elle permet
de prendre des décisions rapides, de détecter des opportunités pour l’entreprise à
l’instant et de trouver rapidement des solutions à des problèmes. En somme la real
time data permet d’augmenter la performance opérationnelle immédiate de toutes les
équipes de l’entreprise.
Par exemple une entreprise qui souhaite diffuser une offre promotionnelle auprès de
prospects via leur géolocalisation dès qu'ils se trouvent près d'une enseigne, va
privilégier une stratégie real time. En effet de cette manière et grâce à la rapidité
d'acquisition des données, l'entreprise va pouvoir être pro-active et toucher sa cible
avant même qu'elle n'ait eu l'intention d'entrer dans l'enseigne.
L’avantage d’utiliser cette stratégie est de s’affranchir de toutes les complexités que
peut entrainer la donnée comme : l’installation de capteurs, l’opération, la
maintenance, les erreurs, le retravail des données, la logistique, la gestion des
services etc. L’architecture de cette donnée tend à être la plus simple possible pour
permettre une utilisation instantanée et une résolution des problèmes quasi immédiate.
Cependant la real time data représente un flux de données immense, elle est très
changeante, il y a de fortes variations, elle est hétérogène et surtout elle est non
standardisée. Elle nécessite un traitement spécial pour que l’architecture soit efficace.
Il faut donc que l'entreprise se pose les bonnes questions avant de se lancer dans une
stratégie real time. Par exemple : quels bénéfices peuvent être réalisés ? quel est
l’investissement à fournir dans une stratégie real time ? quels sont les outils pour
mener une telle stratégie ? etc. et cela est tout à fait compréhensible mais elles doivent
réfléchir étapes par étapes.
39
Tout d’abord en intégrant l’idée de cette stratégie au quotidien dans l’entreprise. La
real time data est traitée en ad hoc, elle est centrée sur un segment ou sur un
problème individuel et les revenus de cette stratégie peuvent variés largement en
fonction des objectifs. Chaque strate doit intégrer ces différents faits avant d’allouer un
budget à une telle stratégie. Enfin après une évaluation des risques et un état des lieux
des technologies à mettre en place, la stratégie pourra être créé et déployée.
Même complexe, cette donnée est une incroyable opportunité de monétisation pour
les marques capables de la capter. En effet dans notre société actuelle tout va très
vite, l’information apparaît et disparaît si rapidement que des analyses traditionnelles
sont rarement capables de capter ces flux et ainsi d’identifier les possibilités qu'offre la
real time data aux marques pour agir.
Par exemple une marque qui parviendra à communiquer et à envoyer directement des
informations à son client pendant qu'il déambulera dans les allées de son magasin
grâce à ses données détiendra un avantage non négligeable par rapport à ses
concurrents et pourra ainsi, possiblement influer sur sa décision et l’amener à finaliser
son achat. Les real time datas peuvent donc sensiblement réduire le temps entre la
pensée et l’acte d’achat et ainsi permettre aux marques d'être plus à l’écoute, plus
réactives mais également plus opérationnelles. Les modèles traditionnels en sont donc
bouleversés mais cela est intrinsèquement relié au bien-être financier des marques.
Ces données en temps réel ont également un aspect hautement positif au niveau de la
création de contenus. En effet une marque peut tout à fait s’en servir pour alimenter
ses posts sur les réseaux sociaux en étant la première à rebondir sur un insight fort
dégagé grâce aux données collectées. La marque peut par exemple se servir des
opinions positives ou négatives diffusées sur les médias sociaux par ses clients et
répercuter immédiatement ce qu’elle aura appris pour améliorer son modèle, ses
produits, son expérience client etc.
En somme la real time data possède de nombreux avantages comme le fait de pouvoir
utiliser des informations immédiatement pour manager des équipes, donner des
informations aux clients, rendre des processus plus performants et prendre des
décisions qui rapporteront de la valeur à l’entreprise.
40
c. Prendre en considération la variété des données pour créer une stratégie pertinente
La Big Data représente un ensemble. Comme nous avons pu le voir précédemment,
une donnée seule n’a aucune valeur car elle ne traduit rien, elle ne fait ressortir aucun
insight et ne peut être utile à l’entreprise en l'état. La Big Data doit être considérée
comme un ensemble. Comme un ensemble de données très variées (données
structurées et non structurées).
Les marques doivent comprendre que la donnée peut venir de n’importe où, que ce
soit des médias, des réseaux sociaux, des smartphones, des sites web, de la
télévision.. La donnée vient de partout et c'est cette diversité qui fait d’elle un élément
à forte valeur ajoutée pour les entreprises. Certes ce nouveau flux est difficile à capter
lorsqu’on sait qu’il vient des données de : géolocalisation, mobile, cartes de fidélités,
recherches, connexions.. mais c'est la diversité et la richesse des différentes sources
qui dans leur ensemble, le rende pertinent.
Pour mener à bien une stratégie Big Data les marques doivent comprendre que c’est
cette variété qui représente une opportunité. C’est grâce à l’analyse de textes,
d’images, de vidéos et de photos, tout cela en combiné que les marques pourront
capter des insights forts. Dans ce mémoire les réseaux sociaux ont été privilégiés mais
les marques, si elles souhaitent réussir à utiliser efficacement les données qu'elles
pourront détecter sur Facebook ou sur Twitter par exemple, devront apprendre à
fusionner et croiser ces datas avec d'autres datas qui proviendront des GPS ou alors
des médias traditionnels par exemple.
Bien entendu cette variété nécessite de mettre en place des solutions non plus
traditionnelles mais sophistiquées car 90% des données sont non structurées (les
données provenant des réseaux sociaux ne le sont pas, les images, les vidéos, et
l’audio, ne le sont pas non plus). Des solutions innovantes doivent donc être mises en
place par les marques pour explorer ce champ des possibles afin de visualiser et
modéliser ces données complexes.
Les marques disposent aujourd’hui de nombreuses données non structurées comme
des photos, des mails, des données provenant des GPS etc. mais également de
données structurées. Malheureusement elles ne savent pas encore comment s’en
servir et comment les fusionner pour mettre en place une stratégie efficace.
41
Les équipes en alliant et en rassemblant ces deux types de données peuvent s’en
servir pour découvrir et explorer des nouvelles métriques, des perspectives sur les
clients, les produits ou même les opérations en cours dans l’entreprise. L’alliance des
données peut donc amener les employés à prendre des décisions plus justes et les
plus précises in fine.
Il faut toutefois mettre en relief cette variété. Sur les réseaux sociaux par exemple, la
variété des données est immense entre la langue, la nature du post, la date etc. et il
serait tentant de tout analyser et de tout considérer comme important or tous les
tweets ne sont pas aussi importants les uns que les autres. Par exemple le tweet d’une
personne influente n’aura pas le même poids qu’un tweet d’une personne moins
influente. La variété de la donnée est donc très utile pour une stratégie complète et
performante mais elle peut également être un défi.
Les marques et les équipes marketing ont donc tout intérêt à se poser la question de
la fusion de toutes leurs données afin de s'appuyer sur cette mine d'information pour
mieux cibler et mieux comprendre les consommateurs mais également mieux mesurer
les performances des campagnes.
42
Il est évident que de nombreuses marques sont encore frileuses face à l'avancée
époustouflante que représente la Big Data et préfèrent rester figées dans leurs
méthodes d'analyse de données traditionnelles qui ne fonctionnent malheureusement
pas sur les réseaux sociaux. Aujourd'hui une marque qui souhaite donc s'implanter sur
Facebook ou Twitter de manière efficace et pertinente, sans la Big Data, n'y obtiendra
aucun résultat.
Comme nous avons pu le voir et malgré les réticences des marques, les différentes
complexités qu'entraîne la data que ce soit au niveau légal, financier ou encore
technique, ne doivent pas représenter un frein face aux bénéfices engendrés par leurs
choix stratégique. La Big Data permet de capter des opportunités, d'être pro-actif,
d'être cohérent. Elle permet aux marques de mieux cibler et de mieux s'adresser à
leurs publics sur les réseaux sociaux en créant des contenus adaptés et pertinents en
fonction d'insights forts. Si les marques veulent devenir audacieuses, innovantes et se
démarquer de la concurrence elles ont pour mission de s'intéresser au monde de la
Big Data.
Elles ont besoin de trouver la stratégie qui leur convient en fonction de leurs objectifs,
de leurs moyens mais également de leurs employés. Créer des méthodes agiles et
surtout de casser les silos afin de rassembler toutes les composantes de l'entreprise
autour d'un projet n'est pas chose facile, mais c'est une étape inévitable dans un tel
projet. Créer une stratégie en real time data grâce à des KPI's définis et pertinents, en
fonction des différentes variables de l'entreprise et en tenant compte de la variété de
toutes les données dont elle dispose, développera forcément une stratégie bénéfique
que ce soit au niveau financier ou au niveau social.
Aujourd'hui peu de marques ont vu leurs stratégies Big Data échouées, parce qu'elles
ont su prendre la mesure et la pertinence des retombées avant de se lancer dans
cette aventure.
IV. Conclusion
43
Toutes ces analyses sont le fruit de nombreuses recherches et réflexions et m'amènent
à penser que la Big Data deviendra très vite (si ce n'est pas déjà le cas) un
département privilégié dans chaque grande entreprise et un élément dopant et utile à
toutes les startups.
Ce mémoire m'a permis de remettre en question mes acquis sur les réseaux sociaux
d'avoir un regard neuf et une approche différente et encore plus pertinente pour
exploiter le maximum de la data à ma disposition au quotidien dans mes
recommandations pour des clients.
La Big Data analyse le présent et prédit le futur, j'en vient donc à me demander quel
sera le futur des marques mais également des utilisateurs sur les réseaux sociaux
grâce à elle.
44
Hadoop : « Un cluster Hadoop est un type particulier de traitement informatique en
grappe, conçu spécialement pour stocker et analyser de grandes quantités de
données non structurées dans un environnement distribué. » « En 2013, Facebook a
été identifié comme ayant le plus important cluster Hadoop dans le monde. Parmi les
autres utilisateurs clés de cette technologie, on retrouve Google, Yahoo et IBM. »36
Mapreduce : « C’est un modèle de programmation massivement parallèle adapté au
traitement de très grandes quantités de données. MapReduce est un produit Google
Corp. Les programmes adoptant ce modèle sont automatiquement parallélisés et
exécutés sur des clusters (grappes) d’ordinateurs. » 37
NoSQL : «  Le NoSQL (Not only SQL) désigne une catégorie de base de données
apparue en 2009 qui se différencie du modèle relationnel que l'on trouve dans des
bases de données connues comme MySQL ou PostgreSQL. Ceci permet d'offrir une
alternative au langage SQL. »38
In Memory : « Une base de données dite « en mémoire » (in-memory), ou IMDB (In
Memory DataBase), ou encore MMDB (Main Memory DB), désigne une base de
données dont les informations sont stockées en mémoire centrale afin d'accélérer les
temps de réponse. »39
OLTP (online transaction processing) : «  L’OLTP est un traitement transactionnel en
ligne qui sert à effectuer des modifications d'informations en temps réel. On le retrouve
essentiellement dans des opérations commerciales comme les opérations bancaires,
ou l’achat de bien divers. L’objectif de l’utilisation d’un tel système est de pouvoir
Le MagIt : http://www.lemagit.fr/definition/Hadoop-Cluster36
Piloter : http://www.piloter.org/business-intelligence/map-reduce.htm37
Igm Univ : http://www-igm.univ-mlv.fr/~dr/XPOSE2010/Cassandra/nosql.html38
Le MagIt : http://www.lemagit.fr/definition/In-Memory-Base-de-donnees-en-memoire39
V. Glossaire
45
insérer, et interpréter pour des besoins divers, les données de la base de données, en
toute sécurité. » 40
Mode Batch : « En informatique, un traitement par lots (batch processing en anglais)
est un enchaînement automatique d'une suite de commandes (processus) sur un
ordinateur sans intervention d'un opérateur1. Une fois que ce processus est terminé
(quel que soit le résultat), l'ordinateur traite le lot suivant. Le traitement des lots se
termine une fois que tous les lots de la pile ont été exécutés. »41
Architecture scale-out : « L'architecture scale-out s'applique aussi à l'informatique en
cluster ou distribuée, dans laquelle plusieurs petits serveurs se partagent la charge de
traitement d'une seule application. Par exemple, une charge de travail critique peut
être exécutée sur deux serveurs ou plus, le traitement étant partagé entre ces serveurs
selon une configuration actif-actif. Si un serveur tombe en panne, un autre peut
prendre le relais afin d'assurer la disponibilité de l'application. S'il faut plus de
redondance, il est possible d'étendre encore le cluster en y ajoutant d'autres noeuds
de serveur. »42
Petite Entreprise : http://www.petite-entreprise.net/P-3081-136-G1-definition-oltp-vs-olap.html40
Wikipedia : https://fr.wikipedia.org/wiki/Traitement_par_lots41
Le MagIt : http://www.lemagit.fr/conseil/Scale-up-ou-scale-out-le-meilleur-choix-pour-votre-datacenter42
46
Ouvrages / Livres Blancs
- KHAN G.F., "Seven Layers of social media analytics" 2015
- SCHMARZO B., "Big Data, Tirer parti des données massives pour développer
l'entreprise" 2013
- ORACLE, "La valeurs des données sociales" 2013
- JAMESPOT, "Big Data et réseaux sociaux : Mythes et Réalités" 2013
- Corps, "Guide du Big Data, l'annuaire de référence à destination des utilisateurs"
2015
- Synthesio, "Utiliser les médias sociaux pour créer de la valeur. Le social intelligence
au service de l'entreprise"
Article de Presse
- JAIME N. - CB News et JDN - 2015 "Comment dominer la data"
Sites Internet
- DENIAUD C. - http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a-
lheure-des-medias-sociaux/ - "Les enjeux de la Big Data à l'heure des médias sociaux"
- 2013
- LOULIDI N. - https://blogs.oracle.com/marketingcloud/fr/la-data-au-service-de-sa-
prsence-sur-les-rseaux-sociaux - "La data au service de sa présence sur les réseaux
sociaux" - 2015
- CLEMENT T. - http://www.madalana.fr/social-media-intelligence/ - "Social media
intelligence : une arme stratégique pour votre marque"
- THE SOCIAL CLIENT - http://www.actimag-relation-client.com/fr/article/social-media-
intelligence-service-toute-entreprise - "LE SOCIAL MEDIA INTELLIGENCE AU
SERVICE DE TOUTE L’ENTREPRISE "
- MICHIELS M. - http://culture-rp.com/2016/01/18/le-big-data-au-service-dun-modele-
customer-centric/ - "La Big Data au service d'un modèle customer centric" 2016
- MOISAN B. - https://siecledigital.fr/2015/11/25/data-marketing-efficace-inquietant/ -
"Le data marketing : efficace mais inquiétant"
VI. Bibliographie - Webographie
47
- BALAGUE C. - http://www.soft-concept.com/surveymagazine/opportunites-big-data-
et-donnees-reseaux-sociaux/ - "Opportunités du Big Data et des données issues des
réseaux sociaux"
- TERADATA - http://www.forbes.com/sites/teradata/2015/05/27/capitalize-on-social-
media-with-big-data-analytics/#53e9740cca3e - "Capitalize on social media with big
data analytics" 2015
- BOWDEN J. - http://www.socialmediatoday.com/content/reasons-explore-big-data-
social-media-analytics-videos - "Reasons to Explore Big Data with social media
analytics" 2014
- HUNG D. - http://tech.co/impact-big-data-social-media-marketing-strategies-2016-01
- "The impact of Big Data on social media marketing strategies" 2016
- INCITE GROUP - http://www.incite-group.com/data-and-insights/big-data-social-
media-social-mining-part-2-finding-insight - "Big Data in Social Media : Social mining
part 2 : finding insight"

48
Annexe 1 - Fiches de lecture Page 49
Annexe 2 - Synthèse des focus groups Page 55
Annexe 3 - Interviews Page 61
Annexe 4 - Etudes quantitatives Page 78
Annexe 5 - Corpus d’articles Page 80
VII. Annexes
49
Annexe 1 - FICHES DE LECTURE
1/ Big Data - Tirer parti des données massives pour développer l’entreprise
Auteur : Bill Schmarzo Date de parution : 2013
«Le big data exploite des perspectives uniques et concrètes recueillies sur vos clients,
vos produits et vos opérations pour réorganiser vos processus de création de valeur,
optimiser vos initiatives métier clés et découvrir de nouvelles opportunités de
monétisation.»
«De nouvelles sources de données provenant des médias sociaux et des mobiles,
générées par des capteurs ou des machines, ont le potentiel de renouveler les
processus de création de valeur d’une organisation. Avec les indications qu’elles nous
fournissent sur les intérêts, les passions, les affiliations et les associations des
consommateurs, les données issues des médias sociaux peuvent servir à optimiser
l’engagement client (de l’acquisition des clients de la brand-advocacy, en passant par
l’activation, la maturation, la vente croisée (cross-selling), la vente initiative (up selling)
et la rétention).»
«Les volumes massifs de données (se chiffrant en téraoctet, voire en pétaoctets), leur
diversité et leur complexité mettent à rude épreuve les capacités des piles
technologiques existantes.»
«En conséquence, les organisations informatiques ou non, sont confrontées aux
difficultés suivantes : les indications fournies par les médias sociaux, les mobiles ou
les machines ne sont pas disponibles en temps voulu, dans un monde où l’expérience
client en temps réel est en train de devenir la norme.»
«Le mouvement du Big Data est en train d’engendrer une transformation des
organisations. Celles qui l’adoptent comme un facteur transformationnel passent d’une
vision rétrospective tournée vers le passé, qui utilise des tranches partielles de
données échantillonnées ou agrégées par lots pour surveiller l’activité à une vision des
opérations prédictive, tournée vers l’avenir qui exploité en temps réel toutes les
données disponibles.»
50
«Exploiter les perspectives exploitables et les recommandations personnalisées
basées sur les comportements et les tendances des consommateurs pour améliorer
leurs relations et repenser leur expérience client.»
«Identifier vos clients cibles et les solutions qu’ils souhaitent. Concentrez-vous sur la
recherche de solutions qui améliorent leur performance et les aident à gagner de
l’argent. Ce faisant, vous devez détailler les profils types (personas) des décideurs
économiques. Investissez du temps pour suivre ces derniers et comprendre quelles
décisions ils essaient de prendre, à quelle fréquence et dans quelles situations.
Passez ce temps à recueillir des informations sur ce qu’ils essaient d’accomplir, au lieu
d’essayer de comprendre ce qu’ils font.»
«Des sociétés comme Facebook ont réalisé des expérimentations «live» pour réaliser
des itérations rapides dans l’amélioration de leur expérience utilisateur. Instrumentez
chaque point d’engagement de l’expérience utilisateur pour pouvoir détecter les
habitudes d’utilisation ainsi que les goulets d’étranglement potentiels et les éléments
de frustration que les utilisateurs pourraient avoir dans leur interaction avec
l’interface.»
«Les données deviennent pour l’entreprise un actif à exploiter (...) plus on en possède,
plus elles sont détaillées, et plus vous serez susceptible d’en tirer des perspectives.»
«Les modèles qui vous permettent d’acquérir, de profiler et de segmenter vos clients,
qui vous servent à mesurer l’efficacité d’une campagne ou que vous utilisez pour la
maintenance prédictive sont tous des facteurs susceptibles de vous différencier sur le
marché, qui peuvent être exploités pour augmenter votre valeur globale et qui peuvent
nécessiter une protection juridique.»
«Le Big Data offre quatre possibilités (...) : fouiller dans le moindre détail toutes les
données transactionnelles dont la plus grande partie n’est pas analysée aujourd’hui en
raison des coûts d’entreposage des données. C’est ce qu’on appelle les dark data.
Intégrer des données non structurées avec des données structurées. Exploiter en
temps réel et intégrer l’analytique prédictive.»
«Les données non structurées (...) (par exemple des documents texte, des
publications sur les réseaux sociaux, des commentaires de médecins, des fichiers
logs, des commentaires de clients.»
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux
Mémoire de fin d'étude - La big data et les réseaux sociaux

Contenu connexe

Tendances

Soutenance MéMoire V3
Soutenance MéMoire V3Soutenance MéMoire V3
Soutenance MéMoire V3
Titiopendoor
 
Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2
Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2
Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2
Sofien Benrhouma
 
présentation soutenance PFE.ppt
présentation soutenance PFE.pptprésentation soutenance PFE.ppt
présentation soutenance PFE.ppt
Mohamed Ben Bouzid
 
Rapport PFE : Développement D'une application de gestion des cartes de fidéli...
Rapport PFE : Développement D'une application de gestion des cartes de fidéli...Rapport PFE : Développement D'une application de gestion des cartes de fidéli...
Rapport PFE : Développement D'une application de gestion des cartes de fidéli...
Riadh K.
 

Tendances (20)

Soutenance MéMoire V3
Soutenance MéMoire V3Soutenance MéMoire V3
Soutenance MéMoire V3
 
Cours Big Data Chap1
Cours Big Data Chap1Cours Big Data Chap1
Cours Big Data Chap1
 
Rapport de stage PFE - Mémoire master: Développement d'une application Android
Rapport de stage PFE - Mémoire master: Développement d'une application AndroidRapport de stage PFE - Mémoire master: Développement d'une application Android
Rapport de stage PFE - Mémoire master: Développement d'une application Android
 
Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2
Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2
Rapport Projet De Fin D'étude Développent d'une application web avec Symfony2
 
Rapport de projet de conception et de développement
Rapport de projet de conception et de développementRapport de projet de conception et de développement
Rapport de projet de conception et de développement
 
Big data
Big dataBig data
Big data
 
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...Rapport (Mémoire de Master) de stage PFE pour  l’obtention du Diplôme Nationa...
Rapport (Mémoire de Master) de stage PFE pour l’obtention du Diplôme Nationa...
 
Rapport PFE BIAT Conception et mise en place d’une plate-forme de gestion des...
Rapport PFE BIAT Conception et mise en place d’une plate-forme de gestion des...Rapport PFE BIAT Conception et mise en place d’une plate-forme de gestion des...
Rapport PFE BIAT Conception et mise en place d’une plate-forme de gestion des...
 
Introduction au BIG DATA
Introduction au BIG DATAIntroduction au BIG DATA
Introduction au BIG DATA
 
présentation soutenance PFE.ppt
présentation soutenance PFE.pptprésentation soutenance PFE.ppt
présentation soutenance PFE.ppt
 
Mise en place d'une stratégie de marketing digital
Mise en place d'une stratégie de marketing digital Mise en place d'une stratégie de marketing digital
Mise en place d'une stratégie de marketing digital
 
Rapport stage pfe
Rapport stage  pfe Rapport stage  pfe
Rapport stage pfe
 
rapport de projet de fin d'étude_PFE
rapport de projet de fin d'étude_PFErapport de projet de fin d'étude_PFE
rapport de projet de fin d'étude_PFE
 
Soutenance mémoire de fin d'études
Soutenance mémoire de fin d'étudesSoutenance mémoire de fin d'études
Soutenance mémoire de fin d'études
 
Rapport PFE : Développement D'une application de gestion des cartes de fidéli...
Rapport PFE : Développement D'une application de gestion des cartes de fidéli...Rapport PFE : Développement D'une application de gestion des cartes de fidéli...
Rapport PFE : Développement D'une application de gestion des cartes de fidéli...
 
Rapport De PFE
Rapport De PFERapport De PFE
Rapport De PFE
 
Rapport de stage
Rapport de stage Rapport de stage
Rapport de stage
 
Rapport de stage Application web Gestion RH ASP.NET MVC5
Rapport de stage Application web Gestion RH ASP.NET MVC5Rapport de stage Application web Gestion RH ASP.NET MVC5
Rapport de stage Application web Gestion RH ASP.NET MVC5
 
Rapport PFE Développent d'une application bancaire mobile
Rapport PFE Développent d'une application bancaire mobileRapport PFE Développent d'une application bancaire mobile
Rapport PFE Développent d'une application bancaire mobile
 
Rapport de projet de fin d'étude licence informatique et multimédia
Rapport de projet de fin d'étude licence informatique et multimédiaRapport de projet de fin d'étude licence informatique et multimédia
Rapport de projet de fin d'étude licence informatique et multimédia
 

En vedette (6)

Memoire recherche
Memoire rechercheMemoire recherche
Memoire recherche
 
Conférence Big Data HEC Paris 2015
Conférence Big Data HEC Paris 2015Conférence Big Data HEC Paris 2015
Conférence Big Data HEC Paris 2015
 
Valtech - Du BI au Big Data, une révolution dans l’entreprise
Valtech - Du BI au Big Data, une révolution dans l’entrepriseValtech - Du BI au Big Data, une révolution dans l’entreprise
Valtech - Du BI au Big Data, une révolution dans l’entreprise
 
Big Data : concepts, cas d'usage et tendances
Big Data : concepts, cas d'usage et tendancesBig Data : concepts, cas d'usage et tendances
Big Data : concepts, cas d'usage et tendances
 
Big data - Cours d'introduction l Data-business
Big data - Cours d'introduction l Data-businessBig data - Cours d'introduction l Data-business
Big data - Cours d'introduction l Data-business
 
BigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big DataBigData_Chp1: Introduction à la Big Data
BigData_Chp1: Introduction à la Big Data
 

Similaire à Mémoire de fin d'étude - La big data et les réseaux sociaux

Hadoop et le big data
Hadoop et le big dataHadoop et le big data
Hadoop et le big data
Juvénal CHOKOGOUE
 
cdg69-i-int-2017-sujet-projet_etude-isi-sic.pdf
cdg69-i-int-2017-sujet-projet_etude-isi-sic.pdfcdg69-i-int-2017-sujet-projet_etude-isi-sic.pdf
cdg69-i-int-2017-sujet-projet_etude-isi-sic.pdf
ZkSadrati
 
Conferencen4 cciderennes-130410072856-phpapp02[1]
Conferencen4 cciderennes-130410072856-phpapp02[1]Conferencen4 cciderennes-130410072856-phpapp02[1]
Conferencen4 cciderennes-130410072856-phpapp02[1]
Isabelle Heuzé
 

Similaire à Mémoire de fin d'étude - La big data et les réseaux sociaux (20)

Big Data Des méandres des outils au potentiel business
Big Data   Des méandres des outils au potentiel businessBig Data   Des méandres des outils au potentiel business
Big Data Des méandres des outils au potentiel business
 
10 tendances principales en matière de solution décisionnelle pour 2015
10 tendances principales en matière de solution décisionnelle pour 201510 tendances principales en matière de solution décisionnelle pour 2015
10 tendances principales en matière de solution décisionnelle pour 2015
 
Big Data ete learning Analytics
Big Data ete learning AnalyticsBig Data ete learning Analytics
Big Data ete learning Analytics
 
Les 5 Tendances de la Performance Digitale en 2016
Les 5 Tendances de la Performance Digitale en 2016Les 5 Tendances de la Performance Digitale en 2016
Les 5 Tendances de la Performance Digitale en 2016
 
BigData BigBuzz @ Le Node
BigData BigBuzz @ Le Node BigData BigBuzz @ Le Node
BigData BigBuzz @ Le Node
 
AGMQ 2011 : Les données libres et le territoire
AGMQ 2011 : Les données libres et le territoireAGMQ 2011 : Les données libres et le territoire
AGMQ 2011 : Les données libres et le territoire
 
Conférence Idc entreprise 2.0 DSI lyonnaise des eaux
Conférence Idc entreprise 2.0   DSI lyonnaise des eauxConférence Idc entreprise 2.0   DSI lyonnaise des eaux
Conférence Idc entreprise 2.0 DSI lyonnaise des eaux
 
La plateforme OpenData 3.0 pour libérer et valoriser les données
La plateforme OpenData 3.0 pour libérer et valoriser les données  La plateforme OpenData 3.0 pour libérer et valoriser les données
La plateforme OpenData 3.0 pour libérer et valoriser les données
 
Hadoop et le big data
Hadoop et le big dataHadoop et le big data
Hadoop et le big data
 
La veille dans un environnement numérique mouvant
La veille dans un environnement numérique mouvantLa veille dans un environnement numérique mouvant
La veille dans un environnement numérique mouvant
 
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
Livre Blanc ALTARES: La Data, nouveau disrupteur du business model des entrep...
 
BigData & Cloud @ Excelerate Systems France
BigData & Cloud @ Excelerate Systems FranceBigData & Cloud @ Excelerate Systems France
BigData & Cloud @ Excelerate Systems France
 
Maîtriser concrètement le Big Data
Maîtriser concrètement le Big DataMaîtriser concrètement le Big Data
Maîtriser concrètement le Big Data
 
Big data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBig data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiers
 
Introduction au BigData.pdf
Introduction au BigData.pdfIntroduction au BigData.pdf
Introduction au BigData.pdf
 
Introduction au BigData.pdf
Introduction au BigData.pdfIntroduction au BigData.pdf
Introduction au BigData.pdf
 
cdg69-i-int-2017-sujet-projet_etude-isi-sic.pdf
cdg69-i-int-2017-sujet-projet_etude-isi-sic.pdfcdg69-i-int-2017-sujet-projet_etude-isi-sic.pdf
cdg69-i-int-2017-sujet-projet_etude-isi-sic.pdf
 
Présentation d'Atelier Open data 2014
Présentation d'Atelier Open data 2014Présentation d'Atelier Open data 2014
Présentation d'Atelier Open data 2014
 
Conferencen4 cciderennes-130410072856-phpapp02[1]
Conferencen4 cciderennes-130410072856-phpapp02[1]Conferencen4 cciderennes-130410072856-phpapp02[1]
Conferencen4 cciderennes-130410072856-phpapp02[1]
 
Atelier réseaux sociaux sur la veille
Atelier réseaux sociaux sur la veilleAtelier réseaux sociaux sur la veille
Atelier réseaux sociaux sur la veille
 

Mémoire de fin d'étude - La big data et les réseaux sociaux

  • 1. Projet de recherche appliquée Marty Chloé CCN 4B Promotion : 2015 - 2016 Tuteur : Clément Brygier Société : Digital Insighters Titre : Co-fondateur et CEO Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?
  • 2. 4 Je tiens à remercier très sincèrement toutes les personnes qui m’ont soutenue et aidée pour la rédaction de ce mémoire. Je remercie particulièrement mon directeur de mémoire Monsieur Clément Brygier directeur et CEO de Digital Insighters qui a su m’épauler et m’orienter lors de mes recherches et de ma rédaction afin que ce mémoire puisse être tel que je le souhaitais. Je remercie également Madame Maillet ma tutrice de mémoire ainsi que l’équipe enseignante de l’ISCOM pour leurs conseils si précieux. Je tiens également à remercier : Zorana Ratkovic, Isabelle Tronchet et Marguerite Leenhardt pour leur temps et leur professionnalisme lors de mes interviews. Enfin merci aux acteurs qui permettent chaque jour à des centaines de marques de cibler et de produire des contenus adéquats grâce à la Big Data.
 Remerciements
  • 3. 5 Sommaire I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent des problèmes de complexité et d’éthique.. a. La complexité technique et financière b. La complexité légale c. L’éthique II. Quelques marques même si elles restent rares voient l’opportunité que peuvent apporter les données.. a. Un ciblage beaucoup plus pertinent b. Des contenus optimisés c. Une meilleure relation client à clé d. Une détection des signaux forts et faibles III.Mais les marques devraient adopter une stratégie social media intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété.. a. Traiter le volume en déterminant des KPI’s exploitables b. Créer des stratégies real-time data pour faire face à la vitesse c. Prendre en considération la variété des données pour créer une stratégie pertinente IV. Conclusion V. Glossaire VI. Bibliographie/Webographie VII. Annexes Page 7 à 15 Page 7 à 11 Page 11 à 14 Page 15 à 17 Page 42 Page 18 à 34 Page 18 à 24 Page 24 à 28 Page 28 à 32 Page 32 à 34 Page 35 à 15 Page 35 à 37 Page 37 à 39 Page 40 à 41 Page 44 à 45 Page 46 à 47 Page 48 à 84
  • 4. 6 Les réseaux sociaux sont des espaces qui permettent à tout un chacun de créer des réseaux d’amis et de relations professionnelles. Ces réseaux sociaux génèrent chaque jour des millions de données. En effet chaque minute plus de 4 166 667 likes ont été distribués sur des posts Facebook, plus de 1 736 111 photos ont été likées sur Instagram et 347 222 tweets ont été envoyés sur Twitter. Toutes ces données font parties du web social. Le web est dit social depuis qu’Internet est devenu un espace de socialisation où des millions d’utilisateurs créent et interagissent avec du contenu. Internet a donc évolué en même temps que les usages. Ces nouvelles pratiques ont contraint les communicants et les marques à trouver une nouvelle manière d’analyser et d’utiliser ce flux de données numériques qu’on appelle la data. C’est pour analyser ces données sur les réseaux sociaux qu’en 2009 le terme «social media analytics» est apparu sur Google. Ce terme désigne le fait de convertir et de transformer en connaissances signifiantes des données non structurées grâce à des outils et des solutions adaptées. L’analyse des conversations sur les réseaux sociaux représente un enjeux identitaire pour les marques afin de déterminer leur influence, les sentiments des utilisateurs et même prédire des sujets émergeants. Mais ces données représentent également un enjeux financier car selon une étude Syncapse de 2013, un fan Facebook aurait une valeur de 174,17$ .1 Ce mémoire a pour vocation de répondre à la problématique : «Comment l’explosion quantitative de la data va donner aux marques l’opportunité de mieux cibler et de mieux s’adresser à leurs publics sur les réseaux sociaux alors que l’utilisation et l’exploitation de ces données s’avère être très complexe et pose un problème d’éthique ?» en se basant sur des études concrètes et en induisant des préconisations pour appréhender les trois V de la données : volume, vitesse et variété dans les stratégies social media des marques. 
 Syncapse - Value of a Facebook Fan - 2013 - : http://www.syncapse.com/value-of-a-facebook-1 fan-2013/#.Vwp7ljb1bkH / Consulté le 28/02/2016 Introduction
  • 5. 7 a. La complexité technique et financière La data entraîne une modification et une transformation des organisations mais elle entraîne également une certaine complexité notamment technique. En effet avec plus de 3,2 billion d’utilisateurs du web , le volume de données générées est faramineux.2 En 2011 l’humanité aurait créé environ 2 zetta octets (Zo) de données numériques ce3 qui équivaut à 2 millions de To. Cela requiert donc des solutions et des outils adaptés à ces nouveaux ordres de grandeurs afin de récupérer, analyser et utiliser les données. Aujourd’hui nous entendons les termes Hadoop (cf. glossaire), Mapreduce (cf. glossaire), NoSQL (cf. glossaire) ou encore In Memory (cf. glossaire), ce sont ces outils relativement complexes pour des personnes non initiées, qui permettent d’analyser les données. Depuis plusieurs années les entreprises utilisent ces outils avec des architectures relationnelles de type OLTP (cf. glossaire) pour traiter les données. Ce type d’architecture était efficace lorsqu’il ne fallait analyser que des centaines de gigaoctets voir des teraoctets en mode batch, ce qui veut dire en traitement par lots mais aujourd’hui tout va plus vite, plus loin et ces architectures sont pour la plupart dépassées. Les utilisateurs métier ont eu l’habitude d’un traitement nécessitant plusieurs semaines voir plusieurs mois. Au final ces outils n’étaient pas pourvus d’une «intelligence» et n’étaient centrés que sur des données structurées ce qui ne permettaient pas l’analyse des données sur les réseaux sociaux étant qualifiées de données non structurées. BERGE F. "La terre compte 3,2 milliards d'internautes" / Consulté le 04/03/2016 : http://2 bfmbusiness.bfmtv.com/entreprise/la-terre-compte-32-milliards-d-internautes-890165.html SIMEON G. "Données le vertige" / Consulté le 04/03/2016 http://www.liberation.fr/futurs/2012/12/03/3 donnees-le-vertige_864585 I. L’utilisation et l’exploitation des données sur les réseaux sociaux posent des problèmes de complexité et d’éthique..
  • 6. 8 C’est dans ce contexte qu’une nouvelle génération d’outils a été développée. La majorité ont été développés en open-source afin de permettre un développement et une innovation en mode agile. La méthode agile a été élaborée en 2011 par 17 acteurs influents en informatique et permet de « proposer un nouveau mode de conception des programmes informatiques. Cette méthode fonctionne sur la base de l'itératif et de l'incrémental, les tâches vont s'effectuer petit à petit, par ordre de priorité, avec des phases de contrôle et d'échange avec le client » . Le but en utilisant cette méthode4 était réellement de les faire évoluer plus rapidement qu’un fournisseur traditionnel. Facebook ne pouvant exploiter les outils traditionnels a notamment développé ses propres outils comme : Hive , qui permet d'effectuer des requêtes sur un cluster5 Hadoop en langage SQL et Cassandra qui est une base de données orientée par6 colonnes de type NoSQL. Cette nouvelle génération d’outils a donné naissance à une architecture dites «scale- out» (cf glossaire) et donc à extensibilité horizontale qui permet de nombreuses applications dédiées. Que ce soit au niveau des outils ou des architectures, le domaine de la Big Data a évolué très rapidement ces dernières années et les marques se sont souvent découragées face à cette évolution technique complexe. Si certaines marques ont eu le courage et les moyens de s'offrir certains de ses outils, elles en sont tout de même venu à se poser la question de la récupération des données dont elles disposent. II convient de savoir que les données provenant des réseaux sociaux sont à quasiment 85% détenues par les géants : Facebook, Google7 et Twitter et qui selon leurs envies définissent les règles de la récupération de données. Les marques peinent donc à suivre et à comprendre ces nouveaux usages, les opportunités et les risques de ces données. Si les entreprises disposent de ces outils, elles en viennent à se poser la question de la récupération des données dont elles disposent. Sémaweb "La méthode agile" / Consulté le 07/03/2016 : http://www.semaweb.fr/101-prestations/2714 Wikipédia "Hive" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Apache Hive5 Wikipédia "Cassandra" / Consulté le 07/03/2016 : https://fr.wikipedia.org/wiki/Cassandra (base de6 données) Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 07/03/2016 : https://www.cnil.fr/fr/loi-78-17-du-6-7 janvier-1978-modifiee
  • 7. 9 IBM a déclaré que « 90% des données de l'entreprise seraient inexploitables » . Les8 entreprises utilisent des outils trop traditionnels, en mode macro, et cela entraîne la perte de beaucoup de données. Les données exploitables seraient donc partielles, informelles ou non consolidées. La société a notamment mis en garde les entreprises en déclarant : «Plus la puissance de calcul des ordinateurs progresse et plus les entreprises deviennent bêtes.» et le directeur du département analytics déclarait en 2001 que «les entreprises les plus chanceuses sont capables d'analyser 7 % de leurs données tout au plus». Alan Mitchell, expert britannique de la question des données a également déclaré «le principal défi est celui de la "logistique de l'information" : comment transmettre la bonne information aux bonnes personnes, au bon format, au bon moment, pour éclairer les actions à mettre en place pour servir les objectifs business de l'entreprise sur Internet et dans le monde réel.» La disposition des bons outils n'entraîne donc pas forcément la récupération de la donnée dont veut se servir l'entreprise. La question d'analyse des données intervient également dans cette complexité technique. En effet aujourd'hui il s'avère être relativement complexe de transférer des gros volumes de données entre l'entrepôt de données et les environnements d'analyse. Cela oblige les organisations à travailler uniquement sur des données agrégées ou échantillonnées car le processus s'avère handicapant pour la découverte et l'exploration de nouvelles données. Les organisations ne sont donc aujourd'hui pas encore équipées pour analyser ces flux. Admettons que l'entreprise dispose des bons outils, qu'elle a pu récupérer les données des réseaux sociaux des mains de Facebook ou Google, qu'elle a su utiliser un processus court pour éviter le temps d'attente entre l'entrepôt et les environnements d'analyse, il lui faut tout de même se poser la question de la qualification de la donnée qu'elle compte analyser et utiliser. Lors de l'analyse de celle-ci les marques ne mettent pas à distance la qualification. Elles voient les données comme des variables mais pas comme des chiffres. Or les données n'ont pas de sens lorsqu'elles sont traitées en tant que chiffres. Médias sociaux "Les enjeux de la Big Data à l'heure des médias sociaux" / Consulté le 09/03/20168 http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a-lheure-des-medias-sociaux/
  • 8. 10 Elles ne mettent également pas à distance la qualité des données ce qui reste l'un des enjeux majeurs de la récupération et de l'analyse de celles-ci. En effet il faut déterminer leur influence et leur pertinence. Par exemple un commentaire n'aura pas le même poids, la même valeur, qu'un article sur un blog et un tweet d'un utilisateur lambda n'aura pas la même valeur qu'un tweet de Jack Dorsey (créateur de Twitter). Une donnée doit donc être analysée pour sa qualité et en terme de variable. La question de la complexité technique est une réelle interrogation au sein des équipes. Les utilisateurs métiers ainsi que leurs hiérarchies doivent être plus ouverts et intégrer une mentalité d’abondance pour utiliser cette puissance de calcul illimitée afin de transformer les données et créer des nouveaux algorithmes enrichis. Malheureusement aujourd’hui encore trop d’entreprises utilisent des outils d’analyse traditionnels et sont incapables de gérer le tsunami de données qui arrivent des réseaux sociaux. Selon l’étude Axys Consultants réalisée par OpinionWay , ce qui9 freine les entreprises par rapport à la data sont : la complexité technique (50%) , un manque de compétence (42%) et entre autres les moyens financiers (39%). Cette incapacité et cette peur, est notamment observée dans les grandes entreprises qui fonctionnent en silos étanches et qui freinent les différentes équipes à travailler ensemble. Aujourd’hui encore beaucoup de directions métiers qui cherchent à lancer des projets rapidement pensent qu’un projet affecté aux directions informatiques est couteux et long, alors qu’en réalité cela se révèle dans la majorité des cas inexact. Les métiers doivent accepter de travailler ensemble et de partager leurs informations pour conduire des projets Big Data efficaces et pour rentabiliser ces stratégies. En terme financier, la data représente également une complexité pour les entreprises comme cité précédemment. Toujours selon l’étude d’Opinion Way, seulement 14% des dirigeants prévoient des investissements sur la Big Data à terme. Les entreprises diminuent leurs effectifs de jours en jours et le nombre de ressources disponibles pour gérer les données diminue alors que le volume des données augmente. Les plates-formes utilisées aujourd’hui pour gérer les données ont besoin de compétences humaines très spécialisées. Cela à d’ailleurs fait émerger un nouveau métier spécialisé : le data scientist. Axys "Big Data" / Consulté le 09/03/2016 : http://www.axys-consultants.fr/wp-content/files_mf/9 1435679233CPAxys_EtudeBigData_02.07.15.pdf
  • 9. 11 La diminution des effectifs représente donc un manque alors que en terme de coûts et selon la loi de Moore (co-fondateur d’Intel) la puissance de calcul double tous les 1810 mois à coût constant, ce qui produit en somme un avantage économique relativement prévisible. Il faut néanmoins mettre en exergue le fait que le coût d’extraction au Go est relativement faible mais le coût des licences des outils est très élevé. Pour une grande entreprise cela peut aller de milliers K€ à des M K€. Malgré le petit budget dont disposent la plupart des entreprises au niveau de la data cela représenterait donc selon la loi de Moore un investissement constant qui permet entre autre de réduire les coûts des tâches comme le reporting, la collecte de données etc. et leur permet d’innover et d’optimiser les coûts de production. Durant les prochaines années les entreprises vont devoir choisir parmi différentes stratégies pour déployer la data au sein de leurs stratégies de communication : former leurs employés en interne, former des partenariats stratégiques avec des solutions spécialisées, acquérir une start-up dans l’analyse des données ou faire appel à des fournisseurs tiers en mode SaaS. Chacune de ces solutions engrangera différents niveaux de coûts mais en effet face à l’augmentation des données elles n’auront plus le choix que de se lancer pour se démarquer de la concurrence. Bien sur chaque décision propulsera l’entreprise au statut d’audacieuse et la complexité technique que cela entraînera n’en sera que bénéfique à son fonctionnement. Certaines entreprises investissent déjà lourdement dans l'analyse de données pour s'améliorer et gagner en parts de marchés. Ces entreprises sont : Amazon, Facebook, Google, Uber ou encore Airbnb. b. La complexité légale La Big Data entraîne une complexité légale à savoir ses contours qui sont encore flous et posent de nombreuses interrogations. La loi informatique et liberté du 6 janvier 1978 fait la distinction entre données11 comportementales et données personnelles. Futura Science "Loi de moore" / Consulté le 09/03/2016 : http://www.futura-sciences.com/magazines/10 high-tech/infos/dico/d/informatique-loi-moore-2447/ Cnil "Loi 78-17 du 6 janvier 1978" / Consulté le 09/03/2016 https://www.cnil.fr/fr/loi-78-17-du-6-11 janvier-1978-modifiee
  • 10. 12 En effet une donnée dite personnelle est récoltée grâce à un formulaire que les utilisateurs remplissent sur Internet par exemple. En revanche les données dites comportementales sont des données anonymes qui ont été récoltées via un volume important d’utilisateurs. Il convient donc de savoir que seuls les traceurs comportementaux nécessitent l’accord de l’utilisateur alors que les traceurs techniques mis en place par les sites e- commerce par exemple n’ont pas besoin du consentement de l’utilisateur. La loi déclare également : « les données à caractère personnel ne peuvent être collectées et traitées que de manière « loyale et licite » nécessitant d’obtenir un accord préalable des individus et de ne pas les utiliser pour autre chose ». Par ailleurs certaines données dites sensibles sont tout simplement interdites de collecte ou traitement: les données de santé (il existe quelques exceptions), origines raciales, opinions politiques, religieuses etc... Cependant il convient de remarquer que toutes les autres données peuvent être exploitées et que les détournements sont possibles. La loi ne parvient pas à fixer un cadre clair. La question que se posent les marques est donc de savoir si une donnée est personnelle ou non afin de l'utiliser. La CNIL soulève de nombreux débats à ce sujet car selon ses termes une adresse IP est une donnée personnelle, or une adresse IP est affectée à une machine et non à un individu. Une adresse IP est-elle donc une donnée personnelle ? Du côté des entreprises la CNIL tente de cadrer leurs agissements. Elle les a notamment, depuis 2014, obligées à supprimer au bout de 13 mois les données personnelles des internautes qu'elles ont pu récolter grâce à des formulaires, (sachant que les données récoltées anonymement ne sont pas inclues dans cette décision). Les entreprises n'ayant pas supprimé les données en 2015 ont donc été mises en demeures par la CNIL. Le géant Facebook a d'ailleurs été mis en demeure en 2016 car il trackait les utilisateurs alors même qu'ils n'étaient pas connectés sur le réseau social. Plusieurs autres faits sont reprochés à Facebook comme : «le recueil et traitement sans consentement des opinions politiques, religieuses, et-liées-à l'orientation sexuelle des utilisateurs, le dépôt des cookies publicitaires sans informations au préalable et le transfert des données des utilisateurs européens vers les Etats-Unis (plus possible
  • 11. 13 depuis une décision de justice du 6 octobre 2015 )». Le cloud s'avère être également12 un souci dans l'analyse des données car ils nécessitent de transférer les data vers des serveurs dont la localisation est opaque. Aujourd'hui les entreprises ont besoin d'être rassurées sur le fait que leurs données se seront pas stockées aux Etats-Unis.13 La présidente de la CNIL va même plus loin car elle «demande aussi que les membres puissent s'opposer à la combinaison de l'ensemble de leurs données à des fins publicitaires». Cela reviendrait à la fin de la publicité ciblée et donc à une grande part des revenus du réseau social, ce qui serait catastrophique pour le bien-être financier du géant. L’entreprise aurait 3 mois pour se remettre en conformité sous peine de poursuites judiciaires. Du côté des utilisateurs la CNIL met également des actions en place. Elle a mis en place en 2014 une procédure de plainte afin que les utilisateurs puissent se retourner contre les entreprises qui ont dépassé leur délais de conservation des données. Il s’avère cependant très complexe pour les utilisateurs de mener ces procédures et de savoir quelles entreprises conservent leurs données et pourquoi. L’article 40 de la loi permet même que « Toute personne physique justifiant de son identité peut exiger du responsable d’un traitement que soient, selon les cas, rectifiées, complétées, mises à jour, verrouillées ou effacées les données à caractère personnel la concernant, qui sont inexactes, incomplètes, équivoques, périmées, ou dont la collecte, l’utilisation, la communication ou la conservation est interdite.  » Et il existe également un droit d’opposition « Vous pouvez vous opposer, pour des motifs légitimes, à figurer dans un fichier. En matière de prospection, notamment commerciale, ce droit peut s'exercer sans avoir à justifier d'un motif légitime. Vous pouvez vous opposer à ce que les données vous concernant soient diffusées, transmises ou conservées. ». En effet la data se trouve être une problématique juridique très complexe car elle se trouve au croisement de plusieurs régimes : la propriété intellectuelle, le droit d'auteur, le droit des systèmes d'information et le droit des bases de données. Cnil / Consulté le 11/03/2016 https://www.cnil.fr/frfinvalidation-du-safe-harbor-par-la-cour-de-justice-de-12 lunion-europeenne-une-decision-cle-pour-la-o CHEMINAT J. "La justice européenne invalide le Safe Harbor, et après ? / Consulté le 22/04/201613 http://www.silicon.fr/justice-europeenne-invalide-safe-harbor-apres-128210.html
  • 12. 14 De plus la récupération et l’analyse des données n’est encadrée par aucun statut légal. Ce sont les propriétaires de ces contenus qui régissent cet univers. En 2013 la Commission Européenne a mis en place un groupe de travail sensé réfléchir sur le14 statut légal de cette exploitation automatisée des données mais les résultats ne sont pas encore concluants. Des propositions de licence ont été présentées afin de maintenir un droit de regard sur les projets de recherches mais les défenseurs de «la culture libre» les ont rejeté en indiquant que les données devraient avoir les mêmes droits que la citation. Les contracteurs et les défenseurs de la data ne parviennent donc pas à rédiger un statut légal probant. L’exploration des données pose également différents problèmes. Il convient que lorsque le nombre de données est trop grand, il faut les exporter pour les analyser mais cela implique qu'elles soient disponibles à l’ensemble du groupe de recherche et donc d'excéder la limite du «cercle familial». De plus en Europe il y a un droit sur les bases de données qui possède un contour flou car il est prévu que les bases durent 15 ans mais elles sont sans cesses réactualisées ce qui change leur statut. L’application de cette loi est donc relativement souple et permet la majorité des initiatives de data mining. Certains experts déclarent donc qu’en état de fait le data mining est interdit car on ne peut pas extraire les données sans l’accord de son propriétaire. Cela dit bon nombre d’experts ne sont pas d’accord avec ces propos. En effet en France le code de la propriété intellectuelle porte sur les créations intellectuelles (oeuvres) mais pas sur les expressions originales (paroles) ce qui revient à dire que les données et les informations individuelles ne sont pas concernées par cette loi. Si un cadre juridique venait à être déclaré il faudrait se poser la question de son application. Faudrait-il l’appliquer en amont de la loi ou en fonction du résultat ? La loi informatique et liberté n’a pas encore de réponse à cette question et en appelle à une réflexion approfondie. L’Union Européenne travaillerait sur un projet de loi pour répondre à ces différentes questions juridique courant de l’année 2016. Il devrait permettre aux utilisateurs de mieux comprendre et d'avoir un droit de regard sur les données qu'utilisent les marques. CNPD / Consulté le 11/03/2016 http://www.cnpd.public.lu/fr/commission-nationalehQtivites-eur-inter/14 groupe29findex.html
  • 13. 15 c. L’éthique L’éthique est un code moral et comme tout code moral il évolue avec le temps. Le code devient flou lorsqu’il s’agit de la data et cela entraîne une certaine complexité. La revente de données personnelles a toujours existé mais n’était pas aussi médiatisée il y a quelques années. Cela ne fait que très peu de temps que les utilisateurs ont eu connaissance de la récupération et de l’utilisation de leur données à des buts non pour pro lucratif grâce aux médias et à leur curiosité personnelle. Il serait inexact de déclarer que les utilisateurs sont totalement au fait de ce qu'il advient de leurs données. Pourtant la loi actuelle prévoit que chaque individu a un droit d’accès et de modification sur ses données. Malheureusement personne à ce jour ne prend le temps de lire les mentions légales ou ne demande un droit de regard et de mise à jour sur les données extraites. Dans la plupart des cas ils ne sont tout simplement pas avertis de la récupération de leurs données. Ils sont bien évidemment contre et ne voient pas l'intérêt in fine comme j'ai pu le voir dans mes focus groupes (voir annexe). Pour eux la Big Data n'a rien d'éthique quelque soit l'utilisation, elle peut juste parfois se révéler bienveillante lors de cas exceptionnels. Du côté des entreprises, peu respectent les valeurs dites morales envers leurs utilisateurs. Elles ne collectent pas les données pour être au service de leurs clients, elles n'utilisent pas ces mêmes données dans un cadre loyal et sincère, elles n'indiquent pas le temps de récupération et de stockage de ces dernières etc. Beaucoup d'entreprises se cachent aujourd'hui derrière des cookies peu clairs afin de contourner la finalité spécifique mentionnée dans la loi de 1978 . Qui prévoit que « le15 responsable du traitement doit associer à tout traitement de données personnelles une finalité spécifique et la respecter pendant tout le traitement sous peine de lourdes sanctions pénales (5 ans d'emprisonnement et 300.000 euros d'amende). » Elles ne font pas la balance entre leur intérêt légitime et les libertés fondamentales des utilisateurs et cela remet en cause les impacts des études qu'elles mènent, qu'elles soient positives ou négatives. Données personnelles "Le principe de finalité" / Consulté le 13/03/2016 https://15 www.donneespersonnelles.fr/le-principe-de-finalite
  • 14. 16 Les organisations peuvent donc respecter la loi en rédigeant des mentions légales qu'aucun utilisateur ne lira jamais, mais cela ne veut pas dire pour autant qu'elles sont bienveillantes. Chaque entreprise détermine comment elle veut exploiter les données et comment elle veut être perçue par rapport à cela. En effet une mauvaise exploitation des données et une mise en lumière des activités illicites des entreprises peuvent engendrer d'énormes scandales et de ce fait ternir l'image des organisations. Pour exemple au Pays-Bas la banque ING direct a été accusée de vente de données clients. Même si cette accusation s'est révélée fausse, les déclarations de la banque étaient floues et cela a gravement nui à leur image. Le problème de confiance entre les utilisateurs et les marques est aujourd'hui un réel enjeux. Du côté des réseaux sociaux qui détiennent quasiment toutes les données que souhaitent exploiter les marques, il existe une réelle course à la revente des social data* (*données collectées sur les réseaux sociaux). En effet Twitter est associé au géant de l’analyse prédictive GNIP et Facebook à l’entreprise Datasift. Les deux réseaux sociaux sont donc rivaux également sur la revente des données personnelles de leurs utilisateurs. Mais ils se dédouanent de toute infraction au code moral en affirmant qu’ils ne louent l’accès que à des sociétés intermédiaires sélectionnées et que ce sont ces sociétés qui facturent l’exploitation aux annonceurs. Les géants Facebook et Twitter ne considèrent donc pas qu’ils enfreignent un code moral ou éthique et rejettent en quelque sorte la faute aux sociétés intermédiaires. Plusieurs enjeux sont donc liés à l’éthique de la donnée : la sécurité de celle-ci, la maîtrise, la transparence, le respect de la vie privée et enfin le libre arbitre. En effet aujourd’hui la production de contenu est complexe et peut venir d’une activité humaine, de capteurs, de traitements et d’enrichissements provenants de différents acteurs. Les organisations captent ces multiples flux grâce aux différentes méthodes et solutions, mais cela ne se révèle pas toujours très moral, loin de là. L’enjeu de disparité internationale se pose également en terme de complexité. En effet les entreprises se trouvant dans plusieurs pays doivent appliquer différentes législations et cela complexifie la collecte et l’utilisation des données.
  • 15. 17 Les conditions autour de la data ne sont pas les mêmes dans chaque pays et certaines entreprises jouent de ces conditions pour s'approprier un avantage compétitif. L’éthique est donc absente de leurs démarches. Pour regagner la confiance de leurs utilisateurs et in fine promouvoir des services qui se disent respectueux, les entreprises doivent : intégrer la protection de la vie privée dans leurs démarches, garantir un niveau très élevé de protection des données. Mais également garantir une visibilité à l'utilisateur, renseigner sur l'algorithme et le traitement, ainsi que sur la portabilité des données. Ce n'est qu'à ces conditions que les entreprises pourront prétendre mener des stratégies de Big Data qui se veulent respectueuses envers leurs clients/utilisateurs. C'est une relation de confiance qui doit s'établir avec le marché, pour que l'utilisation de la donnée soit pertinente, durable et garantisse une éthique. Car une stratégie Big Data a pour but de servir l'utilisateur en lui communiquant les bonnes informations au bon moment mais la notion de « service » reste encore peu utilisée par les entreprises actuellement.
  • 16. 18 a. Un ciblage beaucoup plus pertinent
 En ce qui concerne l’audience ou la communauté d’une marque, elle doit être entendue et comprise pour avoir de la valeur, or encore beaucoup de marques aujourd’hui ne parviennent pas à comprendre et à (ré)agir de manière adéquate aux comportements de leurs clients/utilisateurs. Elles ne parviennent pas à exploiter les données récoltées au sujet de leurs utilisateurs à leur avantage. C'est grâce à la Big Data qu'elles peuvent y parvenir. Les marques se demandent encore comment appréhender et cibler leurs audiences. Elles se questionnent sur le fait de commencer par un ensemble de données sur un public large pour resserrer les utilisateurs et ainsi optimiser leur ciblage ou alors débuter leur ciblage sur un ensemble très restreint pour l’élargir par la suite. Les deux voies d’analyse sont possibles mais l’approche choisie par l’entreprise dépend essentiellement de ses moyens. Les grandes entreprises ayant des moyens et une base de données déjà existante peuvent choisir l’approche d’un ciblage très précis pour l’élargir. Or les startups qui ne disposent pas encore de base données ne peuvent privilégier cette approche. Il est donc très important de choisir sa voie d'entrée dans une stratégie Big Data visant à cibler de manière plus fine une audience, sinon cela risque de ne rapporter aucun bénéfice et une perte d'argent considérable à la marque. Aujourd’hui concrètement il n’est plus question de segmentation au sens propre du terme. Le ciblage doit être fluide et évolutif, au rythme des changements de comportement des consommateurs. En effet, une audience ne se comporte quasiment jamais de la même manière d’une campagne digitale à une autre. Les marques doivent donc être réactives, spontanées et adapter leur ciblage en temps réel pour espérer délivrer le bon message aux bonnes personnes et au bon moment. II. Quelques marques même si elles restent rares voient l’opportunité que peuvent apporter les données..
  • 17. 19 Prenons l'exemple du groupe media belge Roularta qui a utilisé la plateforme de16 marketing relationnel Selligent afin d'augmenter son nombre d'inscrits et améliorer sa17 rétention grâce à un ciblage plus précis. La plateforme a proposé une approche reliant le transactionnel et les données CRM afin de cibler lors des campagnes de communication les non-abonnés de manière qualitative et de ne plus importuner les personnes étant déjà abonnées. L'entreprise a donc défini des segments comportementaux (abonnés, non-abonnés) afin de communiquer ces informations précieuses à leur service publicitaire dans le but de réserver des emplacements publicitaires dédiés à un profil utilisateur défini et non plus réserver un emplacement dans une section définie sans réelle cible déterminée. Un ciblage doit donc être précis et juste pour rapporter un quelconque bénéfice à la l'entreprise. Les marques ne doivent cependant pas se lancer dans un ciblage excessif et répétitif qui risque de lasser les utilisateurs. Encore trop de marques martèlent sans arrêt les internautes de publicités sur Facebook, Twitter et Instagram après un seul regard sur un site web. Mais cela apporte t-il réellement une plus value ? Cette démarche se conclue t-elle par un achat ou du brand love ? Dans la quasi totalité des cas la réponse est non. La fréquence de diffusion des annonces et le re- ciblage/ re-targetting de celles-ci doit donc être maîtrisée avec parcimonie afin d’être efficaces et toucher les bons utilisateurs au moment propice. Le trop grand nombre de publicités non ciblées et de re-targetting mal utilisés a d'ailleurs fait émerger une société florissante nommée Adblock. La société propose un plugin nommé "AdblockPlus" à ajouter à son navigateur. Ce18 dernier bloque par exemple tous les boutons likes sur Facebook afin de ne plus être profilé par des publicitaires à des fins commerciales. Roularta Media Group : http://www.roularta.be/fr/accueil/RC-1184688299798.html16 Selligent "Roularta" / Consulté le 14/03/2016 https://www.selligent.com/sites/default/files/media/case-17 study-roularta-fr.pdf Adblock : https://adblockplus.org/fr/subscriptions18 Exemple d'application AdBlockPlus sur Facebook
  • 18. 20 La publicité sur les réseaux sociaux que ce soit sur Facebook, Twitter, Instagam ou YouTube est intéressante pour les annonceurs, dans la mesure où elle permet de diffuser des campagnes, en fonction des centres d'intérêts des utilisateurs. La liste "anti-sociale" de la société Adblock, qui comme son nom l'indique "boycotte" les réseaux, se révèle être une réelle catastrophe pour les marques et pour les réseaux sociaux. Privées de données fines et précises sur les utilisateurs les marques devraient retomber dans des campagnes de masse, non ciblées qui globalement rapportent des bénéfices financiers beaucoup moins élevés. Les réseaux sociaux quant à eux perdraient également des données précieuses qu'ils peuvent revendre aux annonceurs. Ce manque à gagner plongerait les "géants" dans un vaste trou financier. A l'heure où les consommateurs ne veulent plus de publicités intrusives et de masses, il est donc nécessaire pour les marques de créer des stratégies Big Data efficaces afin de cibler plus précisément les utilisateurs et ne plus diffuser de publicités de manière excessive. Comme évoqué plus haut, les utilisateurs aujourd’hui souhaitent être considérés comme des personnes à part entière / uniques et ne plus subir un ciblage de masse et être noyés par des publicités qui ne sont pas en adéquation avec leurs envies, leurs valeurs etc. Malgré le fait qu’ils soient derrière un écran comme des millions d’autres utilisateurs et même si la récupération de leurs données ne les enchantent guère, ils préfèrent de loin recevoir des annonces ciblées en fonction de leurs goûts et à des moments bien définis plutôt que des annonces inappropriées . Les marques doivent prendre en compte de nombreuses variables pour cibler correctement leurs audiences sur les réseaux sociaux : la visibilité, l’engagement, le comportement, les réactions mais aussi l’étape suivante.
  • 19. 21 Après la visite de la page fan de la marque où va l’utilisateur ? que fait-il ?. La position sociale, socio-démographique, les centres d'intérêts etc. Toutes ces variables doivent amener la marque à se demander comment elle peut cibler et mieux servir à l’avenir son audience sur les réseaux sociaux. Même si encore beaucoup de marques sont dans l’incapacité de visualiser les avantages d'une analyse, de nombreuses marques ont su tirer profit de la technologie Big Data pour obtenir un ciblage beaucoup plus pertinent lors de leurs communications digitales sur les réseaux sociaux. Celles qui ont su prendre le virage de la Big Data ce sont donc lancées dans le social media listening : "activité d’écoute (d’une entreprise ou d’une marque le plus souvent) des internautes présents sur les médias sociaux. (...) Le social listening concerne principalement l’écoute des propos concernant directement ou indirectement la marque. Mais pas seulement, car il peut être également profitable à la marque pour identifier par exemple des tendances de consommation que des études marketing conventionnelles n’auraient pas encore révélées." Grâce à cette écoute, elles peuvent par exemple déterminer que leur cible B2B est active le lundi matin sur Linkedin depuis son ordinateur et que leur client final est plus actif le samedi matin depuis son smartphone via Facebook. L’analyse de l’audience sur les réseaux sociaux permet réellement de déterminer les différents profils et comportements ainsi que les insights qui vont permettre de créer des campagnes impactantes et pertinentes. Facebook ayant capté cette opportunité a développé depuis plusieurs années : Custom Audience. Cette solution permet d’obtenir de manière très sécurisée et anonyme un volume important de données. Les marketers peuvent donc s’en servir pour créer des segments d’audience propre à leur marque sur le réseau social grâce à : des données CRM (de leurs clients), des données de campagne (ouvertures mails), des données provenant de leur site internet et des données tierces. Il est important néanmoins de déterminer des objectifs clairs et de déterminer la valeur de chaque entrée pour faire les croisements adéquats afin d’obtenir in fine le bon ciblage. Si une marque souhaite cibler une audience grâce à différentes données elle peut se baser sur des critères : géographiques, socio-démographiques, les centres d’intérêts etc.
  • 20. 22 Facebook a donc comme Twitter, Quantcast, Facebook ou encore Google capté la demande des entreprises concernant les frais qu'entraine la Big Data pour obtenir une base de données très pointue pour faire de la publicité. Ce nouveau marché leur permet donc aujourd'hui, de se faire beaucoup d'argent en réduisant considérablement l'accès à la donnée ciblée. En 2015 Nextperf, une plateforme de marketing à la performance, a lancé : « Look alike audience  » qui permet de partir d’une audience d'un site web pour utiliser Facebook Custom Audience afin de rapprocher les profils similaires non acquis à ceux déjà acquis grâce aux données. Le site de e-commerce Spartoo a servi de cobaye et a testé pendant 10 jours cette19 solution sur différents segments bien identifiés. Selon leur communiqué de presse : +12% de taux de conversion et +138% de taux de clic. En somme il y a eu -9% de CPO (coût par achat) ce qui représente une économie non négligeable en terme de ciblage d’audience. Nous pouvons également citer le cas d’Etam , acteur majeur de la mode féminine sur20 les marchés européens qui avait pour objectif d’adapter sa segmentation de reciblage suivant sa stratégie média et sa problématique ROIste ainsi que de mettre en place un levier de reciblage à la performance sur un objectif de coût d’acquisition dédupliqué. Grâce à la solution Look alike de Nextperf les résultats sont significatifs : +7% de ventes globales, 400K de visites en 8 mois, 0,3% de taux de clic moyen. Les solutions se diversifient donc pour garantir aux marques un ciblage toujours plus adéquat en fonction avec des KPI's des marques. La société Axciom travaille avec une solution qu'elle a développée, pour de nombreux clients : Social Connect qui permet avec Facebook Custom audience d’affiner le21 ciblage des publicités. Pour un éditeur outre-manche qui souhaitait recruter de nouveaux abonnés sur Facebook, la société a testé et comparé deux mécaniques display sur le réseau social. Spartoo : http://www.nextperf.com/wp-content/uploads/2015/03/Spartoo-FR.pdf19 Etam : http://www.nextperf.com/wp-content/uploads/2015/03/Etam-FR.pdf20 Axciom "Social Connect" / Consulté le 14/03/2016 : http://dq1prkp9edh4z.cloudfront.net/wp-content/21 uploads/2013/11/Acxiom-accompagne-Paypal-dans-la-segmentation-et-la-personnalisation-de-sa- relation-client.pdf
  • 21. 23 La première campagne a utilisé un ciblage par rapport aux informations renseignées par les membres (âge, sexe, localisation, centres d’intérêts..). La seconde à été réalisée à partir des données de Acxiom et ciblée sur des profils de lecteurs quotidiens. Les résultats ont montré que la publicité réalisée avec le ciblage Axciom était plus performante et que le taux de clic avait été de 60% supérieur à la première campagne. Un autre exemple de la société Acxiom est également parlant. La chaîne d’hôtel Best Western, a dans un premier temps transféré sa base de clients potentiels sur Facebook pour faire correspondre le coeur de cible aux utilisateurs du réseau social. Dans un second temps Acxiom a étendu la couverture de cibles Facebook à 700 000 « lookalike ». Le regroupement de ces deux bases de données combiné à la solution de la société a permis plus de 15 millions d’impressions et 3 194 clics. Les marques ont donc réellement besoin d’utiliser des solutions innovantes et adaptées aux nouveaux usages des utilisateurs ou de s’allier à des partenaires qui peuvent optimiser leur ciblage de manière conséquente. Outre Facebook, la data est également présente sur Twitter, pour obtenir un ciblage plus précis. Il faut savoir que Twitter a été le premier réseau social à louer l’accès aux données de ses utilisateurs à des intermédiaires a des fins marketing. Si le profil des utilisateurs n’est pas détaillé comme celui d’un utilisateur Facebook, toute la mécanique de ciblage du réseau repose sur des critères comportementaux et contextuels qui permettent un ciblage au moins aussi précis. Le réseau social permet depuis 2015 d’établir des audiences personnalisées en fonction de publicités (Twitter Ads). Les marques envoient simplement un fichier avec les données de leurs clients, le réseau social rapproche ce fichier avec des personnes actives sur Twitter afin de créer un ciblage pertinent et efficace pour les campagnes. La société Axciom utilise cette méthodologie dans ces solutions datamining
  • 22. 24 La société Quantquast qui gère une plateforme de données en utilisant la Big Data et22 le machine learning, aide les annonceurs à réaliser des campagnes marketing et des expériences utilisateurs enrichies. Pour sa propre promotion la société a décidé de mener une campagne de publicité sur Twitter associée au ciblage d’audience personnalisée afin d’attirer de nouveaux clients. La société a pour cela intégré des tags à son site afin de créer des segments permettant d’identifier les utilisateurs de Twitter. Twitter a ensuite de la même manière que la solution « look alike » identifié des audiences similaires dans sa base utilisateur. Une fois les segments identifiés, les options de targeting ont été configurés et des tweets ont été créés afin d’augmenter les téléchargements du dernier livre blanc de la société. Le taux d’interaction a été de 9,55% ce qui est très rare pour ce réseau social. Le CPA* (*"mode de facturation d’un espace publicitaire ou d’une action marketing qui consiste à facturer l’annonceur en fonction des résultats obtenus lors de la campagne") moyen a été inférieur de 50% à la moyenne. La vice présidente de Quantcast Christina Cubeta a déclaré : «  Les données des audiences personnalisées nous ont permis de toucher des utilisateurs au-delà de notre base d’utilisateurs connus et d’atteindre un taux d’interaction incroyable. La popularité de Twitter nous aide à améliorer encore davantage la performance de nos campagnes et à réduire le CPA. Twitter Ads est en tête de liste de nos partenaires les plus performants. ». La data permet donc que ce soit sur les réseaux sociaux ou sur d’autres médias d’obtenir un ciblage plus pertinent et plus qualitatif de par des solutions optimisées et pensées pour maximiser les campagnes marketing. Les marques devraient s'y mettre rapidement pour détenir un avantage hautement concurrentiel. b. Des contenus optimisés L’analyse des données des utilisateurs permet aux marques de mieux cibler certes, mais également de créer des contenus créatifs et optimisés sur les réseaux sociaux. Depuis peu de temps nous avons vu apparaitre un nouveau terme dans le monde de la donnée : le data storytelling. Quantcast : https://www.quantcast.fr/case-study/quantcast-twitter-tailored-audiences-drives-leads-22 at-50-below-cpa/
  • 23. 25 Ce terme désigne le fait d’utiliser la data pour créer des communications enrichies, impactantes et inspirantes. Le but est tout simplement de tirer le meilleur de la donnée pour créer un contenu valorisant pour une audience. Les entreprises qui savent aujourd’hui tirer parti de la donnée pour en créer un contenu sont parmi les plus innovantes de leurs domaines. Certaines sociétés ce sont d'ailleurs spécialisées dans ce data-storytelling comme par exemple ADventori qui propose de mettre à disposition des annonceurs des « data- scenarists qui feront la combinaison entre les données et les objectifs de l’annonceur, et ainsi établir la scénarisation de la campagne : à chaque nouvelle exposition, l’utilisateur verra un nouveau message. » Selon la directrice du marketing Carole Ellouk ce procédé remet « la création au centre des problématiques d’achats média. Alors que celle-ci avait quelque peu été mise de côté face aux objectifs de volume et de prix de l’achat média. » La data retrouve donc sa place dans le processus créatif et dans l’achat média. Avant de faire appel à une société spécialisée les marques ont besoin de déterminer les données qu'elles pourront utiliser afin d'optimiser leurs contenus. Différents types de données permettent l'élaboration de contenus créatifs : - Les données relatives à la connaissance du client. En effet il est important, voir vital, de connaitre l’expérience de l’utilisateur en question, s'il est déjà familier avec la marque, s'il a déjà une relation avec elle, si la marque lui apparait en top of mind, s'il a déjà entendu parler d'elle etc. Cette donnée est la plus utilisée lors des campagnes digitales. - Les données relatives au contexte de l’utilisateur. Il est important de savoir comment il va rentrer en contact avec elle. Car la marque ne va pas proposer le même contenu si c’est un prospect ou si c’est un nouveau client. - Les données relatives au contexte d'utilisation du produit proposé par la marque. Ces données sont également importantes à connaître et sont généralement en open data ce qui permet d’obtenir rapidement des informations. - Les données relatives à l’annonceur et à l’éditeur. Enfin la combinaison de toutes ces données pourrait permettre à toutes les marques de créer des contenus optimisés, performants et attractifs pour n’importe quel utilisateur. Malheureusement à l’heure actuelle seul Facebook ou Google sont capables d’allier toutes ces données dans un but créatif.
  • 24. 26 La société Linkfluence a notamment déterminer l'importance des données relatives à la connaissance du client pour le compte de l'un de ses annonceurs. En effet la société a monitoré les conversations sur les réseaux sociaux "autour d’une crème de beauté largement distribuée en Europe, les Social Media Researchers de Linkfluence ont réalisé que l’immense majorité des consommateurs connectés et intéressés avaient une peau mate ou foncée. Problème : cette population était très peu prise en compte dans la communication de la marque. Ses visuels montraient uniquement des mannequins à la peau claire. Grâce à la social media data, des contenus spécifiques ont été créés pour aborder les problèmes d’épidermes spécifiques de ces clients et qui grâce à cette prise en compte, sont devenus des acheteurs à cause desquels ils achetaient justement ces produits." La connaissance du client a donc permis à cette société d'adapter ses communications pour être au plus proche de la cible qui utilisait et parlait le plus de son produit. Sans le social media listening les marques sont dans l'impossibilité de détecter des insights comme ceux-là. En terme de données relatives au contexte d'utilisation, prenons le cas de la société Aldebaran , concepteur de robots humanoïdes compagnons. La société a fait appel à23 Linkfluence (leader français du social media intelligence) pour déployer une communication horizontale* (*"Cette forme de communication a pour finalité de favoriser les échanges entre les différents acteurs de l’entreprise, dans la perspective de partager les connaissances et d’intégrer tous les salariés dans la prise de décision.") grâce à une connaissance ciblée de chaque internaute. Petit à petit les robots humanoïdes s’immiscent dans les foyers des particuliers et cela est aujourd'hui perçu de manière très enthousiaste même si les robots suscitent de nombreuses interrogations. Les réseaux sociaux représentent un outil de premier choix pour la marque afin de répondre aux questions de leur audience. Linkfluence a mis en place grâce à sa solution nommée "Radarly", une écoute du web social qui a permis d’identifier les membres clés de la communauté de la société et ainsi de mener des actions ciblées au quotidien. Cela a permis à la marque de rentrer en contact avec des utilisateurs qui ont besoin d’information, s’intéressent à la société et s’expriment sur les produits. Les contenus produits sur les réseaux sociaux par la marque sont donc intrinsèquement liés aux centres d’intérêts de chaque utilisateur. Linkfluence "Aldebaran" / Consulté le 15/03/2016 : http://linkfluence.com/2016/01/04/aldebaran-animer-23 sa-communaute/
  • 25. 27 La donnée permet donc d’analyser en profondeur les contenus, les réactions, les comportements etc. des communautés des marques et d’en faire émerger des sujets et des thèmes qui permettent d’optimiser les prises de paroles sur les réseaux sociaux. Les contenus optimisés grâce à la data ont généralement un taux d’engagement beaucoup plus élevé que les publications produites de manière créative aléatoire. La Big Data peut donc s’avérer utile créativement et obtenir des contenus à plus fort taux d'engagement. Le constructeur automobile Mercedes-Benz avait déjà en décembre 2012 utilisé la24 Big Data pour produire des contenus dans le cadre d'une campagne digitale sur les réseaux sociaux. Le constructeur a créé l’opération Tweet-Fleet. Pour promouvoir la fonction park assist qui reconnaît les places de parking vides, ils ont orchestré une opération offline mais également online sur Twitter. Grâce à la data des GPS des voitures et un système Arduino* (*"C'est une plate-forme basée sur une interface entrée/sortie simple. Il était destiné à l'origine principalement mais pas exclusivement à la programmation multimédia interactive en vue de spectacle ou d'animations artistiques.") ainsi qu’un couplage en relai PHP* (*"Le PHP est un langage informatique utilisé sur l'internet. Le terme PHP est un acronyme récursif de "PHP: Hypertext Preprocessor". Awards "Mercedes Benz Tweet Fleet" / Consulté le 17/03/2016 http://awards.jvm-neckar.de/2012/24 tweet-fleet/fwa/
  • 26. 28 Ce langage est principalement utilisé pour produire un site web dynamique. Il est courant que ce langage soit associé à une base de données, tel que MySQL."), des tweets étaient automatiquement générés pour indiquer à tous les followers du compte dédié que des places de parkings étaient disponibles à proximité ou non de leur emplacement. Cette campagne a été très médiatisée et a connue un fort succès auprès des utilisateurs qui ont perçu le côté pratique et intéressant de la récupération de données à des fins servicielles. La société de réservations d’Hôtels TripAdvisor a également surfé sur ce qu’on25 appelle le data storytelling pour une campagne lors de la coupe du monde de 2014 au Brésil. La société a prédit pour chacun des matchs de la coupe, quelle équipe allait gagner en comparant tout simplement les hôtels où les joueurs séjournaient. Pendant les matchs des tweets créaient un lien entre la partie de football et les appréciations sur les hôtels. Grâce à un algorithme relativement simple, la société commentait donc le jeu des joueurs en fonction de la qualité de leur sommeil la nuit passée et pronostiquait grâce à cela l'équipe gagnante et l'équipe perdante. Les prévisions se sont avérées correctes dans 93% des cas et TripAdvisor a donc prouvé l’efficacité autour des discussions sur les hôtels. Le storytelling intervient donc à l’intersection entre les médias sociaux et la Big Data. Pour créer une vraie histoire aujourd’hui sur les réseaux sociaux, il faut visualiser, écouter et savoir interpréter la donnée. Parfois le contenu peut se révéler extrêmement créatif grâce à la data comme relaté précédemment. Une section « Creative Data » a même été ajoutée aux Cannes Lions pour récompenser les marques les plus audacieuses. Les marques ont donc tout intérêt à ce familiariser avec ce nouveau moyen de création pour rendre leurs campagnes plus attractives pour leurs cibles et surtout plus performantes. c. Une meilleure relation client à la clé Aujourd’hui les réseaux sociaux jouent un rôle primordial lors d’un achat en ligne. TripAdvisor : https://www.tripadvisor.fr25
  • 27. 29 En effet les consommateurs sont de plus en plus sur Internet, sur le web social pour vérifier le prix ou obtenir des informations sur un produit ou un service avant de finaliser l’acte d’achat. Ce comportement a été nommé ROPO (research online pourchase offline) et "désigne donc un comportement d’achat quand on se place du coté du consommateur et la démarche d’utilisation d’Internet à des fins de création de trafic en point de vente physique pour les responsables marketing ou commerciaux." Et "78% des acheteurs déclarent que les avis des consommateurs encouragent leurs achats, en ligne notamment" . Les marques ont donc tout intérêt à examiner les26 conversations des utilisateurs autour de leurs produits et services mais également à fournir des informations optimisées et des services performants afin d'obtenir des conversations positives et brand-centric et d'influencer les clients potentiels de manière positive à finaliser leurs achats. Le social CRM (customer relationship management) "désigne les pratiques de gestion de la relation client sur les réseaux sociaux". L’interaction avec les consommateurs via les médias sociaux est généralement plus fructueuse et plus intime que les interactions par téléphone ou par "chat" car elle est généralement plus rapide et plus pertinente. Selon une étude du cabinet Gartner , le marché du CRM social valait 20,4 milliards de27 dollars en 2013 et dépassera de loin cette somme d’ici à 2018. Le social CRM représente donc un élément clé d'une stratégie marketing performante et peut être optimisé grâce à la donnée. En effet avec plus de 1,59 milliards d’utilisateurs actifs sur Facebook, 307 millions sur Twitter et 400 millions sur Instagram , le web social est une mine d’informations28 Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/26 communication-media/social_crm/ Source Image : http://fr.slideshare.net/Kuliza_Research/social-crm-6928709 Gartner / Consulté le 20/03/2016 http://www.gartner.com/newsroom/id/266521527 TAUZIN A. "Combien d'utilisateurs de Facebook" / Consulté le 24/03/2016 http://www.alexitauzin.com/28 2013/04/combien-dutilisateurs-de-facebook.html
  • 28. 30 extraordinaire pour détecter des insights clients. En effet aujourd'hui un utilisateur mécontent postera un tweet ou partagera son expérience sur le mur de la page de la marque sur Facebook plutôt que de passer des heures au téléphone avec un interlocuteur qui ne l'écoutera pas vraiment. L'utilisateur sait aujourd'hui que sa voix sur les réseaux sociaux a de l'impact et cela doit être pris en compte par les marques. La voix de ces clients doit donc être intégrée aux activités marketing des marques afin d’améliorer la relation marque / consommateur. La Big Data est devenue l’approche de prédilection dans ce domaine car c’est grâce à elle, à l’analyse de ces conversations si puissantes, que les marques parviennent à mieux répondre à la demande de leurs clients en écoutant réellement ce qu’ils ont à dire. L’enjeu est donc pour les marques de suivre les insights, les réactions et les prises de parole des utilisateurs en observant leurs conversations sur les réseaux sociaux en temps réel afin de gagner en réactivité et ainsi développer une relation de confiance et solide avec les utilisateurs. Des marques ont donc fait appel à des sociétés tierces pour travailler sur leur relation client grâce à la Big Data. Pour exemple Orange , l’un des principaux opérateurs de télécommunications au29 monde, a fait appel à la société Linkfluence pour tirer parti des conversations de ses consommateurs sur le web social. Chaque produit de la marque a bénéficié d’un dispositif de monitoring propre afin d’en dégager une structuration marketing via les prises de parole des consommateurs. Les verbatims ont été captés et analysés pour en dégager des insights forts. En résultat la marque a pu ajouter ou modifier des offres produits déjà existantes ou accompagner certaines offres par des plans de communications spécifiques afin d’obtenir une meilleure compréhension de la part des utilisateurs. Les chefs de produits de la marque se servent également du dispositif au quotidien car cela leur permet de mettre à jour les FAQ lorsqu’une interrogation est décelée dans les conversations. La marque a donc réellement mis le consommateur au centre de sa stratégie afin d’obtenir un marketing opérationnel à forte valeur ajoutée. Linfkfluence "Orange" / Consulté le 24/03/2016 http://linkfluence.com/2015/04/23/consommateur-29 connecte-linkfluence-dans-le-social-hub-dorange/
  • 29. 31 L’agence The Social client a développé un dispositif de social media intelligence et, l’un de ses clients qui l’utilise pour améliorer sa relation client, est l’opérateur de télécommunications SFR . La marque tente d’améliorer la connaissance et les30 attentes de ses clients afin d’alimenter les différentes directions du groupe et produire des campagnes et des lancements de produits réellement impactants. SFR peut aujourd’hui, grâce au dispositif de The Social client, capter en temps réel ce que disent ses clients sur ses offres et ses services. Cela permet à la marque de récupérer des données précises et qualitatives extraites des discussions sur les réseaux sociaux pour en déduire des insights forts et utiles. Outre la surveillance et l’analyse des conversations des utilisateurs avant un lancement de produit ou une campagne de communication, le dispositif leur sert également à analyser les post-conversations. C’est à dire de capter les retours des clients sur une publicité ou le lancement d’un nouveau forfait par exemple. Les marketers ont besoin d’analyser les campagnes sur les réseaux sociaux pour en dégager la nature ROIste* ("se dit d’un canal marketing ou d’un annonceur qui privilégie un retour sur investissement des campagnes le plus direct possible") pour la marque. Et les conversations des utilisateurs est un élément important de cette analyse. Les chiffres ont beau être bons, si le consommateur ne l’entend pas de la même manière une marque a besoin de le savoir pour rebondir. Dans le cadre de cette démarche, SFR tente également de déceler des signaux faibles de la part de ses clients afin de réagir de manière pro-active à des problèmes qui peuvent potentiellement s’amplifier. Par exemple si la marque détecte un tweet d’un de ses utilisateurs qui lui signale que le réseau ne fonctionne plus, il est fort probable que le réseau ne fonctionne plus ailleurs que chez le dit utilisateur. La marque peut donc faire des recherches auprès des équipes techniques et déceler une panne par exemple. L’analyse de ce tweet permettra donc à SFR de régler le problème avec rapidité et cela lui évitera des dizaines voire des centaines de tweets de mécontentement. La marque a mobilisé de nombreuses équipes pour ce projet et diffuse régulièrement des rapports à destination de ses équipes. YouTube "La relation client à l'heure du digital et de la disruption | The Social Client, PMU, SFR :30 https://www.youtube.com/watch?v=CeGJK5080YI
  • 30. 32 Le top management est également impliqué dans cette démarche afin de les aider à comprendre plus amplement les bénéfices d’une telle stratégie. Un social wall* (*mur numérique permettant d’afficher en un seul et même endroit tous des posts des réseaux sociaux grâce à un hashtag ou tout simplement en rapport avec une marque) a même été installé dans les locaux de chez SFR pour suivre en temps réel toutes les conversations liées à la marque. SFR s’est donc investi totalement dans une stratégie Big Data qui in fine va lui rapporter des bénéfices tangibles et mesurables sur sa relation client. Le social CRM lié à la data permet donc de réellement mieux identifier les attentes des différentes typologies de clients grâce à des données précises et qualifiées. Les marques ont donc toutes besoin de fusionner leur stratégie de social CRM et la Big Data pour monitorer, comprendre, suivre, capter et gérer les conversations des consommateurs. Selon le directeur associé de la société Mc Kinsey, Eric Hazan « les entreprises qui ont une bonne connaissance du client ont une croissance supérieure à la moyenne.  » Cela s’avère donc être un enjeu stratégique déterminant pour les marques souhaitant se différencier de la concurrence, tisser des liens solides avec ses clients et connaître une croissance importante. "Le rêve des marketeurs d’optimiser leur valeur client ne pourra se réaliser via les réseaux que par le passage du seul mode transactionnel au mode conversationnel avec le client. E-commerce, M-commerce, F-commerce constituent désormais une opportunité inévitable pour une meilleure optimisation de la relation client." Et le31 community manager va jouer un rôle essentiel dans cette transition pour passer aux nouveaux "4P : Permission, Proximité, Perception, Participation". d. Une détection des signaux forts et faibles Est désigné comme un signal faible selon l’économiste russo-américain Igor Ansoff «  une information d’alerte précoce, de faible intensité, pouvant être annonciatrice Les Echos "Etude social CRM" / Consulté le 20/03/2016 https://www.lesechos-etudes.fr/etudes/31 communication-media/social_crm/
  • 31. 33 d’une tendance ou d’un événement important. » . En somme ce sont les éléments de32 perception d’un environnement, ces opportunités et ces menaces. Les signaux faibles font partis de la small data qui selon Rufus Pollock33 désigne une « quantité de données que vous pouvez aisément stocker et utiliser sur une seule machine et plus précisément sur un seul ordinateur portable ou serveur de haute qualité». Les signaux faibles détectés grâce à la small data permettent donc de répondre à un problème ou à une q u e s t i o n d e m a n i è r e m o i n s contraignante qu'avec une solution Big Data, plus lourde et plus complexe. Elle marque le début d’un processus de décision qui va permettre de réfléchir à ce signal faible pour en dégager des actions. Les signaux faibles extraits permettent d’identifier de nouveaux comportements, de nouveaux consommateurs, de nouveaux critères de segmentation etc. Sur les réseaux sociaux les contenus sont abondants et il n’est pas rare de voir émerger des signaux faibles intéressants. Mais les marques ont pour obligation d’être prudentes avec cette masse d’informations car elles ne se révèlent pas toujours pertinentes. Les signaux faibles doivent être croisés à d’autres données de sources différentes pour révéler leur valeur. Un signal faible doit donc être travaillé, il ne peut pas être utilisé tel quel lorsqu’il est détecté parmi tous les flux de données statiques. Un signal faible peut être "qualitatif, ambigu, sans pertinence intrasèque, fragmentaire et de formes et de sources diverses". Un professionnel peut s’en servir pour produire une analyse prédictive intéressante pour son client mais seulement s’il le met en contexte. M2IE "Signaux faibles et angles morts, élargir sa vision périphérique" / Consulté le 27/03/2016 http://32 www.m2ie.fr/signaux-faibles-et-angles-morts-elargir-sa-vision-peripherique/ POLLOCK R "Forget Big Data, small data is the real revolution" / Consulté le 27/03/2016 http://33 blog.okfn.org/2013/04/22/forget-big-data-small-data-is-the-real-revolution/
  • 32. 34 Il est primordial que les marques définissent leurs objectifs afin de sélectionner ces données que représentent des signaux faibles, les traiter et les interpréter afin d’en faire ressortir des actions précises. Elles ont besoin de déterminer qu'est ce qu'une information critique pour elle, si toutes les informations fragmentaires doivent être traitées ou si il y a une délimitation des données à effectuer afin d'être en alerte et porter son attention sur un élément en particulier. Par exemple pour les sociétés de téléphonie comme SFR, Orange ou encore Bouygues Telecom une panne peut être détectée en tant que signal faible grâce à un hashtag sur Twitter ou un commentaire sur Facebook et peut donc être traitée de manière proactive. Les marques sont aujourd'hui pour la plupart très à l'écoute de ces signaux faibles mais certaines n'ont pas su y prêter attention et ce sont retrouvées sur le banc de touche. Comme exemple, nous pouvons citer l'entreprise Kodak qui n'a pas su détecter les signaux faibles annonçant le tournant du numérique. Elle n'a pas, à contrario de ses concurrents, adapté ses offres et services avec l'évolution des usages de ses clients. En 1988 elle comptait plus de 180 000 salariés aujourd'hui elle n'en compte plus que 17 000 et "se bat pour survivre" dans cet univers très largement concurrentiel. Les sociétés comme Instagram ou Snapchat ont su s'adapter à la génération connectée en écoutant les signaux faibles. Les chiffres sont évocateurs, en effet en 2012 Instagram valait 1 milliard de dollars pour 14 salariés et Snapchat valait en 2015, 20 milliards de dollars pour 60 salariés. Les signaux faibles détectés peuvent se34 transformer en signaux forts. Un signal fort est une "information qui confirme une tendance actuelle et qui permet de bâtir une stratégie de réponse adéquate" .35 Ces signaux détectés, ils représentent une opportunité de créer des produits et des services adaptés et optimisés en se calquant sur les besoins et usages des consommateurs. Inouixcurius "La force des Signaux faibles" / Consulté le 01/04/2016 http://www.inouixcurius.com/la-34 force-des-signaux-faibles/ MAUGER C. "Le glossaire de la veille" / Consulté le 01/04/2016 http://www.christianamauger.com/35 glossaire-de-la-veille
  • 33. 35 a. Traiter le volume en déterminant des KPI’s exploitables Le volume de données est actuellement pharaonique. Pour que ce gigantesque flux complexe, qui ne cesse d’évoluer, fasse sens et devienne un vecteur utile et profitable à l'entreprise avec un retour sur investissement, il est nécessaire de déterminer des KPI's exploitables et sensés. Les KPI's « Indicateurs clés de performance (Key Performance Indicator) permettent le pilotage et le suivi de l’efficacité des éléments auxquels ils sont rattachés. Leurs principes résident essentiellement dans leur capacité à s’affranchir de la stérilité d’une donnée brute. Ils sont très utiles lors de l'analyse des stratégies Big Data et informatiques. Il est donc vital pour l'entreprise de déterminer des KPI's en adéquation avec son modèle économique, son ambition et les données dont elle dispose, pour tendre à la réussite d'une stratégie Big Data. Un KPI se détermine de plusieurs manières. Il doit être : - En cohérence avec la stratégie business de l’entreprise - Mesuré - Actionnable - Simple - Unique - Déterminé par une équipe mélangeant toutes les strates de l’entreprise - Sans limite apparente - Intégré (à l’entreprise) L'entreprise doit, avant de déterminer des KPI's sur des actions externes, déterminer des KPI's internes à l'entreprise. Ces trois KPI's sont : la synthèse, la vitesse et la signifiance. III. Mais les marques devraient adopter une stratégie social media intelligence en exploitant les 3 V de la donnée : volume, vitesse et variété..
  • 34. 36 Le KPI de la synthèse se définit tout simplement par une collaboration de toutes les strates de l’entreprise. La Big Data ne fonctionne pas en silos, elle ne peut être efficace si le top management n’engage pas la discussion avec le service informatique et le marketing. Les employés de chaque service doivent communiquer entre eux et déterminer ensemble l’utilité ou non d’une stratégie Big Data au sein de leur entreprise. Il est également indispensable d’obtenir l’engagement d’un expert en Big Data qui saura rassembler les employés autour des réelles opportunités et menaces de la Big Data. Le KPI de la vitesse se détermine lui par un bouleversement des méthodes de management des équipes directrices. Les méthodes traditionnelles et dépassées, où un processus durait des semaines voir des mois, ne fonctionnent plus dans un monde ou tout va toujours plus vite. La Big Data a besoin de méthodes agiles et rapides qui cassent les silos et permettent des processus courts et performants. La vitesse implique également une provision constante en terme de données, ce qui va permettre à l’entreprise de visualiser des insights sur le long terme. Un stratégie Big Data qui n’est pas alimentée par des données en flux continu n’a aucune raison d’exister. Les temps de réponse entre les différents acteurs de la stratégie doivent également être courts pour permettre des prises de décisions rapides. Le dernier KPI à prendre en compte est la signifiance. En effet l'entreprise doit déterminer si une stratégie Big Data fait sens ou non, si l'analyse des données dont elle dispose peut lui apporter de la valeur, qu'elle soit financière ou sociale. Tout le processus doit être clair et signifiant pour toutes les strates de l'entreprise afin d'être efficace. Une fois les KPI's internes détectés et formulés l'entreprise doit déterminer ses objectifs externes pour être plus performante sur les réseaux sociaux, que ce soit à travers une campagne de communication, ou une gestion de la relation client. Sur les réseaux sociaux différents indicateurs de performance peuvent être déterminés comme : l'augmentation des conversions, l'augmentation des interactions avec la communauté, l'augmentation de l'engagement de la communauté.
  • 35. 37 Ainsi que l'élargissement de la communauté, l'augmentation du trafic généré sur le site internet ou encore l'augmentation du nombre d'achats réalisés grâce au plan média mis en place. Mais ce qui permet de savoir si la marque a atteint ses objectifs est réellement : l'intention d'achat déclarée sur les réseaux sociaux, le nombre de nouveaux leads, le taux de transformation de la campagne ainsi que le sentiment de la campagne (% positif, neutre ou négatif). Pour une campagne de communication que ce soit sur les réseaux sociaux ou ailleurs, il est essentiel de définir des objectifs de performance pour chaque cible. En effet une donnée n’a de sens que si elle révèle un insight qui permettra d’améliorer ou de créer une expérience utilisateur nouvelle pour un segment précis par exemple. Elle doit être attribuée à un but déterminé afin qu’il en résulte une satisfaction de la cible et une relation client forte et profitable pour l'entreprise. La donnée qui servira à déterminer ces KPI’s doit donc avoir un objectif clair pour servir l’entreprise et être utile. Elle doit être pensée comme un projet déterminant de la performance. Le flux de données sur les réseaux sociaux peut faire peur, le traitement peut être complexe mais la détermination d’objectifs clairs peut simplifier et clarifier une stratégie. Afin d'être appliqués efficacement ces KPI’s doivent être déterminés en real-time, selon l’environnement et la société actuelle et plus sur des objectifs passés pour être performants et apporter de la valeur à l’entreprise. b. Créer des stratégies real-time data pour faire face à la vitesse Afin de créer des stratégies Big Data rapides et performantes les entreprises peuvent s’appuyer sur ce qu’on appelle la real-time data (RTD). Cette data permet d’obtenir directement une donnée après sa collection. Il n’y a pas de délai entre le temps ou l’information est collectée et celui ou elle est traitée. Ce type de donnée est utilisée pour le tracking ou bien pour la navigation mais peut être utilisée dans d’autres situations.
  • 36. 38 Comme vous pouvez le voir sur le schéma ci-contre, la real time data est un mélange entre plusieurs stratégies : télémesure (« Technique permettant d'obtenir à distance les valeurs de mesures effectuées dans des installations techniques. Par extension, une télémesure désigne l'une de ces mesures à distance. ») + Big Data + smart data (« Le smart data, que l'on pourrait traduire par données intelligentes, est une nouvelle approche du traitement des données. Elle consiste à extraire de l'immense masse de données procurées par la Big Data, les informations les plus pertinentes pour mener des campagnes marketing. ») + l’internet des objets et enfin une stratégie digitale. Une stratégie en real time permet donc d’agir directement dans le présent. Elle permet de prendre des décisions rapides, de détecter des opportunités pour l’entreprise à l’instant et de trouver rapidement des solutions à des problèmes. En somme la real time data permet d’augmenter la performance opérationnelle immédiate de toutes les équipes de l’entreprise. Par exemple une entreprise qui souhaite diffuser une offre promotionnelle auprès de prospects via leur géolocalisation dès qu'ils se trouvent près d'une enseigne, va privilégier une stratégie real time. En effet de cette manière et grâce à la rapidité d'acquisition des données, l'entreprise va pouvoir être pro-active et toucher sa cible avant même qu'elle n'ait eu l'intention d'entrer dans l'enseigne. L’avantage d’utiliser cette stratégie est de s’affranchir de toutes les complexités que peut entrainer la donnée comme : l’installation de capteurs, l’opération, la maintenance, les erreurs, le retravail des données, la logistique, la gestion des services etc. L’architecture de cette donnée tend à être la plus simple possible pour permettre une utilisation instantanée et une résolution des problèmes quasi immédiate. Cependant la real time data représente un flux de données immense, elle est très changeante, il y a de fortes variations, elle est hétérogène et surtout elle est non standardisée. Elle nécessite un traitement spécial pour que l’architecture soit efficace. Il faut donc que l'entreprise se pose les bonnes questions avant de se lancer dans une stratégie real time. Par exemple : quels bénéfices peuvent être réalisés ? quel est l’investissement à fournir dans une stratégie real time ? quels sont les outils pour mener une telle stratégie ? etc. et cela est tout à fait compréhensible mais elles doivent réfléchir étapes par étapes.
  • 37. 39 Tout d’abord en intégrant l’idée de cette stratégie au quotidien dans l’entreprise. La real time data est traitée en ad hoc, elle est centrée sur un segment ou sur un problème individuel et les revenus de cette stratégie peuvent variés largement en fonction des objectifs. Chaque strate doit intégrer ces différents faits avant d’allouer un budget à une telle stratégie. Enfin après une évaluation des risques et un état des lieux des technologies à mettre en place, la stratégie pourra être créé et déployée. Même complexe, cette donnée est une incroyable opportunité de monétisation pour les marques capables de la capter. En effet dans notre société actuelle tout va très vite, l’information apparaît et disparaît si rapidement que des analyses traditionnelles sont rarement capables de capter ces flux et ainsi d’identifier les possibilités qu'offre la real time data aux marques pour agir. Par exemple une marque qui parviendra à communiquer et à envoyer directement des informations à son client pendant qu'il déambulera dans les allées de son magasin grâce à ses données détiendra un avantage non négligeable par rapport à ses concurrents et pourra ainsi, possiblement influer sur sa décision et l’amener à finaliser son achat. Les real time datas peuvent donc sensiblement réduire le temps entre la pensée et l’acte d’achat et ainsi permettre aux marques d'être plus à l’écoute, plus réactives mais également plus opérationnelles. Les modèles traditionnels en sont donc bouleversés mais cela est intrinsèquement relié au bien-être financier des marques. Ces données en temps réel ont également un aspect hautement positif au niveau de la création de contenus. En effet une marque peut tout à fait s’en servir pour alimenter ses posts sur les réseaux sociaux en étant la première à rebondir sur un insight fort dégagé grâce aux données collectées. La marque peut par exemple se servir des opinions positives ou négatives diffusées sur les médias sociaux par ses clients et répercuter immédiatement ce qu’elle aura appris pour améliorer son modèle, ses produits, son expérience client etc. En somme la real time data possède de nombreux avantages comme le fait de pouvoir utiliser des informations immédiatement pour manager des équipes, donner des informations aux clients, rendre des processus plus performants et prendre des décisions qui rapporteront de la valeur à l’entreprise.
  • 38. 40 c. Prendre en considération la variété des données pour créer une stratégie pertinente La Big Data représente un ensemble. Comme nous avons pu le voir précédemment, une donnée seule n’a aucune valeur car elle ne traduit rien, elle ne fait ressortir aucun insight et ne peut être utile à l’entreprise en l'état. La Big Data doit être considérée comme un ensemble. Comme un ensemble de données très variées (données structurées et non structurées). Les marques doivent comprendre que la donnée peut venir de n’importe où, que ce soit des médias, des réseaux sociaux, des smartphones, des sites web, de la télévision.. La donnée vient de partout et c'est cette diversité qui fait d’elle un élément à forte valeur ajoutée pour les entreprises. Certes ce nouveau flux est difficile à capter lorsqu’on sait qu’il vient des données de : géolocalisation, mobile, cartes de fidélités, recherches, connexions.. mais c'est la diversité et la richesse des différentes sources qui dans leur ensemble, le rende pertinent. Pour mener à bien une stratégie Big Data les marques doivent comprendre que c’est cette variété qui représente une opportunité. C’est grâce à l’analyse de textes, d’images, de vidéos et de photos, tout cela en combiné que les marques pourront capter des insights forts. Dans ce mémoire les réseaux sociaux ont été privilégiés mais les marques, si elles souhaitent réussir à utiliser efficacement les données qu'elles pourront détecter sur Facebook ou sur Twitter par exemple, devront apprendre à fusionner et croiser ces datas avec d'autres datas qui proviendront des GPS ou alors des médias traditionnels par exemple. Bien entendu cette variété nécessite de mettre en place des solutions non plus traditionnelles mais sophistiquées car 90% des données sont non structurées (les données provenant des réseaux sociaux ne le sont pas, les images, les vidéos, et l’audio, ne le sont pas non plus). Des solutions innovantes doivent donc être mises en place par les marques pour explorer ce champ des possibles afin de visualiser et modéliser ces données complexes. Les marques disposent aujourd’hui de nombreuses données non structurées comme des photos, des mails, des données provenant des GPS etc. mais également de données structurées. Malheureusement elles ne savent pas encore comment s’en servir et comment les fusionner pour mettre en place une stratégie efficace.
  • 39. 41 Les équipes en alliant et en rassemblant ces deux types de données peuvent s’en servir pour découvrir et explorer des nouvelles métriques, des perspectives sur les clients, les produits ou même les opérations en cours dans l’entreprise. L’alliance des données peut donc amener les employés à prendre des décisions plus justes et les plus précises in fine. Il faut toutefois mettre en relief cette variété. Sur les réseaux sociaux par exemple, la variété des données est immense entre la langue, la nature du post, la date etc. et il serait tentant de tout analyser et de tout considérer comme important or tous les tweets ne sont pas aussi importants les uns que les autres. Par exemple le tweet d’une personne influente n’aura pas le même poids qu’un tweet d’une personne moins influente. La variété de la donnée est donc très utile pour une stratégie complète et performante mais elle peut également être un défi. Les marques et les équipes marketing ont donc tout intérêt à se poser la question de la fusion de toutes leurs données afin de s'appuyer sur cette mine d'information pour mieux cibler et mieux comprendre les consommateurs mais également mieux mesurer les performances des campagnes.
  • 40. 42 Il est évident que de nombreuses marques sont encore frileuses face à l'avancée époustouflante que représente la Big Data et préfèrent rester figées dans leurs méthodes d'analyse de données traditionnelles qui ne fonctionnent malheureusement pas sur les réseaux sociaux. Aujourd'hui une marque qui souhaite donc s'implanter sur Facebook ou Twitter de manière efficace et pertinente, sans la Big Data, n'y obtiendra aucun résultat. Comme nous avons pu le voir et malgré les réticences des marques, les différentes complexités qu'entraîne la data que ce soit au niveau légal, financier ou encore technique, ne doivent pas représenter un frein face aux bénéfices engendrés par leurs choix stratégique. La Big Data permet de capter des opportunités, d'être pro-actif, d'être cohérent. Elle permet aux marques de mieux cibler et de mieux s'adresser à leurs publics sur les réseaux sociaux en créant des contenus adaptés et pertinents en fonction d'insights forts. Si les marques veulent devenir audacieuses, innovantes et se démarquer de la concurrence elles ont pour mission de s'intéresser au monde de la Big Data. Elles ont besoin de trouver la stratégie qui leur convient en fonction de leurs objectifs, de leurs moyens mais également de leurs employés. Créer des méthodes agiles et surtout de casser les silos afin de rassembler toutes les composantes de l'entreprise autour d'un projet n'est pas chose facile, mais c'est une étape inévitable dans un tel projet. Créer une stratégie en real time data grâce à des KPI's définis et pertinents, en fonction des différentes variables de l'entreprise et en tenant compte de la variété de toutes les données dont elle dispose, développera forcément une stratégie bénéfique que ce soit au niveau financier ou au niveau social. Aujourd'hui peu de marques ont vu leurs stratégies Big Data échouées, parce qu'elles ont su prendre la mesure et la pertinence des retombées avant de se lancer dans cette aventure. IV. Conclusion
  • 41. 43 Toutes ces analyses sont le fruit de nombreuses recherches et réflexions et m'amènent à penser que la Big Data deviendra très vite (si ce n'est pas déjà le cas) un département privilégié dans chaque grande entreprise et un élément dopant et utile à toutes les startups. Ce mémoire m'a permis de remettre en question mes acquis sur les réseaux sociaux d'avoir un regard neuf et une approche différente et encore plus pertinente pour exploiter le maximum de la data à ma disposition au quotidien dans mes recommandations pour des clients. La Big Data analyse le présent et prédit le futur, j'en vient donc à me demander quel sera le futur des marques mais également des utilisateurs sur les réseaux sociaux grâce à elle.
  • 42. 44 Hadoop : « Un cluster Hadoop est un type particulier de traitement informatique en grappe, conçu spécialement pour stocker et analyser de grandes quantités de données non structurées dans un environnement distribué. » « En 2013, Facebook a été identifié comme ayant le plus important cluster Hadoop dans le monde. Parmi les autres utilisateurs clés de cette technologie, on retrouve Google, Yahoo et IBM. »36 Mapreduce : « C’est un modèle de programmation massivement parallèle adapté au traitement de très grandes quantités de données. MapReduce est un produit Google Corp. Les programmes adoptant ce modèle sont automatiquement parallélisés et exécutés sur des clusters (grappes) d’ordinateurs. » 37 NoSQL : «  Le NoSQL (Not only SQL) désigne une catégorie de base de données apparue en 2009 qui se différencie du modèle relationnel que l'on trouve dans des bases de données connues comme MySQL ou PostgreSQL. Ceci permet d'offrir une alternative au langage SQL. »38 In Memory : « Une base de données dite « en mémoire » (in-memory), ou IMDB (In Memory DataBase), ou encore MMDB (Main Memory DB), désigne une base de données dont les informations sont stockées en mémoire centrale afin d'accélérer les temps de réponse. »39 OLTP (online transaction processing) : «  L’OLTP est un traitement transactionnel en ligne qui sert à effectuer des modifications d'informations en temps réel. On le retrouve essentiellement dans des opérations commerciales comme les opérations bancaires, ou l’achat de bien divers. L’objectif de l’utilisation d’un tel système est de pouvoir Le MagIt : http://www.lemagit.fr/definition/Hadoop-Cluster36 Piloter : http://www.piloter.org/business-intelligence/map-reduce.htm37 Igm Univ : http://www-igm.univ-mlv.fr/~dr/XPOSE2010/Cassandra/nosql.html38 Le MagIt : http://www.lemagit.fr/definition/In-Memory-Base-de-donnees-en-memoire39 V. Glossaire
  • 43. 45 insérer, et interpréter pour des besoins divers, les données de la base de données, en toute sécurité. » 40 Mode Batch : « En informatique, un traitement par lots (batch processing en anglais) est un enchaînement automatique d'une suite de commandes (processus) sur un ordinateur sans intervention d'un opérateur1. Une fois que ce processus est terminé (quel que soit le résultat), l'ordinateur traite le lot suivant. Le traitement des lots se termine une fois que tous les lots de la pile ont été exécutés. »41 Architecture scale-out : « L'architecture scale-out s'applique aussi à l'informatique en cluster ou distribuée, dans laquelle plusieurs petits serveurs se partagent la charge de traitement d'une seule application. Par exemple, une charge de travail critique peut être exécutée sur deux serveurs ou plus, le traitement étant partagé entre ces serveurs selon une configuration actif-actif. Si un serveur tombe en panne, un autre peut prendre le relais afin d'assurer la disponibilité de l'application. S'il faut plus de redondance, il est possible d'étendre encore le cluster en y ajoutant d'autres noeuds de serveur. »42 Petite Entreprise : http://www.petite-entreprise.net/P-3081-136-G1-definition-oltp-vs-olap.html40 Wikipedia : https://fr.wikipedia.org/wiki/Traitement_par_lots41 Le MagIt : http://www.lemagit.fr/conseil/Scale-up-ou-scale-out-le-meilleur-choix-pour-votre-datacenter42
  • 44. 46 Ouvrages / Livres Blancs - KHAN G.F., "Seven Layers of social media analytics" 2015 - SCHMARZO B., "Big Data, Tirer parti des données massives pour développer l'entreprise" 2013 - ORACLE, "La valeurs des données sociales" 2013 - JAMESPOT, "Big Data et réseaux sociaux : Mythes et Réalités" 2013 - Corps, "Guide du Big Data, l'annuaire de référence à destination des utilisateurs" 2015 - Synthesio, "Utiliser les médias sociaux pour créer de la valeur. Le social intelligence au service de l'entreprise" Article de Presse - JAIME N. - CB News et JDN - 2015 "Comment dominer la data" Sites Internet - DENIAUD C. - http://www.mediassociaux.fr/2013/01/25/les-enjeux-de-la-big-data-a- lheure-des-medias-sociaux/ - "Les enjeux de la Big Data à l'heure des médias sociaux" - 2013 - LOULIDI N. - https://blogs.oracle.com/marketingcloud/fr/la-data-au-service-de-sa- prsence-sur-les-rseaux-sociaux - "La data au service de sa présence sur les réseaux sociaux" - 2015 - CLEMENT T. - http://www.madalana.fr/social-media-intelligence/ - "Social media intelligence : une arme stratégique pour votre marque" - THE SOCIAL CLIENT - http://www.actimag-relation-client.com/fr/article/social-media- intelligence-service-toute-entreprise - "LE SOCIAL MEDIA INTELLIGENCE AU SERVICE DE TOUTE L’ENTREPRISE " - MICHIELS M. - http://culture-rp.com/2016/01/18/le-big-data-au-service-dun-modele- customer-centric/ - "La Big Data au service d'un modèle customer centric" 2016 - MOISAN B. - https://siecledigital.fr/2015/11/25/data-marketing-efficace-inquietant/ - "Le data marketing : efficace mais inquiétant" VI. Bibliographie - Webographie
  • 45. 47 - BALAGUE C. - http://www.soft-concept.com/surveymagazine/opportunites-big-data- et-donnees-reseaux-sociaux/ - "Opportunités du Big Data et des données issues des réseaux sociaux" - TERADATA - http://www.forbes.com/sites/teradata/2015/05/27/capitalize-on-social- media-with-big-data-analytics/#53e9740cca3e - "Capitalize on social media with big data analytics" 2015 - BOWDEN J. - http://www.socialmediatoday.com/content/reasons-explore-big-data- social-media-analytics-videos - "Reasons to Explore Big Data with social media analytics" 2014 - HUNG D. - http://tech.co/impact-big-data-social-media-marketing-strategies-2016-01 - "The impact of Big Data on social media marketing strategies" 2016 - INCITE GROUP - http://www.incite-group.com/data-and-insights/big-data-social- media-social-mining-part-2-finding-insight - "Big Data in Social Media : Social mining part 2 : finding insight"

  • 46. 48 Annexe 1 - Fiches de lecture Page 49 Annexe 2 - Synthèse des focus groups Page 55 Annexe 3 - Interviews Page 61 Annexe 4 - Etudes quantitatives Page 78 Annexe 5 - Corpus d’articles Page 80 VII. Annexes
  • 47. 49 Annexe 1 - FICHES DE LECTURE 1/ Big Data - Tirer parti des données massives pour développer l’entreprise Auteur : Bill Schmarzo Date de parution : 2013 «Le big data exploite des perspectives uniques et concrètes recueillies sur vos clients, vos produits et vos opérations pour réorganiser vos processus de création de valeur, optimiser vos initiatives métier clés et découvrir de nouvelles opportunités de monétisation.» «De nouvelles sources de données provenant des médias sociaux et des mobiles, générées par des capteurs ou des machines, ont le potentiel de renouveler les processus de création de valeur d’une organisation. Avec les indications qu’elles nous fournissent sur les intérêts, les passions, les affiliations et les associations des consommateurs, les données issues des médias sociaux peuvent servir à optimiser l’engagement client (de l’acquisition des clients de la brand-advocacy, en passant par l’activation, la maturation, la vente croisée (cross-selling), la vente initiative (up selling) et la rétention).» «Les volumes massifs de données (se chiffrant en téraoctet, voire en pétaoctets), leur diversité et leur complexité mettent à rude épreuve les capacités des piles technologiques existantes.» «En conséquence, les organisations informatiques ou non, sont confrontées aux difficultés suivantes : les indications fournies par les médias sociaux, les mobiles ou les machines ne sont pas disponibles en temps voulu, dans un monde où l’expérience client en temps réel est en train de devenir la norme.» «Le mouvement du Big Data est en train d’engendrer une transformation des organisations. Celles qui l’adoptent comme un facteur transformationnel passent d’une vision rétrospective tournée vers le passé, qui utilise des tranches partielles de données échantillonnées ou agrégées par lots pour surveiller l’activité à une vision des opérations prédictive, tournée vers l’avenir qui exploité en temps réel toutes les données disponibles.»
  • 48. 50 «Exploiter les perspectives exploitables et les recommandations personnalisées basées sur les comportements et les tendances des consommateurs pour améliorer leurs relations et repenser leur expérience client.» «Identifier vos clients cibles et les solutions qu’ils souhaitent. Concentrez-vous sur la recherche de solutions qui améliorent leur performance et les aident à gagner de l’argent. Ce faisant, vous devez détailler les profils types (personas) des décideurs économiques. Investissez du temps pour suivre ces derniers et comprendre quelles décisions ils essaient de prendre, à quelle fréquence et dans quelles situations. Passez ce temps à recueillir des informations sur ce qu’ils essaient d’accomplir, au lieu d’essayer de comprendre ce qu’ils font.» «Des sociétés comme Facebook ont réalisé des expérimentations «live» pour réaliser des itérations rapides dans l’amélioration de leur expérience utilisateur. Instrumentez chaque point d’engagement de l’expérience utilisateur pour pouvoir détecter les habitudes d’utilisation ainsi que les goulets d’étranglement potentiels et les éléments de frustration que les utilisateurs pourraient avoir dans leur interaction avec l’interface.» «Les données deviennent pour l’entreprise un actif à exploiter (...) plus on en possède, plus elles sont détaillées, et plus vous serez susceptible d’en tirer des perspectives.» «Les modèles qui vous permettent d’acquérir, de profiler et de segmenter vos clients, qui vous servent à mesurer l’efficacité d’une campagne ou que vous utilisez pour la maintenance prédictive sont tous des facteurs susceptibles de vous différencier sur le marché, qui peuvent être exploités pour augmenter votre valeur globale et qui peuvent nécessiter une protection juridique.» «Le Big Data offre quatre possibilités (...) : fouiller dans le moindre détail toutes les données transactionnelles dont la plus grande partie n’est pas analysée aujourd’hui en raison des coûts d’entreposage des données. C’est ce qu’on appelle les dark data. Intégrer des données non structurées avec des données structurées. Exploiter en temps réel et intégrer l’analytique prédictive.» «Les données non structurées (...) (par exemple des documents texte, des publications sur les réseaux sociaux, des commentaires de médecins, des fichiers logs, des commentaires de clients.»