BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA
BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG
BIG DATA COGNITIVE BUSINESS ...
– M é m o i r e 2 0 1 6
P a g e | 1
Déclaration sur l’honneur contre le plagiat
– M é m o i r e 2 0 1 6
P a g e | 2
“L’avenir est la seule chose qui m’intéresse,
car je compte bien y passer les prochain...
– M é m o i r e 2 0 1 6
P a g e | 3
Sommaire :
Remerciements ................................................................
– M é m o i r e 2 0 1 6
P a g e | 4
b1.1 : Cloud Public......................................................................
– M é m o i r e 2 0 1 6
P a g e | 5
Remerciements :
En préambule de ce mémoire, je souhaiterais adresser mes remerciements...
– M é m o i r e 2 0 1 6
P a g e | 6
Résumé :
« Le numérique n'est pas une fin en soi, mais simplement le
point de départ d...
– M é m o i r e 2 0 1 6
P a g e | 7
dans ce mémoire, pour comprendre les origines de la donnée, permettant en fin de cycle...
– M é m o i r e 2 0 1 6
P a g e | 8
Abstract:
“Digital technology is not an end in itself, but only the starting point of ...
– M é m o i r e 2 0 1 6
P a g e | 9
Because we are doing our apprenticeship with IBM, we would like to make the most of
wh...
– M é m o i r e 2 0 1 6
P a g e | 10
Introduction :
Depuis le début de son ère, dans le but de créer des alliances, lier d...
– M é m o i r e 2 0 1 6
P a g e | 11
Pour ce faire, nous nous intéresserons dans un premier temps au groupe IBM et à son
c...
– M é m o i r e 2 0 1 6
P a g e | 12
I. IBM et Big Data :
1. Comprendre le contexte du groupe IBM :
a. Histoire du Groupe ...
– M é m o i r e 2 0 1 6
P a g e | 13
b. Carte d’identité de l’entreprise :
International Business Machines
Corporation fig...
– M é m o i r e 2 0 1 6
P a g e | 14
b2. Répartition du Chiffre d’affaires par zone géographique :5
(CA en milliards de do...
– M é m o i r e 2 0 1 6
P a g e | 15
informatique, tels que Accenture, Sopra, Capgemini, etc., de nombreux acteurs spécial...
– M é m o i r e 2 0 1 6
P a g e | 16
personnelles de millions de particulier à travers le monde. Il est indispensable de c...
– M é m o i r e 2 0 1 6
P a g e | 17
Twitter : Le réseau social et IBM s’associent en 2014 en vue d’offrir aux
entreprises...
– M é m o i r e 2 0 1 6
P a g e | 18
e. Une mutation stratégique qui pèse fortement sur le groupe :
d1.Quinze trimestres c...
– M é m o i r e 2 0 1 6
P a g e | 19
Cloud Analytics Mobility Security Social
2014 4 15 1,0 1,8 0,8
2015 10 18 3,0 2,0 1,0...
– M é m o i r e 2 0 1 6
P a g e | 20
2. Une définition du Big Data12
:
Pour prévenir les emplois inappropriés par les médi...
– M é m o i r e 2 0 1 6
P a g e | 21
D’autres, tels que les industriels et les distributeurs, à la recherche constante de ...
– M é m o i r e 2 0 1 6
P a g e | 22
Une Définition :
Littéralement traduit par « grosse donnée » ou « donnée massive », l...
– M é m o i r e 2 0 1 6
P a g e | 23
a. Les origines du Big Data :
Vers une « Datafication » de notre environnement par l’...
– M é m o i r e 2 0 1 6
P a g e | 24
Ayant défini une base de mots clés en relation avec le terme « Grippe » (froid, remèd...
– M é m o i r e 2 0 1 6
P a g e | 25
Figure représentant l’évolution du
nombre de personnes grippées aux
Etats-Unis face à...
– M é m o i r e 2 0 1 6
P a g e | 26
3- Une cause économique : une baisse de prix exponentielle des IT18
! Suivant les loi...
– M é m o i r e 2 0 1 6
P a g e | 27
Le Volume des données à traiter ?
La Vitesse d’analyse de l’ordinateur ou du serveur ...
– M é m o i r e 2 0 1 6
P a g e | 28
Une histoire de puissance de 1000 pour se représenter ce que signifient méga, giga, o...
– M é m o i r e 2 0 1 6
P a g e | 29
Autre l’aspect volume, un aspect structurel doit être pris en compte, les données peu...
– M é m o i r e 2 0 1 6
P a g e | 30
Le Big Data à l’intersection des trois V :
Volume : La partie volume de la donnée, se...
– M é m o i r e 2 0 1 6
P a g e | 31
Vélocité (ou Vitesse) : au cœur du time to market, la vitesse de circulation des donn...
– M é m o i r e 2 0 1 6
P a g e | 32
des clients. Dans cette perspective, la vitesse de circulation des données deviendra ...
– M é m o i r e 2 0 1 6
P a g e | 33
IBM, qui a fait du Big Data une priorité majeure, a ajouté un 4ème
V aux trois précéd...
– M é m o i r e 2 0 1 6
P a g e | 34
Valeur : au terme du circuit d’une analyse Big Data, cette notion met l’accent sur la...
– M é m o i r e 2 0 1 6
P a g e | 35
Dans le cadre d’une analyse Big Data : le processus est inversé, ce n’est plus le mar...
– M é m o i r e 2 0 1 6
P a g e | 36
Analyse
Big Data
Analyse en temps réel des données (mon logiciel recherche la corréla...
– M é m o i r e 2 0 1 6
P a g e | 37
Traiter une plus grande variété de données :
o Décoder et analyser les humeurs sur le...
– M é m o i r e 2 0 1 6
P a g e | 38
g. Le Big Data dans les organisations :
Le Big Data ouvre la porte à des changements ...
– M é m o i r e 2 0 1 6
P a g e | 39
Ainsi, la DSI a un rôle clé dans la définition des axes de transformation et de dével...
– M é m o i r e 2 0 1 6
P a g e | 40
de réaliser les systèmes conçus par les architectes et des designers web (en charge d...
– M é m o i r e 2 0 1 6
P a g e | 41
Collecte des données Analyse Exemple de valeur par secteur
Santé : - Prévenir une mal...
– M é m o i r e 2 0 1 6
P a g e | 42
Comment mieux comprendre ses clients grâce au Big Data ? (souce : formation interne I...
– M é m o i r e 2 0 1 6
P a g e | 43
Grâce à cette analyse, il est certes aisé de cibler un potentiel client, de lui propo...
– M é m o i r e 2 0 1 6
P a g e | 44
Fini l’improvisation commerciale et le “feeling” du super vendeur ! Grâce à ce résult...
– M é m o i r e 2 0 1 6
P a g e | 45
« surréalistes » : comment mettre en place une force de vente androïde sans perdre le...
– M é m o i r e 2 0 1 6
P a g e | 46
Corréler des volumes extrêmes : découvrir, expérimenter et analyser des données cohér...
– M é m o i r e 2 0 1 6
P a g e | 47
II. Appréhender l’univers du Cognitive Business :
Pour comprendre le choix de cette s...
– M é m o i r e 2 0 1 6
P a g e | 48
Pour comprendre, la place du Big Data dans la nouvelle stratégie du groupe, ce mémoir...
– M é m o i r e 2 0 1 6
P a g e | 49
L’Open Data : horaires de transports en commun, statistiques sur les régions et les
g...
– M é m o i r e 2 0 1 6
P a g e | 50
1. Les principaux composants du Big Data :
a) Production de la donnée :
a1. L’interne...
– M é m o i r e 2 0 1 6
P a g e | 51
2005 Puce RFID30
1ère
génération : utilisée en
logistique, en grande distribution (co...
– M é m o i r e 2 0 1 6
P a g e | 52
Outrepassé la technologie RFID, qui ne permet que de délivrer un simple « code barre ...
– M é m o i r e 2 0 1 6
P a g e | 53
l’implantation de nanorobots dans le cerveau humain, ce qui permettra de démultiplier...
– M é m o i r e 2 0 1 6
P a g e | 54
capteurs déclanchement d’un airbag
IoT-2 Voiture autonome :
pilotage automatique
Anal...
– M é m o i r e 2 0 1 6
P a g e | 55
l’enraiement de
l’armement
IoT-2 Télé-opération :
réalisation d’une attaque
militaire...
– M é m o i r e 2 0 1 6
P a g e | 56
mondiales en 2020, en grande partie due à l’augmentation du nombre d’utilisateur des ...
– M é m o i r e 2 0 1 6
P a g e | 57
a2. Open Data34
:
Provenance de la donnée ouverte ? Littéralement « données ouvertes ...
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC
Prochain SlideShare
Chargement dans…5
×

Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

12 vues

Publié le

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
12
Sur SlideShare
0
Issues des intégrations
0
Intégrations
3
Actions
Partages
0
Téléchargements
1
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Mémoire (Charles Pissavin) - Cognitive Business & Big Data - ESC

  1. 1. BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG BIG DATA COGNITIVE BUSINESS BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG MACHINE LEARNING BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG MACHINE LEARNING BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA BIG DATA B IG DATA BIG DATA BIG DATA B I G DA T A BI G DA T A B I G DA T A BI G DA T A B I G DA T A BI G DA T A B I G DA T A BI G DA T A B I G DA T A BI G DATA B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A B I G D A T A Réalisé par Charles Pissavin L’ère du Cognitive Business Les enjeux autour du BIG DATA Définition et Controverse du nouvel or noir du XXIème siècle ? Entreprise : IBM France Mission : Chef de projet Junior Maître d’Apprentissage : Mme Beatrice Bessac Professeurs Tuteurs : Mme Marina Bourgain, Mr Diego Landivar
  2. 2. – M é m o i r e 2 0 1 6 P a g e | 1 Déclaration sur l’honneur contre le plagiat
  3. 3. – M é m o i r e 2 0 1 6 P a g e | 2 “L’avenir est la seule chose qui m’intéresse, car je compte bien y passer les prochaines années.” Woody Allen
  4. 4. – M é m o i r e 2 0 1 6 P a g e | 3 Sommaire : Remerciements ...............................................................................................................................5 Résumé............................................................................................................................................6 Abstract...........................................................................................................................................8 INTRODUCTION : ....................................................................................................................10 I. IBM et Big Data : .....................................................................................................................12 1. Comprendre le contexte du groupe IBM ................................................................... 12 a. Histoire du Groupe ........................................................................................................... 12 b. Carte d’identité de l’entreprise ........................................................................................ 13 c. Positionnement ................................................................................................................ 14 d. Une stratégie de partenariat et de rachat ....................................................................... 16 e. Une mutation stratégique ................................................................................................ 18 2. Une définition du Big Data ................................................................................................ 20 a. Les origines du Big Data ................................................................................................. 23 b. La frontière du Big Data ? ............................................................................................... 26 c. Évolution de la donnée ................................................................................................... 27 d. Les 3 « V » du Big Data : Volume – Vélocité – Variété .................................................... 29 e. De 3 à 6 « V » : Véracité - Valeur – Visualisation ............................................................ 32 f. Mise en place et champs d’application ........................................................................... 34 g. Le Big Data dans les organisations .................................................................................. 38 II. Appréhender l’univers du Cognitive Business : .................................................................47 1. Les principaux composants du Big Data ........................................................................... 50 a. Production de la donnée ................................................................................................. 50 a1. L’internet des Objets (IoT) ......................................................................................... 50 a2. Open Data................................................................................................................... 57 a3. Les données des organisations.................................................................................... 62 a4. Réseaux sociaux.......................................................................................................... 65 a5. L’avancée par le Cloud Computing............................................................................ 69 b. Infrastructure Cloud ..................................................................................................... 71 b1. L’émergence du Cloud ............................................................................................... 72
  5. 5. – M é m o i r e 2 0 1 6 P a g e | 4 b1.1 : Cloud Public.............................................................................................. 74 b1.2 : Cloud Privé................................................................................................ 74 b1.3 : Cloud Hybride ........................................................................................... 75 b2. Cloud SaaS ................................................................................................................. 76 b3. Cloud PaaS ................................................................................................................ 78 b4. Cloud IaaS ................................................................................................................. 79 b5. Les couts cachés d’une offre Cloud ........................................................................... 81 c. Analyse de la donnée ................................................................................................... 83 c1. L’évolution de l’analyse ............................................................................................. 83 c2. Les perceptives analytiques ........................................................................................ 85 c3. Le Machine Learning ................................................................................................. 87 2. IBM à l’ère du Cognitive Business ..................................................................................... 91 a. Définition ........................................................................................................................ 91 b. Un nouveau marché ........................................................................................................ 91 c. Les avantages du Cognitive Business pour le client ........................................................ 92 d. Travailler avec un assistant cognitif ................................................................................ 93 e. L’offre IBM ...................................................................................................................... 94 e1. Les compétences de Watson ....................................................................................... 95 e2. Sur le terrain dès 2016 ............................................................................................... 97 CONCLUSION : .......................................................................................................................100 Bibliographie ...............................................................................................................................108 Annexes ......................................................................................................................................112
  6. 6. – M é m o i r e 2 0 1 6 P a g e | 5 Remerciements : En préambule de ce mémoire, je souhaiterais adresser mes remerciements les plus sincères aux personnes qui m’ont apporté leur aide et qui ont contribué à l’élaboration de ce mémoire ainsi qu’à la réussite de ces deux formidables années d’apprentissage. Je tiens à remercier sincèrement Madame Béatrice Bessac, qui, en tant que manager, s’est toujours montrée à l’écoute et disponible durant toute la période d’apprentissage. Je lui suis reconnaissant pour son aide, sa sincérité ainsi que pour le temps qu’elle a bien voulu m’accorder. Mes remerciements s’adressent également à Madame Marina Bourgain et à Monsieur Diego Landivar, professeurs de l’Ecole de Commerce de Clermont-Ferrand, qui, respectivement en tant que tuteur d’apprentissage et tuteur de mémoire, m’ont sans cesse conseillé dans mes prises de décisions et m’ont permis d’approfondir mes idées, tout en pointant les éventuelles limites de ma réflexion personnelle. Je tiens également à exprimer ma gratitude à l’équipe du Project Management Services, pour l’accueil qui m’a été offert chaque matin, l’aide pratique ainsi que l’attention qu’elle m’a accordée dans le cadre de la réalisation de mes missions. Je tiens plus particulièrement à remercier, Monsieur Dejan Djurov et Monsieur Alain Pelé, pour leur soutien et leurs encouragements, et plus particulièrement pour avoir pris le temps de me présenter patiemment les différentes facettes de leur métier. Plus personnellement, je tiens remercier du fond du cœur les personnes qui me sont chères, et sans qui je n’aurais certainement pas eu la force d’entreprendre ce projet de reprise d’études. Un immense merci à l’ensemble de ma famille pour son soutien, et plus particulièrement à ma sœur qui, malgré la distance, a toujours trouvé les mots pour entretenir ma motivation. Mille mercis à toutes et à tous.
  7. 7. – M é m o i r e 2 0 1 6 P a g e | 6 Résumé : « Le numérique n'est pas une fin en soi, mais simplement le point de départ d'une nouvelle ère pour les entreprises. Nous l'appelons le Cognitive Business ! Si nous pouvons le faire, nous le ferons. Le monde a besoin de nous. » Ginni Rometty (PDG du Groupe IBM).1 C’est par cette phrase ambitieuse que je souhaite débuter mon mémoire, et lancer mon travail de recherche sur les enjeux numériques qui impacteront fortement le monde de l’entreprise ainsi que la vie quotidienne de demain. Les enjeux autour du Cognitive Business sont nombreux, d’où viennent-ils ? Quels seront leurs impacts ? Ce mémoire mettra l’accent sur les différentes évolutions digitales afin d’aider tout type d’organisation à préparer sa transformation digitale. En introduction de ce mémoire, nous chercherons à comprendre les motivations de lancement de la stratégie Cognitive Business. Pour appréhender plus en détail cette transformation stratégique, ce mémoire fera une présentation du groupe et de son marché, puis il tentera d’apporter une définition d’une notion extrêmement employée depuis quelques années : la notion de Big Data. En plus de cette définition, nous chercherons à comprendre l’impact de cette évolution dans le monde de l’entreprise, la place nouvelle de la donnée, le repositionnement de la Direction des Systèmes d’Information et l’arrivée du nouveau métier de Data Scientist au sein des organisations. Réalisant ce mémoire dans le cadre d’études en école de commerce, ce mémoire cherchera à présenter les différentes avancées apportées par le Big Data en termes de service client, en se passionnant fréquemment du point de vue d’un service commercial. Au-delà du Big Data, ce mémoire déchiffrera dans un second temps, les origines technologiques de ce nette notion en orientant son étude vers des termes très largement employés et déjà très présent dans notre environnement. Internet des objets, réseaux sociaux, mobilité, Cloud (SaaS, PaaS, IaaS) et machine learning. Voilà une partie des termes qui seront étudiés 1 Extrait du discours de lancement de la nouvelle stratégie du groupe IBM, le 05/10/2015.
  8. 8. – M é m o i r e 2 0 1 6 P a g e | 7 dans ce mémoire, pour comprendre les origines de la donnée, permettant en fin de cycle de réaliser des analyses prédictives, qui sont au cœur du Cognitive Business. En conclusion de ce mémoire, en plus de présenter une réponse aux problématiques. Une présentation non-exhaustive et succincte des différentes controverses, associées au déploiement de technologie en relation avec le Big Data, sera réalisée. Nous chercherons à identifier, puis comprendre les différentes craintes, pour tenter de nous projeter dans l’avenir, afin d’anticiper les possibles évolutions de notre société. Effectuant mon apprentissage au sein du Groupe IBM, je souhaite profiter des formations internes pour comprendre l’univers du Big Data et le marché du Cognitive Business. D’autre part, pour soutenir mes recherches et mon analyse, je m’appuierai sur différents ouvrages et articles relatant de mes divers questionnements. Cette démarche me permettra d’avoir à la fois une approche « Business » du monde digital, et une approche sociale face à l’apparition de ces nouvelles révolutions numériques. Pour que ces lignes alimentent les zettaoctets2 de données analysées par les prochaines générations d’outils analytiques, découvrons et comprenons l’univers du Big Data, ses controverses et ses enjeux ! Mots clés : Cognitive Business, IoT, Big Data, Machine Learning, Cloud, Zettabytes. 2 Un zettaoctet = un milliard de téraoctets
  9. 9. – M é m o i r e 2 0 1 6 P a g e | 8 Abstract: “Digital technology is not an end in itself, but only the starting point of a new era for companies. We call it: “Cognitive Business”! If we have a chance to make it possible, we will definitely do it. The world needs us”, announced Ginni Rometty, the CEO of IBM. We would like to begin our dissertation with this daring and resolute sentence in order to initiate a reflection on the concerns related to certain digital technology that will soon impact on business and daily life. Cognitive Business is currently a big issue. What kind of consequences will it entail? Where does it arise from? We will try to stress on the different digital evolutions in order to help any kind of organization to get ready to their own digital transformation. As an introduction to our subject, we will attempt to understand the motivations that had lead to Cognitive Business strategy. To go into detail, our dissertation will present the IBM group and its markets, before defining a current and quite popular expression: the “Big Data”. Moreover, we will try to analyze its impact on the firms but also the new function of the data, the repositioning of the Informations Systems Direction and the beginning of a new job called the “data scientist”. Since this dissertation is written as a part of the business school course, we will report the different changes brought by the Big Data concerning the customer service. Beyond the Big Data, we will see that this notion has a technological beginning as we will present a wide range of words that are often used currently such as: “internet things”, “social network”, “mobility”, “Cloud” (SaaS, PaaS, IaaS) and “machine learning”. This study will provide us some help to understand the data starting point that lead to predictive analyses. Last but not least, after trying to solve some of the problems that we would have beforehand emphasized, we will make a concise and non-exhaustive presentation of the different bones of contention related to the development of such a technology. We will attempt to identify and then, to understand which are the main concerns that it raises so as to anticipate the changes to come in our society.
  10. 10. – M é m o i r e 2 0 1 6 P a g e | 9 Because we are doing our apprenticeship with IBM, we would like to make the most of what we have learnt during this period to get familiar with the Big Data world and the Cognitive Business market. Furthermore, we will base our analyses on different books and articles that deal with the same issue. Thanks to these documents, we will have both a “business” approach of the digital technology and a social one. Indeed, we will be aware of the changes entailed by new digital technology revolutions. To make these sentences part of the zettaoctects of data that will be analysed by new analytic tools, let us discover and understand the Big Data world, its controversies and its challenges! Key Words: Cognitive Business, IoT, Big Data, Machine Learning, Cloud, Zettabytes.
  11. 11. – M é m o i r e 2 0 1 6 P a g e | 10 Introduction : Depuis le début de son ère, dans le but de créer des alliances, lier des affinités, échanger des biens, se protéger, se nourrir, réfléchir en communauté, et mener à terme des stratégies variées, l’Homme a toujours eu recours à la communication. Pour contrôler ces flux d’informations, il n’a jamais cessé d’innover dans le choix de ses moyens de communication : langage, dessin, gravure, écriture…, établissant un ensemble de codes déchiffrables par un groupe défini, permettant à certaines tribus, communautés, cités, États, de se développer pour créer, produire et s’étendre. Ces évolutions, ont poussé la réflexion humaine à créer de nouveaux outils permettant d’analyser ces codes et d’aider l’individu à prendre des décisions par le biais d’informations analysées par de nouveaux instruments : de l’os d’Ishango (première calculatrice de l’humanité datant d’environ 20 000 ans avant notre ère) au début de l’informatique (au siècle dernier). Depuis le XXème siècle, les progrès de l’informatique sont colossaux. S’ils permettent à la machine d’assister l’homme dans sa prise de décisions, ils contribuent également à des bouleversements inédits : l’humanité, pour la première fois de son histoire, a été capable de reproduire la réflexion cognitive humaine, pour prendre des décisions en totale autonomie, apprendre de ses erreurs, cumuler des masses de données pour accélérer des processus de vente, proposer des diagnostics vitaux, enseigner et prédire avec précision des évènements futurs. Ainsi s’ouvre une nouvelle ère dans laquelle l’homme est accompagné de façon naturelle dans la prise décision, l’ère du Cognitive Business. Pour tenter de déchiffrer les codes et les clés de cette notion nouvelle, ce mémoire répondra à la problématique suivante : A l’heure du Cognitive Business, pour quelles raisons et selon quels procédés le Big Data se positionne-t-il au centre de la réussite stratégique des entreprises ? Quels sont les différents risques de cette mutation technologique et sociale ?
  12. 12. – M é m o i r e 2 0 1 6 P a g e | 11 Pour ce faire, nous nous intéresserons dans un premier temps au groupe IBM et à son contexte en pleine mutation afin de comprendre les causes du lancement de sa nouvelle stratégie. Afin de donner les clés d’entrée dans le monde de la donnée, ce mémoire présentera l’univers du Big Data en proposant une définition du terme et une explication des possibilités qu’il offre au monde de l’entreprise. Dans un second temps, ce mémoire tentera de positionner le Cognitive Business sur la carte du numérique en analysant plus en profondeur les différents termes proches du Big Data, qui sont au cœur de cette stratégie novatrice. Pour ce faire, nous nous concentrerons sur les trois points fondamentaux de l’analyse cognitive : La production de la donnée (IoT, Réseaux Sociaux, Mobilité, Cloud SaaS), Le stockage de la donnée (Cloud IaaS, Cloud PaaS), L’analyse de la donnée (Machine Learning). Après ces définitions et ce cadrage de termes numériques, une présentation plus approfondie de la stratégie d’IBM et de son produit phare Watson sera réalisée. Pour finir, nous ne contenterons pas d’apporter une réponse aux problématiques retenues mais veillerons à présenter une cartographie des controverses qui rendra compte des différents risques que peuvent susciter les mutations technologiques et sociales provenant du phénomène Big Data. Nous étudierons par conséquence les différentes problématiques d’éthique, de durabilité et d’accessibilité de la donnée mais aussi de l’emploi et du pouvoir, pour tenter de comprendre la place de l’homme face à l’avènement des nouvelles technologies. Parce qu’il est le fruit du travail d’un étudiant en école de commerce, ce mémoire cherche à traduire les termes d’ingénierie informatique afin d’étudier et d’analyser les grandes évolutions du monde numérique. Pour mener à bien cette quête, de nombreux schémas de synthèses3 ont été réalisé pour simplifier la compréhension du sujet. Ce travail de recherche s’adresse donc au moins technophile d’entre nous. 3 Annexe 1 (p.112)
  13. 13. – M é m o i r e 2 0 1 6 P a g e | 12 I. IBM et Big Data : 1. Comprendre le contexte du groupe IBM : a. Histoire du Groupe : IBM est une société Américaine, née en 1911 sous le nom de Computing, Tabulating Recording Company (C-T-R), de la fusion entre deux compagnies de matériels de gestion. Son cœur de métier est alors la fourniture de matériel (tabulateur et calculateur), puis s’étoffera rapidement avec des prestations de services. Dès les années 1950, Thomas Watson transforme IBM en une entreprise moderne par la formalisation : des codes, des pratiques managériales, d’une politique sociale et des valeurs de la firme. Il regroupe tout cela en un programme qui sera ensuite enseigné et transmis à chaque collaborateur. Thomas Watson concentre l'activité de l'entreprise vers le développement technologique et la vente de composants électroniques pour ordinateur. Ces avancées permettent à IBM de se hisser au premier rang mondial des entreprises de haute technologie. IBM a su se réinventer depuis plus d’un siècle, décennie après décennie pour croître et devenir la plus ancienne compagnie existante en matière de nouvelles technologies. Le fer de lance de cette croissance centenaire est aussi la conjugaison entre l’expertise des technologies de l’information et la connaissance de ses clients (notamment par ses ingénieurs commerciaux et ses consultants). Le client est une valeur pilier de l’entreprise, appuyée par le lancement en 2014 de Client First pour recentrer le travail des équipes autour du client.
  14. 14. – M é m o i r e 2 0 1 6 P a g e | 13 b. Carte d’identité de l’entreprise : International Business Machines Corporation figure parmi les 1ers prestataires de services informatiques dans le monde avec un CA en 2015 de 81,7 Milliards de Dollar (-12%). b1. Répartition du Chiffre d’affaire par activité : 4 (CA en milliards de dollars) 2015 Part de CA en 2015 Prestations de services informatiques (GTS + GBS) 48,4 59,2% Développement de logiciels 22,4 27,4% Construction et vente de matériel 8,8 10,8% Financement d'équipements informatiques 1,8 2,2% Autres 0,3 0,4% 4 Source : Cofisem, ©2016 (graphiques : Excel) 59% 28% 11% 2% Prestations de services informatiques (GTS + GBS) Développement de logiciels Construction et vente de matériel Financement d'équipements informatiques Autres
  15. 15. – M é m o i r e 2 0 1 6 P a g e | 14 b2. Répartition du Chiffre d’affaires par zone géographique :5 (CA en milliards de dollars) 2015 Part de CA en 2015 États-Unis 28,2 34,5% Reste Amérique 8,3 10,1% Europe - Moyen Orient - Afrique 27,0 33,1% Asie-Pacifique 17,8 21,8% Autres 0,4 0,5% c. Positionnement, face à un marché en pleine mutation : Après l’ère de l’e-Business annoncé en 1995, la stratégie Smarter Planet entreprise en 2008 et accompagnée de son célèbre Slogan : « Bâtissons une planète plus intelligente ! » et poussé par la volonté de se réinventer jour après jour, IBM a lancé sa nouvelle stratégie en Octobre 2015 : le Cognitive Business. Motivé principalement par la montée en puissance de nouveaux groupes spécialisés dans le Cloud et par le développement de nouvelles technologies cognitives en interne, IBM a annoncé officiellement son entrée dans l’ère du COGNITIVE BUSINESS en réagençant son organisation et son activité autour du lancement d’un nouveau produit nommé “Watson” (en hommage à son ancien PDG). Face à cette stratégie innovante, il est difficile d’établir précisément une carte concurrentielle. En effet, en plus des concurrents « historiques » spécialisés exclusivement dans le consulting en 5 Source : Cofisem, ©2016 (graphiques : Excel) 0,0 5,0 10,0 15,0 20,0 25,0 30,0 Etats-Unis Reste Amerique Europe - Moyen Orient - Afrique Asie-Pacifique Autres
  16. 16. – M é m o i r e 2 0 1 6 P a g e | 15 informatique, tels que Accenture, Sopra, Capgemini, etc., de nombreux acteurs spécialisés généralement en software (Microsoft, SAP…) viennent tirer leur épingle du jeu en proposant des solutions innovantes hébergées désormais en Cloud (SaaS, Paas et IaaS). Les principaux acteurs du marché des nouvelles technologies : Notons au préalable qu’une carte concurrentielle de cette stratégie étant difficilement réalisable, ce mémoire présentera une cartographie (non exhaustive) des grands acteurs du monde des nouvelles technologies. Quatre grandes catégories influençant la stratégie du Cognitive Business peuvent être distinguées : Les SSII6 « historiques », (nouvellement appelées ESN7 : IBM, Capgemini, Sopra, Accenture…) : Travaillant exclusivement sur le consulting en informatique, ces groupes organisent la globalité ou une partie de l’infogérance d’autres groupes (exemple : IBM => Michelin). Les développeurs « historiques » de Softwares et de Hardwares : Microsoft, Intel, Oracle, SAP … Ces entreprises viennent concurrencer de plus en plus fortement les SSII en élargissant leurs domaines de compétence en solution Softwares, en développement d’applications et en solution d’Infrastructure et de Réseaux grâce au développement du Cloud Computing. (Microsoft est devenu en quelques années un des principaux concurrents d’IBM en devenant un des leaders du Cloud Computing8 ). Les réseaux sociaux et les moteurs de recherche : Facebook, LinkedIn, Twitter, Google… Ce sont des créateurs de bases de données colossales à partir de collectes de données 6 SSII : société de services en ingénierie informatique 7 ESN : entreprise de services du numérique 8 Les Chiffres du Cloud Infrastructure Service (Q4 2014) => Annexe 3
  17. 17. – M é m o i r e 2 0 1 6 P a g e | 16 personnelles de millions de particulier à travers le monde. Il est indispensable de comprendre que ces sociétés auront une carte importante à jouer dans le développement d’une stratégie cognitive. D’autre part, Google se positionne d’ores et déjà sur le marché en développant lui- même des innovations sur sa Google Cloud Platform accessible en SaaS pour concurrencer les applications d’IBM Watson également disponible en SaaS (ex : Application PREDICTION API). Les réseaux sociaux, quant à eux, négocient des contrats d’accessibilité et d’exclusivité à leurs données avec d’autres géants du numérique. Des entreprises du numériques surfant sur la vague du Cloud Computing : Amazon, Alibaba, Salesforce… Ces deux géants du e-commerce respectivement Américain et Chinois, sont devenus en quelques années des acteurs incontournables du Cloud Computing. Pour certains, Amazon aurait été le créateur de l’informatique dans le « nuage » en proposant en 2006 la location de l’espace inexploité de ses serveurs après le Pic d’activité de Noël. Depuis plusieurs années, Amazon est le leader de Cloud Computing9 à travers le monde en étant reconnu pour la vitesse d’exécution de ses services, laquelle s’avère primordiale à l’heure de la transformation digitale. Suivant les traces de son prédécesseur américain, Alibaba est déjà le leader sur le marché Chinois et a pour ambition de devenir le leader mondial en mettant l’accent sur une stratégie de Cloud Computing Lowcost. d. Une stratégie de partenariat et de rachat : En accord avec la stratégie globale du groupe : trois partenariats importants et un rachat d’une valeur de 2 milliards de dollars sont venus appuyer le virage stratégique d’IBM : 9 Annexe 2 (p.113)
  18. 18. – M é m o i r e 2 0 1 6 P a g e | 17 Twitter : Le réseau social et IBM s’associent en 2014 en vue d’offrir aux entreprises de nouveaux outils analytiques pour aider à la prise de décision. Les flux de données Twitter seront proposés en option à l’offre IBM Watson Analytics et Bluemix. L’accord prévoit également le développement d’un ensemble de services de consulting destinés au secteur bancaire, grande distribution et tourisme. Apple : Un accord a été signé en 2014 sur la création d’applications (Big Data et Analytics) sur iOS afin de permettre à Apple de confirmer son positionnement dans le monde de l’entreprise et à IBM d’apporter de nouvelles solutions de mobilité à ses clients par le bais de l’IPad et de l’IPhone. Facebook : Un partenariat a été instauré en 2015 entre les deux sociétés afin de permettre aux partenaires d’IBM utilisant la solution Marketing Journey Analytics d’accéder aux fonctionnalités publicitaires de Facebook. Ainsi, IBM analyse les données publiques des utilisateurs de Facebook comme les mentions « Like », pour les associer à des données tierces comme la géolocalisation, la météo, etc. VMware : Une alliance stratégique de grande ampleur a été convenue en 2016 avec la société spécialisée dans les services liés au cloud VMware. L’objectif est de réussir à déployer un système de « Cloud Hybrid» de haute performance afin de se positionner face aux fameux Microsoft et Amazon. The Weather Company : Une acquisition a été réalisée début 2016 pour environ 2 milliards de dollars. Cette opération permet à IBM d’acquérir l’acteur majeur de la donnée météoritique mondiale, afin de pouvoir étoffer son offre en proposant aux clients d’IBM Watson la possibilité de croiser leurs données avec des données météorologiques extrêmement fiables. En 5 ans (de 2010 à 2015), IBM a dépensé plus de 14 Milliards de dollars en acquisition dans le domaine de l’analyse de données, et environ 6 milliards par an en R&D. Néanmoins, IBM n’est pas le seul acteur à réaliser des partenariats. Par exemple, le groupe Google a entre autre signé des accords avec LinkedIn, Pinterest, Adobe, WordPress et également Twitter afin d’alimenter en données sa stratégie d’intelligence artificielle.
  19. 19. – M é m o i r e 2 0 1 6 P a g e | 18 e. Une mutation stratégique qui pèse fortement sur le groupe : d1.Quinze trimestres consécutifs en baissent : 10 IBM en Chiffres (en milliards de dollars) 2010 2011 2012 2013 2014 2015 Chiffre d'affaires 99,9 106,9 104,5 99,8 92,8 81,7 Evolution : N / N-1 4% 7% -2% -4% -7% -12% Revenu net 14,8 15,9 16,6 16,5 15,8 13,4 Evolution : N / N-1 11% 7% 4% -1% -4% -15% Taux de marge 14,8% 14,9% 15,9% 16,5% 17,0% 16,4% Il convient ici de commenter un chiffre d’affaires et un revenu net en régression depuis 2012 et, à l’inverse, un taux de marge en hausse passant de 14,8% en 2010 contre 16,4% en 2015. Selon Martin Schroeter, vice-président et directeur financier du groupe, ces quelques chiffres peuvent avoir l’air alarmant, mais ils se justifient néanmoins par trois points importants : La vente à Lenovo (pour 2,1 milliards de dollars) de la branche dédiée aux serveurs d’entrée et de milieu de gamme, Une variation du taux de change du dollar responsable à lui seul d’une baisse de 8% du chiffre d’affaires (2/3 de l’activité étant hors Etats-Unis), 10 Sources : www.challenge.fr + www.ibm.com 0 20 40 60 80 100 120 2010 2011 2012 2013 2014 2015 Chiffre d'affaires Revenu net
  20. 20. – M é m o i r e 2 0 1 6 P a g e | 19 Cloud Analytics Mobility Security Social 2014 4 15 1,0 1,8 0,8 2015 10 18 3,0 2,0 1,0 0 5 10 15 20 enmilliardsdedollars CAMSS Un bilan négatif dans le pays émergents (-21% sur Q4 2015 dans les pays BRIC : Brésil, Russie, Inde et Chine). d2 : Transformation « in Progress » : Néanmoins, une stratégie CAMSS en hausse (Cloud, Analytics, Mobility, Security & Social) a pu être relevée : 11 Grâce à de nombreuses acquisitions et un partenariat stratégique menés avec Apple sur la mobilité, la stratégie CAMSS a représenté en 2015, 35% du chiffre d’affaires du groupe contre 25% en 2014. En 2015, nous observons une Activité CAMSS fortement tractée par la montée en puissance du Cloud dépassant les 10 milliards de dollars de chiffre d’affaires (+57%), et une progression de 16% de l’activité Analytique du groupe. 11 Sources : www.ibm.com + www.zdnet.com
  21. 21. – M é m o i r e 2 0 1 6 P a g e | 20 2. Une définition du Big Data12 : Pour prévenir les emplois inappropriés par les médias de l’expression de plus en plus populaire de “Big Data”, il nous a paru utile pour commencer distinguer ce qui ne relève pas du Big Data : Un volume de données traitable au moyen d’une fiche Excel, Les données hébergées sur un seul nœud d’une base de données relationnelles, Les données issues de sondages onéreux (INSEE, Politique…). de ce qui, à l’inverse, relève du Big Data : Le trafic d’un « gros » site web (e-commerce), Les données de logs transactionnelles d’un site web d’une grande enseigne de distribution, Les données de localisation GSM d’un opérateur téléphonique sur une journée, Les données boursières échangées quotidiennement sur une place financière. Parce que le Big Data constitue une nouvelle ressource naturelle, les espoirs suscités par ce nouvel or noir sont immenses. Créé directement par l’action de l’homme ou automatiquement par des objets « connectés », le volume de données généré par l’humanité ne cesse de croître de façon exponentielle. Une donnée mondiale qui atteint aujourd’hui la taille de Petabytes de données, stockées dans des centaines de Data Centers à travers le monde pouvant dépasser la taille de dix-sept terrains de football côte à côte. Tout comme le pétrole, ces masses de données ont besoin d’être collectées puis raffinées (par des supercalculateurs et des algorithmes) pour être finalement traitées et revendues à d’autres sociétés. Pesant plusieurs milliards de dollars, les plus grands producteurs de données (les réseaux sociaux, moteurs de recherche, applications…) se frottent les mains en revendant à d’autres entreprises les droits d’accès aux données de millions de particuliers à travers le monde pour une durée limitée. 12 Sources : IBM Trainings : Big Data and Analytics solutions + Open Data as a platform for growth Sources : ouvrage : Pierre Delort, Le Big Data, Ed. Puf, 115p.
  22. 22. – M é m o i r e 2 0 1 6 P a g e | 21 D’autres, tels que les industriels et les distributeurs, à la recherche constante de l’avantage concurrentiel, se mettent au défi de collecter un maximum de données analysables en « espionnant » leurs clients ou en posant des capteurs dans leurs environnements matériels pour améliorer leurs efficacités et optimiser leurs coûts. Afin de proposer des services toujours plus innovants, le groupe IBM propose aujourd’hui à ses clients de nouvelles méthodes pour créer de plus grandes variétés de données, et stocker en « Cloud » de plus grands volumes de données Internes. Pour étoffer son offre, IBM propose à ses partenaires de croiser leurs données Internes avec d’autres masses de données personnelles ou par exemple avec des données météorologiques, afin d’anticiper un besoin sur le marché, la vitesse de production d’un nouveau produit ou simplement une panne sur une machine de production (Explication schéma ci-dessous).
  23. 23. – M é m o i r e 2 0 1 6 P a g e | 22 Une Définition : Littéralement traduit par « grosse donnée » ou « donnée massive », le Big Data est un processus analytique mis en place dans une organisation pour explorer ses données en les croisant ou non avec des données externes. Il a pour visée de permettre à des logiciels d’analyse de rechercher la corrélation entre deux données, de sorte que des décideurs puissent prendre des décisions très difficilement détectables par une simple analyse humaine. Autrement dit et selon Pierre Delort : « le Big Data consiste à créer en exploratoire et par induction sur des masses de données à faible densité en information des modèles à capacité prédictive », Big Data et Machine Learning, 2015. Usuellement, le terme Big13 a réellement décollé dans le langage populaire en 2011 et depuis, le nombre de recherches associées au terme ne cesse de grimper14 . D’autres termes équivalant au terme Big Data entrent petit à petit dans les mœurs, nous pouvons en effet trouver dans diverses lectures les termes de « data minning » ou de « data masse ». Donnons-lui finalement le terme que nous souhaitons, le Big Data reste une évolution logique de l’implantation de l’informatique dans les entreprises, chargée de collecter, de stocker et d’analyser les données depuis déjà plusieurs décennies. De nouveaux concepts émergent autour du Big Data. Nous pouvons notamment entendre parler du « data lake » (lac de données), qui est un concept relativement nouveau. L’idée générale est de pouvoir fournir un stockage global des informations présentes dans l’entreprise. Concrètement, à la différence d’un datawarehouse15 « classique », le « data lake » a vocation d’absorber des flux de données brutes et de les rendre utilisables en les transformant pour satisfaire différents besoins d’analyses. Dans le cadre de ce mémoire, nous n’entrerons pas dans le détail de la notion de « data lake ». 13 Big = abréviation utilisée du terme Big Data. 14 Annexe 2 : p.113 : Source : google trends 15 Datawarhouse : base de données relationnelle conçu pour interroger et analyser les données.
  24. 24. – M é m o i r e 2 0 1 6 P a g e | 23 a. Les origines du Big Data : Vers une « Datafication » de notre environnement par l’évolution de l’informatique et des nouvelles technologies ! Depuis les débuts de l’informatique, l’Homme n’a cessé de manipuler la donnée pour lui donner une valeur supplémentaire en la transformant en outil de prise de décisions. C’est à la fin du XXème siècle, en suivant les lois suivantes16 : la loi de Moore, la loi de Kryder et la loi de Neilsen que les capacités de l’informatique se sont décuplées, provoquant un début d’accumulation de données sur les serveurs de multinationales américaines. C’est en an 2000 que le terme « Big Data » est employé pour la première fois dans un article présenté au congrès de l’Economotric Society. Il faudra attendre 8 années pour que le terme fasse la couverture d’une revue de recherche « Nature et Science » et que la notion de Big Data commence à réellement prendre de l’ampleur. Dès lors, le Big Data est devenu un phénomène aux multiples apparences qui fait énormément parler de lui mais dont il est difficile de comprendre les tenants et aboutissants. Le premier cas concret d’utilisation d’une solution Big Data fut utilisé par le CDC (Center of Desease Control) qui a cherché en 2009 à trouver une solution pour contrôler la pandémie galopante du Virus de la Grippe H1N1. Après avoir mis à disposition de la population, différents dispositifs d’alerte avancée : appels téléphoniques à des numéros dispensant informations et conseils, contrôle des ventes de médicament, consultation de blogs… Estimant que le temps de réaction moyen des patients pour réaliser leur contamination étant de 2 semaines, et que le temps de réalisation d’un nouveau vaccin contre la grippe nécessite 2 semaines. Il fallait donc un mois complet pour mettre en vente les premiers Vaccins. Recherchant une nouvelle solution d’analyse, le CDC a fait appel à Google pour déterminer les termes de recherche s’approchant le plus de l’historique des visites web de malades grippés. 16 loi de Moore, qui prévoit un doublement de la densité d’inscription sur puce de silicium tous les 18 mois, loi de Kryder prévoyant le doublement de la capacité de stockage sur disque magnétique tous les 13 mois, loi de Neilsen faisant doubler la capacité des réseaux publics tous les 21 mois. (le Big Data, 2015, p.4).
  25. 25. – M é m o i r e 2 0 1 6 P a g e | 24 Ayant défini une base de mots clés en relation avec le terme « Grippe » (froid, remèdes, symptômes, antibiotiques…), Google a débuté son analyse en temps réel afin d’anticiper l’évolution Géographique de la Grippe en détectant par zone l’explosion du nombre de recherche de mots clés relatifs à la suspicion d’un début de Grippe. L’analyse étant réalisée en temps réel, le temps de mise sur le marché a été divisé par deux en passant d’un mois à deux semaines. Un exemple des limites de cet algorithme a pu être observé début 2013. En effet Google a prédit sur cette période deux fois plus de cas que les médecins en rapportèrent. Cette « sur-présence » de mots clés cible sur les serveurs de Google s’explique par un effet de peur générale due à des cas de grippes mortelles durant les mois de novembre et décembre précédant.
  26. 26. – M é m o i r e 2 0 1 6 P a g e | 25 Figure représentant l’évolution du nombre de personnes grippées aux Etats-Unis face à l’évolution de l’analyse sémantique réalisée par Google entre 2004 et 2009. Les résultats parlent d’eux-mêmes, malgré certains décalages, le parallélisme des deux courbes prouve la pertinence de l’algorithme de Google. (Source : Pierre Delort, Le Big Data, Ed. Puf, p.36). Les trois causes du Big Data : 1- Une cause sociale : les Réseaux Sociaux, avec entre autre, l’arrivée de deux géants LinkedIn en 2002 et Facebook en 2004. Encourageant les échanges et la création de nouveaux contenus chaque seconde (textes, vidéo, sons, logs…). Plus largement développé page 65. 2- Une cause technologique : La démocratisation des Smartphones et des Tablettes augmentant fortement l’accessibilité aux boites mails et aux réseaux sociaux (lancée par Apple : l’IPhone et l’IPad lancés respectivement en 2007 et 2011). Des progrès initiés par des géants du web : l’un des principaux progrès en matière est venu de Google, pour traiter les données récupérées par les crawlers17 de son moteur de recherche et indexer la totalité du web, a mis au point un modèle de conception qui permet d’automatiser la mise en parallèle d’une grande classe de traitements. 17 Crawler : ou spider est un robot logiciel en charge de l’exploration des sites et contenus Internet. Les crawlers indexent et analysent les contenus explorés en partant des résultats d’un moteur (le plus souvent Google), à partir d’une liste, par soumission ou en suivant tous les liens rencontrés. Source : http://www.definitions-marketing.com
  27. 27. – M é m o i r e 2 0 1 6 P a g e | 26 3- Une cause économique : une baisse de prix exponentielle des IT18 ! Suivant les lois de Moore, Kryder et Neilsen (page précédente), le prix de ressources IT a chuté de manière exponentielle : capacité de stockage, performance des data center, bande passante disponible… (Big Data et Machine Learning, 2015, p.7) Le Big Data est donc la réponse au traitement du changement d’échelle du volume global de données à travers le monde, due à des évolutions numériques majeures. b. La frontière du Big Data ? (Source: Big Data et Machine Learning, 2015, p.7). Ce graphique présente une limite « flexible » du Big Data en fonction des systèmes de stockage utilisés et de leur capacité en Volume de Stockage. Les volumes relèvent donc du Big Data à partir du moment où les données ne peuvent plus être traitées en un temps « raisonnable » par des systèmes constitués d’un seul nœud19 . Alors, pour analyser un téraoctet20 de données à la vitesse moyenne actuelle de lecture de 100Mo/seconde, il faudrait 2 heures 45 minutes pour réaliser une analyse avec la présence d’un seul nœud. Pour posséder une analyse plus rapide, il serait nécessaire de créer un second nœud : un nœud stockage + un ou plusieurs nœuds d’analyses. Alors, nous ne pourrions donc plus parler de Big Data ! Cette notion reste donc vague, en effet, trois éléments sont à prendre en compte pour parler de Big Data : 18 Annexe 4 + Annexe 5 (p.114) 19 Nœud = en informatique, un Nœud et synonyme de sommet. C’est une unité (un ordinateur) capable d’émettre, de recevoir et de calculer en étant connecté à un réseau, pour atteindre : un serveur, un autre poste de travail, une imprimante… (1969 : 1er Nœud => 2015 : 1 Milliard de Nœuds) : Annexe 5 20 1 Téraoctet = capacité moyenne de stockage d’un disque dur en 2016
  28. 28. – M é m o i r e 2 0 1 6 P a g e | 27 Le Volume des données à traiter ? La Vitesse d’analyse de l’ordinateur ou du serveur à disposition ? Quel est le temps « raisonnable » d’analyse selon les besoins du client ? 1 minute, 10 minutes, 1 heure ? Cette notion de frontière provenant de l’ouvrage : Big Data et Machine Learning de Pirmin Lemberger reste donc mobile en fonction des besoins et des caractéristiques de chaque cas ! Tournons-nous alors vers l’ouvrage : Le Big Data de Pierre Delort. Selon cet ouvrage, seuls les ingénieurs de la société Intel quantifient les limites du sujet en définissant un volume médian généré par semaine supérieur à 300 Téraoctets de données (l’espace disc de 300 ordinateurs de bureau actuels). La limite du Big étant difficilement identifiable, les deux ouvrages s’accordent néanmoins sur le fait que le Big Data est la combinaison d’au moins deux des points suivants : Un Volume de données élevé mais peu défini, Une complexité et donc une Variété de données importantes, Une technologie permettant de traiter l’information à une Vitesse « raisonnable ». Ne trouvons alors trois termes importants dans la définition du Big, traités dans la suite de ce mémoire, les fameux 3V : Volume, Variété et Vitesse. Si le Big Data ne s’étend pas à plus d’un Nœud pour réaliser une analyse, alors la création d’un super-ordinateur (ordinateur quantique) risque de bouleverser la vitesse de calcul et donc la capacité de volume de données ingéré ! c. Évolution de la donnée : Tous les écrits présentant le Big Data font état d’un nombre croissant de données. L’une des revues à l’origine du terme titrait en 2008 « Big Data, Science in the Petabyte Era ». Pour continuer notre compréhension du Big Data, intéressons-nous alors à ces fameux « Petabytes ».
  29. 29. – M é m o i r e 2 0 1 6 P a g e | 28 Une histoire de puissance de 1000 pour se représenter ce que signifient méga, giga, ou téraoctets et plus ! Pour ce faire, faisons le parallèle entre les unités de mesure informatique face aux unités temporelles en égalent les notions d’octet et de seconde. Unités de mesures informatiques Unités temporelles 1 octet = une unité numérique nécessaire pour coder un caractère. 1 seconde 1 Kilooctet = 1 000 octets 1 Kilo Seconde = 17 minutes 1 Mégaoctet = 1 000 000 octets 1 Méga Seconde = 12 jours 1 Gigaoctet = 1 000 000 000 octets 1 Giga Seconde = 32 ans 1 Téraoctet = 1 000 000 000 000 octets 1 Téra Seconde = 33 000 ans (dernière glaciation) 1 Pétaoctet = 1 000 Téras 1 Péta Seconde = 33 millions d’années 1 Exaoctet = 1 000 000 Téras 1 Exa Seconde = 31 milliards d’années (7X âge de la terre) 1 Zettaoctet = 1 000 000 000 Téras 1 Zetta Seconde = 2300 fois l’âge de l’univers 1 yottaoctet = 1 000 000 000 000 Téras 1 yotta Seconde = 2,3 millions de fois l’âge de l’univers En terme d’ordre de grandeur biologique, le cerveau humain est composé d’une centaine de milliards de neurones (100 Giganeuronnes). Imaginez alors les possibilités d’une machine capable d’analyser en temps réel des Pétaoctets voir des Exaoctets de données pour appuyer l’analyse et la réflexion humaine ? Depuis près d’une décennie, la révolution de l’usage des moyens de communication a permis un accroissement des données de l’humanité sans précédent. À titre d’exemple, le site Planetoscope (http://www.planetoscope.com) estime à 3 millions le nombre d’e-mails envoyés dans le monde chaque seconde, soit plus de 200 milliards par jours (en comptant les SPAMS qui représentent à eux seuls 90% des flux). En 2010, le zettaoctet de données stockées dans le monde a été dépassé et selon les experts, les données stockées par l’humanité d’ici 2020 dépasseront 10 zettaoctets. Soit une multiplication par 10 du volume de données mondiales en 10 années, pour un débit de données mensuel atteignant 10 400 giga-octets en 2020.
  30. 30. – M é m o i r e 2 0 1 6 P a g e | 29 Autre l’aspect volume, un aspect structurel doit être pris en compte, les données peuvent en effet être divisées en deux grandes catégories : 20% de données structurées : ce sont des données organisées par rangées et colonnes, et qui sont traditionnellement gérées dans des bases de données. Il s’agit donc des donnés « classiques » des entreprises (stocks, comptabilités, finances, ressources humaines, études scientifiques, relations clients, statistiques…). 80% de données non structurées : ces données se multiplient de façon exponentielle, en particulier avec l’avènement des objets connectés. En plus d’être difficilement contrôlable, leur volume grandissant, leur vitesse d’acquisition et la variété de leurs formats, nécessitent de nouvelles solutions de stockage, de traitement et d’analyse. C’est avec leur essor, provoquant une grande partie de l’explosion du volume de données, que correspond l’arrivée de la notion de Big Data. d. Les 3 « V » du Big Data : Volume – Vélocité – Variété 21 : Pour mieux cerner les caractéristiques du Big des ingénieurs d’IBM ont proposé trois dimensions : le volume, la vélocité et la variété. Plus communément appelé 3V. Avec le temps, dans le but de se différencier de la concurrence et d’offrir de nouvelles perspectives, d’autres dimensions sont apparues complexifiant il est vrai l’analyse des 3V (de 3 à 6V : exposée dans cette partie). 21 (Big Data et Machine Learing, 2015, p.16 & 17)
  31. 31. – M é m o i r e 2 0 1 6 P a g e | 30 Le Big Data à l’intersection des trois V : Volume : La partie volume de la donnée, ses origines, son accroissement et ses perspectives d’évolution quantitatives ont été largement traités dans les parties précédentes et dans la partie introductive de cette partie. C’est pourquoi, ce mémoire ne rentrera pas une nouvelle fois dans ces détails. Néanmoins, la grandeur du volume de données créé par l’humanité depuis peu reste impressionnante, et traduit une véritable transformation dans nos sociétés qui risque de mener nos organisations à offrir plus de pouvoir décisionnel à la donnée durant les prochaines années. Pour une simple visualisation du volume de données dans le monde stocké d’ici 2020 sur les serveurs des plus grandes entreprises, combien de supports des années 90/2000 seraient nécessaire pour stocker les données de l’humanité ? En sachant que l’espace de stockage contenu dans un CD-ROM est de 650 Mo (méga-octet), il faudrait la quantité astronomique de 15 000 milliards de CD pour stocker les données de l’humanité, soit une tour de CD mesurant prêt de 18 000 kilomètres22 . Nous prenons alors conscience de toute la dimension de loi de Kryder qui prévoit le doublement de la capacité de stockage sur disque magnétique tous les 13 mois, et qui permettra encore de réduire de façon drastique la taille du matériel de stockage d’ici 2020. Calcul du stockage des données de l’humanité sur CD-ROM en 2020 : Zettaoctet Téraoctet Mégaoctet Total de données mondiales en 2020 10 10 000 000 000 10 000 000 000 000 000 Taille d'un CD-ROM = 650 Mo 15 384 615 384 615 22 Taille d’un CD en hauteur = 1,2 millimètre
  32. 32. – M é m o i r e 2 0 1 6 P a g e | 31 Vélocité (ou Vitesse) : au cœur du time to market, la vitesse de circulation des données est un élément clé à la vitesse d’exécution d’analyse Big Data. Tout comme le volume, la vélocité a connu une évolution similaire au sein des entreprises. Coût technologique à la baisse, évolution numérique rapide et évolution sociale, les entreprises se trouvent de plus en plus au milieu d’un flux continu de données drainées par des réseaux publiques et privés toujours plus rapides. Il est difficile de faire évoluer la vitesse d’un réseau public, mise à part le fait de faire pression sur les autorités politiques locales en place. Néanmoins, libre à chacun de consacrer une part plus importante des dépenses en terme de réseaux internes à l’entreprise pour accélérer la vitesse de stockage de données et la vitesse de traitement nécessaire pour posséder un avantage concurrentiel. Cette notion peut sembler vague, mais dans le cas d’une entreprise présente sur plusieurs continents, le stockage et l’analyse des données de 100% du groupe (world wide) sont de véritables challenges. Rien de nouveau pour certains secteurs d’activités comme celui de la finance, où la vélocité féroce des données permet de posséder un avantage concurrentiel fondamental pour les traders. Il permet de gagner des secondes, voir aujourd’hui des microsecondes pour prendre des longueurs d’avance dans la décision, source de gains financiers. Demain cette logique risque de devenir identique pour, par exemple, satisfaire le besoin d’un client en cours d’insatisfaction. En effet, dans le cadre du service client, le paramètre vélocité devient de plus en plus déterminant : répondre en temps réel aux souhaits exprimés par un client et connaissant, par exemple, en temps réel l’état des stocks, la vitesse de chargement et la vitesse de livraison possibles. Demain, la vélocité sera encore plus déterminante pour posséder un avantage et contrer l’innovation de la concurrence, les entreprises devront chercher à anticiper les besoins
  33. 33. – M é m o i r e 2 0 1 6 P a g e | 32 des clients. Dans cette perspective, la vitesse de circulation des données deviendra plus qu’importante. Variété : une des grandes caractéristiques assez « complexe » du Big Data, est de réaliser une mise en correspondance de données très diverses. Cette perspective est finalement la véritable innovation que propose l’analyse des données en Big Data, car elle est la véritable source de valeur. Néanmoins, ce troisième V est le seul pour lequel il n’existe aucune méthode universelle, source de concurrence entre fournisseurs de solutions Big Data. En effet, c’est dans le traitement et le recoupement de données que la magie du Big intervient pour réaliser des analyses prédictives. À titre d’exemple, le regroupement de données provenant d’un CRM, des données de géolocalisation, de données extraites des réseaux sociaux qui, une fois regroupées, traitées et recoupées, permettent d’enrichir de manière très précise les fiches clients et de créer de véritables bases de clients potentiels avec des informations à caractère affectif, corrélées au déclenchement d’un acte d’achat. Dans le cadre de ce mémoire, nous reviendrons ultérieurement sur les évolutions importantes qu’apportera le Big Data à la gestion du service client. e. De 3 à 6 « V » : Véracité - Valeur – Visibilité : Un quatrième « V » chez IBM = la Véracité :
  34. 34. – M é m o i r e 2 0 1 6 P a g e | 33 IBM, qui a fait du Big Data une priorité majeure, a ajouté un 4ème V aux trois précédents, la Véracité. Lors de n’importe quelle analyse, la fiabilité et la qualité des données utilisées et clairement le paramètre essentiel. Dans le cadre d’une analyse Big Data, les sources de données deviennent beaucoup plus variées que lors d’une analyse « classique » et elles sont majoritairement hors du périmètre de contrôle de l’organisation. Le concept de Véracité traduit donc le besoin stratégique de disposer de données de « qualité », un terme qui reste élastique aux exigences de chaque organisation. Pour expliquer et comprendre cette notion, un exemple atypique permet de mesurer l’intérêt de ce quatrième V : l’élection présidentielle de 2012 au Mexique. Lors de ces élections, des « tweets » provenant de robots spammeurs et de faux comptes orientés ont largement pollué l’analyse des informations politiques sur twitter afin de fausser et de brouiller les pistes du marketing politique. Dans ce cas précis, les outils IBM permettant de posséder une certaine véracité des données, auraient permis d’identifier et d’écarter des flux les données provenant des robots et des faux comptes. En plus de permettre aux décideurs de posséder une analyse Big Data fiable, la véracité des données peut rapidement être vitale pour une organisation, lui évitant de prendre une décision stratégique pouvant être catastrophique pour sa durabilité. Visibilité : la décision finale devant revenir au cerveau humain (en cadre général), il est nécessaire que les outils d’analyse proposent des services de visualisation performante pour accélérer et faciliter la compréhension humaine. Un dashboard bien réalisé valant souvent mieux qu’une longue analyse textuelle, ce besoin de visibilité est légitime. Les décideurs ont besoin de posséder des tableaux de bords mis à jour en temps réel et accessibles sur n’importe quel support.
  35. 35. – M é m o i r e 2 0 1 6 P a g e | 34 Valeur : au terme du circuit d’une analyse Big Data, cette notion met l’accent sur la mesure des résultats provenant des décisions prises grâce au Big. Véritable rétrospective sur la performance, la notion de Valeur propose des outils de mesure afin de définir la pertinence d’une stratégie Big Data. Véritable outil d’adhésion, la communication de résultats positifs suite au lancement de ce type de stratégie est essentielle à sa réussite. f. Mise en place et champs d’applications : Comment « chercher une épingle dans une meule de foin multidimensionnelles, sans savoir à quoi ressemble l’épingle ni si la meule de foin en contient une »23 ? En plus d’un aspect hardware et software, il est nécessaire de prendre en compte l’aspect humain et apportant de nouvelles pratiques managériales à même de favoriser une logique d’exploration des données et petit à petit conduire les services vers une gouvernance de la donnée. La tâche n’est pas simple, étant nouveau pour le monde de l’entreprise de faire une confiance, presque aveugle, aux logiciels de Machine Learning (développé ultérieurement). Il est nécessaire dans un premier temps d’adopter un plan de formation adapté à chaque service, puis dans un deuxième temps, après avoir tiré les premières conclusions de la mise en place de la solution, il sera important de communiquer les points positifs de l’implémentation de la solution Big Data. À titre d’exemple, ce mémoire va présenter ci-dessous un cas concret en entreprise dans le cadre d’un service marketing : Lors d’une analyse business traditionnelle : le marqueteur réalise un ensemble de recherche (phase documentaire, phase qualitative) afin d’émettre une ou plusieurs hypothèses. Par la suite, le marqueteur réalise une phase quantitative pour compléter ses recherches et vérifier le bienfondé de ses hypothèses. 23 Source : M. Weinstein, « Analysing Big Data with Dynamic Quantum Cluster », SLAC National Accelerator Laboratory, 2013.
  36. 36. – M é m o i r e 2 0 1 6 P a g e | 35 Dans le cadre d’une analyse Big Data : le processus est inversé, ce n’est plus le marqueteur qui va chercher les hypothèses mais l’analyse « big data » en elle-même. L’analyse de l’ensemble des données de l’entreprise, éventuellement élargie par la présence de données externes (réseaux sociaux, météorologie…) apporte directement les solutions en émettant une liste d’hypothèse. Alors, les processus complexes de recherche marketing évoluent, les marqueteurs peuvent directement se concentrer sur l’essentiel : la mise en place d’un plan d’action. Source: training IBM Big Data - Smarter Planet Powered by Bid Data, Exemple : poursuite de l’analyse : Schéma complémentaire en annexe 424 : Source: training IBM Big Data - Smarter Planet Powered by Bid Data, Analyse business traditionnelle Je suppose que les clients qui possèdent une carte bleue possèdent un panier moyen plus important ? Je vérifiais ma supposition en analysant mes données (Panier Moyen / type de paiement), J’apportais une conclusion (non = action inutile et couteuse / oui = plan d’action). Oui, j’imagine un plan d’action ! 24 Annexe 5 : p.115
  37. 37. – M é m o i r e 2 0 1 6 P a g e | 36 Analyse Big Data Analyse en temps réel des données (mon logiciel recherche la corrélation entre les données) Mon logiciel détecte que les clients payant en carte bleue possède un panier moyen plus important ! Mon logiciel élargie sa recherche et cherche d’autres corrélations (ex : en plus de définir que les clients payants en carte bleue possèdent un Panier Moyen supplémentaire à la moyenne, le logiciel réduit la cible en détectant par exemple deux autres caractéristiques : sexe masculin + célibataire), Mon logiciel me permet une cible répondant à une question qu’un marqueteur aurait eu peu de chance de se poser et dont le temps d’analyse aurait pris plusieurs semaines. En plus de définir ma cible certains logiciels peuvent pousser l’analyse en proposant un plan d’actions commerciales. RESULTAT = GAIN DE TEMPS + DEFINITION DE LA CIBLE CLE EN TEMPS REEL Un champ immense d’applications : Autre l’aspect marketing, ce mémoire va établir une liste non exhaustives de champs d’applications en entreprise afin de trouver de nouvelles sources de motivations à communiquer auprès des services, afin de convaincre les plus sceptiques face à ce changement : Analyser un plus grand nombre de données : o Rapprochement des données de l’entreprise pour une meilleure analyse : produits, clients, déploiements, stocks, ventes, fournisseurs… : management du risque, pilotage de l’activité…, o Amélioration de la pertinence de l’analyse interne de l’entreprise par le croisement des données internes couplées à des données externes : recherche de modèles prévisionnels.
  38. 38. – M é m o i r e 2 0 1 6 P a g e | 37 Traiter une plus grande variété de données : o Décoder et analyser les humeurs sur les réseaux sociaux ou dans la blogosphère pour identifier l’insatisfaction d’un client ou d’identifier de potentiels clients, o Réaliser le suivi des phénomènes (nouveaux besoins, nouvelles tendances de marché) afin d’adapter l’offre produit ou service, o Ouvrir les champs d’analyses au multimédia : aux vidéos, à l’audio et aux photos afin d’améliorer la gestion du service client par la reconnaissance visuelle ou par exemple de mieux contrôler et analyser les flux humains en grande distribution. o Détection d’actions malveillantes : fraudes, repérage de clients indélicats, o Amélioration de la pertinence de l’analyse externe de l’entreprise grâce à l’acquisition de données. Analyser des données en temps réel : o Surveillance d’un grand nombre de données (cloud, hébergement interne), o Suivi en temps réel et à forte réactivité des clients, o Pilotage avancé de systèmes complexes : recherche en astronomie, en physique, dans le domaine médical, dans l’armement…, o Une optimisation et une meilleure surveillance des processus, o Un tracking par identifiant (par exemple : insertion de puce RFID dans les produits de grande distribution). Améliorer la recherche, le développement et l’analyse marketing : o Pilotage avancé de système complexe : recherche en astronomie, en physique, dans le domaine médical, dans l’armement…, o Approcher la notion de désir ou de sentiment déclencheur d’action (stimuli), o Cerner l’entourage social d’un client, ses influenceurs, o Expérimenter l’impact d’un nouveau produit, o Anticiper l’efficacité d’une stratégie, o Un vecteur d’innovation et lien avec le marché, o Identifier de nouveaux indicateurs d’influence. o … L’ensemble de ces paramètres, afin d’adapter de façon optimale la stratégie globale de l’entreprise à son environnement et réduire ses risques d’échecs.
  39. 39. – M é m o i r e 2 0 1 6 P a g e | 38 g. Le Big Data dans les organisations : Le Big Data ouvre la porte à des changements profonds dans l’organisation des entreprises en modifiant fortement certains process, impactant la structure hiérarchique des organisations. La place nouvelle de la DSI25 dans l’entreprise : Pour exaucer sa volonté de maîtriser ces données, le monde de l’entreprise connait une évolution structurelle importante. De plus en plus d’entreprises cherchent à exploiter les données dans de nombreux domaines : personnalisation de leur relation client, marketing ciblé, traçabilité des parcours et retours clients, pilotage et valorisation de leur image sur les réseaux, optimisation des processus logistiques… Le potentiel de ces données est quasi illimité, à une seule condition : les maîtriser. Les outils traditionnels (Excel, Access, outils BI26 …) ne sont plus suffisants pour traiter un certain volume de données et pour rechercher la corrélation entre les données. Pour guider cette évolution, les responsables SI qui ont compris ce bouleversement et ces nouveaux besoins ont réagi en prenant une place plus importante dans l’organisation et en organisant l’arrivée de data scientist, la création de data lab et réorganisant l’infrastructure informatique du groupe pour réorganiser le circuit de la donnée. Ainsi, par la restructuration infrastructurelle et analytique de la donnée, l’entreprise peut prétendre à de nouvelles ambitions et répondre à de nouveaux besoins. Vers la fin du pressentiment dans la prise de décision, à titre d’exemple : sur un plan marketing, ces nouvelles méthodes permettent de stocker indifféremment l’ensemble des données : les réseaux des boutiques, les flux sur le site web, les dossiers clients, les analyses financières… Cela permet d’offrir aux membres du service marketing, une nouvelle dimension d’analyse capable de trouver une récurrence et d’en déduire une hypothèse. L’analyse clé n’est plus déterminée par l’utilisateur mais par le volume de données lui-même. Pour revenir sur la question de la place que doit avoir la DSI pour mettre en place une structure Big Data et se diriger vers une « gouvernance data », il est important de souligner la place centrale que doit prendre le service DSI pour intégrer ce type de solution. 25 DSI : Direction des Systèmes d’Informations 26 Software BI = logiciel de Business Intelligence (power BI, IBM Cognos…)
  40. 40. – M é m o i r e 2 0 1 6 P a g e | 39 Ainsi, la DSI a un rôle clé dans la définition des axes de transformation et de développement permettant à l’entreprise de jouir de la puissance de Big Data, mais elle ne peut mener cette profonde transformation sans un appui strict du top management et une agilité des autres services à l’acceptation de la gouvernance par la donnée, en particulier du service Marketing27 . Dans le cadre de la mise en place d’une stratégie Big Data au sein d’une organisation, il semble logique de placer la donnée au centre de l’organisation et donc son gestionnaire : la direction des systèmes d’information. Véritable clé de voute de l’organisation et crédibilisé par la direction, la DSI a ainsi l’espace et la possibilité de mettre en place une véritable stratégie de gouvernance par la donnée. En plus d’un positionnement central dans l’organisation, la DSI doit également connaitre un certain nombre de transformation organisationnelle en interne, en créant une nouvelle cellule de travail : le Data lab, composé des célèbres et très recherchées data scientists accompagnées dans leurs analyses par des data analysts, le tout managé par un chief data officer. - Chief data officer : son rôle est d’identifier des données clés pour l’entreprise, de définir la stratégie du service et d’animer et de coordonner des différents métiers, - Data scientist : son but est de rechercher les axes générateurs de valeur en croisant les données internes et externes de l’entreprise, - Data analyst : sa mission est d’identifier les axes de performance basés sur les données internes de l’entreprise. Pour compléter cette équipe, d’autres compétences métiers peuvent être insérées au sein du service : des architectes logiciels (concevoir des systèmes prédictifs), des développeurs (chargés 27 Annexe 7 : p.115
  41. 41. – M é m o i r e 2 0 1 6 P a g e | 40 de réaliser les systèmes conçus par les architectes et des designers web (en charge des représentations graphiques dynamiques des résultats d’analyse). Véritable clé pour l’innovation, pour bien fonctionner un data lab doit disposer d’une large autonomie et doit être affranchi de certaines contraintes susceptibles de freiner son installation et sa durabilité dans l’entreprise. Au sein d’une entreprise quels services peuvent s’intéresser au Big Data ? Clairement tous ! Du contrôle de gestion au service après-vente en passant par la production, 100% de l’entreprise est impactée par la mise en place d’une stratégie Big Data. Ce mémoire étant réalisé dans le cadre d’études de commerce, cette partie traitera prioritairement l’analyse du client en analysant l’apport du Big Data au service client. Dans un second temps, ce mémoire présentera une analyse rapide des avantages du Big par service de l’entreprise. Quels types de secteurs peuvent s’intéresser au Big Data ? Du point de vue d’IBM, le groupe souhaite cibler ses futurs clients dans 18 secteurs différents : La méthode d’implémentation d’une solution Big Data reposant sur les 3V : Volume, Vitesse, Variété, (+ rappel : Véracité chez IBM) reste identique quel que soit le secteur d’activité du client intéressé par ce type de solution. Néanmoins, les résultats obtenus peuvent être très différents d’un secteur à un autre. Ce mémoire, présente ci-dessous une liste non exhaustive des possibilités du Big sur certains secteurs d’activité :
  42. 42. – M é m o i r e 2 0 1 6 P a g e | 41 Collecte des données Analyse Exemple de valeur par secteur Santé : - Prévenir une maladie, - Anticiper une pandémie, - Aider les chercheurs à être mieux informés et améliorer l’efficience de leurs résultats. Industrie : - Anticiper une panne sur un moteur de machine de production, - Anticiper la production de stock. Automobile : - Alerter les secours en cas d’accident en croisant les données GPS et les données des puces des airbags des véhicules. Banque : - Accorder ou non des prêts à des particuliers par l’analyse de leurs données personnelles. - Meilleure détection de la fraude. Assurance : - Personnalisation de l’offre : évolution du prix des assurances en fonction de l’activité ou l’état physique des clients. Education : - Adaptation des sujets d’apprentissage en fonctions du niveau et des axes de progression de l’élève ou du salarié. Distribution : - Mise en place de stratégies multicanaux par une vue de 360° du client, - Adaptation de la communication et des promotions produits en fonction des historiques d’achat et de la localisation GPS du client. Recherche : - Accélération des processus de recherche, - Augmentation de la capacité d’innovation. Voyage : - Trouver des recommandations de voyage personnalisées en croisant les données utilisateurs et les informations locales.
  43. 43. – M é m o i r e 2 0 1 6 P a g e | 42 Comment mieux comprendre ses clients grâce au Big Data ? (souce : formation interne IBM) La connaissance du client est un challenge depuis les premiers échanges commerciaux. Il est en effet primordial d’adapter l’offre produit ou service de son entreprise aux besoins et aux attentes des clients. Des simples retours clients « ancestraux » mais efficaces, aux analyses marketing, de nouvelles méthodes amenées par le Big Data permettent aujourd’hui de réaliser simplement des études clients approfondies afin d’anticiper : les besoins, les motivations profondes et de proposer le bon produit (ou service), au bon endroit et bon moment ! Pour cela, nous pouvons comparer l’analyse d’un individu à un Puzzle, afin de créer un tableau de bord expliquant précisément les faits et gestes du consommateur. D’où proviennent les informations pour constituer une analyse 360° d’un client actuel ou d’un client potentiel :
  44. 44. – M é m o i r e 2 0 1 6 P a g e | 43 Grâce à cette analyse, il est certes aisé de cibler un potentiel client, de lui proposer le produit recherché à un instant T. Ainsi, grâce à une analyse Big Data d’un client, la démarche d’un service commercial est réinventée pour devenir plus simple, et d’une logique calculée directement par les algorithmes. Imaginons par exemple un cas commercial en Téléphonie. Nous pouvons imaginer qu’un client ayant opté pour un forfait « 2ans » il y a 22 mois, a de grandes chances de s’intéresser aux offres de la concurrence dans les semaines à venir. Alors, dans cette situation, que faire pour réduire les risques de perte client ? Exemple : Proposer un nouveau contrat plus court ? Moins cher ? Du nouveau matériel ? Aujourd’hui les solutions Big Data sont capables d’analyser de grands volumes de données clients provenant de sources très variées (variété) afin d’en proposer en temps réel la solution client adéquate maximisant les chances de prolongation du contrat du client. En effet, pourquoi gaspiller de l’argent sur une réduction de forfait si le client n’est fondamentalement pas motivé par une notion de prix ? Pour ce faire, les logiciels d’analyse vont corréler l’ensemble des actions commerciales de l’entreprise avec les données de l’abonné présentes dans son Puzzle client, en cherchant à détecter pour chaque action : L’impact sur la motivation au réabonnement ? L’impact sur la vie quotidienne du client ? La probité de réponse positive à cette action ? ACTION COMMERCIALE Impact sur la motivation au réabonnement Impact sur la vie quotidienne du client Probabilité de réponse positive à cette action Réduire la prochaine facture mensuelle de 20€ ? 30% 20% 70% Expliquer au client que nous sommes en train d’améliorer nos services ? 10% 5% 10% Offrir un avantage client de 6 mois (autre que financier, exemple Deezer) ? 50% 15% 80% Offrir un nouveau téléphone ? 60% 40% 95%
  45. 45. – M é m o i r e 2 0 1 6 P a g e | 44 Fini l’improvisation commerciale et le “feeling” du super vendeur ! Grâce à ce résultat analytique, en entrant le numéro du client sur le CRM, n’importe quel vendeur en magasin est capable de proposer la solution commerciale la plus favorable au client afin de maximiser ses chances de signature. Partons du constat de la virtualisation des forces de vente et imaginons à court terme ce système jumelé à la visioconférence. Voici l’écran que pourra voir un commerciale en BtoB (ou en BtoC) : Ainsi, en plus de pouvoir visionner les réactions de son interlocuteur, le commercial peut interroger en temps réel le logiciel analytique afin de l’aider à trouver la solution la plus pertinente pour le client, et donc quel produit ou service proposer au client afin de le satisfaire. En clair, au 20ième siècle, nous proposions des affiches publicitaires à la « masse » de population, nous sommes aujourd’hui capables de proposer le produit capable d’améliorer le quotidien du client et de lui proposer les bons arguments pour stimuler son acte d’achat. Demain, les nouvelles solutions « machines systèmes » étant déjà capables de reconnaitre des visages et de comprendre les émotions des interlocuteurs. Nous pouvons aisément imaginer l’avenir des services commerciaux, pilotés par des services marketings semi-automatisés qui permettront à des forces de ventes « androïdes » de réaliser les conclusions commerciales en BtoC, comme c’est le cas aujourd’hui chez Nescafé, avec l’insertion sur leurs points de vente des androïdes Pepper : développés en partie par IBM. C’est en toute logique que cette poussée technologique impactera rapidement le monde du BtoB. Alors les entreprises doivent déjà se poser des questions presque
  46. 46. – M é m o i r e 2 0 1 6 P a g e | 45 « surréalistes » : comment mettre en place une force de vente androïde sans perdre le contact humain avec le client ? Le contact humain est-il finalement nécessaire dans le cadre d’une démarche commerciale ? L’apport de valeur du Big Data en sein des autres services de l’entreprise : DATA Exemple de valeur par service Marketing : - Définition de nouvelles offres et de nouveaux services, - Prédiction des appétences en termes d’achat. RH : - Analyse prédictive du Turnover et des arrêts maladies en identifiant les points de « rupture » des salariés, - Identification des hauts potentiels, - Détection des talents en école. Ventes : - Profilage des comportements clients, - Détection des potentiels de ventes supplémentaires, - Proposition du produit clé à l’instant T. Finance / Contrôle de gestion : - Aide à l’analyse de la performance des activités DSI : - Prédiction des incidents IT. Le champ des possibles du Big est beaucoup plus large et ne s’arrête pas à la présentation ci- dessus. Pour compléter ce tableau, une analyse plus approfondie est présentée en fin de cette partie : c. Analyse de la donnée, c1. L’évolution de l’analyse. Le Big Data correspond bien à une réalité de l’usage de la donnée et de ce qui est désormais attendu d’un système d’information. Quelque peu surréaliste et dépendant des technologies qui permettent de « fouiller » dans des données de grands volumes, ces possibilités sont immenses : Analyser des volumes de données extrêmes, Volume Accéder à un éventail de données jamais atteint par le passé, Variété Capter la donnée en mouvement (« rapidement » et en temps réel), Vitesse
  47. 47. – M é m o i r e 2 0 1 6 P a g e | 46 Corréler des volumes extrêmes : découvrir, expérimenter et analyser des données cohérentes, Véracité De nombreuses possibilités et évolutions qu’apportera le Big Data n’ont certainement, pour le moment toujours pas été anticipées du fait d’une course à l’innovation trop peu réfléchie ou simplement d’un manque de capacité du cerveau humain. Alors, le machine learning apportera au grand jour bien plus de valeurs provenant du Big Data que nous pouvons l’imaginer aujourd’hui !
  48. 48. – M é m o i r e 2 0 1 6 P a g e | 47 II. Appréhender l’univers du Cognitive Business : Pour comprendre le choix de cette stratégie menée par l’équipe de direction du groupe IBM, il est dans un premier temps important de comprendre la mutation en cours des entreprises du monde numérique et la digitalisation en cours des entreprises de tout secteur. Ayant traité en partie introductive l’évolution de la concurrence du groupe (p.14), nous allons chercher à comprendre pourquoi et comment la digitalisation28 devient un enjeu majeur d’entreprise de tout secteur. Quand la concurrence stimule l’innovation ! Secteur industriel, grande distribution, banque ou secteur agricole : un grand nombre d’entreprises a d’ores et déjà débuté une stratégie de digitalisation pour conquérir ou sauvegarder des parts de marché. Pour entamer cette évolution, les « règles d’or » pour lancer une telle mutation sont : 1. Anticiper la présence future des outils digitaux au moment du diagnostic, 2. Définir une stratégie autour de la création de valeur pour les différents acteurs, 3. Organiser : mobiliser les bonnes personnes au bon moment, 4. Tester, approuver, communiquer et lancer le changement, 5. Pérenniser la stratégie digitale en prouvant son succès par les chiffres. La digitalisation en lien direct avec le Big Data ! Au cœur de la mutation digitale, le « big » est considéré comme un des 5 piliers de la digitalisation avec : le cloud computing, les réseaux sociaux, les technologies mobiles et les objets connectés. Surfant sur cette vague de digitalisation, la stratégie du Cognitive Business a pour objectif d’utiliser l’accroissement exponentiel du nombre de données et la puissance de l’intelligence cognitive de l’outil IBM Watson afin d’apporter une analyse prédictive et ainsi orienter les décisions de chacun. 28 Digitalisation : « intégration de technologies digitales grâce à la digitalisation de tous les objets pouvant être digitalisés (montre, voiture, machine de production, documents …) » http://www.businessdictionary.com
  49. 49. – M é m o i r e 2 0 1 6 P a g e | 48 Pour comprendre, la place du Big Data dans la nouvelle stratégie du groupe, ce mémoire présente un schéma représentant quatre parties du CAMSS d’IBM (le Cloud, la Mobilité, l’Analytique et le Social)29 croisées avec les cinq piliers de la digitalisation, auxquels ont été ajoutés d’autres éléments pour compléter ce travail d’analyse : Outre l’aspect analytique, il est extrêmement important de comprendre l’importance des données qui fournissent aux logiciels suffisamment de matière pour produire des analyses prédictives. Ainsi, nous pouvons répertorier quatre grands piliers producteurs de données : Les organisations (entreprise, ONG, association, gouvernement) : mails, contrats, volume de vente, données financières, données RH… Les réseaux sociaux : textes, photo, vidéo, sons, logs… Les objets connectés (Internet of Things) : domotique, objets connectés à l’Homme, machines de production… 29 Manquant à ce schéma, la partie Sécurité des données (non traitée dans le détail dans ce mémoire) mais qui pourrait être schématisée ci-dessus à chaque sortie et entrée de flux de données.
  50. 50. – M é m o i r e 2 0 1 6 P a g e | 49 L’Open Data : horaires de transports en commun, statistiques sur les régions et les gouvernements, réseau des entreprises, données sur les magasins… La partie stockage est dominée par les différentes variantes du Cloud pour apporter les meilleures solutions de stockage de données (et d’applications). La partie analytique du schéma est représentée par l’outil IBM Watson : qui permet d’analyser en temps réel des quantités astronomiques de données provenant de serveurs Cloud, d’apprendre de ces données et d’en tirer des conclusions prédictives. Un véritable tournant dans le monde des Systèmes d’Information : en reprenant la définition des SI : « ensemble organisé de ressources (software, hardware, humain et processus) permettant de collecter, regrouper, classifier, traiter et diffuser les données ». En reprenant cette définition et suivant une certaine logique, la partie Big Data de ce mémoire sera guidée le parcours naturel de la donnée : La création, Le stockage, L’analyse (puis la visualisation). Cette première partie du mémoire traitera dans un premier temps d’une définition en profondeur du Big Data puis de ces différents composants, dans un second temps du Cognitive Business et de l’outil Watson. Puis dans un troisième temps, de l’implémentation de ce type de prestation chez un partenaire.
  51. 51. – M é m o i r e 2 0 1 6 P a g e | 50 1. Les principaux composants du Big Data : a) Production de la donnée : a1. L’internet des Objets (IoT) : Les débuts de l’internet des objets (internet of things = IoT) remontent à la fin des années 1980. Il est constitué de l’ensemble des objets de la vie de tous les jours, dans notre vie privée ou en entreprise, que nous connectons afin de connaître leur localisation ou leur niveau de consommation et d’usure par l’installation de puces GPS et de capteurs à l’intérieur des objets. Une fois collectées, les données de ces objets permettent de réaliser des analyses prédictives afin d’anticiper une action sur l’objet en question ou sur un autre objet, potentiellement impacté par l’objet connecté. Dans ce cosmos d’objets connectés relativement nouveau, nous pouvons distinguer deux grandes sortes d’IoT : Les objets communiquant d’objet à personne : à titre d’exemple, l’accès à distance à des objets (contrôle d’un radiateur de son Smartphone). Ou l’inverse, les objets émettant automatiquement et en continu (le Smartphone, et sa localisation GPS permettant de localiser en temps réel la position de cet objet). Les objets communiquant automatiquement d’objet à objet sans l’intermédiaire de l’homme : ces objets contrôlent d’autres objets (lorsqu’une machine de production envoie un signal à une autre machine pour poursuivre l’exécution d’une tache). Selon le célèbre Stanford Research Institute, l’internet des Objets est une innovation technologique destinée à devenir dominante d’ici 2025 par la connexion d’une majorité des objets qui nous entourent. Selon ce même institut, nous pouvons trouver quatre grandes étapes dans cette évolution :
  52. 52. – M é m o i r e 2 0 1 6 P a g e | 51 2005 Puce RFID30 1ère génération : utilisée en logistique, en grande distribution (contrôle de stock et prévention des vols), ou sur nos cartes bancaires. 2010 - 2015 Puce RFID 2ond génération : extension de l’usage aux domaines de la santé, de la surveillance, de l’industrie… grâce à une baisse exponentielle des coûts. 2020 IoT 1 : géolocalisation permanente (intérieur et extérieur) = suivi permanent des personnes et des objets. 2025 IoT 2 : Téléopération et téléprésence = surveillance et maîtrise des objets à distance pour piloter un avion ou opérer un patient… Nous pouvons néanmoins convenir que ce rythme d’évolution technologique est un peu ambitieux. En effet, l’étape numéro 1 avec l’implémentation des puces RFID en grande distribution n’est pas encore généralisée dans le monde. À noter, un équipement RFID de la grande distribution américaine depuis les années « 2010 » (Wal-Mart en 2009), et un équipement des firmes Françaises en cours d’implémentation (Décathlon en 2015). Alors, en restant dans cette logique d’évolution, nous pouvons imaginer un développement généralisé des puces RFID de seconde génération d’ici 2020 et un développement global de l’internet de objets d’ici 2030. 30 RFID : Radio-frequency identification = système de radio identification installé sur un objet. Composant électronique de dimension très réduite qui répond (à un mètre de distance) à une impulsion d’ondes radio par une autre impulsion radio délivrant le numéro identifiant de la puce.
  53. 53. – M é m o i r e 2 0 1 6 P a g e | 52 Outrepassé la technologie RFID, qui ne permet que de délivrer un simple « code barre » par l’impulsion d’une onde radio d’un objet tiers à environ un mètre de distance. Les technologies IoT permettent un champ d’application beaucoup plus varié et surtout un champ de transmission d’information beaucoup plus large : Géolocalisation par puce GPS, Capteurs de mesures : - variation de chaleur, - variation de pression, - variation de salinité, - variation d’énergie, - … Ainsi, les entreprises peuvent collecter des informations relatives à leur business en temps réel (éphéméride météo, éphéméride géo-spatiale dans une rue, croisement des données comportementales des équipements …), pour anticiper une action (anticiper un service, anticiper le lancement ou l’arrêt de la production ou anticiper une panne moteur sur une machine et changement d’une pièce31 ). De plus, grâce à la possibilité d’implantation de puces et de capteurs sur une grande partie des objets et du vivant composant notre univers, la connexion de notre monde devient possible. La connexion de notre environnement ne s’arrête en effet plus aux objets mais tend petit à petit vers la connexion humaine. D’ores et déjà, un grand nombre d’entre nous possède des montres connectées et des smartphones capables de contrôler notre rythme cardiaque, la fréquence de nos pas ou notre taux de masse graisseuse. Demain, des capteurs présents à l’intérieur de nos vêtements et à l’intérieur de notre corps permettront de capter nos faits et gestes et les différentes variations de données provenant de notre corps (ingurgitation de gélule-capteur et/ou implantation de puce) dans notre organisme. Selon Ray Kerzweil, directeur de l'ingénierie chez Google, les humains deviendront des êtres hybrides dans le courant des années 2030 par 31 Source : http://www.industrie-techno.com/meme-les-ascenseurs-et-les-escalators-deviennent-intelligents-avec-watson.42747
  54. 54. – M é m o i r e 2 0 1 6 P a g e | 53 l’implantation de nanorobots dans le cerveau humain, ce qui permettra de démultiplier ses capacités en le connectant aux objets qui l’entourent32 ). Ces perspectives offrent et offriront aux analystes et aux machines learning un terrain de jeu très fertile qui permettra de contrôler une grande partie de notre environnement. Pour rester sur une approche de court et de moyen terme, tout un chacun devrait prochainement être équipé de plus en plus d’objets connectés permettant de mesurer et de maîtriser les aspects de notre vie courante : course à pieds, diabète, enfants, maison … L’usage des objets connectés révolutionne d’ores et déjà notre quotidien entre autre avec l’apparition des smartphones depuis une dizaine d’année. Dans le but de comprendre et d’anticiper les évolutions qu’apporteront les objets connectés d’ici les prochaines années, ce mémoire va déterminer une liste non exhaustive de mutations : Secteur Technologie Evolution Donnée Apport Grande distribution RFID-1 Etiquetage RFID des produits Transmission radio des codes-barres Maîtrise des stocks (inventaires et vols) Industrie RFID-1 Etiquetage des matières premières et des produits finis Transmission radio des codes-barres Maitrise des stocks (gestion de la production) IoT-1 Insertion de puces et capteurs à l’intérieur des machines de production Transmission d’information d’une machine A vers une machine B. Continuité automatique de la production et prévision des pannes Aéronautique IoT-1 Insertion de puces et capteurs dans les composants de l’avion Transmission des évolutions des composants de l’avion au constructeur Prévision des pannes et réduction des risques d’accidents IoT-2 Téléopération : pilotage de l’avion à distance. Transmission des données d’opération d’un objet A (ordinateur) vers un objet B (physique) Réduction des coûts et réduction des risques suicidaires des pilotes Automobile IoT-1 Voiture connectée : Insertion de puces et Transmission des données GPS d’un véhicule lors du Meilleure maîtrise de la sécurité des clients 32 Souce : http://www.clubic.com/mag/actualite-769392-google-2030.html
  55. 55. – M é m o i r e 2 0 1 6 P a g e | 54 capteurs déclanchement d’un airbag IoT-2 Voiture autonome : pilotage automatique Analyse des données environnementale du véhicule Réduction des erreurs humaines. Domotique RFID-2 Badge RFID à la porte d’entrée Transmission radio du code clé Dématérialisation de la clé physique IoT-1 Insertion de puces et capteurs dans le lieu de vie, pour un pilotage à distance et/ou un pilotage automatique de la résidence (chauffage, rideaux, lumière …) Transmission d’information d’un objet A vers un objet B. Contrôle et optimisation de la consommation du ménage Textile IoT-1 Insertion de capteurs dans les vêtements Transmission des données corporelles pour analyse Prévision des risques de santé (incident cardiaque, stress…) Banque RFID-2 Insertion de puces RFID dans les cartes bancaires Transmission radio du code de carte bleue Rapidité de paiement Santé RFID-2 Bracelets RFID aux poignets des patients Transmission radio des données du patient Traçabilité et suivi du patient IoT-1 Insertion de puces et capteurs dans le corps humain Transmission des données corporelles pour analyse Prévision des risques de santé IoT-2 Télé-opération : réalisation d’une opération chirurgicale à distance Transmission des données d’opération d’un objet A (ordinateur) vers un objet B (physique) Amélioration des possibilités chirurgicales des hôpitaux + Mobilité de la machine dans des zones à risques Défense IoT-1 Insertion de puces et capteurs dans les armes Transmission des données GPS et de mesures Géolocalisation des combattants, et des ennemies (en cas de vol des armes) + prévision de
  56. 56. – M é m o i r e 2 0 1 6 P a g e | 55 l’enraiement de l’armement IoT-2 Télé-opération : réalisation d’une attaque militaire à distance Transmission des données d’opération d’un objet A (ordinateur) vers un objet B (physique) Anéantissement du risque de perte humaine Smart city IoT-1 Insertion de puces et capteurs dans les véhicules et les citoyens et insertion de caméras de surveillances Transmission des données GPS et reconnaissance faciale Amélioration des flux de circulation + Sécurisation policière de lieux jugés dangereux par les logiciels L’internet des objets représente une source de données importante dans la course au Big Data. Il est désormais important pour toute entreprise, de n’importe quel secteur de prendre en compte l’importance de la connexion de son environnement pour augmenter son volume de données analysables, maximiser les chances de réussite d’une stratégie Big Data et éventuellement commercialiser les données collectées. De 0,5 à 50 milliards33 , ceci est le nombre d’objets connectés dans le monde respectivement en 2000 et en 2020. Aujourd’hui en 2016, environ 23 Milliards d’objets transmettent des données à travers le monde. Ce chiffre devrait plus que doubler en 4 ans, les perspectives de marché et les enjeux autour des objets connectés sont donc immenses. La course à l’IoT devient donc stratégique pour toute entreprise afin de garder une connaissance de son environnement acceptable par rapport à la connaissance environnementale que pourra avoir la concurrence. Vision IBM : vers une décentralisation du Cloud pour l’internet des objets ! Selon Andy Thurai (directeur de programme IoT chez IBM), la prochaine grande évolution des systèmes d’information passera par l’internet des objets. En effet, pour lui l’aspect cognitif doit être le plus tôt possible pour générer de la valeur. En anticipant le futur volume de données 33 Annexe 8 : p.116
  57. 57. – M é m o i r e 2 0 1 6 P a g e | 56 mondiales en 2020, en grande partie due à l’augmentation du nombre d’utilisateur des réseaux sociaux et à l’explosion du nombre d’objets connectés. Les masses de données à transférer risquent de devenir trop importantes pour les infrastructures actuelles. Alors il sera nécessaire de court-circuiter et d’analyser la donnée avant qu’elle ne pénètre les serveurs de stockage de l’entreprise. Alors l’analyse devra être effectuée en local au niveau de l’objet pour permettre aux serveurs de respirer. Selon le directeur de programme IoT, dans l’avenir, un super calculateur comme Watson agira comme le noyau central et prendra les décisions majeures, et les objets connectés seront capables de fonctionner intelligemment en autonomie, même en cas de perte de synchronisation. Respectant les lois de Moore, de Kryder et de Neilsen, le marché des nouvelles technologies va continuer son évolution et son développement par la baisse des coûts et par la miniaturisation des composants informatiques. Ainsi, l’insertion de puces et de microprocesseurs à l’intérieur des objets connectés sera un enjeu important pour IBM dans le but d’assoir son positionnement dans le cognitif business.
  58. 58. – M é m o i r e 2 0 1 6 P a g e | 57 a2. Open Data34 : Provenance de la donnée ouverte ? Littéralement « données ouvertes » en Français, ce concept, prônant la libération de la donnée individuelle est encore relativement peu connu dans le monde l’entreprise. Son origine daterait de 1995 et proviendrait des Etats-Unis, ou son utilisation est aujourd’hui à un stade avancé. Évidemment, les données clés à la protection gouvernementale ne sont pas en accès libre et ne seront sûrement jamais ouvertes au grand public. Néanmoins, la notion d’Open Data englobe la collecte de données « citoyennes » permettant le développement économique et social d’une collectivité. Alors, une collectivité ou un gouvernement à tout intérêt de favoriser la naissance de ce type d’initiative pour multiplier les sources de données analysables et améliorer l’attractivité de leur zone économique. Il est donc clair que les données proviennent de certaines applications privées utilisées par les citoyens et par des objets mis en place par les municipalités pour collecter de la donnée (exemple : les caméras de surveillance). Une stratégie publique/privée/citoyenne en gagnant/gagnant ? 34 Source : Formation IBM (Open Data as a platform for grow - Steven Adler /responsible for global IBM Information Strategy)

×