SlideShare une entreprise Scribd logo
1  sur  54
Télécharger pour lire hors ligne
MS Marketing Management 2013-2013
1
Comment la France a-t-elle raté l’enjeu du
« Big Data » ?
15 décembre 2013
Auteurs :
Frédéric Decazy
Emilie Freulon
Younes Khedji
Anne Letellier
Emmanuel Revol
MS Marketing Management 2013-2013
2
EXECUTIVE SUMMARY
Le « Big Data » est un sujet tendance dont tout le monde parle. On ne compte plus les congrès,
séminaires, et autres réunions professionnelles qui lui ont été consacrés en 2013. Cette expression
désigne l’avalanche de données produites par les entreprises et les particuliers dans leur vie digitale :
du e-commerce aux multiples interactions sur les réseaux sociaux jusqu’aux objets connectés qui
capturent des données et les transmettent sur le web. Selon IBM, 90% des données stockées dans le
monde ont été produites au cours des seules deux dernières années.
Longtemps demeuré un sujet réservé aux professionnels avertis, le « Big Data » est arrivé avec fracas
sur la place publique à l’été 2013 au gré des révélations de l’affaire Snowden. Le raccourci était alors
rapidement établi dans l’esprit du grand public entre « Big Data » et « Big Brother », personnifié par
« l’ami américain » si curieux des données échangées sur les réseaux. Derrière les polémiques sur le
viol de données personnelles au motif d’une cybersécurité rendue indispensable par les menaces
pesant sur la nation américaine, on a vu rapidement apparaître l’avantage compétitif déterminant que
peut représenter cette pratique dans une autre guerre, économique cette fois-ci. Il est incontestable
que le « Big Data » est une source considérable de création de richesse, que ce soit pour
l’amélioration de bon nombre de processus et de services existants dans les entreprises, ou pour
l’émergence de nouveaux business models prometteurs. L’essor du « Big Data » cristallise la
puissance de quelques grandes entreprises, américaines tout particulièrement, venant rivaliser avec
les États sur certains de leurs domaines réservés (éducation, fiscalité…).
La France qui peinait à rattraper son retard sur les Etats-Unis en termes d’industrie informatique et
de bases de données dans les années 60 et 80 ; qui abordait les autoroutes de l’information dans les
années 80 et 90 par les usages qu’elles allaient permettre, tandis que les Américains s’intéressaient à
la compréhension et à l’utilisation des informations qu’elles allaient transmettre, cette France s’est
vue distancée de façon spectaculaire par les « GAFA » (Google, Amazon, Facebook, Apple et autres
Twitter) pour la récolte et la valorisation des données produites par les utilisateurs.
La France a-t-elle raté l’enjeu du « Big Data" ? Certainement si l’on considère la puissance des
« GAFA ». Certainement également si l’on considère la capacité des Etats-Unis à valoriser au plan
économique leurs gigantesques investissements en matière de cybersécurité. Pour autant, la valeur
du « Big Data » c’est aussi la capacité à valoriser les données et surtout à leurs donner du sens. La
France l’a, enfin !, bien compris et peut s’appuyer sur un réseau d’ingénieurs et d’entrepreneurs de
talents pour envisager de devenir la nation des start-up numériques en Europe à condition que soient
adressées énergiquement les problématiques de financement des jeunes entreprises, de fiscalité,
d’attractivité de la marque « France » et que les initiatives des pouvoirs publics aient de la persistance
au-delà des alternances politiques.
MS Marketing Management 2013-2013
3
EXECUTIVE SUMMARY
"Big Data" is a trendy subject that everyone is talking about. There are countless conferences,
seminars and other professional meetings which have been dedicated to it in 2013. This expression
refers to the avalanche of data produced by companies and individuals in their digital life: to the e-
commerce which multiple interactions on the social networks up to the connected objects which
capture data and transmit them on the Web. According to IBM, 90 % of the stored data in the world
were produced in the last two years.
For a long time remained a subject reserved for the informed professionals, "Big Data" has arrived
with crash in public in summer 2013 according to the revelations of the Snowden case. The shortcut
was quickly established in the public mind between "Big Data " and "Big Brother ", personified by
“the American friend” so curious about data exchanged over networks. Behind the debate on the rape
of personal data on the grounds that cybersecurity made essential by the threats pressing on the
American nation, we quickly saw appearing the decisive competitive advantage that can represent
this practice in another war, economic this time. It is indisputable that "Big Data" is a considerable
source of value creation, whether for the improvement of numbers of processes and existing services
in companies, or for the emergence of new promising business models. The rise of "Big Data"
crystallizes the power of a few major companies, especially American, coming to compete with states
on some of their reserved domains (education, tax system…).
France which was struggling to catch up on the United States in terms of IT industry and databases in
the 60s and 80s; which addressed the superhighways information in the 80s and 90s by the uses that
they would allow, whereas the Americans were interested in understanding and using the information
they would convey, this France saw itself outstripped in a spectacular way by the "GAFA" (Google,
Amazon, Facebook, Apple and others Twitter) for collecting and increasing the value of the data
produced by users.
Has France missed the challenge of “Big Data”? Certainly if we consider the power of the "GAFA".
And also if we consider the capacity of the United States to value, economically, their huge
investments in cybersecurity. However, the value of "Big Data" it is also the capacity to value the data
and especially to give them meaning. Finally, France has understood this stake and can rely on a
network of engineers and talented entrepreneurs to intend to become the nation of the digital start-
ups in Europe provided that some major issues are solved like the financing of the young companies,
the tax system, the brand attractiveness of France and that the initiatives of public authorities have
persistence beyond political turns.
MS Marketing Management 2013-2013
4
Table des matières
Introduction .............................................................................................................4
1. Qu'est-ce que le « Big Data »? ..................................................................................... 7
1.1 D’où viennent les données ? ...............................................................................................................................7
1.2 Qu’est ce qui caractérise le « Big Data»? .......................................................................................................... 8
1.3 Un processus similaire à la transformation du pétrole brut .............................................................................9
1.3.1 Génération, récolte et acheminement des données .................................................................................10
1.3.2 Stockage des données................................................................................................................................. 11
1.3.3 Raffinage et traitement des données.........................................................................................................12
2. Le potentiel et les défis du « Big Data » .................................................................... 12
2.1 Un nouveau levier de compétitivité stratégique pour les entreprises ............................................................12
2.1. 1 Améliorer et diversifier les services ..........................................................................................................13
2.1.2. Le « Big Data » marketing ........................................................................................................................15
2.1.3 De nouveaux enjeux de sécurité ...............................................................................................................16
2.2 Une opportunité pour améliorer l’efficacité des Etats ........................................................................................ 17
2.3 L’enjeu de la cybersécurité et de la défense....................................................................................................19
2.4 De "Big data" à "Big Brother" ? ...................................................................................................................... 20
3. L'échec de l'ambition informatique de la France ................................................................. 21
3.1 Le système Mars: les prémices d’un “Big Data” à la française ? ................................................................... 22
3.1.1 La Copep.................................................................................................................................................... 22
3.1.2 Le système Mars ....................................................................................................................................... 24
3.1.3 Les forces opposées au système Mars : entreprises, administrations, Insee et pouvoirs politiques ....25
3.2 Le Plan calcul .................................................................................................................................................. 26
3.2.1 La genèse du plan calcul........................................................................................................................... 26
3.2.2 L'échec de la tentative européenne ..........................................................................................................27
3.2.3 L'après Plan Calcul....................................................................................................................................31
3.2.4 La vision américainne des autoroutes de l’information et de l’enjeu de puissance ............................. 32
3.3 Du Commissariat Général au Plan au Centre d'Analyse Stratégique .......................................................... 33
4. La France peut-elle devenir un pôle d’expertise du "Big Data" ? ......................................... 34
4.1 De nouvelles ambitions politiques en France et en Europe......................................................................... 34
4.1.1 Les pôles de compétitivité, les investissements d'avenir et les appels à projets .................................. 36
4.1.2 Le Commissariat Général à la Stratégie et à la Prospective ................................................................... 36
4.1.3 Ouverture des marchés européens contre protectionnisme américain.................................................37
4.2 Des atouts non négligables ........................................................................................................................... 39
4.2.1 La qualité des ingénieurs français ........................................................................................................... 39
4.2.2 Le dynamisme des start-up françaises................................................................................................... 40
MS Marketing Management 2013-2013
5
4.3 Comment faire de la France la nation des start-up numériques en Europe ?............................................ 43
4.3.1 Favoriser le financement......................................................................................................................... 43
4.3.2 Façonner un cadre juridique propre à l’innovation ..............................................................................45
4.3.3 La fiscalité 3.0 ......................................................................................................................................... 48
Conclusion ............................................................................................................................................................... 49
Remerciements ...................................................................................................................................................... 50
Bibliographie............................................................................................................................................................51
Glossaire des abréviations...................................................................................................................................53
Liste des tableaux et illustrations......................................................................................................................54
MS Marketing Management 2013-2013
6
INTRODUCTION
Le « Big Data » est un sujet tendance dont tout le monde parle. On ne compte plus les congrès,
séminaires, et autres réunions professionnelles qui lui ont été consacrés en 2013.
Après avoir défini ce que recouvre le terme « Big Data », nous parcourrons un certain nombre
d’exemples pour montrer la fabuleuse création de valeur que cela représente, tant dans l’amélioration
considérable de processus et services existants dans les domaines marchands et non marchands, que
dans l’émergence de nouveaux services et business models prometteurs. Nous mettrons ainsi en
lumière les enjeux de puissance que recouvre « Big data ».
Après avoir fait le constat de la suprématie écrasante de quelques entreprises américaines, connues
sous l’acronyme « GAFA » (Google, Amazon, Facebook, Apple et autres Twitter), sur certains
maillons de la chaîne de valeur, nous ferons un détour par l’histoire de l’informatique en France au
cours de la deuxième moitié du 20ème siècle, puis nous tenterons de dater la prise de conscience, bien
récente, des enjeux du « Big Data » par les pouvoirs publics français. Enfin nous identifierons les
leviers d’actions qui pourraient permettre à la France de revenir dans la compétition, tout au moins,
sur certains domaines de la chaîne de valeur.
MS Marketing Management 2013-2013
7
1. Qu’est-ce que le « Big Data »
Les « Big Data »1, littéralement « les grosses données », est une expression anglophone utilisée pour
désigner des ensembles de données qui deviennent tellement volumineux qu'il est très difficile
d’arriver à travailler avec des outils classiques de gestion de base de données ou de gestion de
l'information.
L’unité de référence de la donnée numérique est le bit (byte), 8 bits correspondant à 1 octet. La figure
n°1 ci-dessous, extraite du magazine international du CNRS, permet d’apprécier les différents ordres
de grandeur des données numériques. Le CNRS estime l’univers digital mondial en 2012 autour de
2,7 zettabytes, l’estimation donnée pour 2020 est de l’ordre de 35 zettabytes. C’est une croissance
exponentielle avec un volume qui double chaque année. Selon IBM, près de 90% des données dans le
monde ont été créées au cours des deux dernières années2…Un véritable déluge de données incessant.
Fig n°1 : Echelle comparative de mesure des données numériques3
1.1 D’où viennent les données ?
La notion de « Big Data » fait référence à la donnée numérique que chacun d’entre nous produit tant
dans un cadre professionnel que personnel via l’utilisation d’internet, de systèmes RFID, de mobile
ou de machines connectées. Chaque jour, 2,5 trillions d'octets de données sont ainsi générés dans le
monde : les entreprises, les services publics, les citoyens sont tous créateurs/producteurs de données
numériques et les champs des applications sont vastes.
On peut citer de nombreux exemples : l’utilisation d’un smartphone, le recours au cloud à titre
personnel ou professionnel, l’utilisation des réseaux sociaux, la mise en ligne de vidéos et de photos
1 Brasseur C. (2013), Enjeux et usages du big data. Technologies, méthodes et mises en oeuvre, Paris, Lavoisier, p. 30.
2 http://www-01.ibm.com/software/data/bigdata/what-is-big-data.html
3 Schémas extrait du magazine trimestriel du CNRS Janvier 2013, BIG DATA REVOLUTION - p.22
MS Marketing Management 2013-2013
8
numériques. A chaque minute, en moyenne, 350 000 tweets et quinze millions de SMS sont envoyés
au niveau mondial. Twitter génère à l’heure actuelle 7 teraoctets de données chaque jour et Facebook
10 teraoctets. On peut également citer : l’activation du GPS ou d’applications faisant appel à
l’utilisation de solution GPS ou encore les données commerciales (au travers de l’historique des
transactions monétaires d’une entreprise). L’astronomie, la physique, la subatomique, la
climatologie, la génomique sont autant de domaines scientifiques qui génèrent de colossaux volumes
de données numériques. Les dossiers médicaux de chacun d’entre nous sont aujourd’hui numérisés
sans oublier l’ensemble données publiques (impôts, papiers d’identité,…). La liste semble infinie.
1.2 Qu’est ce qui caractérise le « Big Data » ?
La génération de données numériques existe déjà depuis plusieurs décennies, alors pourquoi les
données sont-elles désormais labellisées « Big Data » ? Qu’est ce qui caractérise spécifiquement
ces données ? La définition structurelle du Big Data trouve son origine dans un rapport de Meta
Group du 6 février 20014. Un ensemble de données numériques est considéré comme du « Big Data »
dès lors que 3 conditions, les « 3V », sont réunies :
- Le Volume : la masse de données est conséquente (de l’ordre du téra-, du péta-, voire de l’exa-
octet) ;
- La Variété : les données sont de natures très variées (photos, vidéos, logs, mails, tweets,…) ;
- La Vélocité : la vitesse de traitement des données est accélérée pouvant même aller jusqu’au temps
réel. Il est même possible de ne plus stocker les informations, mais de les analyser en
flux (streaming).
Fig n°2 : Les « 3V » du Big Data5
4 Meta Group Doug Laney (6 février 2001) Application Delivery Strategies File 949
5 Schéma extrait de l’étude du cabinet Gartner “Big Data' Is Only the Beginning of Extreme Information Management”, 07 April 2011
MS Marketing Management 2013-2013
9
Un quatrième « V » fait son apparition dans les débats relatifs au « Big Data » : « La Valeur ». 6
Selon Mouloud Dey, directeur des solutions émergentes chez SAS France7, l’enjeu actuel du
« Big Data », c’est le passage de la donnée brute à la donnée valorisée. Ce changement d’état renvoie
aux définitions statistiques des données. Toute variable contient une part d’information exploitable et
une part inexploitable appelée bruit. Toute variable est dite non structurée et le devient dès lors que
la part d’information est isolée. Le « Big Data », c’est donc aussi un ensemble de nouvelles
technologies et méthodes d’analyse qui permettent de traiter et transformer rapidement d’énormes
volumes de données non structurées.
1.3 Un processus similaire à la transformation du pétrole brut
Pour Stéphane Grumbach, Directeur de recherche à l'Inria, ancien conseiller scientifique à
l’ambassade de France en Chine, le « Big Data » est le nouvel or noir du siècle.
En effet, lorsque les « 4 V » sont mis bout à bout, le processus de traitement et de transformation en
valeur ajoutée des ensembles « Big Data » est similaire à celui du pétrole brut.
La chaîne de valeur est la suivante:
1. Génération des données ;
2. Récolte ;
3. Stockage (centre de données,…) ;
4. Raffinage (isolement de la partie informative des datas, transformation en données
structurées) ;
5. Valorisation (intelligence logicielle – mise en forme des données structurées et la restitution).
Fig n°3: Data, raw material of the 21 st century 8
6 A ces quatre « V » s’ajoute souvent un cinquième, « La Véracité » qui fait référence à la qualité des données.
7 SAS est une entreprise française spécialisée dans les solutions de Business Analytics.
8 Présentation de Stéphane Grumbach - Directeur de recherche at INRIA et ancien conseiller à l’ambassade de France en Chine - Seminar
for the Council of the European Union
MS Marketing Management 2013-2013
10
La création de données de nos jours consiste donc à gérer un déluge de données non structurées qu’il
convient d’extraire, d’acheminer, de stocker, de raffiner afin d’obtenir et d’utiliser une nouvelle
information. Chacune des phases est donc importante.
1.3.1 Génération, récolte et acheminement des données
Le développement des réseaux cuivrés, fibrés, 4G voire 5G permet de répondre à la demande sans
cesse croissante de bande passante pour générer de la donnée. Dans ce domaine, la suprématie des
USA dans le monde est indéniable avec ses acteurs tels Facebook, Google, Microsoft, Amazon, et
Twitter. Mais certains pays restent hermétiques à l’intrusion de ces outils américains sur leur sol :
la Chine a créé son propre environnement spécifique tout comme l’Iran.
L’omniprésence du moteur de recherche de Google dans le monde est sans commune mesure. Depuis
1998, sa popularité accroît sa position monopolistique ; il capte pratiquement toutes les demandes.
Il y a quelques exceptions : en Russie, le premier moteur de recherche privé, c’est Yandex (avec un
peu plus de 60% du marché), derrière, il y a bien entendu Google mais le pays de Vladimir Poutine
aimerait également se doter un moteur national baptisé Spoutnik. En Chine, Baidu représente 5,4 %
des recherches mensuelles mondiales, mais représente 73 % du marché chinois en 2011 (450 millions
d'internautes). En France, le moteur de recherche Exalead lancé en juin 2010 ne parvient pas à
concurrencer Google.
Il faut dire que, dans sa logique de récolte de cette matière première, Google se propose de stocker
gratuitement les données en proposant aux acteurs de s’affranchir des coûts d’investissements.
L’entreprise américaine s’est constituée ainsi un monopole de la donnée lui permettant toute liberté
dans la fixation des conditions économiques d’accès aux données.
Le tableau ci-après montre le poids des moteurs de recherche dans plusieurs pays :
Pays Moteur de recherche principal Moteur de recherche secondaire
USA Google 65% Bing 33% / Yahoo 32%
Chine Baidu 73% Google 16%
Russie Yandex 60% Google 25%
UK Google 91% Bing 5%
France Google 92% Bing 3%
Fig n°4 : Poids des moteurs de recherche9
9 www.search-engine-feng-shui.com – blog spécialisé dans le Search Engine Optimisation
MS Marketing Management 2013-2013
11
Le constat est le même lorsque l’on s’intéresse aux réseaux sociaux dans le monde : là encore
Facebook, entreprise américaine, récolte l’ensemble de la matière première. Tous les 6 mois Vincenzo
Cosenza (Social Media Strategist Blogmeter10) compare l’importance des réseaux sociaux dans le
monde.
Fig n°5 : The World Map of Social Networks
A elles deux, Google et Facebook ont la main mise sur plus des 2/3 de la récolte et du stockage des
données. Cela signifie que plus des 2/3 de l’information mondiale transitent par leurs infrastructures.
1.3.2 Stockage des données
Les capacités de stockage et le mode de stockage sont deux points en constante évolution.
Les « Data Centers » (centres d’hébergement des données) sont de plus en plus nombreux et
régulièrement mis à jour pour absorber plus d’espace de stockage. Ils fonctionnent à l’électricité
24h/7j et sont placés dans des régions froides du globe car ils sont énergivores et le froid offre un
moyen de réguler la température des centres sans avoir recours à des climatiseurs eux-mêmes
consommateurs d’électricité.
Fig n°6 : Evolutions des capacités de stockage mondiales11
10 http://www.blogmeter.it/
11 Le monde -Mardi 8 janvier 2013 – Les données, puissance du futur – Stéphane Grumbach, Stéphane Frénot
MS Marketing Management 2013-2013
12
L’enjeu sur le stockage est de trouver la manière avec laquelle les données protéiformes vont être
encodées de sorte que plusieurs décennies plus tard, elles puissent être réutilisées sans perte
d’informations et de contenus. En France, le pionnier de l’archivage est le CNES (Centre National
d’études spatiales)12.
1.3.3 Raffinage et traitement des données
La difficulté du traitement réside dans le fait d’analyser un ensemble de données d’une diversité
extrême. La quantité de données à traiter nécessite de nouveaux modes d’analyse car un ensemble
peut-être traité soit dans son intégralité dans un seul et même serveur (solution très onéreuse), soit
en utilisant plusieurs serveurs. De nouveaux logiciels, capables de traiter de gigantesques volumes de
données structurées et non structurées, ont donc vu le jour.
Google s’est lancé dans le traitement en 2004 avec la programmation de Map Reduce avant de lancer
BigTable. A présent, la société Apache a développé un code source en libre accès appelé Open data ce
qui a permis l’apparition de nouveaux entrants : Amazon (Dynamo, S3), Yahoo! (Hadoop, S4),
Facebook (Cassandra, Hive), Twitter (Storm, FlockDB), LinkedIn (Kafka, SenseiDB, Voldemort),
LiveJournal (Memcached), etc.
Aujourd’hui le nouvel enjeu, c’est donc le traitement analytique de la donnée car la transformation
des ensembles de données en outils business et décisionnels, par ou pour les entreprises et les États,
offre d’innombrables possibilités.
2. Le potentiel et les défis du « Big Data »
Comme nous venons de le voir dans la première partie de rapport, le nombre de données ne cesse de
croître et les outils qui permettent de les analyser se perfectionnent. Google Analytics propose par
exemple aux entreprises d’améliorer la conception de leur site internet par l’analyse des visites des
internautes. La révolution « Big Data » est en marche et a un impact sur des domaines très variés : le
marketing et le commerce, les transports, la sécurité, les sciences et la santé ou encore la culture et
l’éducation,….Cette situation offre de nouvelles possibilités pour les États comme pour les entreprises
mais elle crée aussi de nouveaux besoins et donc de nouveaux risques.
2.1 Un nouveau levier de compétitivité stratégique pour les entreprises
En tirant parti du « Big Data », les entreprises peuvent renforcer leur efficacité opérationnelle
(gestion des stocks, amélioration des circuits de distribution,…), réduire leurs coûts d'infrastructure
informatique et de gestion des données mais surtout proposer de nouveaux services et mieux gérer le
12 http://www.cnes.fr/web/CNES-fr/6919-cnes-tout-sur-l-espace.php
MS Marketing Management 2013-2013
13
marketing et la relation client…Une aubaine en période de crise et de concurrence accrue et
mondialisée.
Fig n°7: Big Data can generate significant financial value across sectors13
2.1. 1 Améliorer et diversifier les services
Dans son étude « Big Data, the next frontier for innovation, competition and productivity » publiée
en 2011, le cabinet McKinsey&Company considère que les secteurs du numérique, l’immobilier et les
systèmes de santé sont les secteurs privés qui ont le plus à gagner avec le « Big Data » :
13 McKinsey Global Institute analysis
MS Marketing Management 2013-2013
14
Fig n°8: Some sectors are positioned for greater gains from the use of big data
Dans le domaine de la santé, il est possible de mieux prévenir certaines maladies ou épidémies et
ainsi d’améliorer le traitement des patients. En analysant les recherches des internautes sur Google,
une équipe médicale est parvenue à détecter plus rapidement l’arrivée des épidémies de grippe14 et à
mettre en place un modèle prédictif de propagation de l’épidémie, quasi en temps réel. Au Canada, en
analysant en temps réel les informations sur l’état de santé de bébés prématurés avec un logiciel
d’aide au diagnostic, des infections ont pu être détectées vingt-quatre heures avant la manifestation
de symptômes visibles15. Les équipes médicales ont désormais des données sur nos habitudes de vie,
nos comportements et peuvent les mettre en relation pour en tirer une analyse précise des risques
potentiels auxquels nous sommes exposés.
La recherche médicale est aussi concernée : le projet BrainSCANR (Brain Systems, Connections,
Associations, and Network Relationships) qui a été initié par deux chercheurs de l'Université de San
Francisco, a abouti (grâce à la création d’une base de 3,5 millions de résumés d'articles scientifiques)
à la fabrication d’un logiciel qui fait automatiquement un lien entre une partie du cerveau
et une maladie. L’apparition d’un lien entre "migraine" et "stratium"16 a ainsi été mis à jour et a
permis de lancer de nouvelles recherches sur le traitement de la migraine.
Dans le domaine des transports, les entreprises peuvent proposer de nouvelles solutions innovantes
pour la gestion du trafic mais aussi pour la gestion des risques propres par exemple au transport
aérien (organismes de maintenance, surveillance des aéroports…). La société française Safety Line17
14 Ginsberg J. et al. ( 2009), “Detecting influenza epidemics using search engine query data”, Nature, n° 457, p. 1012-1014
15 Mayer-Schönberger V. et Cukier K. (2013), Big Data. A Revolution That Will Transform How We Live, Work, and Think, Boston, New
York, Eamon Dolan, Houghton Mifflin Harcourt, p. 60
16 En neuroanatomie, le striatum est une structure nerveuse subcorticale (sous le cortex). (http://fr.wikipedia.org/wiki/Striatum)
17 http://www.safety-line.fr/index.php/fr/
MS Marketing Management 2013-2013
15
modélise les risques à partir des données de vol pour fournir des indicateurs de sécurité quantitatifs
et objectifs grâce à son équipe de chercheurs en mathématiques et d’experts en sécurité aérienne.
Autre exemple, la société Green Bureau18 propose une solution totalement intégrée pour la gestion
des factures et du budget pour le grand public. En proposant une numérisation, une indexation et un
stockage facilité de tous les documents, l’utilisateur peut aller vers une gestion numérique de ses
papiers en bénéficiant d’une palette de services tels que le pointage de relevé bancaire, l’analyse du
budget, avec un unique identifiant.
Le « Big data » représente donc un véritable enjeu économique car il permet d’adapter des services
existants et d’en développer de nouveaux qui offrent des débouchés supplémentaires aux entreprises
en temps de crise. L’enjeu est de taille, d’où l’importance des investissements réalisés par le secteur
privé dans le monde. Selon une enquête internationale réalisée en 2012-2013 auprès de 1 217
entreprises ayant un chiffre d’affaires supérieur à 1 milliard USD (759,6 millions d’Euros), 643
entreprises ont eu une stratégie « Big Data » en 2012 ; parmi celles-ci, 7 % ont investi au moins 500
millions USD (379,8 millions d’Euros) et 15 % au moins 100 millions (75,9 millions d’Euros)19.
2.1.2. Le « Big Data » marketing
L’autre révolution du « Big Data », c’est que désormais les entreprises peuvent mieux écouter les
consommateurs, mieux comprendre leurs comportements et s’adapter à leurs attentes…. Internet
et le digital ont ouvert le champ d'expression des consommateurs et leur ont donné un rôle plus
important via les réseaux sociaux.
Aujourd’hui, les entreprises qui sont capables d’utiliser et d’analyser les données ont un véritable
avantage concurrentiel pour:
- pousser des offres et des tarifs en fonction du client et des points de ventes (boutiques, web,…),
- adapter la distribution à des comportements de plus en plus infidèles et volatiles,
- optimiser les investissements en fonction de la segmentation clients,
- personnaliser la relation et les actions clients.
La distribution est en pointe dans ce domaine : Amazon a été un pionnier avec son moteur de
recommandations qui lui permet de tirer profit des millions de recherches de ses clients. Au
Royaume-Uni, le géant de la distribution Tesco, avec ses 16 millions de clients en possession de sa
carte de fidélité, s'est mis très tôt à utiliser les historiques d'achat et à croiser les données notamment
avec la météo pour cibler les promotions et ajuster ses têtes de gondole. Une hausse de 10 degrés et il
18 https://greenbureau.fr/
19 Tata Consultancy Service (2013), The Emerging Big Returns on Big Data. A TCS 2013 Global Trend Study.
http://www.lesechos-conferences.fr/data/classes/produit_partenaire/fichier_5183_540.pdf.
MS Marketing Management 2013-2013
16
augmente de 300 % la quantité de viande de barbecue mise en vente ou plutôt les rayons de
sandwiches en centre-ville.
Dans le domaine du sport, on peut citer l’exemple de l’équipe de baseball des Giants de San
Francisco, championne de la ligue nationale, qui a mis en place une tarification dynamique
permettant de modifier le prix des billets en fonction de la demande, et ce, jusqu'à la dernière minute.
L'idée étant d'adapter les tarifs à la demande pour éviter la mévente et mieux exploiter les
phénomènes d'enchères (qui profitent plutôt au marché noir). Cette tarification dynamique a permis
une augmentation du chiffre d'affaires du club de 6 % en 201020.
Ces exemples démontrent que l’analyse des flux de d’information ne peut pas se faire sans le recours à
des algorithmes puissants et complexes. Tout l’enjeu réside donc dans la capacité des entreprises à
analyser et extraire la partie informative des données pour ajuster leur politique commerciale. Les
entreprises qui auront recours à ces technologies se verront attribuer des positions dominantes sur
les marchés.
2.1.3 De nouveaux enjeux de sécurité
L’enjeu du « Big Data » est important pour les entreprises mais la possibilité d’accéder, d’utiliser et
de conserver des données stratégiques pose aussi un enjeu de sécurité qui concerne :
- La confidentialité des données ;
- L’identification, la localisation et la classification des données les plus sensibles ;
- La mise en place de modèles d’accès sécurisés tant pour les données que pour les analyses.
L’évolution des problématiques liées au stockage des données illustre bien les évolutions auxquelles
les entreprises doivent s’adapter. Le stockage de données s’est longtemps fait de manière « passive »,
sauvegarder ces données numériques sur un support de stockage est devenue une chose banale.
Cependant, la question de la durée de vie des modes de stockage revient sur le devant de la scène y
compris pour les technologies de pointe comme par exemple le stockage sur verre qui ne supporte
pas le vieillissement. Désormais, les chercheurs envisagent une autre solution des plus originales :
utiliser l’ADN21 pour stocker des données (en théorie, quelques grammes d'ADN pourraient contenir
pendant des milliers d'années les informations contenues dans plusieurs milliers de gros disques).
Mais en attendant de pouvoir enregistrer des données sur un corps humain et ainsi transférer des
Teraoctets de données de manière sécurisée, le stockage doit être fait de façon « active » : il faut
documenter les données numériques comme tout bon archiviste, les protéger du temps et des
attaques et conserver les logiciels qui permettent de les lire. Le cloud sensé résoudre cette situation
20 “Data Analysis Is Creating New Business Opportunities” MIT review By Lee Gomes on May 2, 2011
21 http://www.lefigaro.fr/sciences/2013/01/25/01008-20130125ARTFIG00639-l-adn-disque-dur-du-futur.php
MS Marketing Management 2013-2013
17
pose lui aussi de nouveaux problèmes car le propriétaire des données en perd le contrôle et doit donc
avoir entièrement confiance dans le prestataire qui lui garantit en principe le respect de la
confidentialité et la pérennité des données stockées. La question du stockage se pose aussi pour les
États, d’où le développement de supercalculateurs. Dans ce domaine, la Chine avec Le Tianhe-2 fait
la course en tête et dépasse les capacités de Titan, le supercalculateur du département de l'énergie
américain. En France, on trouve ce type de machines dans les centres nationaux de calculs
universitaire tels que l’IDRIS mais aussi dans certaines grandes entreprises (Total, EDF ou encore
Météo-France).
Selon une étude publiée en 2013 par le cabinet PwC, les cyberattaques sont plus redoutées par les
dirigeants d’entreprises que l’éclatement de la zone Euro ou les catastrophes naturelles22. En 2012,
27% des dirigeants interrogés en France affirment avoir connu plus de 10 incidents de sécurité l’an
passé, contre 21% en 2011. Cette enquête révèle également la difficulté des entreprises à gérer
l’utilisation de leurs données. Si 80% des directeurs de sécurité interrogés affirment que la protection
des données de leurs clients et de leurs salariés est un enjeu important, ils ne sont que 23% en France
à savoir exactement où les données personnelles de leurs clients et collaborateurs sont collectées,
transmises et stockées. Ce décalage est d’autant plus risqué que 73% des consommateurs interrogés
affirment être prêts à partager des informations personnelles avec des entreprises mais 87%
souhaitent contrôler la quantité d’information partagée.
Les entreprises françaises doivent donc réfléchir rapidement aux moyens de protéger leurs données
et leurs analyses de la concurrence et du piratage.
2.2 Une opportunité pour améliorer l’efficacité des Etats
Le « Big Data » est aussi un enjeu pour le secteur public et en particulier pour l’administration et les
domaines qui relèvent, en France, de l’État (éducation, sécurité, justice, culture…).
Par exemple, le développement de l’éducation en ligne permet de mettre en place un suivi en
profondeur de l’élève et d’analyser ses activités d'apprentissage. Les chercheurs peuvent ainsi
déterminer la façon dont les élèves apprennent et les approches qui peuvent être utilisées pour
améliorer l'apprentissage au sein des établissements scolaires.
L’État peut également améliorer la politique de l’emploi et aider les demandeurs car on peut
désormais, en combinant l’analyse des qualifications des individus et les offres d’emplois, identifier
les formations pertinentes, anticiper les reconversions et adapter la recherche aux besoins du marché.
En matière de sécurité, la police et l’université de Memphis ont développé un programme
(Blue Crush), maintenant utilisé par de nombreuses villes, qui permet d’identifier les zones
22 Etude mondiale de PwC sur la sécurité de l’information et la protection des données 15ème édition
MS Marketing Management 2013-2013
18
et les heures où des délits sont le plus à même d’avoir lieu, afin d’optimiser l’affectation des services23.
Le programme aurait permis de faire baisser de 19 % le taux de criminalité sur 4 ans.
Les gouvernements peuvent également tirer profit de l'analyse de données volumineuses afin de
s'attaquer à la fraude fiscale maintenant qu'une nouvelle génération de serveurs informatiques,
particulièrement puissants, peut réaliser, en quelques heures à peine des calculs qui, il y a deux ou
trois ans, prenaient plusieurs jours. Selon Jim Goodnight, président de SAS, une société américaine
spécialisée en analytique d'affaires : «Des ministères peuvent ainsi traiter le dossier de 15 millions de
personnes en 20 minutes, alors qu'avant, ça pouvait prendre deux semaines. Ils peuvent ainsi
identifier des cas de fraude fiscale ou d'assurance-emploi»24.
On peut aussi désormais mobiliser plus facilement les citoyens : en France, la mairie de Toulouse a
demandé en 2013 à la société Apicube d’analyser 1,6 million de documents (tweet, Facebook, blogs,
forums, etc.) pour mieux connaître les sujets de préoccupation des habitants25.
Les politiques ont d’ailleurs bien compris les avantages du « Big Data », après tout si les analyses de
données peuvent avoir un impact sur la prise de décision des consommateurs, c’est aussi le cas pour
les électeurs. La dernière élection présidentielle américaine a été surnommée "l'élection Big Data",
Dan Wagner, le Chief Analytics Officer de Barack Obama en 2012 a reconnu avoir utilisé le « Big
Data » pour cibler au mieux les électeurs potentiels et décrocher, vote après vote, la réélection du
président. Par ailleurs, « l’autre gagnant de la présidentielle américaine”26, fut Nate Silver, un
statisticien qui s’était illustré en 2008 en prédisant avec exactitude des résultats dans 49 des 50 Etats
américains lors de l’élection présidentielle. Idem en 2012, Nate Silver voit à nouveau juste pour les
scrutins des cinquante Etats, allant même jusqu'à avancer que les scores en Floride seraient
particulièrement serrés.
Enfin le « Big Data » facilite également l’accès à la culture. Le ministère français de la Culture
et de la Communication met à disposition des citoyens via un portail data.gouv.fr différents types
de données telles la liste des établissements publics culturels géolocalisés, les données de la
médiathèque de l'architecture et du patrimoine,… De nombreuses villes et régions ont commencé à
faire de même avec pour objectif de croiser des données avec les centres d’intérêt d’individus ou de
communautés pour développer de nouveaux services et usages et faciliter la promotion et l’accès à la
culture.
Des bibliothèques numériques ont aussi vu le jour comme celle de Lyon, plus de 100 000 ouvrages,
enluminures, journaux et photos sont consultables gratuitement en ligne sur Numelyo. Mais là
encore les opportunités qu’offre le « Big Data » s’accompagnent de nouveaux enjeux car si Google
23 35. http://www.memphispolice.org/blue%20crush.htm et
ftp://ftp.software.ibm.com/common/ssi/ecm/fr/imc14541frfr/IMC14541FRFR.PDF
24 Voir le rapport de Yiu C. « the big data opportunity making government faster smarter and more personal” 2012- policyexchange.org.uk
25 http://www.lemondeinformatique.fr/actualites/lire-la-mairie-de-toulouse-analyse-son-empreinte-sociale-avec-ibm-et-apicube-
53065.html
26 Post publié sur Big Browser, un blog tenu par les journalistes du Monde.fr. le 9 novembre 2012
MS Marketing Management 2013-2013
19
a proposé aux bibliothèques qui n’en n’ont pas les moyens d’assurer la numérisation de leurs
collections en quelques années, l’entreprise n’a pas hésité à demander en échange une exclusivité
commerciale de 25 ans et la propriété des fichiers, ni à numériser des ouvrages encore sous droits
et donc sont soumis au respect des règles de droits d'auteur, à l'autorisation de reproduction et au
versement de royalties liées à l'exploitation de ces œuvres.
2.3 L’enjeu de la cybersécurité et de la défense
Pour un État, la question du « Big data » en matière de défense et de cybersécurité recouvre deux
types de préoccupations. La première porte sur l’utilisation des données afin d’assurer la défense
d’un pays. Lors des attentats du Marathon de Boston qui ont tué trois personnes en 2013 et en ont
blessé 264 autres, le FBI a analysé des milliers d’appels de téléphones portables, de messages, de
données des médias sociaux, de photographies et de séquences vidéosurveillance pour repérer
rapidement les suspects et éviter une nouvelle attaque. Un logiciel de reconnaissance faciale a même
été utilisé pour comparer les visages sur les photos et la vidéo avec les visas, passeports, permis de
conduire et autres bases de données.
La seconde préoccupation concerne la protection des informations sensibles (militaires,
économiques,..) car les États doivent faire face à un nombre croissant d’attaques contre leurs réseaux
informatiques. Ces menaces sont devenues protéiformes : « hacktivistes » d’Anonymous, virus de
plus en plus évolués et destructeurs, piratages et aspirations de données sensibles, révélations aux
grand public de programmes secrets … En 2009, le Wall Street Journal révélait que des hackers
avaient pénétré dans les réseaux protégés de l'administration américaine et avaient réussi à dérober
des centaines de téraoctets d'informations ultra-confidentielles portant sur le chasseur américain F-
35. En France, début 2011, plus de 150 ordinateurs du ministère de l'Économie ont été piratés et des
documents confidentiels concernant le G20 dérobés. Quelques mois plus tard, le groupe nucléaire
Areva a découvert une opération de cyber espionnage massive qui durait depuis deux ans et lui a fait
perdre plusieurs contrats.
Pour lutter contre la fuite d’informations confidentielles, la meilleure solution consisterait à
automatiser le travail notamment en matière de renseignement. Le directeur de la NSA, Keith
Alexander a déclaré lors d'une conférence à New York sur la cybersécurité qu’il allait réduire les
administrateurs systèmes de l’Agence d'environ 90%. En automatisant l'essentiel du travail effectué
pour l'instant par des employés et des consultants extérieurs, les réseaux de la NSA seraient alors
"plus faciles à défendre et plus sûrs".
Les États sont désormais au pied du mur et cherchent de nouveaux moyens pour se protéger. Dans
son rapport au Sénat en 2012, Jean-Marie Bockel évoque un « enjeu majeur de sécurité nationale »
dont la prise en compte réelle n’a commencé en France qu’avec le Livre Blanc de la Défense, publié en
MS Marketing Management 2013-2013
20
2008. Ce dernier a donné naissance au « Conseil de défense et de sécurité nationale ». Jean -Marie
Bockel préconise une coopération d’abord entre la France et l’Allemagne puis dans toute l’Europe
pour lutter contre les attaques. On note que l'article 13 du projet de la future Loi de programmation
militaire permettra aux services de renseignement des ministères de la défense, de l'intérieur, de
l'économie et du ministère en charge du budget d'accéder aux données conservées par les opérateurs
de communications électroniques, les fournisseurs d'accès à Internet et les hébergeurs.
Concrètement, la réquisition de données de connexion dans un cadre d'enquête administrative
pourra être effectuée pour la recherche de renseignements intéressant la sécurité nationale, la
sauvegarde des éléments essentiels du potentiel scientifique et économique de la France, la
prévention du terrorisme, de la criminalité et de la délinquance organisées. Selon Manuel Valls,
Ministre de l’Intérieur « Il faut être lucide : pour protéger leur population, tous les États ont besoin
d’accéder à certaines communications électroniques, aussi bien en matière de renseignement que de
poursuites judiciaires. L’accès aux données doit s’opérer par ciblage des individus ou groupes qui
présentent une menace réelle »27 mais « l’exploitation des métadonnées ou des contenus n’est
légitime que si elle se rapporte à des finalités de sécurité bien circonscrites : lutte contre le terrorisme
et la criminalité organisée ou encore protection des intérêts fondamentaux des États ».
Le « Big Data » est donc un véritable enjeu de défense mais il soulève de nombreuses questions pour
savoir jusqu’où les États peuvent aller comme le démontre le récent scandale “Prism” sur la
transmission de données d’utilisateurs d’internet à des fins de surveillance entre des entreprises
anglo-saxonnes (Google, Yahoo !, Microsoft, You Tube, Skype,…) et les services de renseignements
américains (NSA). En France, on peut noter que le gouvernement français n’a pas jugé utile de
consulter la CNIL sur le fameux article 13 du projet de Loi de programmation militaire.28
2.4 De “Big Data” à “Big Brother”?
La révolution du « Big Data » constitue a priori une formidable opportunité. Pourtant les fabuleux
progrès de cette révolution vont de pair avec de nouveaux risques majeurs : manipulation des
données, intrusions et atteintes à la vie privée, prise de contrôle par des monopoles ou oligopoles
privés, (Apple, Google, Facebook, Amazon...). L’enjeu est donc d’arriver à trouver un équilibre entre
les opportunités économiques et commerciales et le respect de la vie privée. Cependant, c’est cette
recherche d’équilibre qui explique en partie le « retard » pris par certains pays et leurs entreprises
nationales dans l’investissement et l’exploitation du « Big Data ».
En France, à la différence des Etats-Unis, la CNIL impose une anonymisation des données
personnelles et l’usage de ces données est réglementé par la loi “Informatique et Libertés » selon
27 Interview de Thibaut De Jaegher - Publié le lundi 8 juillet 2013 publié sur le site de l’Usine Nouvelle
28 http://www.cnil.fr/linstitution/actualite/article/article/loi-de-programmation-militaire-la-cnil-deplore-de-ne-pas-avoir-ete-saisie-des-
dispositions-rel/
MS Marketing Management 2013-2013
21
laquelle : « constitue une donnée à caractère personnel toute information relative à une personne
physique identifiée ou qui peut être identifiée, directement ou indirectement, par référence à un
numéro d’identification ou à un ou plusieurs éléments qui lui sont propres. Pour déterminer si une
personne est identifiable, il convient de considérer l’ensemble des moyens en vue de permettre son
identification dont dispose ou auxquels peut avoir accès le responsable du traitement ou toute autre
personne » (art.2) ».
En fonction de cette loi, le croisement des informations sur les internautes pour un meilleur ciblage
ne peut donc pas se faire sur une personne en particulier mais sur une catégorie d'utilisateurs, c’est
pourquoi la CNIL a récemment épinglé Google pour sa nouvelle politique de confidentialité qui
multiplie les croisements d'informations auparavant éparses29.
En effet certaines données prises indépendamment peuvent sembler insignifiantes mais si elles sont
assemblées et analysées, elles peuvent permettre de recréer des profils et définir des identités
numériques parfois simplement grâce à une date et du lieu de naissance. On peut via les réseaux
sociaux, les moteurs de recherche,…obtenir une vision précise d’un individu, de ses goûts, de ses
habitudes ou de ses croyances. La question se pose donc de redéfinir les catégories de données qui
doivent être considérées comme sensibles et donc réglementées plus strictement par la loi.
Cette question est encore plus cruciale dans le contexte du « Cloud Computing » qui pose les
questions suivantes : Est-ce qu’un individu possède encore le contrôle de ses données ? Comment
un individu peut-il s’opposer au traitement de ses données ? Comment un individu peut-il récupérer
ses données ?
Les entreprises françaises n’ont donc pas la possibilité d’exploiter aussi librement que les entreprises
américaines les données. Selon une étude européenne 30seule 10 % des entreprises françaises
affirment que le « Big Data » est une réalité pour elles. Sur ce sujet, les pays germaniques (Allemagne,
Autriche, Suisse) sont pour l’instant les plus en avance en Europe. Parmi les freins au déploiement
avancés, 24% des personnes interrogées citent l’absence de stratégie et de gouvernance claires.
La France semble donc avoir en partie raté l’enjeu du « Big Data », reste à savoir comment.
3. L’échec de l’ambition informatique de la France
A partir de 1965, le Général de Gaulle et le gouvernement français se préoccupent du développement
d'une industrie nationale dans le domaine de l'informatique et des techniques modernes de
communication et lancent des projets novateurs avec pour objectif de garantir l’indépendance
29 CNIL, Décision n° 2013-025 du 10 juin 2013 de la présidente de la CNIL mettant en demeure la société GOOGLE INC.
30 Étude européenne menée par Steria auprès des 650 entreprises (étude biMA pour Business Intelligence Maturity Audit)
MS Marketing Management 2013-2013
22
informatique de la France mais les hésitations politiques, les batailles entre industriels et les querelles
d'ego finiront par avoir raison de cette ambition.
3.1 Le système Mars : les prémices d’un “Big Data” à la française ?
L’expérience du système Mars est intéressante à retracer en ce sens que d’une part, il s’agit d’une
première initiative de collecte de données relativement massive pour l’époque, de différentes
provenances, et d’autre part qu’il illustre tant le retard qu’avait la France en terme de numérisation
des données que sa capacité par une telle initiative à se distinguer dans la compétition mondiale.
3.1.1 La Copep
Le système Mars trouve sa genèse au début des années 1970, au sein de la Copep (Commission
permanente de l’électronique du Commissariat Général du Plan31), seule commission permanente du
Plan.
Créée à l’initiative de Michel Debré en 1961, le décret créateur de la Copep précise ses missions: « La
Copep est chargée :
- De servir de conseil permanent auprès du gouvernement pour les problèmes relatifs aux
industries de l’électronique française ;
- D’apprécier la situation présente et les développements nécessaires de l’équipement
électronique français dans les dix années à venir (…) ;
- De proposer en conséquence une politique d’ensemble et toutes mesures particulières propres
à développer l’équipement électronique français».
A ce titre, la Copep produit chaque année un rapport au gouvernement sur les industries de
l’électronique et le début de l’informatique.
Jean-Michel Treille prend le poste de secrétaire général de la Copep le 1er mail 1968 et en sera le
dernier secrétaire générale jusqu’à sa dissolution en décembre 1976. Une vingtaine de groupes de
travail sont à l’œuvre pour couvrir le domaine des composants et de l’informatique : l’informatique
médical, l’informatique professionnel, l’informatique appliqué aux industries…
La Copep a participé ou a été l’instigatrice de très nombreux rapports de restructuration industrielle :
le plan composants numéro 1 (1965), le Plan calcul (1966), le plan mesure (1967-1968), le plan
électronique civile professionnelle 1972…Par essence, la Copep est amenée à traiter beaucoup de
données dans une France encore très peu informatisée à l’époque.
31 Le Commissariat général au Plan ou Commissariat général du Plan (CGP) était une institution française qui a existé entre 1946 et 2006 et
qui était chargée de définir la planification économique du pays, notamment via des plans quinquennaux.
Il s'est transformé en Centre d'analyse stratégique (CAS), créé en 2006. Le CAS a de nouveau été transformé en 2013 pour devenir
le Commissariat général à la stratégie et à la prospective (CGSP).
MS Marketing Management 2013-2013
23
A l’issue d’un long séjour aux Etats Unis en 1971, Jean-Michel Treille a pu mesurer la réalité du gap
entre la France et les Etats Unis, il en conclut que « La technologie joue certes un rôle considérable,
mais également les méthodes de planification interne des grands groupes. »32
Avec la bénédiction de Monsieur Montjoie, commissaire général au plan, et de Monsieur Allègre,
Délégué à l’informatique, Jean-Michel Treille met sur pied en 1972 une opération pilote de
planification sectorielle avec un triple objectif 33:
1- Expérimenter une nouvelle méthode de planification sectorielle visant à obtenir une
projection glissante et flexible. Il s’agit d’une part d’être en mesure de réajuster objectifs et
moyens en fonction de la nature et de l’importance des écarts constatés dans l’exécution du
plan initial, d’autre part de disposer en permanence d’un horizon à cinq ans.
2- Mettre au point un système de préparation des décisions permettant de mieux connaître les
implications des orientations à long terme et de répondre de façon plus efficace aux missions
administratives du Plan et de la Copep.
3- Créer une base de données valable à la fois pour l’administration et les entreprises concernées
par l’électronique.
Entre dans cette expérience un vaste ensemble industriel puisque s’ajoutent à l’électronique,
l’informatique, les télécommunications, les équipements aéronautiques et les industries de la mesure.
Cela représente un chiffre d’affaires de 17 milliards de Francs en 1970. Les effectifs sont de 240 000
personnes. Plus de 600 entreprises représentées par une quinzaine de syndicats professionnels sont
concernées par cette initiative.
On peut distinguer cinq rubriques qu’alimentent toutes les informations recueillies:
 Les produits (demande, chiffres d’affaires, importations, exportations…) ;
 Les sociétés (aspect financier, position sur le marché…) ;
 Les administrations (programmes de développement, dépenses engagées par thème
et par produit…) ;
 Les régions (implantations régionales et évolutions) ;
 Les pays étrangers (étude de la pénétration française, tendances des marchés, stratégies
à l’exportation…) ;
Toutes ces informations sont traitées sur l’ordinateur XDS 540 de la société Cegos Thymshare à
Saint-Cloud (Hauts-de-Seine), lui-même relié à divers centres de calcul installés en France et chez
Data Ressources Inc. à Houston aux Etats Unis et spécialisés en recherche opérationnelle et en calcul
32 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
33 Journal Le Monde, article daté de 1972
MS Marketing Management 2013-2013
24
matriciel. 60% des temps de travail sont réalisés sur les ordinateurs disponibles en France, 40% sur
des ordinateurs installés aux Etats Unis.
En 1972, le journal le Monde souligne que les quelques cinq cents entreprises de pointe étudiées par
la Copep se heurtent à une concurrence vigoureuse des firmes étrangères souvent appuyées
directement ou indirectement par leurs gouvernements respectifs.
En France également, les pouvoirs publics disposent de moyens d’incitation considérables: près du
tiers de l’activité des firmes intéressées est lié à des commandes de l’administration dont le montant
durant les cinq années du VIème Plan devrait atteindre 30 milliards de francs pour l’acquisition de
matériel; 9 milliards de Francs de crédits étant en outre alloués par l’Etat pour la recherche et le
développement.
3.1.2 Le système Mars
En 1973, cette initiative est pérennisée sous le vocable « Système Mars ». 2000 fichiers sont ainsi
régulièrement mis à jour par les fournisseurs du système Mars.
Parallèlement à la constitution et à l’entretien de cette banque de données, des modèles ou des
scénarios de simulation de comportement de secteurs ou d’entreprises ont été mis au point avec pour
objectif d’analyser des développements macro-économiques, sectoriels ou micro-économiques.
Au-delà de scénarios types de grande utilisation, s’ajoutaient des scénarios construits à la demande
pour telle ou telle étude particulière (exemple : l’étude pour les PTT afin de mieux apprécier les
conséquences pour l’emploi de l’introduction de la commutation électronique).
Le système Mars a permis de sortir des plans et des suivis le plan sur l’électronique professionnel. Il
constituait ainsi un prestataire d’études d’une quinzaine de personne pour différentes
administrations, BIPE, club d’industriels. La dynamique de ce système permettait ainsi de financer
des études pour 4 à 5 millions de Francs par an pour une contribution du Commissariat au Plan
limitée à 200 milliers de Francs34. A plusieurs reprises, le système Mars est présenté aux Américains
et aux Russes du Gosplan qui marquent beaucoup d’intérêt pour ce dispositif.
Assez rapidement est posée la question de l’élargissement du système Mars à tous les secteurs de
l’industrie.
Pourquoi en effet ne pas en faire un système interministériel de planification ? Fort de son succès
dans le domaine des industries de pointe, la déclinaison aux autres secteurs industriels semble des
plus pertinente, et pourtant…
34 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
MS Marketing Management 2013-2013
25
3.1.3 Les forces opposées au système Mars: entreprises, administration, Insee
et pouvoirs politiques
Certains industriels, notamment dans les filiales des groupes multinationaux, n’avaient jamais
accepté le système Mars. Ils ne livraient qu’à contrecœur les informations nécessaires. Que des
fonctionnaires puissent contrôler au jour le jour l’utilisation des fonds publics injectés dans
l’industrie et connaissent le détail des prix de revient, aussi bien que la gestion des entreprises, leur
semblait anormale.
En effet, le système Mars consolidait toutes les données de recherches financées par l’Etat: la DGA
(Direction Général de l’Armement), le CNET (Centre National d’Etude des Télécommunications) et la
DGRST (Direction Générale de la recherche scientifique et technique) déclaraient les contrats passés
avec l’industrie.
Il était donc facile de voir que tel ou tel industriel avait reçu des fonds deux ou trois fois sur le même
sujet35. Certaines administrations n’ont plus voulu contribuer au système Mars. Elles voulaient
récupérer le système pour leur seul profit en cherchant d’ailleurs à intégrer l’équipe du Système Mars
(exemple : le Ministère des Télécoms).
L’Insee était également contre ce projet. Pourquoi ? « Parce que j’avais prétendu développer des
modèles sectoriels, prétendu que l’on pouvait faire le lien différemment entre macro-économie et
micro-économie qui est un lien très mal assuré. J’allais sur des plates-bandes qui n’étaient pas les
miennes » explique Jean-Michel Treille. Peut-être se souvenait-on aussi à l’Insee que Jean-Michel
Treille allait chercher un temps aux Etats-Unis l’information recueillie par l’Insee. En effet, l’Insee
était en retard dans son informatisation et vendait des données à une entreprise américaine qui en
assurait la mise à disposition au format informatique.
Pour Raymond Barre, très libéral, la planification n’est plus dans l’air du temps. Le mot plan est
connoté et évoque « c’est l’État qui gouverne ».
La Copep est dissoute le 17 décembre 1976. Le nouvel économiste du 27 décembre 1976 précise
« Trois ministres, et non des moindres, Raymond Barre, Premier Ministre, Jean Lecanuet, Ministre
d’État chargé du Plan et de l’aménagement du territoire, et Michel d’Ornano, Ministre de l’industrie
et de la recherche ont signé l’acte de décès ».
L’outil Mars demeure mais en pièces détachées : la banque de données elle-même est récupérée par la
Délégation à l’Informatique, accompagnée de toute l’équipe informatique concernée de la Copep,
tandis que les modèles d’application vont être utilisés par le Ministère des armées, les PTT et le
Ministère de l’industrie.
35 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
MS Marketing Management 2013-2013
26
Le journal le Monde du décembre 1976 rend compte de la dissolution de la Copep et titre « La fin
d’une ambition » : “cette Commission a été à l’origine d’une prise de conscience essentielle dans les
années 60 sur la nécessité de doter notre pays d’une industrie électronique puissante pour
s’affranchir de la domination américaine”. De son côté, les Echos du 21 décembre 1976 soulignent :
« une démonstration supplémentaire que la planification n’est plus de saison, le gouvernement
préférant le pilotage à vue ».
Déjà en 1977, Jean-Michel Treille indiquait36 “qu’il est plus facile en France de faire appel à un
modèle américain de précision ou de simulation économique nous concernant que d‘en trouver sur
notre propre marché ». Le danger est alors bien identifié de dépendre à la fois de l’information de
base et d’un traitement qui nécessairement peuvent orienter ou biaiser l’information de base.
Dans le journal 01 informatique de décembre 1978, Jean-Michel Treille note que 360 bases de
données regroupant une centaine de millions d’articles sont en service dans le monde. 70% de ces
bases de données regroupant 85% des articles sont implantées aux États-Unis. Pour lui
« L’informatique en France a toujours été considéré par les dirigeants comme quelque chose de
technique et pas comme un outil de pouvoir, et c’est encore le cas aujourd’hui ».
3.2 Le Plan Calcul
Revenons maintenant sur le Plan Calcul mentionné ci-dessus lors de la présentation de la Copep et de
ses différentes contributions dans le domaine de l’informatique.
3.2.1 La genèse du Plan Calcul
Le 16 Juillet 1966 : le commissaire au Plan, François-Xavier Ortoli, présente au général de Gaulle son
rapport, connu sous le nom « Rapport Ortoli », dans lequel il met en évidence la nécessité pour la
France de se doter d’un plan informatique ambitieux pour préserver l’indépendance de la France vis-
à-vis des Etats-Unis. Le Plan Calcul est né.
De nombreux ouvrages ou articles ont été écrits sur la « saga » du plan calcul dont celui de Pierre-
Eric Mounier-Kuhn, historien de l’informatique37.
Trois phénomènes servent de déclencheurs à la mise sur pied du Plan Calcul :
- Le retard de l’industrie française face aux USA et IBM en particulier avec le lancement de
sa série 360 (les circuits intégrés remplacent les transistors) ;
36 36 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
37 “Le Plan Calcul, Bull et l’industrie des composants: les contradictions d’une stratégie ». Revue historique, 1995, vol. CCXC n° 1, 123-153
MS Marketing Management 2013-2013
27
- Bull passé sous pavillon américain le 22 juillet 1964 (51% des parts détenues par General
Electric) ;
- Le refus du pentagone de la vente d’un super-calculateur à la direction des applications
militaires du Commissariat à l’Energie Atomique dans le cadre de la mise au point de
l’arme atomique française.
a. 1er dispositif du Plan Calcul: la création de la Délégation à l’informatique
Le 8 Octobre 1966, la Délégation à l'informatique est créée. Sa mission sera de gérer les budgets du
plan, de définir ses principales orientations et d'en assurer l'application. Elle est confiée à Robert
Galley, gaulliste de la première heure, compagnon de la Libération et ingénieur de l'Ecole centrale des
arts et métiers. Maurice Allègre, polytechnicien est son adjoint. Quand Robert Galley est appelé au
gouvernement en 1968, Maurice Allège lui succède.
b. Dispositif scientifique: la création de l’IRIA
L'IRIA (Institut de Recherches en Informatique et en Automatique) est créé au début de 1967, cet
institut (qui deviendra plus tard l’INRIA) a trois missions:
- Entreprendre et faire entreprendre des recherches fondamentales et appliquées (l'IRIA
dispose pour cela de laboratoires propres) ;
- Développer la formation, l'information et le perfectionnement des informaticiens et
d'autres personnes concernées (mission qui restera marginale) ;
- Rassembler et diffuser toute documentation française et étrangère.
Aujourd’hui l’INRIA est très active sur le “Big Data”, notamment à travers son représentant, Stéphane
Grunbach, dont les travaux ont été mentionnés en première partie de ce rapport.
c. 3ème dispositif du Plan Calcul: le volet industriel.
Il prévoit la création d'un champion français de l'informatique, baptisé Compagnie Internationale de
l'Informatique (CII). Avant de revenir sur la composition de cette Compagnie, notons que l’entreprise
Bull en est absente. Mais Bull, il est vrai, n’est plus française à cette époque, étant détenue à 51% par
l’américain General Electric.
Un temps en bonne position dans le concert des entreprises informatiques, la société Bull, après la
prospérité des années 1950, s’essouffle dans la compétition avec l’américain IBM et se retrouve en
difficulté financière. Une solution franco-française est d’abord recherchée en cherchant à associer la
Compagnie Générale d'Electricité (CGE) et la Compagnie Générale de la Télégraphie Sans Fil (CSF).
Finalement, Valéry Giscard d'Estaing, Ministre des Finances de l’époque, finit par donner son feu vert
au scénario américain privilégié par les financiers. General Electric prend ainsi 51% du capital du Bull
MS Marketing Management 2013-2013
28
en 1964.
Revenons à la création de la Compagnie Internationale de l'Informatique. Pour créer ce qui doit être
le champion français de l’informatique, l'Etat a imposé la fusion de la Compagnie Européenne
d'Automatisme Electronique (CAE), une filiale commune de la CSF et de la CGE, avec la Société
d'Electronique et d'Automatisme (SEA), elle-même filiale du groupe Schneider. A la CGE, comme à la
CSF, et au sein du groupe Schneider, ce chantier industriel piloté par l'Etat ne fait pas l’unanimité
mais à la fusion à tout de même lieu : la CII est alors détenue à plus de 56 % par la CGE et CSF, à 33,
3 % par Schneider et à 10, 3 % par le groupe Rivaud.
Une convention qui lie l’Etat à la Compagnie Internationale pour l’Informatique, est signée pour
l’Etat par Michel Debré, Ministre des Finances, Olivier Guichard, Ministre de l’industrie, Pierre
Messmer Ministre des armées et Maurice Schumann Ministre de la recherche scientifique et les PDG
des sociétés privées qui composent la CII. A l’occasion de cette signature, Michel Debré est revenu sur
l’objectif de cette convention « avoir une forte industrie nationale capable de construire des
ordinateurs…. aucune nation industrielle ne peut se développer sans informatique et il est bon que
la France recherche son indépendance »38.
Pour cette première phase de cinq ans du plan calcul, tel qu’annoncé par Michel Debré, l’Etat va
financer pour 400 millions de francs en contrats d’étude.
Le mariage imposé par l’Etat est chaotique. Pour ne rien arranger, un an après la création de la CII,
son tour de table doit être entièrement revu. En septembre 1967, Thomson-Houston-Hotchkiss-
Brandt absorbe la CSF, donnant naissance au groupe Thomson CSF. Avec 40.000 employés et un
chiffre d'affaires de 2, 5 milliards de Francs, la nouvelle société, dirigée par Paul Richard, figure
parmi les 20 premières sociétés françaises. Cette fusion ne fait évidemment pas l'affaire de la CGE :
Ambroise Roux son Directeur général voyant son concurrent se renforcer. Les deux hommes sont
d’autant plus contraints à composer qu’en récupérant la CSF, Thomson est en effet devenu
actionnaire de la CII aux côtés de la CGE.
En juin 1969, sous la pression de la Délégation à l'informatique, le capital de la CII est profondément
remanié. Le champion français de l'informatique est désormais détenu à 70 % par Thomson-CSF et la
CGE, via un holding commun baptisé Fininfor, à hauteur de 25 % par Schneider et de 5 % par le
groupe Rivaud. Contrôlant 52 % de Fininfor, Thomson-CSF assure clairement le leadership de la CII,
imposant même son homme à la tête de la Compagnie, Michel Barré. Au grand dam de la CGE, qui se
lance immédiatement dans une guerre de tranchées... La Délégation vient à peine d'en terminer avec
38 Source Ina sur Youtube http://www.youtube.com/watch?v=1_JNZ862gSw
MS Marketing Management 2013-2013
29
la CII qu'un nouveau front s'ouvre.
En mai 1970, le groupe General Electric annonce en effet qu'il se retire du secteur de l'informatique
pour se concentrer sur les métiers du nucléaire et de l'aéronautique. Six ans après son acquisition,
voilà Bull à nouveau en quête d'un repreneur. A Paris, le pouvoir politique échafaude immédiatement
une solution française de reprise.Maurice Allège, le délégué à l’informatique, souhaite que la CII
reprenne Bull pour donner naissance à un géant français de l'informatique. Ambroise Roux et Paul
Richard y sont tous deux opposés. Partisans d'une ouverture à l'international du capitalisme
hexagonal, les deux hommes estiment qu'une solution franco-française nuirait gravement à l'avenir
de Bull. Les deux industriels militent en revanche avec force pour un rapprochement avec la société
américaine Honeywell. C'est finalement cette solution que Valéry Giscard d'Estaing, Ministre des
Finances choisit en juillet 1970, donnant ainsi naissance à Honeywell Bull. Pour la deuxième fois en
quinze ans, la France vient de laisser échapper la société Bull.
3.2.2 L’échec de la tentative européenne
En 1971, un nouveau plan est acté car les résultats commerciaux n’étaient pas à la hauteur des
objectifs fixés.
Ce nouveau plan fixait deux directives:
 Reconduire sur une durée de cinq ans le soutien des subventions de recherche et des achats
publics ;
 Donner à l'avenir de la CII une dimension européenne sur le modèle de ce qui vient d'être fait
dans l'aéronautique avec Airbus.
De longues négociations sont menées avec des industriels anglais, allemands et hollandais pour
construire un grand projet européen dans le secteur informatique. Baptisé « Unidata », il associe la
CII, Philips et Siemens. Ce projet, Ambroise Roux, patron de la CGE, n'a cessé de s'y opposer,
craignant qu'une alliance entre Thomson (principal actionnaire de la CII) et Philips et Siemens ne se
fasse à ses dépens. « L'alliance commence dans l'informatique mais finira par gagner les composants,
voire même le téléphone », pense l'industriel, qui use de toute son influence pour saborder Unidata.
Sans succès. Le projet reçoit un soutien appuyé du chef de l'Etat, Georges Pompidou, et du Premier
ministre, Jacques Chaban-Delmas. Un holding financier, dont le capital était détenu à parité par les
trois sociétés, était créé. Une filiale Unisata était créée dans chaque pays, les trois partenaires y
participant également à parts égales. Le 4 juillet 1973, l'accord était signé à Amsterdam et le
consortium commençait ses activités.
MS Marketing Management 2013-2013
30
Au printemps 1974, le Président Pompidou disparaît prématurément. Elu en mai 1974, le nouveau
chef de l'Etat, Valéry Giscard d'Estaing, reste dubitatif quant au dossier Unidata. Faut-il ou non
mener à bien ce grand projet européen ? C'est le début d'une formidable guerre d'influence qui va
opposer deux camps :
 D'un côté, les partisans de l'alliance européenne conduite par les Etats, ce qui suppose au
préalable un renforcement des moyens financiers de la CII, par exemple en l'adossant au CEA.
Parmi eux, la Délégation à l'informatique, bien sûr, mais aussi une brochette de hauts
fonctionnaires et quelques ministres, dont le premier d'entre eux, Jacques Chirac.
 De l'autre, les adeptes d'une solution libérale consistant à fusionner la CII avec un groupe
privé, de préférence américain. Parmi eux, Ambroise Roux, bien sûr, mais aussi les dirigeants
de Thomson, dont l'enthousiasme pour le projet Unidata tiédit de jour en jour, les hauts
fonctionnaires du ministère de l'Industrie et le ministre lui-même, Michel d'Ornano.
Ce camp a trouvé son champion : Jean-Pierre Brulé, le PDG d'Honeywell Bull. L'homme rêve
de casser Unidata - un concurrent qui risque de se révéler redoutable -et, au passage,
d'absorber la CII...
Après des mois d'hésitation et au terme d'un double jeu qui a profondément agacé les partenaires
européens d'Unidata, c'est finalement ce dernier camp qui l'emporte. Dans l'entourage de Valéry
Giscard d'Estaing, nombreux sont ceux qui pensent que l'heure n'est plus au renforcement du secteur
public, fût-il réalisé dans un cadre européen. Libéraux dans l'âme, ils estiment que la priorité est de
renforcer les entreprises privées.
Sur le plan technique, une alliance de la CII avec l'américain Honeywell Bull leur paraît bien plus
viable qu'une grande alliance européenne. L'attitude des industriels français - CGE et Thomson-CSF-
s'est également révélée déterminante. Engagés l'un et l'autre dans une stratégie de développement à
l'international, les deux groupes ne veulent plus participer à une aventure née sous la houlette de
l'Etat.
Reste à trouver un prétexte. Bien malgré eux, les Allemands le leur fournissent en annonçant la
reprise, par Siemens, de la division informatique de Telefunken, alors en grande difficulté. « En
reprenant Telefunken, son parc d'ordinateurs, ses chercheurs et son déficit, Siemens va rompre
l'équilibre au sein d'Unidata et grossir ses pertes », s'empressent de murmurer à l'oreille des hauts
fonctionnaires français, les partisans de la solution Honeywell Bull, Jean-Pierre Brulé en tête.
Habilement, celui-ci fait savoir qu'il ne demandera aucune subvention à l'Etat pour la reprise de la
CII. En mai 1975, le gouvernement donne officiellement son accord à l'acquisition de la CII par
Honeywell Bull et annonce son retrait d'Unidata. C'est la fin d'une ambition européenne dans le
secteur informatique.
MS Marketing Management 2013-2013
31
C'est également la fin du plan Calcul. Un an plus tôt, Maurice Allègre, découragé, a en effet donné sa
démission, entraînant la suppression de la Délégation à l'informatique...
3.2.3 L’après Plan Calcul
En 1982, l'entreprise est nationalisée : le Groupe Bull est alors créé par le regroupement de CII-
Honeywell Bull, SEMS et Transac. L’État français devient majoritaire dans le capital.
En 1989, Bull acquiert Zenith Data Systems, un constructeur américain de micro-ordinateurs PC.
Cette opération onéreuse devait être destinée à prendre le marché des micro-ordinateurs du
gouvernement fédéral américain. Elle s'adressa évidemment à d'autres fournisseurs en raison des lois
américaines sur les marchés publics. Cette erreur stratégique conduisit à la revente de ZDS à la
société Packard Bell NEC en 1996.
En 1991-1992, on assiste au recentrage du groupe Bull sur les activités de serveurs moyenne et grande
gamme, sur les services clients et sur les services de développement et d'intégration du logiciel.
De 1994 à 1997 se déroule la privatisation progressive du groupe Bull, sous l'impulsion de Jean-Marie
Descarpentries, avec la constitution d’un socle d’actionnaires (dont France Télécom et NEC) et
l’ouverture du capital au public. Cette étape fait passer la part de l’État français à 17,3 %.
Le groupe sera totalement re-privatisé en 2004, avant de voir le retour de l’Etat, via le Fonds
Stratégique d’Investissements, à l’automne 2011, pour un peu plus de 5% de son capital.
Depuis le début des années 1990, le groupe Bull a connu plusieurs restructurations, dont la dernière
s'est achevée en 2004. Si au début de l’année 1999, les effectifs étaient encore légèrement supérieurs
à 20 000 personnes, ils sont descendus fin 2001 à quelques 10 000 personnes. En 2008, Bull
emploie environ 7 800 salariés, et recommence à embaucher fortement, faisant arriver le total des
salariés à 8 850 pour 2009. Le chiffre d'affaires est de 1, 28 milliard d'euros en 2012, réalisé à 56, 8 %
en France.
L’échec du Plan Calcul continue à nourrir l’intérêt des observateurs. Le quotidien économique « Les
Echos » y consacre un dossier dans les feuilletons de l’été 2012 titrant « Le plan Calcul, échec d’une
ambition »39.
Il met en évidence les contradictions de l'histoire industrielle des cinquante dernières années :
articulation entre politique technologique et industrielle, coopération européenne face au dynamisme
commercial et technologique des Etats-Unis ; logiques divergentes des grands groupes français de
l'électronique au sein des réorganisations des années 1960-1970, indépendance nationale et
libéralisme dans le cadre spécifique de l'informatique. On ne peut s’empêcher en revoyant cette page
d’histoire récente de faire le lien avec un autre domaine pour laquelle la France, alors qu’elle avait un
certain nombre d’atouts bien réels, a échoué : celui des drones.
39 Les Echos n° 21231 du 20 Juillet 2012
MS Marketing Management 2013-2013
32
La suite des événements témoigne de la difficulté de l’Etat français à s’organiser pour rester dans la
course à l’innovation : pour mieux comprendre les raisons de l’échec de l’ambition informatique
française, il est intéressant de comprendre comment les USA ont abordé la question de l’information
et ont finalement réussi à imposer leur leadership dans les années 90.
3.2.4 La vision américaine des autoroutes de l’information et de l’enjeu de
puissance
On peut situer l’apparition des autoroutes de l’information et les prémices du « Big Data », bien que
ce concept ne soit pas encore nommé, aux Etats-Unis en novembre 1991 dans le High Performance
Computing act de 1991. Cette loi, proposée par le sénateur Al Gore, a pour objectif de préserver le
leadership dans les NTIC par la mise en place d’un réseau dédié à l’éducation et à la recherche (cf
Renater en France). Dès 1993, Bill Clinton élu, l’affirmation de puissance des USA est claire : « ce
n’est plus la qualité des infrastructures routières, portuaires qui déterminent la puissance
économique de l’Amérique, mais notre capacité à transmettre de grandes quantités d’informations
rapidement et sûrement et par notre capacité à utiliser ces informations et à les comprendre ». Le lien
est ici clairement établi entre l’enjeu de puissance des Etats-Unis et le “Big Data”.
Le gouvernement français inscrit les autoroutes de l’information sur son agenda dès février 1994 en
demandant un rapport à Gérard Théry et définit sa politique lors du conseil de ministres du 27
octobre 1994. Alors qu’aux Etats-Unis, les autoroutes de l’information sont traduites en enjeu de
puissance, en France, les autoroutes de l’information sont davantage vues sous l’angle des usages
qu’elles permettent, illustrées dans le rapport Théry40.
L’Union Européenne depuis les années 1990 voudrait se placer en tête sur la gouvernance d’internet,
mais se heurte à la puissance des Etats-Unis. La démarche européenne repose sur les fondements
suivants :
 Internet vu comme un service public…
 …à la fois dans une logique d’opportunité mais aussi dans une logique de maîtrise des
risques liés :
o Aux messages au contenu illégal ou non approprié ;
o Aux problèmes juridiques qui peuvent advenir ;
o A la protection des consommateurs.
40 Les autoroutes de l’information, Rapport au 1er Ministre, Gérard Théry, 1994
MS Marketing Management 2013-2013
33
Cette volonté se heurte à celle des Etats-Unis de garder le contrôle de la coordination des fonctions
essentielles de l’internet (notamment noms et adresses). Aux USA, le lien est donc fait directement
entre les données qui circulent sur ces autoroutes de l’information et l’enjeu de les comprendre et de
les utiliser dès les années 90 alors que la France continue à tatonner.
3.3 Du Commissariat Général au Plan au Centre d’Analyse Stratégique
Le Commisariat Général au Plan, mis en place par le Général de Gaulle pour reconstruire la France,
avait pour mission la planification économique du pays par l’élaboration de plans quinquennaux. En
octobre 1986, le Ministre de la Fonction publique, du Plan, et de l'Économie sociale, Hervé de
Charette, propose de substituer un commissariat de la stratégie au Commissariat au Plan.
Les oppositions au projet d’Hervé de Charette ont été nombreuses : Pierre Massé dit, par exemple,
que « supprimer le Plan au nom d'un libéralisme impulsif serait privé le pouvoir d'une de ses armes
contre la dictature de l'instant ». Le projet ne se concrétisa pas, mais l'idée, elle, subsista.
En 2003, Alain Etchegoyen est sollicité par Jean-Pierre Raffarin, alors Premier Ministre, pour diriger
le Commissariat général au Plan. Il tenta une réorganisation de l'institution en groupes de projet afin,
selon ses termes, de recentrer sa mission "pour un État-Stratège, garant de l'intérêt général et du bien
public", en favorisant une démarche prospective soucieuse du long terme.
A partir de 2004, le Gouvernement français lance (selon ses termes) une « nouvelle politique
industrielle ». Grâce à un effort financier de trois milliards d’Euros, sans commune mesure en
Europe, des pôles de compétitivité sont créés pour mobiliser les facteurs clefs de la compétitivité au
premier rang desquels figure la capacité d'innovation, et pour développer la croissance et l'emploi sur
les marchés porteurs : Cap digital est la dénomination du pôle de compétitivité du numérique basé en
Ile de France41.
Le 26 octobre 2005, Dominique de Villepin, Premier Ministre, annonce vouloir supprimer le
Commissariat général au Plan et créer, en remplacement, un Centre d'analyse stratégique également
sous la tutelle directe du Premier minister. Il remercie le commissaire général au Plan et le 6 mars
2006, le décret no 2006-260 et officialise la substitution du Centre d'Analyse Stratégique au
Commissariat général au Plan avec à sa tête Sophie Boissard, ancienne directrice de cabinet du
ministre délégué à l'Emploi, au Travail et à l'Insertion professionnelle des jeunes, Gérard Larcher.
Mais le Centre d’Analyse Stratégique, simple outil de veille, ne parvenient pas à s’impliquer ni dans la
préparation ni dans l’élaboration des stratégies publiques, il disparait en 2013.
41 http://www.capdigital.com/
MS Marketing Management 2013-2013
34
Petit à petit, le gouvernement va tenter de passer de la planification à la prospection pour pousser
des projets afin de faire de la France un pôle d’expertise du « Big Data ».
4. La France peut-elle devenir un pôle mondial d’expertise du « Big Data » ?
Forcé de constater que l’ambition française de garantir son indépendance informatique a échouée. La
France a été dépassée par les hésitations politiques et les batailles entre industriels, elle n’a pas réussi
à imposer son savoir-faire et ses entreprises dans le domaine de la génération, de la récolte et de
l’acheminement des données.
Sauf qu’aujourd’hui, les nouveaux enjeux du « Big Data » concernent le stockage et surtout le
traitement des données : deux domaines dans lesquels la France possède de vrais avantages
stratégiques.
4.1. De nouvelles ambitions politiques en France et en Europe
4.1.1 Pôles de compétitivité, investissements d’avenir et appels à projets
Les investissements d’avenir sont lancés le 14 décembre 2009 par Nicolas Sarkozy, Président de la
République, selon cinq axes stratégiques prioritaires:
 L’enseignement supérieur et formation ;
 La recherche ;
 La filières industrielles et PME ;
 Le développement durable ;
 Le numérique.
Le Commissariat Général à l’Investissement et son commissaire Louis Gallois sont chargés de la mise
en œuvre du programme d’investissements d’avenir.
Le Fonds Stratégique d’Investissements est créé en octobre 2008 pour porter ces investissements
d’avenir et intégre la Banque Publique d’Investissement, plus récemment créée, en juillet 2013.
Le Fonds national pour la Société Numérique, géré par la Caisse des Dépôts et Consignation (FSN),
est chargé du développement de l’économie numérique, il mène deux actions :
1. Développer des réseaux très hauts débits -> investissements de 2 GE
2. Établir des usages, services et contenus innovants -> investissements de 2.25 GE selon
4 axes :
o Cloud computing ;
o Numérisation et valorisation de contenus numériques ;
MS Marketing Management 2013-2013
35
o Développement des technologies du numérique (nano-technologies, logiciel
embarqué…) ;
o Nouveaux usages : e-santé, sécurité des réseaux, transports intelligents, ville
numérique, e-éducation.
Trois appels à projets sont en lien direct avec le “Big Data”:
1. AAP Cloud computing - 1 (as a service, virtualisation) ;
2. AAP Cloud Computing – 2 dans le prolongement du 1 ;
3. AAP Cloud Computing – 3 dédié Big Data.
Au second semestre 2013, 4 nouveaux appels à projets sont lancés selon 4 axes :
1. Technologie du logiciel embarqué et objets connectés et intelligents ;
2. Sécurité du système d’information ;
3. Technologie de calcul intensif ;
4. Big Data.
Mentionnons ici quelques initiatives à l’occasion des AAP Cloud computing 1 et 2, en particulier celle
visant l’émergence d’un cloud souverain. Deux nouvelles sociétés de cloud souverain (Cloudwatt42 et
Numergy43) ont ainsi été constituées en 2012 sur un modèle comparable :
- Un opérateur télécom (Orange pour l’un, SFR pour l’autre) ;
- Un industriel (Thalès pour l’un, Bull pour l’autre) ;
- Le FSN ayant apporté à chacun 75 ME pour 33% du capital.
Orange, Thalès et le FSN constituent le capital de Cloudwatt, pendant que SFR, Bull et le FSN
constituent le capital de Numergy.
Numergy et Belgacom ont annoncé en cet été 2013 une initiative européenne : Cloud Team Alliance
pour une alternative européenne aux acteurs américains. Ce périmètre pourrait s’étendre à l’Italie
(Telecom Italia), la Hollande avec KPN, l’Allemagne…). Cloudwatt, par son opérateur principal,
Orange, a par là même déjà une empreinte qui dépasse le simple territoire français pour s’étendre en
Europe. En ce qui concerne l’appel à projet Cloud computing – “Big Data”, 11.5 millions d’Euros ont
été investis par le FSN dans 7 projets “Big Data”.
Notons ici une nouvelle initiative intervenue en juillet dernier via l’apport au capital de la société
Withings de 11 millions d’euros par la Banque Publique d’Investissement. Il s’agit d’un investissement
direct, hors démarche d’appels à projets. Au côté de trois fonds privés (360 Capital Partners, Ventech
et Idinvest Partners), ce sont ainsi 23 millions d’Euros qui sont venus renforcer le capital de Withings
42 https://www.cloudwatt.com/
43 https://www.numergy.com/
MS Marketing Management 2013-2013
36
pour lui permettre d’accélérer son développement international. Withings réalise déjà plus de la
moitié de son chiffre d’affaires aux Etats-Unis. La BPI a posé comme condition le fait que la R&D de
Withings demeure en France44.
Cet investissement direct de fonds souverain dans une PME n’est pas nouveau. Un an plus tôt,
Viadeo, le réseau social professionnel, bénéficiait d’un investissement de 10 Millions d’Euros du
Fonds Stratégique d’Investissements, en complément de 24 Millions d’Euros apportés par des
investisseurs privés. Auparavant le FSI avait apporté 18 Millions d’Euros à la société Ercom
spécialiste en simulation des réseaux mobiles 4G et en communications sécurisées. A l’automne 2011,
c’est Bull qui voyait revenir à son capital l’Etat (qui en était sorti en 2004) par l’intermédiaire du FSI
qui prenait un peu plus de 5% du capital. Le FSI est également présent depuis l’automne 2009 au
capital de Dailymotion, le petit français qui concurrence le service Youtube de Google. A noter que le
FSI a intégré la BPI en juillet 2013 et détient des participations dans une centaine de sociétés
françaises.
En Europe, les choses évoluent également. La nécessité d'orienter les politiques européennes vers
l'excellence, en vue de faciliter l'émergence de clusters de classe mondiale a été définie à travers la
communication de la Commission européenne « Vers des clusters de classe mondiale dans l'Union
européenne: mise en œuvre d'une stratégie d'innovation élargie » (17 octobre 2008) et les conclusions
du Conseil compétitivité adoptées sous la présidence française en 2008 (20 novembre 2008). Dans sa
communication « Une politique industrielle intégrée à l'ère de la mondialisation » du 28 octobre
2010, la Commission européenne a pris l’engagement de mettre en place une nouvelle stratégie
européenne dans le domaine des clusters.
4.1.2 Le Commissariat Général à la Stratégie et à la Prospective (CGSP) et les 34
Plans de reconquête industrielle
Le Centre d'analyse stratégique est remplacé le 8 janvier 2013 par le Commissariat Général à la
Stratégie et à la Prospective (CGSP). Dans son discours en présentant la feuille de route, le Président
de la République, François Hollande en précise l’objectif: « pas pour revenir à la planification, pour
prévoir les mutations de la France et du monde dans les 5, 10, 15 ans, non pas pour connaître ce qu’il
va se passer mais ce que nous devons faire en tant qu’Etat, en tant que nation pour nous mettre en
avant. »
Le CGSP se voit confier 5 missions:
1. Prospective ;
2. Stratégie ;
44 http://www.withings.com/fr
MS Marketing Management 2013-2013
37
3. Evaluation ;
4. Centre de ressources pour concertations et débat public ;
5. Comparaisons internationales et territoriales.
C’est le début d’une nouvelles séries d’initatives politiques en faveur du numérique.
Lancée le 12 septembre 2013, la dernière initiative gouvernementale en date, vise à déployer 34 plans
de reconquête industrielle qui fédéreront grands groupes et PME autour de priorités concrètes et
seront soutenus par l’État. Après dix ans de désindustrialisation, 750 000 emplois détruits et une
perte de 6 points de la part de l’industrie dans le PIB, le gouvernement cherche ainsi à mettre
l’industrie au cœur du redressement de l’économie française. Comme si on s’apercevait enfin « qu’il
n’y a pas de grande nation sans capacité industrielle »45.
Au côté de secteurs industriels traditionnels figurent des secteurs de pointe (nano-technologies,
logiciel embarqué…). Parmi ces 34 Plans, l’un est consacré au « Big Data », un autre au cloud
computing et un troisième aux objets connectés qui seront des grands producteurs de données dans
les années à venir. Mentionnons également la cybersécurité qui, sans surprise pour un tel catalogue,
est embarquée dans cette initiative.
Toutefois, malgré le renouveau des ambitions politiques, il faut rappeler que l’Europe et la France
sont dans une position tout à fait déséquilibrée par rapport aux Etats-Unis quant à l’ouverture
respective de leurs marchés, tout particulièrement leurs marchés publics. Cette situation risque à
nouveau de désavantager les initiatives des entreprises françaises.
4.1.3 Ouverture des marchés européens contre protectionnisme américain
Rappelons que les acteurs publics représentent une part importante du commerce mondial, de l'ordre
de 1 000 milliards d'Euros par an. Les produits et services achetés par les pouvoirs publics
représentent environ 17 % du PIB de l'Union européenne. Selon les estimations de la Commission
européenne, les marchés publics ont une incidence sur au moins 22 marchés clés de produits et de
services. Au total, le chiffre d'affaires des entreprises actives sur ces marchés pourrait dépasser 25 %
du PIB de l'Union européenne et représenter 31 millions d'emplois.
En septembre 2012 Nicole Bricq, Ministre française du Commerce extérieur, rappelait au Parlement
européen que « 90 % des marchés publics de l’Union européenne sont ouverts en toute transparence
aux pays tiers contre 32 % aux États-Unis, 28 % au Japon et 16 % au Canada ». Certains secteurs aux
Etats-Unis sont même fermés à 100%, c’est le cas des transports publics46.
45 http://www.gouvernement.fr
46 Rapport de la commission sénatoriale présidée par Monsieur Simon Sutour 6 novembre 2012
MS Marketing Management 2013-2013
38
Le principe de réciprocité contenu dans les accords du GATT dès 1947 est ainsi largement bafoué.
L'absence d'accès réciproque aux marchés publics pénalise gravement les entreprises européennes.
Elles subissent non seulement des restrictions d'accès aux marchés de pays tiers mais aussi la
concurrence déloyale d'entreprises qui, sur le marché européen, peuvent se permettre de
soumissionner sur le marché européen à des prix anormalement bas.
Nicole Bricq s’exprimait ainsi dans le Figaro du 5 octobre 2013 : «Les États-Unis sont très
protectionnistes. Comment se fait-il que les États-Unis, qui sont très protectionnistes, passent pour
un pays libre-échangiste ? L’ouverture des marchés publics est prioritaire». Selon la Commission
européenne, plus de 50 % des marchés publics susceptibles d'être mis en concurrence sont fermés par
des mesures protectionnistes. En outre, 25 % sont ouverts de facto mais peuvent être fermés à tout
moment. Les exportations inexploitées en raison de cette fermeture s'élèveraient à 12 milliards
d'Euros pour l'Union européenne.
Deux lois américaines déjà anciennes sont toujours en vigueur et avantagent clairement les
entreprises américaines pour les marchés publics américains. En 1933, le législateur américain réduit
les possibilités de recours à l’export grâce au Buy American Act. Ainsi, le texte impose aux sociétés qui
disposent d’un soutien fédéral de ne pas faire appel à un acteur économique étranger. Plus
précisément, pour les travaux d’infrastructures les achats d’aciers doivent être passés auprès de
fabricants américains. D’abord cantonné au secteur sidérurgique, le plan a été étendu à tous les
projets d’infrastructures. Là encore, application de la vision de puissance des Etats-Unis…
S’il est bien un acteur français échaudé, c’est Bull (voir chapitre sur le Plan Calcul). En 1989, Bull
acquiert Zenith Data Systems, constructeur américain de micro-ordinateurs PC. Destinée à prendre le
marché des micro-ordinateurs du gouvernement fédéral américain, cette opération onéreuse
s'adressa évidemment à d'autres fournisseurs en raison des lois américaines sur les marchés publics.
Cette erreur stratégique conduisit à la revente de ZDS à la société Packard Bell NEC en 1996.
Le Small Business Act, daté de 1953, vise à favoriser les PME américaines dans l’économie nationale
et réserve ainsi certains marchés publics aux PME :
- Ceux situés entre 2500 et 100 000 dollars ;
- Au-dessus de 100 000 dollars, quand il existe de très grandes chances qu’au moins deux PME
formulent une offre intéressante ;
- Si seules les grandes entreprises peuvent répondre à l’appel d’offres, les PME se voient attribuer
une réservation partielle du marché ;
- Les appels d’offres d’une valeur supérieure à 500 000 dollars remportés par une grande
entreprise doivent comporter un plan de sous-traitance montrant la part revenant aux PME.
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat
Ms marketing management 2013 2014   intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat

Contenu connexe

Tendances

Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...
Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...
Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...Agence productionstictag.com
 
Rapport d'activité 2013 - Renaissance Numérique
Rapport d'activité 2013 - Renaissance NumériqueRapport d'activité 2013 - Renaissance Numérique
Rapport d'activité 2013 - Renaissance NumériqueRenaissance Numérique
 
Rapport McKinsey Accelerer la mutation numerique des entreprises 2014
Rapport McKinsey Accelerer la mutation numerique des entreprises 2014Rapport McKinsey Accelerer la mutation numerique des entreprises 2014
Rapport McKinsey Accelerer la mutation numerique des entreprises 2014polenumerique33
 
Perspectives n°17 aout-septembre 2013 - athénéa conseils
Perspectives n°17   aout-septembre 2013 - athénéa conseilsPerspectives n°17   aout-septembre 2013 - athénéa conseils
Perspectives n°17 aout-septembre 2013 - athénéa conseilsYoann DUCUING
 
Collaboration et gestion des données et contenus dans la transformation digit...
Collaboration et gestion des données et contenus dans la transformation digit...Collaboration et gestion des données et contenus dans la transformation digit...
Collaboration et gestion des données et contenus dans la transformation digit...KnowledgeConsult
 
Chiffres clés du numérique - 2014
Chiffres clés du numérique - 2014Chiffres clés du numérique - 2014
Chiffres clés du numérique - 2014CEFAC
 
Menaces et opportunités de la transformation digitale
Menaces et opportunités de la transformation digitaleMenaces et opportunités de la transformation digitale
Menaces et opportunités de la transformation digitaleSébastien JEGOU
 
Quelques heures à San Francisco...
Quelques heures à San Francisco...Quelques heures à San Francisco...
Quelques heures à San Francisco...Stéphane Toullieux
 
La Transformation digitale : Histoire
La Transformation digitale : HistoireLa Transformation digitale : Histoire
La Transformation digitale : HistoireYoussef Belhaj HMC
 
Transformation numérique et marketing digital
Transformation numérique et marketing digitalTransformation numérique et marketing digital
Transformation numérique et marketing digitalDidier Chassaing
 
Big Data RenaissanceNumerique
Big Data RenaissanceNumeriqueBig Data RenaissanceNumerique
Big Data RenaissanceNumeriqueFanny Despouys
 
Retrospective numérique 2016 - Tendances 2017
Retrospective numérique 2016 - Tendances 2017Retrospective numérique 2016 - Tendances 2017
Retrospective numérique 2016 - Tendances 2017Frederic CAVAZZA
 
Central634_Dossier_completDV_001
Central634_Dossier_completDV_001Central634_Dossier_completDV_001
Central634_Dossier_completDV_001Bruno CAMBOUNET
 
[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...
[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...
[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...Institut G9+
 
Etude PwC/AFDEL/SNJV GSL 100 France (2014)
Etude PwC/AFDEL/SNJV GSL 100 France (2014)Etude PwC/AFDEL/SNJV GSL 100 France (2014)
Etude PwC/AFDEL/SNJV GSL 100 France (2014)PwC France
 
Livre blanc #G9plus : Big Data - l'accélérateur d'innovation
Livre blanc #G9plus : Big Data - l'accélérateur d'innovationLivre blanc #G9plus : Big Data - l'accélérateur d'innovation
Livre blanc #G9plus : Big Data - l'accélérateur d'innovationInstitut G9+
 
Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...
Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...
Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...polenumerique33
 
Digimind avril 2017- 50 agences françaises sur les réseaux sociaux
Digimind avril 2017- 50 agences françaises sur les réseaux sociauxDigimind avril 2017- 50 agences françaises sur les réseaux sociaux
Digimind avril 2017- 50 agences françaises sur les réseaux sociauxAmelle Nebia
 

Tendances (19)

Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...
Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...
Itw308 a 1+13_la_collaboration_entre_chefs_de_la_mise_en_marché_et_chefs_du_s...
 
Rapport d'activité 2013 - Renaissance Numérique
Rapport d'activité 2013 - Renaissance NumériqueRapport d'activité 2013 - Renaissance Numérique
Rapport d'activité 2013 - Renaissance Numérique
 
Rapport McKinsey Accelerer la mutation numerique des entreprises 2014
Rapport McKinsey Accelerer la mutation numerique des entreprises 2014Rapport McKinsey Accelerer la mutation numerique des entreprises 2014
Rapport McKinsey Accelerer la mutation numerique des entreprises 2014
 
Perspectives n°17 aout-septembre 2013 - athénéa conseils
Perspectives n°17   aout-septembre 2013 - athénéa conseilsPerspectives n°17   aout-septembre 2013 - athénéa conseils
Perspectives n°17 aout-septembre 2013 - athénéa conseils
 
Transformation Digitale
Transformation DigitaleTransformation Digitale
Transformation Digitale
 
Collaboration et gestion des données et contenus dans la transformation digit...
Collaboration et gestion des données et contenus dans la transformation digit...Collaboration et gestion des données et contenus dans la transformation digit...
Collaboration et gestion des données et contenus dans la transformation digit...
 
Chiffres clés du numérique - 2014
Chiffres clés du numérique - 2014Chiffres clés du numérique - 2014
Chiffres clés du numérique - 2014
 
Menaces et opportunités de la transformation digitale
Menaces et opportunités de la transformation digitaleMenaces et opportunités de la transformation digitale
Menaces et opportunités de la transformation digitale
 
Quelques heures à San Francisco...
Quelques heures à San Francisco...Quelques heures à San Francisco...
Quelques heures à San Francisco...
 
La Transformation digitale : Histoire
La Transformation digitale : HistoireLa Transformation digitale : Histoire
La Transformation digitale : Histoire
 
Transformation numérique et marketing digital
Transformation numérique et marketing digitalTransformation numérique et marketing digital
Transformation numérique et marketing digital
 
Big Data RenaissanceNumerique
Big Data RenaissanceNumeriqueBig Data RenaissanceNumerique
Big Data RenaissanceNumerique
 
Retrospective numérique 2016 - Tendances 2017
Retrospective numérique 2016 - Tendances 2017Retrospective numérique 2016 - Tendances 2017
Retrospective numérique 2016 - Tendances 2017
 
Central634_Dossier_completDV_001
Central634_Dossier_completDV_001Central634_Dossier_completDV_001
Central634_Dossier_completDV_001
 
[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...
[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...
[Livre blanc Institut g9+ V2] 2020 : Ou vont les industries francaises du num...
 
Etude PwC/AFDEL/SNJV GSL 100 France (2014)
Etude PwC/AFDEL/SNJV GSL 100 France (2014)Etude PwC/AFDEL/SNJV GSL 100 France (2014)
Etude PwC/AFDEL/SNJV GSL 100 France (2014)
 
Livre blanc #G9plus : Big Data - l'accélérateur d'innovation
Livre blanc #G9plus : Big Data - l'accélérateur d'innovationLivre blanc #G9plus : Big Data - l'accélérateur d'innovation
Livre blanc #G9plus : Big Data - l'accélérateur d'innovation
 
Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...
Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...
Baromètre de la transformation digitale - Les secrets des Super Héros du Digi...
 
Digimind avril 2017- 50 agences françaises sur les réseaux sociaux
Digimind avril 2017- 50 agences françaises sur les réseaux sociauxDigimind avril 2017- 50 agences françaises sur les réseaux sociaux
Digimind avril 2017- 50 agences françaises sur les réseaux sociaux
 

Similaire à Ms marketing management 2013 2014 intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat

Big data, l'accélération d'innovation
Big data, l'accélération d'innovationBig data, l'accélération d'innovation
Big data, l'accélération d'innovationLionel Martins
 
Livre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBGLivre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBGMargarita Zlatkova
 
Livre blanc big data écosystème français
Livre blanc big data écosystème françaisLivre blanc big data écosystème français
Livre blanc big data écosystème françaisMatthias Fille
 
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-31-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3Georgios Fradelos
 
Big data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBig data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBruno Patin
 
20150604 AFDIT Conf A Meillassoux BIG DATA VF
20150604 AFDIT Conf A Meillassoux BIG DATA VF20150604 AFDIT Conf A Meillassoux BIG DATA VF
20150604 AFDIT Conf A Meillassoux BIG DATA VFAndre Meillassoux
 
LIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big DataLIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big DataInetum
 
Makazi livre-blanc-du-data-marketing-fr
Makazi livre-blanc-du-data-marketing-frMakazi livre-blanc-du-data-marketing-fr
Makazi livre-blanc-du-data-marketing-frfranck camby
 
La révolution du Big data
La révolution du Big dataLa révolution du Big data
La révolution du Big dataAloïs Kirner
 
La valeur des Big Data sera dans leurs usages
La valeur des Big Data sera dans leurs usagesLa valeur des Big Data sera dans leurs usages
La valeur des Big Data sera dans leurs usagesSAS FRANCE
 
Etude AKOYA Big Data
Etude AKOYA Big DataEtude AKOYA Big Data
Etude AKOYA Big DataJocelyn Muret
 
Le marketing digital.pdf book
Le marketing digital.pdf bookLe marketing digital.pdf book
Le marketing digital.pdf bookFethi Ferhane
 
Restitutions des Projets de Veille 2015
Restitutions des Projets de Veille 2015Restitutions des Projets de Veille 2015
Restitutions des Projets de Veille 2015Web School Factory
 

Similaire à Ms marketing management 2013 2014 intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat (20)

2014-12-16-G9plus-LB-Big-Data
2014-12-16-G9plus-LB-Big-Data2014-12-16-G9plus-LB-Big-Data
2014-12-16-G9plus-LB-Big-Data
 
Big data, l'accélération d'innovation
Big data, l'accélération d'innovationBig data, l'accélération d'innovation
Big data, l'accélération d'innovation
 
MAGCOM n°4
MAGCOM n°4MAGCOM n°4
MAGCOM n°4
 
Livre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBGLivre blanc "Big Data" de l'EBG
Livre blanc "Big Data" de l'EBG
 
Livre blanc big data écosystème français
Livre blanc big data écosystème françaisLivre blanc big data écosystème français
Livre blanc big data écosystème français
 
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-31-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
1-2-Economie-Georgios Fradelos Big Data et évolution des Big Data-3
 
Big data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiersBig data : Défi, enjeux et impacts métiers
Big data : Défi, enjeux et impacts métiers
 
2168 bn
2168 bn2168 bn
2168 bn
 
2168 bn
2168 bn2168 bn
2168 bn
 
20150604 AFDIT Conf A Meillassoux BIG DATA VF
20150604 AFDIT Conf A Meillassoux BIG DATA VF20150604 AFDIT Conf A Meillassoux BIG DATA VF
20150604 AFDIT Conf A Meillassoux BIG DATA VF
 
LIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big DataLIVRE BLANC - Les vrais chiffres du Big Data
LIVRE BLANC - Les vrais chiffres du Big Data
 
Makazi livre-blanc-du-data-marketing-fr
Makazi livre-blanc-du-data-marketing-frMakazi livre-blanc-du-data-marketing-fr
Makazi livre-blanc-du-data-marketing-fr
 
La révolution du Big data
La révolution du Big dataLa révolution du Big data
La révolution du Big data
 
2170 bn
2170 bn2170 bn
2170 bn
 
2170 bn
2170 bn2170 bn
2170 bn
 
La valeur des Big Data sera dans leurs usages
La valeur des Big Data sera dans leurs usagesLa valeur des Big Data sera dans leurs usages
La valeur des Big Data sera dans leurs usages
 
Etude AKOYA Big Data
Etude AKOYA Big DataEtude AKOYA Big Data
Etude AKOYA Big Data
 
Le marketing digital.pdf book
Le marketing digital.pdf bookLe marketing digital.pdf book
Le marketing digital.pdf book
 
Restitutions des Projets de Veille 2015
Restitutions des Projets de Veille 2015Restitutions des Projets de Veille 2015
Restitutions des Projets de Veille 2015
 
PdfHandler
PdfHandlerPdfHandler
PdfHandler
 

Ms marketing management 2013 2014 intelligence économique -comment la france a-t-elle raté lenjeu du big data_bat

  • 1. MS Marketing Management 2013-2013 1 Comment la France a-t-elle raté l’enjeu du « Big Data » ? 15 décembre 2013 Auteurs : Frédéric Decazy Emilie Freulon Younes Khedji Anne Letellier Emmanuel Revol
  • 2. MS Marketing Management 2013-2013 2 EXECUTIVE SUMMARY Le « Big Data » est un sujet tendance dont tout le monde parle. On ne compte plus les congrès, séminaires, et autres réunions professionnelles qui lui ont été consacrés en 2013. Cette expression désigne l’avalanche de données produites par les entreprises et les particuliers dans leur vie digitale : du e-commerce aux multiples interactions sur les réseaux sociaux jusqu’aux objets connectés qui capturent des données et les transmettent sur le web. Selon IBM, 90% des données stockées dans le monde ont été produites au cours des seules deux dernières années. Longtemps demeuré un sujet réservé aux professionnels avertis, le « Big Data » est arrivé avec fracas sur la place publique à l’été 2013 au gré des révélations de l’affaire Snowden. Le raccourci était alors rapidement établi dans l’esprit du grand public entre « Big Data » et « Big Brother », personnifié par « l’ami américain » si curieux des données échangées sur les réseaux. Derrière les polémiques sur le viol de données personnelles au motif d’une cybersécurité rendue indispensable par les menaces pesant sur la nation américaine, on a vu rapidement apparaître l’avantage compétitif déterminant que peut représenter cette pratique dans une autre guerre, économique cette fois-ci. Il est incontestable que le « Big Data » est une source considérable de création de richesse, que ce soit pour l’amélioration de bon nombre de processus et de services existants dans les entreprises, ou pour l’émergence de nouveaux business models prometteurs. L’essor du « Big Data » cristallise la puissance de quelques grandes entreprises, américaines tout particulièrement, venant rivaliser avec les États sur certains de leurs domaines réservés (éducation, fiscalité…). La France qui peinait à rattraper son retard sur les Etats-Unis en termes d’industrie informatique et de bases de données dans les années 60 et 80 ; qui abordait les autoroutes de l’information dans les années 80 et 90 par les usages qu’elles allaient permettre, tandis que les Américains s’intéressaient à la compréhension et à l’utilisation des informations qu’elles allaient transmettre, cette France s’est vue distancée de façon spectaculaire par les « GAFA » (Google, Amazon, Facebook, Apple et autres Twitter) pour la récolte et la valorisation des données produites par les utilisateurs. La France a-t-elle raté l’enjeu du « Big Data" ? Certainement si l’on considère la puissance des « GAFA ». Certainement également si l’on considère la capacité des Etats-Unis à valoriser au plan économique leurs gigantesques investissements en matière de cybersécurité. Pour autant, la valeur du « Big Data » c’est aussi la capacité à valoriser les données et surtout à leurs donner du sens. La France l’a, enfin !, bien compris et peut s’appuyer sur un réseau d’ingénieurs et d’entrepreneurs de talents pour envisager de devenir la nation des start-up numériques en Europe à condition que soient adressées énergiquement les problématiques de financement des jeunes entreprises, de fiscalité, d’attractivité de la marque « France » et que les initiatives des pouvoirs publics aient de la persistance au-delà des alternances politiques.
  • 3. MS Marketing Management 2013-2013 3 EXECUTIVE SUMMARY "Big Data" is a trendy subject that everyone is talking about. There are countless conferences, seminars and other professional meetings which have been dedicated to it in 2013. This expression refers to the avalanche of data produced by companies and individuals in their digital life: to the e- commerce which multiple interactions on the social networks up to the connected objects which capture data and transmit them on the Web. According to IBM, 90 % of the stored data in the world were produced in the last two years. For a long time remained a subject reserved for the informed professionals, "Big Data" has arrived with crash in public in summer 2013 according to the revelations of the Snowden case. The shortcut was quickly established in the public mind between "Big Data " and "Big Brother ", personified by “the American friend” so curious about data exchanged over networks. Behind the debate on the rape of personal data on the grounds that cybersecurity made essential by the threats pressing on the American nation, we quickly saw appearing the decisive competitive advantage that can represent this practice in another war, economic this time. It is indisputable that "Big Data" is a considerable source of value creation, whether for the improvement of numbers of processes and existing services in companies, or for the emergence of new promising business models. The rise of "Big Data" crystallizes the power of a few major companies, especially American, coming to compete with states on some of their reserved domains (education, tax system…). France which was struggling to catch up on the United States in terms of IT industry and databases in the 60s and 80s; which addressed the superhighways information in the 80s and 90s by the uses that they would allow, whereas the Americans were interested in understanding and using the information they would convey, this France saw itself outstripped in a spectacular way by the "GAFA" (Google, Amazon, Facebook, Apple and others Twitter) for collecting and increasing the value of the data produced by users. Has France missed the challenge of “Big Data”? Certainly if we consider the power of the "GAFA". And also if we consider the capacity of the United States to value, economically, their huge investments in cybersecurity. However, the value of "Big Data" it is also the capacity to value the data and especially to give them meaning. Finally, France has understood this stake and can rely on a network of engineers and talented entrepreneurs to intend to become the nation of the digital start- ups in Europe provided that some major issues are solved like the financing of the young companies, the tax system, the brand attractiveness of France and that the initiatives of public authorities have persistence beyond political turns.
  • 4. MS Marketing Management 2013-2013 4 Table des matières Introduction .............................................................................................................4 1. Qu'est-ce que le « Big Data »? ..................................................................................... 7 1.1 D’où viennent les données ? ...............................................................................................................................7 1.2 Qu’est ce qui caractérise le « Big Data»? .......................................................................................................... 8 1.3 Un processus similaire à la transformation du pétrole brut .............................................................................9 1.3.1 Génération, récolte et acheminement des données .................................................................................10 1.3.2 Stockage des données................................................................................................................................. 11 1.3.3 Raffinage et traitement des données.........................................................................................................12 2. Le potentiel et les défis du « Big Data » .................................................................... 12 2.1 Un nouveau levier de compétitivité stratégique pour les entreprises ............................................................12 2.1. 1 Améliorer et diversifier les services ..........................................................................................................13 2.1.2. Le « Big Data » marketing ........................................................................................................................15 2.1.3 De nouveaux enjeux de sécurité ...............................................................................................................16 2.2 Une opportunité pour améliorer l’efficacité des Etats ........................................................................................ 17 2.3 L’enjeu de la cybersécurité et de la défense....................................................................................................19 2.4 De "Big data" à "Big Brother" ? ...................................................................................................................... 20 3. L'échec de l'ambition informatique de la France ................................................................. 21 3.1 Le système Mars: les prémices d’un “Big Data” à la française ? ................................................................... 22 3.1.1 La Copep.................................................................................................................................................... 22 3.1.2 Le système Mars ....................................................................................................................................... 24 3.1.3 Les forces opposées au système Mars : entreprises, administrations, Insee et pouvoirs politiques ....25 3.2 Le Plan calcul .................................................................................................................................................. 26 3.2.1 La genèse du plan calcul........................................................................................................................... 26 3.2.2 L'échec de la tentative européenne ..........................................................................................................27 3.2.3 L'après Plan Calcul....................................................................................................................................31 3.2.4 La vision américainne des autoroutes de l’information et de l’enjeu de puissance ............................. 32 3.3 Du Commissariat Général au Plan au Centre d'Analyse Stratégique .......................................................... 33 4. La France peut-elle devenir un pôle d’expertise du "Big Data" ? ......................................... 34 4.1 De nouvelles ambitions politiques en France et en Europe......................................................................... 34 4.1.1 Les pôles de compétitivité, les investissements d'avenir et les appels à projets .................................. 36 4.1.2 Le Commissariat Général à la Stratégie et à la Prospective ................................................................... 36 4.1.3 Ouverture des marchés européens contre protectionnisme américain.................................................37 4.2 Des atouts non négligables ........................................................................................................................... 39 4.2.1 La qualité des ingénieurs français ........................................................................................................... 39 4.2.2 Le dynamisme des start-up françaises................................................................................................... 40
  • 5. MS Marketing Management 2013-2013 5 4.3 Comment faire de la France la nation des start-up numériques en Europe ?............................................ 43 4.3.1 Favoriser le financement......................................................................................................................... 43 4.3.2 Façonner un cadre juridique propre à l’innovation ..............................................................................45 4.3.3 La fiscalité 3.0 ......................................................................................................................................... 48 Conclusion ............................................................................................................................................................... 49 Remerciements ...................................................................................................................................................... 50 Bibliographie............................................................................................................................................................51 Glossaire des abréviations...................................................................................................................................53 Liste des tableaux et illustrations......................................................................................................................54
  • 6. MS Marketing Management 2013-2013 6 INTRODUCTION Le « Big Data » est un sujet tendance dont tout le monde parle. On ne compte plus les congrès, séminaires, et autres réunions professionnelles qui lui ont été consacrés en 2013. Après avoir défini ce que recouvre le terme « Big Data », nous parcourrons un certain nombre d’exemples pour montrer la fabuleuse création de valeur que cela représente, tant dans l’amélioration considérable de processus et services existants dans les domaines marchands et non marchands, que dans l’émergence de nouveaux services et business models prometteurs. Nous mettrons ainsi en lumière les enjeux de puissance que recouvre « Big data ». Après avoir fait le constat de la suprématie écrasante de quelques entreprises américaines, connues sous l’acronyme « GAFA » (Google, Amazon, Facebook, Apple et autres Twitter), sur certains maillons de la chaîne de valeur, nous ferons un détour par l’histoire de l’informatique en France au cours de la deuxième moitié du 20ème siècle, puis nous tenterons de dater la prise de conscience, bien récente, des enjeux du « Big Data » par les pouvoirs publics français. Enfin nous identifierons les leviers d’actions qui pourraient permettre à la France de revenir dans la compétition, tout au moins, sur certains domaines de la chaîne de valeur.
  • 7. MS Marketing Management 2013-2013 7 1. Qu’est-ce que le « Big Data » Les « Big Data »1, littéralement « les grosses données », est une expression anglophone utilisée pour désigner des ensembles de données qui deviennent tellement volumineux qu'il est très difficile d’arriver à travailler avec des outils classiques de gestion de base de données ou de gestion de l'information. L’unité de référence de la donnée numérique est le bit (byte), 8 bits correspondant à 1 octet. La figure n°1 ci-dessous, extraite du magazine international du CNRS, permet d’apprécier les différents ordres de grandeur des données numériques. Le CNRS estime l’univers digital mondial en 2012 autour de 2,7 zettabytes, l’estimation donnée pour 2020 est de l’ordre de 35 zettabytes. C’est une croissance exponentielle avec un volume qui double chaque année. Selon IBM, près de 90% des données dans le monde ont été créées au cours des deux dernières années2…Un véritable déluge de données incessant. Fig n°1 : Echelle comparative de mesure des données numériques3 1.1 D’où viennent les données ? La notion de « Big Data » fait référence à la donnée numérique que chacun d’entre nous produit tant dans un cadre professionnel que personnel via l’utilisation d’internet, de systèmes RFID, de mobile ou de machines connectées. Chaque jour, 2,5 trillions d'octets de données sont ainsi générés dans le monde : les entreprises, les services publics, les citoyens sont tous créateurs/producteurs de données numériques et les champs des applications sont vastes. On peut citer de nombreux exemples : l’utilisation d’un smartphone, le recours au cloud à titre personnel ou professionnel, l’utilisation des réseaux sociaux, la mise en ligne de vidéos et de photos 1 Brasseur C. (2013), Enjeux et usages du big data. Technologies, méthodes et mises en oeuvre, Paris, Lavoisier, p. 30. 2 http://www-01.ibm.com/software/data/bigdata/what-is-big-data.html 3 Schémas extrait du magazine trimestriel du CNRS Janvier 2013, BIG DATA REVOLUTION - p.22
  • 8. MS Marketing Management 2013-2013 8 numériques. A chaque minute, en moyenne, 350 000 tweets et quinze millions de SMS sont envoyés au niveau mondial. Twitter génère à l’heure actuelle 7 teraoctets de données chaque jour et Facebook 10 teraoctets. On peut également citer : l’activation du GPS ou d’applications faisant appel à l’utilisation de solution GPS ou encore les données commerciales (au travers de l’historique des transactions monétaires d’une entreprise). L’astronomie, la physique, la subatomique, la climatologie, la génomique sont autant de domaines scientifiques qui génèrent de colossaux volumes de données numériques. Les dossiers médicaux de chacun d’entre nous sont aujourd’hui numérisés sans oublier l’ensemble données publiques (impôts, papiers d’identité,…). La liste semble infinie. 1.2 Qu’est ce qui caractérise le « Big Data » ? La génération de données numériques existe déjà depuis plusieurs décennies, alors pourquoi les données sont-elles désormais labellisées « Big Data » ? Qu’est ce qui caractérise spécifiquement ces données ? La définition structurelle du Big Data trouve son origine dans un rapport de Meta Group du 6 février 20014. Un ensemble de données numériques est considéré comme du « Big Data » dès lors que 3 conditions, les « 3V », sont réunies : - Le Volume : la masse de données est conséquente (de l’ordre du téra-, du péta-, voire de l’exa- octet) ; - La Variété : les données sont de natures très variées (photos, vidéos, logs, mails, tweets,…) ; - La Vélocité : la vitesse de traitement des données est accélérée pouvant même aller jusqu’au temps réel. Il est même possible de ne plus stocker les informations, mais de les analyser en flux (streaming). Fig n°2 : Les « 3V » du Big Data5 4 Meta Group Doug Laney (6 février 2001) Application Delivery Strategies File 949 5 Schéma extrait de l’étude du cabinet Gartner “Big Data' Is Only the Beginning of Extreme Information Management”, 07 April 2011
  • 9. MS Marketing Management 2013-2013 9 Un quatrième « V » fait son apparition dans les débats relatifs au « Big Data » : « La Valeur ». 6 Selon Mouloud Dey, directeur des solutions émergentes chez SAS France7, l’enjeu actuel du « Big Data », c’est le passage de la donnée brute à la donnée valorisée. Ce changement d’état renvoie aux définitions statistiques des données. Toute variable contient une part d’information exploitable et une part inexploitable appelée bruit. Toute variable est dite non structurée et le devient dès lors que la part d’information est isolée. Le « Big Data », c’est donc aussi un ensemble de nouvelles technologies et méthodes d’analyse qui permettent de traiter et transformer rapidement d’énormes volumes de données non structurées. 1.3 Un processus similaire à la transformation du pétrole brut Pour Stéphane Grumbach, Directeur de recherche à l'Inria, ancien conseiller scientifique à l’ambassade de France en Chine, le « Big Data » est le nouvel or noir du siècle. En effet, lorsque les « 4 V » sont mis bout à bout, le processus de traitement et de transformation en valeur ajoutée des ensembles « Big Data » est similaire à celui du pétrole brut. La chaîne de valeur est la suivante: 1. Génération des données ; 2. Récolte ; 3. Stockage (centre de données,…) ; 4. Raffinage (isolement de la partie informative des datas, transformation en données structurées) ; 5. Valorisation (intelligence logicielle – mise en forme des données structurées et la restitution). Fig n°3: Data, raw material of the 21 st century 8 6 A ces quatre « V » s’ajoute souvent un cinquième, « La Véracité » qui fait référence à la qualité des données. 7 SAS est une entreprise française spécialisée dans les solutions de Business Analytics. 8 Présentation de Stéphane Grumbach - Directeur de recherche at INRIA et ancien conseiller à l’ambassade de France en Chine - Seminar for the Council of the European Union
  • 10. MS Marketing Management 2013-2013 10 La création de données de nos jours consiste donc à gérer un déluge de données non structurées qu’il convient d’extraire, d’acheminer, de stocker, de raffiner afin d’obtenir et d’utiliser une nouvelle information. Chacune des phases est donc importante. 1.3.1 Génération, récolte et acheminement des données Le développement des réseaux cuivrés, fibrés, 4G voire 5G permet de répondre à la demande sans cesse croissante de bande passante pour générer de la donnée. Dans ce domaine, la suprématie des USA dans le monde est indéniable avec ses acteurs tels Facebook, Google, Microsoft, Amazon, et Twitter. Mais certains pays restent hermétiques à l’intrusion de ces outils américains sur leur sol : la Chine a créé son propre environnement spécifique tout comme l’Iran. L’omniprésence du moteur de recherche de Google dans le monde est sans commune mesure. Depuis 1998, sa popularité accroît sa position monopolistique ; il capte pratiquement toutes les demandes. Il y a quelques exceptions : en Russie, le premier moteur de recherche privé, c’est Yandex (avec un peu plus de 60% du marché), derrière, il y a bien entendu Google mais le pays de Vladimir Poutine aimerait également se doter un moteur national baptisé Spoutnik. En Chine, Baidu représente 5,4 % des recherches mensuelles mondiales, mais représente 73 % du marché chinois en 2011 (450 millions d'internautes). En France, le moteur de recherche Exalead lancé en juin 2010 ne parvient pas à concurrencer Google. Il faut dire que, dans sa logique de récolte de cette matière première, Google se propose de stocker gratuitement les données en proposant aux acteurs de s’affranchir des coûts d’investissements. L’entreprise américaine s’est constituée ainsi un monopole de la donnée lui permettant toute liberté dans la fixation des conditions économiques d’accès aux données. Le tableau ci-après montre le poids des moteurs de recherche dans plusieurs pays : Pays Moteur de recherche principal Moteur de recherche secondaire USA Google 65% Bing 33% / Yahoo 32% Chine Baidu 73% Google 16% Russie Yandex 60% Google 25% UK Google 91% Bing 5% France Google 92% Bing 3% Fig n°4 : Poids des moteurs de recherche9 9 www.search-engine-feng-shui.com – blog spécialisé dans le Search Engine Optimisation
  • 11. MS Marketing Management 2013-2013 11 Le constat est le même lorsque l’on s’intéresse aux réseaux sociaux dans le monde : là encore Facebook, entreprise américaine, récolte l’ensemble de la matière première. Tous les 6 mois Vincenzo Cosenza (Social Media Strategist Blogmeter10) compare l’importance des réseaux sociaux dans le monde. Fig n°5 : The World Map of Social Networks A elles deux, Google et Facebook ont la main mise sur plus des 2/3 de la récolte et du stockage des données. Cela signifie que plus des 2/3 de l’information mondiale transitent par leurs infrastructures. 1.3.2 Stockage des données Les capacités de stockage et le mode de stockage sont deux points en constante évolution. Les « Data Centers » (centres d’hébergement des données) sont de plus en plus nombreux et régulièrement mis à jour pour absorber plus d’espace de stockage. Ils fonctionnent à l’électricité 24h/7j et sont placés dans des régions froides du globe car ils sont énergivores et le froid offre un moyen de réguler la température des centres sans avoir recours à des climatiseurs eux-mêmes consommateurs d’électricité. Fig n°6 : Evolutions des capacités de stockage mondiales11 10 http://www.blogmeter.it/ 11 Le monde -Mardi 8 janvier 2013 – Les données, puissance du futur – Stéphane Grumbach, Stéphane Frénot
  • 12. MS Marketing Management 2013-2013 12 L’enjeu sur le stockage est de trouver la manière avec laquelle les données protéiformes vont être encodées de sorte que plusieurs décennies plus tard, elles puissent être réutilisées sans perte d’informations et de contenus. En France, le pionnier de l’archivage est le CNES (Centre National d’études spatiales)12. 1.3.3 Raffinage et traitement des données La difficulté du traitement réside dans le fait d’analyser un ensemble de données d’une diversité extrême. La quantité de données à traiter nécessite de nouveaux modes d’analyse car un ensemble peut-être traité soit dans son intégralité dans un seul et même serveur (solution très onéreuse), soit en utilisant plusieurs serveurs. De nouveaux logiciels, capables de traiter de gigantesques volumes de données structurées et non structurées, ont donc vu le jour. Google s’est lancé dans le traitement en 2004 avec la programmation de Map Reduce avant de lancer BigTable. A présent, la société Apache a développé un code source en libre accès appelé Open data ce qui a permis l’apparition de nouveaux entrants : Amazon (Dynamo, S3), Yahoo! (Hadoop, S4), Facebook (Cassandra, Hive), Twitter (Storm, FlockDB), LinkedIn (Kafka, SenseiDB, Voldemort), LiveJournal (Memcached), etc. Aujourd’hui le nouvel enjeu, c’est donc le traitement analytique de la donnée car la transformation des ensembles de données en outils business et décisionnels, par ou pour les entreprises et les États, offre d’innombrables possibilités. 2. Le potentiel et les défis du « Big Data » Comme nous venons de le voir dans la première partie de rapport, le nombre de données ne cesse de croître et les outils qui permettent de les analyser se perfectionnent. Google Analytics propose par exemple aux entreprises d’améliorer la conception de leur site internet par l’analyse des visites des internautes. La révolution « Big Data » est en marche et a un impact sur des domaines très variés : le marketing et le commerce, les transports, la sécurité, les sciences et la santé ou encore la culture et l’éducation,….Cette situation offre de nouvelles possibilités pour les États comme pour les entreprises mais elle crée aussi de nouveaux besoins et donc de nouveaux risques. 2.1 Un nouveau levier de compétitivité stratégique pour les entreprises En tirant parti du « Big Data », les entreprises peuvent renforcer leur efficacité opérationnelle (gestion des stocks, amélioration des circuits de distribution,…), réduire leurs coûts d'infrastructure informatique et de gestion des données mais surtout proposer de nouveaux services et mieux gérer le 12 http://www.cnes.fr/web/CNES-fr/6919-cnes-tout-sur-l-espace.php
  • 13. MS Marketing Management 2013-2013 13 marketing et la relation client…Une aubaine en période de crise et de concurrence accrue et mondialisée. Fig n°7: Big Data can generate significant financial value across sectors13 2.1. 1 Améliorer et diversifier les services Dans son étude « Big Data, the next frontier for innovation, competition and productivity » publiée en 2011, le cabinet McKinsey&Company considère que les secteurs du numérique, l’immobilier et les systèmes de santé sont les secteurs privés qui ont le plus à gagner avec le « Big Data » : 13 McKinsey Global Institute analysis
  • 14. MS Marketing Management 2013-2013 14 Fig n°8: Some sectors are positioned for greater gains from the use of big data Dans le domaine de la santé, il est possible de mieux prévenir certaines maladies ou épidémies et ainsi d’améliorer le traitement des patients. En analysant les recherches des internautes sur Google, une équipe médicale est parvenue à détecter plus rapidement l’arrivée des épidémies de grippe14 et à mettre en place un modèle prédictif de propagation de l’épidémie, quasi en temps réel. Au Canada, en analysant en temps réel les informations sur l’état de santé de bébés prématurés avec un logiciel d’aide au diagnostic, des infections ont pu être détectées vingt-quatre heures avant la manifestation de symptômes visibles15. Les équipes médicales ont désormais des données sur nos habitudes de vie, nos comportements et peuvent les mettre en relation pour en tirer une analyse précise des risques potentiels auxquels nous sommes exposés. La recherche médicale est aussi concernée : le projet BrainSCANR (Brain Systems, Connections, Associations, and Network Relationships) qui a été initié par deux chercheurs de l'Université de San Francisco, a abouti (grâce à la création d’une base de 3,5 millions de résumés d'articles scientifiques) à la fabrication d’un logiciel qui fait automatiquement un lien entre une partie du cerveau et une maladie. L’apparition d’un lien entre "migraine" et "stratium"16 a ainsi été mis à jour et a permis de lancer de nouvelles recherches sur le traitement de la migraine. Dans le domaine des transports, les entreprises peuvent proposer de nouvelles solutions innovantes pour la gestion du trafic mais aussi pour la gestion des risques propres par exemple au transport aérien (organismes de maintenance, surveillance des aéroports…). La société française Safety Line17 14 Ginsberg J. et al. ( 2009), “Detecting influenza epidemics using search engine query data”, Nature, n° 457, p. 1012-1014 15 Mayer-Schönberger V. et Cukier K. (2013), Big Data. A Revolution That Will Transform How We Live, Work, and Think, Boston, New York, Eamon Dolan, Houghton Mifflin Harcourt, p. 60 16 En neuroanatomie, le striatum est une structure nerveuse subcorticale (sous le cortex). (http://fr.wikipedia.org/wiki/Striatum) 17 http://www.safety-line.fr/index.php/fr/
  • 15. MS Marketing Management 2013-2013 15 modélise les risques à partir des données de vol pour fournir des indicateurs de sécurité quantitatifs et objectifs grâce à son équipe de chercheurs en mathématiques et d’experts en sécurité aérienne. Autre exemple, la société Green Bureau18 propose une solution totalement intégrée pour la gestion des factures et du budget pour le grand public. En proposant une numérisation, une indexation et un stockage facilité de tous les documents, l’utilisateur peut aller vers une gestion numérique de ses papiers en bénéficiant d’une palette de services tels que le pointage de relevé bancaire, l’analyse du budget, avec un unique identifiant. Le « Big data » représente donc un véritable enjeu économique car il permet d’adapter des services existants et d’en développer de nouveaux qui offrent des débouchés supplémentaires aux entreprises en temps de crise. L’enjeu est de taille, d’où l’importance des investissements réalisés par le secteur privé dans le monde. Selon une enquête internationale réalisée en 2012-2013 auprès de 1 217 entreprises ayant un chiffre d’affaires supérieur à 1 milliard USD (759,6 millions d’Euros), 643 entreprises ont eu une stratégie « Big Data » en 2012 ; parmi celles-ci, 7 % ont investi au moins 500 millions USD (379,8 millions d’Euros) et 15 % au moins 100 millions (75,9 millions d’Euros)19. 2.1.2. Le « Big Data » marketing L’autre révolution du « Big Data », c’est que désormais les entreprises peuvent mieux écouter les consommateurs, mieux comprendre leurs comportements et s’adapter à leurs attentes…. Internet et le digital ont ouvert le champ d'expression des consommateurs et leur ont donné un rôle plus important via les réseaux sociaux. Aujourd’hui, les entreprises qui sont capables d’utiliser et d’analyser les données ont un véritable avantage concurrentiel pour: - pousser des offres et des tarifs en fonction du client et des points de ventes (boutiques, web,…), - adapter la distribution à des comportements de plus en plus infidèles et volatiles, - optimiser les investissements en fonction de la segmentation clients, - personnaliser la relation et les actions clients. La distribution est en pointe dans ce domaine : Amazon a été un pionnier avec son moteur de recommandations qui lui permet de tirer profit des millions de recherches de ses clients. Au Royaume-Uni, le géant de la distribution Tesco, avec ses 16 millions de clients en possession de sa carte de fidélité, s'est mis très tôt à utiliser les historiques d'achat et à croiser les données notamment avec la météo pour cibler les promotions et ajuster ses têtes de gondole. Une hausse de 10 degrés et il 18 https://greenbureau.fr/ 19 Tata Consultancy Service (2013), The Emerging Big Returns on Big Data. A TCS 2013 Global Trend Study. http://www.lesechos-conferences.fr/data/classes/produit_partenaire/fichier_5183_540.pdf.
  • 16. MS Marketing Management 2013-2013 16 augmente de 300 % la quantité de viande de barbecue mise en vente ou plutôt les rayons de sandwiches en centre-ville. Dans le domaine du sport, on peut citer l’exemple de l’équipe de baseball des Giants de San Francisco, championne de la ligue nationale, qui a mis en place une tarification dynamique permettant de modifier le prix des billets en fonction de la demande, et ce, jusqu'à la dernière minute. L'idée étant d'adapter les tarifs à la demande pour éviter la mévente et mieux exploiter les phénomènes d'enchères (qui profitent plutôt au marché noir). Cette tarification dynamique a permis une augmentation du chiffre d'affaires du club de 6 % en 201020. Ces exemples démontrent que l’analyse des flux de d’information ne peut pas se faire sans le recours à des algorithmes puissants et complexes. Tout l’enjeu réside donc dans la capacité des entreprises à analyser et extraire la partie informative des données pour ajuster leur politique commerciale. Les entreprises qui auront recours à ces technologies se verront attribuer des positions dominantes sur les marchés. 2.1.3 De nouveaux enjeux de sécurité L’enjeu du « Big Data » est important pour les entreprises mais la possibilité d’accéder, d’utiliser et de conserver des données stratégiques pose aussi un enjeu de sécurité qui concerne : - La confidentialité des données ; - L’identification, la localisation et la classification des données les plus sensibles ; - La mise en place de modèles d’accès sécurisés tant pour les données que pour les analyses. L’évolution des problématiques liées au stockage des données illustre bien les évolutions auxquelles les entreprises doivent s’adapter. Le stockage de données s’est longtemps fait de manière « passive », sauvegarder ces données numériques sur un support de stockage est devenue une chose banale. Cependant, la question de la durée de vie des modes de stockage revient sur le devant de la scène y compris pour les technologies de pointe comme par exemple le stockage sur verre qui ne supporte pas le vieillissement. Désormais, les chercheurs envisagent une autre solution des plus originales : utiliser l’ADN21 pour stocker des données (en théorie, quelques grammes d'ADN pourraient contenir pendant des milliers d'années les informations contenues dans plusieurs milliers de gros disques). Mais en attendant de pouvoir enregistrer des données sur un corps humain et ainsi transférer des Teraoctets de données de manière sécurisée, le stockage doit être fait de façon « active » : il faut documenter les données numériques comme tout bon archiviste, les protéger du temps et des attaques et conserver les logiciels qui permettent de les lire. Le cloud sensé résoudre cette situation 20 “Data Analysis Is Creating New Business Opportunities” MIT review By Lee Gomes on May 2, 2011 21 http://www.lefigaro.fr/sciences/2013/01/25/01008-20130125ARTFIG00639-l-adn-disque-dur-du-futur.php
  • 17. MS Marketing Management 2013-2013 17 pose lui aussi de nouveaux problèmes car le propriétaire des données en perd le contrôle et doit donc avoir entièrement confiance dans le prestataire qui lui garantit en principe le respect de la confidentialité et la pérennité des données stockées. La question du stockage se pose aussi pour les États, d’où le développement de supercalculateurs. Dans ce domaine, la Chine avec Le Tianhe-2 fait la course en tête et dépasse les capacités de Titan, le supercalculateur du département de l'énergie américain. En France, on trouve ce type de machines dans les centres nationaux de calculs universitaire tels que l’IDRIS mais aussi dans certaines grandes entreprises (Total, EDF ou encore Météo-France). Selon une étude publiée en 2013 par le cabinet PwC, les cyberattaques sont plus redoutées par les dirigeants d’entreprises que l’éclatement de la zone Euro ou les catastrophes naturelles22. En 2012, 27% des dirigeants interrogés en France affirment avoir connu plus de 10 incidents de sécurité l’an passé, contre 21% en 2011. Cette enquête révèle également la difficulté des entreprises à gérer l’utilisation de leurs données. Si 80% des directeurs de sécurité interrogés affirment que la protection des données de leurs clients et de leurs salariés est un enjeu important, ils ne sont que 23% en France à savoir exactement où les données personnelles de leurs clients et collaborateurs sont collectées, transmises et stockées. Ce décalage est d’autant plus risqué que 73% des consommateurs interrogés affirment être prêts à partager des informations personnelles avec des entreprises mais 87% souhaitent contrôler la quantité d’information partagée. Les entreprises françaises doivent donc réfléchir rapidement aux moyens de protéger leurs données et leurs analyses de la concurrence et du piratage. 2.2 Une opportunité pour améliorer l’efficacité des Etats Le « Big Data » est aussi un enjeu pour le secteur public et en particulier pour l’administration et les domaines qui relèvent, en France, de l’État (éducation, sécurité, justice, culture…). Par exemple, le développement de l’éducation en ligne permet de mettre en place un suivi en profondeur de l’élève et d’analyser ses activités d'apprentissage. Les chercheurs peuvent ainsi déterminer la façon dont les élèves apprennent et les approches qui peuvent être utilisées pour améliorer l'apprentissage au sein des établissements scolaires. L’État peut également améliorer la politique de l’emploi et aider les demandeurs car on peut désormais, en combinant l’analyse des qualifications des individus et les offres d’emplois, identifier les formations pertinentes, anticiper les reconversions et adapter la recherche aux besoins du marché. En matière de sécurité, la police et l’université de Memphis ont développé un programme (Blue Crush), maintenant utilisé par de nombreuses villes, qui permet d’identifier les zones 22 Etude mondiale de PwC sur la sécurité de l’information et la protection des données 15ème édition
  • 18. MS Marketing Management 2013-2013 18 et les heures où des délits sont le plus à même d’avoir lieu, afin d’optimiser l’affectation des services23. Le programme aurait permis de faire baisser de 19 % le taux de criminalité sur 4 ans. Les gouvernements peuvent également tirer profit de l'analyse de données volumineuses afin de s'attaquer à la fraude fiscale maintenant qu'une nouvelle génération de serveurs informatiques, particulièrement puissants, peut réaliser, en quelques heures à peine des calculs qui, il y a deux ou trois ans, prenaient plusieurs jours. Selon Jim Goodnight, président de SAS, une société américaine spécialisée en analytique d'affaires : «Des ministères peuvent ainsi traiter le dossier de 15 millions de personnes en 20 minutes, alors qu'avant, ça pouvait prendre deux semaines. Ils peuvent ainsi identifier des cas de fraude fiscale ou d'assurance-emploi»24. On peut aussi désormais mobiliser plus facilement les citoyens : en France, la mairie de Toulouse a demandé en 2013 à la société Apicube d’analyser 1,6 million de documents (tweet, Facebook, blogs, forums, etc.) pour mieux connaître les sujets de préoccupation des habitants25. Les politiques ont d’ailleurs bien compris les avantages du « Big Data », après tout si les analyses de données peuvent avoir un impact sur la prise de décision des consommateurs, c’est aussi le cas pour les électeurs. La dernière élection présidentielle américaine a été surnommée "l'élection Big Data", Dan Wagner, le Chief Analytics Officer de Barack Obama en 2012 a reconnu avoir utilisé le « Big Data » pour cibler au mieux les électeurs potentiels et décrocher, vote après vote, la réélection du président. Par ailleurs, « l’autre gagnant de la présidentielle américaine”26, fut Nate Silver, un statisticien qui s’était illustré en 2008 en prédisant avec exactitude des résultats dans 49 des 50 Etats américains lors de l’élection présidentielle. Idem en 2012, Nate Silver voit à nouveau juste pour les scrutins des cinquante Etats, allant même jusqu'à avancer que les scores en Floride seraient particulièrement serrés. Enfin le « Big Data » facilite également l’accès à la culture. Le ministère français de la Culture et de la Communication met à disposition des citoyens via un portail data.gouv.fr différents types de données telles la liste des établissements publics culturels géolocalisés, les données de la médiathèque de l'architecture et du patrimoine,… De nombreuses villes et régions ont commencé à faire de même avec pour objectif de croiser des données avec les centres d’intérêt d’individus ou de communautés pour développer de nouveaux services et usages et faciliter la promotion et l’accès à la culture. Des bibliothèques numériques ont aussi vu le jour comme celle de Lyon, plus de 100 000 ouvrages, enluminures, journaux et photos sont consultables gratuitement en ligne sur Numelyo. Mais là encore les opportunités qu’offre le « Big Data » s’accompagnent de nouveaux enjeux car si Google 23 35. http://www.memphispolice.org/blue%20crush.htm et ftp://ftp.software.ibm.com/common/ssi/ecm/fr/imc14541frfr/IMC14541FRFR.PDF 24 Voir le rapport de Yiu C. « the big data opportunity making government faster smarter and more personal” 2012- policyexchange.org.uk 25 http://www.lemondeinformatique.fr/actualites/lire-la-mairie-de-toulouse-analyse-son-empreinte-sociale-avec-ibm-et-apicube- 53065.html 26 Post publié sur Big Browser, un blog tenu par les journalistes du Monde.fr. le 9 novembre 2012
  • 19. MS Marketing Management 2013-2013 19 a proposé aux bibliothèques qui n’en n’ont pas les moyens d’assurer la numérisation de leurs collections en quelques années, l’entreprise n’a pas hésité à demander en échange une exclusivité commerciale de 25 ans et la propriété des fichiers, ni à numériser des ouvrages encore sous droits et donc sont soumis au respect des règles de droits d'auteur, à l'autorisation de reproduction et au versement de royalties liées à l'exploitation de ces œuvres. 2.3 L’enjeu de la cybersécurité et de la défense Pour un État, la question du « Big data » en matière de défense et de cybersécurité recouvre deux types de préoccupations. La première porte sur l’utilisation des données afin d’assurer la défense d’un pays. Lors des attentats du Marathon de Boston qui ont tué trois personnes en 2013 et en ont blessé 264 autres, le FBI a analysé des milliers d’appels de téléphones portables, de messages, de données des médias sociaux, de photographies et de séquences vidéosurveillance pour repérer rapidement les suspects et éviter une nouvelle attaque. Un logiciel de reconnaissance faciale a même été utilisé pour comparer les visages sur les photos et la vidéo avec les visas, passeports, permis de conduire et autres bases de données. La seconde préoccupation concerne la protection des informations sensibles (militaires, économiques,..) car les États doivent faire face à un nombre croissant d’attaques contre leurs réseaux informatiques. Ces menaces sont devenues protéiformes : « hacktivistes » d’Anonymous, virus de plus en plus évolués et destructeurs, piratages et aspirations de données sensibles, révélations aux grand public de programmes secrets … En 2009, le Wall Street Journal révélait que des hackers avaient pénétré dans les réseaux protégés de l'administration américaine et avaient réussi à dérober des centaines de téraoctets d'informations ultra-confidentielles portant sur le chasseur américain F- 35. En France, début 2011, plus de 150 ordinateurs du ministère de l'Économie ont été piratés et des documents confidentiels concernant le G20 dérobés. Quelques mois plus tard, le groupe nucléaire Areva a découvert une opération de cyber espionnage massive qui durait depuis deux ans et lui a fait perdre plusieurs contrats. Pour lutter contre la fuite d’informations confidentielles, la meilleure solution consisterait à automatiser le travail notamment en matière de renseignement. Le directeur de la NSA, Keith Alexander a déclaré lors d'une conférence à New York sur la cybersécurité qu’il allait réduire les administrateurs systèmes de l’Agence d'environ 90%. En automatisant l'essentiel du travail effectué pour l'instant par des employés et des consultants extérieurs, les réseaux de la NSA seraient alors "plus faciles à défendre et plus sûrs". Les États sont désormais au pied du mur et cherchent de nouveaux moyens pour se protéger. Dans son rapport au Sénat en 2012, Jean-Marie Bockel évoque un « enjeu majeur de sécurité nationale » dont la prise en compte réelle n’a commencé en France qu’avec le Livre Blanc de la Défense, publié en
  • 20. MS Marketing Management 2013-2013 20 2008. Ce dernier a donné naissance au « Conseil de défense et de sécurité nationale ». Jean -Marie Bockel préconise une coopération d’abord entre la France et l’Allemagne puis dans toute l’Europe pour lutter contre les attaques. On note que l'article 13 du projet de la future Loi de programmation militaire permettra aux services de renseignement des ministères de la défense, de l'intérieur, de l'économie et du ministère en charge du budget d'accéder aux données conservées par les opérateurs de communications électroniques, les fournisseurs d'accès à Internet et les hébergeurs. Concrètement, la réquisition de données de connexion dans un cadre d'enquête administrative pourra être effectuée pour la recherche de renseignements intéressant la sécurité nationale, la sauvegarde des éléments essentiels du potentiel scientifique et économique de la France, la prévention du terrorisme, de la criminalité et de la délinquance organisées. Selon Manuel Valls, Ministre de l’Intérieur « Il faut être lucide : pour protéger leur population, tous les États ont besoin d’accéder à certaines communications électroniques, aussi bien en matière de renseignement que de poursuites judiciaires. L’accès aux données doit s’opérer par ciblage des individus ou groupes qui présentent une menace réelle »27 mais « l’exploitation des métadonnées ou des contenus n’est légitime que si elle se rapporte à des finalités de sécurité bien circonscrites : lutte contre le terrorisme et la criminalité organisée ou encore protection des intérêts fondamentaux des États ». Le « Big Data » est donc un véritable enjeu de défense mais il soulève de nombreuses questions pour savoir jusqu’où les États peuvent aller comme le démontre le récent scandale “Prism” sur la transmission de données d’utilisateurs d’internet à des fins de surveillance entre des entreprises anglo-saxonnes (Google, Yahoo !, Microsoft, You Tube, Skype,…) et les services de renseignements américains (NSA). En France, on peut noter que le gouvernement français n’a pas jugé utile de consulter la CNIL sur le fameux article 13 du projet de Loi de programmation militaire.28 2.4 De “Big Data” à “Big Brother”? La révolution du « Big Data » constitue a priori une formidable opportunité. Pourtant les fabuleux progrès de cette révolution vont de pair avec de nouveaux risques majeurs : manipulation des données, intrusions et atteintes à la vie privée, prise de contrôle par des monopoles ou oligopoles privés, (Apple, Google, Facebook, Amazon...). L’enjeu est donc d’arriver à trouver un équilibre entre les opportunités économiques et commerciales et le respect de la vie privée. Cependant, c’est cette recherche d’équilibre qui explique en partie le « retard » pris par certains pays et leurs entreprises nationales dans l’investissement et l’exploitation du « Big Data ». En France, à la différence des Etats-Unis, la CNIL impose une anonymisation des données personnelles et l’usage de ces données est réglementé par la loi “Informatique et Libertés » selon 27 Interview de Thibaut De Jaegher - Publié le lundi 8 juillet 2013 publié sur le site de l’Usine Nouvelle 28 http://www.cnil.fr/linstitution/actualite/article/article/loi-de-programmation-militaire-la-cnil-deplore-de-ne-pas-avoir-ete-saisie-des- dispositions-rel/
  • 21. MS Marketing Management 2013-2013 21 laquelle : « constitue une donnée à caractère personnel toute information relative à une personne physique identifiée ou qui peut être identifiée, directement ou indirectement, par référence à un numéro d’identification ou à un ou plusieurs éléments qui lui sont propres. Pour déterminer si une personne est identifiable, il convient de considérer l’ensemble des moyens en vue de permettre son identification dont dispose ou auxquels peut avoir accès le responsable du traitement ou toute autre personne » (art.2) ». En fonction de cette loi, le croisement des informations sur les internautes pour un meilleur ciblage ne peut donc pas se faire sur une personne en particulier mais sur une catégorie d'utilisateurs, c’est pourquoi la CNIL a récemment épinglé Google pour sa nouvelle politique de confidentialité qui multiplie les croisements d'informations auparavant éparses29. En effet certaines données prises indépendamment peuvent sembler insignifiantes mais si elles sont assemblées et analysées, elles peuvent permettre de recréer des profils et définir des identités numériques parfois simplement grâce à une date et du lieu de naissance. On peut via les réseaux sociaux, les moteurs de recherche,…obtenir une vision précise d’un individu, de ses goûts, de ses habitudes ou de ses croyances. La question se pose donc de redéfinir les catégories de données qui doivent être considérées comme sensibles et donc réglementées plus strictement par la loi. Cette question est encore plus cruciale dans le contexte du « Cloud Computing » qui pose les questions suivantes : Est-ce qu’un individu possède encore le contrôle de ses données ? Comment un individu peut-il s’opposer au traitement de ses données ? Comment un individu peut-il récupérer ses données ? Les entreprises françaises n’ont donc pas la possibilité d’exploiter aussi librement que les entreprises américaines les données. Selon une étude européenne 30seule 10 % des entreprises françaises affirment que le « Big Data » est une réalité pour elles. Sur ce sujet, les pays germaniques (Allemagne, Autriche, Suisse) sont pour l’instant les plus en avance en Europe. Parmi les freins au déploiement avancés, 24% des personnes interrogées citent l’absence de stratégie et de gouvernance claires. La France semble donc avoir en partie raté l’enjeu du « Big Data », reste à savoir comment. 3. L’échec de l’ambition informatique de la France A partir de 1965, le Général de Gaulle et le gouvernement français se préoccupent du développement d'une industrie nationale dans le domaine de l'informatique et des techniques modernes de communication et lancent des projets novateurs avec pour objectif de garantir l’indépendance 29 CNIL, Décision n° 2013-025 du 10 juin 2013 de la présidente de la CNIL mettant en demeure la société GOOGLE INC. 30 Étude européenne menée par Steria auprès des 650 entreprises (étude biMA pour Business Intelligence Maturity Audit)
  • 22. MS Marketing Management 2013-2013 22 informatique de la France mais les hésitations politiques, les batailles entre industriels et les querelles d'ego finiront par avoir raison de cette ambition. 3.1 Le système Mars : les prémices d’un “Big Data” à la française ? L’expérience du système Mars est intéressante à retracer en ce sens que d’une part, il s’agit d’une première initiative de collecte de données relativement massive pour l’époque, de différentes provenances, et d’autre part qu’il illustre tant le retard qu’avait la France en terme de numérisation des données que sa capacité par une telle initiative à se distinguer dans la compétition mondiale. 3.1.1 La Copep Le système Mars trouve sa genèse au début des années 1970, au sein de la Copep (Commission permanente de l’électronique du Commissariat Général du Plan31), seule commission permanente du Plan. Créée à l’initiative de Michel Debré en 1961, le décret créateur de la Copep précise ses missions: « La Copep est chargée : - De servir de conseil permanent auprès du gouvernement pour les problèmes relatifs aux industries de l’électronique française ; - D’apprécier la situation présente et les développements nécessaires de l’équipement électronique français dans les dix années à venir (…) ; - De proposer en conséquence une politique d’ensemble et toutes mesures particulières propres à développer l’équipement électronique français». A ce titre, la Copep produit chaque année un rapport au gouvernement sur les industries de l’électronique et le début de l’informatique. Jean-Michel Treille prend le poste de secrétaire général de la Copep le 1er mail 1968 et en sera le dernier secrétaire générale jusqu’à sa dissolution en décembre 1976. Une vingtaine de groupes de travail sont à l’œuvre pour couvrir le domaine des composants et de l’informatique : l’informatique médical, l’informatique professionnel, l’informatique appliqué aux industries… La Copep a participé ou a été l’instigatrice de très nombreux rapports de restructuration industrielle : le plan composants numéro 1 (1965), le Plan calcul (1966), le plan mesure (1967-1968), le plan électronique civile professionnelle 1972…Par essence, la Copep est amenée à traiter beaucoup de données dans une France encore très peu informatisée à l’époque. 31 Le Commissariat général au Plan ou Commissariat général du Plan (CGP) était une institution française qui a existé entre 1946 et 2006 et qui était chargée de définir la planification économique du pays, notamment via des plans quinquennaux. Il s'est transformé en Centre d'analyse stratégique (CAS), créé en 2006. Le CAS a de nouveau été transformé en 2013 pour devenir le Commissariat général à la stratégie et à la prospective (CGSP).
  • 23. MS Marketing Management 2013-2013 23 A l’issue d’un long séjour aux Etats Unis en 1971, Jean-Michel Treille a pu mesurer la réalité du gap entre la France et les Etats Unis, il en conclut que « La technologie joue certes un rôle considérable, mais également les méthodes de planification interne des grands groupes. »32 Avec la bénédiction de Monsieur Montjoie, commissaire général au plan, et de Monsieur Allègre, Délégué à l’informatique, Jean-Michel Treille met sur pied en 1972 une opération pilote de planification sectorielle avec un triple objectif 33: 1- Expérimenter une nouvelle méthode de planification sectorielle visant à obtenir une projection glissante et flexible. Il s’agit d’une part d’être en mesure de réajuster objectifs et moyens en fonction de la nature et de l’importance des écarts constatés dans l’exécution du plan initial, d’autre part de disposer en permanence d’un horizon à cinq ans. 2- Mettre au point un système de préparation des décisions permettant de mieux connaître les implications des orientations à long terme et de répondre de façon plus efficace aux missions administratives du Plan et de la Copep. 3- Créer une base de données valable à la fois pour l’administration et les entreprises concernées par l’électronique. Entre dans cette expérience un vaste ensemble industriel puisque s’ajoutent à l’électronique, l’informatique, les télécommunications, les équipements aéronautiques et les industries de la mesure. Cela représente un chiffre d’affaires de 17 milliards de Francs en 1970. Les effectifs sont de 240 000 personnes. Plus de 600 entreprises représentées par une quinzaine de syndicats professionnels sont concernées par cette initiative. On peut distinguer cinq rubriques qu’alimentent toutes les informations recueillies:  Les produits (demande, chiffres d’affaires, importations, exportations…) ;  Les sociétés (aspect financier, position sur le marché…) ;  Les administrations (programmes de développement, dépenses engagées par thème et par produit…) ;  Les régions (implantations régionales et évolutions) ;  Les pays étrangers (étude de la pénétration française, tendances des marchés, stratégies à l’exportation…) ; Toutes ces informations sont traitées sur l’ordinateur XDS 540 de la société Cegos Thymshare à Saint-Cloud (Hauts-de-Seine), lui-même relié à divers centres de calcul installés en France et chez Data Ressources Inc. à Houston aux Etats Unis et spécialisés en recherche opérationnelle et en calcul 32 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji 33 Journal Le Monde, article daté de 1972
  • 24. MS Marketing Management 2013-2013 24 matriciel. 60% des temps de travail sont réalisés sur les ordinateurs disponibles en France, 40% sur des ordinateurs installés aux Etats Unis. En 1972, le journal le Monde souligne que les quelques cinq cents entreprises de pointe étudiées par la Copep se heurtent à une concurrence vigoureuse des firmes étrangères souvent appuyées directement ou indirectement par leurs gouvernements respectifs. En France également, les pouvoirs publics disposent de moyens d’incitation considérables: près du tiers de l’activité des firmes intéressées est lié à des commandes de l’administration dont le montant durant les cinq années du VIème Plan devrait atteindre 30 milliards de francs pour l’acquisition de matériel; 9 milliards de Francs de crédits étant en outre alloués par l’Etat pour la recherche et le développement. 3.1.2 Le système Mars En 1973, cette initiative est pérennisée sous le vocable « Système Mars ». 2000 fichiers sont ainsi régulièrement mis à jour par les fournisseurs du système Mars. Parallèlement à la constitution et à l’entretien de cette banque de données, des modèles ou des scénarios de simulation de comportement de secteurs ou d’entreprises ont été mis au point avec pour objectif d’analyser des développements macro-économiques, sectoriels ou micro-économiques. Au-delà de scénarios types de grande utilisation, s’ajoutaient des scénarios construits à la demande pour telle ou telle étude particulière (exemple : l’étude pour les PTT afin de mieux apprécier les conséquences pour l’emploi de l’introduction de la commutation électronique). Le système Mars a permis de sortir des plans et des suivis le plan sur l’électronique professionnel. Il constituait ainsi un prestataire d’études d’une quinzaine de personne pour différentes administrations, BIPE, club d’industriels. La dynamique de ce système permettait ainsi de financer des études pour 4 à 5 millions de Francs par an pour une contribution du Commissariat au Plan limitée à 200 milliers de Francs34. A plusieurs reprises, le système Mars est présenté aux Américains et aux Russes du Gosplan qui marquent beaucoup d’intérêt pour ce dispositif. Assez rapidement est posée la question de l’élargissement du système Mars à tous les secteurs de l’industrie. Pourquoi en effet ne pas en faire un système interministériel de planification ? Fort de son succès dans le domaine des industries de pointe, la déclinaison aux autres secteurs industriels semble des plus pertinente, et pourtant… 34 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
  • 25. MS Marketing Management 2013-2013 25 3.1.3 Les forces opposées au système Mars: entreprises, administration, Insee et pouvoirs politiques Certains industriels, notamment dans les filiales des groupes multinationaux, n’avaient jamais accepté le système Mars. Ils ne livraient qu’à contrecœur les informations nécessaires. Que des fonctionnaires puissent contrôler au jour le jour l’utilisation des fonds publics injectés dans l’industrie et connaissent le détail des prix de revient, aussi bien que la gestion des entreprises, leur semblait anormale. En effet, le système Mars consolidait toutes les données de recherches financées par l’Etat: la DGA (Direction Général de l’Armement), le CNET (Centre National d’Etude des Télécommunications) et la DGRST (Direction Générale de la recherche scientifique et technique) déclaraient les contrats passés avec l’industrie. Il était donc facile de voir que tel ou tel industriel avait reçu des fonds deux ou trois fois sur le même sujet35. Certaines administrations n’ont plus voulu contribuer au système Mars. Elles voulaient récupérer le système pour leur seul profit en cherchant d’ailleurs à intégrer l’équipe du Système Mars (exemple : le Ministère des Télécoms). L’Insee était également contre ce projet. Pourquoi ? « Parce que j’avais prétendu développer des modèles sectoriels, prétendu que l’on pouvait faire le lien différemment entre macro-économie et micro-économie qui est un lien très mal assuré. J’allais sur des plates-bandes qui n’étaient pas les miennes » explique Jean-Michel Treille. Peut-être se souvenait-on aussi à l’Insee que Jean-Michel Treille allait chercher un temps aux Etats-Unis l’information recueillie par l’Insee. En effet, l’Insee était en retard dans son informatisation et vendait des données à une entreprise américaine qui en assurait la mise à disposition au format informatique. Pour Raymond Barre, très libéral, la planification n’est plus dans l’air du temps. Le mot plan est connoté et évoque « c’est l’État qui gouverne ». La Copep est dissoute le 17 décembre 1976. Le nouvel économiste du 27 décembre 1976 précise « Trois ministres, et non des moindres, Raymond Barre, Premier Ministre, Jean Lecanuet, Ministre d’État chargé du Plan et de l’aménagement du territoire, et Michel d’Ornano, Ministre de l’industrie et de la recherche ont signé l’acte de décès ». L’outil Mars demeure mais en pièces détachées : la banque de données elle-même est récupérée par la Délégation à l’Informatique, accompagnée de toute l’équipe informatique concernée de la Copep, tandis que les modèles d’application vont être utilisés par le Ministère des armées, les PTT et le Ministère de l’industrie. 35 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji
  • 26. MS Marketing Management 2013-2013 26 Le journal le Monde du décembre 1976 rend compte de la dissolution de la Copep et titre « La fin d’une ambition » : “cette Commission a été à l’origine d’une prise de conscience essentielle dans les années 60 sur la nécessité de doter notre pays d’une industrie électronique puissante pour s’affranchir de la domination américaine”. De son côté, les Echos du 21 décembre 1976 soulignent : « une démonstration supplémentaire que la planification n’est plus de saison, le gouvernement préférant le pilotage à vue ». Déjà en 1977, Jean-Michel Treille indiquait36 “qu’il est plus facile en France de faire appel à un modèle américain de précision ou de simulation économique nous concernant que d‘en trouver sur notre propre marché ». Le danger est alors bien identifié de dépendre à la fois de l’information de base et d’un traitement qui nécessairement peuvent orienter ou biaiser l’information de base. Dans le journal 01 informatique de décembre 1978, Jean-Michel Treille note que 360 bases de données regroupant une centaine de millions d’articles sont en service dans le monde. 70% de ces bases de données regroupant 85% des articles sont implantées aux États-Unis. Pour lui « L’informatique en France a toujours été considéré par les dirigeants comme quelque chose de technique et pas comme un outil de pouvoir, et c’est encore le cas aujourd’hui ». 3.2 Le Plan Calcul Revenons maintenant sur le Plan Calcul mentionné ci-dessus lors de la présentation de la Copep et de ses différentes contributions dans le domaine de l’informatique. 3.2.1 La genèse du Plan Calcul Le 16 Juillet 1966 : le commissaire au Plan, François-Xavier Ortoli, présente au général de Gaulle son rapport, connu sous le nom « Rapport Ortoli », dans lequel il met en évidence la nécessité pour la France de se doter d’un plan informatique ambitieux pour préserver l’indépendance de la France vis- à-vis des Etats-Unis. Le Plan Calcul est né. De nombreux ouvrages ou articles ont été écrits sur la « saga » du plan calcul dont celui de Pierre- Eric Mounier-Kuhn, historien de l’informatique37. Trois phénomènes servent de déclencheurs à la mise sur pied du Plan Calcul : - Le retard de l’industrie française face aux USA et IBM en particulier avec le lancement de sa série 360 (les circuits intégrés remplacent les transistors) ; 36 36 Propos extraits de l’interview de Jean-Michel Treille réalisée le 8 octobre 2013 à Paris par Emmanuel Revol et Younes Khedji 37 “Le Plan Calcul, Bull et l’industrie des composants: les contradictions d’une stratégie ». Revue historique, 1995, vol. CCXC n° 1, 123-153
  • 27. MS Marketing Management 2013-2013 27 - Bull passé sous pavillon américain le 22 juillet 1964 (51% des parts détenues par General Electric) ; - Le refus du pentagone de la vente d’un super-calculateur à la direction des applications militaires du Commissariat à l’Energie Atomique dans le cadre de la mise au point de l’arme atomique française. a. 1er dispositif du Plan Calcul: la création de la Délégation à l’informatique Le 8 Octobre 1966, la Délégation à l'informatique est créée. Sa mission sera de gérer les budgets du plan, de définir ses principales orientations et d'en assurer l'application. Elle est confiée à Robert Galley, gaulliste de la première heure, compagnon de la Libération et ingénieur de l'Ecole centrale des arts et métiers. Maurice Allègre, polytechnicien est son adjoint. Quand Robert Galley est appelé au gouvernement en 1968, Maurice Allège lui succède. b. Dispositif scientifique: la création de l’IRIA L'IRIA (Institut de Recherches en Informatique et en Automatique) est créé au début de 1967, cet institut (qui deviendra plus tard l’INRIA) a trois missions: - Entreprendre et faire entreprendre des recherches fondamentales et appliquées (l'IRIA dispose pour cela de laboratoires propres) ; - Développer la formation, l'information et le perfectionnement des informaticiens et d'autres personnes concernées (mission qui restera marginale) ; - Rassembler et diffuser toute documentation française et étrangère. Aujourd’hui l’INRIA est très active sur le “Big Data”, notamment à travers son représentant, Stéphane Grunbach, dont les travaux ont été mentionnés en première partie de ce rapport. c. 3ème dispositif du Plan Calcul: le volet industriel. Il prévoit la création d'un champion français de l'informatique, baptisé Compagnie Internationale de l'Informatique (CII). Avant de revenir sur la composition de cette Compagnie, notons que l’entreprise Bull en est absente. Mais Bull, il est vrai, n’est plus française à cette époque, étant détenue à 51% par l’américain General Electric. Un temps en bonne position dans le concert des entreprises informatiques, la société Bull, après la prospérité des années 1950, s’essouffle dans la compétition avec l’américain IBM et se retrouve en difficulté financière. Une solution franco-française est d’abord recherchée en cherchant à associer la Compagnie Générale d'Electricité (CGE) et la Compagnie Générale de la Télégraphie Sans Fil (CSF). Finalement, Valéry Giscard d'Estaing, Ministre des Finances de l’époque, finit par donner son feu vert au scénario américain privilégié par les financiers. General Electric prend ainsi 51% du capital du Bull
  • 28. MS Marketing Management 2013-2013 28 en 1964. Revenons à la création de la Compagnie Internationale de l'Informatique. Pour créer ce qui doit être le champion français de l’informatique, l'Etat a imposé la fusion de la Compagnie Européenne d'Automatisme Electronique (CAE), une filiale commune de la CSF et de la CGE, avec la Société d'Electronique et d'Automatisme (SEA), elle-même filiale du groupe Schneider. A la CGE, comme à la CSF, et au sein du groupe Schneider, ce chantier industriel piloté par l'Etat ne fait pas l’unanimité mais à la fusion à tout de même lieu : la CII est alors détenue à plus de 56 % par la CGE et CSF, à 33, 3 % par Schneider et à 10, 3 % par le groupe Rivaud. Une convention qui lie l’Etat à la Compagnie Internationale pour l’Informatique, est signée pour l’Etat par Michel Debré, Ministre des Finances, Olivier Guichard, Ministre de l’industrie, Pierre Messmer Ministre des armées et Maurice Schumann Ministre de la recherche scientifique et les PDG des sociétés privées qui composent la CII. A l’occasion de cette signature, Michel Debré est revenu sur l’objectif de cette convention « avoir une forte industrie nationale capable de construire des ordinateurs…. aucune nation industrielle ne peut se développer sans informatique et il est bon que la France recherche son indépendance »38. Pour cette première phase de cinq ans du plan calcul, tel qu’annoncé par Michel Debré, l’Etat va financer pour 400 millions de francs en contrats d’étude. Le mariage imposé par l’Etat est chaotique. Pour ne rien arranger, un an après la création de la CII, son tour de table doit être entièrement revu. En septembre 1967, Thomson-Houston-Hotchkiss- Brandt absorbe la CSF, donnant naissance au groupe Thomson CSF. Avec 40.000 employés et un chiffre d'affaires de 2, 5 milliards de Francs, la nouvelle société, dirigée par Paul Richard, figure parmi les 20 premières sociétés françaises. Cette fusion ne fait évidemment pas l'affaire de la CGE : Ambroise Roux son Directeur général voyant son concurrent se renforcer. Les deux hommes sont d’autant plus contraints à composer qu’en récupérant la CSF, Thomson est en effet devenu actionnaire de la CII aux côtés de la CGE. En juin 1969, sous la pression de la Délégation à l'informatique, le capital de la CII est profondément remanié. Le champion français de l'informatique est désormais détenu à 70 % par Thomson-CSF et la CGE, via un holding commun baptisé Fininfor, à hauteur de 25 % par Schneider et de 5 % par le groupe Rivaud. Contrôlant 52 % de Fininfor, Thomson-CSF assure clairement le leadership de la CII, imposant même son homme à la tête de la Compagnie, Michel Barré. Au grand dam de la CGE, qui se lance immédiatement dans une guerre de tranchées... La Délégation vient à peine d'en terminer avec 38 Source Ina sur Youtube http://www.youtube.com/watch?v=1_JNZ862gSw
  • 29. MS Marketing Management 2013-2013 29 la CII qu'un nouveau front s'ouvre. En mai 1970, le groupe General Electric annonce en effet qu'il se retire du secteur de l'informatique pour se concentrer sur les métiers du nucléaire et de l'aéronautique. Six ans après son acquisition, voilà Bull à nouveau en quête d'un repreneur. A Paris, le pouvoir politique échafaude immédiatement une solution française de reprise.Maurice Allège, le délégué à l’informatique, souhaite que la CII reprenne Bull pour donner naissance à un géant français de l'informatique. Ambroise Roux et Paul Richard y sont tous deux opposés. Partisans d'une ouverture à l'international du capitalisme hexagonal, les deux hommes estiment qu'une solution franco-française nuirait gravement à l'avenir de Bull. Les deux industriels militent en revanche avec force pour un rapprochement avec la société américaine Honeywell. C'est finalement cette solution que Valéry Giscard d'Estaing, Ministre des Finances choisit en juillet 1970, donnant ainsi naissance à Honeywell Bull. Pour la deuxième fois en quinze ans, la France vient de laisser échapper la société Bull. 3.2.2 L’échec de la tentative européenne En 1971, un nouveau plan est acté car les résultats commerciaux n’étaient pas à la hauteur des objectifs fixés. Ce nouveau plan fixait deux directives:  Reconduire sur une durée de cinq ans le soutien des subventions de recherche et des achats publics ;  Donner à l'avenir de la CII une dimension européenne sur le modèle de ce qui vient d'être fait dans l'aéronautique avec Airbus. De longues négociations sont menées avec des industriels anglais, allemands et hollandais pour construire un grand projet européen dans le secteur informatique. Baptisé « Unidata », il associe la CII, Philips et Siemens. Ce projet, Ambroise Roux, patron de la CGE, n'a cessé de s'y opposer, craignant qu'une alliance entre Thomson (principal actionnaire de la CII) et Philips et Siemens ne se fasse à ses dépens. « L'alliance commence dans l'informatique mais finira par gagner les composants, voire même le téléphone », pense l'industriel, qui use de toute son influence pour saborder Unidata. Sans succès. Le projet reçoit un soutien appuyé du chef de l'Etat, Georges Pompidou, et du Premier ministre, Jacques Chaban-Delmas. Un holding financier, dont le capital était détenu à parité par les trois sociétés, était créé. Une filiale Unisata était créée dans chaque pays, les trois partenaires y participant également à parts égales. Le 4 juillet 1973, l'accord était signé à Amsterdam et le consortium commençait ses activités.
  • 30. MS Marketing Management 2013-2013 30 Au printemps 1974, le Président Pompidou disparaît prématurément. Elu en mai 1974, le nouveau chef de l'Etat, Valéry Giscard d'Estaing, reste dubitatif quant au dossier Unidata. Faut-il ou non mener à bien ce grand projet européen ? C'est le début d'une formidable guerre d'influence qui va opposer deux camps :  D'un côté, les partisans de l'alliance européenne conduite par les Etats, ce qui suppose au préalable un renforcement des moyens financiers de la CII, par exemple en l'adossant au CEA. Parmi eux, la Délégation à l'informatique, bien sûr, mais aussi une brochette de hauts fonctionnaires et quelques ministres, dont le premier d'entre eux, Jacques Chirac.  De l'autre, les adeptes d'une solution libérale consistant à fusionner la CII avec un groupe privé, de préférence américain. Parmi eux, Ambroise Roux, bien sûr, mais aussi les dirigeants de Thomson, dont l'enthousiasme pour le projet Unidata tiédit de jour en jour, les hauts fonctionnaires du ministère de l'Industrie et le ministre lui-même, Michel d'Ornano. Ce camp a trouvé son champion : Jean-Pierre Brulé, le PDG d'Honeywell Bull. L'homme rêve de casser Unidata - un concurrent qui risque de se révéler redoutable -et, au passage, d'absorber la CII... Après des mois d'hésitation et au terme d'un double jeu qui a profondément agacé les partenaires européens d'Unidata, c'est finalement ce dernier camp qui l'emporte. Dans l'entourage de Valéry Giscard d'Estaing, nombreux sont ceux qui pensent que l'heure n'est plus au renforcement du secteur public, fût-il réalisé dans un cadre européen. Libéraux dans l'âme, ils estiment que la priorité est de renforcer les entreprises privées. Sur le plan technique, une alliance de la CII avec l'américain Honeywell Bull leur paraît bien plus viable qu'une grande alliance européenne. L'attitude des industriels français - CGE et Thomson-CSF- s'est également révélée déterminante. Engagés l'un et l'autre dans une stratégie de développement à l'international, les deux groupes ne veulent plus participer à une aventure née sous la houlette de l'Etat. Reste à trouver un prétexte. Bien malgré eux, les Allemands le leur fournissent en annonçant la reprise, par Siemens, de la division informatique de Telefunken, alors en grande difficulté. « En reprenant Telefunken, son parc d'ordinateurs, ses chercheurs et son déficit, Siemens va rompre l'équilibre au sein d'Unidata et grossir ses pertes », s'empressent de murmurer à l'oreille des hauts fonctionnaires français, les partisans de la solution Honeywell Bull, Jean-Pierre Brulé en tête. Habilement, celui-ci fait savoir qu'il ne demandera aucune subvention à l'Etat pour la reprise de la CII. En mai 1975, le gouvernement donne officiellement son accord à l'acquisition de la CII par Honeywell Bull et annonce son retrait d'Unidata. C'est la fin d'une ambition européenne dans le secteur informatique.
  • 31. MS Marketing Management 2013-2013 31 C'est également la fin du plan Calcul. Un an plus tôt, Maurice Allègre, découragé, a en effet donné sa démission, entraînant la suppression de la Délégation à l'informatique... 3.2.3 L’après Plan Calcul En 1982, l'entreprise est nationalisée : le Groupe Bull est alors créé par le regroupement de CII- Honeywell Bull, SEMS et Transac. L’État français devient majoritaire dans le capital. En 1989, Bull acquiert Zenith Data Systems, un constructeur américain de micro-ordinateurs PC. Cette opération onéreuse devait être destinée à prendre le marché des micro-ordinateurs du gouvernement fédéral américain. Elle s'adressa évidemment à d'autres fournisseurs en raison des lois américaines sur les marchés publics. Cette erreur stratégique conduisit à la revente de ZDS à la société Packard Bell NEC en 1996. En 1991-1992, on assiste au recentrage du groupe Bull sur les activités de serveurs moyenne et grande gamme, sur les services clients et sur les services de développement et d'intégration du logiciel. De 1994 à 1997 se déroule la privatisation progressive du groupe Bull, sous l'impulsion de Jean-Marie Descarpentries, avec la constitution d’un socle d’actionnaires (dont France Télécom et NEC) et l’ouverture du capital au public. Cette étape fait passer la part de l’État français à 17,3 %. Le groupe sera totalement re-privatisé en 2004, avant de voir le retour de l’Etat, via le Fonds Stratégique d’Investissements, à l’automne 2011, pour un peu plus de 5% de son capital. Depuis le début des années 1990, le groupe Bull a connu plusieurs restructurations, dont la dernière s'est achevée en 2004. Si au début de l’année 1999, les effectifs étaient encore légèrement supérieurs à 20 000 personnes, ils sont descendus fin 2001 à quelques 10 000 personnes. En 2008, Bull emploie environ 7 800 salariés, et recommence à embaucher fortement, faisant arriver le total des salariés à 8 850 pour 2009. Le chiffre d'affaires est de 1, 28 milliard d'euros en 2012, réalisé à 56, 8 % en France. L’échec du Plan Calcul continue à nourrir l’intérêt des observateurs. Le quotidien économique « Les Echos » y consacre un dossier dans les feuilletons de l’été 2012 titrant « Le plan Calcul, échec d’une ambition »39. Il met en évidence les contradictions de l'histoire industrielle des cinquante dernières années : articulation entre politique technologique et industrielle, coopération européenne face au dynamisme commercial et technologique des Etats-Unis ; logiques divergentes des grands groupes français de l'électronique au sein des réorganisations des années 1960-1970, indépendance nationale et libéralisme dans le cadre spécifique de l'informatique. On ne peut s’empêcher en revoyant cette page d’histoire récente de faire le lien avec un autre domaine pour laquelle la France, alors qu’elle avait un certain nombre d’atouts bien réels, a échoué : celui des drones. 39 Les Echos n° 21231 du 20 Juillet 2012
  • 32. MS Marketing Management 2013-2013 32 La suite des événements témoigne de la difficulté de l’Etat français à s’organiser pour rester dans la course à l’innovation : pour mieux comprendre les raisons de l’échec de l’ambition informatique française, il est intéressant de comprendre comment les USA ont abordé la question de l’information et ont finalement réussi à imposer leur leadership dans les années 90. 3.2.4 La vision américaine des autoroutes de l’information et de l’enjeu de puissance On peut situer l’apparition des autoroutes de l’information et les prémices du « Big Data », bien que ce concept ne soit pas encore nommé, aux Etats-Unis en novembre 1991 dans le High Performance Computing act de 1991. Cette loi, proposée par le sénateur Al Gore, a pour objectif de préserver le leadership dans les NTIC par la mise en place d’un réseau dédié à l’éducation et à la recherche (cf Renater en France). Dès 1993, Bill Clinton élu, l’affirmation de puissance des USA est claire : « ce n’est plus la qualité des infrastructures routières, portuaires qui déterminent la puissance économique de l’Amérique, mais notre capacité à transmettre de grandes quantités d’informations rapidement et sûrement et par notre capacité à utiliser ces informations et à les comprendre ». Le lien est ici clairement établi entre l’enjeu de puissance des Etats-Unis et le “Big Data”. Le gouvernement français inscrit les autoroutes de l’information sur son agenda dès février 1994 en demandant un rapport à Gérard Théry et définit sa politique lors du conseil de ministres du 27 octobre 1994. Alors qu’aux Etats-Unis, les autoroutes de l’information sont traduites en enjeu de puissance, en France, les autoroutes de l’information sont davantage vues sous l’angle des usages qu’elles permettent, illustrées dans le rapport Théry40. L’Union Européenne depuis les années 1990 voudrait se placer en tête sur la gouvernance d’internet, mais se heurte à la puissance des Etats-Unis. La démarche européenne repose sur les fondements suivants :  Internet vu comme un service public…  …à la fois dans une logique d’opportunité mais aussi dans une logique de maîtrise des risques liés : o Aux messages au contenu illégal ou non approprié ; o Aux problèmes juridiques qui peuvent advenir ; o A la protection des consommateurs. 40 Les autoroutes de l’information, Rapport au 1er Ministre, Gérard Théry, 1994
  • 33. MS Marketing Management 2013-2013 33 Cette volonté se heurte à celle des Etats-Unis de garder le contrôle de la coordination des fonctions essentielles de l’internet (notamment noms et adresses). Aux USA, le lien est donc fait directement entre les données qui circulent sur ces autoroutes de l’information et l’enjeu de les comprendre et de les utiliser dès les années 90 alors que la France continue à tatonner. 3.3 Du Commissariat Général au Plan au Centre d’Analyse Stratégique Le Commisariat Général au Plan, mis en place par le Général de Gaulle pour reconstruire la France, avait pour mission la planification économique du pays par l’élaboration de plans quinquennaux. En octobre 1986, le Ministre de la Fonction publique, du Plan, et de l'Économie sociale, Hervé de Charette, propose de substituer un commissariat de la stratégie au Commissariat au Plan. Les oppositions au projet d’Hervé de Charette ont été nombreuses : Pierre Massé dit, par exemple, que « supprimer le Plan au nom d'un libéralisme impulsif serait privé le pouvoir d'une de ses armes contre la dictature de l'instant ». Le projet ne se concrétisa pas, mais l'idée, elle, subsista. En 2003, Alain Etchegoyen est sollicité par Jean-Pierre Raffarin, alors Premier Ministre, pour diriger le Commissariat général au Plan. Il tenta une réorganisation de l'institution en groupes de projet afin, selon ses termes, de recentrer sa mission "pour un État-Stratège, garant de l'intérêt général et du bien public", en favorisant une démarche prospective soucieuse du long terme. A partir de 2004, le Gouvernement français lance (selon ses termes) une « nouvelle politique industrielle ». Grâce à un effort financier de trois milliards d’Euros, sans commune mesure en Europe, des pôles de compétitivité sont créés pour mobiliser les facteurs clefs de la compétitivité au premier rang desquels figure la capacité d'innovation, et pour développer la croissance et l'emploi sur les marchés porteurs : Cap digital est la dénomination du pôle de compétitivité du numérique basé en Ile de France41. Le 26 octobre 2005, Dominique de Villepin, Premier Ministre, annonce vouloir supprimer le Commissariat général au Plan et créer, en remplacement, un Centre d'analyse stratégique également sous la tutelle directe du Premier minister. Il remercie le commissaire général au Plan et le 6 mars 2006, le décret no 2006-260 et officialise la substitution du Centre d'Analyse Stratégique au Commissariat général au Plan avec à sa tête Sophie Boissard, ancienne directrice de cabinet du ministre délégué à l'Emploi, au Travail et à l'Insertion professionnelle des jeunes, Gérard Larcher. Mais le Centre d’Analyse Stratégique, simple outil de veille, ne parvenient pas à s’impliquer ni dans la préparation ni dans l’élaboration des stratégies publiques, il disparait en 2013. 41 http://www.capdigital.com/
  • 34. MS Marketing Management 2013-2013 34 Petit à petit, le gouvernement va tenter de passer de la planification à la prospection pour pousser des projets afin de faire de la France un pôle d’expertise du « Big Data ». 4. La France peut-elle devenir un pôle mondial d’expertise du « Big Data » ? Forcé de constater que l’ambition française de garantir son indépendance informatique a échouée. La France a été dépassée par les hésitations politiques et les batailles entre industriels, elle n’a pas réussi à imposer son savoir-faire et ses entreprises dans le domaine de la génération, de la récolte et de l’acheminement des données. Sauf qu’aujourd’hui, les nouveaux enjeux du « Big Data » concernent le stockage et surtout le traitement des données : deux domaines dans lesquels la France possède de vrais avantages stratégiques. 4.1. De nouvelles ambitions politiques en France et en Europe 4.1.1 Pôles de compétitivité, investissements d’avenir et appels à projets Les investissements d’avenir sont lancés le 14 décembre 2009 par Nicolas Sarkozy, Président de la République, selon cinq axes stratégiques prioritaires:  L’enseignement supérieur et formation ;  La recherche ;  La filières industrielles et PME ;  Le développement durable ;  Le numérique. Le Commissariat Général à l’Investissement et son commissaire Louis Gallois sont chargés de la mise en œuvre du programme d’investissements d’avenir. Le Fonds Stratégique d’Investissements est créé en octobre 2008 pour porter ces investissements d’avenir et intégre la Banque Publique d’Investissement, plus récemment créée, en juillet 2013. Le Fonds national pour la Société Numérique, géré par la Caisse des Dépôts et Consignation (FSN), est chargé du développement de l’économie numérique, il mène deux actions : 1. Développer des réseaux très hauts débits -> investissements de 2 GE 2. Établir des usages, services et contenus innovants -> investissements de 2.25 GE selon 4 axes : o Cloud computing ; o Numérisation et valorisation de contenus numériques ;
  • 35. MS Marketing Management 2013-2013 35 o Développement des technologies du numérique (nano-technologies, logiciel embarqué…) ; o Nouveaux usages : e-santé, sécurité des réseaux, transports intelligents, ville numérique, e-éducation. Trois appels à projets sont en lien direct avec le “Big Data”: 1. AAP Cloud computing - 1 (as a service, virtualisation) ; 2. AAP Cloud Computing – 2 dans le prolongement du 1 ; 3. AAP Cloud Computing – 3 dédié Big Data. Au second semestre 2013, 4 nouveaux appels à projets sont lancés selon 4 axes : 1. Technologie du logiciel embarqué et objets connectés et intelligents ; 2. Sécurité du système d’information ; 3. Technologie de calcul intensif ; 4. Big Data. Mentionnons ici quelques initiatives à l’occasion des AAP Cloud computing 1 et 2, en particulier celle visant l’émergence d’un cloud souverain. Deux nouvelles sociétés de cloud souverain (Cloudwatt42 et Numergy43) ont ainsi été constituées en 2012 sur un modèle comparable : - Un opérateur télécom (Orange pour l’un, SFR pour l’autre) ; - Un industriel (Thalès pour l’un, Bull pour l’autre) ; - Le FSN ayant apporté à chacun 75 ME pour 33% du capital. Orange, Thalès et le FSN constituent le capital de Cloudwatt, pendant que SFR, Bull et le FSN constituent le capital de Numergy. Numergy et Belgacom ont annoncé en cet été 2013 une initiative européenne : Cloud Team Alliance pour une alternative européenne aux acteurs américains. Ce périmètre pourrait s’étendre à l’Italie (Telecom Italia), la Hollande avec KPN, l’Allemagne…). Cloudwatt, par son opérateur principal, Orange, a par là même déjà une empreinte qui dépasse le simple territoire français pour s’étendre en Europe. En ce qui concerne l’appel à projet Cloud computing – “Big Data”, 11.5 millions d’Euros ont été investis par le FSN dans 7 projets “Big Data”. Notons ici une nouvelle initiative intervenue en juillet dernier via l’apport au capital de la société Withings de 11 millions d’euros par la Banque Publique d’Investissement. Il s’agit d’un investissement direct, hors démarche d’appels à projets. Au côté de trois fonds privés (360 Capital Partners, Ventech et Idinvest Partners), ce sont ainsi 23 millions d’Euros qui sont venus renforcer le capital de Withings 42 https://www.cloudwatt.com/ 43 https://www.numergy.com/
  • 36. MS Marketing Management 2013-2013 36 pour lui permettre d’accélérer son développement international. Withings réalise déjà plus de la moitié de son chiffre d’affaires aux Etats-Unis. La BPI a posé comme condition le fait que la R&D de Withings demeure en France44. Cet investissement direct de fonds souverain dans une PME n’est pas nouveau. Un an plus tôt, Viadeo, le réseau social professionnel, bénéficiait d’un investissement de 10 Millions d’Euros du Fonds Stratégique d’Investissements, en complément de 24 Millions d’Euros apportés par des investisseurs privés. Auparavant le FSI avait apporté 18 Millions d’Euros à la société Ercom spécialiste en simulation des réseaux mobiles 4G et en communications sécurisées. A l’automne 2011, c’est Bull qui voyait revenir à son capital l’Etat (qui en était sorti en 2004) par l’intermédiaire du FSI qui prenait un peu plus de 5% du capital. Le FSI est également présent depuis l’automne 2009 au capital de Dailymotion, le petit français qui concurrence le service Youtube de Google. A noter que le FSI a intégré la BPI en juillet 2013 et détient des participations dans une centaine de sociétés françaises. En Europe, les choses évoluent également. La nécessité d'orienter les politiques européennes vers l'excellence, en vue de faciliter l'émergence de clusters de classe mondiale a été définie à travers la communication de la Commission européenne « Vers des clusters de classe mondiale dans l'Union européenne: mise en œuvre d'une stratégie d'innovation élargie » (17 octobre 2008) et les conclusions du Conseil compétitivité adoptées sous la présidence française en 2008 (20 novembre 2008). Dans sa communication « Une politique industrielle intégrée à l'ère de la mondialisation » du 28 octobre 2010, la Commission européenne a pris l’engagement de mettre en place une nouvelle stratégie européenne dans le domaine des clusters. 4.1.2 Le Commissariat Général à la Stratégie et à la Prospective (CGSP) et les 34 Plans de reconquête industrielle Le Centre d'analyse stratégique est remplacé le 8 janvier 2013 par le Commissariat Général à la Stratégie et à la Prospective (CGSP). Dans son discours en présentant la feuille de route, le Président de la République, François Hollande en précise l’objectif: « pas pour revenir à la planification, pour prévoir les mutations de la France et du monde dans les 5, 10, 15 ans, non pas pour connaître ce qu’il va se passer mais ce que nous devons faire en tant qu’Etat, en tant que nation pour nous mettre en avant. » Le CGSP se voit confier 5 missions: 1. Prospective ; 2. Stratégie ; 44 http://www.withings.com/fr
  • 37. MS Marketing Management 2013-2013 37 3. Evaluation ; 4. Centre de ressources pour concertations et débat public ; 5. Comparaisons internationales et territoriales. C’est le début d’une nouvelles séries d’initatives politiques en faveur du numérique. Lancée le 12 septembre 2013, la dernière initiative gouvernementale en date, vise à déployer 34 plans de reconquête industrielle qui fédéreront grands groupes et PME autour de priorités concrètes et seront soutenus par l’État. Après dix ans de désindustrialisation, 750 000 emplois détruits et une perte de 6 points de la part de l’industrie dans le PIB, le gouvernement cherche ainsi à mettre l’industrie au cœur du redressement de l’économie française. Comme si on s’apercevait enfin « qu’il n’y a pas de grande nation sans capacité industrielle »45. Au côté de secteurs industriels traditionnels figurent des secteurs de pointe (nano-technologies, logiciel embarqué…). Parmi ces 34 Plans, l’un est consacré au « Big Data », un autre au cloud computing et un troisième aux objets connectés qui seront des grands producteurs de données dans les années à venir. Mentionnons également la cybersécurité qui, sans surprise pour un tel catalogue, est embarquée dans cette initiative. Toutefois, malgré le renouveau des ambitions politiques, il faut rappeler que l’Europe et la France sont dans une position tout à fait déséquilibrée par rapport aux Etats-Unis quant à l’ouverture respective de leurs marchés, tout particulièrement leurs marchés publics. Cette situation risque à nouveau de désavantager les initiatives des entreprises françaises. 4.1.3 Ouverture des marchés européens contre protectionnisme américain Rappelons que les acteurs publics représentent une part importante du commerce mondial, de l'ordre de 1 000 milliards d'Euros par an. Les produits et services achetés par les pouvoirs publics représentent environ 17 % du PIB de l'Union européenne. Selon les estimations de la Commission européenne, les marchés publics ont une incidence sur au moins 22 marchés clés de produits et de services. Au total, le chiffre d'affaires des entreprises actives sur ces marchés pourrait dépasser 25 % du PIB de l'Union européenne et représenter 31 millions d'emplois. En septembre 2012 Nicole Bricq, Ministre française du Commerce extérieur, rappelait au Parlement européen que « 90 % des marchés publics de l’Union européenne sont ouverts en toute transparence aux pays tiers contre 32 % aux États-Unis, 28 % au Japon et 16 % au Canada ». Certains secteurs aux Etats-Unis sont même fermés à 100%, c’est le cas des transports publics46. 45 http://www.gouvernement.fr 46 Rapport de la commission sénatoriale présidée par Monsieur Simon Sutour 6 novembre 2012
  • 38. MS Marketing Management 2013-2013 38 Le principe de réciprocité contenu dans les accords du GATT dès 1947 est ainsi largement bafoué. L'absence d'accès réciproque aux marchés publics pénalise gravement les entreprises européennes. Elles subissent non seulement des restrictions d'accès aux marchés de pays tiers mais aussi la concurrence déloyale d'entreprises qui, sur le marché européen, peuvent se permettre de soumissionner sur le marché européen à des prix anormalement bas. Nicole Bricq s’exprimait ainsi dans le Figaro du 5 octobre 2013 : «Les États-Unis sont très protectionnistes. Comment se fait-il que les États-Unis, qui sont très protectionnistes, passent pour un pays libre-échangiste ? L’ouverture des marchés publics est prioritaire». Selon la Commission européenne, plus de 50 % des marchés publics susceptibles d'être mis en concurrence sont fermés par des mesures protectionnistes. En outre, 25 % sont ouverts de facto mais peuvent être fermés à tout moment. Les exportations inexploitées en raison de cette fermeture s'élèveraient à 12 milliards d'Euros pour l'Union européenne. Deux lois américaines déjà anciennes sont toujours en vigueur et avantagent clairement les entreprises américaines pour les marchés publics américains. En 1933, le législateur américain réduit les possibilités de recours à l’export grâce au Buy American Act. Ainsi, le texte impose aux sociétés qui disposent d’un soutien fédéral de ne pas faire appel à un acteur économique étranger. Plus précisément, pour les travaux d’infrastructures les achats d’aciers doivent être passés auprès de fabricants américains. D’abord cantonné au secteur sidérurgique, le plan a été étendu à tous les projets d’infrastructures. Là encore, application de la vision de puissance des Etats-Unis… S’il est bien un acteur français échaudé, c’est Bull (voir chapitre sur le Plan Calcul). En 1989, Bull acquiert Zenith Data Systems, constructeur américain de micro-ordinateurs PC. Destinée à prendre le marché des micro-ordinateurs du gouvernement fédéral américain, cette opération onéreuse s'adressa évidemment à d'autres fournisseurs en raison des lois américaines sur les marchés publics. Cette erreur stratégique conduisit à la revente de ZDS à la société Packard Bell NEC en 1996. Le Small Business Act, daté de 1953, vise à favoriser les PME américaines dans l’économie nationale et réserve ainsi certains marchés publics aux PME : - Ceux situés entre 2500 et 100 000 dollars ; - Au-dessus de 100 000 dollars, quand il existe de très grandes chances qu’au moins deux PME formulent une offre intéressante ; - Si seules les grandes entreprises peuvent répondre à l’appel d’offres, les PME se voient attribuer une réservation partielle du marché ; - Les appels d’offres d’une valeur supérieure à 500 000 dollars remportés par une grande entreprise doivent comporter un plan de sous-traitance montrant la part revenant aux PME.