1. SAS®High-
Performance
Analytics
La valeur des big data
sera dans leur usage
SAS Forum 2012
2. Chapitre 1
Big Data Analytics : l’or noir
des big data sera dans leur
usage
Conférence SAS Forum 2012
3. Les Big Data ont conquis l'espace médiatique, mais le véritable enjeu n'est pas lié à leur stockage, mais bien à l'usage métier qui
en sera fait.
Sommes-nous devant une nouvelle « révolution industrielle», celle de l’information ?
Dans un environnement où les entreprises doivent identifier de nouveaux relais de croissance, nombre d'analystes considèrent la donnée
comme le nouvel « or noir » du 21ème siècle. Si ces promesses de transformation peuvent effrayer certaines organisations, elles
constituent, pour les plus innovantes, des opportunités uniques en termes de compétitivité et de création de valeur.
Des expériences réussies dans des secteurs tels que la banque (gestion du risque de liquidité), la grande distribution (optimisation de la
marge), les télécommunications (optimisation du marketing client), le secteur public (détection et prévention de la fraude), montrent à quel
point un usage différent et innovant des données accumulées conduit à des bénéfices opérationnels spectaculaires, susceptibles
d’améliorer et transformer radicalement les modèles économiques de ces organisations.
La conférence d’ouverture de SAS Forum France 2012, le 16 octobre dernier, a permis de développer et de donner une vision
approfondie des opportunités et des challenges qu'apportent les Big Data aux dirigeants des entreprises et des organisations.
Autour d’Emmanuel Lechypre, économiste et journaliste à BFM Business, Matteo Pacca, Directeur Associé de McKinsey & Company
France, Yves Caseau, Directeur Général Adjoint Technologies, Services et Innovation, Bouygues Telecom et Edouard Fourcade,
Directeur Général de SAS France, ont apporté leur éclairage au travers de leurs expertises respectives.
2
4. Section 1
Big Data : mode d’emploi
Trois grandes questions ont été abordées lors de la présentation de Matteo Pacca, Directeur Associé de McKinsey, auxquelles ce
dernier a répondu de manière très factuelle : assiste-t-on aujourd’hui réellement à un déluge de données ? Existe-t-il déjà des usages
concrets ? Quels sont les principaux défis auxquels sont confrontées les entreprises ?
Avec 30 milliards de contenus échangés sur Facebook chaque mois, avec près d’un milliard de personnes connectées dans le monde et
une somme de contenus intégrée à YouTube équivalant chaque année à la production de trois chaînes télévisuelles depuis 100 ans, il ne
fait aucun doute qu’un véritable déluge de données s’abat non seulement sur le monde de l’entreprise, mais également sur chaque
individu.
Au-delà des données générées par les humains, s’ajoutent 50 milliards d’informations générées par des objets (avec une projection de
215 milliards d’ici à 2015…), compteurs électriques intelligents, GPS, capteurs routiers, etc.
La conjonction de trois contraintes majeures caractéristiques des Big Data (volume, variété, vitesse) remet en cause les architectures
techniques existantes des entreprises et requiert la mise en œuvre de nouvelles conditions favorisant l'analyse, et par conséquent la
création de valeur.
Les entreprises sont conscientes aujourd’hui du potentiel des Big Data et 85% d’entre elles ont des projets concrets, de surcroît soutenus
par leur direction. Mais elles sont également conscientes de la profonde transformation qu’elles doivent initier, ne serait-ce que pour
faciliter l’accès aux informations. Enfin, il semble que les Directions informatiques ne soient pas encore totalement sensibilisées aux
bénéfices potentiellement offerts par les Big Data (70% déclarent que ce n’est pas une priorité). Ceci s’explique par le caractère très neuf
de la technique (moins d’un an pour Hadoop). Mais l’espoir réside aujourd’hui dans l’évolution du débat, qui il y a un an tournait autour de
problématiques techniques et se focalise désormais sur la question des usages.
3
5. Avec des locomotives comme Amazon, Twitter, la Banque fédérale américaine ou de grandes entreprises comme American Airlines, Visa
ou Apple, le train des Big Data est lancé. Certains secteurs comme la finance, le retail ou la santé sont à la pointe et affichent
publiquement les bénéfices tirés des Big Analytics : optimisation de la qualité de service et de la satisfaction des clients, création de
nouveaux services à valeur ajoutée, gestion des risques, notoriété… et un marché global, évalué à 5 milliards de $ en 2012, qui devrait
grimper jusqu’à 55 en 2020.
Pour tirer le meilleur parti des Big Data, Matteo Pacca considère
que les entreprises doivent d’une part multiplier les sources de
données (internes, mais également externes), puis mettre en œuvre
des modèles de prédiction et d’optimisation (avec un focus sur
l’amélioration des performances) et enfin, initier une profonde
transformation organisationnelle, dont le but est de généraliser
l’appropriation des Big Data par l’ensemble de l’entreprise. Ceci
passe par le recrutement de spécialistes de l’interprétation des
données, des statisticiens et experts informatiques dédiés,
chapeautés par un Chief Data Officer. Certaines questions devant
être réglées rapidement, comme par exemple la participation de ce
Matteo Pacca,
dernier au Comité de Direction.
Directeur Associé, McKinsey & Company France
La diffusion de cette vidéo est limitée aux inscrits à SAS Forum 2012.
Merci de ne pas transmettre ce document à un tiers. Si vous souhaitez
partager l’ibook avec d’autres personnes, contactez-nous à
comsas@fra.sas.com.
4
6. Section 2
Big Data : une technologie pivot pour inventer les
nouveaux services de la vie numérique
Yves Caseau, Directeur Général Adjoint Technologies, Services et Innovation, chez Bouygues Telecom a livré dans son intervention,
la vision prospective à cinq ans du monde de demain imaginée par un opérateur télécom.
La multiplicité des objets numériques connectés (de la télévision à la balance pèse-personne ou au réfrigérateur), la domotique de
nouvelle génération (« Smart Home ») et l’explosion des volumes de contenus numériques vont alimenter la croissance des volumes de
données disponibles pour l’analyse.
Les architectures informatiques vont se transformer sur
le modèle du Cloud Computing, avec en corollaire
l’émergence d’un monde « multi-terminal » (un film ou
un achat initié le matin sur un smartphone, poursuivi le
midi sur un PC de bureau, pourra être finalisé le soir, à
partir d’une tablette numérique personnelle). Les
opérateurs télécom vont ainsi devenir des opérateurs
de « vie numérique », dont la principale priorité sera de
gérer la complexité pour décharger les consommateurs
de la gestion fastidieuse de leurs différents terminaux
(self-provisioning, self-diagnosis, etc.). Les systèmes
d’information vont ainsi devenir plus personnalisés et
prédictifs, et tireront parti des techniques massivement
parallèles (cloud, grid, multiprocesseurs, multi-lames, 1 sur 18
etc.).
5
7. Cette mutation crée de nouvelles opportunités de services, notamment dans l’analyse des données pour redonner du sens aux
événements clients (par exemple via des chronologies ou timeline). Principaux bénéficiaires de cette nouvelle génération de services : les
clients (meilleure connaissance de leurs besoins, meilleure qualité de service, assistance contextuelle, etc.). Les réseaux sociaux
devraient prendre une part de plus en plus importante dans l’analyse, comme le prouve par exemple les travaux de la R&D de Telefonica
sur le graphe social et sur l’identification des communautés, essentielle pour prévoir le churn.
Parallèlement, les Big Data forment une nouvelle opportunité de collaboration inter-entreprises : d’une part, pour croiser les sources de
données internes avec des informations externes afin d’enrichir l’analyse, et d’autre part, pour valoriser ses propres données afin de les
commercialiser.
Enfin, Y. Caseau a dévoilé quelques recommandations destinées aux entreprises désireuses de « se lancer ». Au-delà des problématiques
techniques (MapReduce, Hadoop) et du changement de paradigme par rapport aux approches traditionnelles de datamining, la révolution
des Big Data réside dans la capacité d’apprentissage : personnaliser
pour mieux connaître ses clients, simplifier et maîtriser la complexité.
Ceci passe par des recrutements et surtout la fidélisation des
employés.
Et de conclure : « En un mot, ce ne sont pas les idées qui comptent
mais leur réalisation, ou encore les Big Data sont quelque chose que
vous faites et non que vous achetez, donc : ‘’Just do it’‘ ! ».
Yves Caseau,
Directeur Général Adjoint Technologies, Services et
Innovation, Bouygues Telecom
6
8. 269
Que feriez-vous de
269 minutes en plus ?
Avec la solution High-Performance Analytics de SAS®, une agence de
marketing leader du marché a réduit le calcul de ses modèles de scores de 4
heures et demie à seulement 60 secondes.
Dans un environnement où il est de plus en plus difficile de se démarquer, tirez
parti des informations les plus pertinentes pour prendre des décisions, exploitez
la complexité de vos grandes volumétries de données, différenciez-vous et
innovez.
Les high-performance
analytics changent la donne
High-Performance Computing
Grid Computing
In-Database Analytics
In-Memory Analytics
Big Data
www.sas.com/france/hpa
9. Section 3
High-Performance Analytics : innovation et rupture
Pour Edouard Fourcade, Directeur Général de SAS France, les fameux « 3V » de Gartner (volume, variété et vélocité) sont complétés
par un quatrième : la valeur. En 2011, McKinsey a publié une étude (« Big Data, the next frontier for innovation, competition, and
productivity ») mettant en relief les gains offerts par une meilleure utilisation des données dans chaque secteur d’activité. Plus récemment,
une étude économique publiée cette année au Royaume-Uni par le Centre for Economics and Business Research (Cebr) estime cette
valeur additionnelle à 216 milliards de livres (sur 5 ans) à la fois en création de nouveau business, en innovation et en gains de
productivité. Pourtant, 80% des entreprises reconnaissent qu’elles n’exploitent pas encore les données à leur disposition à leur juste
valeur.
Si les sources de données se multiplient (M2M, capteurs, équipements industriels, GPS, réseaux sociaux, etc.), l’essentiel réside
aujourd’hui dans la capacité des entreprises à les analyser, tout en tenant compte de la dimension temporelle (une donnée de
géolocalisation étant moins pérenne qu’une information comportementale par exemple). Les Big Data Analytics offrent donc une
corrélation capitale de trois dimensions : le temps (temps réel), la complexité et la différentiation. Et il est essentiel de comprendre qu’il
n’existe pas de vérité unique : un même jeu de données offrant différentes valeurs à différents secteurs.
Le concept de « Big Data Analytics » est au cœur de cette démarche que SAS adresse à travers ses solutions High-Performance
Analytics. Pour SAS, répondre aux enjeux des Big Data c’est avant tout mettre en perspective l’urgence de la décision et la complexité
analytique dans le cadre d’enjeux métiers bien définis.
Mettre en perspective cette urgence de la décision par rapport à un cycle analytique complexe offre une excellente manière de se
différencier des concurrents. L’action finale qui relève du processus de décision n’est en effet que la dernière étape d’un cycle qu’il est
essentiel de maîtriser autant que faire se peut. Par analogie avec les différentes phases d’un combat aérien c’est la répétition d’un très
grand nombre de phases d’observations, d’orientation et de décisions unitaires qui amène à prendre l’avantage dans l’action. High-
8
10. Performance Analytics prend en compte l’ensemble de ces étapes pour aider les entreprises à dégager un avantage compétitif dans des
situations où la prise de décision dépend d’informations complexes et doit être argumentée dans un temps relativement contraint.
Mettre en perspective de nouvelles données, observer de nouveaux marchés, prendre de nouvelles orientations, de nouvelles décisions,
innover, c’est bien là l’enjeu principal des Big Data, qui n’est ni spécifique à un secteur, ni à un métier de l’entreprise. Tous les secteurs
sont concernés : de la grande distribution à la banque, du secteur public aux télécommunications. Tous les métiers aussi : du marketing à
la gestion du risque, de la fraude à la gestion de la chaîne logistique.
E. Fourcade a poursuivi en décrivant l’expérience de plusieurs clients de SAS et surtout les bénéfices obtenus grâce à la mise en œuvre
d’une stratégie de High-Performance Analytics :
• un grand distributeur américain est parvenu à moduler dynamiquement sa stratégie de prix au niveau le plus fin, de manière à
augmenter sa marge et son revenu, via l’optimisation des plans
de démarque,
• une banque asiatique a amélioré sa visibilité sur son exposition
aux risques et plus particulièrement aux risques de marché et
aux risques de liquidité,
• un opérateur télécom australien a modélisé le comportement
de ses clients pour mieux les connaître, réduire le taux
d’attrition et séduire de nouveaux clients,
• un opérateur marketing qui mesure la fidélité des clients à
travers l’usage des tickets de caisse, a réduit les temps de Edouard Fourcade,
traitement de plus de 4h à moins d’une minute, tout en
Directeur Général, SAS France
améliorant de 10 à 25% les taux de fidélité, ce qui lui permet
aujourd’hui d’envisager l’évolution de son modèle économique.
Voir la présentation détaillée « High-Performance Analytics : innovation et rupture » (chapitre II).
9
11. Pour conclure, Edouard Fourcade a engagé les entreprises à « oser » : les technologies existent, les modèles analytiques avancés
également, les compétences sont disponibles. Il ne reste plus qu’à engager le dialogue en interne pour identifier de nouveaux usages
générateurs de valeur. La croissance et la survie des entreprises dépendent aujourd’hui de leur capacité à innover et à transformer leurs
modèles économiques. Les Big Data peuvent, au cœur d’une démarche analytique assez voisine de la démarche scientifique, constituer
le principal moteur de cette innovation, au cœur même du processus de décision des plus grandes organisations.
10
12. 92
Que feriez-vous de
92 heures en plus ?
Avec la solution High-Performance Analytics de SAS®, une institution financière a pu
réduire le temps de calcul du risque de crédit de 96 heures à seulement 4 heures.
La détection précoce des comptes à haut risque est indispensable pour déterminer le
risque de défaut de paiement, prévoir les pertes et savoir comment couvrir les
risques plus efficacement. SAS vous aide à prendre vos décisions en quelques
minutes ou secondes, en tirant de vos grandes volumétries de données l’information
métier dont vous avez besoin.
Les high-performance
analytics changent la donne
High-Performance Computing
Grid Computing
In-Database Analytics
In-Memory Analytics
Big Data
www.sas.com/france/hpa
13. Section 4
Big Data : maintenant, et demain ?
En réponse aux questions du public, les trois intervenants ont commenté la démocratisation en cours de l’analytique, notamment auprès
des PME (baisse des coûts, accessibilité accrue des données) et sur le retard relatif de la France par rapport aux autres pays (la France a
une culture d’ingénieurs qui cherchent avant tout à maîtriser par avance tous les aspects d’un projet alors qu’il conviendrait surtout de se
lancer, d’oser). Enfin, par rapport aux questions de respect de la vie privée, ils ont exprimé leur confiance dans la capacité
d’autorégulation de l’espèce humaine. Si des dérapages sont effectivement prévisibles au début (les usages vont plus vite que la
réglementation), ils formeront au final une portion négligeable des projets. De plus, les consommateurs eux-mêmes sont de plus en plus
demandeurs de services à valeur ajoutée qu’ils échangent contre la fourniture de données personnelles.
Table ronde
La diffusion de cette vidéo est soumise au droit à l’image, elle ne peut
en aucun cas être publiée, utilisée ou diffusée hors du contenu de cet
ibook.
12
14. Chapitre 2
High-Performance Analytics :
innovation et rupture
Le point sur les usages
15. Section 1
Big Data : quelle réalité pour quels enjeux ?
Les Big Data ont rapidement conquis l’espace médiatique au cours de l’année 2012. Autrefois relayé uniquement par la presse
spécialisée évoquant le risque d’un tsunami de données (dû à l’incapacité des systèmes d’information actuels à traiter la masse
croissante d’informations générées chaque jour au niveau mondial), le phénomène Big Data a depuis largement conquis les colonnes de
la presse économique qui s’interroge à la fois sur le risque et sur les éventuelles opportunités qui y sont associées.
Au-delà du « buzz » médiatique et des aspects purement technologiques, nous nous intéressons ici aux usages que ce phénomène
pourrait impliquer pour les entreprises. Considérant qu’il y a un avant et un après les « Big Data », cette nouvelle donne est avant tout
synonyme d’innovation pour les entreprises qui sauront en tirer parti.
Big Data : quelle réalité ?
Que cache le phénomène Big Data ? Tout d’abord une réalité pour les plus grandes entreprises qui accumulent quotidiennement des
masses considérables d’informations.
L’étude publiée par McKinsey sur la répartition sectorielle des données accumulées par les entreprises aux Etats-Unis en 2009 permet de
dresser plusieurs constats. En premier lieu, cette réalité touche bien évidemment tous les secteurs de l’économie, quoique de manière
différenciée. En second lieu, certains secteurs (notamment l’industrie) étant plutôt fragmentés, une analyse portant sur les grandes
entreprises (plus de 1000 salariés) met en évidence les secteurs pour lesquels l’information atteint une masse que l’on peut considérer
comme critique :
• les secteurs de la banque et de la finance où l’information stockée témoigne d’une activité transactionnelle traditionnellement
intensive, avec des obligations réglementaires justifiant des historiques de stockage importants,
14
16. • le secteur public et les services publics où l’information stockée est associée à une activité très opérationnelle touchant un grand
nombre d’usagers,
• le secteur de la communication et des médias où les données multimédia (photos, voix, vidéo, etc..) génèrent à elles seules des
besoins de stockage et de traitement importants. Ce secteur est également caractérisé par des bases de données comportant un
nombre important de clients.
Ces secteurs sont particulièrement représentatifs de la diversité du phénomène Big Data, à laquelle la majorité des analystes associent 3
critères de base (les « 3V ») :
BIG DATA: V3
• la variété des données : au-delà des chiffres, les entreprises stockent des informations très diverses : textes, audio, images, vidéos, …
Aujourd’hui moins de 20% des données sont structurées, alors que 80% sont non structurées,
15
17. • la vélocité : certaines données évoluent de manière très rapide (parfois en temps réel) dans les systèmes d’information des entreprises
et leur traitement doit tenir compte de ce contexte,
• le volume, on l’a vu précédemment, touche toutes les entreprises, quel que soit leur secteur.
Pour représenter le phénomène Big Data à un niveau global, IDC estime le volume total d’informations stockées durant la même année
2009 à près de 1 Zettaoctet (1021 octets, soit l’équivalent du volume d’informations stockées dans une pile de 200 milliards de DVD,
couvrant la distance de la terre à la lune), avec une perspective de croissance telle qu’il atteindrait plus de 35 Zettaoctets à l’horizon
2020.
Au-delà de ces chiffres astronomiques la plupart des analystes font les mêmes constats :
• sans rupture technologique majeure au cours des dix prochaines années ce volume dépassera bientôt les capacités de stockage et de
traitement des entreprises,
• il est donc particulièrement important d’être en mesure de ne stocker et traiter que les données les plus pertinentes, celles qui ont du
sens et dont peut espérer tirer de la valeur.
Tout l’enjeu consiste donc non seulement à assurer une meilleure gouvernance des données de l’entreprise, mais d’être simultanément
en mesure d’adresser les trois dimensions de volume, de variété, de vélocité pour s’assurer d’une utilisation optimale des données au
service des objectifs stratégiques de l’entreprise, de la préservation de son modèle économique ou de l’invention de nouveaux
modèles économiques créateurs de différentiation.
Quelle valeur pour les big data ?
Au-delà des gains issus d’une gestion plus rigoureuse et d’une meilleure gouvernance des données, de quelle valeur parlons-nous ?
De nombreux analystes se sont prêtés à l’exercice parfois délicat de la prospective. Nous invitons le lecteur à lire notamment les résultats
de l’étude de McKinsey publiée en juin 2011 (« Big Data, the next frontier for innovation, competition, and productivity » - McKinsey
Global Institute, 2011) qui décrit, secteur par secteur, les potentiels de gains offerts par une meilleure utilisation des données.
16
18. A ces résultats déjà très concrets, nous ajouterons ceux d’une étude économique publiée cette année au Royaume-Uni par le Centre for
Economics and Business Research (Cebr) qui estime cette valeur additionnelle à 216 milliards de livres (sur 5 ans) à la fois en création de
nouveau business, en innovation et en gains de productivité.
Il est sans doute intéressant de comparer ces chiffres avec l’utilisation plutôt modeste que les entreprises font de leurs données. Une
enquête d’IDC portant sur un très grand nombre d’entreprises européennes démontre que seulement 20% des entreprises estiment
utiliser correctement la totalité des données utiles à leurs business, ce qui signifie que près de 80% des entreprises n’exploitent que
partiellement leurs données.
17
19. Ces chiffres sont probablement sous-évalués dans la mesure où, aujourd’hui, un grand nombre de données potentiellement utiles à
l’entreprise résident aussi à l’extérieur de l’entreprise (données de marché, réseaux et médias sociaux, etc.).
Enfin, l’étude de McKinsey « Are you ready for the era of Big Data ? » met en évidence la contribution des Big Data à la création de valeur
dans les différents secteurs économiques : personnalisation poussée, expérimentation continuelle et nouveaux business models.
18
20. Section 2
Entrer dans le monde des big data
De nouvelle formes de données
Les données utiles à l’entreprise du 21ème siècle ont changé, en nature, en forme, en contenu et donc tout naturellement en valeur.
Les données dites « traditionnelles » occupent une large part. Ce sont celles qui font vivre l’entreprise au quotidien : données clients,
données RH, données comptables, etc… Les conditions économiques (crises, concurrence) et réglementaires (contrôle interne,
obligations légales), ainsi que les différents besoins de stockage et de traitements (environnements de production, operational data
stores, datamarts, datawarehouse, …) les ont simplement démultipliées.
Mais, de nouvelles formes de données sont apparues, de manière inégale dans les petites et les grandes entreprises. Traversant
parfois de manière transitoire les systèmes d’information des entreprises, elles comportent parfois une valeur contextuelle importante
(espace/temps/mode d’acquisition) susceptible de générer de nouveaux usages.
Sans être exhaustifs, nous citerons :
• les données collectées par des capteurs notamment dans l’industrie, les transports, la santé,
• les données spatiales (ou géolocalisées) générées par les nombreux utilisateurs de dispositifs mobiles (smartphones, tablettes, GPS)
• les données collectées par les dispositifs dits « Machine to Machine » qui préfigurent l’Internet des objets et transmettent de manière
périodique des informations sur leur activité (cf. machines « Nespresso », volets roulants, systèmes d’alarmes, avertisseurs GPS,
compteurs électriques de nouvelle génération…),
19
21. • les données véhiculées par les médias et les réseaux sociaux (informations structurelles sur les liens communautaires de leurs
membres, informations qualitatives dans les conversations des internautes),
• les données de « logs » (issues des serveurs internet : serveurs web, serveurs d’applications mobiles, serveurs de jeux),
• les données de flux évoluant (cours et autres valeurs indicielles évoluant en temps réel…).
Toutes les données de l’entreprise ont une durée de vie et une date limite de consommation (date à laquelle leur valeur d’usage par
rapport aux enjeux business de l’entreprise devient nulle ou quasi nulle par rapport aux coûts de stockage et de traitement). C’est encore
plus flagrant pour les nouvelles formes de données évoquées plus haut qui sont symptomatiques du phénomène Big Data à la fois par
leur volume, leur grande diversité et leur extrême vélocité. Pour un usage contextuel, une donnée de géolocalisation n’a de valeur d’usage
qu’à un certain endroit à un certain moment. Elle a une autre valeur d’usage si l’on s’intéresse au parcours historique complet d’un
individu. Ces deux valeurs sont différentes et répondent à des enjeux différents.
Il est donc impératif de mettre en perspective les Big Data par rapport à l’urgence, au coût du traitement (et du stockage) et aux enjeux
métiers associés, sachant que certains traitements requièrent une complexité algorithmique importante.
Urgence, complexité, différenciation
Le point essentiel des Big Data n’est pas, en effet, de stocker la donnée pour une durée indéterminée et pour un usage futur, mais bien de
la traiter dans un temps compatible avec les enjeux métiers actuels ou potentiels.
Ceci nécessite la mise en œuvre d’une démarche analytique permettant :
• d’adresser la réactivité, qui se traduit parfois par des usages quasi temps-réel (cf. usage contextuel de la géolocalisation),
• d’adresser la complexité, qui peut être inhérente à l’algorithme ou tout simplement induite par la diversité des données à mettre en
relation,
20
22. • de mettre en perspective ces deux derniers aspects par rapport aux enjeux et aux usages métiers qui existent déjà dans l’entreprise
ou qui peuvent être créés pour l’occasion.
Derrière les Big Data il y avant tout des usages et en particulier ceux qui favorisent la prise de décision « argumentée » basée sur une
démarche expérimentale ou analytique appropriée en trois phases : découvrir, modéliser, décider.
Le concept de « Big Data Analytics » est au cœur de cette démarche que SAS adresse à travers ses solutions High-Performance
Analytics. Pour SAS, répondre aux enjeux des Big Data c’est avant tout mettre en perspective l’urgence de la décision et la complexité
analytique dans le cadre d’enjeux métiers bien définis. Ces exigences sont au cœur de nos solutions High-Performance Analytics qui
intègrent à la fois des dimensions :
• technologiques, exploitant les avancées les plus récentes en matière de calcul distribué en mémoire,
• métiers, prenant en compte l’ensemble du cycle analytique au service des métiers de l’entreprise.
21
23. High-Performance Analytics : les enjeux
Mettre en perspective l’urgence de la décision par rapport à un cycle analytique complexe offre également une excellente manière de se
différencier des concurrents. L’action finale qui relève du processus de décision n’est en effet que la dernière étape d’un cycle qu’il est
essentiel de maîtriser autant que faire se peut.
Par analogie avec les différentes phases d’un combat aérien c’est la répétition d’un très grand nombre de phases d’observations,
d’orientation et de décisions unitaires qui amène à prendre l’avantage dans l’action. High-Performance Analytics prend en compte
l’ensemble de ces étapes pour aider les entreprises à dégager un avantage compétitif dans des situations où la prise de décision dépend
d’informations complexes et doit être argumentée dans un temps relativement contraint.
Mettre en perspective de nouvelles données, observer de
nouveaux marchés, prendre de nouvelles orientations, de
nouvelles décisions, innover, c’est bien là l’enjeu principal des
Big Data, qui n’est ni spécifique à un secteur, ni à un métier
de l’entreprise. Tous les secteurs sont concernés : de la
grande distribution à la banque, du secteur public aux
télécommunications. Tous les métiers aussi : du marketing à
la gestion du risque, de la fraude à la gestion de la chaîne
logistique.
Nous illustrerons ce point à travers les expériences concrètes
de très grandes entreprises clientes de SAS qui se sont
appuyées sur des solutions High-Performance pour mettre en Voir la vidéo
œuvre des innovations importantes dans leurs modèles SAS® High-Performance Analytics, A Real Game Changer
économiques.
22
24. Section 3
Retour sur des expériences concrètes
Un des 10 premiers distributeurs aux Etats-Unis.
• Revenus 2011: 25 milliards de $
• +700 magasins
• +160 000 employés
Ce grand distributeur américain souhaitait être en mesure de moduler dynamiquement sa stratégie de prix au niveau le plus fin, de
manière à optimiser sa marge et son revenu. Il souhaitait innover – renouveler son modèle économique - en adoptant les concepts de
« revenue management » développés par les grandes compagnies aériennes au cours des 20 dernières années.
23
25. Mais à la différence des compagnies aériennes qui ne gèrent que quelques dizaines de destinations, il s’agissait ici de jongler avec des
centaines de milliers de produits dans plusieurs centaines de magasins. Concrètement en y associant les critères de taille, de couleur, de
conditionnement, cette opération représente plus de 280 millions de combinaisons produit/point de vente pour certains articles. L’enjeu
principal était de gérer plus de 10 000 plans de démarque par semestre pour environ 1/3 des références produits et d’ajuster ainsi les
prix de plusieurs milliers de référence chaque semaine.
Cette exigence n’était tout simplement pas compatible (dans un temps acceptable) avec les possibilités de traitement informatique de
l’entreprise (plusieurs centaines voire plusieurs milliers d’heures de calculs sont nécessaires). Une approche différente du problème basée
sur les technologies High-Performance Analytics de SAS a permis de concilier les enjeux métiers, l’exigence de réactivité hebdomadaire
et la complexité des analyses à mettre en œuvre (prévisions court-terme, optimisation sous-contrainte).
24
26. United Overseas Bank est l’un des premiers groupes bancaires du sud-est asiatique.
• Créé en 1935, le groupe est présent dans 19 pays (Asie-Pacifique, Europe Occidentale, Etats-Unis), son siège social est situé à
Singapour
• Revenus 2011 : 5,699 milliards de $
• Total Assets : 237 millards de $
A l’issue de la crise qui a affecté un grand nombre de banques internationales (y compris en France), cette grande banque souhaitait
améliorer sa visibilité sur son exposition aux risques et plus particulièrement aux risques de marché et aux risques de liquidité.
Il ne s’agissait pas de mettre en place un Reporting dédié à la conformité, tel qu’on peut le rencontrer dans les problématiques Bâle 2,
mais plutôt de disposer de la capacité à simuler différents scénarios pour permettre une gestion dynamique, opportuniste et si possible
optimale de ses fonds propres et de son exposition au risque.
25
27. Si le volume de données en entrée est relativement faible et nous éloigne a priori d’une problématique Big Data, là encore, la complexité
analytique, le besoin de réactivité (intra-day) et les enjeux métiers imposent la simulation (pour le risque de marché comme pour le risque
de liquidité) de dizaines de milliers de scénarios (ou états de marché) pour chacun des instruments financiers et sur plusieurs horizons
temporels générant ainsi de très gros volumes d’information en sortie.
Ici encore, l’informatique interne ne pouvait fournir la réactivité suffisante pour fournir quotidiennement les résultats souhaités. Une
approche High-Performance Analytics a permis à cette banque de répondre à l’ensemble de ses exigences.
26
28. Catalina Marketing est le leader mondial du marketing relationnel basé sur le comportement réel d’achat
des consommateurs.
• Chiffre d’affaires : environ 450 millions de $
• Création : 1985
• 200 millions de clients
• Plus de 1000 collaborateurs dans le monde, dont 300 en Europe et 160 en France
Catalina Marketing offre ses services aux grands distributeurs du monde entier. Le grand public les connaît indirectement à travers les
coupons qu’il reçoit en sortie de caisse de certains magasins.
29
29. Catalina gère l’une des plus grosses bases de données dans le monde (environ 3 Pétaoctets de données). Cette base gère les habitudes
de consommations de près de 200 millions de clients (historiques sur 3 ans) dans environ 23 000 magasins et 14 000 pharmacies aux
Etats-Unis, et environ 7 000 magasins à l’étranger.
Une idée de la volumétrie des données :
23 000 points de vente aux Etats-Unis
200 millions de clients
5 milliards de coupons/offres
14 000 pharmacies aux Etats-Unis
1 milliards de newsletters/an
7 000 magasins
En tout, Catalina génère plus de 5 milliards de messages (offres/coupons/mails)
Le métier de Catalina consiste à mesurer la fidélisation des clients, à travers l’usage des coupons en caisse. Une meilleure connaissance
des habitudes des consommateurs et des comportements des clients améliore le ciblage, la pertinence des coupons et des offres
proposées aux consommateurs. Environ 350 millions de nouveaux paniers sont ainsi analysés chaque semaine.
Compte tenu de la volumétrie, de la profondeur de l’historique et de la complexité des modèles à mettre en œuvre, la capacité à améliorer
sensiblement le temps de traitement des modèles est critique pour Catalina et ses clients. L’usage des technologies HPA a permis de
réduire les temps de traitement de plus de 4h à moins d’une minute, en augmentant sensiblement la fidélité des clients : l’usage des
coupons étant passé de 10 à 25%.
Grâce à ces gains de performance, Catalina est en mesure d’envisager aujourd’hui l’évolution de son modèle économique, avec pour
ambition de passer du rôle de simple producteur de coupons en ligne de caisse à un acteur clé de la fidélisation multicanal, intégrant
notamment les nouveaux canaux digitaux (réseaux sociaux et mobiles).
30
30. Conclusion
Big Data : «Think Big»
L’innovation est depuis longtemps liée aux progrès de la science. Au cœur de la démarche scientifique expérimentale, les données sont
une matière première essentielle de ces progrès, un carburant indissociable du processus d’innovation.
La croissance et la survie des entreprises dépendent aujourd’hui de leur capacité à innover et à transformer leurs modèles économiques.
Les Big Data peuvent, au cœur d’une démarche analytique assez voisine de la démarche scientifique, constituer le principal moteur de
cette innovation, au cœur même du processus de décision des plus grandes organisations.
31
31. Mais même les entreprises les plus innovantes doivent rendre des comptes. Elles ne peuvent raisonnablement se transformer sans
moyens, sans démarche, sans ressources appropriées. Elles doivent désormais intégrer de nouveaux métiers (Data Scientist, Chief Data
Officer) et s’approprier de nouveaux moyens (Big Data Analytics). Ainsi, elles bénéficieront de gains de performances qui amélioreront leur
rentabilité.
SAS® Visual Analytics Explorer
32
32. La vocation du site Business-Analytics-Info.fr, créé par SAS, est d’aider les décideurs à comprendre la valeur métier qu’ils
peuvent retirer des gisements de données dont ils disposent.
« Nous considérons que nous sommes les mieux placés pour aider les
décideurs à appréhender tous les avantages que les business
analytics peuvent apporter aux entreprises et aux organisations
publiques, mais aussi aux consommateurs et citoyens dans leur vie de
tous les jours. Grâce à Business-analytics-info.fr nous espérons aider à
faire germer de nouvelles idées et à accompagner les évolutions des
entreprises et de la société. »
Edouard Fourcade, Directeur général de SAS France
L’équipe rédactionnelle du site scrute en permanence sur le web tout
ce qui se dit et s’écrit d’intelligent, de pertinent, de nouveau et de
pédagogique au sujet des business analytics et de l’analyse des
données. Elle est particulièrement à l’affût des écrits des auteurs
indépendants, des analystes, des consultants, des universitaires.
Au-delà de collecter, synthétiser et diffuser de l’information dans le
domaine de l’analytique et des big data, Business Analytics Info
contribue au débat et à la réflexion avec Le Club qui rassemble des
personnalités, journalistes et experts sur des thèmes d’actualité. La
première rencontre du Club était consacrée au marketing politique.
Abonnez-vous à Business Analytics Info
33. Chapitre 3
Les solutions SAS
Prendre ses décisions à la vitesse de la lumière
34. Quoi de plus explicite qu’une démonstration commentée pour découvrir le fonctionnement et les possibilités offertes par les nouvelles
solutions SAS® High-Performance Analytics et SAS Visual Analytics ?
A l’occasion de SAS Forum, Jim Goodnight, CEO de SAS, présentait en personne et en direct du siège social de SAS, à Cary en
Caroline du Nord, le fonctionnement de SAS HPA et en faisait la démonstration.
Randy Guard, Vice President Product Management, de son côté présentait les capacités d’exploration et de visualisation des données
offertes par la toute nouvelle solution SAS.
Voir les vidéos
35
35. Section 2
Que signifie High-Performance Analytics ?
Aujourd'hui, les organisations performantes veulent tirer parti de l'information issue de leurs données de plus en plus volumineuses et
ce, dans les plus brefs délais. L'enjeu est d'accéder à des données pertinentes le plus vite possible, révéler des modèles, sentiments,
relations jusqu'alors ignorés, diffuser cette information en temps réel, et surtout accélérer le cycle de décision. L'analytique haute-
performance de SAS vous aide à :
Transformer vos big data en Produire de la connaissance avec les
information de valeur pour votre métier. meilleurs outils d'analyse au monde.
Changer votre façon de travailler Investir dans des technologies analytiques
grâce à des décisions immédiates. évolutives pour préparer l'avenir.
36
36. L'analytique haute performance aide les entreprises à tirer parti du big data.
SAS aide les organisations à exploiter leurs grosses volumétries de données dans les plus brefs délais. Leader des solutions analytiques
depuis plus de 36 ans, SAS affranchit les entreprises des contraintes liées aux limites des traitements traditionnels des données, et leur
permet de produire une valeur ajoutée immédiate via leurs big data.
L'accès à la connaissance : toujours plus rapide
De la banque à la distribution en passant par la santé et l'assurance, SAS aide tous les secteurs économiques à découvrir des
informations dans leurs big data en quelques heures, minutes ou secondes, là où auparavant plusieurs jours ou semaines étaient
nécessaires. Il s'agit simplement d'accéder à des données pertinentes et les analyser au plus vite.
Les solutions SAS® High-Performance Analytics
En combinant des logiciels d'analyses puissants avec les technologies de calcul haute performance, les problématiques complexes se
résolvent plus rapidement, plus efficacement et permettent de dégager un véritable avantage concurrentiel.
• SAS® In-Memory Analytics Les calculs et les analyses s’effectuent en mémoire et offrent des temps de réponse sans précédent.
• SAS® In-Database est une solution souple et efficace qui permet de déléguer des traitements et analyses SAS dans les bases de
données.
• SAS® Grid Computing permet d’exploiter automatiquement une infrastructure de calcul distribué avec une gestion centralisée, et de
conjuguer le traitement de grosses volumétries de données avec le nombre croissant des utilisateurs.
La combinaison des éléments de cette plate-forme intégrée, aux multiples fonctionnalités, modifie complètement la vision du marché des
architectures décisionnelles, et redéfinit la manière de résoudre les problèmes liés aux big data.
37
37. Section 3
Comment cela fonctionne ?
L'infrastructure High-Performance Analytics de SAS
répond à tous vos besoins d'analyses – quels que soient
les volumes de données ou la complexité des analyses,
et quelle que soit l'évolution des besoins et des volumes
dans le temps. Les options de traitement proposées –
In-Memory, In-Database et Grid Computing – vous
permettent de profiter des dernières avancées
technologiques, tout en garantissant flexibilité et
évolutivité. Vous utilisez mieux vos ressources et réalisez
des gains de performance que vous n'auriez jamais cru
possible. Un environnement High-Performance Analytics
vous permet de tirer avantage de votre architecture
existante. De votre parc machines aux matériels les plus
récents, SAS vous permet de transformer votre capital BROCHURE
de big data en connaissance à haute valeur ajoutée.
High-Performance Analytics
Tirer parti des big data et des
fonctions analytiques élaborées
pour innover et se différencier.
Télécharger la brochure
38
38. Pour vous aider à répondre à vos besoins métiers spécifiques avec la bonne combinaison technologique, SAS vous propose trois options
de calcul distribué :
SAS® In-Memory Analytics
Les calculs et les analyses s’effectuent en mémoire, au niveau de chaque nœud sur le serveur pour résoudre vos problèmes complexes
en temps quasi-réel.
SAS® In-Database
Grâce aux fonctions de traitement déléguées aux bases de données, les données sont mieux administrées et le temps d’exécution est
amélioré puisqu'il n'est pas nécessaire de déplacer ou convertir des données à plusieurs reprises.
SAS® Grid Computing
Le traitement des tâches SAS s'effectue dans le pool de ressources partagées qui leur est attribué dans l'environnement distribué.
Les solutions SAS® High-Performance Analytics permettent de résoudre une variété de problèmes métiers et sectoriels spécifiques et de
réaliser des analyses allant de la visualisation et de l'exploration des données au développement de modèles et à leur déploiement. Grâce
à la flexibilité et l'évolutivité des solutions SAS® High-Performance Analytics, les défis que l'avenir réservent pourront être relevés quels
que soit le volume, la complexité des données et la nature de votre demande.
39
39. 28
Que feriez-vous de
28 heures en plus ?
Avec la solution High-Performance Analytics de SAS®, un grand distributeur
américain optimise les prix de 270 millions d’articles chaque semaine et ce, en
2 heures de temps au lieu de 30 auparavant.
Désormais, vous pouvez réaliser vos plans de démarque 22 fois plus vite, en
économisant 70% de coûts en matériel informatique. Accélérez la rotation de
vos stocks, lancez vos promotions au meilleur moment, et laissez vos
concurrents sur la touche.
Les high-performance
analytics changent la donne
High-Performance Computing
Grid Computing
In-Database Analytics
In-Memory Analytics
Big Data
www.sas.com/france/hpa
40. Se lancer et expérimenter…
Ces deux engagements à l’action sont revenus à de nombreuses reprises au cours des débats
qui ont animé la session plénière de SAS Forum 2012.
Les 3 V qui caractérisent désormais la notion de Big Data cachent un enjeu plus fondamental :
quelle valeur les entreprises sauront-elles tirer de ce déluge d’informations ?
Les opportunités sont multiples : optimisation ou transformation de processus existants, mais
plus encore innovation et découverte de nouveaux modèles business.
Les outils d’analyse sont également disponibles et ils répondent aux enjeux d’urgence et de
complexité de la décision…
Nous sommes prêts dès aujourd’hui à vous accompagner, alors pourquoi attendre ?
Certains se sont déjà lancés… Osez !!