DeciLogic, pourquoi mettre en place un SID ?Eric Mauvais
Pour mettre en place un SID ?
Partager une approche commune
Les limites du Système d’Information Opérationnel
Généralité sur les modèles de données
Définition des modèles de données décisionnels
Formes dimensionnelles complexes
Architecture générales
Alimentation
Le système de diffusion et de Présentation
Environnement et organisation des projets
Les avis des analystes sur le futur de l’industrie sont divers, les plus pessimistes parlent d’une accélération de la désindustrialisation tandis que d’autres relèvent le rebond des investissements en 2011 comme une raison d’être optimiste.
Le premier enjeu auquel les industries doivent faire face est donc celui de leur existence même!
Pour répondre à cet enjeu majeur de pérennité, les entreprises industrielles doivent bien sûr être compétitives sur le prix mais elles doivent être également concurrentielles sur d’autres aspects comme l’innovation et la mise en marché des produits ou encore l’offre de services associés aux produits.
Pour atteindre cette excellence opérationnelle, les entreprises industrielles doivent gérer une complexité croissante des relations entre les maillons de la chaîne de valeur marquée par une plus forte division des tâches et dispersion géographique des acteurs. Elles doivent également être capables de faire face à de plus grandes variations du prix des matières premières, à une demande plus difficile à anticiper, ou encore à l’intégration de pays à bas coût au sein de l’Union Européenne.
DeciLogic, l'envergure d'un projet décisionnelEric Mauvais
Présentation complète d'un projet décisionnel :
Décisionnel et performance d’entreprise
Les tableaux de bord
Analyse prédictive
La qualité des données
La conduite d’un projet décisionnel
Conclusion
DeciLogic, les modélisations décisionnellesEric Mauvais
Pourquoi mettre en place un SID ?
Les enjeux du Système d’Information Décisionnel :
Définition des modèles de données décisionnels
- Vues, Faits et Dimensions
- Intégration des vues
- Normalisation des contextes
- La forme dimensionnelle normales et ses conséquences
Formes dimensionnelles complexes
- Etats et flux
- Les représentations du temps
- Dérives dimensionnelles
- Indicateurs qualifiés
- Méthodes de consolidation
DeciLogic, pourquoi mettre en place un SID ?Eric Mauvais
Pour mettre en place un SID ?
Partager une approche commune
Les limites du Système d’Information Opérationnel
Généralité sur les modèles de données
Définition des modèles de données décisionnels
Formes dimensionnelles complexes
Architecture générales
Alimentation
Le système de diffusion et de Présentation
Environnement et organisation des projets
Les avis des analystes sur le futur de l’industrie sont divers, les plus pessimistes parlent d’une accélération de la désindustrialisation tandis que d’autres relèvent le rebond des investissements en 2011 comme une raison d’être optimiste.
Le premier enjeu auquel les industries doivent faire face est donc celui de leur existence même!
Pour répondre à cet enjeu majeur de pérennité, les entreprises industrielles doivent bien sûr être compétitives sur le prix mais elles doivent être également concurrentielles sur d’autres aspects comme l’innovation et la mise en marché des produits ou encore l’offre de services associés aux produits.
Pour atteindre cette excellence opérationnelle, les entreprises industrielles doivent gérer une complexité croissante des relations entre les maillons de la chaîne de valeur marquée par une plus forte division des tâches et dispersion géographique des acteurs. Elles doivent également être capables de faire face à de plus grandes variations du prix des matières premières, à une demande plus difficile à anticiper, ou encore à l’intégration de pays à bas coût au sein de l’Union Européenne.
DeciLogic, l'envergure d'un projet décisionnelEric Mauvais
Présentation complète d'un projet décisionnel :
Décisionnel et performance d’entreprise
Les tableaux de bord
Analyse prédictive
La qualité des données
La conduite d’un projet décisionnel
Conclusion
DeciLogic, les modélisations décisionnellesEric Mauvais
Pourquoi mettre en place un SID ?
Les enjeux du Système d’Information Décisionnel :
Définition des modèles de données décisionnels
- Vues, Faits et Dimensions
- Intégration des vues
- Normalisation des contextes
- La forme dimensionnelle normales et ses conséquences
Formes dimensionnelles complexes
- Etats et flux
- Les représentations du temps
- Dérives dimensionnelles
- Indicateurs qualifiés
- Méthodes de consolidation
Offre de services Baccou Bonneville ConsultantsAlterest
Baccou Bonneville Consultants est un cabinet de conseil indépendant dédié aux directions informatiques des grandes entreprises et administrations. Découvrez l'offre de services de la société !
Gouvernance des données - Pourquoi démarrer une gouvernance des données agile ?Zeenea
La gouvernance des données au 21 siècle est un concept, sans doute un peu ambigu, qui évolue très rapidement et est est défini de manière different selon le context, les personnes et les organisations.
Pour Zeenea, la gouvernance des données est l’élaboration des politiques et la supervision des informations de l’entreprise. La gouvernance des données aligne la qualité des données sur les mesures et l'acceptation commerciales, positionne les problèmes de données métiers comme étant interfonctionnels et garantit que les données soient gérées séparément de ses applications.
- Les différentes approches de la gouvernance des données -
En effet une gouvernance des données se pense donc sous deux approches : defensive et offensive.
>> Une approche defensive va mettre l’accent sur le contrôle des données.
>> Une approche offensive sur la flexibilité la facilitation et la creation de valeur par les données.
- Vers une gouvernance des données agile -
Dans le passé, la gouvernance des données signifiait sécurité des données et contrôle, alors qu'aujourd'hui l'accent est mis sur la valeur.
"La gouvernance doit viser à garantir que les données apportent une valeur ajoutée à l'entreprise, tout en lui permettant de tirer de la valeur à partir des données".
- Comment réussir une gouvernance des données agile -
Metadata Management : Pour réussir dans la gouvernance des données, vous devez réussir dans la gestion des métadonnées. Sans contexte, ces données mèneront à des mauvaises analyses et donc à de mauvaises décisions.
Automatisation - permet à vos responsables des données d'éviter le syndrome de la feuille blanche et, les affranchira de tâches fastidieuses et répétitives, augmentant ainsi l’adhésion du plus grand nombre à votre initiative de mise en place d’une gouvernance des données au sein de votre entreprise.
Une approche bottom up - Ceci signifie d'avoir une approche démocratique plutôt que hiérarchique et une autonomie des collaborateurs dans le choix des outils et la manière de s’organiser.
Itérative -Une gouvernance des données doit se construire étape par étape afin de correspondre au plus près au fonctionnement de l’entreprise.
Non-intrusive - Il s’agit de laisser la liberté à vos collaborateurs d’utiliser les outils les plus adaptés pour leurs usages, que ce soit pour générer ou accéder à des jeux de données.
Collaborative - Créer une démocratie de la donnée, où tous les employés peuvent accéder aux données de l’entreprise à grande échelle, signifie que les employés n'ont pas à attendre pour exécuter des projets qui peuvent ajouter de la valeur.
Téléchargez gratuitement notre livre blanc 👉http://bit.ly/2K4R2Ar
Découvrez le programme, les objectifs et les dates de notre formation 👉http://bit.ly/2wcWOI3
Pour en savoir plus sur Zeenea 👉 https://www.zeenea.com/
Decilogic, les usages doivent guider les choix techniquesEric Mauvais
Les attentes de nos clients liés au système d'information sont multiples :
- Un mode de gouvernance adapté à la taille, à l'organisation et à la culture de l'entreprise.
- Des plans de route pragmatiques.
- Des objectifs clairs et mobilisateurs pour faciliter l'adhésion.
- Des outils de pilotage opérationnel du système d'information.
L'idée principale reste de définir un objectif précis et opérationnel en fonction de votre contexte en conservant un potentiel d'évolution. Conceptuellement, la démarche est séduisante, mais la mise en pratique est complexe et mérite quelques éléments d'explication que vous rencontrerez en parcourant notre site, car elle conditionne toutes nos missions.
Pour apporter toute la clarté nécessaire à vos projets, DeciLogic vous accompagne dans cette analyse par une approche terrain en analysant vos processus métiers et vos objectifs afin de justifier ensuite une approche technique et de mise en oeuvre.
MDM et BI : practices similaires, complémentaires ou différentes ?Jean-Michel Franco
Cette présentation s'adresse a des responsables BI et montre l'apport d'une approche MDM dans leurs projets BI ou pour élargir l'impact de leur activité
Vos données produits sont-elles fiables et sont-elles fiables et cohérentes à travers tous vos systèmes en temps réel ? Les services concernés ont-ils accès aux informations les plus récentes et les plus complètes sur vos produits ?
Cette présentation montre comment :
- tirer parti du Big Data pour connecter vos produits grâce à l’Internet des Objets ;
- optimiser les processus de maintenance, réparation et révision (MRO) ;
- harmoniser l'information au travers de votre supply chain ;
- gérer vos stratégies de commerce multicanal ;
- échanger avec vos partenaires et les autorités de réglementation.
Pour comprendre l’intérêt de gérer des données historiques, éviter l’impasse des systèmes décisionnels hétérogènes, ne pas succomber aux sirènes des progiciels intégrés, activer l’intelligence décisionnelle dans une entreprise.
Chaque jour, nous créons plus de données – (90% des données dans le monde d'aujourd'hui ont été créées dans les deux dernières années).
Ces données proviennent : des capteurs utilisés pour recueillir des informations sur le climat, des messages sites de médias sociaux, photos et vidéos numériques, enregistrements de transactions d'achat et téléphonie cellulaire, de signaux GPS pour n'en nommer que quelques-uns. Ces données sont des Big Data.
Ce livre est constitué d’une compilation d’articles qui permettent d’explorer tour à tour la bonne façon d’organiser son système d’information décisionnel, de définir à quoi il peut servir en général, pour la fonction marketing ou pour les diverses fonctions de l’entreprise en particulier. Il permet aussi d’aborder les différents thèmes du management des systèmes d’information décisionnels, ainsi que différents cas remarquables.
Atelier Semarchy : comment faire adhérer l'entreprise au projet mdmMicropole Group
Présentation Semarchy lors du 3 eme Forum MDM de Micropole le 19 novembre 2014 à Paris.
Semarchy, partenaire Micropole, Semarchy Convergence permet aux organisations de consolider et d’enrichir leurs données de référence et leurs nomenclatures dans tous les domaines fonctionnels. La famille de produits Convergence a été spécifiquement conçue pour réduire les coûts et les délais des projets de Master Data Management (MDM) et de Reference Data Management (RDM) quelle que soit leur taille.
Les organisations sont en train de passer d'un modèle où le PC régnait en maître à un modèle plus axé sur les utilisateurs où les employés apportent leurs propres terminaux au travail (BYOD).
Résumé de l'analyse des réponses au sondage "Gestion de l'Energie dans les Da...Bruno Brottier
Le CESIT réalise pour la seconde fois un sondage auprès des exploitants de data centers en France, à propos de la Gestion de l'Energie dans les Data Centers.
Offre de services Baccou Bonneville ConsultantsAlterest
Baccou Bonneville Consultants est un cabinet de conseil indépendant dédié aux directions informatiques des grandes entreprises et administrations. Découvrez l'offre de services de la société !
Gouvernance des données - Pourquoi démarrer une gouvernance des données agile ?Zeenea
La gouvernance des données au 21 siècle est un concept, sans doute un peu ambigu, qui évolue très rapidement et est est défini de manière different selon le context, les personnes et les organisations.
Pour Zeenea, la gouvernance des données est l’élaboration des politiques et la supervision des informations de l’entreprise. La gouvernance des données aligne la qualité des données sur les mesures et l'acceptation commerciales, positionne les problèmes de données métiers comme étant interfonctionnels et garantit que les données soient gérées séparément de ses applications.
- Les différentes approches de la gouvernance des données -
En effet une gouvernance des données se pense donc sous deux approches : defensive et offensive.
>> Une approche defensive va mettre l’accent sur le contrôle des données.
>> Une approche offensive sur la flexibilité la facilitation et la creation de valeur par les données.
- Vers une gouvernance des données agile -
Dans le passé, la gouvernance des données signifiait sécurité des données et contrôle, alors qu'aujourd'hui l'accent est mis sur la valeur.
"La gouvernance doit viser à garantir que les données apportent une valeur ajoutée à l'entreprise, tout en lui permettant de tirer de la valeur à partir des données".
- Comment réussir une gouvernance des données agile -
Metadata Management : Pour réussir dans la gouvernance des données, vous devez réussir dans la gestion des métadonnées. Sans contexte, ces données mèneront à des mauvaises analyses et donc à de mauvaises décisions.
Automatisation - permet à vos responsables des données d'éviter le syndrome de la feuille blanche et, les affranchira de tâches fastidieuses et répétitives, augmentant ainsi l’adhésion du plus grand nombre à votre initiative de mise en place d’une gouvernance des données au sein de votre entreprise.
Une approche bottom up - Ceci signifie d'avoir une approche démocratique plutôt que hiérarchique et une autonomie des collaborateurs dans le choix des outils et la manière de s’organiser.
Itérative -Une gouvernance des données doit se construire étape par étape afin de correspondre au plus près au fonctionnement de l’entreprise.
Non-intrusive - Il s’agit de laisser la liberté à vos collaborateurs d’utiliser les outils les plus adaptés pour leurs usages, que ce soit pour générer ou accéder à des jeux de données.
Collaborative - Créer une démocratie de la donnée, où tous les employés peuvent accéder aux données de l’entreprise à grande échelle, signifie que les employés n'ont pas à attendre pour exécuter des projets qui peuvent ajouter de la valeur.
Téléchargez gratuitement notre livre blanc 👉http://bit.ly/2K4R2Ar
Découvrez le programme, les objectifs et les dates de notre formation 👉http://bit.ly/2wcWOI3
Pour en savoir plus sur Zeenea 👉 https://www.zeenea.com/
Decilogic, les usages doivent guider les choix techniquesEric Mauvais
Les attentes de nos clients liés au système d'information sont multiples :
- Un mode de gouvernance adapté à la taille, à l'organisation et à la culture de l'entreprise.
- Des plans de route pragmatiques.
- Des objectifs clairs et mobilisateurs pour faciliter l'adhésion.
- Des outils de pilotage opérationnel du système d'information.
L'idée principale reste de définir un objectif précis et opérationnel en fonction de votre contexte en conservant un potentiel d'évolution. Conceptuellement, la démarche est séduisante, mais la mise en pratique est complexe et mérite quelques éléments d'explication que vous rencontrerez en parcourant notre site, car elle conditionne toutes nos missions.
Pour apporter toute la clarté nécessaire à vos projets, DeciLogic vous accompagne dans cette analyse par une approche terrain en analysant vos processus métiers et vos objectifs afin de justifier ensuite une approche technique et de mise en oeuvre.
MDM et BI : practices similaires, complémentaires ou différentes ?Jean-Michel Franco
Cette présentation s'adresse a des responsables BI et montre l'apport d'une approche MDM dans leurs projets BI ou pour élargir l'impact de leur activité
Vos données produits sont-elles fiables et sont-elles fiables et cohérentes à travers tous vos systèmes en temps réel ? Les services concernés ont-ils accès aux informations les plus récentes et les plus complètes sur vos produits ?
Cette présentation montre comment :
- tirer parti du Big Data pour connecter vos produits grâce à l’Internet des Objets ;
- optimiser les processus de maintenance, réparation et révision (MRO) ;
- harmoniser l'information au travers de votre supply chain ;
- gérer vos stratégies de commerce multicanal ;
- échanger avec vos partenaires et les autorités de réglementation.
Pour comprendre l’intérêt de gérer des données historiques, éviter l’impasse des systèmes décisionnels hétérogènes, ne pas succomber aux sirènes des progiciels intégrés, activer l’intelligence décisionnelle dans une entreprise.
Chaque jour, nous créons plus de données – (90% des données dans le monde d'aujourd'hui ont été créées dans les deux dernières années).
Ces données proviennent : des capteurs utilisés pour recueillir des informations sur le climat, des messages sites de médias sociaux, photos et vidéos numériques, enregistrements de transactions d'achat et téléphonie cellulaire, de signaux GPS pour n'en nommer que quelques-uns. Ces données sont des Big Data.
Ce livre est constitué d’une compilation d’articles qui permettent d’explorer tour à tour la bonne façon d’organiser son système d’information décisionnel, de définir à quoi il peut servir en général, pour la fonction marketing ou pour les diverses fonctions de l’entreprise en particulier. Il permet aussi d’aborder les différents thèmes du management des systèmes d’information décisionnels, ainsi que différents cas remarquables.
Atelier Semarchy : comment faire adhérer l'entreprise au projet mdmMicropole Group
Présentation Semarchy lors du 3 eme Forum MDM de Micropole le 19 novembre 2014 à Paris.
Semarchy, partenaire Micropole, Semarchy Convergence permet aux organisations de consolider et d’enrichir leurs données de référence et leurs nomenclatures dans tous les domaines fonctionnels. La famille de produits Convergence a été spécifiquement conçue pour réduire les coûts et les délais des projets de Master Data Management (MDM) et de Reference Data Management (RDM) quelle que soit leur taille.
Les organisations sont en train de passer d'un modèle où le PC régnait en maître à un modèle plus axé sur les utilisateurs où les employés apportent leurs propres terminaux au travail (BYOD).
Résumé de l'analyse des réponses au sondage "Gestion de l'Energie dans les Da...Bruno Brottier
Le CESIT réalise pour la seconde fois un sondage auprès des exploitants de data centers en France, à propos de la Gestion de l'Energie dans les Data Centers.
CESIT : Groupe Energie : Le UE Code Of Conduct DatacenterBruno Brottier
Le UE Code Of Conduct a été créé en réponse à l'augmentation de la consommation énergétique des datacenters et au besoin de réduire les impacts environnementaux, économiques et de sécurité d'approvisionnement énergétique.
L'objectif est d'informer les opérateurs de datacenter et de d'inciter les économies d'énergie.
Ce code de conduite est une initiative volontaire visant à rapprocher les parties prenantes, y compris les fabricants, les fournisseurs, les consultants et les services publics.
Les signataires jusqu'à devront suivre l'intention de ce code de conduite et respecter une série d'engagements convenus.
32 Ways a Digital Marketing Consultant Can Help Grow Your BusinessBarry Feldman
How can a digital marketing consultant help your business? In this resource we'll count the ways. 24 additional marketing resources are bundled for free.
Virtualisation? Convergence? Cloud? Soyons pragmatique Microsoft Ideas
Les tendances se succédent, et impactent fortement la conception même de nos centres de données. La convergence est sortie du réseau pour embrasser le DataCenter, la virtualisation est devenue une brique de base pour se préparer au Cloud, et le Cloud de part son approche disruptive de la consommation de service challenge jusqu'à nos métiers. Dans cette effervescence continue, observons ensemble les technologies matures et accessible pour quels bénéfices et réalisations concrètes immédiates. Session présentée par le partenaire : DELL.
Speaker : Eric Velfre (DELL)
This draft paper throws light on data center technology trends of 2016. This paper also suggest ways to enhance the competitiveness of Data Center. We have tried to carve out a strategy that can help decision makers to decide whether a technology adoption will prove beneficial for them or they will end up spending more without any significant ROI.
This draft paper throws light on data center technology trends of 2016. This paper also suggest ways to enhance the competitiveness of Data Center. We have tried to carve out a strategy that can help decision makers to decide whether a technology adoption will prove beneficial for them or they will end up spending more without any significant ROI
Réinventez votre stratégie de données en 2021 avec la Data VirtualizationDenodo
Watch full webinar here: https://bit.ly/3dF5Io8
Visionnez ce webinar pour comprendre comment la Data Virtualization permet aux grands groupes français du secteur des utilities d'optimiser leur gestion de données pour atteindre leurs objectifs stratégiques dans le cadre de la vision 360º du client en temps réel, l'analyse prédictive et le partage sécurisé de données internes et externes pour les initiatives Open Data. Pendant cette session, vous découvrirez comment cette technologie permet :
- D'intégrer toutes les données d’entreprise réparties entre les différents systèmes, indifféremment de leur format ou âge.
- De fournir des données en temps réel, à la demande, même lorsqu'il s'agit de jeux de données très volumineux.
- De centraliser la sécurité et la gouvernance des données à partir d'un point d'accès unique.
- Des économies considérables en termes de coûts et de temps, tout en évitant la démultiplication des stockages grâce à une approche "zéro réplication".
Les environnements SAS évoluent et se modernisent, ouvrent de nouvelles opportunités d’usages (automatisation des traitements, industrialisation des productions de restitutions avec un outil de dataviz, …), mais imposent de nouveaux modes de travail. Comment en tirer pleinement profit tout en minimisant l’effort de migration ?
Le décisionnel est depuis longtemps en pleine mutation, il faut pour certains penser l’architecture de la BI de demain, pour d’autres l’accent est à mettre sur l’exploitation des gisements de données restées longtemps impossible avant la révolution du Big Data, pour d’autres enfin il convient plutôt d’adapter les usages aux outils qui malgré leurs nouveautés sont aux prises avec l’évolution des pratiques.
Deux tendances semblent toutefois animer la recherche d’ajustement pour les opérationnels :
La modernisation des environnements : allant vers la centralisation des serveurs, ce mouvement semble ne plus laisser de place aux installations de clients lourds sur PC, offrant de plus en plus de mobilité aux utilisateurs (légers, mobiles, etc.) jusqu’à l’affranchissement des applications classiques : SAS BASE est ainsi devenue SAS STUDIO : un client totalement WEB.
Enfin, la dynamique impulsée par le Dataviz affecte de façon significative les usages de la BI à tous les niveaux, poussant même à repenser le schéma classique des catégories de reporting : reporting de masse, reporting opérationnel, reporting prospectif.
Pour cette nouvelle Matinale Technologique Soft Computing, nous vous proposons deux ateliers autour de la thématique de l’impact de l’évolution des outils sur les usages :
Atelier 1 :
- Migration vers SAS Enterprise Guide ou SAS STUDIO : quels impacts sur les usages et les pratiques ?
Atelier 2 :
- SAS Visual Analytics : un outil de reporting orienté Exploration et Analyse ?
Petit-déjeuner OCTO Technology : Calculez vos indicateurs en temps réel ave...OCTO Technology
Le Big Data touche le paroxysme de sa médiatisation. Tout est devenu Big Data, mélangeant nouvelles approches métiers, technologies et business models.
De vraies opportunités se présentent toutefois. Ainsi, la capacité à suivre en temps réel les indicateurs clés du business à partir d’un nombre croissant de sources de données est un challenge que le « Big Data » peut relever.
Découvrez, au travers d'un retour d'expérience commun EDF R&D/OCTO Technology, comment Storm peut vous permettre de relever ce défi.
Compte-rendu du petit-déjeuner : http://bit.ly/1dpbNgF
Le datacenter de demain, TDF - Global Security MagTDF
Christine Landrevot directrice des Télécommunications et Services chez TDF, apporte sa vision sur l’avenir des datacenters : de plus en plus d’entreprises souhaitent externaliser leurs données dans des datacenters régionaux, à la recherche d’une offre accessible et adaptée à leurs besoins, leurs garantissant une continuité d’activité.
Jérôme Sangouard, directeur avant-vente de l’activité Télécommunications et Services chez TDF, présente l’enjeu pour les datacenters régionaux de mettre en œuvre une organisation et une gestion de la sécurité aussi haute que celles des grands datacenters internationaux.
Claranet End User Computing : gestion des environnements de travail de nouvel...Claranet
Adresser les nouveaux enjeux de l’entreprise à travers un environnement de travail mobile, flexible et sécurisé.
Toute l’innovation que l’on peut mettre dans son système d’information ne sera perçue qu’à travers la qualité de l’environnement de travail fourni aux utilisateurs.
[Paroles de DSI] Les infrastructure hyperconvergées (integrated system) - Nan...Groupe D.FI
En matière d'IT l'heure est à la convergence et à la rationalisation.
Lors de l'événement Paroles de DSI de Nantes organisé par le groupe D.FI à Nantes en Mars 2015, nous nous sommes appuyés sur cette présentation pour construire des échanges vertueux au cours d'une table ronde dédiée aux enjeux de la convergence.
Nous avons notamment parlé de Nutamix l'un des acteurs majeurs de l'hyperconvergence, des infrastructures 3-tiers et des bénéfices principaux pour l'entreprise et sa DSI.
Les clés de succès pour moderniser votre architecture de données en 2022Denodo
Watch full webinar here: https://bit.ly/3I0Hv8D
Aujourd’hui, avoir une gestion des données efficace est un élément essentiel pour la compétitivité de votre organisation. Les entreprises sont néanmoins souvent confrontées à des silos de données, ce qui rend leur exploitation longue et coûteuse. De plus, la vitesse, la diversité et le volume des données peuvent submerger les architectures de données traditionnelles. Enfin, la transformation digitale amène à s’appuyer sur de nouveaux socles hébergés chez des fournisseurs Cloud.
Dès lors, les questions suivantes peuvent se poser :
- Comment améliorer la livraison des données et extraire toute la valeur de vos données ? Comment accélérer la prise de décision ?
- Comment rendre les données disponibles et exploitables en temps réel ?
- Comment réduire les coûts informatiques ?
Denodo France vous propose d’aborder les clés de succès pour moderniser efficacement votre architecture de données en 2022. Rejoignez ce nouveau webinar pour comprendre comment la plateforme d’intégration et de gestion de données de Denodo peut vous aider à moderniser votre architecture dans un contexte de transformation digitale.
Les points clés abordés : -
Les bénéfices et défis liés à la modernisation d’une architecture data avec les aspects :
- Hybridation
- Data Mesh et Data Fabric
- Migration et sécurisation de données
- Agilité
- Maîtrise des risques et des coûts
- Cas d’usages et cas clients concrets
Similaire à White Paper Resilience Et Gestion Capacitaire (20)
Les clés de succès pour moderniser votre architecture de données en 2022
White Paper Resilience Et Gestion Capacitaire
1. Résilience et gestion capacitaire :
comment maîtriser
l’ensemble des paramètres des datacenters
en termes d’efficacité globale d’entreprise.
Par Bruno Brottier
Business Unit Manager (Groupe STAR-APIC)
et Frédéric Charron
Consultant sénior (APIS Engineering)
2. Maîtriser les coûts d’exploitation par une meilleure connaissance et gestion des
capacités disponibles, réduire la consommation d'énergie, tirer un meilleur parti des
infrastructures telles celles du réseau, mieux structurer et connaître le placement des
équipements informatiques, garantir la continuité de service et un haut niveau de
sécurité : tels sont les défis auxquels font face aujourd’hui les Directeurs de Systèmes
Informatiques. Ils se positionnent ainsi désormais au cœur des prises de décisions
stratégiques de l’entreprise, en synergie avec l’ensemble des acteurs, y compris ceux
des Services Généraux.
Souvent vu comme un centre de coûts dans le passé, le datacenter (centre
informatique) est aujourd’hui devenu un actif stratégique pour l’entreprise. Le pilotage
en temps réel des équipements déployés dans le datacenter représente un projet
complexe, pour lequel tout retard ou imprécision provoque des effets dévastateurs
sur l’efficacité et la réputation de l’entreprise.
Ce pilotage passe par une notion essentielle : celle de l’urbanisation - gérée en
continu et en mode projet - du datacenter. Il s’agit bel et bien, comme dans les
applications des Systèmes d’Information Géographique, de “cartographier” l’existant
pour pouvoir mieux gérer les évolutions connues… et celles prévisibles.
Une révolution dans les comportements… mais une évidence technique
La notion d’urbanisation gérée en continu et en mode projet des datacenters est, à quelques rares
exceptions près en France, radicalement nouvelle. Ce constat s’appuie notamment sur une “exception
culturelle”, à savoir la dichotomie qui caractérise les liens entre les Services Généraux et la DSI au sein des
entreprises. Les SG, qui ont la responsabilité des domaines relatifs à l’énergie et à la climatisation,
n’entretiennent généralement que peu de relations avec les responsables informatiques, lesquels pourtant
exploitent parfois des datacenters équivalents en énergie à des villes de moyenne importance !
Les causes associées à cette problématique en France sont :
• Les métiers de l’exploitation des infrastructures techniques ne sont pas bien définis
• Il n’y pas ou peu d’espaces d’échange et de communication dédiés sur des objectifs communs
• Les formations spécifiques sont rares et incomplètes
• Les bases de référence sont déconnectées les unes des autres.
Se focaliser sur le PUE (Power Usage Effectiveness), le rapport entre l'énergie consommée par le data
centre et l'énergie nécessaire au fonctionnement des serveurs ? Oui bien sûr, mais cette seule question ne
se suffit pas à elle-même… L'urbanisation demande à prendre à compte bien d'autres éléments de
performance : le taux d'occupation de la salle, la densité des baies, la production-distribution du froid, les
secours électriques, etc.
Définir, mesurer et piloter des paramètres aussi nombreux que cruciaux
En termes de périmètre, un datacenter peut être une salle, un étage… voire un bâtiment entier. Regroupant
une multitude de machines et d’équipements, le datacenter est devenu le centre nerveux des processus
d’entreprise, et l’importance vitale des informations qu’il contient et de son fonctionnement permanent
impliquent la mise en œuvre de systèmes de prévention contre l’incendie, d’une alimentation électrique
d'urgence et redondante, ainsi que d'une sécurité physique élevée (télésurveillance, détection d’intrusion,
etc.).
3. Dès lors que l’on décide de cartographier et piloter un datacenter, un
Urbaniser, c’est avoir la certain nombre de principes s’appliquent : tout d’abord ne pas positionner
connaissance suffisante les équipements informatiques sans une analyse technique et capacitaire
précise, incluant par exemple une implantation suivant des espaces en
et à jour de l’existant zones à faible, moyenne, haute et très haute densités. Et surtout, ne pas
pour définir des cibles dresser un état des lieux approximatif de six mois en six mois, mais tenir
opérationnelles et continuellement à jour une cartographie exhaustive des équipements et
des infrastructures techniques. Ceci, non seulement pour pouvoir
financières. simplifier, optimiser, rendre plus flexible en continu, mais aussi pour mieux
transformer et investir.
Les paramètres à contrôler ne manquent pas :
• Climatisation (précision et stabilité),
• Unités de distribution de l'énergie,
• Bloc d'alimentation d'urgence, unité de secours,
• Système d'alerte d'incendie,
• Extinction automatique des incendies,
• Vidéosurveillance,
• Contrôle des accès, ainsi que sécurité physique,
• Surveillance 24x7 des serveurs dédiés et des équipements télécoms,
• Qualité et performances des liaisons réseaux (débits, bandes passantes, etc.),
• etc.
Si le catalogue des produits “dédiés” au monitoring de tel ou tel paramètre est indiscutablement très étoffé, il
n’en demeure pas moins qu’il est pratiquement impossible d’identifier une solution proposant une approche
globale de cette problématique de pilotage.
Quels outils ? Pour quels résultats ?
Tant en termes d’énergie que de déploiement d’équipements, les outils techniques associés à la gestion des
infrastructures techniques et de câblage ne manquent pas sur le marché. Leur efficacité est
malheureusement contrebalancée par leur disparité, et par la difficulté qu’il y a, de ce fait, à établir (et
harmoniser) une cartographie détaillée et globale des moyens que l’on
désire piloter.
Comment maîtriser à
coup sûr les interactions Mais ces outils de “premier niveau”, même s’ils étaient standardisés, ne
et les impacts du répondraient pas à la question essentielle dans la démarche
d’urbanisation : comment exploiter leurs données en matière de gestion
déroulement d’un des changements, et restituer, à tout moment, une synthèse pertinente en
changement sur tous les fonction de chacun des projets de la DSI ? Autrement dit : comment
maîtriser à coup sûr les interactions et les impacts du déroulement d’un
éléments ? changement sur tous les éléments ?
Les témoignages des DSI ayant tenté de déployer de tels outils ponctuels sont marqués par un sentiment
d’insatisfaction et de frustration. Une réelle demande existe pour une solution capable d’adresser tous les
“objets” du datacenter, sur un spectre élargi, et pouvant offrir au DSI l’ensemble des éléments de
compréhension qui permettront à la fois d’étayer ses projets, de prendre des décisions pertinentes et de
fournir à ses équipes des informations précises de mise en œuvre. Avec enfin une réponse à une double
question lancinante que se posent tous les DSI : « Suis-je efficace dans ma configuration actuelle et suis-je
prêt pour les déploiements à venir ? »
DATACENTER ONE: l’ERP des datacenters
Héritant d’une incomparable expérience SIG (Systèmes d’Information Géographique) accumulée depuis
1983 par STAR-APIC, la solution DATACENTER ONE est spécifiquement dédiée à la gestion de bâtiments,
d’infrastructures et d'équipements (datacenters, câblage, espaces), en regroupant deux approches
complémentaires : l’urbanisation et la cartographie de l’ensemble des composants. Outil indispensable à la
conduite du changement et à la continuité de service, DATACENTER ONE apporte des éléments de
4. décision vis-à-vis des grandes orientations auxquelles font face les DSI : “Green IT”, “Cloud computing”,
“SaaS”, virtualisation, ou encore externalisation.
Au quotidien, DATACENTER ONE permet par exemple de faire le lien entre le serveur mail (vue “business”)
et la machine qui l'héberge (vue “opérationnelle”), visualiser l'endroit précis où celle-ci est installée, ainsi que
toutes les liaisons télécoms, données, power, équipements, baies de disques, etc. Ces informations
réconciliées et centralisées sont ensuite exploitées par des systèmes de conduite du changement :
• Workflow pour le suivi des bons de travaux,
• Helpdesk pour les tickets d'intervention,
• Asset Management pour gérer les stocks, les contrats,
• Change Management pour gérer le cycle de vie des équipements.
Du fait de l’éloignement entre les centres de gestion et de décision,
Toute action est réalisée l’avantage de la sécurité pourrait devenir une gêne pour la gestion du parc,
la prise de décision et l’intervention rapide. Avec Datacenter One, le
méthodologiquement, responsable opérationnel peut déterminer l’espace disponible dans une
sur une base de travail baie, une travée ou une salle pour installer des nouveaux équipements, la
commune aux différents puissance électrique libérée par le retrait de serveurs obsolètes, l’état des
interconnexions entre les équipements, générer les bons de travaux pour
gestionnaires et le câblage, etc. Tout est réalisé méthodologiquement, sur une base de
opérateurs. travail commune aux différents gestionnaires et opérateurs, d’où des gains
en sécurité et en efficacité.
La démarche de “partenariat clients” STAR-APIC
Pour chacun de ses clients, STAR-APIC travaille en mode projet, sachant que tous ses consultants sont
progressivement certifiés ITIL. Dès l’élaboration du projet, STAR-APIC met en place des “preuves du
concept” (POC) permettant d’identifier les enjeux, de prouver le retour sur
Des comités de pilotage investissement et de valider les gains, puis assure et documente les
phases d’intégration, de recette et de déploiement. Le POC comprend une
mensuels permettent de phase de prototypage, la formation et l’utilisation du prototype en
maîtriser la conditions réelles. Cette phase structurante permet de situer la maturité
communication et le des informations et des processus actuels. Avant d’engager l’acquisition
du logiciel et de lancer le projet d’intégration, l’impact de DATACENTER
contrôle, ainsi que de ONE sur l’organisation et le chemin à parcourir pour en tirer tous les
planifier des évolutions bénéfices sont identifiés et mesurés.
en fonction des STAR-APIC a par ailleurs mis en œuvre des accords stratégiques avec
nouveautés du logiciel. des partenaires qui partagent ses valeurs et ses engagements, afin
d’assurer un transfert des bonnes pratiques sur chaque projet. Ces
partenaires se répartissent en trois catégories :
• Des sociétés de conseil spécialisées dans l'urbanisation des datacenters, qui sont focalisées sur
l'optimisation des ressources du bâtiment et des infrastructures. Leur valeur ajoutée passe par
l'apport de savoir-faire et d'expérience pour des exploitants qui souhaitent conserver la maîtrise du
projet et l'exploitation des applications.
• Des intégrateurs spécialisés dans la conduite de projets pluriannuels, pluridisciplinaires, et qui sont
focalisés sur le système d'information et la mise en relation d'applications. Leur valeur ajoutée passe
par la maîtrise des processus, par des engagements et des ressources
• Des fournisseurs de services qui prennent à leur charge l'environnement logiciel et matériel, ainsi
que leur exploitation, pour fournir un service clés en main, avec des engagements précis. Ils gèrent
le quotidien et fournissent des résultats sous forme de continuité de services, de rapports et de
tableaux de bord.
Sur un plan plus large, STAR-APIC collabore étroitement avec des majors du logiciel, comme Oracle ou
Microsoft, en capitalisant sur leurs technologies les plus récentes.
5. Annexes
Star-Apic
Bruno Brottier, directeur Business Unit Building One de Star-Apic
Bruno Brottier est directeur de la Business Unit Building One depuis octobre 2009. Sa mission
consiste à piloter les ventes stratégiques, à développer les partenariats éditeurs-intégrateurs et à
garantir les plus hauts niveaux de satisfaction des utilisateurs de la plate-forme logicielle
Datacenter One.
Apportant avec lui une expérience significative dans le domaine des datacenters, Bruno Brottier
était précédemment Alliance Business Developer chez EasyNet, opérateur leader de services IP
gérés, où il a enregistré de nombreux succès dans l’externalisation de systèmes d’information de
grands groupes français, en même temps qu’il a développé un fort partenariat avec Microsoft et
des intégrateurs de premier plan. Il était auparavant Indirect Sales Manager d’Interxion France,
opérateur leader de datacenters neutres vis-à-vis des opérateurs télécoms. À ce poste, il a
développé l’offre de services gérés pour les marchés français et belge, en impliquant fortement le
réseau de partenaires indirects. Sa carrière, démarrée en 1989, l’a vu occuper de nombreux
postes à responsabilité au sein de sociétés représentant l’ensemble des métiers des NTIC.
À propos du Groupe STAR-APIC
Avec ses centres d’opérations européens, le Groupe STAR-APIC s’est imposé, depuis sa création en 1983,
comme un acteur majeur dans l’édition de solutions de gestion cartographique du territoire et de ses
infrastructures déclinées en quatre grandes spécialités : gestion du territoire, gestion de réseaux, gestion de
bâtiments et cartographie.
Impliqué dans la conduite du changement et la continuité de services vis-à-vis de ses clients, STAR-APIC a
décidé de capitaliser sur sa plateforme SIG pour offrir une solution métier de la gestion de bâtiments
techniques et d'équipements (datacenters, câblage, espaces). L’offre DATACENTER ONE constitue
véritablement l'ERP du Datacenter: elle permet de conduire “l'urbanisation” du datacenter, après en avoir fait
la “cartographie”.
STAR-APIC entretient des partenariats avec des consultants et des sociétés de services qui partagent ses
valeurs et son engagement, pour assurer un transfert des bonnes pratiques sur chaque projet. Comptant
130 collaborateurs en Europe, le Groupe collabore également de manière étroite avec des majors du
logiciel, comme Oracle ou Microsoft.
Contact Presse Contact STAR-APIC
GBC Conseil Carole Thomas
Morgane Rybka/Joëlle Rousseau Tel. 33 1 71 33 01 00
Tel.: 33 1 41 31 75 06/07 Fax : 33 1 71 33 01 06
Fax: 33 1 41 31 08 17 Email : carole.thomas@star-apic.com
Email:morganer@gbc-conseil.fr; Site : www.star-apic.com
joeller@gbc-conseil.f
6. APIS-Engineering
Frédéric Charron, consultant senior expert en exploitation et urbanisation de centre
informatique
Exploitation des Centres de Données (infrastructures physiques)
Fréderic CHARRON est à l’origine de la création de la société Apis-Engineering. Il est consultant
sur l’exploitation et la gouvernance des infrastructures techniques des Centres Informatiques. Il
réalise des missions d’audit et d’assistance dans le cadre de plan de progrès sur la qualité et les
méthodes d’exploitation.
Ses compétences couvrent tous les domaines de l’exploitation, des méthodes, en passant par la
surveillance et la planification. Il agit sur les problématiques de gouvernance comme il intervient
dans des domaines très techniques de l’urbanisation des salles, les installations de haute densité
thermique et les évolutions techniques des centres informatiques à faible consommation
énergétique incluant des technologies de Free Cooling.
À propos d’Apis-Engineering
APIS-Engineering est un bureau d’études technique spécialisé dans la conception et la réalisation de
centres informatiques de nouvelle génération. Créée par des ingénieurs issus d’IBM, experts des centres
informatiques, et notamment Eric ARBARETAZ et Fréderic CHARRON, cette entreprise a déjà remporté de
nombreux contrats depuis sa création en novembre 2007.
Son ambition est de se distinguer par son innovation et son expertise de la production informatique. La
maîtrise des coûts d’investissement et d’exploitation, les problématiques thermiques liées à la haute densité
informatique comme les nécessités actuelles sur le développement durable incluant la réduction des
consommations électriques sont quelques unes des spécialités d’APIS-Engineering.