"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique

1 360 vues

Publié le

Gfi Informatique entend jouer un rôle majeur auprès de toutes les entreprises qui opèrent leur transformation numérique. Dans cette perspective le Groupe met à disposition des DSI son nouvel ouvrage « Paroles d’experts ». Ce livre est l’aboutissement d’une stratégie de création de contenus digitaux à valeur ajoutée engagée il y a un an et offre 70 conseils d’experts pour accompagner au mieux les entreprises dans tous leurs projets informatiques, quel que soit leur secteur d’activité.

Pour commander le livre : http://www.gfi.fr/fr/groupe/paroles-experts.php

Publié dans : Logiciels
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
1 360
Sur SlideShare
0
Issues des intégrations
0
Intégrations
132
Actions
Partages
0
Téléchargements
0
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

"Paroles d'experts" : sélection d'avis d'experts de Gfi Informatique

  1. 1. Ont contribué à cet ouvrage : Cyril Carretero, Sylvie Rebaudo, Céline Simon, Murielle Loirat, Antoine Paugam, Jean-Pierre de Araujo, Marine Nascimento, Guillemette Larivière, Charlène Kienda, Alice Tricomi, Romain Dorenlot, Sabine de Leissègues.
  2. 2. Édition 2015
  3. 3. 7 Un blog pour donner plus de valeur à nos (vos) métiers — ÉDITO
  4. 4. 8
  5. 5. 9 P ourquoi reprendre dans un livre tous les avis d’experts publiés sur notre blog  ? Pour vous donner envie de le découvrir ! Que ce soit dans le Digital, la Business Intelligence, le Testing, le PLM ou le Cloud, nos experts partagent leurs recommandations pour garantir la réussite de vos projets. Tous ces avis d’experts vous donneront probablement des idées et pourquoi pas, vous mettront en garde contre d’éventuels faux pas. Le blog de Gfi Informatique parle de ce qui nous tient à cœur, de ce qui fait l’ADN de notre entreprise : toujours mieux vous accompagner dans la réussite de vos grands projets de transformation. Il formalise ce que nous voulons être  : une intelligence collective. Bien plus qu’une entreprise, Gfi Informatique est véritablement une communauté d’experts qui échangent des idées pour vous proposer des solutions toujours plus innovantes et créatrices de valeur. Ce blog donne plus de valeur à nos (vos) métiers. Choisir Gfi Informatique, ce n’est plus seulement disposer d’une combinaison unique de solutions et services informatiques, c’est aussi accéder à des experts capables de vous accompagner pour toujours mieux répondre à vos besoins métier. Bonne lecture et rendez-vous sur notre blog www.enews.gfi.fr. Vincent Rouaix Président-directeur général Gfi Informatique
  6. 6. 11 Silence. Ça tourne ! — AVANT-PROPOS
  7. 7. 12
  8. 8. 13 A ux oubliettes les grands blablas marketing qui vous expliquent qu’on est les plus forts. Seuls l’authenticité et le parler-vrai comptent. Nos experts sauront, nous l’espérons, au travers de leurs conseils et compétences, vous convaincre de nous faire confiance pour vous accompagner dans vos grands projets de transformation, et ce quel que soit votre secteur d’activité. Cet ouvrage rassemble les retranscriptions des vidéos « 2 mn pour comprendre  » réalisées sur le vif avec nos experts et publiées en 2014 sur notre blog Gfi Informatique e-news. Les sujets mis en avant sont, selon nos experts, emblématiques des préoccupations actuelles de la plupart de nos clients. Leurs prises de paroles sont assez courtes pour coller à la durée de l’interview vidéo. Le ton est direct, informel, sans prétention aucune. Certaines réponses pourraient même vous surprendre… Normal, leurs prises de position sont totalement subjectives, mais toujours justifiées par un vécu terrain et des retours d’expérience indiscutables. N’hésitez pas à les interpeler directement par mail ou sur les réseaux sociaux : ils seront ravis de pouvoir échanger avec vous sur le sujet qui les anime. Et rendez-vous tout au long de l’année sur notre blog e-news : www.enews.gfi.fr. Cyril Carretero Directeur Marketing & Communication Gfi Informatique
  9. 9. 14
  10. 10. 15 Le rôle du Big Data dans l’expérience utilisateur p.23 Mobile Testing : n’ayez crainte ! p.26 De la BI analytique au BIG analytics p.29 Migrer de Notes vers Office 365 : les pièges à éviter p.31 Centralisation de la production informatique : jusqu’où faut-il aller ? p.33 Migration vers Office 365 : pourquoi, comment ? p.35 Pourquoi refondre votre plateforme eCommerce ? p.36 Big Data : mi-figue, mi-raisin ? p.38 Comment communiquer de manière innovante avec vos citoyens ? p.40 Big Data versus BI : y a-t-il match ? p.43 Comment faciliter le dialogue entre direction métier et production informatique ? p.45 Lutte anti-blanchiment : les banques françaises sont-elles prêtes ? p.47 Les Tests de Non-Régression (TNR) : je t’aime… moi non plus ? p.51 ALM & Ingénierie Système : nouveaux défis des industriels dans le monde du PLM ? p.53 SOMMAIRE —
  11. 11. 16 Solutions Cloud pour les collectivités locales : qu’avez-vous à y gagner ? p.55 Les « bons indicateurs » de Gestion des Services : comment les choisir ? p.57 Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? p.60 Les conseils clés pour préparer le lancement de votre plateforme eCommerce : 1re partie : d’abord, la stratégie business ! p.63 2e partie : les métiers, c’est très tôt que vous devez les impliquer p.66 3e partie : les « IT » à la fin ? Pas tout à fait p.68 Supervision de la sécurité de votre SI : pourquoi privilégier une solution « made in France » ? p.70 PLM : si c’est bien cadré, c’est bien joué ! p.72 Pourquoi faut-il penser collaboratif au sein d’une Digitale Workplace ? p.74 Je suis satisfait par ma plateforme BI. Pourquoi migrer ? p.76 Comment faut-il aborder un projet Big Data ? p.78 Tous les tests ne sont pas utiles. Pour viser juste, pensez métier ! p.80 Intégration d’un PLM : quels sont les chantiers à mettre en place pour réussir un projet PLM ? p.82 Comment va-t-on remplacer les TIP ? p.84 GBCP : quel est l’intérêt du double budget en AE et CP ? p.86 Être un élu connecté en 2014, qu’est-ce que c’est ? p.88
  12. 12. 17 Comment améliorer la performance commerciale de votre portail clients ? p.90 Rationalisation, optimisation, migration de votre SI décisionnel : pourquoi, comment ? p.92 Optimiser ses pratiques de test d’accord, mais pour quel résultat ? p.95 Migration PLM : attention, danger ! p.97 BI agile, pourquoi, comment ? p.99 Mobilité : comment sécuriser vos données en cas de perte d’un device ? p.102 SEPAmail ou comment supprimer la fraude à la signature du contrat ? p.104 eCommerce : tout ce qu’il ne faut pas faire ! p.105 GBCP : les impacts de la mise en œuvre du décret p.106 L’ANI, un levier social à prise rapide p.108 Améliorer la performance de votre site web : pourquoi, comment ? p.112 Accès privilèges : talon d’Achille du Système d’Information des entreprises ? p.114 Tests applicatifs automatisés : oui. Mais comment et à quel prix ? p.116 Comment modéliser les besoins métiers lors d’un cadrage PLM ? p.119
  13. 13. 18 International : comment le digital passe les frontières ? p.121 Outillage de test : effet de mode ou vraie nécessité ? p.124 Windows Phone est-il adapté au monde de l’entreprise ? p.126 Contrôle des comptabilités informatisées : comment se prémunir face aux risques fiscaux ? p.128 Comment tirer un maximum de bénéfices du réseau social d’entreprise Yammer ? p.130 La Marketplace est-elle le nouvel Eldorado du canal de vente ? p.132 Comment aller au-delà de la GRC avec Microsoft Dynamics CRM ? p.134 Comment adresser efficacement des com’ internes à vos collaborateurs équipés de Windows Phone ? p.136 Toxicité : comment passer de l’exploit au résultat prévisible ? p.138 Sécurité Cloud : ne pas perdre le contrôle ! p.140 C’est quoi une DRH digitale ? p.143 Comment rendre mon datawarehouse évolutif et pérenne à moindre coût ? p.145 Comment intégrer une architecture Big Data dans mon décisionnel ? p.147 Magento Enterprise vs Magento Community : y a-t-il match ? p.149 Comment réussir une expérience utilisateur omnicanal ? p.151 En quoi le Responsive Design améliore-t-il le ROI de vos projets eCommerce Magento ? p.153
  14. 14. 19 Symphony 2 : alternative crédible aux solutions Open Source eCommerce ? p.154 eCommerce : pensez votre site en fonction de votre cible ! p.155 Supervision : 3 points clés pour être plus proactif p.157 Les gains obtenus par la mise en œuvre d’un Cloud privé dans un Datacenter p.158 Cloud Migration p.160 Le rôle du Big Data dans l’expérience utilisateur p.162 La facture électronique : une solution win-win entre le secteur public et ses fournisseurs ! p.165 Comment migrer sa plateforme BI sans y laisser trop de plumes ? p.168 Comment intégrer efficacement un site eCommerce au sein d’un Système d’Information ? p.170 En 2015, c’est quoi un bon portail client ? p.171
  15. 15. 20
  16. 16. 21 Nos experts donnent leur avis... — BLOG E-NEWS
  17. 17. 22
  18. 18. 23 Qu’apporte le Big Data dans le domaine de l’expérience utilisateur ? C’est avant tout un sujet qui ne cesse de progresser ! Pour s’en donner un aperçu, on peut remonter en 1999 et citer ComScore, un des leaders mondiaux du Digital Marketing qui offrait un service de comptage des pages Web en mode SaaS. Le marketing à l’époque essayait de connaître l’évolution du ranking de son site et d’une vision de son trafic page par page agrégé à la journée pour mesurer les résultats de ses actions de push marketing. C’était la « préhistoire » de l’expérience utilisateur. A la même période, le marketing construisait sa connaissance client sur les implémentations de produits de MDM type CEM (Customer Experience Management). 15 ans plus tard, nous disposons d’espaces digitaux d’inves- tigation beaucoup plus riches et nous avons la possibilité d’interagir avec le client pour passer du mode monolithique Web passif de collecte d’informations a posteriori à un monde interactif multimédia géolocalisé où l’on glisse vers le client-centrique. Résumé comme tel, il apparaît évident à tout un chacun de s’orienter vers des moyens de capter les patterns de comportement, d’identifier les affinités des clients à un produit ou à des groupes de produits, d’anticiper l’appétence à de nouvelles tendances d’achat. Se pose alors la question de comment accéder à ce nouveau monde. C’est là que le Big Data intervient. Alvin Ramgobeen — Le rôle du Big Data dans l’expérience utilisateur 2 janvier 2014 —
  19. 19. 24 Quels sont, dans ce cas précis, les enjeux technologiques du Big Data ? On peut citer quatre enjeux forts portés par le Big Data : • Sa capacité à collecter et relier entre autres, des sources multiples de données issues des canaux Web, réseaux sociaux, données internes aux ventes, mais également lieux et contexte d’usage d’un service et de les rendre ingérables pour des actions spécifiques d’un métier du marketing qui se spécialise notamment sur le Digital Marketing, la Customer Experience Management et le Social Collaboration. Nous sommes sur une fonction support autour du concept de la DMP ou Data Management Plateforme qui généralement se base sur un moteur Hadoop ou de plus en plus sur des bases NoSQL temps réel de type Storm. • L’apport sur l’analytique (approche machine learning) est très apprécié en ce sens qu’il apporte des moyens de détection, d’anticipation et dans certains cas de prévision en rapprochant des informations et événements non usuel- lement traités par les mêmes entités dans l’entreprise. Par exemple, il est aujourd’hui possible de détecter qu’un pour- centage non négligeable de clients va appeler pour se plaindre de dysfonctionnents de leur Box TV et ainsi prévoir une prise en charge adaptée, mais aussi de suivre la dérive d’incidents concomitant à l’introduction de nouvelles tablettes. • La prise en compte du décodage du sentiment humain via le texte et maintenant la voix et qui, depuis les procédés de lemmatisation ou d’algorithmes en linguistique plus aboutis, permettent de positionner une réponse, elle aussi, adaptée à des situations de tension, comme par exemple la redirection d’un appel vers le bon conseiller ou bien la détection de pré- férence sur un produit nouveau. • Enfin, le rôle des objets connectés qui s’immiscent dans nos vies nous conduisent à revisiter le champ des possibles en termes de support à notre vie au quotidien et donc une
  20. 20. 25 nouvelle fois à notre façon d’interagir dans des contextes digitalement augmentés. Quelle démarche adopter face à toutes ces opportunités ? Nous pouvons constater que l’on peut se doter de son Home Made ou souscrire à un service SaaS et bien souvent, la réponse est hybride. Les expérimentations en mode SaaS se multiplient avec l’apparition de nouveaux services que les start-up françaises apportent, comme par exemple la restitution en cartes de chaleur des clics de souris sur les pages d’un site Web qui permet d’améliorer son ergonomie et ses ventes, ou encore le design automatique de la Home Page selon le profil et les préférences de l’utilisateur favorisant la promotion des services qui sont sensés le concerner, tout en évitant les effets de saturation/pollution. Cependant, cela reste avant tout une question de stratégie plus que d’appariement technologique. La question ne doit pas rester uniquement sur des attentes opérationnelles du marketing ou une capacité à l’IT à fournir des briques applicatives NoSQL intégrées et sécurisées. Les enseigne- ments des pures players, à l’image d’un Criteo, ou des sociétés comme les 3 Suisses montrent et démontrent que les questions doivent se poser en termes d’opportunité à opérer une trans- formation digitale et surtout à la positionner vis-à-vis de son cœur de métier. Les changements de rythme business sont tellement violents qu’il est frappant de voir comment certains acteurs reprennent de la croissance en se réinventant par l’ap- plication d’une stratégie de transformation digitale. ***
  21. 21. 26 La mobilité aujourd’hui explose. Quel est l’impact sur le testing ? Le principal impact de la mobilité concerne la multipli- cation des tests à réaliser. Il est en effet nécessaire de tester chacun des terminaux sur lesquels une application est utilisée. Dans la pratique, on regroupe les tests en fonction des technologies : Windows Phone, Android, comme tout ce qui vient du monde Apple. Quelles que soient les technologies, les tailles des écrans varient considérablement. Il faut donc intervenir de façon spécifique pour vérifier que les différents formats de présentation s’adaptent parfaitement aux différentes tailles d’écrans : c’est ce que l’on appelle le Responsive Design. Quels sont les éléments à prendre en compte autour du mobile testing ? Tout ce qui traite de la présentation en priorité. Les facteurs à prendre en compte sont nombreux : format des écrans, affichage correct, perception, expérience et ressenti de l’utilisateur. Tous les sujets d’ordre technologique sont également à considérer, à commencer par les moyens de communication entre les terminaux et les applications. Evidemment il existe les protocoles internet assez simples avec des dérivés Wi-Fi. Ensuite tous les protocoles de type télécommunications, comme GPRS, EDGE sont à prendre en compte également. Enfin, on trouve des protocoles plus spécialisés autour de la Vidéo On Demand, ou encore des liaisons vers une messagerie instantanée ou de communication de type mail. N’oublions pas les tests applicatifs qui concernent l’interaction François Darphin — Mobile Testing : n’ayez crainte ! 6 janvier 2014 —
  22. 22. 27 entre les applications stockées sur le terminal pour faire communiquer une application avec la partie GPS (géoloca- lisation du terminal) par exemple, ou pour avoir de la recon- naissance H code au sein même des applications. Par ailleurs, il existe des tests extrêmement techniques de type reconnaissance et influence des différentes cartes SIM ou des paramètres intégrés. Les tests liés à l’impact des applications sur la consommation énergétique (usage de la batterie) ne sont pas aisés à réaliser non plus, mais bien évidemment nécessaires. Enfin dans un contexte multilingue, il faut multiplier les pré- sentations par le nombre de langues existantes. Cela tient à la longueur des textes qui varie une fois traduits, mais aussi à d’éventuels changements d’ordre culturel pour certains pays. Finalement on constate que le champ des tests à réaliser est vaste ! Comment peut-on accompagner nos clients dans une démarche mobile testing ? A tout moment nous pouvons accompagner nos clients, soit en amont des projets autour du conseil, soit pendant les projets pour la réalisation de tests, ou encore durant l’exploi- tation des applications. Il existe deux grands domaines de conseil : Le premier concerne le choix des environnements et des outils. Les questions à se poser sont les suivantes : doit-on travailler avec des simulateurs ou avec des outils de prise en main automatiques ? Doit-on travailler avec des parcs de terminaux? Doit-on mettre en œuvre des acteurs externes qui offrent des services intégrés sur ces sujets ? Le deuxième domaine relève de la stratégie de test : Quels types de tests dois-je avoir ? Lesquels dois-je choisir ? Pour quelles raisons ? Comment dois-je assurer ma couverture ? Comment finalement j’optimise mon effort de tests ?
  23. 23. 28 Concernant les projets de test, nos experts sont évidemment spécialisés à la fois en testing et en mobile. Ils sont particu- lièrement efficaces en termes de conception ou d’exécution de test, que ce soit en mode délégation de ressources ou en Centre de Services, avec ou sans outillage, en fonction de la demande et des besoins du client. En mode exploitation « run », c’est la mise en œuvre d’appli- cations qui surveillent ces applications mobiles. On compte deux niveaux : un premier niveau appelé analytics existe déjà dans le monde Web et dans celui des mobiles. L’analytics permet de recueillir des statistiques sur les usages des applications en fonction de la typologie des terminaux et de mieux cibler les tests en fonction des usages les plus fréquents. Dans un deuxième temps, on peut aller un petit peu plus loin avec des applications de type APM (Application de Performance Management) qui permettent des analyses extrêmement détaillées, par zone géographique ou par typologie de transactions utilisées dans l’application. Enfin, elles permettent de donner une information extrêmement pertinente en termes d’escalade en cas de problèmes d’exploitation. ***
  24. 24. 29 Qu’est-ce que la BI analytique et le BIG analytics ? Tous nos clients sont désormais dotés d’entrepôts de données et de solutions de business intelligence. Pour dépasser les services rendus par la BI dite traditionnelle, l’approche par les statistiques permettent d’améliorer le diagnostic, la prédiction et la prescription. Nous sommes dans le monde de la BI analytique. Prenons l’exemple d’un site eCommerce. La phase de diagnostic va permettre d’identifier, de segmenter les com- portements « profils » des clients appétents à une offre. La phase de prédiction va permettre de quantifier cette appétence à l’aide de score datamining et la phase de prescription va permettre de proposer directement à un client qui se connecte, l’offre à laquelle il sera le plus appétent. Dans cet exemple les contraintes fortes, comme la volumétrie et la nécessité d’un temps de réponse court, imposent l’implémentation de solution du monde Big Data. On parle alors d’environnement Big Data et par extension de Big Analytics. Quelles sont les solutions sur le marché du BIG analytics ? Il en existe deux sortes, selon que l’on souhaite un support éditeur avec une prise en main assistée et ergonomique, ou bien de type Open Source pour des besoins de haute précision des modèles, ou des raisons de contraintes de coût. La plupart des solutions proposées par les éditeurs comportent des solutions de data visualisation compatibles avec des envi- ronnements Big Data. Les solutions de Big Analytics s’évaluent sur trois critères : le niveau d’ergonomie de la data visualisation, les fonctionnalités Sébastien Dupuis — De la BI analytique au BIG analytics 8 janvier 2014 —
  25. 25. 30 d’analytique embarquées permettant l’implémentation du diagnostic, de la prédiction et de la prescription et sa capacité à fonctionner en environnement Big Data. Aujourd’hui certaines solutions éditeurs comme par exemple SAS Visual Analytics ou bien encore la suite Infinit Insight de SAP, proposent un bon compromis à ces trois critères. A cela, il faut ajouter l’avancée de projet Open Source comme Pyhton ou D3JS pour la data visualisation, ou bien R et Yarn pour la partie analytics sur les framework Hadoop. Quelle est l’approche de Gfi Informatique sur la BI analytics et sur le Big Data ? Que l’on soit dans un environnement Big Data ou pas, un projet analytique est guidé par les données et l’adéquation des données avec le cas d’usage que l’on souhaite traiter. Afin de répondre à cette problématique, Gfi Informatique démarre ses projets Big Data par une étude orientée « data driven » qui permet de faire le point sur les données disponibles et l’adéquation avec le cas métier à investiguer. Que propose Gfi Informatique pour accompagner ses clients dans leur transition vers le Big Data ? Gfi Informatique vous propose d’échanger lors d’un atelier d’une demi-journée sur les données et les cas d’usage à traiter. A titre d’exemple, un grand nom de l’aéronautique français fait confiance à Gfi Informatique depuis 2010 dans le cadre d’un projet de maintenance prédictive afin de limiter les immobilisations au sol de ses avions, soit le facteur le plus important de coût pour les compagnies aériennes. ***
  26. 26. 31 Est-ce compliqué de migrer de Notes vers Office 365 ? Non. En revanche, Il ne faut pas considérer comme mineur un projet de migration dans le Cloud, mais bien comme un projet à part entière. Il est important de bien planifier et d’avoir une gouvernance forte autour du projet. Car bien souvent les projets qui se déroulent mal le sont à cause de défaillances de gouvernance. Lotus Notes comprend une partie messagerie et une partie applicative. Il est alors important de traiter ces parties comme deux projets distants, à savoir un projet de migration de la messagerie d’une part, et un projet de migration des applicatifs d’autre part. Quels conseils donneriez-vous à un DSI qui envisage de migrer vers Office 365 ? Il est fondamental de bien préparer la migration. Ensuite former et informer les utilisateurs des avantages et des impacts de la migration est essentiel. Leur faire savoir ce qu’il va se passer pendant les phases de migration leur permet de ne pas ressentir ce projet comme négatif. Faut-il prévoir un pilote ? Effectivement une phase pilote est fortement recommandée pour tester les différents processus de migration et pour s’assurer que l’impact sur les utilisateurs sera le plus restreint possible. Frédéric Cardoso — Migrer de Notes vers Office 365 : les pièges à éviter 10 janvier 2014 —
  27. 27. 32 Pourquoi faire appel à Gfi Informatique plutôt que de s’engager seul dans sa migration ? Outre une entière maîtrise dans la mise en œuvre de ces méthodologies, nous disposons de partenariats forts avec Microsoft, l’éditeur de la solution, mais aussi avec Refresh IT, Quest ou encore AvePoint qui ont des outils de migration de Notes vers SharePoint. ***
  28. 28. 33 Est-ce une bonne idée de centraliser sa production informatique ? Oui tout à fait. On préconise en effet de centraliser les in- frastructures informatiques dans des datacenters sécurisés ou en mode Cloud. Certaines fonctions ont également intérêt à être centralisées, comme la gestion des incidents ou le pilotage de la production. Ainsi on assure une homogénéité des outils et une meilleure qualité du service offert aux utilisateurs. D’accord, mais faut-il pour autant tout centraliser ? La stratégie doit être globale. En revanche, il n’est pas obligatoire de rassembler toutes les équipes sur un même site. Le datacenter peut être basé à Lyon et l’équipe de pilotage à Lille. Il est cependant nécessaire de garder un minimum de compétences dans les établissements, notamment pour les opérations de brassage. Le provisionning des postes de travail peut également être réalisé partiellement en local. Il est éven- tuellement plus efficace d’avoir un stock de postes de travail en local et d’assurer sur site la masterisation et le déploiement des applications sur les postes. Quel est l’impact de la centralisation sur les équipes ? On se dirige vers une diminution des équipes informatiques sur les sites des utilisateurs, à raison d’un ETP minimum pour 200 utilisateurs. Leur métier va également changer puisque l’on réduit progressivement la technicité des agents sur les sites de façon à les orienter vers du service et de la qualité pour les utilisateurs. Antoine Delahousse — Centralisation de la production informatique : jusqu’où faut-il aller ? 13 janvier 2014 —
  29. 29. 34 Ces évolutions nécessitent forcément une conduite du changement adaptée pour former les agents informatiques, voire les reconvertir à de nouveaux métiers. Pourconclure,sait-on,nousGfiInformatique,accompagner nos clients sur ce type de projet ? Ouitoutàfait.Nousavonsuneoffreappelée« Gouvernancede la production informatique » qui vise à aligner l’organisation de la production informatique avec les besoins des métiers. Cela peut s’accompagner de projets de transformation des infrastructures ou d’externalisation. ***
  30. 30. 35 Office 365, qu’est-ce que c’est ? Office 365 est l’offre bureautique de Microsoft située dans le Cloud. Elle comprend des outils comme Word, Excel et PowerPoint, disponibles aussi en client lourd pour les postes de travail. On y trouve également un client Lync, un client Exchange et des applications SharePoint online. Pourquoi migrer vers Office 365 ? Pour trois raisons. La première, pour une plus grande flexibilité. Microsoft garantit contractuellement à 99.90 %. la disponibilité de ses applications La deuxième raison touche à l’innovation. Microsoft fait évoluer sa plateforme en toute transparence pour le client et maintient ses applications à jour. Enfin la troisième raison se rapporte aux coûts. Migrer permet de diminuer son TCO au niveau de ses plateformes internes, puisque l’on se libère de la partie Gestion et Administration de tout ce qui est hébergé dans le Cloud, que ce soit chez Microsoft ou chez un partenaire. Comment faut-il procéder pour migrer vers Office 365 ? Il suffit de s’adresser à un expert Gfi ! Nous disposons d’offres packagées prêtes à l’emploi, avec possibilité de personna- lisation selon l’environnement du client pour faciliter une transition en toute transparence vers le Cloud. *** Frédéric Cardoso — Migration vers Office 365 : pourquoi, comment ? 15 janvier 2014 —
  31. 31. 36 Le eCommerce est un secteur très dynamique. Qu’est-ce qui a changé ces dernières années ? Beaucoup de choses. On a tout d’abord assisté à la montée en puissance de la mobilité avec ce que l’on appelle le m-Commerce. On a aussi vu les habitudes des consomma- teurs changer. Nés avec internet, ils sont aujourd’hui naturel- lement enclins à privilégier le canal virtuel au détriment du canal physique. Cela entraîne chez les eCommerçants et chez les commerçants traditionnels des changements nécessaires en termes d’organisation, tant sur la logistique que sur la partie technologique. Lorsque l’entreprise possède déjà une plateforme, quels sont les critères à prendre en compte pour la faire évoluer ? Quasiment tous les commerçants possèdent aujourd’hui une plateforme eCommerce. La question qu’ils doivent d’abord se poser est la suivante : suis-je prêt à affronter un univers concurrentiel de plus en plus tourné vers le cross-canal ? Le cross-canal, c’est la capacité des commerçants à combiner tous les canaux de vente, à mélanger les opérations et à tirer les bénéfices de chaque information accumulée dans l’un ou l’autre des canaux de vente afin de générer une expérience d’achat unique vis-à-vis de l’internaute. Deuxième critère d’évolution : la montée en puissance des outils de merchandising. Le merchandising, c’est la capacité d’une plateforme à proposer des produits complémentaires à la vente afin d’augmenter le chiffre d’affaires et les marges. Il faut aussi prendre en compte l’aspect mobilité, c’est-à-dire être capable de traiter avec l’ensemble des plateformes Olivier Ravel — Pourquoi refondre votre plateforme eCommerce ? 17 janvier 2014 —
  32. 32. 37 mobiles, tablettes et smartphones, sur Android, Windows Phone ou iOS. Enfin, une plateforme se doit d’offrir une très grande agilité pour mener à bien des opérations marketing et commerciales. Elle doit proposer des systèmes de contribution riches et avoir une intégration très fine avec tous les outils de back-office, comme la supply-chain. Quels sont les risques à ne rien faire ? Le risque est considérable. Aujourd’hui les compétiteurs Pures Players comme Amazon ou eBay sont devenus des mastodontes. Face à eux, les commerçants traditionnels doivent impérativement se doter des mêmes outils. Les commerçants traditionnels doivent élargir leur catalogue d’offres en termes de produits, vis-à-vis des internautes, en s’appuyant sur des réseaux de partenaires. C’est ce que l’on appelle les Marketplace. La Marketplace va devenir un enjeu extrêmement crucial pour les eCommerçants dans les années à venir. ***
  33. 33. 38 C’est quoi le Big Data? Dans Big Data il y a deux termes, et le plus important c’est Data, car porteur de sens. Le monde du Big Data fait prendre conscience que des éléments de sens sont contenus dans les données internes de l’entreprise. Ces données peuvent aussi être exploitées en les croisant avec des sources externes, qu’elles soient payantes ou non, afin d’apporter du contexte qualitatif et quantitatif pour mieux comprendre sur quoi repose son activité, tirer parti des signaux faibles et s’en servir pour développer de nouveaux services, améliorer l’efficacité opérationnelle, voire mieux prévoir/prédire des comporte- ments. S’il s’avère que des contraintes sur un ou plusieurs des 3V paraissent importantes, alors il sera nécessaire de « faire parler les données » via une approche technologique de type Big Data. Le Big Data, ça marche en France ? Cela progresse malgré un départ plus que difficile. En France, le Big Data a été essentiellement pris sous l’angle technolo- gique, ce qui est un véritable problème. Les éditeurs américains ont assuré la promotion de solutions miraculeuses face au « déluge » de données sans prendre le temps de considérer les besoins réels des clients français qui étaient et demeurent différents. En effet, les américains valident un concept business en investissant si nécessaire sur une plateforme Big Data gérée par des équipes internes technophiles. Le déclencheur est donc business avec un sponsoring venant du plus haut. En France, on a eu beaucoup d’interrogations face aux cas d’usages outre atlantique, pas si simples à transposer en raison Alvin Ramgobeen — Big Data : mi-figue, mi-raisin ? 23 janvier 2014 —
  34. 34. 39 d’une volumétrie moindre et de contraintes légales bien plus fortes. Enfin, ce qui ne facilite en rien la tâche, la logique d’in- vestissement est souvent inverse à celle des États Unis. Quels conseils donneriez-vous à une entreprise qui souhaite s’engager dans une démarche Big Data ? Qu’il n’est nul besoin de commencer par investir sur une solution technologique de type Big Data pour se pencher sur ce que la donnée peut apporter en termes de sens business. Qu’il est tout à fait possible d’initier des démarches d’explo- ration à partir notamment des données de détails contenues dans son Système d’Information décisionnel. Qu’enfin, il est plus que nécessaire de co-construire au préalable avec les métiers une liste prioritaire de cas d’usages éligibles à ces approches et d’autres part de sensibiliser sa direction générale sur les raccourcis à éviter en la matière, à savoir de croire qu’Hadoop sait gommer tous problèmes liés à la performance par exemple ! ***
  35. 35. 40 Aujourd’hui les collectivités utilisent de nombreux moyens pour communiquer avec leurs usagers, comme l’affichage, les bulletins municipaux, les sites internet… mais existe-t-il des outils innovants pour communiquer avec les citoyens ? Se rendre en mairie reste le moyen privilégié par les citoyens pour solliciter un service auprès de leur commune, avec les contraintes que l’on connaît d’horaires d’ouverture et parfois de file d’attente. Vous le rappeliez à juste titre, les collectivités sont équipées de sites internet. C’est le niveau 2 de la communication, c’est-à-dire le niveau web. Aujourd’hui nous avons l’ambition de proposer un bouquet de services innovants pour enrichir les services en ligne. Il y a ensuite le troisième niveau de communication qui concerne la mobilité. La plupart des administrés sont équipés de terminaux mobiles et nous souhaitons mettre à leur disposition des services disponibles à tout moment et en tout lieu depuis des tablettes ou smartphones. C’est le moyen le plus efficace pour adresser le plus grand nombre de citoyens. Vous parlez de services en mobilité, mais à quoi pensez- vous ? D’abord au push SMS. En 1 clic, une collectivité peut envoyer un message SMS à l’ensemble de ses administrés. Les utilisations sont multiples : prévenir les parents d’élèves que les transports scolaires ne sont pas assurés, informer les citoyens par un simple SMS qu’une réunion va se tenir en mairie ou encore prévenir les usagers d’une coupure d’eau. Sylvie Thiroine — Comment communiquer de manière innovante avec vos citoyens ? 3 février 2014 —
  36. 36. 41 Ensuite, l’audio Web Conférence. Les collectivités peuvent organiser des réunions auxquelles les participants assistent, soit en présentiel dans les locaux de la mairie, soit à distance depuis leur smartphone ou tablette. Dans ce cas, les participants à distance peuvent voir et entendre ce qui se dit en réunion. Ils peuvent aussi prendre la parole, être vus et entendus par les autres participants. Les cas d’application sont multiples. Je pense notamment aux réunions scolaires qui commencent souvent à 17h00. Les parents n’étant pas toujours disponibles, ils peuvent alors participer à distance. Je pense aussi aux personnes à mobilité réduite qui peuvent participer à des réunions organisées par la mairie depuis leur domicile, devant leur ordinateur. On a parlé de push SMS, d’audio Web Conférence. D’autres outils innovants ? Nous proposons d’enrichir les services disponibles en ligne. A savoir, les citoyens pourront réaliser des démarches admi- nistratives, suivre leur avancement, s’inscrire à des activités sportives ou encore déposer un CV ou une demande de stage. De plus, depuis le portail, le citoyen pourra demander à être rappelé dans une plage horaire qui lui convient. C’est ce que l’on appelle le système « clic-to-call ». Il pourra aussi prendre rendez-vous avec un agent ou un élu en ligne depuis son ordinateur. Cela revient à dire que la mairie est pratiquement ouverte 24h/7j. Tous ces outils sont largement diffusés dans le secteur privé. Est-ce que c’est simple à mettre en place dans une collectivité ? La solution ConnectiCité de Gfi Informatique est très simple à mettre en œuvre. Les services sont disponibles en un clic. Rien n’est installé sur les ordinateurs de la collectivité. Tout est hébergé dans le Cloud d’Orange, notre partenaire, sur
  37. 37. 42 des datacenters installés en France. Nous avons développé un système d’abonnements mensuels qui permet à toute les tailles de collectivités d’accéder à ces services innovants, de la plus petite commune rurale à la très grande agglomération. ***
  38. 38. 43 On entend de moins en moins parler de BI mais surtout de Big Data. Est-ce que l’un est en train de remplacer l’autre ? C’est vrai, le Big Data a aujourd’hui pris le relais sur le marché de la BI. Depuis 2011 le Big Data s’est concrétisé sur le marché français, notamment au travers de la constitution de « uses cases » et de projets qui s’implémentent autour de solutions technologiques émergentes, souvent orientées Open Source. Les éditeurs de BI traditionnels, depuis l’intégration de données jusqu’aux solutions de Geo BI ou de restitution avancée, se sont lancés dans le rafraîchissement de leur ligne produit sur des concepts empruntés au Big Data, ce qui engendre un certain flou pour les clients. Quels sont les plus du Big Data par rapport à la BI ? La BI sert des enjeux de pilotage des lignes métiers en agrégeant les données opérationnelles. Dès lors, ce qui est observé est souvent représentatif du signal fort. Si l’on souhaite comprendre et donner du sens, il devient plus difficile de trouver les éléments d’explications sous-jacents. La BI traditionnelle est limitée pour apporter des réponses à ces nouveaux besoins métiers. Le Big Data travaille par l’approche basée sur des signaux faibles et ce, au plus près du détail que les données opération- nelles quasi brutes peuvent nous livrer. En ce sens, l’approche Big Data est complémentaire à la démarche BI. Comment faut-il procéder pour lancer un projet Big Data ? Le point de départ d’un projet Big Data peut prendre appui sur les données issues de la BI. En effet, la BI représente généralement l’une des concentrations des données internes à Alvin Ramgobeen — Big Data versus BI : y a-t-il match ? 11 février 2014 —
  39. 39. 44 l’entreprise parmi les plus certifiées, tant sur la qualité que sur les référentiels qui les décrivent. Cependant il est nécessaire de toujours rattacher un projet Big Data à un cas d’usage qui aura été au préalable décrit a minima en termes métier au risque de se retrouver avec un lac de données sans réel sponsor et qui ne vit pas. ***
  40. 40. 45 Pourquoi les Directions Métier ont-elles parfois des difficultés à dialoguer avec la Production Informatique ? Les délais peuvent en être la cause car souvent les métiers sont pressés de voir leurs demandes satisfaites, soit sur la mise en œuvre d’une nouvelle fonctionnalité, soit sur la mise en production d’une nouvelle application. Les technologies peuvent être en cause également. La productioninformatiquegèrecorrectementuncertainnombre de technologies. Cependant, si les métiers demandent aux équipes Production de faire fonctionner une base de données inhabituelle, elles peuvent alors rencontrer des difficultés. La qualité de service peut aussi être un sujet de mésentente. Le métier peut éprouver une difficulté à formaliser la qualité de service attendue ; de son côté la production informatique hésite sur le niveau de l’infrastructure à mettre en œuvre. On peut aussi avoir des surdimensionnements ou des sous-dimensionnements. Parlons du catalogue de services. Est-ce la solution et quelle définition donneriez-vous au catalogue de services ? La Direction Informatique produit le catalogue de services des offres accessibles par les métiers. Ce catalogue de services précise pour chaque offre le niveau de service proposé, le coût, et le délai de mise en œuvre. On y trouve des offres techniques, comme l’approvisionnement d’un serveur, d’un volume de stockage, ou d’un studio de visioconférence ; ou encore des offres plus globales, comme le MCO d’une nouvelle application ou une solution d’archivage. On peut Antoine Delahousse — Comment faciliter le dialogue entre direction métier et production informatique ? 18 février 2014 —
  41. 41. 46 également avoir un catalogue de services bureautiques orienté vers les utilisateurs. L’intérêt du catalogue de services est de permettre aux métiers de formaliser leurs demandes et simplifier leurs expressions. En conséquence, la Direction Informatique va pouvoir in- dustrialiser la réponse à ces demandes et avoir une meilleure adéquation entre ce qui est mis en œuvre et les besoins des métiers. Par-là même, la Direction Informatique réalise des économies sur le fonctionnement. Que se passe-t-il lorsqu’une Direction Métier a une demande qui ne figure pas dans le catalogue de services ? Dans ce cas, la Production Informatique propose une offre sur mesure qui implique sans doute des coûts et des délais plus importants pour le Métier. Dans certains cas, la Direction Informatique peut s’adresser à un opérateur de Cloud public pour bénéficier d’une offre basique d’hébergement. Pour conclure, est-ce que nous Gfi Informatique, sommes capables d’accompagner un client dans la construction de son catalogue de services ? Tout à fait, notre offre «  Gouvernance de la Production Informatique » intègre l’ensemble de ces prestations. ***
  42. 42. 47 La lutte anti-blanchiment, de quoi s’agit-il ? 1 500 milliards à 2 000 milliards de chiffre d’affaires annuel ! C’est formidable, n’est-ce pas ? C’est malheureusement le produit estimé chaque année du blanchiment d’argent. Il faut donc essayer de réduire ce montant. Le blanchiment d’argent, c’est quoi concrètement  ? Cela consiste à introduire dans le système légal de l’argent issu d’activités illégales et de trafics en tout genre : trafics d’armes, de drogue, extorsions de fonds, criminalité, vols, abus de biens sociaux et corruption. Tous ces sujets sont traqués. Le régulateur exige une mise sous surveillance par les intermédiaires financiers tels que les banques, les assurances, les conseils en patrimoine, les notaires pour les successions, les avocats, les casinos, etc. Le blanchiment lui-même prend des formes diverses et variées. Un exemple à petite échelle : il suffit d’ouvrir un restaurant qui ne servirait que 3 repas par an mais qui enregistrerait en cash l’équivalent de plusieurs milliers de repas. Un exemple plus compliqué va passer par des scénarios de sociétés écrans ou fantômes, de facturations croisées, un peu de paradis fiscal, un banquier peu regardant au passage, et le tour est joué. En France, les sociétés chargées de suivre la lutte contre le blanchiment doivent émettre des déclarations de soupçons à un organisme central, TRACFIN, qui dépend du Ministère des Finances. Quel impact pour les banques ? Les premières lois sur le blanchiment datent de 1996. Les premiers impacts importants se sont fait sentir à partir de Norbert Hensgen — Lutte anti-blanchiment : les banques françaises sont-elles prêtes ? 25 février 2014 —
  43. 43. 48 2005. Depuis cette date, les intermédiaires chargés de faire les déclarations sont obligés de déclarer tous les comportements suspects pouvant générer, pour leur auteur, une peine d’em- prisonnement d’au moins un an. Compte-tenu des réglementations existantes, cela représente une nombre considérable de clients et de mouvements à surveiller, ce qui oblige de fait les banques et les assurances à surveiller l’ensemble de leurs clients et de leurs mouvements. Cela les oblige à constituer des bases de données centrales qui vont être alimentées quotidiennement avec des schémas techniques de type datawarehouse, ainsi que d’analyser les données avec différents outils de type analyse statistique, moteur de règles ou comparaison à des listes noires. Les banques ont plutôt choisi de mettre en place des progiciels et non des solutions maison puisque la réglementation est la même pour tous et que l’évolution sera facilitée lorsque la rè- glementation aura changé. Quels sont les principaux challenges pour une banque ? La Quatrième Directive Européenne relative à la « prévention de l’utilisation du système financier aux fins du blanchiment de capitaux et du financement du terrorisme » a été votée par le Parlement Européen en mars 2014. Elle devra être transposée dans le droit national de chaque état dans les deux ans à venir. Ce paquet réglementaire comporte 3 types de dispositifs : • Un premier dispositif au niveau de l’extension du type d’organismes concernés. Par exemple, toutes les sociétés de jeux devront désormais déclarer leurs soupçons, y compris les sociétés de jeux en ligne. Seront également suivies les transac- tions opérées au niveau des grands groupes transnationaux ou internationaux. Mais aussi de manière plus spécifique les personnes politiquement exposées, à savoir nos élus, nos gou- vernants, les hauts fonctionnaires, dans la mesure où ils sont
  44. 44. 49 en relation avec des organismes étrangers ou des personnalités étrangères qui pourraient présenter des cas de sollicitation. • Le deuxième aspect de ce nouveau paquet réglementaire concerne l’identification des clients, et la tenue de registres publics des sociétés et des propriétaires. Il est maintenant introduit la notion de bénéficiaire effectif, autrement dit, la personne physique « qui tire les ficelles ». En d’autres termes, pour une société, il s’agit de l’actionnaire ou des actionnaires physiques principaux. Et lorsqu’ il s’agit d’une cascade de sociétés, il y a maintenant obligation de remonter la chaîne en tenant un registre de tous les propriétaires réels et des acteurs qui effectuent les transferts de fonds, qui peuvent se cacher derrière des personnes morales. C’est donc quelque chose de très important qui ne va pas être simple à gérer pour les banques. • Le troisième volet concerne l’approche graduée par les risques. Elle était jugée un peu simpliste dans la version précédente mais qui se complique à présent. En effet, il est demandé aux banques non seulement de différencier l’ap- proche selon les clients, mais également selon les produits vendus, les services exécutés et les canaux de distribution utilisés. Cela signifie que si je suis client d’une banque privée avec un patrimoine diversifié et de multiples compartiments (produits, placements, investissements, mouvements divers et variés), je vais avoir droit à une surveillance plus serrée que celle qu’aura un salarié possédant un compte courant ordinaire. Ceci se traduira en matière de SI par des mo- difications importantes. En effet, ces nouvelles règles de gestion nécessiteront des nouvelles données et de nouvelles règles d’analyses. Très probablement se mettront en place de nouvelles versions de progiciels de lutte contre le blanchi- ment utilisés avec le lot habituel de tests : tests fonctionnels, tests de non régression, tests de performance et probable- ment une durée relativement longue avec un investissement
  45. 45. 50 qui sera loin d’être négligeable. Les banques françaises sont-elles au rendez-vous ? De manière globale l’Europe est une très bonne élève dans ce dispositif mondial et la France est un élève encore meilleur que la moyenne européenne. Dès 2012, la France a un mis en place un certain nombre de dispositions réglementaires déjà en cours d’implémentation dans les banques, couvertes a priori par la nouvelle Quatrième Directive. Cela dit le gros du chantier qui consiste à mettre en place l’approche par les risques différenciés causés par les clients, produits, services et canaux de distribution n’est pas encore prévue et devra être mise en œuvre. Le travail reste donc important. Mais je suis confiant dans la capacité de nos banques à mettre ces dispositions en place dans les deux ou trois années à venir. Et Gfi Informatique dans tout ça ? Gfi Informatique accompagne les principales banques françaises depuis 2006 dans la mise en œuvre et le déploiement de progiciels sur des bases mondiales. Nous avons développé un savoir-faire, des compétences et une expertise que nous saurons encore mettre à disposition de nos clients pour leur assurer la réussite dans cette nouvelle étape. ***
  46. 46. 51 Les TNR, c’est quoi ? Obligatoires, les Tests de Non-Régression ne touchent qu’une partie d’une application ou d’un Système d’Information. Cette activité consiste à vérifier que « ce que l’on ne voulait pas changer fonctionne toujours comme avant  ». Cela représente en pratique 30 % des volumes de tests réalisés sur ces applications. Les Tests de non régression sont importants en termes de délai et de time-to-market. Ils ne peuvent être conduits qu’une fois l’application livrée et sont donc sur le chemin critique du projet. Souvent mal aimés, les TNR sont perçus comme ayant peu de valeur ajoutée. Quand peut-on optimiser les TNR ? On peut optimiser lesTests de Non-Régression à trois niveaux : «  en amont  » au moment où on les conçoit, «  pendant  » lorsqu’on les exécute, et enfin, on peut encore les optimiser « après ». En amont, la première des optimisations vise une gestion d’exigences qui soit de bon niveau et qui permette d’optimiser les analyses d’impacts. En effet, lorsque l’on a une mauvaise analyse d’impacts, on crée des problèmes de non-régression en ayant des anomalies qui vont se produire sur des zones que l’on ne devait pas toucher. La deuxième source d’optimi- sation concerne la structuration du patrimoine de tests, dans lequel on cherche à avoir des attributs de tri qui permettent de sélectionner les scénarios en fonction des risques que l’on prend vis-à-vis des évolutions et de la non-régression. Par exemple, on utilise une structuration des scénarios en disant : « j’ai des scénarios très détaillés de type Règles de gestion, des François Darphin — Les Tests de Non-Régression (TNR) : je t’aime… moi non plus ? 3 mars 2014 —
  47. 47. 52 scénarios de type Processus bout-en-bout et enfin des scénarios de type Procédures ». Durant le projet, les tests se font dans cet ordre-là : en premier, les règles de gestion, les processus ensuite, et enfin les procédures. Lorsque je suis en non-ré- gression, je peux inverser l’ordre et commencer par tester les procédures. Si elles sont conformes, il n’y a plus besoin d’accéder aux niveaux processus et règles de gestion. Une fois les procédures testées, les utilisateurs finaux sont véritable- ment rassurés. Il est important de se donner des critères de choix et de sélections qui permettent d’optimiser la quantité de scénarios que l’on va exécuter. Deux sources d’optimisation sont possibles «  pendant  » l’exécution des Tests de Non-Régression. La première, l’auto- matisation permettant d’aller beaucoup plus vite qu’en mode manuel. Cependant quelques prérequis sont nécessaires en termes de faisabilité technique et de stabilité pour éviter trop de maintenance. « En amont » de l’exécution, il est nécessaire de positionner le contexte de l’exécution, a minima les données de tests, afin que les tests puissent tourner tout seuls, puis se donner les moyens d’automatiser l’analyse des résultats. Enfin, il est encore possible d’optimiser « après » les tests de non régression en capitalisant sur deux points : d’une part faire que la maintenance des scénarios suive l’évolution de l’appli- cation et, d’autre part, en préparant des éléments statistiques pour identifier les tests qui ont produit les meilleurs résultats. ***
  48. 48. 53 L’ALM est l’acronyme de Application Lifecycle Management que l’on peut traduire par gestion du cycle de vie des applications. Historiquement le PLM a été mis en place pour gérer des données mécaniques, notamment liées à la Conception Assistée par Ordinateur (CAO). Puis progressivement le PLM s’est déployé sur l’ensemble du cycle de vie tout en restant associé au produit, à l’organique. Aujourd’hui, les industriels et les solutions du marché sont suffisamment matures pour déployer réellement l’ingénierie système et l’ingénierie système logiciel Quels sont les défis relevés par l’ALM ? Comme pour le PLM, le premier défi de l’ALM est la mise en place d’un référentiel permettant un partage facile de l’ensemble des informations liées à la définition, la conception, la production et la mise en service des systèmes embarqués. On couvre la gestion des exigences et ce, jusqu’à ce que la vérification de ces exigences soient bien répandues dans le système industrialisé. Le deuxième défi, côté utilisateurs, est la mise en place d’une collaboration directe entre l’ensemble des intervenants dans la définition du système. Le troisième challenge est la traçabilité au travers la création de tableaux de bord permettant de bien suivre l’avancement dans le cycle de vie du système. Le quatrième défi est l’optimisation de la campagne de tests et une amélioration de l’assurance qualité du système industrialisé. Enfin, le dernier est la mise en place de la ligne de produits pour faire de la conception modulaire par système, sur toute Thierry Durand — ALM & Ingénierie Système : nouveaux défis des industriels dans le monde du PLM ? 5 mars 2014 —
  49. 49. 54 une gamme de produits de l’industriel. Concrètement, sur quels types de chantiers les industriels peuvent-ils déployer de l’ALM ? Je privilégierais deux axes. Le premier, c’est remonter dans le cycle de vie du PLM, c’est-à-dire au niveau de la gestion des exigences jusqu’au dernier point du cycle en V de la conception produit, à savoir la vérification des tests. Cela permet d’assurer une cohérence de la gestion des exigences jusqu’aux tests. Le deuxième axe est la gestion logicielle des systèmes embarqués. Cela s’applique aux exigences bien sûr, mais aussi aux sources, aux codes et aux tests qui ont été mis en place pour valider le système logiciel embarqué. Et Gfi Informatique dans tout cela ? Sur la base de son expertise aéronautique et défense, Gfi Informatique a investi sur ce sujet de l’ALM et l’Ingénierie Système. De par la maturité des industriels et la maturité des solutions, Gfi Informatique a mis en place des offres et des méthodologies qui permettent d’accompagner les industriels dans cette démarche. ***
  50. 50. 55 On entend souvent parler de Cloud dans les collectivités, mais qui dit changement, dit crainte… alors, qu’en est-il dans la réalité ? Pour peu que vous ayez choisi le bon opérateur, l’ensemble des informations que vous mettez dans le Cloud aujourd’hui sera pratiquement accessible et disponible à 100 %, avec une étanchéité complète de vos informations. Autrement dit, un client ne peut pas avoir accès aux données d’un autre client s’il ne le souhaite pas. La sécurité, l’accessibilité des données sont-elles des idées reçues. Dans ce contexte, quels sont les intérêts pour les collectivités d’adopter des solutions Cloud ? Une collectivité a intérêt à rester centrée sur sa mission de service public. Cela permet aux acteurs publics de se reconcentrer sur leur métier de base et sur les tâches à valeur ajoutée, comme mandater les fournisseurs, encaisser les recettes, payer les agents. Les acteurs publics s’affranchissent ainsi de tout ce qui est technique ou technologique, de la sauvegarde de la veille qui n’a pas fonctionnée ou du réseau qui n’est pas disponible. D’autres exemples d’usages du Cloud ? Aujourd’hui les petites collectivités ont des agents multi-em- ployeurs. Un secrétaire de mairie peut être appelé à travailler pour trois ou quatre collectivités différentes. Ainsi, quelle que soit sa situation géographique, ce secrétaire de mairie peut facilement répondre à ses élus ou à ses administrés sans se Guillaume de Bruc — Solutions Cloud pour les collectivités locales : qu’avez-vous à y gagner ? 11 mars 2014 —
  51. 51. 56 poser de questions dans la mesure où il dispose d’un accès à l’ensemble des collectivités qu’il gère. Le Cloud pour une collectivité, c’est compliqué à mettre en place ? Le Cloud, c’est très simple à mettre en place. Avec la reprise des données et la formation des agents, vous pouvez être opérationnel en quelques semaines ! C’est cher ? Le coût dépend bien évidemment de la taille de la collectivité, du nombre d’agents connectés et du nombre de fonctionnali- tés. Gfi Informatique commercialise des solutions à moins de 200 euros par mois, tout inclus. ***
  52. 52. 57 Pour la communauté ITSM : quels sont les « bons indicateurs » de Gestion des Services ? Quels sont les indicateurs à déployer en priorité ? Quels sont les conseils et les pièges à éviter ? La priorité est de se concentrer sur la satisfaction client Les référentiels de bonnes pratiques listent pas moins de 130 indicateurs (appelés aussi KPI – Key Performance Indicators) différents pour mesurer la performance de la Gestion des Services, il y a de quoi avoir le vertige. Surtout si la satisfaction du client n’est pas au rendez-vous après leurs déploiements. « If you cannot measure it, you cannot improve it », Lord Kelvin. Une chose est sûre, la mise en place d’indicateurs (ou KPI) est indispensable pour améliorer la manière de délivrer ses services IT aux clients. Cela permet de mesurer l’atteinte d’un objectif et disposer d’informations factuelles pour prendre les décisions. Sans indicateur défini, pas de système de mesure, donc pas d’amélioration possible. La clé réside dans la définition de l’indicateur. En plus d’être SMART (Significatif, Mesurable, Acceptable, avec un Responsable, Temporellement défini), les experts ITSM Gfi du Centre d’Intégration et Transformation estiment qu’un bon indicateur ne doit pas être cher à produire (par rapport à son apport), doit être automatisé et surtout doit être le reflet positif de la perception du client. Priorité aux indicateurs de disponibilité, de satisfaction client et de suivi des coûts Il est toujours délicat pour une DSI d’être informée par Jérémy Brunet — Les « bons indicateurs » de Gestion des Services : comment les choisir ? 13 mars 2014 —
  53. 53. 58 ses clients des indisponibilités de Service. Ceci montre un manque de maîtrise dans sa gestion et un fort risque de dépréciation de ses services. Il est donc prioritaire de mettre en place des indicateurs de suivi de la disponibilité afin d’être le plus réactif et le plus communicatif possible en cas d’indis- ponibilité avérée ou planifiée. La deuxième priorité est de mesurer la satisfaction client. Aujourd’hui, pour qu’une DSI perdure, elle doit compter sur ses clients. Seuls les clients satisfaits et fidèles continueront à utiliser (voire payer) ses Services. L’enjeu est donc de définir des indicateurs qualitatifs pour mesurer la satisfaction et le degré de fidélité des clients de la DSI. Des enquêtes de satisfaction régulières et ciblées couplées à des indicateurs, comme le taux de réengagement à des services de la DSI, permettent de mesurer cela. La troisième priorité porte sur le suivi des coûts d’un service. Une transparence dans le suivi des coûts IT est la garantie d’une bonne gestion aux yeux du CIO et des clients. Aujourd’hui, les DSI sont jugées sur leurs capacités à gérer le S.I dans le respect du budget alloué. Par conséquent, la mise en place d’indicateurs de suivi de coût des Services est prioritaire et facilite la justification et/ou la reconduction des budgets. De plus, il s’agit des indicateurs les plus regardés des autres directions, car compréhensibles et comparables. Certains indicateurs sont à proscrire Certains indicateurs systématiquement implémentés, bien que spécifiques, sont à proscrire. Le suivi du nombre de relances effectuées dans un ticket d’incident en est un bon exemple. Les experts ITSM Gfi jugent la définition (relance VS simple mise à jour) et la mesure trop aléatoire à mettre en œuvre par rapport au bénéfice à en tirer. Autre indicateur de Centre de
  54. 54. 59 Services souvent demandé et jugé peu performant : le suivi du ratio appels téléphoniques/tickets ouverts. La mise en œuvre de cet indicateur consiste à relever les écarts entre les appels reçus au Centre de Services et le nombre de tickets saisis par le Centre de Services dans l’outil de ticketing. Ceci dans le but de s’assurer que tous les appels sont tracés. Gfi met en garde sur cet indicateur car la justification des écarts est lourde et souvent infructueuse. En effet, les écarts sont souvent liés à des erreurs d’appels, faux numéros, appels internes… Réviser les indicateurs dès qu’ils ne reflètent plus la perception du client De manière générale, si il y a désaccord entre le ressenti du client et la valeur remontée par l’indicateur, Gfi préconise de revoir l’indicateur. Sortir du « Reporting pastèque » qui consiste à monter des indicateurs au vert alors que quand on interroge les clients sur le Service, ils voient rouge. Une révision ou adaptation des indicateurs doivent aussi être effectuées lors d’évolutions métiers notables, des revues de processus ou de changements d’objectifs. Des indicateurs orientés amélioration et non justification Pour conclure, Gfi préconise d’avoir une approche progressive sans vouloir répondre à trop d’exigences à la fois. De ne pas suivre à la lettre les préconisations des référentiels de bonnes pratiques. De construire les indicateurs directement avec les clients et de les orienter « amélioration des services » et non pas « justification d’activité ». Aucun indicateur ne se suffisant à lui-même, un certain nombre devra être déployé de manière cohérente, certains pouvant être utilisés temporaire- ment pour identifier une cause précise de dysfonctionnement. Cependant, pour une gestion efficace, les experts ITSM Gfi du Centre de Conseil et d’Expertise de Nantes préconisent de ne pas excéder cinquante indicateurs.
  55. 55. 60 Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? Qui dit performance, dit architecture ! Et les architectures aujourd’hui sont compliquées, mondiales et interconnectées. On les trouve de plus en plus dans le Cloud avec des éléments difficilement maîtrisables. Les architectures font intervenir des partenaires qui sont les fournisseurs de ces Clouds. Et pour finir, avec la mobilité, les utilisateurs utilisent de nouveaux équipements, de nouveaux devices, parfois même les leurs qui ne sont forcément labellisés par la DSI. En conséquence, la mesure de la performance dans ces architec- tures est devenue extrêmement complexe. Par ailleurs les utilisateurs qui subissent les performances souhaitent forcément en avoir de meilleures. Ils ont une vue perçue de la qualité de service qui dépend surtout de leurs multiples usages. Pour résumer, la performance est compliquée à mesurer à la fois pour des raisons d’architecture, mais aussi car les mesures de performances globales ne permettent plus de déduire celle d’un utilisateur donné, pour ses propres usages. Dans ce contexte, quel est l’apport de l’APM ? Premièrement, l’APM permet d’objectiver la performance entre la perception de la qualité de service de l’usage d’un individu en train de réaliser une transaction quelque part dans le monde, par rapport à la réalité concrète de la mesure de performance. Autrement dit, la performance instantanée du système peut être excellente et parfaitement en phase avec les conventions de François Darphin — Performance utilisateurs : pourquoi est-ce un sujet d’actualité ? 24 mars 2014 —
  56. 56. 61 service, alors même que les utilisateurs en ont une appréciation modeste. L’objectivation de cette mesure permet d’ouvrir une discussion entre l’utilisateur final et les pourvoyeurs des in- frastructures pour s’assurer qu’ils sont bien alignés. Deuxièmement, l’APM permet de suivre ces mesures en temps réel. Des tableaux de bord retranscrivent en continu l’évolution de cette mesure pour suivre la tendance qu’elle soit positive ou négative. Ainsi les outils d’APM vont permettre dans un mode actif, notamment en cas des difficultés, de récolter énormément d’informations sur ce qu’il se passe. Troisièmement, des outils permettent de savoir s’il s’agit du serveur, de la base de données, de la transaction faite par l’uti- lisateur ou du terminal qui pose problème. Quatrièmement, ces outils permettent d’instrumenter les escalades quand vraiment plus rien ne va dans l’infrastruc- ture. Une cellule de crise est montée et les outils d’APM abondent alors d’informations pour savoir comment résoudre les problèmes. L’APM : comment cela se met en œuvre ? Il faut trois conditions pour mettre en œuvre une solution d’APM. Avant tout, des compétences. Dans notre monde technolo- gique, il nous faut compter sur des experts qui comprennent ces technologies et qui savent mettre en œuvre les outils. Ensuite, des outils de mesure, des injecteurs, des sondes, des simulateurs de protocole. On trouve également des outils qui réalisent de la mesure de consommation de ressources sur les réseaux, sur les serveurs, sur les postes de travail, autrement dit de la métrologie. Puis enfin, on trouve des outils en charge de la consommation de cet ensemble de ressources, c’est ce qu’on appelle du Capacity Planning. C’est particulièrement vrai dans les Clouds dans lesquels on souhaite avoir une infrastructure
  57. 57. 62 scalable, et où, en fonction de la performance que l’on veut obtenir pour l’utilisateur, on va mettre en ligne plus ou moins d’énergie informatique. A-t-on une préférence pour certaines solutions ? Oui, une préférence pour celles qui sont faciles à mettre en œuvre afin de limiter les effets de compétence et celles qui ont un large spectre de couverture des protocoles et des outils. Par exemple, pour traiter simultanément du HTML ou du Citrix, il faut être capable de prendre en compte ces deux protocoles. Et pour traiter du SAP, il faut être en mesure de bien connaître les applications spécifiques, mais aussi les applications en Cobol. À ne pas négliger, le niveau d’analyse qui nous permet de donner des préconisations d’optimisation à la fois rapides et pertinentes. Pour conclure, Dynatrace de Compuware est l’outil qui répond le mieux au besoin de performance, notamment avec ses outils d’injection Gomez ou Dcrum. ***
  58. 58. 63 Première partie La mise en place d’une plateforme eCommerce n’est pas qu’une « simple » affaire IT. La stratégie business prime. Il est nécessaire de se poser, bien en amont, une série de questions de fond qui touchent autant à la stratégie business qu’aux métiers. Après, seulement, viennent les problématiques IT. Olivier Ravel, Digital Pratice Manager chez Gfi Informatique donne ses conseils clés. Remodeler sa stratégie commerciale Commencez par vous interroger sur votre modèle de business et sur vos objectifs notamment en termes de chiffre d’affaires. Dans ¾ des cas, je me suis aperçu que les experts métiers se posent la question du CA trop tard ! La plateforme ne sera pas la solution à tout, et il ne faut pas hésiter à profiter d’un projet de refonte pour remodeler la stratégie commerciale. Le modèle économique de l’entreprise sera peut-être différent surleweb:lasupplychain,leCRMetlanotiondemarketplace seront des points importants qui détermineront les solutions à choisir. De même, le changement des usages de consomma- teurs façonnera le modèle économique de distribution. Cette phase amont est l’occasion d’une réflexion sur les moyens d’augmenter le CA online (politique commerciale spécifique, affiliation, déploiement géographique plus important…). Votre business model sera aussi fonction du type d’enseigne. J’ai eu à traiter du cas des franchises : comment faire en sorte Olivier Ravel — Les conseils clés pour préparer le lancement de votre plateforme eCommerce : d’abord, la stratégie business ! 31 mars 2014 —
  59. 59. 64 que le canal digital n’entre pas en concurrence avec le réseau mais soit au contraire un outil de plus pour les membres ? Le modèle de cofinancement peut permettre de rémunérer les franchisés sur un pourcentage des ventes eCommerce, et le « clic and collect » (génération de leads) pourra aussi bénéficier aux franchisés. Tout cela aura bien évidemment un impact sur la stratégie plateforme et sur les choix métiers et IT. Placer le client au centre Il faut ensuite prendre en compte LE grand driver du moment : le multiplexage des canaux. Site web, centre d’appel, réseaux sociaux, mobile, point de vente… on doit casser la notion encore trop courante de « silo » isolés les uns des autres, mixer les informations en provenance de ces différents canaux pour placer le client au cœur du système de vente, et bâtir ce dernier autour d’une base CRM//Client. Choisir la solution plateforme adaptée Enfin, vient le choix du type de solutions : «  make  » or « buy » ? Plateforme en développement spécifique ou solution du marché (ERP Commerce) ? J’aurais tendance à privilégier l’option « buy » car les solutions ERP Commerce ont rattrapé ce qui se fait de mieux en spécifique, en tout cas pour les pure players. L’option « make », développement spécifique, conviendra pour des systèmes très complexes avec un historique important, les services financiers ou la banque, les telcos… Il existe plusieurs stratégies «  buy  », de l’acquisition d’une solution d’un éditeur ERP, qui a un coût mais se justifie en fonction de l’ambition de croissance, au pay per use en mode Saas. Le choix, là aussi, dépendra du modèle économique.
  60. 60. 65 N’oubliez pas de faire intervenir les métiers dès ces phases de choix liées au modèle, et la DSI lors du choix de plateforme. ***
  61. 61. 66 Deuxième partie Dans la mise en place d’une plateforme eCommerce, après la phase stratégique (lire « Bien penser sa stratégie business en amont ») où le modèle économique et la stratégie commerciale online sont (re)modelés, vient la phase métier. Attention toutefois : les métiers devront être impliqués très tôt, dès la définition de la stratégie. Olivier Ravel, Digital Pratice Manager Chez Gfi Informatique avance quelques conseils essentiels. 1 – Faire intervenir les métiers dans les bons processus et aux bons moments Les métiers, que ce soit les ventes, le marketing, la production, la supply chain… devront être impliqués dès la phase de définition de la stratégie de mise en place d’une plateforme eCommerce qui peut bouleverser ces organisations du fait d’un accroissement de l’activité. La question du chiffre d’affaires online cible avec leviers de croissance doit ainsi être posée avec l’implication des métiers. L’autre question des moyens organisationnels et marketing en rapport avec les objectifs de croissance nécessite très tôt, également, leur intervention. Ainsi le modèle de distribution les concerne directement avec la notion de « cross-canalité », de même que le modèle de promotion (comment envoyer le client en magasin avec des bons d’achat sur le Net, par exemple, ou quel modèle promotionnel généralisable ou au contraire spécifique au online). Idem pour le pricing des produits. 31 mars 2014 — Olivier Ravel — Les conseils clés pour préparer le lancement de votre plateforme eCommerce : les métiers, c’est très tôt que vous devez les impliquer
  62. 62. 67 Dès le départ je recommande que les équipes métiers se concentrent sur les pratiques commerciales qui rapportent le plus (ROI important) afin de pouvoir gérer les contraintes de Time To Market au moment de la construction de la solution et focaliser les efforts de mise en œuvre. 2 – Le cas particulier de l’international L’international, qui nécessite une approche globale, met parti- culièrement en lumière le rôle clé des métiers. Ce n’est pas au moment du projet (plateforme et IT) que l’on doit y penser, mais bien avant ! À partir d’une production centrale, le modèle de vente peut être différent selon les pays. Les métiers doivent essayer de rassembler le maximum de fonctions dans un « core model » afin, ensuite, de le déployer pays par pays. Ils vont définir les processus qui peuvent être regroupés et répétés : un catalogue central décliné ? Ou un catalogue différent par pays ? Modèles de distribution, de paiement, de livraison, de pricing et de promotion : tout cela impacte les acteurs côté métiers mais aussi les opérateurs. Avec, pour certains pays ou certains services, des conditions très spécifiques : je connais bien la distribution en Chine par exemple, qui présente des particu- larités sur le plan légal, et j’ai eu affaire à des services de vente en ligne devant adapter leur modèle de paiement aux pays et à leur monnaie… ***
  63. 63. 68 Troisième partie Héritage technique, testing, design, hérbergement…. Dans la mise en place d’une plateforme eCommerce, la phase IT intervient théoriquement après les phases stratégiques et métiers (lire « Bien penser sa stratégie business en amont » et « Impliquer les métiers très tôt ») quand le modèle de CA online et les différents modèles de distribution ont été élaborés, et la plateforme ERP choisie. Mais la DSI a aussi un rôle en amont en lien avec la DG et les métiers : formation, intégration des équipes, etc. Le tout avec une bonne maîtrise d’œuvre ensemblière. Olivier Ravel, Digital Pratice Manager Chez Gfi Informatique résume ici les conseils à suivre. 1 – Bien conseiller la DG dans le choix de la plateforme ERP La DSI va intervenir en amont lors du choix stratégique du type de plateforme ERP. La tendance du marché est à la migration vers les ERP commerce, les solutions dites « buy » par opposition aux solutions spécifiques qui offrent un Go To Market plus rapide et industriel. Le choix se fera en dialogue entre la DG et la DSI, en fonction du modèle économique de l’entreprise : entre l’acquisition d’une solution éditeur, une solution prête à l’emploi plugée ou une solution à la transaction (pay per use) en mode SaaS. 2 – Bien gérer le « legacy » Il est rare qu’une entreprise fasse totalement table rase du passé. Dans la phase IT, on se heurte alors d’abord à des 31 mars 2014 — Olivier Ravel — Les conseils clés pour préparer le lancement de votre plateforme eCommerce : les « IT » à la fin ? Pas tout à fait.
  64. 64. 69 problèmes liés au «  Legacy  », c’est-à-dire à l’héritage des solutions techniques adoptées par le passé. En effet, le système eCommerce repose forcément sur ce « legacy » : ERP, back office, chaine de supply… J’insiste : le problème de l’inter- façage du Legacy avec le nouveau SI Commerce sera crucial, les impacts sur ce dernier, de même que la localisation des référentiels seront décisifs et devront être anticipés. 3 – Testing et hébergement : former en amont De même, les équipes de tests et métiers devront être formées en amont à la solution afin de pouvoir dérouler les opérations de recette dans de bonnes conditions. L’hébergement devra aussi être anticipé avec un prestataire maîtrisant la solution qui impose en général des spécificités en termes d’exploitation et niveaux de SLA. 4 – Maîtriser l’ensemble du projet Enfin, au moment de la mise en place de la plateforme, j’estime que nous ne sommes pas dans une logique d’inté- gration d’une solution eCommerce. A l’inverse, ce sont les nombreux et différents intervenants, comme par exemple l’agence de design, qui devront être intégrés en amont et bien connaître la solution avant la phase technique, il est préférable que les équipes agence et IT puissent fonctionner de manière intégrée afin d’accélérer les opérations. ***
  65. 65. 70 Pourquoi est-il préférable pour une entreprise française de privilégier des solutions de supervision de sécurité de SI « made in France » ? Les principales solutions sont américaines. Suite à l’affaire Prism et aux révélations autour des écoutes de la NSA, on sait que nos données circulent jusqu’aux Etats-Unis. En France, le niveau de sécurité a été relevé et certaines entreprises et institutions se voient imposées de mettre en place des moyens de protection supplémentaires. Au regard de ces différents points, il est effectivement pertinent d’opter pour une solution française. La plupart des solutions sont américaines. Existe-t-il des solutions françaises ? Il existe très peu de solutions françaises sur ce marché. Néanmois, il en existe une, VigieSI développée par Gfi Informatique. VigieSI est un logiciel de SIEM (Security Information and Event Management). Il gère de manière globale la sécurité du Système d’Information. A la fois décisionnel et opérationnel, il s’adresse aux DSI, RSSI et SOC (Centres Opérationnels de Sécurité). Véritable tour de contrôle, VigieSI est au cœur de l’organisation de la sécurité de l’entreprise. VigieSI permet de surveiller les activités du SI, de détecter en temps réel les attaques et de réduire ainsi le niveau de risque associé au Système d’Information. Mathieu Bertrand — Supervision de la sécurité de votre SI : pourquoi privilégier une solution « made in France » ? 2 avril 2014 —
  66. 66. 71 Pour conclure, donnez-nous deux bonnes raisons pour qu’un RSSI s’intéresse à l’offre VigieSI développée par Gfi Informatique ? Tout d’abord VigieSI est un logiciel dont les développements sont maîtrisés par notre Groupe Gfi Informatique. Ensuite, à la différence du SIEM traditionnel, il fournit une capacité à réagir aux incidents informatiques. Cette réaction se fait à travers l’ajout de modules complémentaires développés par un de nos partenaires. ***
  67. 67. 72 Le « Product Lifecycle Management » sert à piloter le cycle de vie d’un produit. Enjeu majeur, un projet PLM doit faire l’objet d’un cadrage réussi : stratégiquement, mais aussi en termes de métiers, qu’est-ce que cela va apporter à l’entreprise ? Les conseils d’Yves Salahun, consultant Gfi Informatique, pour réussir cette étape indispensable au succès d’un PLM. PLM : un enjeu majeur pour la compétitivité Le PLM est une initiative à la fois technique et stratégique visant à optimiser la gestion de l’ensemble des informations et des données créées puis modifiées tout au long de la vie d’un produit, depuis l’idée jusqu’à l’obsolescence. À la clé  : innovation, amélioration de la rentabilité, transfor- mation des processus de travail, etc. Un atout dans un contexte économique de plus en plus compétitif, ouvert et interconnecté. Avant de mettre en œuvre un PLM, qui s’appuiera ensuite sur un Système d’Information constitué de progiciels du marché ou d’applications existantes, il faut une phase de cadrage. Il s’agit d’une étude permettant de définir ce que pourrait être un projet PLM adapté et surtout ce qu’il apportera à l’entreprise. Quels processus ? Pourquoi ? Avec qui ? Combien va rapporter une meilleure intégration ? Les entreprises ont besoin de répondre à ces questions avant de se lancer. Comment les aider ? Apporter de la valeur métier Premier point : je recommande de focaliser le cadrage sur les enjeux métiers. Le PLM est une réponse globale et or- ganisationnelle à des attentes métiers : productivité, gestion Yves Salahun — PLM : si c’est bien cadré, c’est bien joué ! 7 avril 2014 —
  68. 68. 73 et traçabilité des données, nouveaux process à déployer… Pour réussir un cadrage, il nous faut donc, en tant que conseil, partager avec l’entreprise les bonnes pratiques et la connaissance acquise lors de nos multiples expériences. Par exemple la gestion de configuration dans l’aéronautique, la gestion de la diversité dans l’automobile, la traçabilité dans le génie logiciel pour ne citer qu’eux. Proposer une démarche de cadrage PLM lisible Ensuite, dans tous les projets que j’ai menés, j’ai pu voir à quel point la démarche de cadrage doit permettre à l’entreprise d’exprimer et de valoriser ses intentions. Méthode, partage de contributions réciproques, prise en compte des enjeux stratégiques à atteindre… les étapes doivent être claires et compréhensibles, tout doit être lisible ! J’essaye aussi chaque fois d’aider l’entreprise à s’approprier la situation, à définir la cible, à valoriser les différents scénarios. Et ce, grâce à une palette de méthodes dites « PLM Roadmap » ou « schéma directeur PLM ». Partager nos convictions pour faire progresser Enfin, la confiance est essentielle. En tant que conseil, il nous faut afficher notre conviction et nos valeurs afin de mobiliser les équipes de l’entreprise autour d’un projet de transforma- tion commun. Les processus d’un PLM étant par définition transverses aux filières métiers, leur définition et leur mise en œuvre requièrent une vigilance particulière pour expliquer aux opérationnels et à leurs managers les bénéfices, les impacts, ce qui va changer. On le voit donc, bien cadrer c’est communiquer, mobiliser, motiver et guider ! ***
  69. 69. 74 On entend beaucoup parler de collaboratif au sein des entreprises, mais cela marche-t-il dans la réalité ? Aujourd’hui le collaboratif fonctionne bien à condition de respecter certaines règles. Il est en effet nécessaire que les outils soient parfaitement intégrés au poste de travail pour que l’utilisateur puisse en tirer les bénéfices. Cela passe par des « Digital Workplace » qui favorisent le travail en équipe autour de ce que l’on appelle « l’entreprise des savoirs ». Quels sont les éléments qui composent une Digital Workplace ? Certains clients ont une approche de communication « top down  » typiquement orientée «  gestion de contenus  ». D’autres clients ont une approche davantage collaborative au travers d’espaces documentaires, d’autres encore font le choix d’une offre orientée réseau social d’entreprise. Le concept d’une Digital Workplace permet d’offrir à votre intranaute un espace dans lequel il peut accéder à un certain nombre d’éléments, à savoir la gestion de contenu «  top down », l’outil de réseau social de l’entreprise, les outils de travail collaboratifs, les applications métier… Au sein d’une Digital Workplace, les accès à ces outils sont ouverts en fonction du profil de l’utilisateur. Une Digitale Workplace, c’est compliqué à mettre en œuvre ? Non,cen’estpascompliqué.Dansunmarchéarrivéàmaturité, quelques grands leaders ont émergé. Gfi Informatique a fait le choix de travailler avec Liferay pour déployer des solutions collaboratives Digital Workplace. Les cycles de mise en place Olivier Ravel — Pourquoi faut-il penser collaboratif au sein d’une Digitale Workplace ? 14 avril 2014 —
  70. 70. 75 sont extrêmement rapides, car cette solution couvre une très large palette des besoins de l’entreprise. ***
  71. 71. 76 Nos clients sont aujourd’hui très sollicités par les éditeurs pour migrer leur plateforme BI. Pourquoi devraient-ils engager une migration lorsque la solution en place convient parfaitement ? Effectivement les éditeurs mettent actuellement une certaine pression sur nos clients pour migrer. Certes il y a un intérêt financier plus qu’évident pour les éditeurs, mais on oublie souvent qu’il existe aussi dans cette démarche de migration de véritables bénéfices pour les utilisateurs. Un système BI doit avant tout être considéré comme un système vivant qui ne cesse d’évoluer, tant sur le plan des outils et des fonctionnalités que des usages. Côté outils, les éditeurs proposent actuellement des outils de Rapid BI et de mobilité de nouvelle génération. Côté usages, une migration permet de répondre à l’émergence de nouveaux métiers et des besoins d’analyses de données encore plus approfondies. D’accord, mais pour autant faut-il obligatoirement migrer ? Certains de nos clients prennent le risque de ne pas migrer pour des raisons principalement économiques. Ils mettent fin à leur contrat de maintenance et économisent le coût de la maintenance qui représente entre 22 et 25 % du prix d’achat des licences. Le gain semble évident, mais il s’agit d’un calcul à très court terme. Y a-t-il un risque à ne pas migrer ? Oui bien évidemment. Je confirme qu’il y a des risques à ne pas migrer. Lorsque nos clients arrêtent le support de Emmanuel Péant — Je suis satisfait par ma plateforme BI. Pourquoi migrer ? 17 avril 2014 —
  72. 72. 77 maintenance, ils perdent la possibilité de faire évoluer leur plateforme avec les nouvelles versions des outils des éditeurs. Ne pas migrer, c’est se priver de toutes les évolutions en termes de technologies, d’usages, de fonctionnalités et de nombreux avantages. Ne pas migrer, est-ce un bon calcul ? A court terme, oui. Le gain financier est rapide. En revanche à moyen et long terme, c’est un mauvais calcul. Nos clients seront à un moment donné dans l’obligation de faire évoluer leur plateforme BI. Le fait d’avoir repoussé la migration va inévitablement engendrer un surcoût à l’ensemble du projet de migration. Un surcoût technique parce qu’il va falloir faire l’acquisition de nouveaux outils. Mais surtout un surcoût fonctionnel parce que la plateforme cible a évolué : nous aurons une complexité fonctionnelle plus importante à gérer au moment de la migration. Au final, quelle serait votre recommandation ? C’est de maîtriser et de planifier régulièrement les migrations des plateformes BI. Cela permet de bénéficier pleinement des avancées technologiques et des nouveaux usages, tout en maîtrisant les coûts de migration. ***
  73. 73. 78 Sous quel angle faut-il aborder un projet Big Data ? sous l’angle techno ou enjeux métier ? On observe que les entreprises françaises ont essentiellement abordé le Big Data sous l’angle technologique, parce que bien souvent elles avaient du mal à produire les « business cases » permettant de convaincre leur hiérarchie et leurs acteurs métier, alors qu’il est impératif de l’aborder sous l’angle métier et ce de façon itérative et non équivoque ! Ceux qui ont pu avancer de façon concrète sont répartis en deux segments : • Les acteurs du eCommerce ou des télécoms. D’évidence ils travaillent les problématiques de Big Data sous l’angle de la donnée, parce que c’est leur cœur de métier. • La fonction marketing qui s’attache depuis longtemps à analyser le comportement des utilisateurs dans un contexte où le monde se digitalise à grand pas. De façon plus discrète certaines industries et acteurs du ren- seignement ont rapidement adopté ces nouvelles technologies comme seul point de salut du fait de leurs contraintes volumétrie/coût/contraintes légales. L’angle technologique serait-il plus accessible ? Il est vrai que l’angle technologique a vécu deux moments forts. Le premier avec l’avènement du Big Data en France, il y a peu près trois ans. Les solutions restaient encore payantes : on avait des solutions type «  appliance  » qui promettaient de stocker l’information avec de l’analytique embarquée pour traiter les comportements utilisateurs. Il fallait donc débourser de l’argent. Le marché français n’a pas trop décollé. Alvin Ramgobeen — Comment faut-il aborder un projet Big Data ? 28 avril 2014 —
  74. 74. 79 Aujourd’hui, avec la maturité des offres Open Source comme Hadoop, les gens s’essayent à travailler sur des sujets Big Data parce que cela leur demande beaucoup moins d’inves- tissement. Il leur suffit de télécharger la solution et peuvent avec l’aide d’un accompagnement minime, commencer à s’approprier les technologies Big Data. Peut-on faire autrement ? Oui tout à fait. Dans cette problématique de «  comment initier un projet Big Data », on parle des enjeux métier, des « business cases », de la technologie Open Source notamment, et on en oublie le maître mot qui est la Data. Plus on rapproche le métier de la Data avec des prestations de conseil qui mettent en avant l’analyse des données de l’entreprise, à l’aide des solutions qui tournent sur les PC de nos consultants, plus on met en lumière les tenants et les aboutissant de ce qui se trame dans l’entreprise, à savoir les proportions, les comportements utilisateurs, les meilleurs clients, l’hyper segmentation… Au final les métiers réalisent combien l’aspect quantitatif peut avoir un impact fort sur la compréhension de leur activité et agir pour transformer le quantitatif en levier d’action. Dès lors, un prototypage et une réflexion sur le bon niveau tech- nologique se mettent en place pour porter dans l’entreprise le levier d’action sur un sujet de Big Data, pour monétiser ou optimiser une chaîne de production par exemple. ***
  75. 75. 80 Pourquoi faut-il travailler avec les métiers pour concevoir les référentiels de tests ? De par notre expérience sur les métiers de qualification des SI, nous constatons que les phases de qualification peuvent peser jusqu’à 30 % des charges d’un projet, ce qui est relativement important. Cela a un impact sur les coûts de réalisation de ces projets, mais également sur les délais. Pour optimiser ces phases, tant d’un point de vue coûts que d’un point de vue délais, nous préconisons d’aller à la rencontre des métiers pour définir et réaliser avec eux ce « juste test ». Quelle approche préconisez-vous ? Nous préconisons une double, « Top-down » et « Bottom-up ». Il s’agit de concilier ces deux approches en travaillant d’abord avec les métiers pour modéliser le comportement attendu de l’application, d’un point de vue des processus métier et des scénarios fonctionnels. Une fois la modélisation définie avec les métiers, nous intervenons ensuite en chambre pour monter les référentiels de test sur la base de ces modélisations. Puis très rapidement nous concilions l’approche bottom-up au travers de laquelle nous définissons toutes les exigences et autres règles nécessaires (métiers, techniques...) et nous rapprochons les deux approches de manière à uniformiser les référentiels de test. Comment Gfi Informatique se positionne sur cette question ? Gfi Informatique a développé il y a trois ans QSITM , une offre dédiée à cette approche. Elle permet au travers de templates Franck Colette — Tous les tests ne sont pas utiles. Pour viser juste, pensez métier ! 5 mai 2014 —
  76. 76. 81 types, de modèles de documents ; mais aussi d’outillages, d’exprimer cette modélisation du comportement attendu de l’application et ensuite de retravailler en chambre avec un autre outillage qui lui va permettre de faire de la génération, en partie manuelle, en partie automatique, de ces référentiels de test, avec toujours pour philosophie d’aller chercher le « juste test ». ***
  77. 77. 82 En quoi un projet d’intégration PLM est-il différent d’un projet d’intégration traditionnel ? Un projet d’intégration PLM, c’est avant tout un projet d’in- tégration d’un progiciel de PLM. Les progiciels PLM que nous intégrons ne sont pas forcément riches en processus métiers pré-câblés, à la différence d’un ERP ou d’un logiciel de comptabilité qui eux sont très matures sur ces sujets métier. Il existe cependant des processus solutions pré-câblés dans les progiciels actuels de PLM, mais parfois trop éloignés des besoins de nos clients. D’où l’importance de mettre en place une phase de cadrage pour bien formaliser les besoins du client et de converger vers les fonctions solutions du progiciel. Quels sont les facteurs clés de succès d’un projet PLM ? De notre point de vue, il y en a cinq. Le premier est essentiel. Le projet PLM nécessite d’être piloté par les enjeux métier de l’entreprise, avec une gouvernance forte et une capacité à décider. Le deuxième facteur concerne la phase de définition. C’est la première grande phase clé du projet qui consiste à faire converger les besoins métier en les challengeant par rapport aux capacités de la solution. Le troisième réside dans les choix structurés de solutions qui doivent absolument être validés par l’éditeur. Quatrième facteur : la traçabilité des exigences doit garantir l’acceptation par le métier de la solution en fin de projet. Dominique Hell — Intégration d’un PLM : quels sont les chantiers à mettre en place pour réussir un projet PLM ? 6 mai 2014 —
  78. 78. 83 Enfin la conduite du changement est d’une extrême importance. Elle doit commencer dès le début du projet. Elle concerne à la fois les acteurs métier, mais aussi les acteurs maîtrise d’œuvre chez notre client. Comment se structure un projet PLM ? Sur deux axes. Le premier avec les grandes phases classiques de définition, réalisation, vérification, validation et déploiement. Puis sur un second axe, le projet PLM se structure avec les différents chantiers à adresser dans un projet, le cœur de la solution et ses interfaces, la migration des données (un sous-projet délicat), la conduite du changement et l’architec- ture technique. Cette structuration peut varier d’un client à l’autre en fonction de ses exigences ou des activités qu’il veut conserver dans son périmètre. Enfinnotreméthodologie,baséesuruncycleenVtraditionnel, évolue constamment. Nous y intégrons régulièrement des concepts issus de l’agilité, comme le pilotage visuel, des itérations courtes ou de la validation et de la vérification en continu. Et l’industrialisation ? La cellule Service Ingénierie PLM de Gfi Informatique développe et déploie depuis longtemps des méthodes outillées sur un certain nombre de sujets, en particulier sur l’intégration continue. Cela permet sur un projet d’intégration de vérifier la qualité du code produit et de régénérer, par exemple toutes les nuits, la solution complète sur tel ou tel environnement. ***
  79. 79. 84 Le TIP disparaît le 1er février 2016. Pour quelles raisons ? C’est la règlementation SEPA qui en est la cause. Au 1er février 2016, les moyens de paiement propres à chaque pays doivent disparaître. Selon les statistiques de la Banque de France, nous traitons 140 millions de titres interbancaires de paiement par an. Cela représente un volume considérable qui nécessite au préalable un temps de préparation pour remplacer les TIP. Qu’est-il prévu pour le remplacer ? Dans le cadre de SEPA, rien de suffisamment performant n’est prévu, laissant l’initiative du paiement aux particuliers. Les banques françaises se sont alors engagées dans une réflexion permettant de mettre en œuvre une nouvelle norme d’échange appelée SEPAMAIL. Celle-ci permet de transférer la facture du particulier vers sa banque, afin de lui donner la responsabilité de la validation en ligne. Cette opération, une fois validée, permet de générer un virement qui lui, sera en conformité avec la réglementation SEPA. Quels conseils donneriez-vous à nos clients qui souhaitent mettre en œuvre une telle solution ? En premier lieu, ne pas perdre de temps. La montée en charge pour les 140 millions de transactions nécessite un délai relativement long que l’on estime entre 6 mois et 1 an, réduisant de fait le temps de projet nécessaire à la mise en œuvre de la solution. Il reste un certain nombre de travaux à réaliser avant cette «  end date  » du 1er février 2016. Gfi Informatique est en mesure d’accompagner ses clients Grands Remettants de Bertrand de Lausun — Comment va-t-on remplacer les TIP ? 9 mai 2014 —
  80. 80. 85 moyens de paiement dans la mise en œuvre de cette nouvelle solution qui permet à la fois la dématérialisation des factures et la modification des moyens de paiement afférents. ***
  81. 81. 86 Le décret GBCP fait référence aux autorisations d’engagement et de crédit de paiement. Que représentent ces notions d’AE et de CP ? Avec ce décret, les établissements publics vont devoir élaborer trois budgets : un en AE, un en CP et un en recette. Les AE représentent la limite supérieure des engagements juridiques que peut prendre l’établissement sur un exercice. Les CP représentent la limite supérieure des décaissements réalisables dans l’exercice. Et les prévisions de recette cor- respondent aux montants prévisionnels des encaissements attendus dans l’exercice. Quel est l’intérêt du double budget en AE et CP ? Actuellement, les dépenses engagées doivent l’être au regard des crédits votés de l’exercice, ce qui pose notamment des problèmes en fin d’année. Le décret lui, prévoit la budgéti- sation en AE, ce qui élimine tous ces problèmes et permet d’avoir une réelle démarche de pilotage pluriannuelle. Les CP sont établis non pas au regard des ordonnancements, mais des paiements à réaliser. Quant aux prévisions de recettes, elles sont établies en lien avec les encaissements escomptés et rapprochées des titres émis. Plus globalement quels sont les impacts du décret sur l’exécution budgétaire ? L’engagement actuel disparait. C’est maintenant l’engagement juridique qui, de fait, est pluriannuel et qui consomme l’AE dans son exercice d’émission. La comptabilité budgétaire ne Éric Depreuve — GBCP : quel est l’intérêt du double budget en AE et CP ? 12 mai 2014 —
  82. 82. 87 supporte plus les mouvements d’ordre tels que les variations de stocks, les amortissements, les charges constatées… Tous ces aspects sont maintenant directement gérés en comptabilité générale. Cela a des conséquences importantes et simplifica- trices sur nos produits, car cela élimine toute la gestion des crédits d’extourne. Le décret maintient la notion de service fait Oui. Depuis quelques années et la mise en place des services facturiers, l’enregistrement du service fait a pris une part pré- pondérante dans la chaîne de la dépense. Le décret renforce encore cette place en lui ajoutant l’obligation de générer l’écriture comptable pour respecter la norme comptable. De ce point de vue, le décret va permettre de mieux anticiper le suivi des charges à payer, des produits à recevoir et va simplifier la clôture des travaux en fin d’année. Et qu’en est-il de la dématérialisation ? Le décret apporte de considérables avancées dans ce domaine. Il élimine la production et l’édition des mandats et bordereaux. Il favorise l’échange et l’envoi de documents élec- troniques, qu’ils soient scannés ou natifs, et prévoit également la production dématérialisée du compte financier. ***

×