Audit des systemes d'information

1 978 vues

Publié le

ce document est un cours sur l'audit informatique

Publié dans : Économie & finance
0 commentaire
1 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

Aucun téléchargement
Vues
Nombre de vues
1 978
Sur SlideShare
0
Issues des intégrations
0
Intégrations
5
Actions
Partages
0
Téléchargements
129
Commentaires
0
J’aime
1
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Audit des systemes d'information

  1. 1. AUDIT DES SYSTEMES D’INFORMATION AUTOMATISES ET OUTILS INFORMATIQUES DE L’AUDITEUR SUPPORT DE COURS
  2. 2. 2 SOMMAIRE Description Page Introduction…………………………………………………….3 1- Les concepts de l’audit informatique………………………..8 2- Audit de la politique et des stratégies de mise en place de l’informatique…………………………………………….11 3- Audit de l’organisation générale et des ressources humaines informatiques……………………………………..15 4- Audit des études……………………………………………..22 5- Audit de l’exploitation…………………………………….…32 6- Audit des moyens techniques………………………………. .55 7- Audit des applications en exploitation………………………..66 8- La conduite d’une mission d’audit informatique……………..80 9- Les outils de l’auditeur informatique…………………… …89
  3. 3. 3 INTRODUCTION LA REVOLUTION TELEMATIQUE Nous vivons actuellement, la quatrième révolution industrielle : l’ère de l’informatique, l’ère de la révolution télématique (informatique + télécommunications). L’ordinateur, outil de traitement de l’information, permet à l’homme de développer son pouvoir mental comme le moteur a multiplié sa force physique. L’informatique a pris une place de première importance dans notre société. Présente au travail, dans les écoles, dans les loisirs et même dans les domiciles, il est indéniable qu’elle fait maintenant partie des habitudes courantes, au même titre que le téléviseur ou l’automobile. L’informatique s’est développée rapidement, trop rapidement sans doute pour la police qui se prépare fébrilement à faire face à une forme de criminalité nouvelle : la criminalité informatique. Une criminalité abstraite car elle est constituée d’éléments inconnus des policiers à savoir : les ordinateurs, les logiciels, le stockage et l’accès à des renseignements. Pour ces raisons, les activités frauduleuses reliées à l’informatique sont difficiles à prévenir et à détecter. Grâce à la jonction de l’informatique, des réseaux de télécommunications et de la télévision, toute une gamme de nouveaux services fait son apparition. On connaît déjà l’édition à distance des journaux dans des imprimeries décentralisées. Les téléconférences, la télétransmission des messages à l’intérieur des organisations, le courrier électronique, se généralisent. Les procédés de télécopie deviennent d’usage courant. Les banques bibliographiques ou documentaires peuvent maintenant être interrogées à distance. Les individus, les entreprises peuvent ‘‘commercer’’ en ligne. On ne peut le nier, l’ordinateur a pénétré chacune de nos activités quotidiennes et il demeure évident que l’informatisation fait partie de l’avenir et qu’elle ne pourra qu’influencer davantage notre vie.
  4. 4. 4 L’INFORMATION = LE FACTEUR CAPITAL DU DEVELOPPEMENT ET DE LA SURVIE DE TOUTE ENTREPRISE Au cours de la dernière décennie, l’informatique a décuplé l’habileté de l’homme à utiliser l’information à tel point qu’elle a engendré une révolution du travail intellectuel dont l’impact est considérablement plus grand que celui produit par la révolution industrielle sur le travail manuel. La révolution industrielle a transformé l’économie de subsistance en économie de consommation, l’organisation artisanale du travail en production à la chaîne, la culture des élites en culture de masse. La révolution de l’information a non seulement modifié les méthodes de travail, les structures des entreprises mais a également entraîné toute une série de changements structurels dans notre vie et dans nos valeurs. L’information est nécessaire dans tous les domaines de la pensée et de l’action humaine. En comparant les individus dépourvus d’informations et de connaissance à ceux qui en ont, ces derniers ont de plus grandes possibilités de carrière et sont mieux armés pour prendre des décisions. Outre le fait d’être essentielle aux individus qui l’utilisent pour des buts personnels, l’information est aussi nécessaire pour ceux qui prennent les décisions dans les entreprises. Tous les gestionnaires doivent accomplir certaines tâches ou fonctions de base afin d’atteindre les objectifs fixés. Les objectifs poursuivis diffèrent, mais les aptitudes de base sont les mêmes pour tous. En d’autres mots, tous les gestionnaires doivent savoir planifier, organiser, diriger, recruter et contrôler. Le succès de toute entreprise va dépendre de la capacité des gestionnaires de mener à bien ces diverses fonctions. Ces fonctions seront d’autant mieux réalisées si les dirigeants son suffisamment informés. Pourquoi ? Parce que chaque fonction exige une prise de décision et cette prise de décision doit être accompagnée d’une information précise, opportune, complète et pertinente. Mettre une information de qualité à la disposition de ceux qui savent l’utiliser facilite la prise de décision ; les bonnes décisions vont permettre la réussite des activités de gestion ; et une réussite effective en gestion conduit à la réalisation des buts de l’entreprise. L’information est l’agent de liaison qui maintient l’unité de l’entreprise.
  5. 5. 5 LE SYSTEME D’INFORMATION AUTOMATISE : LE CŒUR DE L’ENTREPRISE Les systèmes d’informations traditionnels ont souvent laissé à désirer parce qu’ils devaient posséder les qualités suivantes : peu coûteux, pertinents, opportuns, vraiment intégrés, concis, vraiment disponibles dans une forme variable. Pour diminuer les difficultés soulevées, par les approches traditionnelles, de nouveaux concepts de systèmes d’information en gestion, orientés vers l’utilisation des ordinateurs, ont été développés. Ces efforts d’améliorations sont dus à un certain nombre de pressions qui ont incité les gestionnaires à s’orienter vers l’utilisation de l’ordinateur. Parmi ces pressions, on peut citer : La capacité de traitement dans plusieurs entreprises a été augmentée par : • la croissance en grandeur et non en complexité de l’entreprise ; • la demande croissante de données par des sources externes ; • la demande constante des gestionnaires afin d’obtenir davantage d’information. Plus le volume à traiter est grand, plus le traitement par ordinateur se révèle économique en comparaison d’autres traitements ; • les coûts moins importants de l’informatique. L’information fournie par un système informatisé aura un impact important sur la gestion d’une organisation : • en permettant d’identifier rapidement les problèmes et les possibilités ; • en aidant à l’analyse du problème et au choix de solutions possibles ; • en influençant le choix le plus approprié.
  6. 6. 6 ♦ LE SYSTEME D’INFORMATION AUTOMATISE : EVOLUTION Etapes Technologie Acteurs impliqués dans la mise en oeuvre Centralisation des traitements 1950 - 1970 Mainframe Fichier Informaticien Décentralisation 1970 - 1990 PC SGBD Maître d’œuvre Informaticiens Interopérabilité et standardisation 1990 – 2000 Universalité et gestion des connaissances 2000- Client -serveur ERP Internet NTIC Maître d’ouvrage Maître d’œuvre Utilisateurs Informaticiens Maître d’ouvrage Maître d’œuvre Utilisateurs Informaticiens LES FACTEURS CLES DE SUCCES ET LES MENACES La disponibilité de l’information est indispensable à la survie de l’entreprise. En effet, la perte d’un fichier ou d’une banque de données ou la non disponibilité des équipements informatiques en temps opportun, causée par une erreur de programmation, d’un sabotage ou d’un désastre naturel, peut parfois signifier pour une entreprise, la fin permanente des opérations. Imaginons une entreprise dont le fichier des comptes clients (comptes des recevables) est détruit. Elle serait considérablement affectée par la perte de ces informations et sa survie serait sûrement compromise. Par ailleurs, l’importance de l’exactitude de l’information peut parfois être capitale pour une organisation. Prenons, par exemple, le cas du gestionnaire utilisant l’ordinateur pour manipuler des informations qui l’aideront à orienter une décision stratégique sur son entreprise. Toutefois, la prolifération des ordinateurs et des systèmes informatiques ainsi que leur interconnexion (à l’échelle de l’entreprise, de la nature, de la planète), a fait naître une forme de criminalité beaucoup plus sophistiquée,
  7. 7. 7 plus rentable que toutes les autres connues à ce jour, et dans laquelle on peut évoluer sans danger d’être pris. Les conséquences de cette criminalité dite ‘‘informatique’’, peuvent être désastreuses pour les entreprises. L’accroissement du nombre de banques de données contenant différentes informations stratégiques pour l’entreprise a multiplié les risques de violation du caractère confidentiel. Il demeure de la responsabilité de l’entreprise de veiller à protéger adéquatement ses informations emmagasinées dans les ordinateurs. Il faut noter aussi que l’informatique nécessite la mobilisation d’importantes ressources financières. L’entreprise doit donc en permanence s’assurer du caractère opérationnel de la sécurité et des performances de son système d’information. Elle doit aussi s’assurer qu’en cas de sinistre informatique, elle dispose de mesures palliatives, pour garantir la continuité de sa production (exploitation) informatique. Il s’agit donc pour l’entreprise de procéder de manière régulière à l’examen de son système d’information. L’AUDIT INFORMATIQUE EST L’OUTIL PRIVILEGIE POUR LA REALISATION D’UNE TELLE MISSION.
  8. 8. 8 1 – LES CONCEPTS DE L’AUDIT INFORMATIQUE L’audit est l’examen d’une situation, d’un système d’informations, d’une organisation pour porter un jugement. C’est donc la comparaison entre ce qui est observé (un acte de management ou d’exécution) et ce que cela devrait être, selon un système de références. Il est clair que le jugement ne peut se limiter à une approbation ou à une condamnation, comme c’est souvent le cas, mais il faut préciser aussi ce qu’il aurait fallu faire, et ce qu’il faudra faire pour corriger les défauts constatés. LES DIFFERENTS TYPES D’AUDITS DES SOCIETES Une société est créée par un groupement de personnes animé d’un but « la recherche du gain ». Elle a une personnalité juridique distincte des actionnaires ou associés. Sa direction est confiée soit à certains actionnaires, soit à des non- associés. Dans le souci de protéger les actionnaires et aussi des différents partenaires sociaux de la société, la loi sur les sociétés a prévu un certain nombre de contrôles (audits) externes, dits légaux, qui peuvent être : • soit permanents : commissariats aux comptes ; • soit occasionnels : expertise judiciaire, commissariat aux apports. Les dirigeants de l’entreprise, peuvent, en plus du contrôle légal, désigner un professionnel, indépendant, pour procéder à des contrôles, dits audits contractuel. • Examen de leurs comptes en vue d’exprimer une opinion motivée sur la régularité et la sincérité du bilan et de leurs comptes de résultats. • examen de leur système d’information, pour apprécier sa fiabilité, sa sécurité et sa pertinence. • Etc..
  9. 9. 9 QU’EST CE QUE L’AUDIT INFORMATIQUE ? Si le concept de l’audit informatique est aujourd’hui largement répandu, ce terme générique recouvre en réalité des objectifs et des méthodes très variés. Pour le Directeur Général peu féru en la matière, il s’agit souvent d’un moyen de « voir un peu plus clair » dans l’activité d’un des services clés de son entreprise. Pour le Directeur Informatique, l’audit informatique, apporte, outre un conseil en organisation fourni par des spécialistes extérieurs, le moyen d’accompagner et de justifier la mise en place de nouvelles structures ou de nouvelles méthodes. Le Directeur Financier, quant à lui, y verra plus généralement le moyen d’apprécier la fiabilité des chaînes de traitement dont il est l’utilisateur. Enfin, le Commissaire aux Comptes, indépendant de l’entreprise et dont le rôle est d’en certifier les comptes, s’intéressera en particulier aux moyens d’utiliser l’outil informatique pour établir et conforter son opinion. Ainsi donc, sous ce même concept se cachent des objectifs totalement différents. Toutefois, quelque soit son objectif ou son étendue, l’audit informatique concerne les composantes du système informatique d’information de l’entreprise. Celles-ci sont : • les aspects stratégiques : conception et planification de la mise en œuvre du système d’informations. • l’environnement et l’organisation générale de la gestion de l’informatique. • Les activités courantes de gestion de l’informatique. • les ressources informatiques mises en service. • les applications informatiques en service. • la sécurité.
  10. 10. 10 QUELLE EST DONC LA PLACE DE L’AUDIT INFORMATIQUE ? Normalement, une place prépondérante, compte tenu de l’importance primordiale du système d’information évoquée ci-avant, en introduction. Cependant, malgré des améliorations très lentes, l’audit informatique est fort peu répandu ; l’informatique étant le dernier métier que l’on songe à auditer, et que l’on n’ose pénétrer. Pourquoi ? : • Les décideurs ont trop souvent rarement conscience des vulnérabilités induites par un système automatisé ; • L’informatique est vue comme un outil technique neutre et n’est pas conçue comme auditable, alors qu’elle est le support de toutes les activités ; • Bien que les systèmes soient à la fois de plus en plus intégrés (bases de données) et répartis (réseaux), que les contrôles soient de moins en moins visibles, et les décisions de plus en plus rapides, il est bien rare que l’on songe à identifier le responsable d’une information et celui du contrôle de celle-ci ; • Le sentiment que l’informatique est trop technique pour pouvoir être audité ; • L’audit est souvent considéré comme un coût et non comme un moyen efficace de réduire les risques ; • Enfin, un sentiment répandu est que les informaticiens apprécieraient fort peu d’être audités, s’y ajoutent les problèmes ci-après : l’évolution rapide des matériels, réseaux, logiciels, systèmes de gestion de bases de données et langages, conduisant à une prolifération anarchique de petits systèmes, quel profil ?, quelle compétence pour l’auditeur informatique ? absence de normes, de référentiels, de principes et même de technologies communs. Ainsi, la qualité d’un audit informatique dépend - elle trop souvent de la personnalité de l’auditeur .
  11. 11. 11 2 - AUDIT DE LA POLITIQUE ET DES STRATEGIES DE MISE EN PLACE DE L’INFORMATIQUE 2-1 DEFINITION La politique et les stratégies de mise en place de l ’ informatique sont formulées dans les documents suivants : • Le schéma directeur informatique • Le plan informatique • Le plan de sécurité • Le plan de qualité Le schéma directeur présente : La politique et les objectifs en matière de développement des systèmes informatiques ceci en fonction des objectifs et du métier de l ’ entreprise L ‘ architecture du système d ‘ information cible L ‘ architecture technologique L ‘ organisation informatique à mettre en place Le plan informatique présente : Les projets de : développements des applications, acquisitions et installation des logiciels de base et des équipements informatiques Le scénario de mise en œuvre des projets informatiques, ainsi que les priorités, les plans d’action et de suivi, L’estimation des coûts La procédure de suivi de l’exécution du schéma directeur. Le plan de sécurité Il formalise la politique de sécurité de l’entreprise, qui doit : d’une part assurer la reprise du service dans des délais acceptables, donc très courts et donc prévoir des procédures dégradées temporaires et au moins un minimum vital, quelles que soient les circonstances d’autre part, rendre absolument impossible une défaillance permanente et donc prévoir un plan de survie.
  12. 12. 12 Le plan de sécurité présente les risques probables. Ces risques sont : Accidents Pannes Fraudes et sabotages Destruction Erreurs de conception et de réalisation Erreurs de saisie ou de transmission Etc. …. Le plan qualité comprend : Les buts ainsi que leur applicabilité Leurs exigences et l’organisation Les méthodes, procédures et contrôles Les règles, normes, standard et conventions Les outils Les démarches de développement et de test Les engagements envers l’utilisateur 2-2 OBJECTIFS DE L’AUDIT L’audit de la politique et des stratégie a pour objectifs de : • S’assurer que la politique d’informatisation, et d’une manière plus générale de mise en place des systèmes d’information, est : clairement définie et formalisée, en adéquation avec le but de l’entreprise, son métier, ses enjeux et ses stratégies de développement. • S’assurer par ailleurs que : les décideurs et futurs utilisateurs des systèmes ont participé à leur définition et sont solidaires aux actions envisagées, les systèmes définis (application, architecture matériel , etc. ..) sont susceptibles de satisfaire aux besoins à court et moyen terme de l’entreprise et sont en adéquation avec les possibilités offertes par la technologie du moment,
  13. 13. 13 la mise en œuvre des systèmes est correctement planifiée et que les projets et plans d’action élaborés sont cohérents, et maîtrisables. • Proposer les mesures correctives nécessaires. 2-3 TRAVAUX D’AUDIT Il s’agit d’apprécier, par discussion avec les concernés : • la formation et l’information des dirigeants en gestion de l’informatique : conception et appréciations sur ce que l’automation peut, et inversement ce qu’elle ne peut pas, apporter dans leurs prises de décision et leur contrôle de gestion ; idées précises de conception, de développement, de contrôle, d’installation et d’exploitation des systèmes. A chacun des buts doivent être attachés les avantages escomptés et les conditions de réalisation, ainsi que les contraintes techniques et organisationnelles, et enfin la reconnaissance des inconvénients ; • l’intérêt apporté à l’informatique et la profondeur de l’étude des opportunités techniques, humaines et économiques, l’implication dans le choix des moyens (type de matériels ,organisation, budgétisation) et des actions (informations reçues ; critères d’appréciation d’un service, de sa productivité et rentabilité ; participation à l’élaboration de la politique, buts et plans ; acceptation des remises en cause de l’existant) ; L’auditeur procédera ainsi à l’analyse du métier ,de l’environnement, de l’organisation et des flux d’informations de l’entreprise. Il examinera, par référence à la politique générale, idéalement présentée par un document écrit, si le système sert pertinemment des objectifs précis, bien définis et discutés avec tous les responsables, dans une conception globale et homogène qui n’oublie pas l’existant et a obtenu un consensus. Il devra aussi examiner l’historique de l’informatique : incidences sur l’organisation, existence et validité des prévisions (de structure juridique, de marché, de politique de produits et bien entendu de l’informatique), pratiques réelles de la direction, difficultés mal résolues, les réticences, voire les rancœurs (qui sont ainsi mises en pleine lumière, même si elles paraissent dissipées). L’aptitude à résoudre les problèmes, à surmonter les difficultés, ne peut être visible que dans une perspective historique.
  14. 14. 14 Il examinera, auprès des techniciens de l’informatique et des utilisateurs si les finalités sont bien communiquées à tous les intéressés et qu’elles ont été comprises, avec des objectifs clairs, des problèmes bien posés, une circulation bien définie des informations, une bonne répartition des tâches et responsabilités. Il procédera enfin, à l’analyse critique du schéma directeur, des plans informatiques, de sécurité et de qualité, s’ils ont été établis. Il examinera, en particulier, leur adéquation avec les conclusions de ses travaux préliminaires décrits ci-avant.
  15. 15. 15 3 – AUDIT DE L’ORGANISATION GENERALE ET DES RESSOURCES HUMAINES INFORMATIQUES 3–1 DEFINITION Le succès de la mise en place du système informatique défini et particulièrement la qualité des applications informatiques installées, dépendent dans une large mesure, de l’efficacité de l’organisation de la gestion de l’informatique. LES PRINCIPAUX OBJECTIFS DE LA GESTION DE L’INFORMATIQUE SONT LES SUIVANTS : • fournir un mécanisme efficace pour traiter tous les besoins informatiques de l’entreprise et les opportunités d’utilisation de l’outil informatique, en tenant compte de ses objectifs généraux et des contraintes ; • fournir un mécanisme efficace pour planifier, contrôler et coordonner l’investissement et l’exploitation de l’informatique en favorisant la participation de la Direction Générale dans le processus de prise de décision dans le Domaine informatique. LES PRINCIPALES COMPOSANTES USUELLES DE LA STRUCTURE DE GESTION DE L’INFORMATIQUE SONT LES SUIVANTES : • Comité Directeur Informatique ; • Comité des Projets ; • Commission Utilisateurs ; • Département Informatique ;
  16. 16. 16 COMITE DIRECTEUR INFORMATIQUE (CDI) Ses rôles et ses responsabilités sont les suivants : • établir, revoir et mettre à jour le Schéma Directeur Informatique, • allouer les priorités pour les systèmes stratégiques, • approuver et contrôler l’allocation des ressources pour la réalisation des systèmes stratégiques, • autoriser et suivre les investissements informatiques principaux, • approuver les plans annuels du Département Informatique. COMITE DE PROJET (CP) Chaque CP contrôlera l’exécution d’un projet stratégique ; ses rôles et ses responsabilités sont les suivants : • contrôler l’exécution du projet stratégique, • faire en sorte que le projet soit achevé dans le temps et le budget impartis, contrôle de qualité, • s’assurer d’une bonne documentation de la gestion du projet, • autoriser les modifications sur le budget et les délais de développement. COMMISSION UTILISATEURS (CU) Les CU présentes dans chacune des Directions de l’entreprise ont pour tâche principale de synthétiser les besoins de la Direction en terme de systèmes informatiques et d’évaluer les avantages liés à chaque système demandé. Dans le cas où plusieurs systèmes sont demandés, les CU devront assigner à chacun des systèmes une note d’importance et une priorité. Tous ces éléments seront pris en compte pour la mise à jour du Plan Directeur Informatique.
  17. 17. 17 DEPARTEMENT INFORMATIQUE Il a la responsabilité de la gestion courante de l’informatique. Il se compose généralement des structures suivantes : • responsable du département, • service méthodes, études et maintenance, • service exploitation des applications, • service support technique (systèmes, réseaux et bases de données, maintenance matériels). Ses rôles sont les suivants : • centraliser toute activité informatique, • mettre en œuvre le plan informatique, • planifier et organiser l’activité informatique, • gérer tous les projets informatiques, • définir l’architecture technique de chaque site en application du schéma directeur, • superviser et réaliser les aménagements des salles informatiques, • superviser l’approvisionnement en matériels et consommables informatiques, • gérer la politique de maintenance du matériel, • définir des règles et politique de gestion du matériel et des consommables, • gérer la formation du personnel informatique, • organiser et suivre l’exploitation des applications informatiques, • superviser et réaliser le support informatique et Bureautique, • coordonner l’activité informatique.
  18. 18. 18 3–2 OBJECTIFS DE L’AUDIT L’audit de l’organisation générale et des ressources humaines informatiques a pour objectifs de : • Vérifier que l’organisation générale de l’informatique mise en place ; Permet : de garantir le succès de la mise en œuvre des futurs systèmes définis, d’assurer la fiabilité et la pérennité des logiciels installés, respecte les règles usuelles du contrôle interne, notamment en matière de séparation des tâches, permet de garantir le respect des orientations définies par la Direction. • S’assurer aussi, que : l’entreprise dispose des ressources humaines informatiques adéquates, les coûts de l’informatique sont correctement suivis et maîtrisés. • Proposer les mesures correctives nécessaires. 3–3 TRAVAUX D’AUDIT REVUE ET EVALUATION DE L’ORGANISATION GENERALE DE LA FONCTION INFORMATIQUE 1. Les différents organes de gestion de l’informatique sont-elles mises en place et sont-elles opérationnelles ? définition et formalisation des missions, composition, fonctionnement effectif. 2. Positionnement hiérarchique du département informatique ? 3. Existe-t-il un organigramme écrit du département informatique ? Si l’organigramme écrit peut paraître superflu, voire contraignant dans les petites structures, il s’impose dès lors que l’effectif dépasse une dizaine de personnes.
  19. 19. 19 L’auditeur vérifiera bien entendu que l’organigramme qui lui est fourni est à jour, et qu’il couvre l’ensemble des fonctions nécessaires à la bonne marche du service. Par ailleurs, il s’assurera de l’existence de fiches fonctions, en particulier pour les postes : responsables des méthodes, administrateurs des données, responsable de l’exploitation, etc.… 4. La séparation des fonctions est-elle en conformité avec les règles usuelles du contrôle interne ? Les principes d’un bon contrôle interne conduisent à ce que soient séparés les fonctions : des utilisateurs, du personnel de conception et de réalisation des applications (études, développement, maintenance des applications), du personnel d’exploitation (mise en exploitation des logiciels produits par le personnel de développement, sauvegardes des données, etc..) et d’administration des données. 5. Les relations entre le département informatique et les services utilisateurs sont-elles satisfaisantes ? qualité du service fourni (disponibilité des ressources matérielles, temps de réponse moyen des transactions, fréquence des incidents par application, délai de réactivité pour satisfaire aux demandes des utilisateurs, etc. …) interface entre le département informatique et les services utilisateurs (existence de la fonction de correspondant informatique) prise en considération dans la conception des nouvelles applications des problèmes liés à l’organisation des services utilisateurs et à l’aménagement des procédures administratives. 6. Comment sont choisis les fournisseurs ?
  20. 20. 20 REVUE DE LA PLANIFICATION ET DU CONTRÔLE DES ACTIVITES INFORMATIQUES 1. La politique, les stratégies et les plans de mise en œuvre des systèmes informatiques sont-ils définis et formalisés ? suivis ? régulièrement mis à jour ? 2. Des organes usuels responsables des principaux choix stratégiques et de suivi de la mise en œuvre des systèmes informatiques sont-ils en place et sont-ils opérationnels ? 3. Les activités courantes de l’informatique sont-elles relevées, suivies, contrôlées ? planification des projets de développement, relevé et suivi des temps d’intervention. rapports d’activités etc.. SUIVI DES COUTS DE L’INFORMATIQUES 1. Examen du budget informatique : existe – t – il ? comment est-il défini ? contenu du budget, suivi des réalisations et analyse des écarts, justification, approbation des dépassements budgétaires, existence de fonction de contrôle de gestion relatif aux coûts informatiques. 2. Les coûts des opérations internes informatiques sont-ils évalués ? refacturés aux services utilisateurs ? 3. Examen du mode de financement de l’acquisition des ressources informatiques : critères du choix du mode de financement (achat, location, crédit-bail),
  21. 21. 21 adéquation avec les conditions du marché du moment, les possibilités financières de l’entreprise, et la durée prévisible d’utilisation du matériel. EVALUATION DES RESSOURCES HUMAINES ET EXAMEN DE L’ENVIRONNEMENT SOCIAL 1. Politique de recrutement, de rémunération, de formation continue et de promotion du personnel. 2. Adéquation de la qualification du personnel avec les fonctions exercées. 3. Motivation du personnel par : une rémunération satisfaisante ? la promotion interne ? la formation continue ? la participation aux prises de décisions ? les projets réalisés ? l’image de marque de l’entreprise ? Etc. 4. Comment se présente l’environnement social ? taux de rotation du personnel informatique, nombre de licenciements et conditions de licenciements, mouvements sociaux (grèves, etc. …).
  22. 22. 22 4 – AUDIT DES ETUDES 4–1 DEFINITIONS Les études font partie des activités courantes du département informatique. Elles comprennent le développement (conception, réalisation) et la maintenance (mise à jour) des logiciels. Une bonne organisation d’ensemble de cette activité, l’existence de procédures et de méthodes satisfaisantes constituent une première présomption de la fiabilité et de la pérennité des logiciels développés. A titre d’exemple, la non-existence de normes de programmation laisse à chaque programmeur la liberté de choix de sa méthode, d’où à terme, une grande difficulté de maintenance des applications et par voie de conséquence, une dégradation progressive de la fiabilité de celles-ci. 4–2 OBJECTIFS DE L’AUDIT L’audit des études a pour objectifs de : • S’assurer que l’organisation des activités d’études, les méthodes de conception, de développement et de maintenance des applications informatiques, permettent la réalisation de logiciels informatiques performants : conformes aux besoins de l’entreprise, capables d’évaluer facilement, intégrés • S’assurer aussi que : la documentation produite (documentation technique, manuels utilisateurs) est exhaustive, claire et accessible à des non informaticiens (en ce qui concerne les manuels utilisateurs) et qu’elle répond aux besoins des utilisateurs, les projets d’études sont correctement évalués, suivis et les coûts afférents évalués.
  23. 23. 23 • Proposer les mesures correctives nécessaires. 4–3 TRAVAUX D’AUDIT REVUE CRITIQUE DE LA METHODOLOGIE DE DEVELOPPEMENT DES APPLICATIONS 1. Une étude d’opportunité est-elle réalisée préalablement au lancement de la conception d’une nouvelle application ? L’étude d’opportunité devra inclure notamment : la présentation succincte des fonctions à développer, les principales contraintes de mise en œuvre, si nécessaire, une présentation des différentes solutions techniques entre lesquelles il conviendra d’arbitrer, une estimation des volumes à traiter, une estimation des coûts prévisionnels et, le cas échéant, des gains financiers attendus, un échéancier prévisionnel de mise en œuvre. 2. Avant tout développement de logiciels ou toute acquisition de progiciel, les avantages et inconvénients respectifs de l’acquisition du progiciel et de la réalisation du système spécifique sont-ils analysés ? 3. Est-il rédigé un cahier des charges préalablement au lancement de la réalisation de nouveaux logiciels. Si le nombre et le contenu exact des différentes phases d’un projet peut varier en fonction de la taille de l’entreprise et de l’importance des projets, il existe un point de passage obligé dans tout projet : l’accord entre les informaticiens et les utilisateurs sur le contenu de l’application à développer. Cet accord sera impérativement formalisé par un document écrit, que nous appellerons ici cahier des charges, et qui comprendra, en fait, l’ensemble des spécifications fonctionnelles du futur système d’information.
  24. 24. 24 En son absence, il est quasiment certain que les logiciels développés ne correspondront pas aux besoins des utilisateurs. L’économie de quelques jours passés à la rédaction, certes fastidieuse, d’un document de synthèse, apparaîtra alors bien dérisoire au regard des surcoûts et des dépassements de délais qui découleront de cette incompréhension. Sans que la liste en soit exhaustive, on peut citer au titre des principales spécifications contenues dans le cahier des charges : la description des fonctions à développer, la description des grilles de saisie et de consultation, les traitements à réaliser, la liste et le contenu des principaux états édités, la liste et contenu des fichiers constitutifs de l’application (à l’exception des fichiers de travail), l’estimation des volumes à traiter. On y trouvera également, selon les cas, les modalités et l’échéancier de mise en œuvre et de démarrage de l’application. 4. Existe-t-il des normes en matière de développement d’applications ? Il est bien évidemment indispensable que soit adoptée une méthode en matière de développement d’application. La question de savoir si une méthode reconnue sur le marché est préférable à des normes de ‘‘maison’’ est en revanche plus délicate. Dans un environnement de grandes entreprises ou d’administrations, le choix d’une méthode largement répandue s’impose incontestablement. Des méthodes comme MERISE, le standard de fait, ou AXIAL (proposé par IBM), présentent l’avantage, par leur diffusion, d’être connues de bons nombre d’informaticiens, et donc de pouvoir être aisément imposées au sein de l’entreprise. Elles présentent en outre l’avantage d’une grande rigueur, nécessaire au développement de projets très importants (très concrètement, nous considérerons comme importants des projets dont le coût global atteint plusieurs centaines de millions de Francs CFA). Dans des petites ou moyennes entreprise ou bien pour des projets de moindre envergure, les méthodes évoquées ci-dessus présentent généralement l’inconvénient d’une trop grande lourdeur. Il n’est dès lors pas rare de rencontrer dans des entreprises des méthodes ‘‘maison’’. On imposera alors
  25. 25. 25 dans le développement d’un projet le respect de certaines étapes, et la formalisation de documents dont le contenu-type sera prédéfini. Seront par exemple imposés : l’étude préalable, le cahier des charges, l’analyse technique, les normes de programmation. 5. Existe-t-il des normes en matière de programmation ? L’existence de normes de programmation est en principe de nature à améliorer la qualité des logiciels produits, dans la mesure où elles constituent un véritable guide, particulièrement utile pour les programmeurs débutants. Elles conduisent en outre à une meilleure homogénéité de l’ensemble des logiciels de l’entreprise. Plus précisément nous distinguons : • Les normes concernant la structure générale des programmes : la programmation structurée ou Warnier certains langages de développement (langages de quatrième génération, générateurs de programmes) imposent de facto une structure de programmation. • Les normes concernant le contenu détaillé des programmes Citons par exemple : les noms de fichiers. les noms de zones dans les fichiers, les noms des étiquettes dans les programmes, etc. • Les normes d’ergonomie : format des écrans (couleur, caractères, boutons, liste, etc..) touches fonctions messages
  26. 26. 26 6. Des outils de type ~ atelier de génie logicielddddsont –ils utilisés ? Le terme d ’~atelier de génie logicield(AGL) et aujourd’hui utilisé pour désigner des fonctions très diverses dans le développement d’applications. Ses fonctions , couvraient principalement à l’origine la gestion des bibliothèques de logiciels d’études et d’explication et l’automation du processus de mise en exploitation. Ses possibilités sont aujourd’hui beaucoup plus vaste puisqu’elles incluent souvent, outre les fonctions évoquées ci-dessus, l’assistance à la conception des logiciels, la gestion automatisée des spécifications et de la documentation, la génération des logiciels à partir des spécifications, etc. L’auditeur devra, après avoir recensé les méthodes et outils de production d’application, se prononcer sur leurs effets en terme de sécurité et d’efficacité du processus. 7. Les principales phases de mise en œuvre d’un projet sont-elles prévues dans le processus de développement des nouvelles applications ? Sauf exception, certaines phases doivent impérativement être prévues dans le processus de mise en place des nouvelles applications. Les principales d’entre elles sont rappelées ci-après. • La formation des utilisateurs Une mauvaise formation des utilisateurs aura pour conséquence, soit une utilisation anarchique du système, avec tous les risques que cela implique, soit un désintérêt, voire un rejet, vis-à-vis de celui-ci. Dans les deux cas, l’application est vouée à une phase de démarrage pour le moins agitée. • La documentation de l’application Une documentation doit comprendre, outre l’analyse : les listes de programmes ; les dessins d’enregistrements ; les schémas de bases de données ; les références croisées modules et informations ; les références croisées contrôles et informations ; les dessins des écrans et états ; la documentation utilisateur.
  27. 27. 27 • La reprise des fichiers Le démarrage d’une application nécessite quasiment toujours soit la constitution et la saisie ex-nihilo des fichiers nécessaires à celle-ci, soit ,cas de loin le plus fréquent aujourd’hui (les nouveaux logiciels succédant plus souvent à une ancienne application qu’à un processus manuel), la reprise dans le nouveau système des fichiers issus de l’ancien. • L’impact du nouveau système sur l’organisation et les procédures administratives. Un nouveau système informatique s’accompagne, dans la grande majorité des cas, d’une réflexion sur l’organisation du travail ainsi que la mise en place des nouvelles procédures. • L’implantation physique des matériels La réflexion en la matière permet de prévoir notamment : l’implantation de la ou des unités centrales( dans un système fortement décentralisé, on trouvera une unité centrale par site), le nombre et la localisation géographique des terminaux, écrans et imprimantes. • La validation des logiciels Deux méthodes complémentaires conduisent à la validation des logiciels( on parle souvent de ™recetted) avant leur mise en exploitation : les jeux d’essai, qui permettent de simuler des cas réels : après des jeux d’essai conçus et réalisés par les informaticiens, qui permettront de s’assurer que les logiciels sont conformes au cahier des charges, il est indispensable de prévoir des jeux d’essai utilisateurs, qui valideront l’adéquation de l’application aux besoins, et seront en définitive l’ultime contrôle avant le démarrage ; l’exploitation en double, qui consiste à faire tourner simultanément le nouveau et l’ancien logiciel, afin de comparer les résultats.
  28. 28. 28 • La sécurité Si la sécurité du système d’information est primordiale en phase d’exploitation, une première approche dans certains domaines est souhaitable dès la conception. Citons par exemple, les réflexions sur : le moyen de contrôle de la validité des traitements : contrôles d’exploitation, contrôles d’intégrité des bases de données, etc. le respect par l’application de certains principes de contrôles interne : contrôle hiérarchique, séparation des fonctions, continuité du chemin de révision, etc. les procédures d’exploitation : reprise en cas d’incident, sauvegardes, site de secours, etc. 8. Est-il procédé régulièrement à un suivi de l’avancement et des coûts des projets ? Ce suivi a pour objet le contrôle de l’avancement de chacune des tâches élémentaires composant les projets, afin de détecter le plus rapidement possible les risques de dérapage, à la fois en termes de planning et en termes de coûts. De nombreux progiciels de suivi de projet sont aujourd’hui disponibles, sur grands systèmes ou, plus fréquemment, sur micro-ordinateur. En tout état de cause, un simple tableur peut parfois suffire à un suivi efficace. Quel que soit l’outil utilisé, l’auditeur s’attachera à vérifier que le responsable du projet dispose des moyens d’anticiper à temps tout dérapage, afin de prendre les mesures nécessaires. 9. Les projets font-ils l’objet d’une coordination suffisante ? D’une manière générale, le charisme du ou des responsables du projet sont un facteur primordial de la réussite de celui-ci. Pour les projets les plus lourds, la coordination du projet doit être formalisée au travers de réunions périodiques (par exemple hebdomadaires) des principaux responsables.
  29. 29. 29 Nous distinguerons, en fait, pour chaque projet dont l’envergure le justifie : • la coordination entre les équipes de conception, puis entre les équipes de réalisation, • la coordination entre les équipes de mise en œuvre, • la coordination entre les informaticiens et les utilisateurs. EVALUATON DE LA QUALITE DES LOGICIELS PRODUITS 1. Est-il procédé régulièrement à des contrôles de qualité des logiciels produits ? Un contrôle par sondage des logiciels produits, qu’il soit réalisé en interne(un membre de l’équipe de développement ou du service informatique étant affecté, à temps partiel, à des tâches de contrôles) ou par des interventions extérieures, permet notamment : de contrôler la qualité des logiciels produits, de s’assurer de l’homogénéité de ces logiciels. 2. Les nouveaux collaborateurs font-ils l(objet d’une attention particulière ? Cette attention particulière se traduira de différentes manières : • Une formation théorique et pratique La formation théorique sera utilement complétée par une formation plus pratique, sous des formes diverses :™parrainageddes nouvelles recrues, passage dans différentes équipes, etc. • Un contrôle d’activité renforcé Une expérience insuffisante du programmeur est souvent à l’origine de programmes lourds et consommateurs de temps machine. Malheureusement, en l’absence d’un suivi efficace ,on ne s’apercevra de ces erreurs de jeunesse que trop tard, une fois que notre programmeur inexpérimenté aura réalisé de nombreux logiciels, qu’il sera impossible de réécrire. Un contrôle
  30. 30. 30 systématique des premiers logiciels écrits par chaque nouveau collaborateur permet de réduire ce risque et de ™corriger le tirdimmédiatement. 3. La qualité des documents et logiciels produits par les études est-elle satisfaisante ? Aussi formalisées soient - elles, les méthodes et normes de développement et de programmation ne peuvent constituer une garantie absolue de la qualité des logiciels, ne serait – ce que parce que l’existence de normes ne garantit pas que celles-ci soient respectées ! L’auditeur aura donc tout intérêt à procéder, par sondage, à un contrôle sur quelques programmes de la qualité et du respect des normes. EXAMEN DE LA DOCUMENTATION 1. La qualité de la documentation produite est-elle satisfaisante ? On distingue dans la documentation d’une application informatique : la documentation d’études, destinée aux équipes de développement et de maintenance, la documentation d’exploitation, destinée au personnel de production, la documentation destinée aux utilisateurs. • La documentation d’études contient notamment : la description du contenu des fichiers, la description des chaînes de traitements, la description détaillée des programmes, l’historique des opérations de maintenances. • La documentation d’exploitation contient l’ensemble des informations et consignes nécessaires au personnel de production : description et organigrammes des chaînes de traitement, consignes de préparation, description des contrôles de l’exploitation à réaliser lors de chaque traitement, consignes de pupitrage.
  31. 31. 31 • La documentation utilisateurs contient : la description générale des applications, la description des transactions, la description des états édités, l’explication des messages d’anomalie. Outre la qualité et l’exhaustivité de la documentation, l’auditeur s’intéressera à sa souplesse d’utilisation. Ainsi , une documentation gérée sur support magnétique, à l’aide d’un progiciel prévu à cet effet, facilitera grandement les mises à jours et permettra des sauvegardes sur un site extérieur. D’une manière générale, l’auditeur s’attachera également particulièrement à vérifier que la documentation est à jour. Aussi complète soit - elle, celle- ci devient en effet rapidement inutilisable si les opérations de maintenance ne lui sont pas immédiatement répercutées. EVALUATION DES PROCEDURES DE MAINTENANCE DES APPLICATIONS Les procédures de maintenance des logiciels sont – elles formalisées ? Les demandes de maintenance des logiciels doivent être formalisées et faire l’objet d’une demande écrite de la part des services utilisateurs, visée par le correspondant désigné, et transmise au responsable des études qui, après accord, en assurera le transfert au chef de projet concerné. Les logiciels modifiés sont testés dans l’environnement d’études avant tout transfert en exploitation. En cas d’urgence, et en particulier si l’opération vise à corriger une anomalie de conception des logiciels, il pourra bien entendu être dérogé à l’exigence d’une demande de maintenance écrite. En tout état de cause, même dans ce cas, le service informatique rédigera une fiche décrivant la modification apportée aux programmes. Par ailleurs, d’une manière générale, l’ensemble des fiches de maintenance relatives à une application sont archivées dans le dossier de celle-ci.
  32. 32. 32 5 - AUDIT DE L’EXPLOITATION 5-1 DEFINITION Comme les études, l’exploitation fait partie des activités courantes du département informatique. D’une manière générale elle recouvre toutes les tâches relatives à l’utilisation des applications informatiques et des ressources matériel en service. Elle comprend, ainsi donc : • la mise en exploitation des logiciels produits, • la gestion et l’administration des données opérationnelles de l’entreprise, • l’exécution des traitements en temps différé, • la gestion de l’environnement et des matériels d’exploitation (production informatique) • la gestion des bibliothèques de programmes. Elle aussi assurer : • la continuité de l’exploitation en cas d’incident (reprise sur site extérieur), • la sécurité des données et des dispositifs matériels, • la gestion de la maintenance des équipements informatiques. Toutefois , dans les entreprises , étant donné leur complexité et leur charge de travail de plus en plus importantes, les fonctions suivantes sont de plus en plus exclues de l’exploitation : • administration des données(en fait administration des bases de données) • gestion des réseaux • gestion de la sécurité • gestion de la maintenance des équipements.
  33. 33. 33 5-2 OBJECTIFS DE L’AUDIT L’audit de l’exploitation à pour objectifs de : • Apprécier la qualité de la production informatique et de l’appui apporté aux utilisateurs dans leurs travaux informatiques courants : disponibilité des moyens informatiques, des traitements et des données (déploiement des moyens informatiques), exécution adéquate des traitements, formation des utilisateurs à l’exploitation des applications, assistance aux utilisateurs en cas d’incident, Utilisation efficiente de la Bureautique, Etc. • Vérifier que les procédures d’exploitation mises en place permettent : de garantir la sécurité et l’intégrité des données, d’assurer la continuité de l’exploitation( sauvegarde des données, restauration et reprise en cas d’incident) • Apprécier la qualité de la gestion des moyens techniques Acquisition et installation des équipements Aménagement physique des locaux Maintenance préventive et curative du matériel Support technique système et réseaux
  34. 34. 34 5-3 TRAVAUX D’AUDIT EXAMEN DES PROCEDURES DE MISE EN EXPLOITATION Les procédures de mise en exploitation des logiciels sont-elles satisfaisantes ? Les principaux objectifs d’un bon contrôle interne dans ce domaine, sont les suivants : • La procédure de mise en exploitation doit garantir une bonne séparation entre les fonctions d’étude et les fonctions d’exploitation. Concrètement, le personnel d’étude ne doit pas avoir accès aux bibliothèques de programmes d’exploitation, pas plus qu’aux fichiers d’exploitation. Cet objectif vise d’ailleurs beaucoup plus à prévenir les risques d’erreurs de manipulation que les risques d’opérations frauduleuses de la part du personnel d’études. • La procédure d’exploitation doit à tout moment garantir que l’on dispose dans les bibliothèques des programmes sources correspondants aux programmes objets en exploitation. Le programme ™sourcedest le programme écrit par l’informaticien dans un langage évolué, compréhensible par l’homme ; le programme ™objetdest le langage compilé , c’est à dire transformé en code binaire directement exécutable par la machine. Le langage objet étant quasiment illisible par l’homme. Sont conservés en machine : d’une part le programme source, dans une bibliothèque de programmes sources, qui sera modifié, puis recompilé, en cas de maintenance de l’application, d‘autre part le programme objet prêt à être exécuté, dans une bibliothèque des programmes objets ; en réalité , et plus précisément , certains programmes objets doivent être assemblés les uns aux autres avant exécution : il s ‘agit de la phase d’édition de liens (linkedit) qui transforme les modules objets en modules exécutables (load-modules).
  35. 35. 35 En l’absence des programmes sources, ou bien en présence de programmes sources non cohérents avec les programmes objets exécutés, la maintenance de l’application sera à très court terme impossible. • La procédure de mise en exploitation doit permettre de conserver l’historique des transferts de logiciels dans l’environnement d’exploitation. Cet historique permettra notamment : d’élaborer des statistiques : mises en exploitation par programme, nombre de maintenances par programme et par application, etc., d’effectuer ,si nécessaire, des recherches ,en cas d’incident, sur la date des dernières modifications d’un logiciel. EXAMEN DES PROCEDURES DE SAISIE DES DONNEES Rappelons tout d’abord que la saisie des données peut être réalisée : • en temps différé, sur des matériels dédiés à la saisie, à partir de bordereaux remplis par les services utilisateurs ; la saisie, dite ™de massed, est alors assurée par des ™perforatrices - vérificatricesddans des ™ateliers de saisied, spécialisés dans cette fonction ; les ateliers de saisie sont aujourd’hui en voie de disparition, mais se trouve encore justifiés dans certains cas particuliers. • en temps réel, c’est à dire avec une mise à jour immédiate des fichiers ;la saisie est alors assurée , soit directement par les utilisateurs , soit par des services assurant une saisie de masse ™intelligented. Ainsi en matière commerciale, les commandes seront saisies , selon les cas, par les vendeurs eux-mêmes , par leur secrétariat ( par exemple chaque jour après centralisation des commandes de la journée) ou encore par un service d’administration des ventes ; de la même manière ,dans un établissement financier, les opérations seront saisies, soit par les opérateurs eux-mêmes ,soit par un service de saisie et contrôle, au sein d’un « middle office » ou d’un « front office ».
  36. 36. 36 Les principes d’un bon contrôle interne sont-ils respectés dans les logiciels de saisie des données ? Les principaux éléments d’un bon contrôle interne des procédures de saisie des données sont : • lorsque la saisie est réalisée à partit d’un bordereau, l’existence sur le bordereau du visa d’une personne autorisée, contrôlé par le personnel de saisie ; • la double saisie (uniquement dans le cas de saisie de masse en temps différé) ; • l’existence de clés de contrôle pour les codes numériques, les erreurs de saisie du code étant alors immédiatement rejetées ; • le contrôle par totalisation des lots de saisie, qui vérifie que tout document a été saisi une fois et une seule fois, avec des montants exacts ; • le contrôle d’existence en table ou en fichier des codes saisis ; • les contrôles de cohérence (exemple : contrôle de cohérence du jour, du mois et de l’année dans la saisie d’une date) ; dans certains cas la saisie de donnée redondantes sera volontairement prévue à la fin de contrôle (exemple : saisie dans une facture du montant Hors Taxe (A) , de la TVA (B) et du montant TTC (C) : le programme de saisie vérifie que C=A+B) ; • l’affichage pour validation dès la saisie de libellé correspondant (uniquement en cas de saisie interactive) au code saisi : exemple : au moment de la saisie d’une facture fournisseur, le nom fournisseur est affiché à partir du code fournisseur saisi ; • l’édition pour analyse de la liste exhaustive des données saisies et, le cas échéant d’une liste par exception des données les plus ™sensibles d. D’une manière générale l’auditeur vérifiera que les procédures de saisie garantissent que : • toute donnée devant être saisie l’a bien été (principe d’exhaustivité), • n’ont pas été saisies des données qui n’auraient pas dû l’être( principe de réalité) ;
  37. 37. 37 • des données saisies ne comportent pas d’erreurs (principe d’exactitude) EVALUATION DES PROCEDURES ET CHAINES DE TRAITEMENTS EN TEMPS DIFFERE 1. L’exécution des travaux en temps différé fait -t- il l’objet d’une planification ? La planification de l’exécution des traitements est un principe de base d’une organisation rationnelle. A défaut, l’ordinateur pourrait se trouver saturé à certaines périodes ( d’où des retards dans la distributions des résultats ), et inactif à d’autres. Par ailleurs,une planification systématique permet de s ‘assurer aisément que seuls les traitements planifiés et autorisés ont été exécutés. Des progiciels d’assistance à la planification et à l’ordonnancement des travaux sont aujourd’hui disponibles sur le marché (principalement, pour les plus complets, sur les grands systèmes) ,grâce auxquels : • tout traitement exécuté sans planification est soit rejeté, soit, au moins, mis en évidence pour contrôle, • les contraintes d’enchaînements des travaux sont mises en paramètres, évitant ainsi certaines erreurs liées à des lancements manuels (travail oublié, ou au contraire exécuté en double, travaux exécutés dans une mauvaise séquence..). Notamment ces progiciels permettent aux préparateurs (ou plus généralement aux responsables d’application) de ™paramétrer ddans la journée l’exécution de travaux qui s’exécutent de nuit, sous le seul contrôle des pupitreurs. 2. La fonction de préparation des travaux est-elle assumée de manière satisfaisante ? Citons, au titre des principales caractéristiques d’une organisation satisfaisante de la fonction de préparation des travaux : • La qualité de la documentation destinée aux responsables de la préparation : la qualité de la documentation est, bien entendu, la
  38. 38. 38 condition sine qua non de la qualité du travail de préparation par les responsables d’applications ; • L’interchangeabilité des responsables d’application : s’il n’est pas souhaitable que chaque responsable d’application assume tour à tour la responsabilité de la préparation de l’ensemble des chaînes de traitement (ce qui conduira à une trop grande dispersion), il est du moins nécessaire que plusieurs responsables soient capables d’assurer la préparation de chaque chaîne, de manière à ce que les congés, la maladie ou le départ de l’un d’eux ne deviennent pas la source de tous les dangers ; • La qualité des JCL : des JCL d’exploitation performants réduisent fortement les risques d’erreurs d’exploitation en limitant au strict minimum le nombre de paramètres à modifier lors de chaque exploitation. Les JCL sont généralement modifiés par les responsables d’application au moment de la mise en exploitation d’une nouvelle chaîne de traitement, dans un souci d’optimiser les performances d’exploitation , que n’ont pas toujours les équipes de développement. Par ailleurs , les outils d’automatisation des exploitations (génération automatique des JCL, gestion des reprises, gestion des générations successives d’un même fichier, gestion des sauvegardes..) participent notablement à la réduction du nombre des paramètres d’exploitation. 3. Les chaînes de traitements font-elles systématiquement l’objet de contrôles à posteriori ? On peut distinguer dans les contrôles sur une chaîne de traitement : les contrôles sur la cohérence technique de l’exploitation, les contrôles sur la cohérence fonctionnelle de l’exploitation • Les contrôles sur la cohérence technique. Ils portent par exemple sur : sur les nombres d’enregistrements traités, sur le contenu des bases de données,
  39. 39. 39 sur le bonne fin des traitements (par l’analyse des messages et d’indicateurs de fin de traitement), sur la cohérence des états édités. Bon nombre de ces contrôles peuvent d’ailleurs être fortement informatisés, soit par la création de ™chiffriers dautomatiques, soit par l’utilisation des progiciels existants sur le marché, en particulier pour le contrôle de la bonne fin des traitements . • les contrôles sur la cohérence fonctionnelle de l’exploitation S’il est souhaitable, dans l’absolu, que ces contrôles soient pris en charge par le service informatique, la pratique tend depuis plusieurs années à transférer la responsabilité aux services destinataires. La principale raison en réside dans l’impossibilité devant laquelle se trouvent les services informatiques pour définir et réaliser des contrôles fonctionnels pertinents. Il n’en reste pas moins que ces contrôles de cohérence fonctionnelle revêtent une importance primordiale. 4. Les modalités de reprises de l’exploitation de la chaîne en cas d’incident sont-elles clairement définies ? Le souci majeur dans ce domaine doit être d’éviter que les pupitreurs aient à prendre des initiatives quant au traitement des incidents , dans la mesure où ils ne connaissent pas les chaînes en exploitation et où la définition des modalités de reprise n’est donc pas de leur ressort. Dans les grands centres de traitements, les systèmes d’exploitation permettent généralement la totale automatisation des procédures de reprises consécutives à la plupart des incidents. Lorsqu’une reprise automatique s’avère impossible, il est préférable, sauf urgence d’abandonner le traitement et d’attendre la décision du responsable de la production de l’application (c’est à dire de différer la décision au lendemain matin pour les chaînes de nuit). Pour les petits systèmes, une totale automatisation des reprises n’est pas envisageable. Il est prévu pour les situations urgentes, en cas d’absence du responsable d’application, de fournir au pupitreur un manuel d’exploitation décrivant précisément la procédure de reprise à appliquer.
  40. 40. 40 CONTROLE DU PILOTAGE DE L’ENVIRONNEMENT DE PRODUCTION 1. Existe -t- il des outils de contrôle et d’assistance destinés aux pupitreurs ? Si dans les grands centres, les pupitreurs travaillent systématiquement en équipe, il n’est pas toujours de même dans les petits centres. Dans certains cas, des travaux non urgents sont lancés et exécutés la nuit en l’absence de toute présence humaine (à l’exception si possible des gardiens) : en cas d’incident, les travaux seront alors interrompus et relancés le lendemain. Par ailleurs, il existe de plus en plus, dans les grands centres , des outils de contrôles et d’assistance au travail des pupitreurs : interdiction de transmettre certaines commandes, réponses automatiques à l’ordinateur ,etc. Cette automatisation permet alors de focaliser l’activité des pupitreurs sur les tâches les plus délicates, en particulier le traitement de certains types d’incidents. Corrélativement, elle s’accompagne, toujours dans les grands centres, d’une centralisation des fonctions de pupitrage, avec la création d’équipes ayant la responsabilité simultanée de plusieurs unités centrales. CONTROLE DE LA QUALITE DE LA PRODUCTION INFORMATIQUE 1. Existe - t- il un suivi de la qualité des prestations fournies ? Ce suivi revêt des formes variées : • disponibilité de la machine et du réseau, • temps de réponse des applications interactives, • fréquence des incidents par logiciel, • fréquence des retards dans la distribution des états, et retard moyen constaté, • nombre d’opérations de maintenance par application, • etc..
  41. 41. 41 2. Existe–t–il un suivi destiné à optimiser les performances du système informatique ? Ce suivi revêt lui aussi des formes variées : • taux de charge de l’unité centrale, • taux de remplissage des disques, • fréquence des entrées – sorties, • suivi des temps de traitement par logiciel d’application , • suivi de l’utilisation du réseau, • etc. 3. Le ™™™™journal de borddddddu (ou des ) ordinateurs est –il systématiquement édité et archivé ? Rappelons que ce journal de bord (printlog) retrace, sous une forme plus ou moins détaillée (paramétrable) , l’historique des commandes soumises au système d’exploitation et des messages reçus de celui-ci. Chaque message vient ainsi alimenter un fichier, qui pourra être utilisé à des fins de recherche après tout incident d’exploitation. L’auditeur vérifiera en particulier : • que la taille du fichier permet de contenir l’historique des messages sur une période suffisamment longue( de un à quelques jours), • que le™journal de bord dfait l’objet de sorties – papier , archivées elles aussi sur une période suffisamment longue( quelques mois).
  42. 42. 42 CONTROLE DE LA GESTION DE L’ESPACE DISQUE 1. Le contenu des disques est –il régulièrement analysé pour suppression des fichiers inutiles ? Il est indispensable que soient mises en place des procédures permettant de traquer les fichiers inutiles. Citons par exemple : • le recensement périodique avec les chefs de projet et les responsables de production d’application de tous les fichiers opérationnels, • l’élimination automatique des fichiers dont le nom ne respecte pas une structure prédéfinie. Des progiciels de gestion automatisée de l’espace disque permettent en particulier de lutter contre cette prolifération de fichiers inutiles. 2. L’implantation des fichiers sur les disques fait–elle l’objet d’une optimisation ? En effet, une optimisation de l’implantation des fichiers sur le disque permet : • de diminuer le temps de certains traitements, qu’ils soient interactifs ou en temps différé, • d’améliorer la sécurité . CONTROLE DE LA GESTION DES BIBLIOTHEQUES DE PROGRAMMES S’assurer que les règles suivantes sont respectées : • ne conserver dans les bibliothèques que les programmes effectivement utilisés, • avoir la certitude que sont disponibles dans les bibliothèques tous les programmes objets utilisés, • fournir aux personnels d’études et de production un maximum de procédures automatisées de gestion des bibliothèques (mises en exploitation, rapatriement d’un programme de l’environnement de production vers l’environnement de test..,)
  43. 43. 43 • interdire aux personnes non autorisées l’accès aux bibliothèques. EVALUATION DE LA GESTION DES SAUVEGARDES Le support physique de la sauvegarde n’a aucune incidence particulière sur la politique générale. Les questions ci-après s’appliquent donc indifféremment à des sauvegardes sur bandes et à des sauvegardes sur cartouches. Si l’objectif final des sauvegardes est aisément compréhensible, les modalités pratiques en sont souvent fort différentes d’un site à l’autre, ne serait–ce que parce que celles-ci sont tributaires de la taille du centre, des volumes d’informations à sauvegarder et des systèmes d’exploitation proposés par le constructeur. Quelles que soient les procédures appliquées, l’auditeur s’attachera à vérifier qu’elles satisferont aux objectifs fondamentaux d’une bonne politique de sauvegarde, à savoir : • permettre le redémarrage de chacune des chaînes de traitement en cas d’incident (exemple : redémarrage d’une chaîne interrompue par une panne d’alimentation, ou encore par un incident logiciel) ; • permettre de pallier un incident sur un support physique (exemple : un incident sur un disque rend celui-ci illisible et impose son remplacement physique, puis le chargement de son contenu à partir d’une sauvegarde) ; • permettre le redémarrage sur un site extérieur en cas d’indisponibilité ou de destruction totale du site de production ; • répondre aux obligations légales en matière d’archivage : obligations commerciales, comptables et fiscales. 1. L’ensemble des logiciels et fichiers nécessaires au développement et à l’exploitation est-il régulièrement sauvegardé ? Doivent impérativement être sauvegardés : • les logiciels de base, • les fichiers et logiciels d’application de l’environnement d’exploitation,
  44. 44. 44 • les fichiers et logiciels d’applications de l’environnement d’études. 2. Les sauvegardes permettent – elles de traiter dans un délai satisfaisant tous les types d’incident ? Nous illustrerons cette question par différents exemples de mauvaises politiques de sauvegarde. • Les fichiers et bibliothèques sont sauvegardés totalement une fois par mois, et, dans l’intervalle, toutes les modifications sont historisées. Cette politique est mauvaise car, pour les fichiers et bibliothèques fréquemment modifiés , la reconstitution de la situation au moment d’un incident ( en particulier si celui-ci survient juste avant une sauvegarde totale ) sera excessivement longue. • Toutes les sauvegardes sont réalisées par support physique et il n’existe aucune sauvegarde sélective des fichiers Dans cette hypothèse, en cas d’incident sur une application donnée, la reconstitution d’un ou plusieurs fichiers sera parfois longue, puisqu‘elle nécessite le rechargement préalable d’un disque complet • Il n’existe que des sauvegardes sélectives de fichiers et de bibliothèques , et aucune sauvegarde totale par support physique. Cette fois , c’est en cas de nécessité de reconstitution d’un support physique (après destruction de celui-ci ou après destruction totale de tout le site) que la charge de travail deviendra considérable. 3. Si le parc le justifie, existe – t- il, un logiciel de gestion des bandes (ou des cartouches) ? La gestion du parc de bandes (ou de cartouches) magnétiques ne pose pas de problème particulier dans les petits centres de traitements : Les bandes sont peu nombreuses, et sont d’ailleurs souvent référencées et rangées directement par nature de sauvegarde. Un tel mode de gestion est tout à fait impensable dans les grands centres, où les supports doivent alors être numérotés, et rangés en ordre séquentiel. Le gestionnaire de la
  45. 45. 45 bandothèque, généralement à l’aide d’un progiciel, établira la correspondance entre la référence numérique des bandes, leur nature et leur lieu de stockage géographique. Le progiciel assurera en outre : • la gestion des lieux de stockage, selon un paramétrage initial (par exemple, pour tout fichier, la version V se trouvera sur le site, et sera transférée sur un site extérieur lorsqu’elle deviendra la version V-1, l’ancienne version V-1 étant elle même banalisée) ; • la banalisation des bandes supportant des fichiers devenus inutiles : • le contrôle d’accès aux bandes contenant des fichiers actifs (et l’interdiction de toute modification sur celles-ci). L’auditeur pourra notamment vérifier par sondage : • que toute bande référencée dans le progiciel se trouve bien géographiquement au lieu de stockage prévu (et, le cas échéant, que le nom et la version du fichier contenu sur la bande sont bien ceux qui sont référencés) ; • que toute bande présente physiquement est bien référencée dans le progiciel. 4. La gestion des sauvegardes répond-elle aux obligations légales en matière d’archivage ? 5. Procède-t-on à des sauvegardes au site extérieur ? EXAMEN DES PROCEDURES DE REPRISE SUR SITE EXTERIEUR (BACK-UP) 1. Est-il prévu une procédure permettant un redémarrage sur un site extérieur, dans un délai satisfaisant ?
  46. 46. 46 Parmi les principales mesures destinées à préparer un éventuel back-up, on peut citer : • le contrat de back-up auprès d’une société spécialisée, • la « salle blanche » , salle vide, pré-équipée pour des télécommunications, et prêt à recevoir des matériels de secours en cas de besoins, • le contrat d’assistance avec des entreprises disposant d’équipements similaires, • la mise en commun d’un site de secours entre plusieurs entreprises, • et enfin solution en plein essor, l’existence dans l’entreprise de deux sites éloignés l’un de l’autre, dont chacun est capable d’assumer le back-up de l’autre, moyennant la mise en œuvre de procédures dégradées. N’oublions pas enfin que, de nos jours, un plan de reprise sérieux impliquera qu’ait été soigneusement envisagé le back-up du réseau de télécommunications. 2. Si la reprise sur un site extérieur implique la mise en œuvre de procédures dégradées, celles-ci ont-elles été définies ? Il est bien rare que le site de secours permette de « traiter » les applications dans les mêmes conditions que le site initial. Il est donc indispensable de définir les applications et les utilisateurs prioritaires, c’est à dire les procédures de fonctionnement en mode « dégradé ». 3. Les procédures de reprise sur site extérieur sont-elles régulièrement testées ? Seul le test « grandeur nature » des reprises décèlera les imperfections de la procédure théorique : mémoire centrale insuffisante, fichiers non sauvegardés utilisateurs non connectés, etc.
  47. 47. 47 EVALUATION DE LA SECURITE PHYSIQUE DU CENTRE DE TRAITEMENT (voir cours consacré à l’audit de la sécurité.) EXAMEN DES CONTRATS D’ASSURANCE L’auditeur vérifiera qu’ont été envisagées les couvertures financières des risques liés : • à la destruction des matériels, • à la reconstitution des fichiers perdus, • aux pertes d’exploitation consécutives à l’indisponibilité des matériels, • aux pertes financières consécutives à des actes malveillants ou frauduleux. Les contrats d’assurances contre les risques informatiques peuvent être ventilés en : • des contrats «tous risques informatiques (TRI) qui recouvrent selon les garanties, tout au partie des dommages liés à des événements accidentels, • des contrats «extension aux risques informatiques » (ERI) qui couvrent, selon les garanties tout ou partie des dommages liés à une utilisation non autorisée des systèmes informatiques (actes frauduleux ou malveillants), • des contrats de type « globale informatique » qui cumulent les couvertures liées aux deux types de risques précédents. EXAMEN DES PROCEDURES D’ADMINISTRATION DES BASES DE DONNEES 1. Existe-t-il « un administrateur des données » ? L’Administrateur de données a pour rôle la gestion des données de l’entreprise (dans les PME) et pour les applications importantes, la gestion des données des applications. Il est le garant de la cohérence et de la non-redondance des données gérées par le SGBD.
  48. 48. 48 On distinguera, au moins dans les grands centres, la notion d’administrateur des données, responsable des données de l’entreprise, de celle d’administrateur de base de données, responsable de l’implantation physique des bases, de leur optimisation et de leur cohérence technique (voir ci-après). 2. Un « dictionnaire des données » est –il utilisé ? Le dictionnaire des données est un progiciel qui facilite la gestion des données par l’administrateur, et leur utilisation par les équipes de développement. 3. Procède-t-on à des travaux de recherche d’optimisation de la base de données ? Il existe généralement plusieurs manières de structurer une base de données et de gérer l’accès à celle –ci pour répondre à un même besoin. Selon l’optimisation ou non des méthodes d’accès, les performances d’un même programme peuvent varier dans des proportions tout à fait considérables. L’absence totale d’optimisation conduira dans certains cas à des temps de réponses des applications interactives ou à des temps d’exécution des travaux en temps différé tout à fait inacceptables. L’optimisation des bases de données constitue donc une tâche essentielle de l’administrateur des données, en relation avec les développeurs. 4. L’intégralité des bases et la cohérence des données sont-elles contrôlées régulièrement ? Doivent être régulièrement contrôlées : la cohérence technique des bases de données, la cohérence fonctionnelle des données. • Cohérence technique La technique des bases de données, quelle que soit leur architecture (hiérarchique, en réseau ou relationnelle) implique la présence de pointeurs et d’index, assurant la relation entre les segments (ou entre les tables), et évitant ainsi la redondance des données.
  49. 49. 49 • Cohérence fonctionnelle S’il est possible de contrôler la cohérence des données lors de leur saisie, ce contrôle n’exclut pas une dégradation ultérieure de celle-ci, pour des raisons diverses (erreur dans un programme en temps différé, modification des données non contrôlées, incident machine…). Il est donc souhaitable que des contraintes d’intégrité et de cohérence des données puissent être incluses dans la définition de la base elle-même, et que le respect de ces contraintes soit régulièrement contrôlé pour l’ensemble des données de la base. DIAGNOSTIC DE LA GESTION DES RESEAUX 1. Existe-t-il une cellule technique de gestion des réseaux ? Dans les environnements « grand système » , la mise en œuvre d’un réseau nécessite le choix de logiciels cohérents les uns avec les autres, puis leurs implantation et leur paramétrage. Le choix des réseaux eux-mêmes nécessite des études techniques et économiques. Cette fonction est généralement dévolue à une cellule technique, rattachée à l’équipe système. Outre l’existence même de l’équipe réseau, l’auditeur contrôlera son activité : • justification technique et économique des choix, • test des nouvelles configurations, • back-up entre les ingénieurs systèmes, etc… 2. Existe-t-il une cellule d’assistance réseau ? Contrairement à la cellule technique précédente, celle-ci a essentiellement un rôle d’assistance aux utilisateurs :
  50. 50. 50 • installation de nouveaux postes de travail, • première assistance téléphonique en cas de problème, • maintenance, si celle-ci n’est pas confiée à des sociétés spécialisées, • gestion de certaines tables. Il s’agit donc véritablement d’une fonction qui doit être disponible à tout moment pour répondre aux besoins des utilisateurs. 3. Les accès aux réseau sont-ils contrôlés ? L’existence d’un réseau implique des risques accrus d’accès non autorisés, pour différentes raisons : • le nombre de terminaux connectés à l’ordinateur central est en augmentation constance, et ceux-ci peuvent se trouver dans des localisations géographiques très éloignées ; • si, dans la plupart des applications, la liste des terminaux physiquement autorisés à être connectés au système central est limitativement établie, il est de plus en plus fréquent que pour des raisons de souplesse d’utilisation, des terminaux non identifiés physiquement soient autorisés à accéder au réseau : c’est notamment le cas lorsque des procédures de télémaintenance sont mises en place ; • la gestion des réseaux combine dans la grande majorité des cas l’utilisation de lignes privées (lignes louées) et de réseaux publics (réseau téléphonique commuté, SYTRANPAC, IRIS), où les données qui circulent sont mélangées à celles d’autres entreprises ; • enfin certaines applications informatiques sont, par nature, destinées à un accès public : consultation des comptes par la clientèle dans les établissements financiers consultation des stocks et saisie des commandes dans des entreprises industrielles ou commerciales. 4. Des techniques de sauvegarde et de reprise propres à l’utilisation d’applications en télétraitement ont-elles été prévues ?
  51. 51. 51 Les techniques de sauvegarde quotidienne des fichiers (généralement lors des traitements de nuit) trouvent une importante limite dans le cas des applications interactives : les fichiers étant mis à jour en permanence, une sauvegarde à la veille au soir implique, en cas d’incident et de nécessité de reprise à partir de la sauvegarde, que soient ressaisis tous les mouvements de la journée. Cette contrainte est d’ailleurs acceptable dans certains cas, à condition du moins que les utilisateurs prennent leurs dispositions en conséquence. Dans le cas contraire, des techniques spécifiques doivent être mises en œuvre. La plus fréquente et la plus ancienne consiste en la journalisation (logging) des transactions : chaque mise à jour de fichiers donne lieu à création de mouvement sur un fichier-journal, régulièrement déchargés sur bande ou cartouche : en cas d’incident la réapplication des mouvements du jour sur la sauvegarde à la veille au soir permettra de reconstituer la situation des fichiers au moment de l’incident. Plus précisément, le contenu du fichier journal pourra varier d’un environnement à un autre : dans certains cas il contiendra les transactions de mise à jour elles-mêmes, dans d’autre il contiendra l’image des enregistrements du fichier modifié avant et après mise à jour. Une technique plus récente consiste à créer pour les fichiers mis à jour en temps réel des fichiers « image » sur un disque distinct de celui contenant les fichiers originaux, et mis à jour en même temps que ceux-ci , ainsi en cas d’incident sur le disque contenant le fichier original, il sera possible de poursuivre quasi immédiatement l’application à partir du disque image. Le principal inconvénient de ces techniques, journalisation et disque « image », qui explique d’ailleurs qu’elles ne soient pas utilisées dans certains sites (essentiellement les PME) réside dans leur coût : la création du fichier journal multiplie les opérations d’entrées-sorties (« I/O ») et requiert donc des configurations matérielles plus importantes. La technique des fichiers « image » est encore plus onéreuse, puisqu’elle nécessite une duplication des volumes disques, qui demeurent des supports magnétiques coûteux. On notera enfin que la technique de la journalisation pourrait s’étendre dans les prochaines années aux traitements en temps différé : c’est déjà le cas, avec certains SGBD relationnel, tel que DB2 d’IBM, qui permet de journaliser les modifications de la base, issue à la fois des traitements en temps réel et des traitements en temps différé.
  52. 52. 52 5. Si les applications le nécessitent, est-il prévu des procédures de « back-up » du réseau ? Nous avons essentiellement évoqué ci-avant, les procédures de reprise consécutives à une indisponibilité de l’unité centrale. Mais il existe un autre risque propre aux réseaux : l’indisponibilité d’un support de transmission de données. C’est le cas bien connu, par exemple, de la ligne louée indisponible pendant quelques jours car physiquement endommagée. Si l’importance des logiciels le justifie, il convient donc de prévoir des procédures de nature à pallier ces défaillances. Citons par exemple : • le doublement d’une ligne spécialisée par un abonnement à SYTRANPAC, prêt à prendre immédiatement le relais pour le transfert des données, • le développement de logiciels permettant le traitement en local et en mode dégradé de certaines applications, en cas d’impossibilité totale d’assurer la liaison entre les utilisateurs et le site central, • l’utilisation de liaisons qui intègrent leurs propres solutions de secours. DIAGNOSTIC DE LA GESTION DE L’INFO CENTRE La notion d’infocentre, ou d’infoservice, correspond à la mise à disposition des utilisateurs, de langages de programmation de manipulation aisée, essentiellement destinés à des interrogations des bases de données et permettant de décharger d’autant les équipes de développement du service informatique. 1. Les outils d’infocentre sont-ils bien adaptés à l’utilisation par des non- informaticiens ? Trop souvent, des langages de programmation rapide totalement inadaptés à une utilisation par des non-informaticiens, car trop complexes, sont abusivement appelés langages d’infocentre. Au mieux, ils sont oubliés de tous, au pire ils engendreront de nombreux résultats erronés.
  53. 53. 53 Le cas échéant, dans les plus grands centres, plusieurs outils seront mis à disposition des utilisateurs : • des langages simples destinés à des requêtes élémentaires pour la majorité d’entre eux • de véritables langages de développement rapide pour les plus avertis. 2. L’accès aux outils d’infocentre est-il contrôlé ? L’accès aux outils d’infocentre doit être limité aux utilisateurs habilités. De plus, seule la consultation des données est le plus souvent autorisée, non leur mise à jour. 3. Les outils d’infocentre ne sont-ils pas détournés de leur objectif d’origine au profit du développement d’applications « pirates » ? L’assistance fournie par le service informatique pour l’utilisation de l’infocentre doit être l’occasion de s’assurer que celui-ci n’est pas détourné de sa fonction d’origine. En effet, s’agissant des micro-ordinateurs, le risque lié à une prolifération non maîtrisée d’applications parallèles développées par les utilisateurs eux- mêmes, existe. 4. Les charges-machines imputables à l’infocentre sont-elles surveillées ? Les outils d’infocentre sont généralement de grands consommateurs de ressources, qu’il s’agisse d’espaces-disque ou de temps-machine. Il est donc important que soient réalisés des suivis des consommations par application, par utilisateur, par service, afin de déceler d’éventuels abus. Notons que ce problème devrait disparaître progressivement au cours des prochaines années, grâce à l’utilisation de nouvelles techniques : • Machines dédiées à l’infocentre • Utilisation de micro-ordinateurs, les données étant tout d’abord déchargées du site central vers le micro-ordinateur, puis retraitées sur celui-ci à l’aide d’outils appropriés.
  54. 54. 54 DIAGNOSTIC DE LA FONCTION SYSTEME 1. Dans les grands centres, a-t-on créé un environnement spécifique pour les ingénieurs-système ? Les ingénieurs-système ont, dans les grands centres de traitement, des pouvoirs très étendus, de par la connaissance qu’ils ont des logiciels de base. L’objectif de la création d’un environnement spécifique sera de permettre aux hommes-système de tester en toute sérénité les nouvelles versions des logiciels de base. 2. S’il a été fait le choix de développer certains logiciels de base en interne, ce choix a-t-il été dûment justifié ? Certains grands centres informatiques ont fait le choix, en particulier dans les années soixante-dix et aux début des années quatre-vingt, de développer en interne certains logiciels de base : système de gestion de fichier, système d’exploitation, moniteur de télétraitement …Ces choix, qui entraînent parfois des charges de travail considérables, étaient alors justifiés par la nécessité de traiter des volumes d’information très importants avec des performances que n’offraient pas les logiciels de base disponibles sur le marché. Malheureusement, la maintenance de ces logiciels, généralement écrits en assembleur, s’est avérée au fil du temps de plus en plus complexe, incitant les responsables de ces centres à revenir à des outils standard, devenus entre- temps plus performants. Mais, là encore, la conversion fut souvent longue et délicate, compte tenu de ses conséquences sur les logiciels applicatifs. D’une manière générale, l’auditeur s’assurera qu’aucun logiciel de base n’est développé dans l’entreprise sans qu’aient été étudiés les progiciels offrant des fonctions similaires. Aujourd’hui, le développement de logiciels spécifiques importants devrait être tout à fait exceptionnel. On peut d’ailleurs se demander si les mêmes erreurs que par le passé ne sont pas à nouveau commises, lorsqu’on entend parler de grands groupes qui développent, par exemple, leurs propres logiciels de gestion de réseaux locaux.
  55. 55. 55 6 AUDIT DES MOYENS TECHNIQUES 6-1 DEFINITION Des moyens techniques comprennent les matériels, les locaux, les réseaux et les logiciels de base. a) Matériels • le matériel représente encore une part financière importante d’un système. Son choix est ultérieurement difficile à remettre en cause et son installation assez longue en général, aussi doit-il être étudié soigneusement. • Il comprend les processeurs, les matériels annexes de saisie et de restitution des informations, les supports physiques des fichiers, Dans les systèmes temps réel, en particulier industriels, il comprend aussi des éléments beaucoup plus particularisés, interfaces modes série (synchrone ou asynchrone) ou parallèle, des bus avec leurs protocoles, des capteurs passifs avec leurs conditionneurs, des capteurs actifs, des circuits d’adaptation, des amplificateurs (ordinaires, opérationnels, d’isolement, d’instrumentation, de puissance), des convertisseurs analogique-digital et digital-analogique, des actionneurs. Dans les réseaux, il y a bien entendu des lignes de transmission de débits variables (électriques, hertziennes, radio, optiques) avec leurs protocoles, mais aussi des matériels locaux : routeurs, multiplexeurs (spatiaux ou temporels), concentrateurs, diffuseurs ; et aussi les équipements terminaux de circuits de données, souvent appelés « modems », même s’il n’est pas question de modulation (transmission en mode de base). b) Locaux Ils sont essentiellement constitués par les bâtiments et leurs équipements annexes. Ils abritent les matériels informatiques.
  56. 56. 56 c) Réseaux • Un réseau est composé d’une partie matérielle gérée par un ensemble logiciel de gestion des protocoles, qui présente le même genre de contrainte temps réel qu’un système d’exploitation, et de routeurs, serveurs, concentrateurs et multiplexeurs qui sont des circuits électroniques analogues à des ordinateurs spécialisés. • Un réseau est en fait souvent un ensemble de réseaux, reliés par des passerelles, chacun devant être adapté à des échanges spécifiques d’informations soit de gestion interne, soit entre entreprises, soit industrielles. d) Logiciels de base Le logiciel de base représente une part croissante du coût d’un système, donc il conditionne la bonne utilisation. C’est toujours intrinsèquement un système temps réel, même s’il ne supporte pas d’application qui le soit. Il a une importance primordiale pour la sécurité des opérations, car il protège les ressources (mémoires, informations transmises), assure les redémarrages, et contrôle les accès. Accessoirement, il permet la comptabilité de l’utilisation des ressources. Il peut être reparti, et même sans temps absolu (multiprocesseurs, bases de données réparties) et partiellement câblé, malgré son nom. Le logiciel de base comprend essentiellement le système d’exploitation qui gère les processus, dont les siens, qui sont tous en compétition et en coopération à la fois. Il est fonctionnellement composé des sous-systèmes suivants : • noyau (qui attribue le processeur) ; • gestion de la mémoire interne (souvent virtuelle) ; • gestion des fichiers ou bases ; • gestion des entrées-sorties ; • gestion du réseau.
  57. 57. 57 6-2 OBJECTIFS DE L’AUDIT L’audit des moyens techniques a pour objectifs de : • S’assurer de la performance des équipements : disponibilité, fiabilité, positionnement chronologique tant sur le plan national qu’international dimensionnement état de fonctionnement, niveau d’utilisation et degré de satisfaction des utilisateurs évolutivité, adéquation aux besoins actuels et futurs de l’entreprise. • Evaluer le caractère fonctionnel et convivial, le niveau de sécurité d’accès et de protection des locaux qui abritent les équipements informatiques. • S’assurer de la performance des réseaux, de leur fiabilité, de leur sécurité et de leur adéquation à l’environnement informatique. • Evaluer la qualité des logiciels de base et s’assurer de leur adéquation avec les besoins de l’entreprise, en particulier des objectifs assignés au système d’information qu’ils supportent. 6.3. TRAVAUX D’AUDIT a) Audit spécifique des matériels 1. Le matériel est-il adapté aux applications à traiter et aux logiciels de base tant qualitativement (nature de ceux-ci, que quantitativement (volume et temps de réponse) ? Le choix du type de matériel (modes d’exploitation, réseaux, etc…) est une décision de gestion, car elle structure le système d’information.
  58. 58. 58 C’est le plan qui, ayant défini les applications, permet de déterminer le type des matériels (centralisé, distribué, reparti, multipostes, réseaux locaux et publics), et les modes d’exploitation (par lots - pour être ancien, ce mode reste parfaitement adapté dans de nombreux cas, dont souvent le traitement de la paye -, ou interactif). Un soin particulier doit être consacré à l’examen actuel et prévisionnel des conflits d’utilisation pour un système centralisé, et aux cohérences des informations pour un système réparti. Les temps de réponse, particulièrement dans les systèmes temps réel bien entendu, mais aussi les réseaux, doivent être étudiés attentivement, en général par simulation ou essais en vraie grandeur. Les goulets d’étranglement sont souvent les accès aux périphériques et aux réseaux. La définition des volumes dans les applications permet ensuite de déterminer la configuration proprement dite (taille des mémoires, type, nombre et capacités des périphériques, interfaces caractéristiques des liaisons). Les erreurs proviennent presque toujours d’un excès d’optimisme, et d’un manque de souci de l’évolutivité. La disponibilité du matériel et la rapidité de remise en fonctionnement sont des critères essentiels dans le choix des constructeurs. Il est important de vérifier leurs dires et de les consigner par contrat. Une maintenance préventive fréquente, des délais d’intervention brefs, des diagnostics faciles, voire automatisés, sont des facteurs positifs de disponibilité. Les statistiques de temps d’utilisation et d’entretien des enregistrements des pannes, composant par composant, permettent d’estimer leur homogénéité, leur disponibilité, et éventuellement de conclure à des causes permanentes d’inadaptation, comme l’atteinte d’un point d’écroulement à partir d’une certaine charge. 2. Qualité de la maintenance du matériel ? La maintenance matérielle s’apprécie en fonction des contrats et des relevés d’indisponibilité ; elle est préventive (entretien) et curative (remise en état). L’auditeur doit examiner les modalités d’appel, les délais d’intervention et ceux, qui peuvent être bien plus longs, de remise en état, les durées d’indisponibilité en résultant, l’inclusion de la main d’œuvre, des pièces, et des déplacements.
  59. 59. 59 La télémaintenance vise à une meilleure efficacité, mais demande comme toute connexion des précautions contre les accès indus : la ligne ne doit être établie que sur demande aux moments convenus, il suffit d’in interrupteur manuel, et si possible manœuvré seulement après retrait de tous les fichiers sensibles. Surtout dans les systèmes temps réels, cette maintenance matérielle n’est pas toujours facile à distinguer de la maintenance logicielle, surtout de celle du logiciel de base. D’où en particulier l’intérêt d’examiner les contrats de maintenance. Le choix des supports physiques des fichiers demande le même soin que celui des processeurs, car ils conditionnent le délai de l’analyse-programmation, et il ne faut surtout pas compter trop juste : les informations elles-mêmes n’occupent qu’une place réduite devant les logiciels, les tables d’index, les pointeurs, les zones de manœuvre et les zones mortes. De même, le débit de ligne est une notion physique, très supérieure au débit réel. L’évolutivité des objectifs, en quantité et en nature, implique que le matériel lui- même soit évolutif tout en restant bien adapté et modulaire (nombre de terminaux connectés par exemple). Le danger est d’approcher de la saturation, en volume ou en temps de réponse. Et, si le premier cas est assez facile à prédire, le second échappe à toute intuition car l’écroulement d’un système est très brutal pour un seuil donné, difficile à déterminer à priori. Il est bon de prévoir non seulement les extensions, mais aussi les rétractions (par exemple en cas de scission d’entreprise). L’adaptation aux logiciels de base et aux applications n’a pas pour critère l’optimisation, mais la relative indépendance des changements des uns ou des autres : une extension des applications ne doit pas remettre en cause le matériel, ni inversement une extension du matériel modifier profondément les applications. 3. Le matériel est-il fiable ? Quelle est la fréquence des pannes ? Et quel est l’impact réel des pannes ? Le matériel doit être fiable ; au sens des systémistes, cela signifie que s’il fonctionne, les résultats sont exacts ; c’est pratiquement toujours le cas, et sinon ils sont tellement aberrants que la détection ne pose guère de problème. Pour les ingénieurs, cela veut dire qu’il est disponible, qu’il n’y a pas de défaillance.
  60. 60. 60 L’impact réel des pannes ne peut être véritablement déterminé que si elles sont enregistrées, composant par composant, mesurées par incidence sur le fonctionnement d’ensemble, avec le moment de la défaillance et celui de la remise en état. Ce qui constitue un cahier des indisponibilités. b) Audit spécifique des locaux • Les locaux sont-ils adaptés et évolutifs ? Disposition logique des matériels, des stocks de fourniture, des circuits de déplacement et de portage, ergonomie des postes de travail, éclairage (y compris de secours) et insonorisation. • Sont-ils suffisamment protégés ? accès incendie etc.. c) Audit spécifique des réseaux Il couvre les aspects suivants : • examen des caractéristiques opérationnelles et des propriétés (nombre, nature, connexions, relations statiques et dynamiques) ; • examen des performances, ou plutôt de l’adaptation (temps de réponse, surtout pour un réseau temps réel ou industriel, débit, taux d’erreur, disponibilité) par collecte de statistiques, insertion éventuelle de compteurs ; • examen de la sécurité par recensement des menaces potentielles accidentelles ou délibérées (écoute, modification de messages, mascarade), et des parades (authentification, cryptage, certification), ainsi que la gestion des clefs et l’enregistrement des tentatives déjouées. ;
  61. 61. 61 • gestion des tests, pannes, modes dégradés, réparations et reprises composant par composant, puis détermination des goulots d’étranglement, en partant de l’historique. Les aspects relatifs à la sécurité des réseaux sont présentés plus en détail dans la section consacrée à l’audit de la sécurité. d) Audit spécifique des logiciels de base. Il couvre l’examen des aspects suivants : 1. Adaptabilité ? Un logiciel de base est adapté s’il permet une utilisation correcte du matériel, avec les langages et modes d’exploitation choisis, pour supporter les applications. 2. Evolutivité ? L’évolutivité impose une certaine transparence pour les applications qui reposent sur lui, étant donné qu’il ne peut y avoir de totale indépendance. Ainsi, un changement d’un de ses composants, éventuellement dicté par une évolution du matériel qu’il gère, ne doit pas entraîner une modification profonde des applications. 3. Homogénéité des composants du logiciel de base ? L’homogénéité des composants du logiciel de base signifie qu’ils doivent être adaptés à la configuration du matériel, mais aussi entre eux, avec les langages, avec les utilisateurs, les analystes-programmeurs et les opérateurs. Ce point est souvent décevant, même si le prestataire est unique. Par exemple, entre traducteur de langage, système de gestion de base de données, et comptabilisation des ressources consommées. 4. Fiabilité ? La fiabilité du logiciel de base, qui est toujours complexe car elle pose des problèmes de temps réel, est d’autant plus importante qu’elle est impénétrable par l’utilisateur, qui a beaucoup de peine à rectifier les conséquences d’anomalies. Or, elle n’est jamais parfaite, car un système temps réel peut être robuste, mais n’est jamais sans défaut, car quelle que soit leur dénomination, tous les logiciels de base sont des systèmes temps réel.

×