SCIENCES DE LA SOCIETE n° 61 – Février 2004
Les systèmes de gestion intégrés
Une modernité en trompe-l’œil ?
Patrick GILBE...
2
Ces situations nous montrent des décalages importants par rapport aux promesses des
éditeurs. On glisse insensiblement d...
3
Genèse des systèmes de gestion intégrés
Des objets techniques au système de gestion
En première approche, les SGI appara...
4
limitent pas à paramétrer l’outil pour l’adapter aux spécificités d’un contexte
d’organisation. Ils arrivent dans l’entr...
5
Baranger (1971), la première génération de systèmes MRP, conçue par IBM, remonte
aux années soixante. Les systèmes MRP, ...
6
Le mouvement qui a conduit de MRP à l’ERP est en fait un mouvement général de
recherche d’automatisation des traitements...
7
La différence entre des processus de gestion classiques et des processus utilisant un
PGI nous paraît du même ordre. Les...
8
d’initiatives décentralisées, comme par exemple l’action directe d’un réseau
commercial sur un ordonnancement de fabrica...
9
observation des éléments de processus antérieurs les plus efficaces, puis imposition
des processus ainsi sélectionnés pa...
10
ainsi accompli, au travers de deux graphiques synthétiques, que nous reproduisons ci-
dessous.
10
11
Modèle ancien, fondé sur une capacité de planification stratégique du sommet :
(γ) (β)
(α)
Produit/marché
Promotion,
pu...
12
12
imposés à la hiérarchie. Mais, ce faisant, ils limitent les possibilités de passage à un
schéma de type 2, fondé sur...
13
Au plan stratégique, les SGI, par leur caractère automatique, tendent à maintenir les
entreprises dans le schéma de l’u...
14
14
organisations du travail, nouvelles compétences, Actes du colloque du 19 janvier
1996, Ecole d’architecture de Marse...
15
Tomas J.-L. (1999). ERP et progiciels intégrés. La mutation des systèmes
d’information, Paris, Dunod.
Prochain SlideShare
Chargement dans…5
×

Syst gestion intégrés

259 vues

Publié le

Développement des ressources humaines

Publié dans : Recrutement & RH
0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
259
Sur SlideShare
0
Issues des intégrations
0
Intégrations
9
Actions
Partages
0
Téléchargements
4
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Syst gestion intégrés

  1. 1. SCIENCES DE LA SOCIETE n° 61 – Février 2004 Les systèmes de gestion intégrés Une modernité en trompe-l’œil ? Patrick GILBERT et Pierre LECLAIR* Au cours d’une précédente étude (Gilbert, Gillot, Gonzalez, Leclair, 2002), portant sur la mise en œuvre des progiciels de gestion intégrés (PGI), nous avons analysé la situation de six entreprises ayant mis en place plusieurs modules d’un PGI. Les secteurs concernés par cette étude sont : la chimie, la pharmacie, les transports, l’automobile (deux firmes) et l’aéronautique. Les domaines de la finance et de la comptabilité sont couverts dans tous les cas et, souvent également, le contrôle de gestion. Entreprise/secteur Effectif concerné Contexte de mise en œuvre Entreprise de transport 7 500 Environnement réglementaire de la profession incitant à une gestion plus commerciale - Refonte du système de gestion avec mise en place d’un contrôle de gestion + an 2000 et passage à l’euro Laboratoire pharmaceutique (filiale française d’un groupe allemand) 2 200 Imposé par l’actionnaire allemand. Décision du groupe Entreprise du secteur aéronautique 23 000 Décision de la direction générale et du comité de direction – volonté de réduction des coûts informatiques ; puis réduction des délais et décentralisation de certaines tâches Filiale d’un groupe automobile allemand 460 Mise en place d’un SI lors du rachat par le groupe allemand. Choix de SAP imposé par le groupe. Entreprise internationale chimique de produits de grande diffusion 10 000 Volonté de recentralisation des fonctionnements dans une entreprise où les sociétés ont une forte culture nationale. Choix de SAP fait par la maison-mère aux USA Constructeur automobile 170 000 Démarrage d’un grand projet pour le groupe + an 2000 * Respectivement Directeur d’études à Entreprise et Personnel, Directeur de recherche associé au Gregor (IAE de Paris) et Directeur d’études à Entreprise et Personnel.
  2. 2. 2 Ces situations nous montrent des décalages importants par rapport aux promesses des éditeurs. On glisse insensiblement du « tout intégré » à un « intégré modulaire » dont on met des années à mettre en place tous les modules (ce qui est en contradiction avec l’objectif d’intégration). Le constat est surprenant, pour qui s’en tiendrait à l’exigence de conformité avec le modèle « théorique » du système de gestion intégré et de ses vertus supposées :i) Loin d’instaurer le système informatique unique — les mêmes modules implantés ne produisent pas les mêmes effets —, le PGI préside parfois au foisonnement de micro-systèmes plus ou moins souterrains, destinés à assurer l’interface avec les applications existantes, ou à retrouver des informations ou des fonctionnements antérieurs à son implantation. ii) Dans tous les cas, les changements organisationnels qu’on peut attribuer « directement » à l’implantation du PGI sont minimes ou, en tout cas, de portée très inégale selon la fonction concernée. iii) Au-delà des facteurs qui ont suscité le choix d’un PGI, les objectifs ne sont pas toujours explicités au départ ou peuvent sembler très conjoncturels (passage de l’an 2000 et euro). Ils peuvent même changer au cours du déroulement du projet. IV) Bien que la finalité affichée soit économique, l’évaluation du coût complet de l’opération est rarement réalisée et on ne sait pas chiffrer la rentabilité de l’opération (on parle de gains de fluidité et disponibilité de l’information, de délais…).v) Les rigidités incluses dans les PGI ont pu conduire à l’échec de grands projets transversaux aux fonctions de la firme, pourtant a priori leur domaine de prédilection. Les SGI se sont en effet révélés incapables de prendre en compte de manière opérationnelle (c’est-à-dire dans des délais compatibles avec la conduite des opérations quotidiennes) la spécificité des problèmes réels concrets des entreprises complexes d’aujourd’hui. En définitive, il apparaît que, comme le soulignent les investigations de deux ingénieurs des mines, « ces progiciels de gestion intégrés promettent de grands progrès pour le management et la compétitivité des entreprises. Mais leur mise en place est semée d’embûches et ne débouche pas toujours sur le paradis escompté » (Mourlon et Neyer, 2002). Les problèmes rencontrés sont sans doute pour partie imputables aux faiblesses de l’outil (Lemaire, 2003). Mais au-delà de la dimension technologique, dont les éditeurs ne cessent de nous rappeler que le meilleur est à venir, ne faut-il pas mettre plutôt en avant la faiblesse du modèle organisationnel qu’ils véhiculent ? Pour proposer une interprétation des décalages ainsi constatés, nous commencerons par préciser la notion de « système de gestion intégré », que nous préférons à celle, un peu trop strictement instrumentale, de progiciel intégré, et par rappeler les conditions historiques et les présupposés conceptuels des concepteurs de ces systèmes. Nous mettrons ensuite en évidence des rigidités incluses, par construction, dans ces SGI, rigidités d’ordre cognitif dont nous illustrerons les conséquences dans le domaine de l’organisation. Nous montrerons enfin combien ces SGI véhiculent une pensée stratégique datée, au risque de freiner des évolutions souhaitables dans les conditions actuelles de la compétition économique. 2
  3. 3. 3 Genèse des systèmes de gestion intégrés Des objets techniques au système de gestion En première approche, les SGI apparaissent comme des objets techniques et des produits. De fait, on parle plus souvent de PGI (progiciel de gestion intégré) ou d’ERP (Enterprise Resource Planning) que de SGI. Nous démarquant du discours technique moderniste, nous justifierons l’appellation de « SGI » (système de gestion intégré) en montrant que ce qui est en question va bien au-delà des caractéristiques intrinsèques de l’outil qu’on aurait tort de considérer seules. Printz (2000) distingue, dans l’industrie du logiciel, deux grandes catégories de produits : • • les produits logiciels (ou progiciels), dans lesquels figurent les applications bureautiques (tableurs, traitements de texte, etc.), les applications de gestion, les moteurs de recherche, etc., qui assurent à titre principal une fonction. Ces progiciels s’exécutent sur une grande variété de systèmes d’exploitation et ont vocation à être distribués en très grand nombre ; les systèmes informatisés (ou systèmes), qui intègrent un grand nombre de fonctions et d’équipements divers et variés, de différentes puissances, en un tout cohérent que l’acquéreur paramètrera ou programmera, éventuellement à l’aide de progiciels. Dans cette catégorie on trouvera tous les systèmes d’exploitation, les systèmes d’information des entreprises, les systèmes industriels de contrôle- commande, les environnements de programmation, etc. Les progiciels de gestion intégrés, tels que ceux proposés par les éditeurs SAP, Baan, PeopleSoft ou Oracle, entrent dans cette seconde catégorie1 . Il s’agit de « systèmes » justifiant particulièrement l’appellation d’intégrés puisqu’ils couvrent une large partie du système d’information de l’entreprise, visant à gérer de manière coordonnée et interdépendante l’ensemble des ressources de l’entreprise. Ils disposent d’une architecture modulaire permettant de composer, « à la carte », un système de gestion, en s’appuyant sur une base de données relationnelle et une base de processus adaptée aux spécificités du pays (langue, réglementation) et, théoriquement, adaptable par paramétrage à l’entreprise, à ses métiers et à ses modes de fonctionnement2 . L’un des arguments qui président à leur diffusion est qu’ils s’appuient sur une capitalisation des processus « les plus performants » : les fameuses « best practices », version modernisée du non moins fameux « one best way », diffusant des cadres de pensée et de gestion uniformes qui s’intègrent bien dans la conception de la nouvelle économie, présentée par Gadrey (2000), comme une mythologie néo-technico-libérale. Le système informatisé n’est sans doute pas à lui seul le système de gestion intégré, mais sa mise en place s’inscrit dans cette ambition. La complexité du déploiement d’un PGI est telle que les éditeurs en délèguent la charge à des sociétés de service en informatique, qu’on appelle précisément des « intégrateurs ». Ces derniers ne se 1 Dans le rapport du Club Informatique des grandes entreprises françaises (CIGREF), Retours d’expérience ERP, diffusé en septembre 1999, SAP est présent dans 7 des 10 expériences relatées et Baan dans 2 expériences (la dixième expérience concerne Axa qui fait état d’ERP différents selon les pays et les filiales). 2 Actuellement, les éditeurs développent des versions par métiers ou par secteurs de leurs progiciels.
  4. 4. 4 limitent pas à paramétrer l’outil pour l’adapter aux spécificités d’un contexte d’organisation. Ils arrivent dans l’entreprise avec leur méthodologie de projet et de conduite de changement, leur conception du rôle joué par la technologie dans le fonctionnement de l’organisation et, au-delà, avec un concept global de management (Mourlon et Neyer, 2002). En fait, acquérir un PGI et les services qui en assurent le déploiement, c’est aussi adopter — implicitement ou explicitement — une représentation de l’organisation et de ses modalités de transformation (le change management des intégrateurs). La notion de système de gestion intégré (SGI) est donc plus vaste que celle de PGI. Elle renvoie à un ensemble articulé de processus interdépendants (production, administration des ventes, comptabilité…) permettant la réalisation des objectifs de l’entreprise avec un maximum d’efficacité. Aussi, dans la suite du texte, parlerons- nous de « SGI » pour désigner cet ensemble et de « PGI » (ou d’ERP) pour désigner le progiciel stricto sensu, objet technique et produit, qui n’en est que l’une des composantes. Parmi ces PGI, notre investigation s’est limitée aux plus répandus d’entre eux (SAP, Oracle, PeopleSoft, Baan), à l’exclusion d’outils davantage spécialisés tels ceux qui entendent modéliser la relation aux clients (CRM), les cycles de vie des produits (PLM) ou encore le fonds de connaissances d’une entreprise (KM). Ces définitions posées, commençons par rappeler les attendus et le contexte dans lesquels ces systèmes sont apparus. De MRP à SAP : la quête du Graal de l’intégration Si la notion de progiciels de gestion intégrés paraît nouvelle, la notion d’intégration informatique, elle, ne date pas d’hier ; elle constitue un sujet d’intérêt pour les spécialistes depuis une quarantaine d’années (Alsène, 1994). Les systèmes intégrés d’information de gestion (Management Information Systems) sont nés du constat que des applications individuelles développées isolément deviennent incohérentes si des mécanismes d’intégration ne sont pas réalisés : les mêmes données auront des appellations et des valeurs variables selon les applications et on court le risque de duplication et d’incohérence (c’est cette nécessité qui a donné naissance aux bases de données relationnelles). L’intégration informatique peut être accomplie selon trois grandes modalités qui se sont succédé au cours de l’histoire. La première conception, qui s’est développée dès la fin des années cinquante, visait l’alimentation par les différents programmes d’une base de données centrale et unique pour toute l’entreprise. Au fur et à mesure de la poussée de l’informatisation, cette conception est devenue moins crédible. L’idée est alors venue de systèmes modulaires devant desservir à terme toutes les fonctions de l’entreprise. Puis, l’informatisation progressant encore dans les différents secteurs de l’entreprise, il s’est agi d’intégrer les systèmes en place, en créant entre eux des interfaces ou des bases de données partagées entre plusieurs applications. Dans les années soixante et soixante-dix, les premiers logiciels font leur apparition. Il s’agit essentiellement d’applications de comptabilité et de gestion des approvisionnements (MRP1). Ces logiciels spécifiques ne sont pas « portables », c’est-à-dire qu’ils dépendent du type d’ordinateur et du système d’exploitation. Selon 4
  5. 5. 5 Baranger (1971), la première génération de systèmes MRP, conçue par IBM, remonte aux années soixante. Les systèmes MRP, fondés sur l’idée que la gestion de production devrait permettre de planifier les besoins de la production de manière centralisée, sont formalisés par Orlicki en 1975 (cf. Orlicki et Plossl, 1994). On distingue d’abord le MRP1 (Material Requirements Planning), ensemble de logiciels modulaires traitant des problèmes de planification à court terme de la production (gestion des nomenclatures et des gammes d’opérations, gestion des commandes- clients, gestion des stocks, planification des besoins, achats et ordonnancement et suivi de la production, calcul des coûts). Puis vient le MRP2 (Manufacturing Resource Planning) qui lui ajoute des préoccupations à moyen terme (planification de la capacité de production, investissement et budget). La saga de SAP, l’ERP le plus vendu au monde, commence à cette époque. En s’appuyant sur les idées mises de l’avant par Fayol et Urwick, cinq anciens employés d’IBM ont fondé ensemble « Systems Analysis and Program Development » (SAP) le 1er avril 1972. En 1975, ils ont changé leur nom pour « Systems, Applications and Products in Data Processing » pour mieux représenter les produits de leur compagnie. Leur vision était de développer un logiciel qui permettrait d’intégrer les processus de l’entreprise et d’assurer l’entretien et le support de ses données dans un environnement en temps réel. Aujourd’hui, SAP est le logiciel d’intégration le plus utilisé du marché. Son histoire est faite de succès et d’expansion. La croissance de cet éditeur de progiciels est assurée par la sortie de nouveaux produits adaptés plus spécifiquement aux différents secteurs industriels. Il ne semble pas y avoir de nuage à l’horizon pour SAP, qui s’est engagé à développer des produits qui rendront le processus d’implantation de son système plus facile, plus rapide (avec le développement de ASAP) et donc moins coûteux pour l’entreprise utilisatrice. Le développement continu du produit durant les années soixante-dix a permis à SAP de croître autant sur le plan local que sur les marchés internationaux. En 1978, le développement du module de comptabilité et de finance a permis d’offrir un produit plus complet. De plus, l’apparition des ordinateurs centraux (mainframes) a permis à SAP de lancer, en 1979, son logiciel de plate-forme R/2 conçu pour fonctionner sur un mainframe. Ce logiciel a rencontré divers problèmes dus à l’espace disque très restreint de ces nouveaux ordinateurs centraux, dont la capacité de stockage ne dépassait pas 500 kilobytes. Vers la fin des années quatre-vingt, SAP est devenue tellement populaire en Allemagne que 50 des 100 plus grandes entreprises de ce pays étaient des clients. En 1993, SAP R/3 réalise l’intégration de toutes les composantes d’une entreprise, de la finance à la production, aux ventes et aux ressources humaines… La même année, Microsoft et SAP se sont entendus pour installer R/3 sur Windows NT. Sa structure informatique client-serveur en réseau et sa portabilité complète seront une grande raison de son succès. En 1996, R/3 s'ouvre à l'Internet et va permettre aux entreprises clientes d'interconnecter les systèmes d'information de l'ensemble de leurs filiales pour les relier au système SAP central. Les ERP sont maintenant présents dans l’industrie et dans la grande distribution, essentiellement dans les très grandes entreprises. Le marché des plus petites entreprises, le domaine de la finance et le secteur public commencent à être touchés.
  6. 6. 6 Le mouvement qui a conduit de MRP à l’ERP est en fait un mouvement général de recherche d’automatisation des traitements de l’information dans chaque fonction de l’entreprise. L’extension progressive de l’automatisation de chaque fonction a multiplié les besoins d’interfaçage, puis créé des zones de partage de données, voire de partage de fonctions. On assiste alors à une recherche d’intégration de ces fonctions, et à l’avènement de l’ERP, réponse industrielle visant à maîtriser les besoins d’intégration croissante des fonctions. Mais la complexité des solutions renforce la nécessité de maîtriser les processus de gestion eux-mêmes, et pas uniquement les échanges de données informatisées. D’où l’importance prise par la définition des principaux processus transverses à l’entreprise et par la maîtrise de ces mêmes processus traversant l’entreprise vers ses fournisseurs et ses clients, et finalement sur l’ensemble de la chaîne logistique. Le SGI apparaît comme l’aboutissement d’une quête du « tout informatique ». Non seulement les PGI se situent dans une continuité technologique visant à établir une sorte de prêt-à-porter informatique, mais il s’inscrivent aussi dans une continuité de conception organisationnelle, inspirée par la logique de production industrielle (Lemaire, 2003). Cette quête du tout intégré s’oppose à une autre tendance visant l’élaboration d’architectures logicielles ouvertes, combinant des applications informatiques venant d’éditeurs différents, ce que ne permet évidemment pas le choix d’un PGI imposant un seul et même éditeur (Tomas, 1999). Elle ne va pas sans conséquences, comme nous allons le voir maintenant. Des rigidités cognitives cachées Une conséquence du « tout intégré » : des rigidités cognitives cachées Nous risquerons ici une analogie entre les PGI dans leur propos de modélisation des processus de la firme et la CAO dans son objet d’aide à la conception. Béguin (1996) montre, dans ce dernier cas, la différence entre une conception traditionnelle et une conception en CAO. Dans le premier cas, chaque projeteur prescrit à ses collègues le résultat de son travail et lui seul. En architecture, par exemple, le projeteur qui a conçu le gros-œuvre d’un immeuble ne contraint celui qui étudie le passage des canalisations que par le résultat de son travail de conception : le plan qu’il lui remet, indépendamment de la façon dont lui-même y est parvenu. Avec la CAO, le projeteur « gros-œuvre » prescrit au projeteur « canalisations » à la fois le résultat de son activité de conception et les modalités particulières qu’il a choisies pour celle-ci : les fichiers intermédiaires utilisés par lui, lesquels fixent une certaine vision de l’objet (le bâtiment) en cours d’étude. Et, bien entendu, si le projeteur qui s’intéresse avant tout aux volumes habitables a découpé ses fichiers selon cette logique, celui qui cherche à faire cheminer les canalisations va se heurter à des difficultés pratiques, comme celle de devoir basculer sans cesse entre deux fichiers pour vérifier le franchissement d’un mur. Ainsi, « la réalisation […] conduisait à ce que chaque utilisateur devienne potentiellement un prescripteur problématique des conditions et des moyens de raisonnement de ses collègues » (Béguin, 1997). 6
  7. 7. 7 La différence entre des processus de gestion classiques et des processus utilisant un PGI nous paraît du même ordre. Les premiers permettent à chacun de ne fournir aux autres que des données, des résultats, les « autres » demeurant libres d’organiser le réel comme ils l’entendent. Les PGI, à l’inverse, sont porteurs de prescriptions mutuelles de découpages implicites. Bironneau et Martin (2002) illustrent ceci par l’exemple des nomenclatures de production : « La décomposition d’un produit en plusieurs composants n’est pas interprétée de la même manière par le bureau des études, les méthodes, la fabrication, le service commercial ou la gestion de production et des stocks ». Les difficultés liées à cet exemple sont récurrentes dans les applications que nous avons été amenés à suivre. Aussi le risque est-il grand que les découpages implicites retenus par les concepteurs du PGI, même « paramétrés » par l’un des utilisateurs, ne correspondent vraiment aux besoins spécifiques d’aucune des divisions de l’entreprise. Les commerciaux de SAP, PeopleSoft, etc. justifient l’acquisition de leur PGI par la rationalisation qu’apporte, selon eux, l’introduction en un point et par un agent uniques d’une même donnée. Mais, à étudier les usages réels, on est fondé à se demander si le résultat n’est pas plutôt l’adoption par tous d’une fiction unique. Les données, les chercheurs en gestion l’ont mis en évidence depuis des dizaines d’années (Berry, Moisdon, Riveline, 1979 ; Berry, 1983 ; Riveline, 1990), ne sont pas des faits objectifs, des images fidèles du réel. Elles incluent toujours un type de vision de ce dernier, dépendant de l’observateur. Un coût n’est guère plus qu’une convention liée à un système de comptabilité, une nomenclature qu’un découpage propre à l’usage de celui qui l’a imaginée, un effectif qu’une manière de décrire des catégories (par ex : productifs et improductifs). En occultant le point de vue de celui qui saisit une fois pour toutes la fragile « donnée », le PGI dissimule la variété des grilles spécifiques d’interprétation. Leur uniformisation, sous l’apparence d’un bon sens rationalisateur, peut se révéler destructrice de la richesse d’interprétations, constitutivement divergentes mais conjointement nécessaires pour maîtriser la complexité d’un réel multiforme. Un modèle d’organisation implicite : le taylorisme externalisé Parmi les rigidités cognitives, prescriptions cachées au sein de systèmes aussi anciens dans leur socle fondateur que sont les SGI, il existe une catégorie particulière : celle que les aînés, concepteurs des systèmes, ont léguées à leurs descendants, les utilisateurs contemporains. Elles concernent, entre autres, les structures de l’entreprise. Dans les années soixante-dix, les concepteurs d’un PGI comme SAP pouvaient difficilement échapper à une vision strictement pyramidale de l’organisation. Leurs références intellectuelles, Fayol et Urwick, les renforçaient dans une norme simple : celle des rattachements hiérarchiques linéaires emboîtés. Aujourd’hui encore, les utilisateurs de ces PGI éprouvent les plus grandes difficultés à faire « entrer » dans le système des découpages structurels multiples. Qu’un même stock décentralisé alimente des pays aux réseaux commerciaux disjoints ne peut être pris en compte qu’à la faveur de traitements bien complexes. Dans un système pyramidal, les découpages territoriaux sont les mêmes pour toutes les activités de l’entreprise ! Des structures matricielles, avec rattachements multiples et évolutifs, semblent également étrangères aux conceptions de ces PGI. Quant à la possibilité
  8. 8. 8 d’initiatives décentralisées, comme par exemple l’action directe d’un réseau commercial sur un ordonnancement de fabrication déjà calculé, pour privilégier une commande qu’il juge prioritaire, elle est des plus réduites et doit emprunter des chemins fort détournés. Ces quelques exemples — chacun y ajoutera facilement les siens — démontrent l’adaptation des SGI à des structures classiques, figées, « rationnelles ». Au point qu’on est en droit de se demander si l’existence (ou la survie) de telles structures héritées des « trente glorieuses » ne constitue pas un préalable à l’utilisation efficace de ces PGI. Au point même, peut-être, que ces mêmes PGI pourraient constituer, dans certains cas, une incitation au retour à des structures emboîtées linéaires centralisées. De Taylor aux SGI en passant par le reengineering, le benchmarking et autres catalogues de bonnes pratiques, une même logique anime les gestionnaires à différents stades de leur histoire : celle de la codification et de l’imposition de ces bonnes pratiques. Rappelons les actes successifs de la pièce. Acte 1 : du système des métiers à l’organisation scientifique du travail Le système des métiers reposait sur des professionnels détenteurs des savoirs autonomes nécessaires à la réalisation de leurs tâches. Il a survécu dans les « bureaucraties professionnelles » chères à Mintzberg (1982). La conséquence de cet état de fait est une grande hétérogénéité des rendements. On sait que c’est précisément la « flânerie ouvrière » que Taylor se proposait de combattre. Une observation des pratiques des ouvriers professionnels, dûment codifiée par un bureau des méthodes, lui permet de sélectionner, parmi ces pratiques, les plus efficaces, de les transcrire dans des gammes de fabrication imposées à des ouvriers spécialisés auxquels on ne demande plus de détenir des savoirs professionnels. Le rôle des agents de maîtrise est de contrôler le respect par les ouvriers des procédures ainsi définies, de façon à garantir un rendement stable, aligné sur les meilleures performances du système antérieur. Une organisation utilisant des travailleurs substituables, banalisés, interchangeables, en remplace donc une autre fondée sur les compétences d’un corps de professionnels. Elle renonce à des rémunérations reconnaissant les différences inter-individuelles (le « système initiative-récompense », vigoureusement dénoncé par Taylor lui-même) au profit d’un système rigide de qualification des postes de travail : avant de constituer un slogan syndical, « à travail égal salaire égal » est le fondement du système de rémunération de l’OST. Enfin, un système de production à base de collectifs professionnels forts (et malthusiens…) cède la place à une atomisation des collectifs. En termes d’apprentissages, la révolution de l’OST se traduit par une internalisation : la direction de l’entreprise s’est approprié les anciens savoirs des métiers. Certes, les détenteurs de ces savoirs (les bureaux des méthodes) sont désormais distincts de ceux qui ont à les mettre en œuvre, le travail est divisé entre sa conception et son exécution, mais au moins les savoirs sont-ils passés dans l’entreprise. Acte 2 : le reengineering des processus Les gestionnaires des années quatre-vingt ont eu l’idée d’appliquer les principes de l’OST non plus aux tâches élémentaires mais aux grands processus de l’entreprise. La démarche est la même dans son principe : analyse ex ante des processus issus de l’histoire, redéfinition et codification de nouveaux processus sur la base d’une 8
  9. 9. 9 observation des éléments de processus antérieurs les plus efficaces, puis imposition des processus ainsi sélectionnés par l’action conjointe de l’encadrement et des systèmes d’information (reporting). Ce qu’on appelait encore, tant par nostalgie que par analogie, les « métiers » de l’entreprise disparaît au bénéfice de processus rationalisés. Les apprentissages sont encore internes : la direction qui orchestre le re- engineering engrange des savoirs tacites précédents en matière d’organisation. A la différence de la mise en place de l’OST, la lutte pour la fonction de chef d’orchestre a été beaucoup plus ouverte, parfois — rarement — ce fut la direction des méthodes, plus souvent la qualité ou l’ordonnancement, dans d’autres cas encore le contrôle de gestion ou l’informatique. Cette lutte est sans doute à l’origine de certains des nombreux déboires ressentis lors des opérations de re-engineering. Acte 3 : l’adoption d’un PGI L’éditeur d’un PGI repère, secteur par secteur, les meilleures pratiques dans un panel d’entreprises. Il se livre donc à une activité du même type que le benchmarking en vogue dans les grandes firmes depuis quelques années. Il codifie ensuite ces pratiques de gestion dans les standards de son outil informatique. Lorsqu’une entreprise fait l’acquisition du PGI, elle achète en même temps les pratiques ainsi codifiées. Elle accepte donc de se voir imposer, via l’outil, les procédures et les processus retenus par les concepteurs du PGI, quitte à modifier pour cela ses façons de faire antérieures. D’une certaine façon, le PGI réussit la synthèse de l’OST pour la micro-organisation et du re-engineering pour les processus. Il constitue donc l’accomplissement de la prophétie de Lutz et Hirsch-Kreinsen (1988) : l’avènement du taylorisme assisté par ordinateur. Mais une grande différence surgit dans le domaine des apprentissages : alors que, tant dans l’OST que dans le re-engineering, les savoirs procéduraux nouveaux étaient internes à l’entreprise, ils lui sont désormais externes. Avec le PGI, c’est d’abord l’éditeur qui apprend, quitte à en faire bénéficier ses clients par l’intégration instrumentale de ces nouveaux savoirs procéduraux. Si taylorisme il y a bien, c’est maintenant un taylorisme externalisé. Une pensée stratégique datée Avec leurs fondements conçus il y a déjà trente ans, avec leurs rigidités cognitives incluses, les SGI véhiculent aussi des conceptions de la stratégie d’entreprise qui ne sont plus vraiment d’actualité. Rappelons brièvement les évolutions de la pensée en cette matière pendant les trente dernières années. On sait que la réflexion stratégique a dû beaucoup rabattre, à la fin du XXe siècle, de ses ambitions précédentes. De l’idéal d’une capacité de planification des marchés depuis le sommet de la firme, elle est revenue, plus modestement, à une capacité de réponse aux fluctuations imprévisibles de ces marchés. Cette douloureuse révision est interprétée par les économistes comme le reflet des conditions de la compétition : ainsi Cohendet et Llerena (1990) décrivent les transitions successives d’une économie de production de masse à une économie de la variété puis de la réactivité. Partant de prémisses différentes, Salais et Storper (1993) parlent de transition d’un monde possible industriel à un monde possible marchand, pour de nombreuses grandes entreprises contemporaines. Il revient à Navarre (in ECOSIP, 1993) d’avoir stylisé le mouvement
  10. 10. 10 ainsi accompli, au travers de deux graphiques synthétiques, que nous reproduisons ci- dessous. 10
  11. 11. 11 Modèle ancien, fondé sur une capacité de planification stratégique du sommet : (γ) (β) (α) Produit/marché Promotion, publicité et distribution de masse Sommet stratégique H Production en masse Contrôle hiérarchique à la périphérie La direction gère en direct, dans ce modèle des années 1960-1970, le rapport α de la firme à l’environnement, dont elle prévoit avec précision les évolutions futures : c’est le rôle des services centraux de planification stratégique. Il ne reste plus dès lors à la hiérarchie H qu’à accorder le futur réel au futur prévu. Les hiérarchiques des entités réalisent ces prévisions dans le cadre de règles procédurales γ définies a priori par la direction pour toute l’entreprise. Leur autonomie β vis-à-vis des marchés est des plus limitées (flèche en pointillés du graphique 1). Modèle actuel, fondé sur une capacité de réaction aux fluctuations des marchés : (γ) (β) Recherche d’un rapport au client complètement singularisé (le produit qu’il désire, au prix qu’il désire, au moment où il le désire, dans les quantités qu’il H Pouvoir maximum à la périphérie et organisation en hiérarchie horizontale (par exemple le Kanban) La périphérie a une grande autonomie et le contrôle direct du rapport au marchéContrôle, fin, subtil et léger de la périphérie Allègement ême du cen stratégique ramené aux fonctions extr tre indispensables L’éclatement des marchés en sous-segments de plus en plus nombreux, l’apparition des nouveaux compétiteurs et l’évolution des conditions de la concurrence ne permettent plus de centraliser de façon correcte les décisions des unités. La planification stratégique n’est plus capable, sauf dans quelques rares entreprises à cycles très longs et à marchés encore protégés, de fournir une vision opératoire du futur. La chaîne de décision doit donc être inversée. Ce sont les responsables des unités décentralisées (symbolisés par un triangle renversé, pour les distinguer de l’ancienne hiérarchie de contrôle) qui peuvent seuls entretenir et gérer la relation β avec des marchés dont on constate, sans pouvoir les prévoir ni a fortiori les mettre sous contrôle, les fluctuations. La direction n’exerce sur eux qu’un contrôle léger, γ (flèche en pointillés), essentiellement par les résultats. Les SGI, conçus à l’époque de la planification stratégique, se sont « naturellement » inscrits dans le schéma n° 1, qu’ils ont dès lors contribué à modéliser. Ils ont codifié, en l’unifiant et en la renforçant, la relation γ, ensemble des procédures et processus
  12. 12. 12 12 imposés à la hiérarchie. Mais, ce faisant, ils limitent les possibilités de passage à un schéma de type 2, fondé sur les capacités de réaction β. Les rigidités d’ordre cognitif que nous relevions plus haut brident encore un peu plus cette autonomie de la périphérie, à laquelle la direction demande paradoxalement de penser de manière autonome les relations avec l’environnement en utilisant des catégories uniformes tacitement porteuses d’une vision stratégique héritée d’un passé révolu. Ainsi, les SGI risquent de constituer un frein objectif à des évolutions stratégiques pourtant nécessaires et au demeurant proclamées par les directions. Quelle peut être la sortie de cette contradiction ? Pas, au moins dans un premier temps, le renoncement aux SGI, encore perçus comme un symbole — sans doute trompeur, nous l’avons vu — de modernité. Encore moins un retour à une impossible vision fondée sur une planification centralisée. La sortie probable est plus pragmatique et plus décevante : ce sera la sous-utilisation des SGI. Il doit être possible de faire tourner ces énormes programmes à des niveaux d’agrégation tels qu’ils laissent de nouveau des possibilités aux unités décentralisées d’affronter avec les catégories mentales voulues les formes spécifiques de la compétition économique qui sont les leurs. L’entreprise aura toujours un SGI… mais bien luxueusement surdimensionné au regard du modeste reporting auquel il sera désormais consacré. Ainsi, dans les exemples que nous avons étudiés, les nouvelles applications informatiques sont bien loin d’avoir honoré les promesses de leurs éditeurs. Le pourron-elles d’ailleurs un jour ? D’une certaine manière, les SGI demeurent une sorte de mythe. Ce type de scénario n’est même pas nouveau. Les grosses machines de MRP, elles-mêmes prototypes des futurs systèmes de gestion intégrés, ont dû subir le même sort dans des entreprises qui mettaient en place, au même moment, des organisations de travail de type équipes opérationnelles de base, modules autonomes, etc. Il y avait contradiction entre le type d’information véhiculé, essentiellement dans un sens « remontant », par le MRP et l’autonomie, la responsabilité dévolues aux équipes. Mais les MRP étaient si modernes pour des industriels… Alors on a fait semblant, en les utilisant, un peu en trompe-l’œil, à très grosses mailles (temps nécessaire pour une gamme complète et non plus pour une opération élémentaire, etc.). Et les apparences furent sauves. Des systèmes qui arrivent trop tard ? Les SGI poursuivent la quête d’une rationalisation intégrale des fonctionnements de l’entreprise. Ils poussent à sa limite, un siècle plus tard, avec les fabuleuses capacités de calcul maintenant disponibles, le projet taylorien d’une optimisation généralisée. Et ce projet fait encore rêver plus d’un dirigeant, forgé qu’il a été lui-même à la rationalité telle que lui ont enseignée les grandes écoles fréquentées dans sa jeunesse. Pourtant, les SGI arrivent trop tard. Ils auraient sans doute constitué, s’ils avaient été disponibles à temps, un puissant outil d’amélioration des économies administrées comme celle de la défunte URSS, avec une planification d’Etat, des structures simples et des décisions centralisées. Mais ils posent, dans les économies d’inspiration libérale d’aujourd’hui, toute une série de problèmes : ils freinent des évolutions que disent souhaiter les dirigeants.
  13. 13. 13 Au plan stratégique, les SGI, par leur caractère automatique, tendent à maintenir les entreprises dans le schéma de l’usage de compétences banales substituables, les agents pouvant se contenter de mettre en œuvre les processus et les procédures codifiées par les éditeurs. Ils n’invitent pas à franchir le pas des stratégies fondées sur les ressources (Pralahad, Hamel, 1995), de la diffé-renciation compétitive liée à la détention de compétences spécifiques. Au plan des structures, les SGI poussent à conserver ou à retrouver des découpages simples et emboîtés. La codification des structures dans le PGI représente l’un des « paramétrages » les plus lourds lors de la mise en œuvre. Aussi les responsables de la firme hésiteront-ils, par la suite, à créer des structures ad hoc ou à modifier en profondeur les structures de l’entreprise. Le SGI a donc un double pouvoir paralysant : incitation à des structures pyramidales et dissuasion de toute évolution significative, alors qu’une partie de la compétition se joue et se jouera sur la capacité à inventer des nouvelles formes structurelles. Au plan des décisions, les SGI renforcent la capacité de contrôle des unités par la direction, bridant par là même l’autonomie de la périphérie au contact de l’environnement. Optimisant des procédures de décision dans un monde plutôt figé où l’amélioration des coûts constitue le moteur premier de la compétition, les SGI s’adaptent plus difficilement à une économie de réactivité et de flexibilité où jouent simultanément les coûts, la qualité, les délais et l’innovation. Une telle économie a moins besoin de réponses optimisées que de réponses rapides, même sous-optimales : ce n’est pas le meilleur qui y gagne, mais le premier à bouger. Au plan de l’organisation du travail, les SGI parachèvent la division entre conception et exécution, alors que, pour faire face aux aléas et pour s’assurer de l’engagement de tous les agents, les entreprises font plus que jamais appel à l’initiative de leurs salariés, laquelle suppose une division du travail assouplie. Au total, les SGI constituent, vingt ans plus tard, une illustration quasi parfaite de la « technologie invisible » décrite par Berry (1983). Loin d’être « des auxiliaires discrets et fidèles du pouvoir », ils « engendrent souvent mécaniquement des choix et des comportements échappant aux prises des volontés des hommes, parfois même à leur conscience ; ils conduisent ainsi les organisations dans des directions voulues parfois par personne et les rendent même rebelles aux efforts de réforme ». Références bibliographiques Alsène E. (1994). « L’intégration informatique de l’entreprise et la transformation des organi-sations », Revue Internationale du Travail, vol. 133, n°5-6. Baranger P. (1971). Comment réussir votre gestion des stocks sur ordinateur, Paris, Ed. d’Orga-nisation. Béguin P. (1996). « De la complexité du problème à la complexité entre individus dans les nouvelles stratégies de conception », in Lebahar J.-C. (ss la dir. de), La création industrielle : nouveaux systèmes d’aide à la conception, nouvelles
  14. 14. 14 14 organisations du travail, nouvelles compétences, Actes du colloque du 19 janvier 1996, Ecole d’architecture de Marseille. Béguin P. (1997). « L’activité de travail : facteur d’intégration durant les processus de con-ception », in Bossard P., Chanchevrier C., Leclair P. (ss la dir. de), Ingénierie concourante : de la technique au social, Paris, Economica. Berry M. (1983). Une technologie invisible ? L’impact des instruments de gestion sur l’évolution des systèmes humains, Paris, Ecole Polytechnique. Berry M., Moisdon J.-C., Riveline C. (1979). « Qu’est-ce que la recherche en gestion? », Informatique et gestion, septembre-octobre. Bironneau L., Martin D.-P. (2002). « Modélisation d’entreprise et pratiques de management implicitement liées aux ERP : enjeux conceptuels et études de cas », Finance, contrôle, stratégie, vol. 5, décembre. Cohendet P., Llerena P. (1990). « Nature de l’information, évaluation et organisation de l’entre-prise », Revue d’économie industrielle, n° 51, 1er trimestre. Gadrey J. (2000). Nouvelle économie, nouveau mythe ?, Paris, Flammarion. Gilbert P., Gillot C., Gonzalez D., Leclair P. (2002). « Progiciels de gestion intégrés : des chan-gements à conduire », rapport d’étude, Entreprise & Personnel, juin. Lemaire L. (2003). Systèmes de gestion intégrés : des technologies à risques ?, Paris, Liaisons. Lutz B., Hirsch-Kreinsen H. (1988), « Thèses provisoires sur les tendances actuelles et futures de la rationalisation du travail industriel », in Cohendet et al. (ss la dir. de), L’après-taylorisme, nouvelles formes de rationalisation dans l’entreprise en France et en Allemagne, Paris, Economica. Mintzberg H. (1982). Structure et dynamique des organisations, Paris, Ed. d’Organisation. Mourlon S., Neyer L. (2002). « ERP : la quête périlleuse d'Eldorado », La gazette de la société et des techniques, Les Annales des Mines, n° 16, septembre. Navarre C. ( 1993). « Pilotage stratégique de la firme et gestion des projets : de Ford et Taylor à AGILE et I.M.S. », in ECOSIP (ss la dir. de V Giard et C Midler), Pilotages de projet et entreprises, diversités et convergences, Paris, Economica. Orlicky J., Plossl G. (1994). Orlicky's Material Requirement Planning, McGraw Hill Text, 2nd Edition. Porter M.E. (1986). L’avantage concurrentiel : comment devancer ses concurrents et maintenir son avance ?, Paris, InterEditions. Pralahad C-K., Hamel G. (1995). La conquête du futur, stratégies audacieuses pour prendre en mains le devenir du secteur et créer les marchés de demain, Paris, InterEditions. Printz J. (2000). « L’industrie du logiciel : les forces économiques et les enjeux stratégiques », Revue de l’Institut International de Géopolitique, n° 71, septembre. Riveline C. (1990). Cours d’évaluation des coûts, Ecole nationale supérieure des mines de Paris. Salais R., Storper M. (1993). Les mondes de production, Paris, Ed. de l’Ecole des Hautes Etudes en Sciences Sociales.
  15. 15. 15 Tomas J.-L. (1999). ERP et progiciels intégrés. La mutation des systèmes d’information, Paris, Dunod.

×