Ce diaporama a bien été signalé.
Le téléchargement de votre SlideShare est en cours. ×
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
RAROC: Outil de gestion du risque de
 crédit
SECTION 2:

                        LA GESTION DES RISQUES BANCAIRES:

La ges...
1 Joel BESSIS - Gestion des risques et gestion Actif-Passif des banques. Dalloz. Paris. 1995.
P48

La mesure du risque dép...
SECTION 3:

           LA REGLEMENTATION PRUDENTIELLE INTERNATIONALE

Dans un environnement concurrentiel, de nombreux fac...
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Publicité
Prochain SlideShare
Raroc
Raroc
Chargement dans…3
×

Consultez-les par la suite

1 sur 102 Publicité

Plus De Contenu Connexe

Diaporamas pour vous (20)

Les utilisateurs ont également aimé (20)

Publicité

Similaire à Raroc (20)

Plus récents (20)

Publicité

Raroc

  1. 1. RAROC: Outil de gestion du risque de crédit SECTION 2: LA GESTION DES RISQUES BANCAIRES: La gestion des risques bancaires correspond à l'ensemble des techniques, outils et dispositifs organisationnels mis en place par la banque pour identifier, mesurer et surveiller les risques auxquels elle est confrontée. On distingue deux approches différentes dans la gestion des risques ; une première interne portant sur les risques pris individuellement et selon leur nature (risque de crédit, risque de marché, risque de liquidité...), quand à la seconde, elle est globale et constitue un processus holistique, qui suppose une consolidation de tous les risques et la prise en compte de leur interdépendance. I. LES OBJECTIFS DE LA GESTION DES RISQUES: La gestion des risques vise la réalisation de quatre objectifs1 : · Assurer la pérennité de l'établissement, par une allocation efficiente des ressources et une allocation adéquate des fonds propres qui permettra une meilleure couverture contre les pertes futures. · Elargir le control interne du suivi des performances au suivi des risques associés. · Faciliter la prise de décision pour les opérations nouvelles et permettre de les facturer aux clients. · Rééquilibrer le portefeuille de l'établissement, sur la base des résultats et des effets de diversification. II. LES ETAPES DE LA GESTION DES RISQUES: La gestion des risques repose sur un processus de six étapes : 1.1 Identification des risques: Cette étape consiste à établir une cartographie des risques auxquels la banque est confrontée. Cet exercice ne doit pas être limité dans le temps, vu les changements internes et externes qui touchent le milieu bancaire et qui peuvent engendrer l'apparition de nouveaux risques. 1.2 Evaluation et mesure des risques: Elle consiste à quantifier les coûts associés aux risques identifiés dans la première étape.
  2. 2. 1 Joel BESSIS - Gestion des risques et gestion Actif-Passif des banques. Dalloz. Paris. 1995. P48 La mesure du risque dépend de la nature de ce dernier, s'il est quantifiable ou non. Lorsque les risques sont quantifiables comme dans le cas du risque de crédit et du risque de marché, le concept le plus utilisé est celui de la Value-at-Risk. Dans le cas des risques non quantifiables, une méthodologie objective est appliquée pour les estimer, à travers deux variables: · La probabilité de survenance d'un événement négatif, qui à défaut de quantification, peut se voir attribuer des valeurs relatives : forte, moyenne et faible probabilité. · Gravité de l'événement en cas de survenance du risque : là aussi, en absence de données quantifiables, on peut attribuer une variable relative : élevé, moyen, faible. Le croisement des deux séries de variables, permettra de donner une idée relative du risque. 1.3 Sélection des techniques de gestion des risques: Les techniques de gestion des risques visent principalement l'un des trois objectifs suivants : · Eviter le risque · Transférer le risque · Encourir le risque 1.4 La mise en oeuvre: Cette étape consiste à mettre en oeuvre la technique choisie, elle doit être réalisée par une unité clairement désignée à cet effet, par exemple : la salle des marchés pour les risques de marché, la direction des engagements pour le risque de crédit, ALM pour la gestion du risque de liquidité et de taux. Quand au risque opérationnel, il a la particularité d'être plus difficilement attribuable a une unité spécifique vu ça présence partout. Le principe fondamental de cette étape de gestion des risques est de minimiser les coûts attribués à la mise en oeuvre de la solution. 1.5 Surveillance des risques: Le suivi permanant des risque est primordial, et ce afin de s'assurer que les stratégies adoptées donnent des résultats optimaux. En effet, au fil du temps et selon les circonstances, il se peut que les décisions initialement prises deviennent incompatibles avec la conjoncture et de ce fait elles doivent être modifiées ou carrément remplacées. 1.6 Reporting des risques: Le reporting est l'aboutissement logique de tout processus de gestion, il s'agit d'une synthèse qui fait ressortir les éléments clés sous une forme analytique, adressée aux responsables sous forme d'un rapport dont le contenu et le niveau de détail dépend de la fonction du destinataire.
  3. 3. SECTION 3: LA REGLEMENTATION PRUDENTIELLE INTERNATIONALE Dans un environnement concurrentiel, de nombreux facteurs peuvent inciter une banque à prendre des risques parfois importants, chose qui pourrait la mettre en péril et même menacer la stabilité de tout le système à cause des effets de contagion. C'est dans le but de limiter les effets néfastes de la prise de risque et de promouvoir la stabilité et la sécurité du système financier que fut l'avènement de la réglementation prudentielle. I. LE COMITE DE BALE: Le Comité de Bâle a été créé en 1974 par les gouverneurs des Banques Centrales du groupe des dix (G1 0) sous l'appellation « Comité des règles et pratiques de contrôle bancaire », il est constitué des pays suivants : Belgique, Canada, France, Allemagne, Italie, Japon, Luxembourg, Pays-Bas, Espagne, Suède, Suisse, Royaume-Uni et Etats-Unis. Ces pays sont représentés par leurs banques centrales ou par l'autorité de supervision bancaire. Leurs représentants se rencontrent régulièrement à la Banque des Règlements Internationaux (BRI) localisée à Bâle pour parler des enjeux liés à leur responsabilité. Les taches du comité de Bale sont axées sur : · L'échange d'informations sur les pratiques nationales de contrôle ; · L'amélioration de l'efficacité des techniques mises en oeuvre pour la surveillance de l'activité bancaire internationale ; · La fixation de normes prudentielles minimales dans les domaines ou elles apparaissent souhaitables. Il est à noter que le comité de Bâle ne dispose d'aucun pouvoir légal national ou international, ses conclusions n'ont pas force exécutoire. Son rôle est plutôt d'établir des normes de références et des lignes directrices générales et de formuler des recommandations à l'égard des bonnes pratiques que ses membres s'engagent à mettre en oeuvre. II. L' ACCORD DE BALE DE 1988 En 1988, le Comité de Bâle instaure pour les banques exerçant leur activité à l'international un nouveau cadre appelé « Accord de Bâle », définissant les exigences minimales de fonds propres que les banques doivent respecter en fonction des risques qu'elles prennent. Le ratio international de solvabilité, appelé ratio Cooke1 voit alors le jour avec la règle simple et quasi uniforme de 8% de fonds propres alloués pour chaque crédit accordé. Fonds propres nets
  4. 4. Ratio Cooke = > 8 % Selon Bâle I, les fonds propres exigibles sont calculés sur la base d'une somme pondérée des différents types d'actifs d'une banque; ces pondérations cherchent à refléter le niveau de risque de chaque catégorie d'actifs. Pondérations (%) Nature des encours 0 Créances sur des Etats de l'OCDE 20 Créances sur les banques 50 et les collectivités locales des Etats de l'OCDE Créances garanties par une hypothèque ou crédit bail 100 immobilier Toutes les autres créances telles que les obligations du secteur privé, la dette des pays en voie de développement, les créances des pays hors OCDE, les actions, l'immobilier, les bâtiments industriels et les machines Tableau 1.1 : La pondération des encours dans Bale 1 Ce ratio, fut instauré dans la plupart des pays de l'OCDE au début des années 1990. Il fut aménagé en 1996 afin d'y intégrer la gestion des risques de marché. L'amendement de 1996 En plus de l'intégration du risque de marché dans le calcul du ratio de solvabilité, l'amendement de 1996 a accordé aux banques la possibilité de recourir à leurs propres modèles internes de risque de marché pour définir le niveau de fonds propres nécessaires. Il a enfin, permis l'intégration de certaines garanties hors bilan qui n'étaient pas prises en compte dans l'accord initial, telle que la titrisation des créances. D'abord appliqué aux pays du G10 et aux banques exerçant leur activité à l'international, l'accord Bâle1 s'étend progressivement à la plupart des banques d'une centaine de pays. 1 Du nom du Président du Comité de Bâle de l'époque III. LES LIMITES DE BALE I Depuis la fin des années 90, les limites des accords de Bâle, notamment en termes d'exigences de fonds propres pour les risques de crédit devenaient de plus en plus apparentes.
  5. 5. En effet, Bâle I a permis d'atténuer les inégalités concurrentielles, les banques se couvrant systématiquement de fonds propres à hauteur de 8 % de leurs engagements. Toutefois, il correspond à un système simplifié, peu sensible au niveau réel des risques et qui présente plusieurs limites: · Le ratio Cooke ne prend pas en considération de manière pertinente et suffisamment précise le niveau réel du risque de crédit, celui-ci est évalué de façon forfaitaire en fonction du type de contrepartie et du produit. En particulier, le ratio ne tient pas compte des différences de qualité des emprunteurs privés puisque quasiment tous les prêts au secteur privé supportent des charges en fonds propres identiques, quelle que soit leur maturité, leur montant ou la solidité financière de leurs bénéficiaires ; · Le ratio Cooke ne tient compte ni de l'évolution du niveau de risque (changement de la notation), ni du taux de recouvrement (qualité de la garantie) ; · Le ratio Cooke ne prend pas en considération la réduction potentielle du risque induite par la diversification du portefeuille parmi de nombreux emprunteurs, industries et localisations géographiques. Par exemple, le capital réglementaire est le même, que la banque ait consenti un prêt de 100 millions de dinars à une seule entreprise ou que la banque ait fait 100 prêts de 1 million de dinars chacun à 100 entreprises différentes appartenant à des secteurs d'activité différents ; · Fixer une borne inférieure du ratio à 8% n'est basé sur aucun fondement économique. · Le ratio Cooke ignore d'autres risques fortement présents dans l'activité bancaire comme le risque opérationnel ; · Enfin, l'accord de 1988 ne permet pas la compensation des risques (netting) et n'offre ainsi aucune incitation au recours aux techniques de couverture du risque de crédit comme les dérivés de crédit. Ratio bancaire sommaire, Bâle I n'est plus adapté à la sophistication croissante des activités bancaires. IV. LE DISPOSITIF BALE II En raison de l'évolution considérable de l'activité bancaire, des marchés financiers, des méthodes de gestion du risque et des pratiques de surveillance, intervenus depuis la signature du premier accord, le Comité de Bâle, présidé alors par W. Mc Donough a jugé nécessaire d'en réviser le contenu. 4.1 Les piliers de Bâle II : En 1999, le comité de Bâle propose son premier document consultatif (CP1) posant les termes de la réforme autours de trois piliers : 1. les exigences minimales en matière de fonds propres (Pilier 1) 2. le processus de surveillance prudentielle et de contrôle interne (Pilier 2)
  6. 6. 3. la communication financière et la discipline du marché (Pilier 3) A. Le Pilier 1 : les exigences minimales en matière de fonds propres Bâle II permet une plus grande différenciation dans les exigences de capital en fonction de la qualité des risques de crédit, qui dépend entre autres de la probabilité de défaut de la contrepartie et de la perte en cas de défaut. L'accord permet également un traitement plus exigeant mais aussi plus adapté des opérations de marché, avec des techniques renouvelées d'estimation de l'exposition au risque de contrepartie (EPE) et une prise en compte plus stricte du risque de défaut dans la mesure du risque de marché et du risque de participation actions. La grande nouveauté est l'apparition d'une charge en capital pour le risque opérationnel, qui peut être évaluée de façon très forfaitaire en fonction des revenus ou selon le modèle interne de la banque dans le cas du choix de méthodes avancées. . L'ancien ratio de solvabilité connu par « ratio Cook » a été remplacé par le ratio dit « McDonough ». Ce nouveau ratio, ne change pas l'assiette de calcul «fonds propres /risques» qui reste fixée à 8%. Par contre, une ventilation du risque en fonction de sa nature sera exigée (risque de crédit comptant pour 75%, le risque opérationnel pour 20% et le risque de marché pour 5%). Il faut marquer l'introduction du risque opérationnel dans l'exigence des fonds propres. Fonds propres nets Ratio Mc Donough = > 8 % Risque de crédit + Risque de marché + Risque opérationnel B. Le Pilier 2 : le processus de surveillance prudentielle et de contrôle interne Le deuxième pilier vise à introduire une cohérence entre les risques assumés et l'allocation de fonds propres. Il est fondé sur quatre principes fondamentaux : · L'appréciation, par l'établissement bancaire, des fonds propres qui lui sont nécessaires (son capital économique), · La surveillance prudentielle de ce processus de mesure et d'allocation des fonds propres (avec la comparaison des fonds propres réglementaires et des fonds propres économiques), · Des fonds propres pouvant être supérieurs aux minima réglementaires, · L'intervention, en cas de besoin, des superviseurs. Un rôle plus important est octroyé aux autorités de surveillance. Ces dernières doivent, pour chaque établissement bancaire, s'assurer du caractère adéquat du processus d'évaluation interne de la solvabilité et peuvent, si nécessaire, imposer des exigences de solvabilité plus
  7. 7. élevées que les exigences minimales définies précédemment au titre des risques de crédit dans le cadre du pilier 1. Ce processus d'évaluation interne de la solvabilité est appelé ICAAP « Internal Capital Adequacy Assessment Process » C. Le Pilier 3 : la communication financière et la discipline du marché La discipline de marché doit être plus efficace en s'appuyant sur une communication financière qui favorise la transparence, notamment sur l'état des risques et la façon de les mesurer. Le moyen d'atteindre ce but sera la publication d'un niveau élevé d'informations et le respect de pratiques saines en matière de comptabilité et de valorisation qui sont d'une importance décisive en matière de normes de fonds propres. 4.2 La mesure du risque de crédit selon Bâle II: Les instruments de gestion des risques diffèrent sensiblement en fonction de la taille de la banque, des métiers qu'elle exerce et de son aversion au risque. Pour répondre à cette diversité, le Comité de Bâle propose pour chaque type de risque des méthodes de calcul entre lesquelles chaque banque pourra choisir, en fonction du degré de développement de ses techniques de gestion. En matière de traitement du risque de crédit, le Comité de Bâle propose deux approches pour le calcul des exigences en fonds propres: Une approche standard et une approche fondée sur la notation interne : A. L'approche standard (Standardized Approach): L'approche standardisée est conceptuellement assez proche de celle précédemment utilisée dans l'Accord de Bâle I. Elle consiste à mesurer le risque de crédit d'une manière standard, en s'appuyant sur des notations externes fournies par des agences de rating, reflétant la qualité de crédit des emprunteurs. Selon cette approche, les besoin en fonds propres sont calculés comme suit : FP = [E(Pondérations x Expositions)] x 8 % Les pondérations sont déterminées en fonction des notations externes, de la classe d'actif et de la catégorie de l'emprunteur. Les expositions sont les encours nets de provisions spécifiques. Les techniques de réduction des risques, telles que les garanties et les dérivés de crédit, sont prises en compte par cette approche de manière simplifiée. L'approche standard est en principe réservée aux banques de petite et moyenne taille. Les banques de taille plus significative peuvent y recourir si elles ne peuvent adopter les méthodes de notations internes dans un premier temps. B. L'approche fondée sur la notation interne (ou IRB): La promotion des méthodes de notation interne du risque de crédit est l'un des principaux objectifs du comité de Bâle,
  8. 8. Cette approche a été conçue en tenant compte des résultats des enquêtes menées auprès des établissements et associations bancaires qui ont mis en évidence que l'ensemble des établissements ne sont pas à même de disposer des données nécessaires au calcul de tous les paramètres quantitatifs du risque de crédit. Ainsi, la méthode de notation interne se décline elle-même en deux approches : · L'approche IRB Fondation (Internal Ratings Based approach Foundation): Dans laquelle l'établissement évalue uniquement la probabilité de défaut (PD), les autres facteurs de risque seront dérivés à travers l'application de mesures standards fournies par les autorités de supervision. · L'approche IRB Avancée (Internal Ratings Based approach Advanced): Cette approche est ouverte aux banques ayant démontré leur capacité d'estimer de manière fiable et constante d'autres paramètres de risque en plus de la probabilité de défaut (PD). Il s'agit essentiellement de la perte en cas de défaut (LGD) et l'encours lors du défaut. Il est à noter que le passage à une approche plus sophistiquée fait l'objet d'un choix irréversible «effet cliquet», cela veut dire qu'un établissement adoptant une approche dite interne ou avancée ne peut décider par la suite de revenir à une approche moins sophistiquée, que pour un motif dûment justifié, après autorisation des autorités de contrôle. 4.3 La mise en place de Bâle II Cent pays environ prévoient d'appliquer Bâle II dans les prochaines années, selon une enquête faite en 2006 par l'Institut pour la stabilité financière. Cela montre tout l'intérêt qu'y attachent les banques et leurs autorités de contrôle. Bien que les discussions sur Bâle II se concentrent généralement sur les approches avancées, les banques seront beaucoup plus nombreuses à appliquer les approches standards (qui sont parfaitement valables et appropriées pour de nombreux établissements), surtout pendant les premières années. Pour gérer les risques du passage à Bâle II, les approches avancées seront introduites progressivement en un an ou deux, période pendant laquelle Bâle I continuera à s'appliquer. Dans les deux ou trois premières années, un «plancher» de fonds propres sera mis en place, afin d'éviter une chute brutale des exigences de fonds propres. Ce plancher sera progressivement supprimé à la fin de la période de transition, mais les autorités de contrôle pourront exiger qu'il soit maintenu pour certaines banques. Pour diverses raisons (retards de la législation et efforts qu'ont dû faire les banques et les autorités pour former le personnel et augmenter leurs capacités), la mise en oeuvre a été reportée dans beaucoup de pays. Les pays de l'Union européenne ont adopté l'approche standard en 2007 et commencent cette année d'appliquer les approches avancées, tandis que les banques des États-Unis peuvent demander une période de fonctionnement parallèle des deux approches pendant trois ans avant d'adopter en 2011 les approches avancées. Actuellement, la plupart des systèmes bancaires qui ont adopté Bâle II sont encore à la période de transition, les plus avancés étant arrivés au stade du fonctionnement parallèle ou de
  9. 9. l'application du plancher. Le cadre n'était donc pas encore mis en oeuvre dans beaucoup de pays à l'été 2007, quand les turbulences ont commencé sur les marchés financiers. V. LES FONDS PROPRES REGLEMENTAIRES ET LES FONDS PROPRES ECONOMIQUES En plus de leur rôle de financement, les fonds propres jouent un rôle économique très important. Ceux-ci représentent un élément essentiel dans la gestion des risques dans la mesure où ils reflètent le niveau de solvabilité de l'établissement et constituent la seule garantie des créanciers en cas de faillite de ce dernier. Deux concepts de fonds propres bancaires sont souvent confondus, il s'agit du concept de fonds propres réglementaires et celui de fonds propres économiques. 5.1 Les fonds propres réglementaires: Les fonds propres réglementaires correspondent à l'exigence de fonds propres définie par le régulateur pour faire face aux différents risques supportés par la banque. Ceux-ci sont scindés en 3 tiers et doivent couvrir l'exigence de fonds propres telle que définie par le régulateur, sachant que le Tier 3 peut seulement couvrir une partie des risques de marché. A. Fonds propres de Base (Tier 1 ou noyau dur) : Les fonds propres de base sont définis par leur caractère permanent, leur subordination légale aux droits des déposants et autres créanciers et par le fait qu'ils n'exigent pas de charges fixes obligatoires en contrepartie des gains. Ils incluent donc le capital, les réserves1 autres que celles de réévaluation et le résultat de l'exercice non distribué. B. Fonds propres complémentaires (Tier 2) : Ceux-ci ne sont pris en compte que dans la limite de 100% des fonds propres de base. Au delà, ils peuvent être inclus dans les fonds propres sur-complémentaires. 1 Il s'agit des réserves légales, statutaires, les réserves réglementées et les autres réserves qui sont toutes constituées par affectation des résultats passés. Les fonds propres complémentaires incluent: · Les réserves de réévaluation comptable : elles ne sont incluses dans la catégorie 2 qu'à concurrence de 50% de leur montant. · Les provisions générales : elles ne peuvent êtres supérieures à 1,25% des actifs auxquels elles font l'objet. · Les types de capitaux hybrides : peuvent faire partie de la catégorie 2 s'ils sont non garantis, subordonnés, entièrement versés, et s'ils ne sont pas remboursables sans consentement préalable de l'autorité de contrôle.
  10. 10. · Les dettes à long terme subordonnées : elles comprennent les dettes traditionnelles non garanties et subordonnées avec un terme initial fixe de plus de cinq ans. Le montant de ces dettes ne peut dépasser 50% des fonds propres de base. C. Fonds propres sur-complémentaires (Tier 3) : Ils sont composés des éléments suivants: · les bénéfices intermédiaires tirés du portefeuille de négociation ; · les emprunts subordonnés d'une durée supérieure à deux (02) ans, et dont ni le paiement des intérêts ni le remboursement du principal ne peuvent contrevenir au respect de l'exigence globale en fonds propres ; · la part des ressources subordonnées non retenues au titre des fonds propres complémentaires 5.2 Les fonds propres économiques: Les fonds propres économiques représentent une estimation du montant de fonds propres que la Banque juge nécessaire pour couvrir les pertes inattendues, auxquelles elle peut avoir à faire face dans le cours de ses activités, pour satisfaire aux exigences de ses actionnaires et de ses créanciers, notamment en termes d'aversion au risque. Ils reflètent les risques propres à chaque métier et doivent être calculés à l'horizon correspondant à la période de temps nécessaire pour résoudre les problèmes liés aux risques. Leur montant suffit donc à couvrir l'ensemble des risques de crédit, de marché, et des risques opérationnels. Le niveau des fonds propres économique est déterminé en fonction de l'aversion des dirigeants au risque mais aussi en fonction du rating auquel la Banque aspire, ce rating définit implicitement le seuil maximal au-delà duquel les pertes possibles sont d'une rareté et d'une ampleur telles qu'il est non économiquement viable de s'en protéger. Prenons l'exemple d'une banque qui vise une note AA sur un horizon d'un an. Cela correspond à un taux de défaut de 0,03%, ce qui veut dire que les Fonds propres doivent pouvoir couvrir les pertes dans 99,97% des cas : on parle alors de seuil de tolérance de 99,97%. Le capital économique se différencie du besoin en capital réglementaire que ça soit dans sa version « Cooke » ou même dans les propositions connues « Mc Donough » notamment par la prise en compte de la structure du portefeuille concerné, et de la diversification des risques au sein de ce portefeuille. Il repose sur une vision « économique » des risques, par nature adaptée à un portefeuille d'activités et donc plus précise que la vision prudentielle étalonnée sur une vision moyenne de l'industrie des services financiers.
  11. 11. Figure 1.1: Fonds propres économiques et réglementaires La divergence entre les approches utilisées pour le risque réglementaire et le risque économique, qui a eu pour conséquence des objectifs contradictoires en termes de gestion du capital, a constitué un des problèmes majeurs soulevés par le nouvel accord de Bâle. En effet, dans le cadre des propositions initiales du nouvel accord de Bâle, le calibrage en matière d'exigence relative aux fonds propres était flou et non systématique. Grâce au processus de consultation mis en place par le Comité de Bâle, on a pu assister ces dernières années à une amélioration entre les approches propres au capital économique et au capital réglementaire. CONCLUSION Dans son nouvel accord et à travers l'approche basée sur la notation interne, le comité de Bâle a incité les établissements de crédit à développer leurs propres outils d'appréciation du risque de crédit. Cette incitation a poussé de nombreuses banques à adopter de nouvelles méthodes utilisant la notation interne, particulièrement celles fondées sur un concept devenu commun dans le domaine bancaire, connu sous l'appellation RAROC ou Risk Adjusted Return On Capital. L'objet du chapitre suivant sera de mettre l'accent sur l'aspect théorique de ce concept. CHAPITRE I: LA NOTION DE RAROC Dans l'environnement bancaire, la gestion des risques et de la rentabilité sont indissociables. D'une part, les risques engendrent l'instabilité des résultats de la banque. D'autre part la prise des risques est la condition d'une meilleure rentabilité future. Savoir gérer le couple Risque- Rentabilité constitue pour la banque un atout incontestable dans un environnement instable et caractérisé par la concurrence. Etant conscientes de cette réalité, de nombreuses banques ont développé des méthodes avancées leurs permettant une meilleure gestion du couple Risque-Rentabilité. La plus utilisée parmi ces méthodes est connue sous le nom RAROC pour Risk Adjested Return On Capial.
  12. 12. L'objet de ce chapitre sera de mettre en évidence les principaux aspects théoriques liés à la notion RAROC. Nous allons commencer dans une première section par introduire le concept de mesure de rentabilité ajustée pour le risque. En suite, nous allons présenter la notion de RAROC dans une seconde section. Quand à la troisième, elle portera sur les paramètres constituant RAROC. SECTION 1: LE CONCEPT DE MESURE DE PERFORMANCE AJUSTEE POUR LE RISQUE Traditionnellement, les performances au niveau d'un établissement bancaire sont mesurées en rapportant des indicateurs de rentabilité financière (marge d'intérêts, PNB, Résultat net,...) aux fonds propres comptables de la banque. En effet, cette approche n'est pas tout à fait correcte, elle présente en effet deux inconvénients majeurs : d'abord la mesure comptable des fonds propres est un indicateur insuffisant du risque, en outre, ces mesures sont définies à l'échelle de l'établissement, puisque les fonds propres ne sont pas alloués à des transactions ou lignes d'activité spécifiques. Dans l'univers financier, un niveau de performance n'a pas de sens indépendamment des risques encourus pour l'atteindre. Pour chaque niveau de performance, il ya un prix à payer en termes de risque. C'est ce qui est traduit par le principe fondamental de la théorie financière : seul le risque est rémunéré. Les mesures de performances ajustées pour le risque (couramment appelées Risk Adjusted Performance Measurement ou RAPM) ont été mises en place justement pour répondre à cette problématique et pour permettre de ce fait aux managers de déterminer lesquelles des activités sont profitables, en comparant leur rendement ajusté pour le risque contre une mesure appropriée du coût de capital. I. DEFINITION D'UNE RAPM : Une mesure de rentabilité ajustée pour le risque (RAPM) peut être définie comme le ratio du résultat obtenu (ou espéré) sur une position sur les capitaux qu'il faut mettre en réserve pour couvrir la plus grande majorité des pertes possibles (perte maximale). Un ajustement peut se faire en déduisant une prime de risque soit du résultat soit du capital soit des deux. Cette prime de risque exprime la perte probable encourue sur la position. II. LES FONCTIONS DES RAPM : Les quatre principales fonctions d'un système de performances ajustées pour le risque sont: 1) La comparaison des performances d'activités présentant des niveaux de risque différents : Un gestionnaire qui dégage un bénéfice de un million en gérant des bons du trésor n'utilise pas le capital de la banque de la même manière que celui qui gagne un million en spéculant sur des titres très volatiles1. Il faut tenir compte non seulement de la 1 Jean Laurent VIVIANI - Mesures de performances ajustées pour le risque et allocation des capitaux propres.P2
  13. 13. marge bénéficiaire dégagée par un gestionnaire mais aussi du risque qu'il fait subir à son institution. 2) L'aide à la décision d'engagement sur la base du couple risque/rentabilité : Les RAPM permettent de détecter les activités qui présentent un avantage compétitif et facilitent de ce fait la tache du gestionnaire qui consiste à constituer le portefeuille lui permettant de maximiser la rentabilité de son établissement tout en prenant des risques acceptables. Les RAPM présentent des mesures ex-ante qui permettent donc de raisonner sur des anticipations de résultat et de risque. 3) La facturation clients en fonction des risques : Il serait déloyal de faire supporter des charges similaires à deux contreparties présentant des profils de risque différents. Les RAPM permettent de mettre en place un système de tarification différentielle de façon à faire assumer individuellement à chaque client le coût des risques auxquels son prêteur pourrait être exposé. Ainsi, les emprunteurs présentant une situation stable et rentable supporterons un coût moindre à ceux ayant un profil plus risqué paieront d'avantage. 4) L'allocation efficiente des fonds propres : Les fonds propres globaux doivent être alloués aux centres de décisions. Inversement les consommations de fonds propres des centres de décisions doivent être ajustées sur les fonds propres globaux. Les RAPM facilitent les décisions d'allocation des fonds propres de la banque. Elles permettent ainsi le calcul des capitaux propres nécessaires pour couvrir l'ensemble des risques pris par les gestionnaires et de les ajuster sur les fonds propres économiques, réels ou réglementaires. III. LES PRINCIPALES RAPM : Selon la méthode d'ajustement utilisée, résultent trois ratios de type RAPM : · RAROC (Risk Adjusted Return On Capital) : l'ajustement se fait en déduisant une prime de risque du résultat, et le rapporter aux fonds propres qui lui sont alloués. Le RAROC consiste donc à moduler les marges, pour corriger la rentabilité requise en fonction du risque sans moduler le capital de référence. · RAROC = Fonds propres Résultat ajusté RORAC (Return On Risk Adjusted Capital) : Un ajustement de type RORAC consiste à rapporter les résultats non-ajustés aux fonds propres corrigés par le risque encouru (Fonds propres économiques). Résultat RORAC = Fonds propres ajustés
  14. 14. · RARORAC (Risk Adjusted Return On Risk Adjusted Capital): Il tient compte des deux types d'ajustements: d'abord une prime de risque sera retranchée du résultat, puis ce résultat ajusté sera rapporté aux fonds propres corrigés par le risque encouru. RARORAC = Fonds propres ajustés Résultat ajusté Au plan conceptuel, le RARORAC est le meilleur ratio de référence. D'ailleurs, par la suite nous allons nous intéresser uniquement à ce dernier. Cependant, du point de vue de la terminologie, la désignation RAROC sera adoptée tout au long de notre travail. SECTION 2 : PRESENTATION DE RAROC I. HISTOIRE DE RAROC : L'élaboration de la méthodologie RAROC a commencé vers la fin des années 70, dans une période où la finance directe a pris sa revanche sur la finance indirecte, notamment après la nouvelle théorie du portefeuille de Morkowitz (1952), basée sur la diversification et le couple Rentabilité-Risque. La méthode RAROC a été lancée aux Etats-Unis au sein de la Bankers Trust par son ingénieur financier Charles S. SANFORD. L'idée originelle était de mesurer le risque du portefeuille de crédit bancaire, aussi bien que le montant de capitaux propres nécessaires pour limiter l'exposition des déposants de la banque et autres créanciers à une probabilité spécifiée de perte. Depuis lors, la méthode RAROC a connu une large diffusion au sein de plusieurs banques. D'abord dans les pays anglo-saxons, puis rapidement, son utilisation a connu une généralisation dans le reste du monde. L'adoption de la méthode RAROC par les banques françaises a été plus tardive. En effet, le premier établissement bancaire à avoir introduit cet instrument était le Crédit Lyonnais avec son application OR2 (Optimisation Risque-Rentabilité), dont l'objectif essentiel était la lutte contre la dégradation durable des résultats de la banque, causée essentiellement par les manquements aux principes de base du métier, comme la diversification des engagements et le manque de professionnalisme la sous-tarification du crédit. Quelques années plus tard, d'autres banques françaises ont suivi la même démarche, à l'image de Société Générale qui a lancé « Le projet RAROC » en 1997, puis la BNP Paribas en 2000. II. DEFINITION DE RAROC : RAROC est un indicateur synthétique permettant de mettre en regard la rentabilité réelle d'une opération avec le risque qui lui est associé: c'est le ratio entre la marge nette prévisionnelle après déduction des pertes moyennes anticipées (Expected loss) et une mesure de la perte inattendue (Unexpected Loss).
  15. 15. En termes de gestion des fonds propres, le RAROC peut être défini comme étant un ratio qui exprime le taux de rendement des fonds propres économiques : C'est donc le rapport entre le résultat ajusté des provisions correspondant à la perte attendue, et les fonds propres destinés à couvrir les pertes inattendues. Comme il s'agit d'une mesure objective, et non réglementaire, les provisions et les fonds propres sont tous les deux économiques. Ainsi, nous pouvons écrire le RAROC sous la formule suivante: RAROC = Pertes inattendues Revenus -- Coûts d'opération -- Pertes attendues Ou encore RAROC = Fonds Propres économiques Revenus -- Coûts d'opération -- Provisions économiques Une fois calculé, le RAROC est comparé soit à un ratio-seuil (hurdle rate) tel que le rendement des capitaux propres (Return on Equity ou ROE), ou le coût moyen des fonds propres (Weighted Average Cost of Capital ou WACC), soit à un niveau RAROC* cible, fixé préalablement par la banque, à partir duquel elle estime que l'opération apporte de la valeur et devrait être réalisée. III. ILLUSTRATION NUMERIQUE DU CALCUL DE RAROC : Nous présentons dans l'exemple suivant une approche comparative entre la méthode classique de calcul de la rentabilité et la méthode RAROC. Nous considérons deux facilités de même montant et de même maturité, accordés à deux clients de classes de risque différentes. Dans un but de simplification, les récupérations en cas de défaut sont supposées nulles. C'est- à-dire les pertes sont égales aux expositions. Aussi, les marges sont calculées nettes des coûts supposés proportionnels aux encours. Contrepartie 01 Contrepartie 02 Exposition nette A 100000 100000 Echéance B 3ans 3ans Notations C A B Taux de défaut moyen sur 3 ans D 0.30% 0.90%
  16. 16. Déviation du taux de défaut E 1.23 % 2.70 % Marge commerciale F 0.20 % 0.50 % Perte moyenne G=AxD 300 900 Perte maximale H= A x E 1230 2700 Recettes cumulées sur 3 ans I = Ax B x F 600 1500 Recettes - Perte moyenne J=I-G 300 600 Fonds propres économiques K=H-G 930 1800 RAROC J/ K 32.25 % 33.33 % Tableau 2.1 : Calcul de RAROC pour deux clients de rating différent La note de la contrepartie 1 étant meilleure que celle de la contrepartie 2, la marge commerciale va logiquement être plus élevée pour la contrepartie la plus risquée (2). En utilisant une mesure de performance non ajustée pour le risque, l'on peut juger que la transaction avec le client 2 est plus rentable, dans la mesure où elle offre la plus forte marge. Toutefois, la mesure de la rentabilité ajustée pour le risque, nous montre que les RAROC des deux transactions sont presque équivalents. Les deux transactions offrent le même niveau de rentabilité ajustée pour le risque. IV. LES TYPES DE RAROC: Selon la date et le périmètre des calculs, nous pouvons distinguer entre quatre types de RAROC à savoir : 4.1 RAROC à l'origine: Il est calculé à l'octroi du crédit sur la période allant de la date d'octroi du concours jusqu'à sa date d'échéance, il est souvent utilisé comme outil d'aide à la décision ainsi qu'une méthode de tarification des crédits. 4.2 RAROC résiduel: Son calcul se fait pendant la période d'utilisation du crédit, sur un horizon qui va de la date d'observation jusqu'à la date d'échéance.
  17. 17. Le calcul prend immédiatement les changements des caractéristiques des clients (notes), des crédits (provisions) et des garanties. Cependant, la volatilité de ce type ainsi que sa forte dépendance des différents évènements de vie du crédit (commissions, frais de gestion,... etc.) ne permettent pas l'adoption d'une stratégie par client.1 4.3 RAROC annuel: Solution intermédiaire aux deux précédentes, elle peut correspondre à l'exercice budgétaire et donner la possibilité d'adopter une stratégie, de fixer des objectifs et de pouvoir mesurer les résultats à la fin de la période. 4.4 RAROC complet: Le calcul prend en compte, à une date donnée, tous les éléments des engagements en cours, de la date d'origine à la date d'échéance de chaque concours. Sa stabilité et son exhaustivité lui rendent le plus adéquat pour l'adoption d'une stratégie que ça soit au niveau individuel (pour chaque client), pour un portefeuille ou encore une activité. Le choix parmi ces différents types de RAROC se fait principalement en fonction de l'utilisation finale et des attentes de l'utilisateur. SECTION 3: LES PARAMETRES DE RAROC Après avoir défini le concept RAROC, nous nous intéressons dans cette section à présenter les paramètres rentrant dans son calcul. En effet, RAROC est une combinaison de plusieurs paramètres que nous pouvons scinder en deux catégories : les paramètres liés au risque et les paramètres comptables. I. LES PARAMETRES LIES AU RISQUE: Les deux paramètres de RAROC liés au risque sont évidemment : la perte attendue (Expected loss) et la perte inattendue (Unexpected loss). Avant de présenter ces deux paramètres, il est indispensable de passer en revue au préalable les trois principales mesures de risque qui rentrent dans leur calcul, en l'occurrence la probabilité de défaut, l'exposition en cas de défaut et la perte en cas de défaut. 1.1 La probabilité de défaut (Expected Default Frequency ou EDF): La probabilité de défaut est une notion orientée « contrepartie ». Elle mesure la probabilité d'occurrence d'un défaut sur une contrepartie sur un horizon déterminé. 1 T. RONCALLI, La gestion des risques financiers. Ed. Economica, Paris, 2004, p. 434. Le concept de probabilité de défaut peut être évoqué selon deux approches : une approche binaire et une approche graduée
  18. 18. L'approche binaire est basée sur l'hypothèse qui suppose que les emprunteurs peuvent être répartis en deux groupes : les défaillants et les non défaillants (sains). Ainsi, la probabilité de défaut désigne la probabilité d'appartenance d'un emprunteur au groupe des défaillants. Dans l'approche graduée, les contreparties sont d'abord regroupées dans plusieurs classes de risque. Après on s'intéresse à calculer la probabilité de migration de chaque contrepartie vers les autres classes (y compris la classe de défaut). Ces migrations sont rassemblées dans une matrice de forme n x (n-1) appelée Matrice de Transition. Rating AAA AAA AA A BBB BB B CCC Default AA 90,81% 8,33% 0,68% 0,06% 0,12 % 0,00 % 0,00% 0,00 % A BBB BB 0,70% 90,65 % 7,79% 0,64% 0,06% 0,14 % 0,02 % 0,00 % B 0,09% 2,27% 91,05 % 5,52 % 0,74% 0,26 % 0,01% 0,06 % CCC 0,02 % 0,33% 5,95 % 86,93% 5,30% 1,17 % 0,12 % 0,18 % 0,02 % 0,14% 0,67% 7,73% 80,53% 8,84 % 1,00% 1,06 % 0,00% 0,11% 0,24% 0,43% 6,48% 83,46% 4,08% 5,20 % 0,22 % 0,00% 0,22 % 1,30% 2,38% 5,00 % 64,85 % 19,79% Tableau 2.2: Matrice de Transition (Source: CreditMetrics, JP Morgan, document technique, 1997) Exemple : La probabilité qu'une entreprise notée AAA migre vers la classe AA est 8,33%, et la probabilité que cette même entreprise garde sa note est 90,81% 1.2 L'exposition en cas de défaut (Exposure At Default ou EAD): C'est la valeur effective du montant du crédit détenue par l'emprunteur au moment du défaut. Elle est estimée sur la base des montants des engagements restant dus. La notion d'exposition englobe les encours bilanciels ainsi qu'une quote-part des engagements hors bilan. L'EAD revêt une double dimension qui couvre les aspects produits et emprunteur. L'exposition en cas de défaut des crédits standards correspond au montant total des flux contractuels encore dus. De ce fait, elle est fonction du mode de remboursement et d'amortissement. Dans le cas des crédits sur compte comme les découverts et les facilités de caisse, la mesure de l'exposition devient plus compliquée en raison du caractère optionnel du crédit et de
  19. 19. l'incertitude liée aux tirages futurs. En effet, il a été observé que plus la qualité d'un emprunteur se détériore plus la probabilité de tirages supplémentaire augmente et inversement, plus sa qualité s'améliore plus cette probabilité diminue. Ces constatations ont emmené les banques à faire recours à des mesures basées sur des hypothèses conservatrices, telles que considérer le total de l'autorisation exposé à la perte, ou encore mettre des hypothèses sur les tirages futures en cas de changement de notation ou de défaut. Dans ce cas, la formule suivante peut être appliquée : EAD = Montant utilisé + (La part non utilisée x La probabilité de tirage) La probabilité de tirage est estimée à partir de la structure de la facilité et la notation de l'emprunteur. Dans le calcul de l'EAD, le comité de Bâle distingue entre les facilités confirmées et les facilités non confirmées. Dans l'approche IRB fondation, il retient un taux forfaitaire de tirage de 75% pour les facilitées confirmées (committed facilities) qui ne peuvent pas faire l'objet d'une annulation libre par la banque. Quant aux facilités non confirmées (uncommitted facilities) qui peuvent être annulées inconditionnellement et en tout moment par la banque, un taux de tirage de 0% sera appliqué et l'EAD sera égale par conséquent au montant d'utilisation. 1.3 La perte en cas de défaut (Loss Given Default ou LGD): La perte en cas de défaut est une notion orientée « Transaction », les pertes étant généralement dépendantes des caractéristiques du financement (caractéristiques de l'emprunteur, caractère subordonné du crédit, garanties reçues, etc...). Exprimée en pourcentage, elle correspond au taux de perte constaté en cas de défaillance. Elle se définit comme une perte économique, qui se mesure en prenant en compte tous les coûts directs et indirects liés au recouvrement. La LGD est appréhendée indépendamment du risque emprunteur. Un emprunteur a différentes LGD s'il dispose de plusieurs produits. La perte en cas de défaut dépend directement du taux de recouvrement. Mathématiquement elle représente le complément du taux de recouvrement à l'unité. LGD = 1 - Taux de recouvrement Le taux de recouvrement dépend principalement des suretés réelles ou personnelles présentées par l'emprunteur (garanties, cautions, hypothèque, etc...), du type de crédit et du niveau de séniorité de l'engagement. 1.4 La perte attendue (Expected Loss ou EL): La perte attendue correspond au montant que la banque risque de perdre en moyenne sur son portefeuille de crédit à un horizon donné. Ce montant doit en principe être couvert par des provisions économiques.
  20. 20. Pour chaque ligne de crédit cette perte est fonction de la probabilité de défaut, de l'encours au défaut et de la perte en cas de défaut ELi = EADi x EDFi x LGDi Le caractère linéaire du moment d'ordre (un) fait que la perte attendue d'un portefeuille est égale à la somme des pertes attendues des prêts constituants ce portefeuille. EL portefeuille =? ELi La perte attendue n'est pas évidemment la perte qui sera réalisée effectivement. En effet, les pertes réelles n'ont pratiquement aucune chance d'être identiques à cette perte moyenne, celles-ci prennent des valeurs supérieures ou inferieures avec des probabilités non négligeables. Mais en moyenne, elles se rapprochent de cette valeur. 1.5 La perte inattendue (UnexpectedLoss ou UL): La perte inattendue (ou Unexpected loss) mesure la volatilité des pertes futures non anticipées. Elle correspond à l'écart type de la distribution des pertes. Elle peut être donnée par la formule suivante : UL = EAD SJEDF2.ó2LGD + LGD2. ó2EDF A. La perte inattendue d'une transaction : La perte inattendue d'une transaction est une mesure du risque de la transaction avant prise en compte des effets de diversification. Analytiquement, l'UL est égale à la volatilité de la valeur de la transaction autour de sa moyenne et est liée à la volatilité des défauts, à la volatilité de la valeur en cas de non défaut (possibilité de migration à l'horizon) et à la volatilité de la valeur en cas de défaut (la perte en cas de défaut étant une variable aléatoire). La perte inattendue d'une transaction est indépendante du portefeuille dans lequel on la considère. B. La perte inattendue du portefeuille : L'UL d'un portefeuille est une mesure du risque du portefeuille après prise en compte de tous les effets de diversification, elle varie donc selon les corrélations de défaut des contreparties qui le composent. Grâce aux effets de diversification, l'UL d'un portefeuille est inférieure à la somme des UL des transactions : UL portefeuille < ? ULtransaction Cela s'explique par le fait que les ULtransaction ne sont pas additives: ULportefeuille = .tJ? j ? ~ ULi.ULj.ñij où: · i et j deux actifs du portefeuille
  21. 21. · ñij est le facteur de corrélation entre les titres i et j · 0 ?ñij =1 et ULi > 0 ?é J?~ ? ~ ULi.ULj.ñij = ? i ? jJULi.ULj.ñij Puisque ñij =1, nous avons : ? i ? j %JULi.ULj.ñij = ? i ? jvULi.ULj = ? vULi . ? ~ vULj = (? , vULj )2 < ? |vULj 2| (inégalité de Cauchy) ? ~ |vULj |2 = ?ULi , nous aboutissons donc à : ULportefeuille << ?ULi C. La contribution en risque (RC ou Risk Contribution): La perte inattendue du portefeuille est par construction la somme des Contributions en Risque (Risk contribution ou RC) de toutes les transactions le constituant. La contribution en risque (RCi) d'une transaction mesure la quote-part de la perte inattendue portée dans le portefeuille, compte tenu de la diminution enregistrée grâce à la prise en compte de l'effet de diversification. Elle peut être définie comme la variation du montant total des pertes futures non attendues (UL) lorsque l'on ajoute cette exposition au portefeuille. La contribution en risque d'un prêt i (RCi) est mesurée par : äULp RCi = Xi äXi Où Xi représente la proportion investie dans le crédit i, II. LES PARAMETRES COMPTABLES: Les paramètres comptables de RAROC sont le revenu et le coût d'opération. La détermination de ces deux paramètres au niveau global ne présente aucune difficulté particulière. Tandis qu'au niveau client ou transaction l'estimation du revenu et coût s'avère très délicate et nécessite des procédures complexes basées sur la comptabilité analytique. 3.1 Le revenu: Les revenus mesurent le profit direct tiré de l'opération de crédit. Ce profit correspond à la différence entre la somme des intérêts et commissions perçus des clients et le montant des intérêts payés par l'établissement pour financer les ressources mises à la disposition de la clientèle.
  22. 22. Cette définition renvoie directement au concept du Produit Net Bancaire (PNB). On peut admettre ainsi que le revenu dans le calcul de RAROC n'est rien d'autre que le PNB. Analytiquement, le PNB correspond à l'agrégation de trois postes : la marge sur intérêts, les commissions nettes et les produits et charges divers · La Marge sur intérêts : elle représente la marge sur l'activité d'intermédiation du centre de profit, elle est égale à la différence entre les intérêts reçus des clients et les intérêts payés. · Les commissions nettes : elles correspondent à la différence entre les commissions reçues de la clientèle et les commissions versées à la clientèle. · Les produits et charges divers : Correspondent essentiellement aux produits du portefeuille titres de l'établissement ainsi qu'aux opérations de trésorerie et interbancaires. La détermination du PNB par opération repose sur le calcul de la marge sur intérêts et les commissions liées à cette opération. A. La marge sur intérêts: L'appréhension des marges sur intérêts d'une opération de crédit est liée au système de mesure des capitaux et des taux de cession interne des capitaux qui ont été retenus pour le calcul du PNB. Dans le cas d'un RAROC historique, la solution la plus simple consiste à prendre les intérêts réels versés par le client au cours de la période étudiée et à refinancer les crédits à l'aide d'un taux unique, comme celui du taux de marché monétaire ou celui du coût moyen des ressources. D'autres méthodes plus complexes peuvent être choisies, comme par exemple celle consistant à refinancer les prêts consentis à la clientèle suivant des taux dépendant uniquement des conditions de marché1. Dans le cas d'un RAROC ex-ante, l'estimation des intérêts à percevoir s'effectue en deux étapes : le calcul des intérêts en prenant en compte le taux d'intérêt appliqué et l'échéance du crédit, puis l'actualisation de ces flux. B. Les commissions : Contrairement au calcul de la marge sur intérêts, le calcul des commissions ne pose pas trop de problèmes particuliers. Les commissions sont généralement bien appréhendées, client par client, par les systèmes informatiquesF2F. Dans l'application de RAROC, plusieurs approches liées au calcul des commissions ont été proposées, cela revient à la disparité des auteurs quand à la prise en compte de quelques types de commissions ou non. L'approche la plus éminente est celle qui suppose que les commissions qui doivent être prises en compte sont celles liées directement à l'opération de crédit (frais de dossier, commissions d'impayés ou de remboursements anticipés, commissions de cautions...). 1 M. ROUACH & G. NAULLEAU. Le contrôle de gestion bancaire et financier .Ed La revue banque. Paris. P172
  23. 23. 2 Même ouvrage P173 Dans une approche plus extensive, on intègre également les commissions perçues par la banque de sa relation avec la clientèle qui a pu naître suite à l'octroi du crédit et qui permet la vente d'autres produits et services (Les commissions de caisse, les commissions de tenue de compte...). L'approche la plus restrictive suppose que les commissions doivent être écartées du numérateur de RAROC, dans la mesure où ce dernier est considéré comme un outil de tarification ajustée au risque qui s'intéresse à la rentabilité intrinsèque du crédit (relative à la transformation des ressources en emplois) et non à la rentabilité additive (relative aux services) générée par les commissions. 3.2 Le coût d'opération: L'estimation des coûts d'opérations exige le passage par une étape primordiale dans la comptabilité analytique, il s'agit de faire transiter les charges par les centres de responsabilité avant de les attribuer aux produits. Avant de passer au traitement des charges, nous allons aborder de façon succincte le concept de répartition de la banque en centre de responsabilité. A. Définition des centres de responsabilité analytique : Un centre de responsabilité se définit comme une entité de gestion dont le responsable dispose d'une délégation formelle d'autorité pour négocier des objectifs et des moyens et dotée d'un système de pilotage de sa gestion. Plusieurs types de centre de responsabilité peuvent être distingués : Les centres de coûts : Ils n'engendrent que des charges afin de réaliser une prestation ou un produit. Pour le responsable, il s'agit de respecter un niveau de charge et un budget global de fonctionnement. Dans la banque, les centres de coût sont particulièrement nombreux, d'où l'intérêt de les rattacher à l'une des catégories suivantes : · ULes centres de structureU: qui réalisent des prestations non identifiables et non répétitives. Leur mission est de contrôler et de coordonner les activités des autres centres comme par exemple la direction générale ou la direction des engagements ; · ULes centres de support:U qui réalisent des prestations identifiables et non répétitives et dont le mode opératoire n'est pas aisé à formaliser. On trouve les centres de support au sein des services généraux comme l'informatique et l'organisation, le marketing ou les études économiques et financières ; · ULes centres opérationnels:U qui réalisent des prestations identifiables, répétitives et à mode opératoire formalisé, comme le traitement des chèques et virements ou l'exécution des ordres de bourse. Ces centres livrent aux autres centres des prestations dont ils ne maîtrisent pas le volume et qui sont non rémunérées. Les centres de profits : ces entités de gestion sont responsables des coûts mais aussi génératrices de recettes car elles réalisent des prestations à caractère commerciale ou
  24. 24. financier. Le responsable d'un centre de profit dispose d'une délégation de pouvoirs couvrant les conditions de la négociation commerciale. Les agences bancaires constituent les centres de profit les plus importants B. Nomenclature des charges de fonctionnement : Selon leur appartenance aux différents centres de responsabilité de la banque, les charges peuvent être scindées en deux catégories : les charges directes et les charges indirectes : 1) Les charges directes : Les charges directes sont des charges qui peuvent être reliées sans équivoque au produit qui leur a donné naissance. La liaison est évidente et le facteur de production concourt totalement ou partiellement à l'élaboration du produit1. Ces charges peuvent être affectées directement au produit au moyen d'unités d'affectation choisies de façon adéquate. Une unité d'affectation peut être définie comme étant une unité de mesure de charges pouvant être exprimées en terme monétaire. Les principales charges directes sont : les frais de personnel, les charges de machine, les coûts immobiliers et les charges d'économat. · Les frais de personnel : ces frais constituent la partie la plus importante des charges directes. Ils représentent tous les frais relatifs aux effectifs pris au sens large. C'est-à- dire incluant non seulement la masse salariale mais aussi les frais de formation, de recrutement, de relations sociales... etc. L'unité d'affectation la plus logique est le cout minute de l'employé. · Les charges de machines : elles représentent les charges issues de l'utilisation des différents calculateurs, imprimantes, trieuses de billets... etc. L'unité d'affection la plus appropriée pour ces charges est le coût minute de fonctionnement de la machine. · Les charges immobilières : liées directement aux surfaces occupées qui incluent leurs frais d'entretien, l'amortissement des locaux, les loyers et les différents impôts et taxes afférents,... etc. L'unité d'affectation est le coût du mètre carré occupé par l'unité administrative, les surfaces communes sont ajoutées aux surfaces occupées au prorata des effectifs de chaque unité. · Les charges d'économat : elles sont de natures extrêmement diverses. Elles regroupent les fournitures de bureau, les charges en papier, imprimés, téléphone, fax, télex,... etc. Les charges d'économat sont généralement évaluées selon un coût forfaitaire moyen par opération. 1 Sylvie de Coussergues, gestion de la banque, édition DUNOD, Paris, 2000 2) Les charges indirectes : Les charges indirectes sont celles qui ne peuvent être reliées immédiatement au produit dont on calcule le coût. Ce sont des charges engendrées par des structures qui ne participent pas dans l'exploitation bancaire. Il s'agit des structures de la fonction assistance ainsi que les niveaux hiérarchiques les plus élevés des autres fonctions.
  25. 25. Les charges indirectes représentent la difficulté principale du calcul du coût. Les clés de répartition utilisées pour leur affectation sont souvent arbitraires et ne permettent pas un calcul fin des différentes rentabilités. C. Le processus d'affectation des charges: 1) La détermination des charges à retenir en comptabilité analytique : Certaines charges enregistrées en comptabilité générale ayant un caractère exceptionnel - charges non incorporables - sont exclues. Inversement, d'autres charges qui ne sont pas enregistrées en comptabilité générale - charges supplétives - sont introduites. + Charges de comptabilité générale + Charges supplétive - Charges non incorporables = Charges incorporables de comptabilité analytique 2) L'affectation des charges aux centres de responsabilité : Dans cette étape, les charges incorporables calculées dans la première étape, vont être affectées aux différents centres de responsabilités. Leur affectation suppose leur maîtrise par les responsables des centres, chose qui est difficile à appréhender dans la mesure où les responsables ne sont souvent capables de décider pour une part de leurs charges que sur accord de leur responsable. 3) La ventilation des charges des centres fonctionnels et des centres de structure Cette étape consiste à répercuter sur les centres de profit et opérationnels les charges indirectes générées par les centres fonctionnels et les centres de structure. Cette démarche s'appuie sur des clés de repartions conventionnels. 4) Le calcul des coûts d'opération : Les centres opérationnels livrent des prestations indentifiables et répétitives aux centres de profit moyennant un prix, ce prix est appelé coût opératoire. Pour le calculer, plusieurs méthodes peuvent être utilisées (coût réel, coût standard, ...). 5) La facturation des coûts d'opérations aux centres de profit : Cette dernière étape consiste en l'affectation des charges des différents centres opérationnels aux centres de profit. Il s'agit d'une facturation interne tenant compte du volume et des coûts unitaires des opérations. D. Les méthodes de calcul des coûts d'opération : De nombreuses méthodes sont possibles pour calculer les coûts des opérations, le recours à chacune d'entre elles dépend des circonstances d'utilisation et des besoins. Nous allons présenter brièvement les méthodes les plus utilisées:
  26. 26. 1) La méthode du cout réel : Il est calculé en divisant l'ensemble des charges du centre opérationnel par le nombre d'opérations effectuées par ce dernier. Par exemple si le back-office effectue 10 000 ordres de bourse sur une période déterminée et que le total des charges constatées durant cette période est de 100 000 um, le coût unitaire moyen d'un ordre de bourse au back-office serait de 10um. Cette méthode présente deux inconvénients : d'abord, Les variations du coût réel dues au niveau d'activité des centres opérationnels nuisent à la perception des performances dans la mesure où le centre de profit n'est pas responsable de ces variations. De plus, Les coûts réels facturés par les centres opérationnels peuvent être différents des prestataires externes lesquels seront facturées au prix de marché. 2) La méthode des coûts standards : Elle consiste à calculer des coûts prévisionnels - dans un contexte de fonctionnement normal des centres de responsabilité - qui constitueront une norme à respecter pour une période future tel que l'exercice budgétaire. Ils sont obtenus en divisant les charges globales prévisionnelles du centre opérationnel par le nombre d'opérations prévues. Prenons l'exemple d'un centre de traitement de chèques qui prévoit de traiter 1 000 000 chèques sur une période future.les charges prévisionnelles sont estimées à 10 000 000 um, ce qui fait que le coût moyen unitaire standard du traitement d'un chèque serait de 10um pour la période considérée. Ainsi, la méthode des coûts standards permet d'éviter l'influence de la variation du niveau d'activité des centres opérationnels sur les centres de profit 3) La méthode des coûts de marché Selon cette méthode, la facturation des opérations sera faite au prix de marché. Ce prix correspond au coût pratiqué par l'ensemble du secteur ou sur la base des prix proposés par des sous-traitants. Elle permet de ce fait de comparer en permanence les niveaux de performance internes à ceux du marché. Cependant, la disparité des conventions analytiques employées par les banques dans la détermination de leurs coûts et le manque d'informations rendent sa mise en oeuvre délicate. 4) La décomposition en coûts fixes et coûts variables Cette méthode distingue les charges liées à l'activité (les charges variables) de celles liées à la capacité et à la période (les charges fixes). Elle sert à fixer un seuil de rentabilité (notion de point mort) et à appréhender les effets de variations des volumes d'activité sur les coûts unitaires. Toutefois, elle n'est pas très sollicitée dans le secteur bancaire en raison de difficultés techniques et d'appréhension des critères de variabilité des charges. 5) La méthode ABC La méthode ABC (Activity Based Costing) découle du principe disant que les produits consomment des activités et les activités consomment des ressources. Les ressources consommées par un service (personnel, équipement, locaux) sont allouées par « inducteurs de ressources » aux différentes activités réalisées. Par la suite des « inducteurs de coûts » sont
  27. 27. déterminés pour pouvoir allouer les coûts des activités aux produits. Ces inducteurs se substituent aux unités d'oeuvre ou aux clés de répartition utilisés dans la comptabilité analytique conventionnelle. Cette méthode permet un suivi par activité, cependant elle est complexe à mettre en oeuvre. La méthode ABC vise à améliorer l'exploration des charges indirectes dans l'ensemble des coûts. Elle permet d'apporter une aide en termes de tarification, en liaison directe avec la comptabilité analytique. CONCLUSION A travers ce chapitre, nous avons mis l'accent sur le concept RAROC et ses différents paramètres. Dans ce qui suit, nous allons voir comment peut-on appliquer ce concept dans la gestion du risque de crédit, que peut l'outil RAROC apporter pour la banque et quels sont ses limites. CHAPITRE II: LA GESTION DU RISQUE DE CREDIT PAR LA METHODE RAROC Bien que RAROC en tant que concept soit loin de toute complexité, son application au sein d'une banque requiert la prise d'une panoplie de mesures permettant l'estimation des différents paramètres le constituant. A travers ce chapitre, nous allons présenter RAROC en tant qu'innovation managériale pour la gestion du risque de crédit au sein des établissements bancaires. Dans cette perspective, nous allons procéder par une première section traitant le concept de notation interne et les procédures des systèmes de rating pour l'estimation des paramètres de risques au niveau individuel. Dans la deuxième section nous allons aborder les principes essentiels de la modélisation du risque de crédit et l'apport des modèles dans l'estimation des pertes futures. Quand à la troisième section, elle portera essentiellement sur l'aspect pratique de la méthode RAROC, ses applications en matière de gestion du risque de crédit et un aperçu sur l'apport et les limites de cet outil. SECTION 1: LA NOTATION INTERNE L'existence au préalable d'un système performant de notation interne dans la banque est indispensable pour la mise en place d'un outil de gestion de risque tel que RAROC. La pertinence de ce dernier est fortement liée à la qualité des outputs du système de notation. Dans cette section nous allons présenter les principaux aspects liés à la notation interne et aux systèmes de rating au sein des établissements bancaires.
  28. 28. 1. ORIGINE DE LA NOTATION: La notation est apparue aux USA au début du vingtième siècle par la publication du premier manuel de notation de John Moody en 1909. Ce dernier a introduit un système graduel de notation pour les obligations émises par les compagnies des chemins de fer aux Etats-Unis, dont le but était de résumer l'information sur la qualité du crédit et de fournir aux investisseurs une information objective sur les entreprises. Depuis, plusieurs agences de rating ont vu le jour à l'instar de Fitch Investor Services en 1922 et Standard & Poor's en 1924. Cependant, ce n'est qu'aux années 80 que les systèmes de rating ont été adoptés en Europe. 2. DEFINITION DE LA NOTATION INTERNE La notation interne constitue un moyen d'appréciation du risque de perte consécutif à la défaillance de l'emprunteur. Cette appréciation tient compte de tous les aspects pouvant renseigner sur la contrepartie qu'ils soient qualitatifs ou quantitatifs. Le comité de Bâle retient la définition suivante des systèmes de notations internes : « Un système de notation recouvre l'ensemble des processus, méthodes, contrôles ainsi que les systèmes de collecte et informatiques qui permettent d'évaluer le risque de crédit, d'attribuer des notations internes et de quantifier les estimations de défaut et de pertes. »1 Qu'il soit simple ou avancé, un système de notation interne a pour objectif principal d'affecter chaque contrepartie à une classe de risque. Les individus ayant été classés au même niveau de risque doivent donc présenter des caractéristiques qui se rapprochent. 3. LES DEUX APPROCHES DE LA NOTATION INTERNE Il existe deux grandes approches pour attribuer des notations à des prêts ou des emprunteurs : 1 Document consultatif du comité de Bâle, avril 2003 1) Les systèmes expert : cette première approche repose sur l'opinion d'experts ; on parle de score par expertise. Elle reste prépondérante pour les notations des grandes entreprises, des pays, des collectivités locales, des financements de projets. Elle s'appuie sur une analyse approfondie des bilans, des projets... et sur une comparaison avec les notations des agences. 2) Les systèmes de scoring : cette approche s'appuie sur des analyses statistiques des défaillances observées dans le passé pour des dettes ou des emprunteurs comparables. Elle est prépondérante pour les crédits à la consommation, les prêts hypothécaires, les crédits permanents (cartes de crédit), les prêts aux PME... Par son caractère plus automatique, elle est très adaptée à la gestion des accords de crédit en ligne. 4. LES CARACTERISTIQUES D'UN SYSTEME DE NOTATION INTERNE: Des procédures et des critères clairs et précis doivent être bien définis pour qu'un établissement bancaire puisse attribuer des notes. Dans son dernier document consultatif, le comité de Bâle définit un certain nombre de paramètres indispensables à la mise en place d'un système de notation interne :
  29. 29. «... les systèmes et processus de notation et d'estimation doivent permettre d'évaluer avec pertinence les caractéristiques d'un emprunteur et d'une transaction, de différencier valablement ces risques et de les quantifier avec suffisamment de précision et de cohérence ; ils doivent, en outre, faciliter un usage interne approprié des estimations obtenues. »1 4.1 La classification des expositions: Le comité de Bâle exige aux banques désireuses de se munir d'un système de notations internes de segmenter leurs portefeuilles de crédit en fonction des caractéristiques de risque, il a proposé dans sa version préliminaire les six catégories d'actifs suivantes : Entreprises, banques, emprunteurs souverains, banques de détail, financement de projets et enfin les portefeuilles d'actions. Une telle classification des risques est largement cohérente avec les pratiques bancaires en vigueur. Ce classement reste toutefois à titre indicatif uniquement, les banques gardent la possibilité d'utiliser leurs propres classifications des expositions tout en veillant à leur régularité dans le temps. 4.2 Les paramètres de notation: Pour être éligible à l'approche des notations internes, un système de notation doit être caractérisé par deux paramètres bien distincts : le risque de défaut de l'emprunteur et les facteurs spécifiques à la transaction. · Le risque de défaut de l'emprunteur : Il doit être indépendant de la nature des engagements dont a bénéficié le client. Ainsi, toutes les expositions sur cet emprunteur appartiendront à la même classe de notation. 1 Document consultatif du comité de Bâle, avril 2003 · Les facteurs spécifiques à la transaction : Ils englobent des éléments tels que les sûretés, le type et la durée du produit et autres. 4.3 Nombre des classes pour les actifs: Les banques doivent veiller à ce qu'il y ait une distinction claire entre les actifs sains et les actifs compromis qui nécessitent une attention particulière de la part des gestionnaires. En moyenne, les banques adoptent un nombre de classes proche de 10 pour les actifs sains et de 2 ou 3 pour les actifs douteux ou non productifs, en incluant les classes additionnelles, c'est- àdire celles affectées des signes + ou - modifiant la totalité ou une partie des classes. Il est également fortement préconisé d'établir les classes de façon à faciliter la comparaison avec les échelles des agences de notations externes. Le système de notations internes doit permettre une différentiation correcte et significative des expositions selon les classes de risques afin d'éviter une concentration excessive au sein d'une seule catégorie. De manière générale, les banques doivent veiller à ce qu'il n'y ait pas plus de 30% environ d'expositions notées à l'intérieur d'une seule catégorie d'emprunteurs. 4.4 L'estimation des paramètres de défaut:
  30. 30. La banque doit utiliser toutes les données, les informations et les méthodes dont elle dispose pour l'estimation des PD, LGD, EAD. Elle peut même avoir recours à des sources externes si elle juge qu'elles soient cohérentes. A. Exigences pour l'estimation des PD: Les méthodes d'estimation des PD pouvant être utilisées selon Bâle II doivent s'appuyer sur l'une des trois techniques suivantes : · L'expertise et les données de défaillances internes; · Le mapping vers les données externes : il s'agit d'accorder à l'emprunteur non noté par les agences de notation une note équivalente au rating externe qu'il aurait obtenu. Par la suite la banque peut utiliser les historiques de PD et de migrations déjà observés et publiés par ces agences. · Des modèles statistiques de prédiction des défauts. B. Exigences pour l'estimation des LGD et EAD : Pour les banques sous le régime de l'approche avancée, les estimations de LGD et EAD doivent représenter une moyenne pondérée en fonction des défauts sur longue période pour chacun de ses engagements. L'estimation de LGD moyenne doit être fondée sur les taux de recouvrement antérieurs et pas uniquement sur la valeur de marché des sûretés. L'estimation d'EAD doit quant à elle être attribuée à chaque facilité, c'est une moyenne pondérée en fonction des défauts observés pour des facilités et emprunteurs similaires sur une période suffisamment longue. 4.5 Les dérogations :1 L'attribution d'une note doit reposer sur des preuves empiriques et satisfaire certaines exigences concernant l'historique de la série de données, leur représentativité ou encore la conjoncture économique, néanmoins des jugements personnels peuvent intervenir et changer la note. Ces dérogations peuvent être légitimes mais doivent être clairement justifiées. Elles doivent comprendre des contrôles et des autorisations de personnes habilitées à effectuer de tels changements. 5. LA VALIDATION DU SYSTEME DE NOTATION INTERNE: Il ne suffit pas de développer un modèle de notation, mais il faut le mettre en place. Toutefois, avant de l'exploiter, la banque doit s'assurer que le modèle qu'elle a développé donne des résultats fiables. C'est pourquoi le comité de Bâle a préconisé aux banques de développer un système de « backtesting » dont le but est de vérifier le pouvoir prédictif de l'outil de notation et le faire évoluer afin d'avoir des prévisions de défaut plus exactes. Jusqu'aujourd'hui, les autorités bancaires n'ont pas encore arrêté les règles communes de validation des modèles internes de notation, néanmoins une liste des points d'attention et des règles de prudence régissant les étapes de l'élaboration de ces modèles peut déjà être dressée. Ces règles reposent sur le respect de certaines normes qualitatives et l'aptitude de passer des tests statistiques.
  31. 31. 5.1 La démarche qualitative: Il s'agit essentiellement de vérifier la qualité de l'information collectée et traitée par la banque et de la validation des procédures de contrôle : Le niveau de performance du système d'information reflète la qualité de l'information. A ce stade, le contrôle se fait sur les éléments permettant l'extraction, le stockage, la circulation et le traitement des données. Quand aux normes de contrôle, Celles-ci ont pour objectif de s'assurer de la régularité des procédures et règles de contrôle de la structure et du fonctionnement des modèles internes. Dans ce cadre d'analyse, il est important de vérifier certains aspects liés à l'indépendance de la fonction de gestion des risques, la pratique d'un reporting périodique aux dirigeants de l'établissement et le recours à des audits réguliers du modèle interne. 5.2 La validation statistique: Cette étape repose sur deux type de tests ; les tests de puissance et les tests de calibrage. Les premiers s'intéressent à la capacité du système de notation à bien discriminer les emprunteurs selon leur qualité de crédit, quand aux seconds, leur but est de mesurer la pertinence du calibrage des PD associés à chaque classe de risque. 1 Antoine SARDI - Audit et contrôle interne bancaire- AFGES - Paris 2002. P717 SECTION 2: LA MODELISATION DU RISQUE DE CREDIT: Dans leur gestion quotidienne du risque de crédit, les banques ont une préoccupation majeure, qui consiste à prévoir le montant des pertes qu'elles pourront subir dans le futur sur leurs portefeuilles d'engagements. Pour pouvoir estimer ces pertes futures, les banques ont recours à des modèles d'évaluation du risque de crédit. La modélisation est une étape primordiale dans le processus de mise en place d'un système RAROC, vue qu'elle fournie ses deux paramètres liés aux risques, en l'occurrence, la perte attendue (Expected Loss) et la perte inattendue (Unexpected loss). Dans ce qui suit, nous allons passer en revue quelques notions sur la modélisation du risque de crédit. 1. LES DIFFICULTES METHODOLOGIQUES DE LA MODELISATION DU RISQUE DE CREDIT 1.1 La nature de l'événement de crédit: A la différence du risque de marché, uniforme, le risque de crédit a des expressions fort différentes. En effet, la distribution de pertes dépend de l'événement retenu comme fait générateur (Défaut, changement de rating, variation du spread de signature, ...) et en conséquence les mesures des fonds propres associés vont être distinctes selon que l'on retienne un événement ou un autre. Cette réalité était à l'origine de l'apparition de deux types
  32. 32. de modèles d'évaluation du risque de crédit : les modèles de défaut et les modèles Marked to Market. 1.2 L'horizon du risque de crédit: L'estimation de l'horizon de crédit est un exercice beaucoup plus délicat, qui peut appeler des réponses légitimes très éloignées. Les deux réponses extrêmes sont d'une part, l'horizon de l'exercice comptable (communément d'une année), d'autre part, l'échéance de la position. Le choix de l'horizon de l'exercice comptable suppose que l'horizon du risque de crédit est celui de la constatation comptable des pertes réelles ou potentielles associées à la dégradation de la qualité du portefeuille de crédit. Ce choix est essentiellement guidé par des considérations pratiques : C'est l'horizon de décision ordinaire des prêteurs, celui au cours duquel les contrats de crédit sont renégociés et celui au cours duquel les banques peuvent réunir des informations nouvelles pour évaluer la solvabilité des emprunteurs. Il représente également l'horizon sur lequel sont définis les besoins de fonds propres. Enfin, c'est sans doute aussi, en moyenne, l'horizon qui correspond à la majorité des crédits. A l'opposé, le choix de l'horizon de la position comme horizon du risque paraît indiscutable : un crédit à 7 ans engage la banque sur un horizon de 7 ans. Cependant, cette approche ne parait pas aussi évidente quand il s'agit de déterminer les fonds propres alloués à une opération donnée. Le problème qui se pose est le suivant : le montant des fonds propres alloués l'année t à une opération doit-il couvrir le risque de dégradation de la qualité de crédit sur cette seule année, ou couvrir le risque associé aux années ultérieures ? Dans la deuxième hypothèse, un montant inutile de fonds propres est engagé dés la première année, entraînant une utilisation sub-optimale du capital. Une allocation constituée sur une base annuelle semble en conséquence plus adaptée, mais elle ne repose alors pas sur une perspective à long terme des risques encourus et peut se révéler insuffisante à la fin de l'exercice comptable. 1.3 Le choix du niveau de pertes acceptable: La mesure des pertes inattendues nécessite la détermination au préalable d'un seuil de confiance, qui n'est rien d'autre qu'un quantile élevé de la distribution des pertes (99.9% par exemple). Le choix de ce paramètre repose sur plusieurs considérations : · L'aversion au risque de la banque : Le degré de prudence des dirigeants ou de leur aversion au risque est le critère le plus naturel sur la base duquel le seuil de confiance peut être déterminé. Si la banque est très adverse au risque, elle choisit un quantile élevé de telle sorte que l'estimation des pertes potentielles couvre les pertes induites par le plus grand nombre possible de réalisations des facteurs de risque. · L'objectif de raiting : Les agences de notation publient périodiquement les taux de défaut associés aux différents ratings. Si les dirigeants ont un objectif de rating, le niveau des fonds propres correspondant (d'où le seuil de confiance) devrait être celui qui conduit à un taux de défaut correspondant au rating visé. Par exemple une note Aaa de l'agence Moody 's correspond à une probabilité de défaut de 0,03%. De ce fait, une banque qui vise cette note choisira alors un quantile de 99,97%.
  33. 33. · Les considérations prudentielles : le régulateur peut imposer le choix d'un quantile suffisamment élevé pour que les banques constituent un montant de fonds propres économiques suffisant pour couvrir une part plus importante des pertes potentielles. 2. LES ETAPES DE CONSTRUCTION D'UN MODELE DE RISQUE DE CREDIT: La construction d'un modèle de risque de crédit s'opère en deux étapes : 2.1 L'évaluation du risque au niveau individuel Cette étape est consacrée à la collecte de l'information sur les éléments constitutifs du risque de chaque crédit. Elle consiste essentiellement à ranger les crédits en classes de risque définies par le système de notation interne de la banque. Sur la base de cette classification, des probabilités de migration de chaque crédit entre les différentes classes de risque vont être déterminées. Dans le cas d'un modèle MTM toutes ces probabilités de migration sont prises en considération, afin de constituer une matrice de transition. Tandis que dans le cas d'un modèle de défaut on s'intéresse uniquement à la migration du crédit vers la classe de défaut. Celle-ci ne peut constituer une classe de départ, alors elle est dite « absorbante ». L'étape suivante consiste à mesurer la valeur de chaque crédit en fonction de son appartenance aux différentes classes de risque. Dans le cas d'un modèle de défaut, on s'intéresse à déterminer la valeur de l'exposition seulement dans le cas de défaut. Enfin, il importe de déterminer la perte en cas de défaut (LGD). Celle-ci dépend du taux de recouvrement en cas de défaut, qui dépend lui-même de la nature du crédit, de sa maturité et des garanties qui lui sont associées. Une fois les facteurs du risque sont déterminés, l'étape suivante consiste à déterminer la perte attendue et la volatilité des pertes (perte maximale inattendue) pour chaque position individuelle. 2.2 L'évaluation du risque au niveau du portefeuille: Cette étape consiste en une agrégation des résultats obtenus dans l'étape précédente, afin de déterminer le risque global du portefeuille, ce qui suppose l'intégration des corrélations entre les événements de crédit. Le but principal d'un modèle de risque de crédit reste de construire une distribution de pertes sur la base de laquelle la perte potentielle maximale (Value at Risk) et le niveau des fonds propres économique seront déterminés. A. La distribution des pertes La distribution de perte d'un portefeuille de crédit, à un horizon de temps choisi, correspond à une courbe qui relie la fréquence de perte de crédit à l'intensité du niveau de celle-ci. La PDF présente la particularité de ne pas être de type normal. En effet, celle-ci est fortement asymétrique (coefficient d'asymétrie1 positif) et leptokurtique (coefficient d'aplatissement2 supérieur à 1)
  34. 34. Quelle que soit la méthodologie retenue pour sa construction, le principe reste identique. Pour chaque état de la nature possible (réalisation des facteurs de risque), il s'agit de déterminer conjointement la répartition de fin de période des emprunteurs au sein des classes de risque 1 Appelé aussi Skewness , il correspond au moment d'ordre 3 2 Appelé aussi Kurtosis, , il correspond au moment d'ordre 4 (y compris la classe de défaut) et la variation de la valeur de chaque crédit en fonction de la classe de risque dans laquelle il se trouve. Dans le cas d'un modèle MTM, la perte totale s'obtient alors, compte tenu de l'hypothèse d'indépendance des migrations conditionnelles, par simple agrégation des positions individuelles. Pour un modèle s'inscrivant dans l'approche de défaut, il suffit de déterminer le nombre de défauts dans chaque classe pour chaque réalisation des facteurs de risque et la perte relative à chaque défaut. Les corrélations entre événements de crédit interviennent entièrement dans ce cadre à travers le fait que les variations des valeurs individuelles (y compris en cas de défaut) dépendent directement de la réalisation des facteurs de risque et sont donc étroitement liées les unes aux autres. Deux approches bien distinctes sont utilisées pour la construction de la PDF: l'approche analytique et l'approche de simulation · Une approche de type analytique : consiste en la recherche d'une forme de distribution susceptible d'approcher la PDF et en particulier sa queue de distribution. Le modèle CreditRisk+ utilise ce type d'approche : la distribution des pertes est donnée par une relation de récurrence qui donne la probabilité de l'occurrence d'une perte de n unités d'exposition en fonction de la probabilité de l'occurrence d'une perte de n-1 unités d'exposition; · Une approche fondée sur la simulation Monte Carlo : applicable à de très grands portefeuilles, elle permet de spécifier un montant de pertes agrégées lié à une réalisation particulière des facteurs de risque. Dans un premier temps on effectue un nombre de tirages aléatoires (100 000 par exemple) à partir de la loi de distribution des facteurs de risque (généralement normale), après on lie chaque réalisation à un montant de pertes. Il suffit ensuite d'ordonner ces pertes pour construire l'histogramme de la distribution. Cette approche est utilisée aussi bien par CreditMetrics que par KMV. Ces deux approches peuvent être complétées par une approche fondée sur la théorie des valeurs extrêmes (EVT). Celle-ci permet de déduire une loi asymptotique pour la distribution des grandes pertes. L'usage de cette loi permet de mieux cerner la distribution des pertes extrêmes pour lesquelles le nombre de données est généralement insuffisant. B. La Value at Risk (VaR) La Value at Risk (VaR) est la perte maximale sur un crédit (ou un portefeuille de crédits) à un horizon de temps et un niveau de confiance donnés.
  35. 35. Dans sa forme générale, la VaR peur être tirée de la distribution de probabilité des pertes. Elle est alors égale au quantile d'ordre á de la fonction de densité des pertes (PDF) : ~~ P (x?x*)= 1-á = f f(x) ~~ dx Où á est le seuil de confiance choisi (ex : 99%), x* le quantile d'ordre á et f la PDF. Si la distribution de la valeur marchande d'un titre est normale, que sa valeur moyenne est de 100 DA et que son écart type est égal à 10 DA l'approche par la VaR nous renseigne qu'à 99% de chance la valeur du titre reste supérieure à 100 - 2,33 × 10 = 76,7 DA ou bien que la perte soit inférieure à 100 - 76,7 = 23,3 DA. Ainsi, les éléments nécessaires pour le calcul de la VaR sont la moyenne et l'écart type des prix des actifs. Si ces éléments sont facilement estimables pour les valeurs faisant l'objet d'une cotation, leur estimation dans le cas des crédits bancaires présente une difficulté car leur valeur n'est pas directement observable. De plus, l'hypothèse de normalité est difficilement justifiable car la distribution de cette valeur est fortement asymétrique. Figure 2.1 : Distribution des pertes et VaR 3. MODELES DE DEFAUT VS MODELES MTM Les modèles de quantification du risque de crédit peuvent être rangés en deux grandes catégories: les modèles de défaut (Default model ou DM) et les modèles Marked to market (ou MTM) : 3.1 Les modèles de défaut (DM) : Ces modèles considèrent l'événement de défaut comme le seul risque de crédit. En conséquent, deux états de la nature sont jugés pertinents : le défaut et l'absence du défaut. Cette approche est généralement la plus adoptée par les banques car la plupart des prêts consentis par une banque ont vocation à rester dans son portefeuille jusqu'à l'échéance finale, quelle qu'en soit l'issue
  36. 36. On retrouve dans cette catégorie le modèle de référence CreditRisk+ développé par Crédit Suisse Financial Productes (CSFP), 3.2 Les modèles Marked to market (MTM) : Dans ces modèles le risque de crédit correspond à l'un des événements suivants : · Un défaut comme dans le cas des modèles DM · Un changement de rating · Une modification du spread, en se qui concerne les instruments de marché De ce fait, la dégradation de la cote d'une obligation par exemple de BBB à BB, entraine une perte pour son détenteur, malgré l'absence de défaut. Dans les modèles MTM et contrairement aux modèles de défauts, la perte attendue peut prendre une valeur positive ( ce qui se traduit par un gain ) à partir du moment où la valeur de marché peut évoluer dans un sens positif. L'approche s'applique principalement aux titres de marché émis par des firmes notées par les grandes agences de rating telles que S&P ou Moody's. Parmi les modèles appliquant cette approche, on trouve CreditMetrics de JPMorgan . 4. LES MODELES DE REFERENCE: 4.1 CreditRisk+ de Crédit Suisse Développé en 1996 par Crédit Suisse Financial Productes (CSFP), CréditRisk+ est un model de défaut qui utilise une approche dite actuarielle. C'est un modèle dans lequel la probabilité de défaut est modélisée comme une variable continue caractérisée par une distribution de probabilité. Le comportement des taux de défaut est alors représenté par la volatilité de ce taux. Le modèle CreditRisk+ est fondé sur des hypothèses inspirées des techniques de calcul des primes d'assurance incendie. Dans un portefeuille d'assurances incendie, chaque sinistre a une faible probabilité de se réaliser et il est peu probable que toutes les maisons prennent feu. De plus, le coût de chaque sinistre est incertain en ce sens qu'une maison peut bruler entièrement ou partiellement. Par analogie, le modèle CreditRisk+ a été bâti sur les hypothèses suivantes : · Chaque crédit est supposé avoir une faible probabilité de défaut. · Chaque défaut sur un crédit est supposé indépendant des défauts des autres crédits. · Les pertes peuvent être plus ou moins importantes et leur montant est considéré comme une source d'incertitude. Méthodologie du modèle :
  37. 37. Le modèle CreditRisk+ procède à une décomposition du portefeuille en bandes. Chaque bande considérée comme un portefeuille distinct qui regroupe des crédits dont les expositions s'approchent de sa valeur moyenne. Dans une première étape, le modèle va s'intéresser au calcul des pertes à l'intérieur de chaque bande. Ainsi, une probabilité moyenne de défaut va être attribuée à chaque portefeuille. Cependant, cette probabilité est incertaine dans la mesure où le taux de défaut est considéré comme étant une variable aléatoire. Dans sa spécification la plus simple, CreditRisk+ suppose que le taux de défaut suit une loi de poisson, la distribution de probabilité des défauts est alors de la forme : e -mmn P (n défauts) = n! Où m représente le nombre de prêts et n le nombre de défauts. En utilisant cette loi, on peut donc trouver les probabilités associées au nombre de défauts dans chaque bande. C'est-à-dire dans chaque portefeuille on calcul la probabilité qu'il y ait 0 défaut, 1 défaut, 2 défauts, jusqu'à n défauts. Par la suite, la distribution des pertes sera calculée à l'intérieur de chaque bande, et les pertes seront agrégées sur l'ensemble des bandes pour construire de cette manière la distribution des pertes sur le portefeuille global. 4.2 CréditMetrics de JP Morgan La méthode a été développée en 1997 par le groupe de recherche sur la gestion du risque de la firme J.P. Morgan pour mesurer le risque de crédit et valoriser les portefeuilles d'actifs non négociables tels que les prêts et obligations privées. Son objectif est de permettre aux établissements de crédit d'évaluer la valeur future de leur portefeuille et non pas seulement d'estimer leurs pertes potentielles. En ce sens, il s'agit d'un modèle de transition et non pas de défaut. Méthodologie du modèle : Essentiellement concentré sur une évaluation des risques au niveau d'un portefeuille, la procédure ne propose pas de technique d'évaluation des probabilités de défaut individuelles. En pratique, l'évaluation des probabilités de transition se fait au niveau des classes de risque (rating) et non au niveau individuel, ce qui implique que toutes les firmes d'une même classe sont supposées porter le même risque. La mise en oeuvre de la méthode repose sur les étapes suivantes : 1. Une note est attribué à chaque émetteur (ou émission) en fonction de sa solvabilité présumée. Cette notation peut être celle publiée par les agences spécialisées ou une notation interne ;
  38. 38. 2. On détermine une matrice de transition de rating. Cette matrice consiste à donner pour un émetteur auquel on a attribué un rating actuel, les différents ratings potentiels à un horizon donné avec la probabilité de migration de la note initiale à chacune des notes potentielles. Cette matrice peut être obtenue à partir des données historiques fournies par les agences de notation ou par estimation statistique ; 3. A chaque type de rating, on attribue une courbe des taux prenant en compte le risque spécifique de cette catégorie de rating par rapport à un émetteur sans risque de crédit. Cette courbe des taux peut être déterminée à partir d'un panel d'émissions ayant ce rating ; 4. A chaque émetteur (ou émission), on attribue un taux de recouvrement en cas de faillite. Ce taux de recouvrement est celui que donnera le liquidateur aux créanciers de la société en cas de faillite. Afin de prendre en compte le caractère spécifique de chaque émission et en particulier les garanties associées, il peut être plus judicieux d'attribuer un taux de recouvrement par émission plutôt que par émetteur. La méthode permet également de se baser sur l'espérance et la volatilité du taux de recouvrement correspondant au rating et à la séniorité de la dette. 5. La dernière étape consiste en l'estimation de la VaR, pour ce faire, CréditMetrics utilise l'approche fondée sur la simulation Monte-Carlo en générant des scénarios de valeurs des titres faisant partie du portefeuille. Ces scénarios sont traduits en transitions vers des classes de risque et donc directement en valeurs du portefeuille. La distribution empirique de la valeur future du portefeuille de la banque est ensuite construite sur la base des résultats obtenus. 5. LA VALIDATION DES MODELES DE CREDIT: Avant d'utiliser un model, la banque est tenue d'évaluer sa performance. Elle doit s'assurer de se fait que les résultats obtenus sont pertinents et convergent vers la réalité. Pour ce faire les banques procèdent régulièrement à des tests de validation de leurs modèles afin d'ajuster des paramètres (coefficients) ou même de modifier des composantes. Plusieurs testes de validations sont utilisés pour les modèles de crédit, les plus connus sont le Backtesting, le Benchmarking et le Stress testing : 1) Backtesting : Cette méthode consiste à comparer les valeurs réelles des variables à celles estimées par le model. Ceci se fait par le calcul de l'écart dans le passé entre les variables objectifs (endogènes) estimées préalablement par le model et la réalité de ces variables constatée ex-post. 2) Benchmarking : Ce teste consiste à comparer le modèle interne avec des références externes. Les décalages significatifs dans les résultats restitués doivent être étudiés et justifiés. Les benchmarks consistent en des données fournies par des organismes externes de notation des crédits. Les écarts ainsi constatés permettent de mettre en lumière les insuffisances et les forces des méthodologies utilisées par la banque. 3) Stress testing : cette méthode (appelée aussi Scénario-catastrophe ou de crise) consiste à introduire différents scénarios extrêmes concernant les paramètres d'entrée du model (Input),

×