SlideShare une entreprise Scribd logo
RAROC: Outil de gestion du risque de
 crédit
SECTION 2:

                        LA GESTION DES RISQUES BANCAIRES:

La gestion des risques bancaires correspond à l'ensemble des techniques, outils et dispositifs
organisationnels mis en place par la banque pour identifier, mesurer et surveiller les risques
auxquels elle est confrontée.

On distingue deux approches différentes dans la gestion des risques ; une première interne
portant sur les risques pris individuellement et selon leur nature (risque de crédit, risque de
marché, risque de liquidité...), quand à la seconde, elle est globale et constitue un processus
holistique, qui suppose une consolidation de tous les risques et la prise en compte de leur
interdépendance.

I. LES OBJECTIFS DE LA GESTION DES RISQUES:

La gestion des risques vise la réalisation de quatre objectifs1 :

· Assurer la pérennité de l'établissement, par une allocation efficiente des ressources et une
allocation adéquate des fonds propres qui permettra une meilleure couverture contre les pertes
futures.

· Elargir le control interne du suivi des performances au suivi des risques associés.

· Faciliter la prise de décision pour les opérations nouvelles et permettre de les facturer aux
clients.

· Rééquilibrer le portefeuille de l'établissement, sur la base des résultats et des effets de
diversification.

II. LES ETAPES DE LA GESTION DES RISQUES:

La gestion des risques repose sur un processus de six étapes :

1.1 Identification des risques:

Cette étape consiste à établir une cartographie des risques auxquels la banque est confrontée.
Cet exercice ne doit pas être limité dans le temps, vu les changements internes et externes qui
touchent le milieu bancaire et qui peuvent engendrer l'apparition de nouveaux risques.

1.2 Evaluation et mesure des risques:

Elle consiste à quantifier les coûts associés aux risques identifiés dans la première étape.
1 Joel BESSIS - Gestion des risques et gestion Actif-Passif des banques. Dalloz. Paris. 1995.
P48

La mesure du risque dépend de la nature de ce dernier, s'il est quantifiable ou non. Lorsque les
risques sont quantifiables comme dans le cas du risque de crédit et du risque de marché, le
concept le plus utilisé est celui de la Value-at-Risk. Dans le cas des risques non quantifiables,
une méthodologie objective est appliquée pour les estimer, à travers deux variables:

· La probabilité de survenance d'un événement négatif, qui à défaut de quantification, peut se
voir attribuer des valeurs relatives : forte, moyenne et faible probabilité.

· Gravité de l'événement en cas de survenance du risque : là aussi, en absence de
données quantifiables, on peut attribuer une variable relative : élevé, moyen, faible.

Le croisement des deux séries de variables, permettra de donner une idée relative du risque.

1.3 Sélection des techniques de gestion des risques:

Les techniques de gestion des risques visent principalement l'un des trois objectifs suivants :

· Eviter le risque

· Transférer le risque

· Encourir le risque

1.4 La mise en oeuvre:

Cette étape consiste à mettre en oeuvre la technique choisie, elle doit être réalisée par une
unité clairement désignée à cet effet, par exemple : la salle des marchés pour les risques de
marché, la direction des engagements pour le risque de crédit, ALM pour la gestion du risque
de liquidité et de taux. Quand au risque opérationnel, il a la particularité d'être plus
difficilement attribuable a une unité spécifique vu ça présence partout.

Le principe fondamental de cette étape de gestion des risques est de minimiser les coûts
attribués à la mise en oeuvre de la solution.

1.5 Surveillance des risques:

Le suivi permanant des risque est primordial, et ce afin de s'assurer que les stratégies adoptées
donnent des résultats optimaux. En effet, au fil du temps et selon les circonstances, il se peut
que les décisions initialement prises deviennent incompatibles avec la conjoncture et de ce fait
elles doivent être modifiées ou carrément remplacées.

1.6 Reporting des risques:

 Le reporting est l'aboutissement logique de tout processus de gestion, il s'agit d'une synthèse
 qui fait ressortir les éléments clés sous une forme analytique, adressée aux responsables sous
forme d'un rapport dont le contenu et le niveau de détail dépend de la fonction du destinataire.
SECTION 3:

           LA REGLEMENTATION PRUDENTIELLE INTERNATIONALE

Dans un environnement concurrentiel, de nombreux facteurs peuvent inciter une banque à
prendre des risques parfois importants, chose qui pourrait la mettre en péril et même menacer
la stabilité de tout le système à cause des effets de contagion.

C'est dans le but de limiter les effets néfastes de la prise de risque et de promouvoir la stabilité
et la sécurité du système financier que fut l'avènement de la réglementation prudentielle.

I. LE COMITE DE BALE:

Le Comité de Bâle a été créé en 1974 par les gouverneurs des Banques Centrales du groupe
des dix (G1 0) sous l'appellation « Comité des règles et pratiques de contrôle bancaire », il est
constitué des pays suivants : Belgique, Canada, France, Allemagne, Italie, Japon,
Luxembourg, Pays-Bas, Espagne, Suède, Suisse, Royaume-Uni et Etats-Unis. Ces pays sont
représentés par leurs banques centrales ou par l'autorité de supervision bancaire. Leurs
représentants se rencontrent régulièrement à la Banque des Règlements Internationaux (BRI)
localisée à Bâle pour parler des enjeux liés à leur responsabilité.

Les taches du comité de Bale sont axées sur :

· L'échange d'informations sur les pratiques nationales de contrôle ;

· L'amélioration de l'efficacité des techniques mises en oeuvre pour la surveillance de l'activité
bancaire internationale ;

· La fixation de normes prudentielles minimales dans les domaines ou elles apparaissent
souhaitables.

Il est à noter que le comité de Bâle ne dispose d'aucun pouvoir légal national ou international,
ses conclusions n'ont pas force exécutoire. Son rôle est plutôt d'établir des normes de
références et des lignes directrices générales et de formuler des recommandations à l'égard
des bonnes pratiques que ses membres s'engagent à mettre en oeuvre.


II. L' ACCORD DE BALE DE 1988

En 1988, le Comité de Bâle instaure pour les banques exerçant leur activité à l'international un
nouveau cadre appelé « Accord de Bâle », définissant les exigences minimales de fonds
propres que les banques doivent respecter en fonction des risques qu'elles prennent.

Le ratio international de solvabilité, appelé ratio Cooke1 voit alors le jour avec la règle simple
et quasi uniforme de 8% de fonds propres alloués pour chaque crédit accordé.

Fonds propres nets
Ratio Cooke = > 8 %

Selon Bâle I, les fonds propres exigibles sont calculés sur la base d'une somme pondérée des
différents types d'actifs d'une banque; ces pondérations cherchent à refléter le niveau de risque
de chaque catégorie d'actifs.

Pondérations (%) Nature des encours

0 Créances sur des Etats de l'OCDE


                               20                                  Créances sur les banques       50
                                                                   et les collectivités locales
                                                                   des Etats de l'OCDE

Créances garanties par une hypothèque ou crédit bail                           100
immobilier

Toutes les autres créances telles que les obligations du secteur
privé, la dette des pays en voie de développement, les créances
des pays hors OCDE, les actions, l'immobilier, les bâtiments
industriels et les machines

                    Tableau 1.1 : La pondération des encours dans Bale 1

Ce ratio, fut instauré dans la plupart des pays de l'OCDE au début des années 1990. Il fut
aménagé en 1996 afin d'y intégrer la gestion des risques de marché.

L'amendement de 1996

En plus de l'intégration du risque de marché dans le calcul du ratio de solvabilité,
l'amendement de 1996 a accordé aux banques la possibilité de recourir à leurs propres
modèles internes de risque de marché pour définir le niveau de fonds propres nécessaires. Il a
enfin, permis l'intégration de certaines garanties hors bilan qui n'étaient pas prises en compte
dans l'accord initial, telle que la titrisation des créances.

D'abord appliqué aux pays du G10 et aux banques exerçant leur activité à l'international,
l'accord Bâle1 s'étend progressivement à la plupart des banques d'une centaine de pays.

1 Du nom du Président du Comité de Bâle de l'époque

III. LES LIMITES DE BALE I

Depuis la fin des années 90, les limites des accords de Bâle, notamment en termes d'exigences
de fonds propres pour les risques de crédit devenaient de plus en plus apparentes.
En effet, Bâle I a permis d'atténuer les inégalités concurrentielles, les banques se couvrant
systématiquement de fonds propres à hauteur de 8 % de leurs engagements. Toutefois, il
correspond à un système simplifié, peu sensible au niveau réel des risques et qui présente
plusieurs limites:

· Le ratio Cooke ne prend pas en considération de manière pertinente et suffisamment précise
le niveau réel du risque de crédit, celui-ci est évalué de façon forfaitaire en fonction du type
de contrepartie et du produit. En particulier, le ratio ne tient pas compte des différences de
qualité des emprunteurs privés puisque quasiment tous les prêts au secteur privé supportent
des charges en fonds propres identiques, quelle que soit leur maturité, leur montant ou la
solidité financière de leurs bénéficiaires ;

· Le ratio Cooke ne tient compte ni de l'évolution du niveau de risque (changement de la
notation), ni du taux de recouvrement (qualité de la garantie) ;

· Le ratio Cooke ne prend pas en considération la réduction potentielle du risque induite par la
diversification du portefeuille parmi de nombreux emprunteurs, industries et localisations
géographiques. Par exemple, le capital réglementaire est le même, que la banque ait consenti
un prêt de 100 millions de dinars à une seule entreprise ou que la banque ait fait 100 prêts de
1 million de dinars chacun à 100 entreprises différentes appartenant à des secteurs d'activité
différents ;

· Fixer une borne inférieure du ratio à 8% n'est basé sur aucun fondement économique.

· Le ratio Cooke ignore d'autres risques fortement présents dans l'activité bancaire comme le
risque opérationnel ;

· Enfin, l'accord de 1988 ne permet pas la compensation des risques (netting) et n'offre ainsi
aucune incitation au recours aux techniques de couverture du risque de crédit comme les
dérivés de crédit.

Ratio bancaire sommaire, Bâle I n'est plus adapté à la sophistication croissante des activités
bancaires.

IV. LE DISPOSITIF BALE II

En raison de l'évolution considérable de l'activité bancaire, des marchés financiers, des
méthodes de gestion du risque et des pratiques de surveillance, intervenus depuis la signature
du premier accord, le Comité de Bâle, présidé alors par W. Mc Donough a jugé nécessaire
d'en réviser le contenu.

4.1 Les piliers de Bâle II :

En 1999, le comité de Bâle propose son premier document consultatif (CP1) posant les termes
de la réforme autours de trois piliers :

1. les exigences minimales en matière de fonds propres (Pilier 1)

2. le processus de surveillance prudentielle et de contrôle interne (Pilier 2)
3. la communication financière et la discipline du marché (Pilier 3)

A. Le Pilier 1 : les exigences minimales en matière de fonds propres

Bâle II permet une plus grande différenciation dans les exigences de capital en fonction de la
qualité des risques de crédit, qui dépend entre autres de la probabilité de défaut de la
contrepartie et de la perte en cas de défaut.

L'accord permet également un traitement plus exigeant mais aussi plus adapté des opérations
de marché, avec des techniques renouvelées d'estimation de l'exposition au risque de
contrepartie (EPE) et une prise en compte plus stricte du risque de défaut dans la mesure du
risque de marché et du risque de participation actions.

La grande nouveauté est l'apparition d'une charge en capital pour le risque opérationnel, qui
peut être évaluée de façon très forfaitaire en fonction des revenus ou selon le modèle interne
de la banque dans le cas du choix de méthodes avancées. .

L'ancien ratio de solvabilité connu par « ratio Cook » a été remplacé par le ratio dit «
McDonough ». Ce nouveau ratio, ne change pas l'assiette de calcul «fonds propres /risques»
qui reste fixée à 8%. Par contre, une ventilation du risque en fonction de sa nature sera exigée
(risque de crédit comptant pour 75%, le risque opérationnel pour 20% et le risque de marché
pour 5%). Il faut marquer l'introduction du risque opérationnel dans l'exigence des fonds
propres.

Fonds propres nets

Ratio Mc Donough = > 8 %

Risque de crédit + Risque de marché + Risque opérationnel

B. Le Pilier 2 : le processus de surveillance prudentielle et de contrôle interne

Le deuxième pilier vise à introduire une cohérence entre les risques assumés et l'allocation de
fonds propres. Il est fondé sur quatre principes fondamentaux :

· L'appréciation, par l'établissement bancaire, des fonds propres qui lui sont nécessaires (son
capital économique),

· La surveillance prudentielle de ce processus de mesure et d'allocation des fonds propres
(avec la comparaison des fonds propres réglementaires et des fonds propres économiques),

· Des fonds propres pouvant être supérieurs aux minima réglementaires,


· L'intervention, en cas de besoin, des superviseurs.

Un rôle plus important est octroyé aux autorités de surveillance. Ces dernières doivent, pour
chaque établissement bancaire, s'assurer du caractère adéquat du processus d'évaluation
interne de la solvabilité et peuvent, si nécessaire, imposer des exigences de solvabilité plus
élevées que les exigences minimales définies précédemment au titre des risques de crédit dans
le cadre du pilier 1. Ce processus d'évaluation interne de la solvabilité est appelé ICAAP «
Internal Capital Adequacy Assessment Process »

C. Le Pilier 3 : la communication financière et la discipline du marché

La discipline de marché doit être plus efficace en s'appuyant sur une communication
financière qui favorise la transparence, notamment sur l'état des risques et la façon de les
mesurer. Le moyen d'atteindre ce but sera la publication d'un niveau élevé d'informations et le
respect de pratiques saines en matière de comptabilité et de valorisation qui sont d'une
importance décisive en matière de normes de fonds propres.

4.2 La mesure du risque de crédit selon Bâle II:

Les instruments de gestion des risques diffèrent sensiblement en fonction de la taille de la
banque, des métiers qu'elle exerce et de son aversion au risque.

Pour répondre à cette diversité, le Comité de Bâle propose pour chaque type de risque des
méthodes de calcul entre lesquelles chaque banque pourra choisir, en fonction du degré de
développement de ses techniques de gestion.

En matière de traitement du risque de crédit, le Comité de Bâle propose deux approches pour
le calcul des exigences en fonds propres: Une approche standard et une approche fondée sur la
notation interne :

A. L'approche standard (Standardized Approach):

L'approche standardisée est conceptuellement assez proche de celle précédemment utilisée
dans l'Accord de Bâle I. Elle consiste à mesurer le risque de crédit d'une manière standard, en
s'appuyant sur des notations externes fournies par des agences de rating, reflétant la qualité de
crédit des emprunteurs.

Selon cette approche, les besoin en fonds propres sont calculés comme suit :

                          FP = [E(Pondérations x Expositions)] x 8 %

Les pondérations sont déterminées en fonction des notations externes, de la classe d'actif et de
la catégorie de l'emprunteur. Les expositions sont les encours nets de provisions spécifiques.

Les techniques de réduction des risques, telles que les garanties et les dérivés de crédit, sont
prises en compte par cette approche de manière simplifiée.

L'approche standard est en principe réservée aux banques de petite et moyenne taille. Les
banques de taille plus significative peuvent y recourir si elles ne peuvent adopter les méthodes
de notations internes dans un premier temps.

B. L'approche fondée sur la notation interne (ou IRB):

La promotion des méthodes de notation interne du risque de crédit est l'un des principaux
objectifs du comité de Bâle,
Cette approche a été conçue en tenant compte des résultats des enquêtes menées auprès des
établissements et associations bancaires qui ont mis en évidence que l'ensemble des
établissements ne sont pas à même de disposer des données nécessaires au calcul de tous les
paramètres quantitatifs du risque de crédit. Ainsi, la méthode de notation interne se décline
elle-même en deux approches :

· L'approche IRB Fondation (Internal Ratings Based approach Foundation): Dans laquelle
l'établissement évalue uniquement la probabilité de défaut (PD), les autres facteurs de risque
seront dérivés à travers l'application de mesures standards fournies par les autorités de
supervision.

· L'approche IRB Avancée (Internal Ratings Based approach Advanced): Cette approche est
ouverte aux banques ayant démontré leur capacité d'estimer de manière fiable et constante
d'autres paramètres de risque en plus de la probabilité de défaut (PD). Il s'agit essentiellement
de la perte en cas de défaut (LGD) et l'encours lors du défaut.

Il est à noter que le passage à une approche plus sophistiquée fait l'objet d'un choix
irréversible «effet cliquet», cela veut dire qu'un établissement adoptant une approche dite
interne ou avancée ne peut décider par la suite de revenir à une approche moins sophistiquée,
que pour un motif dûment justifié, après autorisation des autorités de contrôle.

4.3 La mise en place de Bâle II

Cent pays environ prévoient d'appliquer Bâle II dans les prochaines années, selon une enquête
faite en 2006 par l'Institut pour la stabilité financière. Cela montre tout l'intérêt qu'y attachent
les banques et leurs autorités de contrôle.

Bien que les discussions sur Bâle II se concentrent généralement sur les approches avancées,
les banques seront beaucoup plus nombreuses à appliquer les approches standards (qui sont
parfaitement valables et appropriées pour de nombreux établissements), surtout pendant les
premières années.

Pour gérer les risques du passage à Bâle II, les approches avancées seront introduites
progressivement en un an ou deux, période pendant laquelle Bâle I continuera à s'appliquer.
Dans les deux ou trois premières années, un «plancher» de fonds propres sera mis en place,
afin d'éviter une chute brutale des exigences de fonds propres. Ce plancher sera

progressivement supprimé à la fin de la période de transition, mais les autorités de contrôle
pourront exiger qu'il soit maintenu pour certaines banques.

Pour diverses raisons (retards de la législation et efforts qu'ont dû faire les banques et les
autorités pour former le personnel et augmenter leurs capacités), la mise en oeuvre a été
reportée dans beaucoup de pays. Les pays de l'Union européenne ont adopté l'approche
standard en 2007 et commencent cette année d'appliquer les approches avancées, tandis que
les banques des États-Unis peuvent demander une période de fonctionnement parallèle des
deux approches pendant trois ans avant d'adopter en 2011 les approches avancées.

Actuellement, la plupart des systèmes bancaires qui ont adopté Bâle II sont encore à la
période de transition, les plus avancés étant arrivés au stade du fonctionnement parallèle ou de
l'application du plancher. Le cadre n'était donc pas encore mis en oeuvre dans beaucoup de
pays à l'été 2007, quand les turbulences ont commencé sur les marchés financiers.

V. LES FONDS PROPRES REGLEMENTAIRES ET LES FONDS PROPRES
ECONOMIQUES

En plus de leur rôle de financement, les fonds propres jouent un rôle économique très
important. Ceux-ci représentent un élément essentiel dans la gestion des risques dans la
mesure où ils reflètent le niveau de solvabilité de l'établissement et constituent la seule
garantie des créanciers en cas de faillite de ce dernier.

Deux concepts de fonds propres bancaires sont souvent confondus, il s'agit du concept de
fonds propres réglementaires et celui de fonds propres économiques.

5.1 Les fonds propres réglementaires:

Les fonds propres réglementaires correspondent à l'exigence de fonds propres définie par le
régulateur pour faire face aux différents risques supportés par la banque. Ceux-ci sont scindés
en 3 tiers et doivent couvrir l'exigence de fonds propres telle que définie par le régulateur,
sachant que le Tier 3 peut seulement couvrir une partie des risques de marché.

A. Fonds propres de Base (Tier 1 ou noyau dur) :

Les fonds propres de base sont définis par leur caractère permanent, leur subordination légale
aux droits des déposants et autres créanciers et par le fait qu'ils n'exigent pas de charges fixes
obligatoires en contrepartie des gains. Ils incluent donc le capital, les réserves1 autres que
celles de réévaluation et le résultat de l'exercice non distribué.

B. Fonds propres complémentaires (Tier 2) :

Ceux-ci ne sont pris en compte que dans la limite de 100% des fonds propres de base. Au
delà, ils peuvent être inclus dans les fonds propres sur-complémentaires.

1 Il s'agit des réserves légales, statutaires, les réserves réglementées et les autres réserves qui
sont toutes constituées par affectation des résultats passés.

Les fonds propres complémentaires incluent:

· Les réserves de réévaluation comptable : elles ne sont incluses dans la catégorie 2 qu'à
concurrence de 50% de leur montant.

· Les provisions générales : elles ne peuvent êtres supérieures à 1,25% des actifs auxquels
elles font l'objet.

· Les types de capitaux hybrides : peuvent faire partie de la catégorie 2 s'ils sont non garantis,
subordonnés, entièrement versés, et s'ils ne sont pas remboursables sans consentement
préalable de l'autorité de contrôle.
· Les dettes à long terme subordonnées : elles comprennent les dettes traditionnelles non
garanties et subordonnées avec un terme initial fixe de plus de cinq ans. Le montant de ces
dettes ne peut dépasser 50% des fonds propres de base.

C. Fonds propres sur-complémentaires (Tier 3) : Ils sont composés des éléments suivants:

· les bénéfices intermédiaires tirés du portefeuille de négociation ;

· les emprunts subordonnés d'une durée supérieure à deux (02) ans, et dont ni le paiement des
intérêts ni le remboursement du principal ne peuvent contrevenir au respect de l'exigence
globale en fonds propres ;

· la part des ressources subordonnées non retenues au titre des fonds propres complémentaires

5.2 Les fonds propres économiques:

Les fonds propres économiques représentent une estimation du montant de fonds propres que
la Banque juge nécessaire pour couvrir les pertes inattendues, auxquelles elle peut avoir à
faire face dans le cours de ses activités, pour satisfaire aux exigences de ses actionnaires et de
ses créanciers, notamment en termes d'aversion au risque. Ils reflètent les risques propres à
chaque métier et doivent être calculés à l'horizon correspondant à la période de temps
nécessaire pour résoudre les problèmes liés aux risques. Leur montant suffit donc à couvrir
l'ensemble des risques de crédit, de marché, et des risques opérationnels.

Le niveau des fonds propres économique est déterminé en fonction de l'aversion des
dirigeants au risque mais aussi en fonction du rating auquel la Banque aspire, ce rating définit
implicitement le seuil maximal au-delà duquel les pertes possibles sont d'une rareté et d'une
ampleur telles qu'il est non économiquement viable de s'en protéger.

Prenons l'exemple d'une banque qui vise une note AA sur un horizon d'un an. Cela correspond
à un taux de défaut de 0,03%, ce qui veut dire que les Fonds propres doivent pouvoir couvrir
les pertes dans 99,97% des cas : on parle alors de seuil de tolérance de 99,97%.

 Le capital économique se différencie du besoin en capital réglementaire que ça soit dans sa
version « Cooke » ou même dans les propositions connues « Mc Donough » notamment par la

prise en compte de la structure du portefeuille concerné, et de la diversification des risques au
sein de ce portefeuille. Il repose sur une vision « économique » des risques, par nature adaptée
à un portefeuille d'activités et donc plus précise que la vision prudentielle étalonnée sur une
vision moyenne de l'industrie des services financiers.
Figure 1.1: Fonds propres économiques et réglementaires

La divergence entre les approches utilisées pour le risque réglementaire et le risque
économique, qui a eu pour conséquence des objectifs contradictoires en termes de gestion du
capital, a constitué un des problèmes majeurs soulevés par le nouvel accord de Bâle.

En effet, dans le cadre des propositions initiales du nouvel accord de Bâle, le calibrage en
matière d'exigence relative aux fonds propres était flou et non systématique. Grâce au
processus de consultation mis en place par le Comité de Bâle, on a pu assister ces dernières
années à une amélioration entre les approches propres au capital économique et au capital
réglementaire.

CONCLUSION

Dans son nouvel accord et à travers l'approche basée sur la notation interne, le comité de Bâle
a incité les établissements de crédit à développer leurs propres outils d'appréciation du risque
de crédit.

Cette incitation a poussé de nombreuses banques à adopter de nouvelles méthodes utilisant la
notation interne, particulièrement celles fondées sur un concept devenu commun dans le
domaine bancaire, connu sous l'appellation RAROC ou Risk Adjusted Return On Capital.
L'objet du chapitre suivant sera de mettre l'accent sur l'aspect théorique de ce concept.


CHAPITRE I:
LA NOTION DE RAROC
Dans l'environnement bancaire, la gestion des risques et de la rentabilité sont indissociables.
D'une part, les risques engendrent l'instabilité des résultats de la banque. D'autre part la prise
des risques est la condition d'une meilleure rentabilité future. Savoir gérer le couple Risque-
Rentabilité constitue pour la banque un atout incontestable dans un environnement instable et
caractérisé par la concurrence.

Etant conscientes de cette réalité, de nombreuses banques ont développé des méthodes
avancées leurs permettant une meilleure gestion du couple Risque-Rentabilité. La plus utilisée
parmi ces méthodes est connue sous le nom RAROC pour Risk Adjested Return On Capial.
L'objet de ce chapitre sera de mettre en évidence les principaux aspects théoriques liés à la
notion RAROC. Nous allons commencer dans une première section par introduire le concept
de mesure de rentabilité ajustée pour le risque. En suite, nous allons présenter la notion de
RAROC dans une seconde section. Quand à la troisième, elle portera sur les paramètres
constituant RAROC.

                                          SECTION 1:

     LE CONCEPT DE MESURE DE PERFORMANCE AJUSTEE POUR LE RISQUE

Traditionnellement, les performances au niveau d'un établissement bancaire sont mesurées en
rapportant des indicateurs de rentabilité financière (marge d'intérêts, PNB, Résultat net,...) aux
fonds propres comptables de la banque. En effet, cette approche n'est pas tout à fait correcte,
elle présente en effet deux inconvénients majeurs : d'abord la mesure comptable des fonds
propres est un indicateur insuffisant du risque, en outre, ces mesures sont définies à l'échelle
de l'établissement, puisque les fonds propres ne sont pas alloués à des transactions ou lignes
d'activité spécifiques.

Dans l'univers financier, un niveau de performance n'a pas de sens indépendamment des
risques encourus pour l'atteindre. Pour chaque niveau de performance, il ya un prix à payer en
termes de risque. C'est ce qui est traduit par le principe fondamental de la théorie financière :
seul le risque est rémunéré.

Les mesures de performances ajustées pour le risque (couramment appelées Risk Adjusted
Performance Measurement ou RAPM) ont été mises en place justement pour répondre à
cette problématique et pour permettre de ce fait aux managers de déterminer lesquelles des
activités sont profitables, en comparant leur rendement ajusté pour le risque contre une
mesure appropriée du coût de capital.

I. DEFINITION D'UNE RAPM :

Une mesure de rentabilité ajustée pour le risque (RAPM) peut être définie comme le ratio du
résultat obtenu (ou espéré) sur une position sur les capitaux qu'il faut mettre en réserve pour
couvrir la plus grande majorité des pertes possibles (perte maximale). Un ajustement peut se
faire en déduisant une prime de risque soit du résultat soit du capital soit des deux. Cette
prime de risque exprime la perte probable encourue sur la position.

II. LES FONCTIONS DES RAPM :

Les quatre principales fonctions d'un système de performances ajustées pour le risque sont:

1) La comparaison des performances d'activités présentant des niveaux de risque différents :
Un gestionnaire qui dégage un bénéfice de un million en gérant des bons du trésor n'utilise
pas le capital de la banque de la même manière que celui qui gagne un million en spéculant
sur des titres très volatiles1. Il faut tenir compte non seulement de la
1
 Jean Laurent VIVIANI - Mesures de performances ajustées pour le risque et allocation des
capitaux propres.P2
marge bénéficiaire dégagée par un gestionnaire mais aussi du risque qu'il fait subir à son
institution.

2) L'aide à la décision d'engagement sur la base du couple risque/rentabilité : Les RAPM
permettent de détecter les activités qui présentent un avantage compétitif et facilitent de ce
fait la tache du gestionnaire qui consiste à constituer le portefeuille lui permettant de
maximiser la rentabilité de son établissement tout en prenant des risques acceptables. Les
RAPM présentent des mesures ex-ante qui permettent donc de raisonner sur des anticipations
de résultat et de risque.

3) La facturation clients en fonction des risques : Il serait déloyal de faire supporter des
charges similaires à deux contreparties présentant des profils de risque différents. Les RAPM
permettent de mettre en place un système de tarification différentielle de façon à faire assumer
individuellement à chaque client le coût des risques auxquels son prêteur pourrait être exposé.
Ainsi, les emprunteurs présentant une situation stable et rentable supporterons un coût
moindre à ceux ayant un profil plus risqué paieront d'avantage.

4) L'allocation efficiente des fonds propres : Les fonds propres globaux doivent être alloués
aux centres de décisions. Inversement les consommations de fonds propres des centres de
décisions doivent être ajustées sur les fonds propres globaux. Les RAPM facilitent les
décisions d'allocation des fonds propres de la banque. Elles permettent ainsi le calcul des
capitaux propres nécessaires pour couvrir l'ensemble des risques pris par les gestionnaires et
de les ajuster sur les fonds propres économiques, réels ou réglementaires.

III. LES PRINCIPALES RAPM :

Selon la méthode d'ajustement utilisée, résultent trois ratios de type RAPM :

· RAROC (Risk Adjusted Return On Capital) : l'ajustement se fait en déduisant une prime de
risque du résultat, et le rapporter aux fonds propres qui lui sont alloués. Le RAROC consiste
donc à moduler les marges, pour corriger la rentabilité requise en fonction du risque sans
moduler le capital de référence.

·

RAROC =

Fonds propres

Résultat ajusté

RORAC (Return On Risk Adjusted Capital) : Un ajustement de type RORAC consiste à
rapporter les résultats non-ajustés aux fonds propres corrigés par le risque encouru (Fonds
propres économiques).


                   Résultat
RORAC =
            Fonds propres ajustés
· RARORAC (Risk Adjusted Return On Risk Adjusted Capital): Il tient compte des deux
types d'ajustements: d'abord une prime de risque sera retranchée du résultat, puis ce résultat
ajusté sera rapporté aux fonds propres corrigés par le risque encouru.

RARORAC =

                                                                           Fonds propres ajustés

                                         Résultat ajusté

Au plan conceptuel, le RARORAC est le meilleur ratio de référence. D'ailleurs, par la suite
nous allons nous intéresser uniquement à ce dernier. Cependant, du point de vue de la
terminologie, la désignation RAROC sera adoptée tout au long de notre travail.

                                         SECTION 2 :

                                PRESENTATION DE RAROC

I. HISTOIRE DE RAROC :

L'élaboration de la méthodologie RAROC a commencé vers la fin des années 70, dans une
période où la finance directe a pris sa revanche sur la finance indirecte, notamment après la
nouvelle théorie du portefeuille de Morkowitz (1952), basée sur la diversification et le couple
Rentabilité-Risque.

La méthode RAROC a été lancée aux Etats-Unis au sein de la Bankers Trust par son
ingénieur financier Charles S. SANFORD. L'idée originelle était de mesurer le risque du
portefeuille de crédit bancaire, aussi bien que le montant de capitaux propres nécessaires pour
limiter l'exposition des déposants de la banque et autres créanciers à une probabilité spécifiée
de perte. Depuis lors, la méthode RAROC a connu une large diffusion au sein de plusieurs
banques. D'abord dans les pays anglo-saxons, puis rapidement, son utilisation a connu une
généralisation dans le reste du monde.

L'adoption de la méthode RAROC par les banques françaises a été plus tardive. En effet, le
premier établissement bancaire à avoir introduit cet instrument était le Crédit Lyonnais avec
son application OR2 (Optimisation Risque-Rentabilité), dont l'objectif essentiel était la lutte
contre la dégradation durable des résultats de la banque, causée essentiellement par les
manquements aux principes de base du métier, comme la diversification des engagements et
le manque de professionnalisme la sous-tarification du crédit.

Quelques années plus tard, d'autres banques françaises ont suivi la même démarche, à l'image
de Société Générale qui a lancé « Le projet RAROC » en 1997, puis la BNP Paribas en 2000.

II. DEFINITION DE RAROC :

RAROC est un indicateur synthétique permettant de mettre en regard la rentabilité réelle
d'une opération avec le risque qui lui est associé: c'est le ratio entre la marge nette
prévisionnelle après déduction des pertes moyennes anticipées (Expected loss) et une mesure
de la perte inattendue (Unexpected Loss).
En termes de gestion des fonds propres, le RAROC peut être défini comme étant un ratio qui
exprime le taux de rendement des fonds propres économiques : C'est donc le rapport entre le
résultat ajusté des provisions correspondant à la perte attendue, et les fonds propres destinés à
couvrir les pertes inattendues. Comme il s'agit d'une mesure objective, et non réglementaire,
les provisions et les fonds propres sont tous les deux économiques.

Ainsi, nous pouvons écrire le RAROC sous la formule suivante:

RAROC =

                                                                               Pertes inattendues

Revenus -- Coûts d'opération -- Pertes attendues

Ou encore

RAROC =

                                                                    Fonds Propres économiques

Revenus -- Coûts d'opération -- Provisions économiques

Une fois calculé, le RAROC est comparé soit à un ratio-seuil (hurdle rate) tel que le
rendement des capitaux propres (Return on Equity ou ROE), ou le coût moyen des fonds
propres (Weighted Average Cost of Capital ou WACC), soit à un niveau RAROC* cible,
fixé préalablement par la banque, à partir duquel elle estime que l'opération apporte de la
valeur et devrait être réalisée.

III. ILLUSTRATION NUMERIQUE DU CALCUL DE RAROC :

Nous présentons dans l'exemple suivant une approche comparative entre la méthode classique
de calcul de la rentabilité et la méthode RAROC. Nous considérons deux facilités de même
montant et de même maturité, accordés à deux clients de classes de risque différentes.

Dans un but de simplification, les récupérations en cas de défaut sont supposées nulles. C'est-
à-dire les pertes sont égales aux expositions. Aussi, les marges sont calculées nettes des coûts
supposés proportionnels aux encours.


                                                Contrepartie 01 Contrepartie 02
Exposition nette                       A           100000          100000

Echéance                                B             3ans              3ans

Notations                               C               A                B

Taux de défaut moyen sur 3 ans         D        0.30%            0.90%
Déviation du taux de défaut              E        1.23 %           2.70 %

Marge commerciale                        F        0.20 %           0.50 %



Perte moyenne                        G=AxD              300               900

Perte maximale                      H= A x E           1230              2700

Recettes cumulées sur 3 ans        I = Ax B x F         600              1500

Recettes - Perte moyenne             J=I-G              300               600

Fonds propres économiques           K=H-G               930              1800

RAROC                                  J/ K       32.25 %          33.33 %

             Tableau 2.1 : Calcul de RAROC pour deux clients de rating différent

La note de la contrepartie 1 étant meilleure que celle de la contrepartie 2, la marge
commerciale va logiquement être plus élevée pour la contrepartie la plus risquée (2).

En utilisant une mesure de performance non ajustée pour le risque, l'on peut juger que la
transaction avec le client 2 est plus rentable, dans la mesure où elle offre la plus forte marge.
Toutefois, la mesure de la rentabilité ajustée pour le risque, nous montre que les RAROC des
deux transactions sont presque équivalents. Les deux transactions offrent le même niveau de
rentabilité ajustée pour le risque.

IV. LES TYPES DE RAROC:

Selon la date et le périmètre des calculs, nous pouvons distinguer entre quatre types de
RAROC à savoir :

4.1 RAROC à l'origine:

Il est calculé à l'octroi du crédit sur la période allant de la date d'octroi du concours jusqu'à sa
date d'échéance, il est souvent utilisé comme outil d'aide à la décision ainsi qu'une méthode de
tarification des crédits.

4.2 RAROC résiduel:

Son calcul se fait pendant la période d'utilisation du crédit, sur un horizon qui va de la date
d'observation jusqu'à la date d'échéance.
Le calcul prend immédiatement les changements des caractéristiques des clients (notes), des
     crédits (provisions) et des garanties. Cependant, la volatilité de ce type ainsi que sa forte

dépendance des différents évènements de vie du crédit (commissions, frais de gestion,... etc.)
ne permettent pas l'adoption d'une stratégie par client.1

4.3 RAROC annuel:

Solution intermédiaire aux deux précédentes, elle peut correspondre à l'exercice budgétaire et
donner la possibilité d'adopter une stratégie, de fixer des objectifs et de pouvoir mesurer les
résultats à la fin de la période.

4.4 RAROC complet:

Le calcul prend en compte, à une date donnée, tous les éléments des engagements en cours, de
la date d'origine à la date d'échéance de chaque concours. Sa stabilité et son exhaustivité lui
rendent le plus adéquat pour l'adoption d'une stratégie que ça soit au niveau individuel (pour
chaque client), pour un portefeuille ou encore une activité.

Le choix parmi ces différents types de RAROC se fait principalement en fonction de
l'utilisation finale et des attentes de l'utilisateur.

                                            SECTION 3:

                                 LES PARAMETRES DE RAROC

Après avoir défini le concept RAROC, nous nous intéressons dans cette section à présenter les
paramètres rentrant dans son calcul. En effet, RAROC est une combinaison de plusieurs
paramètres que nous pouvons scinder en deux catégories : les paramètres liés au risque et les
paramètres comptables.

I. LES PARAMETRES LIES AU RISQUE:

Les deux paramètres de RAROC liés au risque sont évidemment : la perte attendue (Expected
loss) et la perte inattendue (Unexpected loss). Avant de présenter ces deux paramètres, il est
indispensable de passer en revue au préalable les trois principales mesures de risque qui
rentrent dans leur calcul, en l'occurrence la probabilité de défaut, l'exposition en cas de défaut
et la perte en cas de défaut.

                1.1 La probabilité de défaut (Expected Default Frequency ou EDF):

La probabilité de défaut est une notion orientée « contrepartie ». Elle mesure la probabilité
d'occurrence d'un défaut sur une contrepartie sur un horizon déterminé.
1
    T. RONCALLI, La gestion des risques financiers. Ed. Economica, Paris, 2004, p. 434.

Le concept de probabilité de défaut peut être évoqué selon deux approches : une approche
binaire et une approche graduée
L'approche binaire est basée sur l'hypothèse qui suppose que les emprunteurs peuvent être
répartis en deux groupes : les défaillants et les non défaillants (sains). Ainsi, la probabilité de
défaut désigne la probabilité d'appartenance d'un emprunteur au groupe des défaillants.

Dans l'approche graduée, les contreparties sont d'abord regroupées dans plusieurs classes de
risque. Après on s'intéresse à calculer la probabilité de migration de chaque contrepartie vers
les autres classes (y compris la classe de défaut). Ces migrations sont rassemblées dans une
matrice de forme n x (n-1) appelée Matrice de Transition.

Rating
AAA AAA             AA         A       BBB        BB        B       CCC       Default
 AA
        90,81% 8,33%         0,68%    0,06% 0,12 % 0,00 %          0,00%      0,00 %
 A
BBB
 BB      0,70% 90,65 % 7,79%          0,64%     0,06% 0,14 % 0,02 %           0,00 %

B        0,09%    2,27% 91,05 % 5,52 % 0,74% 0,26 %                0,01%      0,06 %
CCC
        0,02 %    0,33%     5,95 % 86,93% 5,30% 1,17 % 0,12 %                 0,18 %

        0,02 %    0,14%      0,67%    7,73% 80,53% 8,84 %          1,00%      1,06 %

         0,00%    0,11%      0,24%    0,43%     6,48% 83,46% 4,08%            5,20 %

        0,22 %    0,00%     0,22 %    1,30%     2,38% 5,00 % 64,85 % 19,79%

Tableau 2.2: Matrice de Transition

(Source: CreditMetrics, JP Morgan, document technique, 1997)

Exemple : La probabilité qu'une entreprise notée AAA migre vers la classe AA est 8,33%, et
la probabilité que cette même entreprise garde sa note est 90,81%

1.2 L'exposition en cas de défaut (Exposure At Default ou EAD):

C'est la valeur effective du montant du crédit détenue par l'emprunteur au moment du défaut.
Elle est estimée sur la base des montants des engagements restant dus. La notion d'exposition
englobe les encours bilanciels ainsi qu'une quote-part des engagements hors bilan. L'EAD
revêt une double dimension qui couvre les aspects produits et emprunteur.

L'exposition en cas de défaut des crédits standards correspond au montant total des flux
contractuels encore dus. De ce fait, elle est fonction du mode de remboursement et
d'amortissement.

Dans le cas des crédits sur compte comme les découverts et les facilités de caisse, la mesure
de l'exposition devient plus compliquée en raison du caractère optionnel du crédit et de
l'incertitude liée aux tirages futurs. En effet, il a été observé que plus la qualité d'un
emprunteur se détériore plus la probabilité de tirages supplémentaire augmente et
inversement, plus sa qualité s'améliore plus cette probabilité diminue. Ces constatations ont
emmené les banques à faire recours à des mesures basées sur des hypothèses conservatrices,
telles que considérer le total de l'autorisation exposé à la perte, ou encore mettre des
hypothèses sur les tirages futures en cas de changement de notation ou de défaut. Dans ce cas,
la formule suivante peut être appliquée :

EAD = Montant utilisé + (La part non utilisée x La probabilité de tirage)

La probabilité de tirage est estimée à partir de la structure de la facilité et la notation de
l'emprunteur.

Dans le calcul de l'EAD, le comité de Bâle distingue entre les facilités confirmées et les
facilités non confirmées. Dans l'approche IRB fondation, il retient un taux forfaitaire de tirage
de 75% pour les facilitées confirmées (committed facilities) qui ne peuvent pas faire l'objet
d'une annulation libre par la banque. Quant aux facilités non confirmées (uncommitted
facilities) qui peuvent être annulées inconditionnellement et en tout moment par la banque, un
taux de tirage de 0% sera appliqué et l'EAD sera égale par conséquent au montant
d'utilisation.

1.3 La perte en cas de défaut (Loss Given Default ou LGD):

La perte en cas de défaut est une notion orientée « Transaction », les pertes étant
généralement dépendantes des caractéristiques du financement (caractéristiques de
l'emprunteur, caractère subordonné du crédit, garanties reçues, etc...).

Exprimée en pourcentage, elle correspond au taux de perte constaté en cas de défaillance. Elle
se définit comme une perte économique, qui se mesure en prenant en compte tous les coûts
directs et indirects liés au recouvrement.

La LGD est appréhendée indépendamment du risque emprunteur. Un emprunteur a différentes
LGD s'il dispose de plusieurs produits.

La perte en cas de défaut dépend directement du taux de recouvrement. Mathématiquement
elle représente le complément du taux de recouvrement à l'unité.

                                                                 LGD = 1 - Taux de recouvrement

Le taux de recouvrement dépend principalement des suretés réelles ou personnelles présentées
par l'emprunteur (garanties, cautions, hypothèque, etc...), du type de crédit et du niveau de
séniorité de l'engagement.

1.4 La perte attendue (Expected Loss ou EL):

La perte attendue correspond au montant que la banque risque de perdre en moyenne sur son
portefeuille de crédit à un horizon donné. Ce montant doit en principe être couvert par des
provisions économiques.
Pour chaque ligne de crédit cette perte est fonction de la probabilité de défaut, de l'encours au
défaut et de la perte en cas de défaut

                                       ELi = EADi x EDFi x LGDi

Le caractère linéaire du moment d'ordre (un) fait que la perte attendue d'un portefeuille est
égale à la somme des pertes attendues des prêts constituants ce portefeuille.

                                         EL portefeuille =? ELi

La perte attendue n'est pas évidemment la perte qui sera réalisée effectivement. En effet, les
pertes réelles n'ont pratiquement aucune chance d'être identiques à cette perte moyenne,
celles-ci prennent des valeurs supérieures ou inferieures avec des probabilités non
négligeables. Mais en moyenne, elles se rapprochent de cette valeur.

1.5 La perte inattendue (UnexpectedLoss ou UL):

La perte inattendue (ou Unexpected loss) mesure la volatilité des pertes futures non
anticipées. Elle correspond à l'écart type de la distribution des pertes. Elle peut être donnée
par la formule suivante :

                                                         UL = EAD SJEDF2.ó2LGD + LGD2. ó2EDF

A. La perte inattendue d'une transaction :

La perte inattendue d'une transaction est une mesure du risque de la transaction avant prise en
compte des effets de diversification. Analytiquement, l'UL est égale à la volatilité de la valeur
de la transaction autour de sa moyenne et est liée à la volatilité des défauts, à la volatilité de la
valeur en cas de non défaut (possibilité de migration à l'horizon) et à la volatilité de la valeur
en cas de défaut (la perte en cas de défaut étant une variable aléatoire).

La perte inattendue d'une transaction est indépendante du portefeuille dans lequel on la
considère.

B. La perte inattendue du portefeuille :

L'UL d'un portefeuille est une mesure du risque du portefeuille après prise en compte de tous
les effets de diversification, elle varie donc selon les corrélations de défaut des contreparties
qui le composent.

Grâce aux effets de diversification, l'UL d'un portefeuille est inférieure à la somme des UL
des transactions :

                                 UL portefeuille < ? ULtransaction

Cela s'explique par le fait que les ULtransaction ne sont pas additives:

ULportefeuille = .tJ? j ? ~ ULi.ULj.ñij où:

· i et j deux actifs du portefeuille
· ñij est le facteur de corrélation entre les titres i et j

· 0 ?ñij =1 et ULi > 0 ?é

J?~ ? ~ ULi.ULj.ñij = ? i ? jJULi.ULj.ñij

Puisque ñij =1, nous avons :

? i ? j %JULi.ULj.ñij = ? i ? jvULi.ULj = ? vULi . ? ~ vULj




= (? , vULj )2 < ? |vULj 2| (inégalité de Cauchy)

? ~ |vULj |2 = ?ULi , nous aboutissons donc à : ULportefeuille << ?ULi

C. La contribution en risque (RC ou Risk Contribution):

La perte inattendue du portefeuille est par construction la somme des Contributions en Risque
(Risk contribution ou RC) de toutes les transactions le constituant.

La contribution en risque (RCi) d'une transaction mesure la quote-part de la perte inattendue
portée dans le portefeuille, compte tenu de la diminution enregistrée grâce à la prise en
compte de l'effet de diversification. Elle peut être définie comme la variation du montant total
des pertes futures non attendues (UL) lorsque l'on ajoute cette exposition au portefeuille.

La contribution en risque d'un prêt i (RCi) est mesurée par :

                                                                                             äULp

RCi = Xi äXi



Où Xi représente la proportion investie dans le crédit i,

II. LES PARAMETRES COMPTABLES:

Les paramètres comptables de RAROC sont le revenu et le coût d'opération. La détermination
de ces deux paramètres au niveau global ne présente aucune difficulté particulière. Tandis
qu'au niveau client ou transaction l'estimation du revenu et coût s'avère très délicate et
nécessite des procédures complexes basées sur la comptabilité analytique.

3.1 Le revenu:

Les revenus mesurent le profit direct tiré de l'opération de crédit. Ce profit correspond à la
différence entre la somme des intérêts et commissions perçus des clients et le montant des
intérêts payés par l'établissement pour financer les ressources mises à la disposition de la
clientèle.
Cette définition renvoie directement au concept du Produit Net Bancaire (PNB). On peut
admettre ainsi que le revenu dans le calcul de RAROC n'est rien d'autre que le PNB.

Analytiquement, le PNB correspond à l'agrégation de trois postes : la marge sur intérêts, les
commissions nettes et les produits et charges divers

· La Marge sur intérêts : elle représente la marge sur l'activité d'intermédiation du centre de
profit, elle est égale à la différence entre les intérêts reçus des clients et les intérêts payés.

· Les commissions nettes : elles correspondent à la différence entre les commissions reçues de
la clientèle et les commissions versées à la clientèle.

· Les produits et charges divers : Correspondent essentiellement aux produits du portefeuille
titres de l'établissement ainsi qu'aux opérations de trésorerie et interbancaires.

La détermination du PNB par opération repose sur le calcul de la marge sur intérêts et les
commissions liées à cette opération.

A. La marge sur intérêts:

L'appréhension des marges sur intérêts d'une opération de crédit est liée au système de mesure
des capitaux et des taux de cession interne des capitaux qui ont été retenus pour le calcul du
PNB.

Dans le cas d'un RAROC historique, la solution la plus simple consiste à prendre les intérêts
réels versés par le client au cours de la période étudiée et à refinancer les crédits à l'aide d'un
taux unique, comme celui du taux de marché monétaire ou celui du coût moyen des
ressources. D'autres méthodes plus complexes peuvent être choisies, comme par exemple
celle consistant à refinancer les prêts consentis à la clientèle suivant des taux dépendant
uniquement des conditions de marché1.

Dans le cas d'un RAROC ex-ante, l'estimation des intérêts à percevoir s'effectue en deux
étapes : le calcul des intérêts en prenant en compte le taux d'intérêt appliqué et l'échéance du
crédit, puis l'actualisation de ces flux.

B. Les commissions :

Contrairement au calcul de la marge sur intérêts, le calcul des commissions ne pose pas trop
de problèmes particuliers. Les commissions sont généralement bien appréhendées, client par
client, par les systèmes informatiquesF2F.

Dans l'application de RAROC, plusieurs approches liées au calcul des commissions ont été
proposées, cela revient à la disparité des auteurs quand à la prise en compte de quelques types
de commissions ou non. L'approche la plus éminente est celle qui suppose que les
commissions qui doivent être prises en compte sont celles liées directement à l'opération de
crédit (frais de dossier, commissions d'impayés ou de remboursements anticipés, commissions
de cautions...).
1
 M. ROUACH & G. NAULLEAU. Le contrôle de gestion bancaire et financier .Ed La revue
banque. Paris. P172
2
    Même ouvrage P173

Dans une approche plus extensive, on intègre également les commissions perçues par la
banque de sa relation avec la clientèle qui a pu naître suite à l'octroi du crédit et qui permet la
vente d'autres produits et services (Les commissions de caisse, les commissions de tenue de
compte...).

L'approche la plus restrictive suppose que les commissions doivent être écartées du
numérateur de RAROC, dans la mesure où ce dernier est considéré comme un outil de
tarification ajustée au risque qui s'intéresse à la rentabilité intrinsèque du crédit (relative à la
transformation des ressources en emplois) et non à la rentabilité additive (relative aux
services) générée par les commissions.

3.2 Le coût d'opération:

L'estimation des coûts d'opérations exige le passage par une étape primordiale dans la
comptabilité analytique, il s'agit de faire transiter les charges par les centres de responsabilité
avant de les attribuer aux produits.

Avant de passer au traitement des charges, nous allons aborder de façon succincte le concept
de répartition de la banque en centre de responsabilité.

A. Définition des centres de responsabilité analytique :

Un centre de responsabilité se définit comme une entité de gestion dont le responsable dispose
d'une délégation formelle d'autorité pour négocier des objectifs et des moyens et dotée d'un
système de pilotage de sa gestion. Plusieurs types de centre de responsabilité peuvent être
distingués :

Les centres de coûts : Ils n'engendrent que des charges afin de réaliser une prestation ou un
produit. Pour le responsable, il s'agit de respecter un niveau de charge et un budget global de
fonctionnement. Dans la banque, les centres de coût sont particulièrement nombreux, d'où
l'intérêt de les rattacher à l'une des catégories suivantes :

· ULes centres de structureU: qui réalisent des prestations non identifiables et non répétitives.
Leur mission est de contrôler et de coordonner les activités des autres centres comme par
exemple la direction générale ou la direction des engagements ;

· ULes centres de support:U qui réalisent des prestations identifiables et non répétitives et dont
le mode opératoire n'est pas aisé à formaliser. On trouve les centres de support au sein des
services généraux comme l'informatique et l'organisation, le marketing ou les études
économiques et financières ;

· ULes centres opérationnels:U qui réalisent des prestations identifiables, répétitives et à mode
opératoire formalisé, comme le traitement des chèques et virements ou l'exécution des ordres
de bourse. Ces centres livrent aux autres centres des prestations dont ils ne maîtrisent pas le
volume et qui sont non rémunérées.

      Les centres de profits : ces entités de gestion sont responsables des coûts mais aussi
      génératrices de recettes car elles réalisent des prestations à caractère commerciale ou
financier. Le responsable d'un centre de profit dispose d'une délégation de pouvoirs couvrant
les conditions de la négociation commerciale. Les agences bancaires constituent les centres de
profit les plus importants

B. Nomenclature des charges de fonctionnement :

Selon leur appartenance aux différents centres de responsabilité de la banque, les charges
peuvent être scindées en deux catégories : les charges directes et les charges indirectes :

1) Les charges directes :

Les charges directes sont des charges qui peuvent être reliées sans équivoque au produit qui
leur a donné naissance. La liaison est évidente et le facteur de production concourt totalement
ou partiellement à l'élaboration du produit1.

Ces charges peuvent être affectées directement au produit au moyen d'unités d'affectation
choisies de façon adéquate. Une unité d'affectation peut être définie comme étant une unité de
mesure de charges pouvant être exprimées en terme monétaire.

Les principales charges directes sont : les frais de personnel, les charges de machine, les coûts
immobiliers et les charges d'économat.

· Les frais de personnel : ces frais constituent la partie la plus importante des charges directes.
Ils représentent tous les frais relatifs aux effectifs pris au sens large. C'est-à- dire incluant non
seulement la masse salariale mais aussi les frais de formation, de recrutement, de relations
sociales... etc. L'unité d'affectation la plus logique est le cout minute de l'employé.

· Les charges de machines : elles représentent les charges issues de l'utilisation des différents
calculateurs, imprimantes, trieuses de billets... etc. L'unité d'affection la plus appropriée pour
ces charges est le coût minute de fonctionnement de la machine.

· Les charges immobilières : liées directement aux surfaces occupées qui incluent leurs frais
d'entretien, l'amortissement des locaux, les loyers et les différents impôts et taxes afférents,...
etc. L'unité d'affectation est le coût du mètre carré occupé par l'unité administrative, les
surfaces communes sont ajoutées aux surfaces occupées au prorata des effectifs de chaque
unité.

· Les charges d'économat : elles sont de natures extrêmement diverses. Elles regroupent les
fournitures de bureau, les charges en papier, imprimés, téléphone, fax, télex,... etc. Les
charges d'économat sont généralement évaluées selon un coût forfaitaire moyen par opération.
1
    Sylvie de Coussergues, gestion de la banque, édition DUNOD, Paris, 2000

2) Les charges indirectes :

Les charges indirectes sont celles qui ne peuvent être reliées immédiatement au produit dont
on calcule le coût. Ce sont des charges engendrées par des structures qui ne participent pas
dans l'exploitation bancaire. Il s'agit des structures de la fonction assistance ainsi que les
niveaux hiérarchiques les plus élevés des autres fonctions.
Les charges indirectes représentent la difficulté principale du calcul du coût. Les clés de
répartition utilisées pour leur affectation sont souvent arbitraires et ne permettent pas un
calcul fin des différentes rentabilités.

C. Le processus d'affectation des charges:

1) La détermination des charges à retenir en comptabilité analytique :

Certaines charges enregistrées en comptabilité générale ayant un caractère exceptionnel -
charges non incorporables - sont exclues. Inversement, d'autres charges qui ne sont pas
enregistrées en comptabilité générale - charges supplétives - sont introduites.

+ Charges de comptabilité générale + Charges supplétive

- Charges non incorporables

= Charges incorporables de comptabilité analytique

2) L'affectation des charges aux centres de responsabilité :

Dans cette étape, les charges incorporables calculées dans la première étape, vont être
affectées aux différents centres de responsabilités. Leur affectation suppose leur maîtrise par
les responsables des centres, chose qui est difficile à appréhender dans la mesure où les
responsables ne sont souvent capables de décider pour une part de leurs charges que sur
accord de leur responsable.

3) La ventilation des charges des centres fonctionnels et des centres de structure

Cette étape consiste à répercuter sur les centres de profit et opérationnels les charges
indirectes générées par les centres fonctionnels et les centres de structure. Cette démarche
s'appuie sur des clés de repartions conventionnels.

4) Le calcul des coûts d'opération :

Les centres opérationnels livrent des prestations indentifiables et répétitives aux centres de
profit moyennant un prix, ce prix est appelé coût opératoire. Pour le calculer, plusieurs
méthodes peuvent être utilisées (coût réel, coût standard, ...).

5) La facturation des coûts d'opérations aux centres de profit :

Cette dernière étape consiste en l'affectation des charges des différents centres opérationnels
aux centres de profit. Il s'agit d'une facturation interne tenant compte du volume et des coûts
unitaires des opérations.

D. Les méthodes de calcul des coûts d'opération :

De nombreuses méthodes sont possibles pour calculer les coûts des opérations, le recours à
chacune d'entre elles dépend des circonstances d'utilisation et des besoins. Nous allons
présenter brièvement les méthodes les plus utilisées:
1) La méthode du cout réel :

Il est calculé en divisant l'ensemble des charges du centre opérationnel par le nombre
d'opérations effectuées par ce dernier. Par exemple si le back-office effectue 10 000 ordres de
bourse sur une période déterminée et que le total des charges constatées durant cette période
est de 100 000 um, le coût unitaire moyen d'un ordre de bourse au back-office serait de
10um.

Cette méthode présente deux inconvénients : d'abord, Les variations du coût réel dues au
niveau d'activité des centres opérationnels nuisent à la perception des performances dans la
mesure où le centre de profit n'est pas responsable de ces variations. De plus, Les coûts réels
facturés par les centres opérationnels peuvent être différents des prestataires externes lesquels
seront facturées au prix de marché.

2) La méthode des coûts standards :

Elle consiste à calculer des coûts prévisionnels - dans un contexte de fonctionnement normal
des centres de responsabilité - qui constitueront une norme à respecter pour une période future
tel que l'exercice budgétaire. Ils sont obtenus en divisant les charges globales prévisionnelles
du centre opérationnel par le nombre d'opérations prévues. Prenons l'exemple d'un centre de
traitement de chèques qui prévoit de traiter 1 000 000 chèques sur une période future.les
charges prévisionnelles sont estimées à 10 000 000 um, ce qui fait que le coût moyen unitaire
standard du traitement d'un chèque serait de 10um pour la période considérée.

Ainsi, la méthode des coûts standards permet d'éviter l'influence de la variation du niveau
d'activité des centres opérationnels sur les centres de profit

3) La méthode des coûts de marché

Selon cette méthode, la facturation des opérations sera faite au prix de marché. Ce prix
correspond au coût pratiqué par l'ensemble du secteur ou sur la base des prix proposés par des
sous-traitants. Elle permet de ce fait de comparer en permanence les niveaux de performance
internes à ceux du marché. Cependant, la disparité des conventions analytiques employées par
les banques dans la détermination de leurs coûts et le manque d'informations rendent sa mise
en oeuvre délicate.

4) La décomposition en coûts fixes et coûts variables

Cette méthode distingue les charges liées à l'activité (les charges variables) de celles liées à la
capacité et à la période (les charges fixes). Elle sert à fixer un seuil de rentabilité (notion de
point mort) et à appréhender les effets de variations des volumes d'activité sur les coûts
unitaires. Toutefois, elle n'est pas très sollicitée dans le secteur bancaire en raison de
difficultés techniques et d'appréhension des critères de variabilité des charges.

5) La méthode ABC

La méthode ABC (Activity Based Costing) découle du principe disant que les produits
consomment des activités et les activités consomment des ressources. Les ressources
consommées par un service (personnel, équipement, locaux) sont allouées par « inducteurs de
ressources » aux différentes activités réalisées. Par la suite des « inducteurs de coûts » sont
déterminés pour pouvoir allouer les coûts des activités aux produits. Ces inducteurs se
substituent aux unités d'oeuvre ou aux clés de répartition utilisés dans la comptabilité
analytique conventionnelle.

Cette méthode permet un suivi par activité, cependant elle est complexe à mettre en oeuvre.
La méthode ABC vise à améliorer l'exploration des charges indirectes dans l'ensemble des
coûts. Elle permet d'apporter une aide en termes de tarification, en liaison directe avec la
comptabilité analytique.

CONCLUSION

A travers ce chapitre, nous avons mis l'accent sur le concept RAROC et ses différents
paramètres.

Dans ce qui suit, nous allons voir comment peut-on appliquer ce concept dans la gestion du
risque de crédit, que peut l'outil RAROC apporter pour la banque et quels sont ses limites.

CHAPITRE II:

                                                      LA GESTION DU RISQUE DE CREDIT

PAR LA METHODE RAROC

Bien que RAROC en tant que concept soit loin de toute complexité, son application au sein
d'une banque requiert la prise d'une panoplie de mesures permettant l'estimation des différents
paramètres le constituant.

A travers ce chapitre, nous allons présenter RAROC en tant qu'innovation managériale pour la
gestion du risque de crédit au sein des établissements bancaires. Dans cette perspective, nous
allons procéder par une première section traitant le concept de notation interne et les
procédures des systèmes de rating pour l'estimation des paramètres de risques au niveau
individuel.

Dans la deuxième section nous allons aborder les principes essentiels de la modélisation du
risque de crédit et l'apport des modèles dans l'estimation des pertes futures.

Quand à la troisième section, elle portera essentiellement sur l'aspect pratique de la méthode
RAROC, ses applications en matière de gestion du risque de crédit et un aperçu sur l'apport et
les limites de cet outil.

                                          SECTION 1:

                                  LA NOTATION INTERNE

L'existence au préalable d'un système performant de notation interne dans la banque est
indispensable pour la mise en place d'un outil de gestion de risque tel que RAROC. La
pertinence de ce dernier est fortement liée à la qualité des outputs du système de notation.

Dans cette section nous allons présenter les principaux aspects liés à la notation interne et aux
systèmes de rating au sein des établissements bancaires.
1. ORIGINE DE LA NOTATION:

La notation est apparue aux USA au début du vingtième siècle par la publication du premier
manuel de notation de John Moody en 1909. Ce dernier a introduit un système graduel de
notation pour les obligations émises par les compagnies des chemins de fer aux Etats-Unis,
dont le but était de résumer l'information sur la qualité du crédit et de fournir aux investisseurs
une information objective sur les entreprises. Depuis, plusieurs agences de rating ont vu le
jour à l'instar de Fitch Investor Services en 1922 et Standard & Poor's en 1924. Cependant,
ce n'est qu'aux années 80 que les systèmes de rating ont été adoptés en Europe.

2. DEFINITION DE LA NOTATION INTERNE

La notation interne constitue un moyen d'appréciation du risque de perte consécutif à la
défaillance de l'emprunteur. Cette appréciation tient compte de tous les aspects pouvant
renseigner sur la contrepartie qu'ils soient qualitatifs ou quantitatifs. Le comité de Bâle retient
la définition suivante des systèmes de notations internes :

« Un système de notation recouvre l'ensemble des processus, méthodes, contrôles ainsi
que les systèmes de collecte et informatiques qui permettent d'évaluer le risque de
crédit, d'attribuer des notations internes et de quantifier les estimations de défaut et de
pertes. »1

Qu'il soit simple ou avancé, un système de notation interne a pour objectif principal d'affecter
chaque contrepartie à une classe de risque. Les individus ayant été classés au même niveau de
risque doivent donc présenter des caractéristiques qui se rapprochent.

3. LES DEUX APPROCHES DE LA NOTATION INTERNE

Il existe deux grandes approches pour attribuer des notations à des prêts ou des emprunteurs :
1
    Document consultatif du comité de Bâle, avril 2003

1) Les systèmes expert : cette première approche repose sur l'opinion d'experts ; on parle de
score par expertise. Elle reste prépondérante pour les notations des grandes entreprises, des
pays, des collectivités locales, des financements de projets. Elle s'appuie sur une analyse
approfondie des bilans, des projets... et sur une comparaison avec les notations des agences.

2) Les systèmes de scoring : cette approche s'appuie sur des analyses statistiques des
défaillances observées dans le passé pour des dettes ou des emprunteurs comparables. Elle est
prépondérante pour les crédits à la consommation, les prêts hypothécaires, les crédits
permanents (cartes de crédit), les prêts aux PME... Par son caractère plus automatique, elle est
très adaptée à la gestion des accords de crédit en ligne.

4. LES CARACTERISTIQUES D'UN SYSTEME DE NOTATION INTERNE:

Des procédures et des critères clairs et précis doivent être bien définis pour qu'un
établissement bancaire puisse attribuer des notes. Dans son dernier document consultatif, le
comité de Bâle définit un certain nombre de paramètres indispensables à la mise en place d'un
système de notation interne :
«... les systèmes et processus de notation et d'estimation doivent permettre d'évaluer
avec pertinence les caractéristiques d'un emprunteur et d'une transaction, de
différencier valablement ces risques et de les quantifier avec suffisamment de précision
et de cohérence ; ils doivent, en outre, faciliter un usage interne approprié des
estimations obtenues. »1

4.1 La classification des expositions:

Le comité de Bâle exige aux banques désireuses de se munir d'un système de notations
internes de segmenter leurs portefeuilles de crédit en fonction des caractéristiques de risque, il
a proposé dans sa version préliminaire les six catégories d'actifs suivantes : Entreprises,
banques, emprunteurs souverains, banques de détail, financement de projets et enfin les
portefeuilles d'actions. Une telle classification des risques est largement cohérente avec les
pratiques bancaires en vigueur. Ce classement reste toutefois à titre indicatif uniquement, les
banques gardent la possibilité d'utiliser leurs propres classifications des expositions tout en
veillant à leur régularité dans le temps.

4.2 Les paramètres de notation:

Pour être éligible à l'approche des notations internes, un système de notation doit être
caractérisé par deux paramètres bien distincts : le risque de défaut de l'emprunteur et les
facteurs spécifiques à la transaction.


· Le risque de défaut de l'emprunteur : Il doit être indépendant de la nature des engagements
dont a bénéficié le client. Ainsi, toutes les expositions sur cet emprunteur appartiendront à la
même classe de notation.
1
    Document consultatif du comité de Bâle, avril 2003

· Les facteurs spécifiques à la transaction : Ils englobent des éléments tels que les sûretés, le
type et la durée du produit et autres.

4.3 Nombre des classes pour les actifs:

Les banques doivent veiller à ce qu'il y ait une distinction claire entre les actifs sains et les
actifs compromis qui nécessitent une attention particulière de la part des gestionnaires. En
moyenne, les banques adoptent un nombre de classes proche de 10 pour les actifs sains et de 2
ou 3 pour les actifs douteux ou non productifs, en incluant les classes additionnelles, c'est-
àdire celles affectées des signes + ou - modifiant la totalité ou une partie des classes. Il est
également fortement préconisé d'établir les classes de façon à faciliter la comparaison avec les
échelles des agences de notations externes.

Le système de notations internes doit permettre une différentiation correcte et significative
des expositions selon les classes de risques afin d'éviter une concentration excessive au sein
d'une seule catégorie. De manière générale, les banques doivent veiller à ce qu'il n'y ait pas
plus de 30% environ d'expositions notées à l'intérieur d'une seule catégorie d'emprunteurs.

4.4 L'estimation des paramètres de défaut:
La banque doit utiliser toutes les données, les informations et les méthodes dont elle dispose
pour l'estimation des PD, LGD, EAD. Elle peut même avoir recours à des sources externes si
elle juge qu'elles soient cohérentes.

A. Exigences pour l'estimation des PD:

Les méthodes d'estimation des PD pouvant être utilisées selon Bâle II doivent s'appuyer sur
l'une des trois techniques suivantes :

· L'expertise et les données de défaillances internes;

· Le mapping vers les données externes : il s'agit d'accorder à l'emprunteur non noté par les
agences de notation une note équivalente au rating externe qu'il aurait obtenu. Par la suite la
banque peut utiliser les historiques de PD et de migrations déjà observés et publiés par ces
agences.

· Des modèles statistiques de prédiction des défauts.

B. Exigences pour l'estimation des LGD et EAD :

Pour les banques sous le régime de l'approche avancée, les estimations de LGD et EAD
doivent représenter une moyenne pondérée en fonction des défauts sur longue période pour
chacun de ses engagements. L'estimation de LGD moyenne doit être fondée sur les taux de
recouvrement antérieurs et pas uniquement sur la valeur de marché des sûretés. L'estimation
d'EAD doit quant à elle être attribuée à chaque facilité, c'est une moyenne pondérée en
fonction des défauts observés pour des facilités et emprunteurs similaires sur une période
suffisamment longue.

4.5 Les dérogations :1

L'attribution d'une note doit reposer sur des preuves empiriques et satisfaire certaines
exigences concernant l'historique de la série de données, leur représentativité ou encore la
conjoncture économique, néanmoins des jugements personnels peuvent intervenir et changer
la note. Ces dérogations peuvent être légitimes mais doivent être clairement justifiées. Elles
doivent comprendre des contrôles et des autorisations de personnes habilitées à effectuer de
tels changements.

5. LA VALIDATION DU SYSTEME DE NOTATION INTERNE:

Il ne suffit pas de développer un modèle de notation, mais il faut le mettre en place. Toutefois,
avant de l'exploiter, la banque doit s'assurer que le modèle qu'elle a développé donne des
résultats fiables. C'est pourquoi le comité de Bâle a préconisé aux banques de développer un
système de « backtesting » dont le but est de vérifier le pouvoir prédictif de l'outil de notation
et le faire évoluer afin d'avoir des prévisions de défaut plus exactes.

Jusqu'aujourd'hui, les autorités bancaires n'ont pas encore arrêté les règles communes de
validation des modèles internes de notation, néanmoins une liste des points d'attention et des
règles de prudence régissant les étapes de l'élaboration de ces modèles peut déjà être dressée.
Ces règles reposent sur le respect de certaines normes qualitatives et l'aptitude de passer des
tests statistiques.
5.1 La démarche qualitative:

Il s'agit essentiellement de vérifier la qualité de l'information collectée et traitée par la banque
et de la validation des procédures de contrôle :

Le niveau de performance du système d'information reflète la qualité de l'information. A ce
stade, le contrôle se fait sur les éléments permettant l'extraction, le stockage, la circulation et
le traitement des données.

Quand aux normes de contrôle, Celles-ci ont pour objectif de s'assurer de la régularité des
procédures et règles de contrôle de la structure et du fonctionnement des modèles internes.
Dans ce cadre d'analyse, il est important de vérifier certains aspects liés à l'indépendance de la
fonction de gestion des risques, la pratique d'un reporting périodique aux dirigeants de
l'établissement et le recours à des audits réguliers du modèle interne.

5.2 La validation statistique:

Cette étape repose sur deux type de tests ; les tests de puissance et les tests de calibrage. Les
premiers s'intéressent à la capacité du système de notation à bien discriminer les emprunteurs
selon leur qualité de crédit, quand aux seconds, leur but est de mesurer la pertinence du
calibrage des PD associés à chaque classe de risque.
1
    Antoine SARDI - Audit et contrôle interne bancaire- AFGES - Paris 2002. P717

                                           SECTION 2:

                       LA MODELISATION DU RISQUE DE CREDIT:

Dans leur gestion quotidienne du risque de crédit, les banques ont une préoccupation majeure,
qui consiste à prévoir le montant des pertes qu'elles pourront subir dans le futur sur leurs
portefeuilles d'engagements. Pour pouvoir estimer ces pertes futures, les banques ont recours
à des modèles d'évaluation du risque de crédit.

La modélisation est une étape primordiale dans le processus de mise en place d'un système
RAROC, vue qu'elle fournie ses deux paramètres liés aux risques, en l'occurrence, la perte
attendue (Expected Loss) et la perte inattendue (Unexpected loss).

Dans ce qui suit, nous allons passer en revue quelques notions sur la modélisation du risque
de crédit.

1. LES DIFFICULTES METHODOLOGIQUES DE LA MODELISATION DU RISQUE DE
CREDIT

1.1 La nature de l'événement de crédit:

A la différence du risque de marché, uniforme, le risque de crédit a des expressions fort
différentes. En effet, la distribution de pertes dépend de l'événement retenu comme fait
générateur (Défaut, changement de rating, variation du spread de signature, ...) et en
conséquence les mesures des fonds propres associés vont être distinctes selon que l'on
retienne un événement ou un autre. Cette réalité était à l'origine de l'apparition de deux types
de modèles d'évaluation du risque de crédit : les modèles de défaut et les modèles Marked
to Market.

1.2 L'horizon du risque de crédit:

L'estimation de l'horizon de crédit est un exercice beaucoup plus délicat, qui peut appeler des
réponses légitimes très éloignées. Les deux réponses extrêmes sont d'une part, l'horizon de
l'exercice comptable (communément d'une année), d'autre part, l'échéance de la position.

Le choix de l'horizon de l'exercice comptable suppose que l'horizon du risque de crédit est
celui de la constatation comptable des pertes réelles ou potentielles associées à la dégradation
de la qualité du portefeuille de crédit. Ce choix est essentiellement guidé par des
considérations pratiques : C'est l'horizon de décision ordinaire des prêteurs, celui au cours
duquel les contrats de crédit sont renégociés et celui au cours duquel les banques peuvent
réunir des informations nouvelles pour évaluer la solvabilité des emprunteurs. Il représente
également l'horizon sur lequel sont définis les besoins de fonds propres. Enfin, c'est sans
doute aussi, en moyenne, l'horizon qui correspond à la majorité des crédits.

A l'opposé, le choix de l'horizon de la position comme horizon du risque paraît indiscutable :
un crédit à 7 ans engage la banque sur un horizon de 7 ans. Cependant, cette approche ne
parait pas aussi évidente quand il s'agit de déterminer les fonds propres alloués à une
opération donnée. Le problème qui se pose est le suivant : le montant des fonds propres
alloués l'année t à une opération doit-il couvrir le risque de dégradation de la qualité de crédit
sur cette seule année, ou couvrir le risque associé aux années ultérieures ?

Dans la deuxième hypothèse, un montant inutile de fonds propres est engagé dés la première
année, entraînant une utilisation sub-optimale du capital. Une allocation constituée sur une
base annuelle semble en conséquence plus adaptée, mais elle ne repose alors pas sur une
perspective à long terme des risques encourus et peut se révéler insuffisante à la fin de
l'exercice comptable.

1.3 Le choix du niveau de pertes acceptable:

La mesure des pertes inattendues nécessite la détermination au préalable d'un seuil de
confiance, qui n'est rien d'autre qu'un quantile élevé de la distribution des pertes (99.9% par
exemple). Le choix de ce paramètre repose sur plusieurs considérations :

· L'aversion au risque de la banque : Le degré de prudence des dirigeants ou de leur aversion
au risque est le critère le plus naturel sur la base duquel le seuil de confiance peut être
déterminé. Si la banque est très adverse au risque, elle choisit un quantile élevé de telle sorte
que l'estimation des pertes potentielles couvre les pertes induites par le plus grand nombre
possible de réalisations des facteurs de risque.

· L'objectif de raiting : Les agences de notation publient périodiquement les taux de défaut
associés aux différents ratings. Si les dirigeants ont un objectif de rating, le niveau des fonds
propres correspondant (d'où le seuil de confiance) devrait être celui qui conduit à un taux de
défaut correspondant au rating visé. Par exemple une note Aaa de l'agence Moody 's
correspond à une probabilité de défaut de 0,03%. De ce fait, une banque qui vise cette note
choisira alors un quantile de 99,97%.
· Les considérations prudentielles : le régulateur peut imposer le choix d'un quantile
suffisamment élevé pour que les banques constituent un montant de fonds propres
économiques suffisant pour couvrir une part plus importante des pertes potentielles.

                        2. LES ETAPES DE CONSTRUCTION D'UN
                            MODELE DE RISQUE DE CREDIT:

La construction d'un modèle de risque de crédit s'opère en deux étapes :

2.1 L'évaluation du risque au niveau individuel

Cette étape est consacrée à la collecte de l'information sur les éléments constitutifs du risque
de chaque crédit. Elle consiste essentiellement à ranger les crédits en classes de risque
définies par le système de notation interne de la banque. Sur la base de cette classification, des
probabilités de migration de chaque crédit entre les différentes classes de risque vont être
déterminées. Dans le cas d'un modèle MTM toutes ces probabilités de migration sont prises
en considération, afin de constituer une matrice de transition. Tandis que dans le cas d'un
modèle de défaut on s'intéresse uniquement à la migration du crédit vers la classe de défaut.
Celle-ci ne peut constituer une classe de départ, alors elle est dite « absorbante ».

L'étape suivante consiste à mesurer la valeur de chaque crédit en fonction de son appartenance
aux différentes classes de risque. Dans le cas d'un modèle de défaut, on s'intéresse à
déterminer la valeur de l'exposition seulement dans le cas de défaut.

Enfin, il importe de déterminer la perte en cas de défaut (LGD). Celle-ci dépend du taux de
recouvrement en cas de défaut, qui dépend lui-même de la nature du crédit, de sa maturité et
des garanties qui lui sont associées.

Une fois les facteurs du risque sont déterminés, l'étape suivante consiste à déterminer la perte
attendue et la volatilité des pertes (perte maximale inattendue) pour chaque position
individuelle.

2.2 L'évaluation du risque au niveau du portefeuille:

Cette étape consiste en une agrégation des résultats obtenus dans l'étape précédente, afin de
déterminer le risque global du portefeuille, ce qui suppose l'intégration des corrélations entre
les événements de crédit.

Le but principal d'un modèle de risque de crédit reste de construire une distribution de pertes
sur la base de laquelle la perte potentielle maximale (Value at Risk) et le niveau des fonds
propres économique seront déterminés.

A. La distribution des pertes

La distribution de perte d'un portefeuille de crédit, à un horizon de temps choisi, correspond à
une courbe qui relie la fréquence de perte de crédit à l'intensité du niveau de celle-ci.

La PDF présente la particularité de ne pas être de type normal. En effet, celle-ci est fortement
asymétrique (coefficient d'asymétrie1 positif) et leptokurtique (coefficient d'aplatissement2
supérieur à 1)
Quelle que soit la méthodologie retenue pour sa construction, le principe reste identique. Pour
 chaque état de la nature possible (réalisation des facteurs de risque), il s'agit de déterminer
 conjointement la répartition de fin de période des emprunteurs au sein des classes de risque
1
    Appelé aussi Skewness , il correspond au moment d'ordre 3
2
    Appelé aussi Kurtosis, , il correspond au moment d'ordre 4

(y compris la classe de défaut) et la variation de la valeur de chaque crédit en fonction de la
classe de risque dans laquelle il se trouve.

Dans le cas d'un modèle MTM, la perte totale s'obtient alors, compte tenu de l'hypothèse
d'indépendance des migrations conditionnelles, par simple agrégation des positions
individuelles. Pour un modèle s'inscrivant dans l'approche de défaut, il suffit de déterminer le
nombre de défauts dans chaque classe pour chaque réalisation des facteurs de risque et la
perte relative à chaque défaut.

Les corrélations entre événements de crédit interviennent entièrement dans ce cadre à travers
le fait que les variations des valeurs individuelles (y compris en cas de défaut) dépendent
directement de la réalisation des facteurs de risque et sont donc étroitement liées les unes aux
autres.

Deux approches bien distinctes sont utilisées pour la construction de la PDF: l'approche
analytique et l'approche de simulation

· Une approche de type analytique : consiste en la recherche d'une forme de distribution
susceptible d'approcher la PDF et en particulier sa queue de distribution. Le modèle
CreditRisk+ utilise ce type d'approche : la distribution des pertes est donnée par une relation
de récurrence qui donne la probabilité de l'occurrence d'une perte de n unités d'exposition en
fonction de la probabilité de l'occurrence d'une perte de n-1 unités d'exposition;

· Une approche fondée sur la simulation Monte Carlo : applicable à de très grands
portefeuilles, elle permet de spécifier un montant de pertes agrégées lié à une réalisation
particulière des facteurs de risque. Dans un premier temps on effectue un nombre de tirages
aléatoires (100 000 par exemple) à partir de la loi de distribution des facteurs de risque
(généralement normale), après on lie chaque réalisation à un montant de pertes. Il suffit
ensuite d'ordonner ces pertes pour construire l'histogramme de la distribution. Cette approche
est utilisée aussi bien par CreditMetrics que par KMV.

Ces deux approches peuvent être complétées par une approche fondée sur la théorie des
valeurs extrêmes (EVT). Celle-ci permet de déduire une loi asymptotique pour la distribution
des grandes pertes. L'usage de cette loi permet de mieux cerner la distribution des pertes
extrêmes pour lesquelles le nombre de données est généralement insuffisant.

B. La Value at Risk (VaR)

La Value at Risk (VaR) est la perte maximale sur un crédit (ou un portefeuille de crédits) à
un horizon de temps et un niveau de confiance donnés.
Dans sa forme générale, la VaR peur être tirée de la distribution de probabilité des pertes. Elle
est alors égale au quantile d'ordre á de la fonction de densité des pertes (PDF) :

~~

P (x?x*)= 1-á = f f(x)

~~

dx

Où á est le seuil de confiance choisi (ex : 99%), x* le quantile d'ordre á et f la PDF.

Si la distribution de la valeur marchande d'un titre est normale, que sa valeur moyenne est de
100 DA et que son écart type est égal à 10 DA l'approche par la VaR nous renseigne qu'à 99%
de chance la valeur du titre reste supérieure à 100 - 2,33 × 10 = 76,7 DA ou bien que la perte
soit inférieure à 100 - 76,7 = 23,3 DA.

Ainsi, les éléments nécessaires pour le calcul de la VaR sont la moyenne et l'écart type des
prix des actifs. Si ces éléments sont facilement estimables pour les valeurs faisant l'objet d'une
cotation, leur estimation dans le cas des crédits bancaires présente une difficulté car leur
valeur n'est pas directement observable. De plus, l'hypothèse de normalité est difficilement
justifiable car la distribution de cette valeur est fortement asymétrique.




                           Figure 2.1 : Distribution des pertes et VaR

3. MODELES DE DEFAUT VS MODELES MTM

Les modèles de quantification du risque de crédit peuvent être rangés en deux grandes
catégories: les modèles de défaut (Default model ou DM) et les modèles Marked to market
(ou MTM) :

3.1 Les modèles de défaut (DM) :

Ces modèles considèrent l'événement de défaut comme le seul risque de crédit. En
conséquent, deux états de la nature sont jugés pertinents : le défaut et l'absence du défaut.

Cette approche est généralement la plus adoptée par les banques car la plupart des prêts
consentis par une banque ont vocation à rester dans son portefeuille jusqu'à l'échéance finale,
quelle qu'en soit l'issue
On retrouve dans cette catégorie le modèle de référence CreditRisk+ développé par Crédit
Suisse Financial Productes (CSFP),

3.2 Les modèles Marked to market (MTM) :

Dans ces modèles le risque de crédit correspond à l'un des événements suivants :

· Un défaut comme dans le cas des modèles DM

· Un changement de rating

· Une modification du spread, en se qui concerne les instruments de marché

De ce fait, la dégradation de la cote d'une obligation par exemple de BBB à BB, entraine une
perte pour son détenteur, malgré l'absence de défaut.

Dans les modèles MTM et contrairement aux modèles de défauts, la perte attendue peut
prendre une valeur positive ( ce qui se traduit par un gain ) à partir du moment où la valeur de
marché peut évoluer dans un sens positif.

L'approche s'applique principalement aux titres de marché émis par des firmes notées par les
grandes agences de rating telles que S&P ou Moody's.

Parmi les modèles appliquant cette approche, on trouve CreditMetrics de JPMorgan .

4. LES MODELES DE REFERENCE: 4.1 CreditRisk+ de Crédit Suisse

Développé en 1996 par Crédit Suisse Financial Productes (CSFP), CréditRisk+ est un
model de défaut qui utilise une approche dite actuarielle. C'est un modèle dans lequel la
probabilité de défaut est modélisée comme une variable continue caractérisée par une
distribution de probabilité. Le comportement des taux de défaut est alors représenté par la
volatilité de ce taux.

Le modèle CreditRisk+ est fondé sur des hypothèses inspirées des techniques de calcul des
primes d'assurance incendie. Dans un portefeuille d'assurances incendie, chaque sinistre a une
faible probabilité de se réaliser et il est peu probable que toutes les maisons prennent feu. De
plus, le coût de chaque sinistre est incertain en ce sens qu'une maison peut bruler entièrement
ou partiellement. Par analogie, le modèle CreditRisk+ a été bâti sur les hypothèses
suivantes :

· Chaque crédit est supposé avoir une faible probabilité de défaut.

· Chaque défaut sur un crédit est supposé indépendant des défauts des autres crédits.

· Les pertes peuvent être plus ou moins importantes et leur montant est considéré comme une
source d'incertitude.

Méthodologie du modèle :
Le modèle CreditRisk+ procède à une décomposition du portefeuille en bandes. Chaque
bande considérée comme un portefeuille distinct qui regroupe des crédits dont les expositions
s'approchent de sa valeur moyenne.

Dans une première étape, le modèle va s'intéresser au calcul des pertes à l'intérieur de chaque
bande. Ainsi, une probabilité moyenne de défaut va être attribuée à chaque portefeuille.
Cependant, cette probabilité est incertaine dans la mesure où le taux de défaut est considéré
comme étant une variable aléatoire.

Dans sa spécification la plus simple, CreditRisk+ suppose que le taux de défaut suit une loi
de poisson, la distribution de probabilité des défauts est alors de la forme :


                  e -mmn
P (n défauts) =
                     n!

Où m représente le nombre de prêts et n le nombre de défauts.

En utilisant cette loi, on peut donc trouver les probabilités associées au nombre de défauts
dans chaque bande. C'est-à-dire dans chaque portefeuille on calcul la probabilité qu'il y ait 0
défaut, 1 défaut, 2 défauts, jusqu'à n défauts.

Par la suite, la distribution des pertes sera calculée à l'intérieur de chaque bande, et les pertes
seront agrégées sur l'ensemble des bandes pour construire de cette manière la distribution des
pertes sur le portefeuille global.

4.2 CréditMetrics de JP Morgan

La méthode a été développée en 1997 par le groupe de recherche sur la gestion du risque de la
firme J.P. Morgan pour mesurer le risque de crédit et valoriser les portefeuilles d'actifs non
négociables tels que les prêts et obligations privées. Son objectif est de permettre aux
établissements de crédit d'évaluer la valeur future de leur portefeuille et non pas seulement
d'estimer leurs pertes potentielles. En ce sens, il s'agit d'un modèle de transition et non pas de
défaut.

Méthodologie du modèle :

Essentiellement concentré sur une évaluation des risques au niveau d'un portefeuille, la
procédure ne propose pas de technique d'évaluation des probabilités de défaut individuelles.
En pratique, l'évaluation des probabilités de transition se fait au niveau des classes de risque
(rating) et non au niveau individuel, ce qui implique que toutes les firmes d'une même classe
sont supposées porter le même risque.

La mise en oeuvre de la méthode repose sur les étapes suivantes :

1. Une note est attribué à chaque émetteur (ou émission) en fonction de sa solvabilité
présumée. Cette notation peut être celle publiée par les agences spécialisées ou une notation
interne ;
2. On détermine une matrice de transition de rating. Cette matrice consiste à donner pour un
émetteur auquel on a attribué un rating actuel, les différents ratings potentiels à un horizon
donné avec la probabilité de migration de la note initiale à chacune des notes potentielles.
Cette matrice peut être obtenue à partir des données historiques fournies par les agences de
notation ou par estimation statistique ;

3. A chaque type de rating, on attribue une courbe des taux prenant en compte le risque
spécifique de cette catégorie de rating par rapport à un émetteur sans risque de crédit. Cette
courbe des taux peut être déterminée à partir d'un panel d'émissions ayant ce rating ;

4. A chaque émetteur (ou émission), on attribue un taux de recouvrement en cas de faillite. Ce
taux de recouvrement est celui que donnera le liquidateur aux créanciers de la société en cas
de faillite. Afin de prendre en compte le caractère spécifique de chaque émission et en
particulier les garanties associées, il peut être plus judicieux d'attribuer un taux de
recouvrement par émission plutôt que par émetteur.

La méthode permet également de se baser sur l'espérance et la volatilité du taux de
recouvrement correspondant au rating et à la séniorité de la dette.

5. La dernière étape consiste en l'estimation de la VaR, pour ce faire, CréditMetrics utilise
l'approche fondée sur la simulation Monte-Carlo en générant des scénarios de valeurs des
titres faisant partie du portefeuille. Ces scénarios sont traduits en transitions vers des classes
de risque et donc directement en valeurs du portefeuille. La distribution empirique de la
valeur future du portefeuille de la banque est ensuite construite sur la base des résultats
obtenus.

5. LA VALIDATION DES MODELES DE CREDIT:

Avant d'utiliser un model, la banque est tenue d'évaluer sa performance. Elle doit s'assurer de
se fait que les résultats obtenus sont pertinents et convergent vers la réalité. Pour ce faire les
banques procèdent régulièrement à des tests de validation de leurs modèles afin d'ajuster des
paramètres (coefficients) ou même de modifier des composantes.

Plusieurs testes de validations sont utilisés pour les modèles de crédit, les plus connus sont le
Backtesting, le Benchmarking et le Stress testing :

1) Backtesting : Cette méthode consiste à comparer les valeurs réelles des variables à celles
estimées par le model. Ceci se fait par le calcul de l'écart dans le passé entre les variables
objectifs (endogènes) estimées préalablement par le model et la réalité de ces variables
constatée ex-post.

2) Benchmarking : Ce teste consiste à comparer le modèle interne avec des références
externes. Les décalages significatifs dans les résultats restitués doivent être étudiés et justifiés.
Les benchmarks consistent en des données fournies par des organismes externes

de notation des crédits. Les écarts ainsi constatés permettent de mettre en lumière les
insuffisances et les forces des méthodologies utilisées par la banque.

3) Stress testing : cette méthode (appelée aussi Scénario-catastrophe ou de crise) consiste à
introduire différents scénarios extrêmes concernant les paramètres d'entrée du model (Input),
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc
Raroc

Contenu connexe

Tendances

IV Gestion risque de change
IV Gestion risque de changeIV Gestion risque de change
IV Gestion risque de changeJérémy Morvan
 
Gestion des risques bancaires
Gestion des risques bancairesGestion des risques bancaires
Gestion des risques bancairesZouhair Aitelhaj
 
GOUVERNANCE BANCAIRE ET RISQUE DE CRÉDIT
GOUVERNANCE BANCAIRE ET RISQUE DE CRÉDITGOUVERNANCE BANCAIRE ET RISQUE DE CRÉDIT
GOUVERNANCE BANCAIRE ET RISQUE DE CRÉDITMohamed Messaoudi
 
Risque et crisses financiéres
Risque et crisses financiéresRisque et crisses financiéres
Risque et crisses financiéresSoukaina BELAYACHI
 
La nouvelle réglementation Bâle III implique-t-elle un changement des busines...
La nouvelle réglementation Bâle III implique-t-elle un changement des busines...La nouvelle réglementation Bâle III implique-t-elle un changement des busines...
La nouvelle réglementation Bâle III implique-t-elle un changement des busines...Arrow Institute
 
Bâle III et ses implications
Bâle III et ses implicationsBâle III et ses implications
Bâle III et ses implicationsActions-Finance
 
La maitrise des risques du crédit bancaire (1)
La maitrise des risques du crédit bancaire (1)La maitrise des risques du crédit bancaire (1)
La maitrise des risques du crédit bancaire (1)Intissar Abada
 
Soutenance gestion du risque credit
Soutenance gestion du risque creditSoutenance gestion du risque credit
Soutenance gestion du risque creditZouhair Aitelhaj
 
Les techniques bancaires en 52 fiches
Les techniques bancaires en 52 fichesLes techniques bancaires en 52 fiches
Les techniques bancaires en 52 fichesZouhair Aitelhaj
 
Marchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdf
Marchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdfMarchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdf
Marchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdfJeyo52529B
 
Gestion de portefeuille
Gestion de portefeuilleGestion de portefeuille
Gestion de portefeuilleDalal Alami
 
PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...
PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...
PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...PECB
 
value at risk
value at riskvalue at risk
value at riskamine145
 
Chapitre 4: Analyse financière par les ratios
Chapitre 4: Analyse financière par les ratiosChapitre 4: Analyse financière par les ratios
Chapitre 4: Analyse financière par les ratiosLotfi TALEB, ESSECT
 
Le risque de change
Le risque de changeLe risque de change
Le risque de changeand-one
 

Tendances (20)

IV Gestion risque de change
IV Gestion risque de changeIV Gestion risque de change
IV Gestion risque de change
 
Gestion des risques bancaires
Gestion des risques bancairesGestion des risques bancaires
Gestion des risques bancaires
 
GOUVERNANCE BANCAIRE ET RISQUE DE CRÉDIT
GOUVERNANCE BANCAIRE ET RISQUE DE CRÉDITGOUVERNANCE BANCAIRE ET RISQUE DE CRÉDIT
GOUVERNANCE BANCAIRE ET RISQUE DE CRÉDIT
 
Risque et crisses financiéres
Risque et crisses financiéresRisque et crisses financiéres
Risque et crisses financiéres
 
La nouvelle réglementation Bâle III implique-t-elle un changement des busines...
La nouvelle réglementation Bâle III implique-t-elle un changement des busines...La nouvelle réglementation Bâle III implique-t-elle un changement des busines...
La nouvelle réglementation Bâle III implique-t-elle un changement des busines...
 
Bâle III et ses implications
Bâle III et ses implicationsBâle III et ses implications
Bâle III et ses implications
 
Raroc
RarocRaroc
Raroc
 
Gestion de tresorerie
Gestion de tresorerieGestion de tresorerie
Gestion de tresorerie
 
La maitrise des risques du crédit bancaire (1)
La maitrise des risques du crédit bancaire (1)La maitrise des risques du crédit bancaire (1)
La maitrise des risques du crédit bancaire (1)
 
Soutenance gestion du risque credit
Soutenance gestion du risque creditSoutenance gestion du risque credit
Soutenance gestion du risque credit
 
Gestion De Tresorerie
Gestion De TresorerieGestion De Tresorerie
Gestion De Tresorerie
 
Les techniques bancaires en 52 fiches
Les techniques bancaires en 52 fichesLes techniques bancaires en 52 fiches
Les techniques bancaires en 52 fiches
 
Marchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdf
Marchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdfMarchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdf
Marchés Financiers-6e edition-Bertrand Jacquillat & Bruno Solnik.pdf
 
Risque credit
Risque creditRisque credit
Risque credit
 
Gestion de portefeuille
Gestion de portefeuilleGestion de portefeuille
Gestion de portefeuille
 
PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...
PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...
PECB Webinaire:L'ISO 31000:2009 Management du Risque - Principes et Lignes Di...
 
value at risk
value at riskvalue at risk
value at risk
 
Bâle II / Bâle III
Bâle II / Bâle IIIBâle II / Bâle III
Bâle II / Bâle III
 
Chapitre 4: Analyse financière par les ratios
Chapitre 4: Analyse financière par les ratiosChapitre 4: Analyse financière par les ratios
Chapitre 4: Analyse financière par les ratios
 
Le risque de change
Le risque de changeLe risque de change
Le risque de change
 

En vedette

Analyse des risques_bancaires_tifawt.com
Analyse des risques_bancaires_tifawt.comAnalyse des risques_bancaires_tifawt.com
Analyse des risques_bancaires_tifawt.comhassan1488
 
CreditRisk+ Model Tutorial 3.0
CreditRisk+ Model Tutorial 3.0CreditRisk+ Model Tutorial 3.0
CreditRisk+ Model Tutorial 3.0mrmelchi
 
2015 fevrier enquete-banque-solucom_volet-2
2015 fevrier enquete-banque-solucom_volet-22015 fevrier enquete-banque-solucom_volet-2
2015 fevrier enquete-banque-solucom_volet-2servicesmobiles.fr
 
Les défis de la relation mluti canal
Les défis de la relation mluti canalLes défis de la relation mluti canal
Les défis de la relation mluti canalSyrtals
 
Conférence Mercredi de la Finance - Nov 2012
Conférence Mercredi de la Finance - Nov 2012 Conférence Mercredi de la Finance - Nov 2012
Conférence Mercredi de la Finance - Nov 2012 mwaresearch
 
Gestion des risques contractuels / HEG Genève
Gestion des risques contractuels / HEG GenèveGestion des risques contractuels / HEG Genève
Gestion des risques contractuels / HEG GenèveCougar Partners
 
The driving force behind profitability at Wells Fargo, Citi, and B of A
The driving force behind profitability at Wells Fargo, Citi, and B of AThe driving force behind profitability at Wells Fargo, Citi, and B of A
The driving force behind profitability at Wells Fargo, Citi, and B of AJay Jenkins
 
Le cycle de vie de la gestion des risques
Le cycle de vie de la gestion des risquesLe cycle de vie de la gestion des risques
Le cycle de vie de la gestion des risquesPMI-Montréal
 
Chap 7 Gestion Du Risque
Chap 7  Gestion Du RisqueChap 7  Gestion Du Risque
Chap 7 Gestion Du RisqueLouis Pinto
 
UTSEUS - Automne 2013 - Gestion de Projet > L'analyse des Risques
UTSEUS - Automne 2013 - Gestion de Projet > L'analyse des RisquesUTSEUS - Automne 2013 - Gestion de Projet > L'analyse des Risques
UTSEUS - Automne 2013 - Gestion de Projet > L'analyse des RisquesLaëtitia Pfaënder
 
Cours Mesure de travail en Industrie _ mis à jour 2017
Cours Mesure de travail en Industrie _ mis à jour 2017Cours Mesure de travail en Industrie _ mis à jour 2017
Cours Mesure de travail en Industrie _ mis à jour 2017ibtissam el hassani
 
Cartographie et croissance de l'écosystème Fintech
Cartographie et croissance de l'écosystème FintechCartographie et croissance de l'écosystème Fintech
Cartographie et croissance de l'écosystème FintechFinTechMag
 
Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...
Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...
Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...Arrow Institute
 
les instruments et techniques de paiement
 les instruments et techniques de paiement les instruments et techniques de paiement
les instruments et techniques de paiementMohamed Essaker
 
Sureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANI
Sureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANISureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANI
Sureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANIibtissam el hassani
 
Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...
Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...
Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...Youcef Benchicou
 
management-risques-projet
 management-risques-projet  management-risques-projet
management-risques-projet Es-sahli bilal
 

En vedette (20)

Analyse des risques_bancaires_tifawt.com
Analyse des risques_bancaires_tifawt.comAnalyse des risques_bancaires_tifawt.com
Analyse des risques_bancaires_tifawt.com
 
CreditRisk+ Model Tutorial 3.0
CreditRisk+ Model Tutorial 3.0CreditRisk+ Model Tutorial 3.0
CreditRisk+ Model Tutorial 3.0
 
Risque de credit
Risque de creditRisque de credit
Risque de credit
 
Webconference 3
Webconference 3Webconference 3
Webconference 3
 
2015 fevrier enquete-banque-solucom_volet-2
2015 fevrier enquete-banque-solucom_volet-22015 fevrier enquete-banque-solucom_volet-2
2015 fevrier enquete-banque-solucom_volet-2
 
Financial Breakthrough
Financial BreakthroughFinancial Breakthrough
Financial Breakthrough
 
Les défis de la relation mluti canal
Les défis de la relation mluti canalLes défis de la relation mluti canal
Les défis de la relation mluti canal
 
Conférence Mercredi de la Finance - Nov 2012
Conférence Mercredi de la Finance - Nov 2012 Conférence Mercredi de la Finance - Nov 2012
Conférence Mercredi de la Finance - Nov 2012
 
Gestion des risques contractuels / HEG Genève
Gestion des risques contractuels / HEG GenèveGestion des risques contractuels / HEG Genève
Gestion des risques contractuels / HEG Genève
 
The driving force behind profitability at Wells Fargo, Citi, and B of A
The driving force behind profitability at Wells Fargo, Citi, and B of AThe driving force behind profitability at Wells Fargo, Citi, and B of A
The driving force behind profitability at Wells Fargo, Citi, and B of A
 
Le cycle de vie de la gestion des risques
Le cycle de vie de la gestion des risquesLe cycle de vie de la gestion des risques
Le cycle de vie de la gestion des risques
 
Chap 7 Gestion Du Risque
Chap 7  Gestion Du RisqueChap 7  Gestion Du Risque
Chap 7 Gestion Du Risque
 
UTSEUS - Automne 2013 - Gestion de Projet > L'analyse des Risques
UTSEUS - Automne 2013 - Gestion de Projet > L'analyse des RisquesUTSEUS - Automne 2013 - Gestion de Projet > L'analyse des Risques
UTSEUS - Automne 2013 - Gestion de Projet > L'analyse des Risques
 
Cours Mesure de travail en Industrie _ mis à jour 2017
Cours Mesure de travail en Industrie _ mis à jour 2017Cours Mesure de travail en Industrie _ mis à jour 2017
Cours Mesure de travail en Industrie _ mis à jour 2017
 
Cartographie et croissance de l'écosystème Fintech
Cartographie et croissance de l'écosystème FintechCartographie et croissance de l'écosystème Fintech
Cartographie et croissance de l'écosystème Fintech
 
Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...
Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...
Gestion des risques opérationnels: Le transfert du risque à l'assureur, compo...
 
les instruments et techniques de paiement
 les instruments et techniques de paiement les instruments et techniques de paiement
les instruments et techniques de paiement
 
Sureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANI
Sureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANISureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANI
Sureté de fonctionnement - mis à jours 2017 - Ibtissam EL HASSANI
 
Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...
Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...
Rapport final - Mémoire de fin d'études - Bâle III - Nouvelle réglementation ...
 
management-risques-projet
 management-risques-projet  management-risques-projet
management-risques-projet
 

Similaire à Raroc

La régulation des institutions financières en matière de risque
La régulation des institutions financières en matière de risqueLa régulation des institutions financières en matière de risque
La régulation des institutions financières en matière de risqueManon Cuylits
 
"Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc...
"Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc..."Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc...
"Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc...Alban Jarry (Bibliothèque de Documents)
 
Regles prudentielles
Regles prudentiellesRegles prudentielles
Regles prudentiellesbellvita_17
 
Risque systemique et régulation
Risque systemique et régulationRisque systemique et régulation
Risque systemique et régulationPerrine Audemard
 
Réforme prudentielle du risque souverain
Réforme prudentielle du risque souverainRéforme prudentielle du risque souverain
Réforme prudentielle du risque souverainSimon Shohet
 
Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...
Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...
Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...mwaresearch
 
Gestion des engagements hors bilan des banques sous l’angle du contrôle bancaire
Gestion des engagements hors bilan des banques sous l’angle du contrôle bancaireGestion des engagements hors bilan des banques sous l’angle du contrôle bancaire
Gestion des engagements hors bilan des banques sous l’angle du contrôle bancaireZouhair Aitelhaj
 
Le risque de liquidité des banques islamiques
Le risque de liquidité des banques islamiquesLe risque de liquidité des banques islamiques
Le risque de liquidité des banques islamiquesAde Med
 
Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...
Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...
Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...PwC France
 
La gestion du risque cas des dérivés de credit
La gestion du risque   cas des dérivés de creditLa gestion du risque   cas des dérivés de credit
La gestion du risque cas des dérivés de creditNoamRevah
 
ACPR : communique rapport annuel 2017
ACPR : communique rapport annuel 2017ACPR : communique rapport annuel 2017
ACPR : communique rapport annuel 2017Société Tripalio
 
02. Présentation E&Y 27.01.2012
02. Présentation E&Y 27.01.201202. Présentation E&Y 27.01.2012
02. Présentation E&Y 27.01.2012Omayma
 
Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...
Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...
Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...Lotfi TALEB, ESSECT
 
Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...
Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...
Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...Alban Jarry
 
Bank Insight n°2 - MIF2 : contrainte ou opportunité ?
Bank Insight n°2 - MIF2 : contrainte ou opportunité ?Bank Insight n°2 - MIF2 : contrainte ou opportunité ?
Bank Insight n°2 - MIF2 : contrainte ou opportunité ?Wavestone
 

Similaire à Raroc (20)

Va r
Va rVa r
Va r
 
La régulation des institutions financières en matière de risque
La régulation des institutions financières en matière de risqueLa régulation des institutions financières en matière de risque
La régulation des institutions financières en matière de risque
 
Audit bancaire
Audit bancaireAudit bancaire
Audit bancaire
 
"Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc...
"Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc..."Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc...
"Les excès de la régulation" par Hervé Alexandre - mai 2013 (Bale, Dodd Franc...
 
Regles prudentielles
Regles prudentiellesRegles prudentielles
Regles prudentielles
 
Risque systemique et régulation
Risque systemique et régulationRisque systemique et régulation
Risque systemique et régulation
 
Droit bancaire: exposeé
Droit bancaire: exposeé Droit bancaire: exposeé
Droit bancaire: exposeé
 
Réforme prudentielle du risque souverain
Réforme prudentielle du risque souverainRéforme prudentielle du risque souverain
Réforme prudentielle du risque souverain
 
Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...
Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...
Mwa study 3 intégration de nouveaux facteurs de risque à la va_r et méthode d...
 
Gestion des engagements hors bilan des banques sous l’angle du contrôle bancaire
Gestion des engagements hors bilan des banques sous l’angle du contrôle bancaireGestion des engagements hors bilan des banques sous l’angle du contrôle bancaire
Gestion des engagements hors bilan des banques sous l’angle du contrôle bancaire
 
Le risque de liquidité des banques islamiques
Le risque de liquidité des banques islamiquesLe risque de liquidité des banques islamiques
Le risque de liquidité des banques islamiques
 
Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...
Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...
Etude PwC Solvabilité 2 : de nouveaux leviers pour l’allocation d’actifs (oct...
 
La gestion du risque cas des dérivés de credit
La gestion du risque   cas des dérivés de creditLa gestion du risque   cas des dérivés de credit
La gestion du risque cas des dérivés de credit
 
Gestion obligataire.pdf
Gestion obligataire.pdfGestion obligataire.pdf
Gestion obligataire.pdf
 
ACPR : communique rapport annuel 2017
ACPR : communique rapport annuel 2017ACPR : communique rapport annuel 2017
ACPR : communique rapport annuel 2017
 
Cp3ovfr
Cp3ovfrCp3ovfr
Cp3ovfr
 
02. Présentation E&Y 27.01.2012
02. Présentation E&Y 27.01.201202. Présentation E&Y 27.01.2012
02. Présentation E&Y 27.01.2012
 
Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...
Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...
Crise des Subprimes, Réglementation Prudentielle : Z-score ou Rating ? Une Et...
 
Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...
Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...
Conference Actuaris - Retour d’expérience client sur Solvabilité 2, ORSA, Act...
 
Bank Insight n°2 - MIF2 : contrainte ou opportunité ?
Bank Insight n°2 - MIF2 : contrainte ou opportunité ?Bank Insight n°2 - MIF2 : contrainte ou opportunité ?
Bank Insight n°2 - MIF2 : contrainte ou opportunité ?
 

Raroc

  • 1. RAROC: Outil de gestion du risque de crédit SECTION 2: LA GESTION DES RISQUES BANCAIRES: La gestion des risques bancaires correspond à l'ensemble des techniques, outils et dispositifs organisationnels mis en place par la banque pour identifier, mesurer et surveiller les risques auxquels elle est confrontée. On distingue deux approches différentes dans la gestion des risques ; une première interne portant sur les risques pris individuellement et selon leur nature (risque de crédit, risque de marché, risque de liquidité...), quand à la seconde, elle est globale et constitue un processus holistique, qui suppose une consolidation de tous les risques et la prise en compte de leur interdépendance. I. LES OBJECTIFS DE LA GESTION DES RISQUES: La gestion des risques vise la réalisation de quatre objectifs1 : · Assurer la pérennité de l'établissement, par une allocation efficiente des ressources et une allocation adéquate des fonds propres qui permettra une meilleure couverture contre les pertes futures. · Elargir le control interne du suivi des performances au suivi des risques associés. · Faciliter la prise de décision pour les opérations nouvelles et permettre de les facturer aux clients. · Rééquilibrer le portefeuille de l'établissement, sur la base des résultats et des effets de diversification. II. LES ETAPES DE LA GESTION DES RISQUES: La gestion des risques repose sur un processus de six étapes : 1.1 Identification des risques: Cette étape consiste à établir une cartographie des risques auxquels la banque est confrontée. Cet exercice ne doit pas être limité dans le temps, vu les changements internes et externes qui touchent le milieu bancaire et qui peuvent engendrer l'apparition de nouveaux risques. 1.2 Evaluation et mesure des risques: Elle consiste à quantifier les coûts associés aux risques identifiés dans la première étape.
  • 2. 1 Joel BESSIS - Gestion des risques et gestion Actif-Passif des banques. Dalloz. Paris. 1995. P48 La mesure du risque dépend de la nature de ce dernier, s'il est quantifiable ou non. Lorsque les risques sont quantifiables comme dans le cas du risque de crédit et du risque de marché, le concept le plus utilisé est celui de la Value-at-Risk. Dans le cas des risques non quantifiables, une méthodologie objective est appliquée pour les estimer, à travers deux variables: · La probabilité de survenance d'un événement négatif, qui à défaut de quantification, peut se voir attribuer des valeurs relatives : forte, moyenne et faible probabilité. · Gravité de l'événement en cas de survenance du risque : là aussi, en absence de données quantifiables, on peut attribuer une variable relative : élevé, moyen, faible. Le croisement des deux séries de variables, permettra de donner une idée relative du risque. 1.3 Sélection des techniques de gestion des risques: Les techniques de gestion des risques visent principalement l'un des trois objectifs suivants : · Eviter le risque · Transférer le risque · Encourir le risque 1.4 La mise en oeuvre: Cette étape consiste à mettre en oeuvre la technique choisie, elle doit être réalisée par une unité clairement désignée à cet effet, par exemple : la salle des marchés pour les risques de marché, la direction des engagements pour le risque de crédit, ALM pour la gestion du risque de liquidité et de taux. Quand au risque opérationnel, il a la particularité d'être plus difficilement attribuable a une unité spécifique vu ça présence partout. Le principe fondamental de cette étape de gestion des risques est de minimiser les coûts attribués à la mise en oeuvre de la solution. 1.5 Surveillance des risques: Le suivi permanant des risque est primordial, et ce afin de s'assurer que les stratégies adoptées donnent des résultats optimaux. En effet, au fil du temps et selon les circonstances, il se peut que les décisions initialement prises deviennent incompatibles avec la conjoncture et de ce fait elles doivent être modifiées ou carrément remplacées. 1.6 Reporting des risques: Le reporting est l'aboutissement logique de tout processus de gestion, il s'agit d'une synthèse qui fait ressortir les éléments clés sous une forme analytique, adressée aux responsables sous forme d'un rapport dont le contenu et le niveau de détail dépend de la fonction du destinataire.
  • 3. SECTION 3: LA REGLEMENTATION PRUDENTIELLE INTERNATIONALE Dans un environnement concurrentiel, de nombreux facteurs peuvent inciter une banque à prendre des risques parfois importants, chose qui pourrait la mettre en péril et même menacer la stabilité de tout le système à cause des effets de contagion. C'est dans le but de limiter les effets néfastes de la prise de risque et de promouvoir la stabilité et la sécurité du système financier que fut l'avènement de la réglementation prudentielle. I. LE COMITE DE BALE: Le Comité de Bâle a été créé en 1974 par les gouverneurs des Banques Centrales du groupe des dix (G1 0) sous l'appellation « Comité des règles et pratiques de contrôle bancaire », il est constitué des pays suivants : Belgique, Canada, France, Allemagne, Italie, Japon, Luxembourg, Pays-Bas, Espagne, Suède, Suisse, Royaume-Uni et Etats-Unis. Ces pays sont représentés par leurs banques centrales ou par l'autorité de supervision bancaire. Leurs représentants se rencontrent régulièrement à la Banque des Règlements Internationaux (BRI) localisée à Bâle pour parler des enjeux liés à leur responsabilité. Les taches du comité de Bale sont axées sur : · L'échange d'informations sur les pratiques nationales de contrôle ; · L'amélioration de l'efficacité des techniques mises en oeuvre pour la surveillance de l'activité bancaire internationale ; · La fixation de normes prudentielles minimales dans les domaines ou elles apparaissent souhaitables. Il est à noter que le comité de Bâle ne dispose d'aucun pouvoir légal national ou international, ses conclusions n'ont pas force exécutoire. Son rôle est plutôt d'établir des normes de références et des lignes directrices générales et de formuler des recommandations à l'égard des bonnes pratiques que ses membres s'engagent à mettre en oeuvre. II. L' ACCORD DE BALE DE 1988 En 1988, le Comité de Bâle instaure pour les banques exerçant leur activité à l'international un nouveau cadre appelé « Accord de Bâle », définissant les exigences minimales de fonds propres que les banques doivent respecter en fonction des risques qu'elles prennent. Le ratio international de solvabilité, appelé ratio Cooke1 voit alors le jour avec la règle simple et quasi uniforme de 8% de fonds propres alloués pour chaque crédit accordé. Fonds propres nets
  • 4. Ratio Cooke = > 8 % Selon Bâle I, les fonds propres exigibles sont calculés sur la base d'une somme pondérée des différents types d'actifs d'une banque; ces pondérations cherchent à refléter le niveau de risque de chaque catégorie d'actifs. Pondérations (%) Nature des encours 0 Créances sur des Etats de l'OCDE 20 Créances sur les banques 50 et les collectivités locales des Etats de l'OCDE Créances garanties par une hypothèque ou crédit bail 100 immobilier Toutes les autres créances telles que les obligations du secteur privé, la dette des pays en voie de développement, les créances des pays hors OCDE, les actions, l'immobilier, les bâtiments industriels et les machines Tableau 1.1 : La pondération des encours dans Bale 1 Ce ratio, fut instauré dans la plupart des pays de l'OCDE au début des années 1990. Il fut aménagé en 1996 afin d'y intégrer la gestion des risques de marché. L'amendement de 1996 En plus de l'intégration du risque de marché dans le calcul du ratio de solvabilité, l'amendement de 1996 a accordé aux banques la possibilité de recourir à leurs propres modèles internes de risque de marché pour définir le niveau de fonds propres nécessaires. Il a enfin, permis l'intégration de certaines garanties hors bilan qui n'étaient pas prises en compte dans l'accord initial, telle que la titrisation des créances. D'abord appliqué aux pays du G10 et aux banques exerçant leur activité à l'international, l'accord Bâle1 s'étend progressivement à la plupart des banques d'une centaine de pays. 1 Du nom du Président du Comité de Bâle de l'époque III. LES LIMITES DE BALE I Depuis la fin des années 90, les limites des accords de Bâle, notamment en termes d'exigences de fonds propres pour les risques de crédit devenaient de plus en plus apparentes.
  • 5. En effet, Bâle I a permis d'atténuer les inégalités concurrentielles, les banques se couvrant systématiquement de fonds propres à hauteur de 8 % de leurs engagements. Toutefois, il correspond à un système simplifié, peu sensible au niveau réel des risques et qui présente plusieurs limites: · Le ratio Cooke ne prend pas en considération de manière pertinente et suffisamment précise le niveau réel du risque de crédit, celui-ci est évalué de façon forfaitaire en fonction du type de contrepartie et du produit. En particulier, le ratio ne tient pas compte des différences de qualité des emprunteurs privés puisque quasiment tous les prêts au secteur privé supportent des charges en fonds propres identiques, quelle que soit leur maturité, leur montant ou la solidité financière de leurs bénéficiaires ; · Le ratio Cooke ne tient compte ni de l'évolution du niveau de risque (changement de la notation), ni du taux de recouvrement (qualité de la garantie) ; · Le ratio Cooke ne prend pas en considération la réduction potentielle du risque induite par la diversification du portefeuille parmi de nombreux emprunteurs, industries et localisations géographiques. Par exemple, le capital réglementaire est le même, que la banque ait consenti un prêt de 100 millions de dinars à une seule entreprise ou que la banque ait fait 100 prêts de 1 million de dinars chacun à 100 entreprises différentes appartenant à des secteurs d'activité différents ; · Fixer une borne inférieure du ratio à 8% n'est basé sur aucun fondement économique. · Le ratio Cooke ignore d'autres risques fortement présents dans l'activité bancaire comme le risque opérationnel ; · Enfin, l'accord de 1988 ne permet pas la compensation des risques (netting) et n'offre ainsi aucune incitation au recours aux techniques de couverture du risque de crédit comme les dérivés de crédit. Ratio bancaire sommaire, Bâle I n'est plus adapté à la sophistication croissante des activités bancaires. IV. LE DISPOSITIF BALE II En raison de l'évolution considérable de l'activité bancaire, des marchés financiers, des méthodes de gestion du risque et des pratiques de surveillance, intervenus depuis la signature du premier accord, le Comité de Bâle, présidé alors par W. Mc Donough a jugé nécessaire d'en réviser le contenu. 4.1 Les piliers de Bâle II : En 1999, le comité de Bâle propose son premier document consultatif (CP1) posant les termes de la réforme autours de trois piliers : 1. les exigences minimales en matière de fonds propres (Pilier 1) 2. le processus de surveillance prudentielle et de contrôle interne (Pilier 2)
  • 6. 3. la communication financière et la discipline du marché (Pilier 3) A. Le Pilier 1 : les exigences minimales en matière de fonds propres Bâle II permet une plus grande différenciation dans les exigences de capital en fonction de la qualité des risques de crédit, qui dépend entre autres de la probabilité de défaut de la contrepartie et de la perte en cas de défaut. L'accord permet également un traitement plus exigeant mais aussi plus adapté des opérations de marché, avec des techniques renouvelées d'estimation de l'exposition au risque de contrepartie (EPE) et une prise en compte plus stricte du risque de défaut dans la mesure du risque de marché et du risque de participation actions. La grande nouveauté est l'apparition d'une charge en capital pour le risque opérationnel, qui peut être évaluée de façon très forfaitaire en fonction des revenus ou selon le modèle interne de la banque dans le cas du choix de méthodes avancées. . L'ancien ratio de solvabilité connu par « ratio Cook » a été remplacé par le ratio dit « McDonough ». Ce nouveau ratio, ne change pas l'assiette de calcul «fonds propres /risques» qui reste fixée à 8%. Par contre, une ventilation du risque en fonction de sa nature sera exigée (risque de crédit comptant pour 75%, le risque opérationnel pour 20% et le risque de marché pour 5%). Il faut marquer l'introduction du risque opérationnel dans l'exigence des fonds propres. Fonds propres nets Ratio Mc Donough = > 8 % Risque de crédit + Risque de marché + Risque opérationnel B. Le Pilier 2 : le processus de surveillance prudentielle et de contrôle interne Le deuxième pilier vise à introduire une cohérence entre les risques assumés et l'allocation de fonds propres. Il est fondé sur quatre principes fondamentaux : · L'appréciation, par l'établissement bancaire, des fonds propres qui lui sont nécessaires (son capital économique), · La surveillance prudentielle de ce processus de mesure et d'allocation des fonds propres (avec la comparaison des fonds propres réglementaires et des fonds propres économiques), · Des fonds propres pouvant être supérieurs aux minima réglementaires, · L'intervention, en cas de besoin, des superviseurs. Un rôle plus important est octroyé aux autorités de surveillance. Ces dernières doivent, pour chaque établissement bancaire, s'assurer du caractère adéquat du processus d'évaluation interne de la solvabilité et peuvent, si nécessaire, imposer des exigences de solvabilité plus
  • 7. élevées que les exigences minimales définies précédemment au titre des risques de crédit dans le cadre du pilier 1. Ce processus d'évaluation interne de la solvabilité est appelé ICAAP « Internal Capital Adequacy Assessment Process » C. Le Pilier 3 : la communication financière et la discipline du marché La discipline de marché doit être plus efficace en s'appuyant sur une communication financière qui favorise la transparence, notamment sur l'état des risques et la façon de les mesurer. Le moyen d'atteindre ce but sera la publication d'un niveau élevé d'informations et le respect de pratiques saines en matière de comptabilité et de valorisation qui sont d'une importance décisive en matière de normes de fonds propres. 4.2 La mesure du risque de crédit selon Bâle II: Les instruments de gestion des risques diffèrent sensiblement en fonction de la taille de la banque, des métiers qu'elle exerce et de son aversion au risque. Pour répondre à cette diversité, le Comité de Bâle propose pour chaque type de risque des méthodes de calcul entre lesquelles chaque banque pourra choisir, en fonction du degré de développement de ses techniques de gestion. En matière de traitement du risque de crédit, le Comité de Bâle propose deux approches pour le calcul des exigences en fonds propres: Une approche standard et une approche fondée sur la notation interne : A. L'approche standard (Standardized Approach): L'approche standardisée est conceptuellement assez proche de celle précédemment utilisée dans l'Accord de Bâle I. Elle consiste à mesurer le risque de crédit d'une manière standard, en s'appuyant sur des notations externes fournies par des agences de rating, reflétant la qualité de crédit des emprunteurs. Selon cette approche, les besoin en fonds propres sont calculés comme suit : FP = [E(Pondérations x Expositions)] x 8 % Les pondérations sont déterminées en fonction des notations externes, de la classe d'actif et de la catégorie de l'emprunteur. Les expositions sont les encours nets de provisions spécifiques. Les techniques de réduction des risques, telles que les garanties et les dérivés de crédit, sont prises en compte par cette approche de manière simplifiée. L'approche standard est en principe réservée aux banques de petite et moyenne taille. Les banques de taille plus significative peuvent y recourir si elles ne peuvent adopter les méthodes de notations internes dans un premier temps. B. L'approche fondée sur la notation interne (ou IRB): La promotion des méthodes de notation interne du risque de crédit est l'un des principaux objectifs du comité de Bâle,
  • 8. Cette approche a été conçue en tenant compte des résultats des enquêtes menées auprès des établissements et associations bancaires qui ont mis en évidence que l'ensemble des établissements ne sont pas à même de disposer des données nécessaires au calcul de tous les paramètres quantitatifs du risque de crédit. Ainsi, la méthode de notation interne se décline elle-même en deux approches : · L'approche IRB Fondation (Internal Ratings Based approach Foundation): Dans laquelle l'établissement évalue uniquement la probabilité de défaut (PD), les autres facteurs de risque seront dérivés à travers l'application de mesures standards fournies par les autorités de supervision. · L'approche IRB Avancée (Internal Ratings Based approach Advanced): Cette approche est ouverte aux banques ayant démontré leur capacité d'estimer de manière fiable et constante d'autres paramètres de risque en plus de la probabilité de défaut (PD). Il s'agit essentiellement de la perte en cas de défaut (LGD) et l'encours lors du défaut. Il est à noter que le passage à une approche plus sophistiquée fait l'objet d'un choix irréversible «effet cliquet», cela veut dire qu'un établissement adoptant une approche dite interne ou avancée ne peut décider par la suite de revenir à une approche moins sophistiquée, que pour un motif dûment justifié, après autorisation des autorités de contrôle. 4.3 La mise en place de Bâle II Cent pays environ prévoient d'appliquer Bâle II dans les prochaines années, selon une enquête faite en 2006 par l'Institut pour la stabilité financière. Cela montre tout l'intérêt qu'y attachent les banques et leurs autorités de contrôle. Bien que les discussions sur Bâle II se concentrent généralement sur les approches avancées, les banques seront beaucoup plus nombreuses à appliquer les approches standards (qui sont parfaitement valables et appropriées pour de nombreux établissements), surtout pendant les premières années. Pour gérer les risques du passage à Bâle II, les approches avancées seront introduites progressivement en un an ou deux, période pendant laquelle Bâle I continuera à s'appliquer. Dans les deux ou trois premières années, un «plancher» de fonds propres sera mis en place, afin d'éviter une chute brutale des exigences de fonds propres. Ce plancher sera progressivement supprimé à la fin de la période de transition, mais les autorités de contrôle pourront exiger qu'il soit maintenu pour certaines banques. Pour diverses raisons (retards de la législation et efforts qu'ont dû faire les banques et les autorités pour former le personnel et augmenter leurs capacités), la mise en oeuvre a été reportée dans beaucoup de pays. Les pays de l'Union européenne ont adopté l'approche standard en 2007 et commencent cette année d'appliquer les approches avancées, tandis que les banques des États-Unis peuvent demander une période de fonctionnement parallèle des deux approches pendant trois ans avant d'adopter en 2011 les approches avancées. Actuellement, la plupart des systèmes bancaires qui ont adopté Bâle II sont encore à la période de transition, les plus avancés étant arrivés au stade du fonctionnement parallèle ou de
  • 9. l'application du plancher. Le cadre n'était donc pas encore mis en oeuvre dans beaucoup de pays à l'été 2007, quand les turbulences ont commencé sur les marchés financiers. V. LES FONDS PROPRES REGLEMENTAIRES ET LES FONDS PROPRES ECONOMIQUES En plus de leur rôle de financement, les fonds propres jouent un rôle économique très important. Ceux-ci représentent un élément essentiel dans la gestion des risques dans la mesure où ils reflètent le niveau de solvabilité de l'établissement et constituent la seule garantie des créanciers en cas de faillite de ce dernier. Deux concepts de fonds propres bancaires sont souvent confondus, il s'agit du concept de fonds propres réglementaires et celui de fonds propres économiques. 5.1 Les fonds propres réglementaires: Les fonds propres réglementaires correspondent à l'exigence de fonds propres définie par le régulateur pour faire face aux différents risques supportés par la banque. Ceux-ci sont scindés en 3 tiers et doivent couvrir l'exigence de fonds propres telle que définie par le régulateur, sachant que le Tier 3 peut seulement couvrir une partie des risques de marché. A. Fonds propres de Base (Tier 1 ou noyau dur) : Les fonds propres de base sont définis par leur caractère permanent, leur subordination légale aux droits des déposants et autres créanciers et par le fait qu'ils n'exigent pas de charges fixes obligatoires en contrepartie des gains. Ils incluent donc le capital, les réserves1 autres que celles de réévaluation et le résultat de l'exercice non distribué. B. Fonds propres complémentaires (Tier 2) : Ceux-ci ne sont pris en compte que dans la limite de 100% des fonds propres de base. Au delà, ils peuvent être inclus dans les fonds propres sur-complémentaires. 1 Il s'agit des réserves légales, statutaires, les réserves réglementées et les autres réserves qui sont toutes constituées par affectation des résultats passés. Les fonds propres complémentaires incluent: · Les réserves de réévaluation comptable : elles ne sont incluses dans la catégorie 2 qu'à concurrence de 50% de leur montant. · Les provisions générales : elles ne peuvent êtres supérieures à 1,25% des actifs auxquels elles font l'objet. · Les types de capitaux hybrides : peuvent faire partie de la catégorie 2 s'ils sont non garantis, subordonnés, entièrement versés, et s'ils ne sont pas remboursables sans consentement préalable de l'autorité de contrôle.
  • 10. · Les dettes à long terme subordonnées : elles comprennent les dettes traditionnelles non garanties et subordonnées avec un terme initial fixe de plus de cinq ans. Le montant de ces dettes ne peut dépasser 50% des fonds propres de base. C. Fonds propres sur-complémentaires (Tier 3) : Ils sont composés des éléments suivants: · les bénéfices intermédiaires tirés du portefeuille de négociation ; · les emprunts subordonnés d'une durée supérieure à deux (02) ans, et dont ni le paiement des intérêts ni le remboursement du principal ne peuvent contrevenir au respect de l'exigence globale en fonds propres ; · la part des ressources subordonnées non retenues au titre des fonds propres complémentaires 5.2 Les fonds propres économiques: Les fonds propres économiques représentent une estimation du montant de fonds propres que la Banque juge nécessaire pour couvrir les pertes inattendues, auxquelles elle peut avoir à faire face dans le cours de ses activités, pour satisfaire aux exigences de ses actionnaires et de ses créanciers, notamment en termes d'aversion au risque. Ils reflètent les risques propres à chaque métier et doivent être calculés à l'horizon correspondant à la période de temps nécessaire pour résoudre les problèmes liés aux risques. Leur montant suffit donc à couvrir l'ensemble des risques de crédit, de marché, et des risques opérationnels. Le niveau des fonds propres économique est déterminé en fonction de l'aversion des dirigeants au risque mais aussi en fonction du rating auquel la Banque aspire, ce rating définit implicitement le seuil maximal au-delà duquel les pertes possibles sont d'une rareté et d'une ampleur telles qu'il est non économiquement viable de s'en protéger. Prenons l'exemple d'une banque qui vise une note AA sur un horizon d'un an. Cela correspond à un taux de défaut de 0,03%, ce qui veut dire que les Fonds propres doivent pouvoir couvrir les pertes dans 99,97% des cas : on parle alors de seuil de tolérance de 99,97%. Le capital économique se différencie du besoin en capital réglementaire que ça soit dans sa version « Cooke » ou même dans les propositions connues « Mc Donough » notamment par la prise en compte de la structure du portefeuille concerné, et de la diversification des risques au sein de ce portefeuille. Il repose sur une vision « économique » des risques, par nature adaptée à un portefeuille d'activités et donc plus précise que la vision prudentielle étalonnée sur une vision moyenne de l'industrie des services financiers.
  • 11. Figure 1.1: Fonds propres économiques et réglementaires La divergence entre les approches utilisées pour le risque réglementaire et le risque économique, qui a eu pour conséquence des objectifs contradictoires en termes de gestion du capital, a constitué un des problèmes majeurs soulevés par le nouvel accord de Bâle. En effet, dans le cadre des propositions initiales du nouvel accord de Bâle, le calibrage en matière d'exigence relative aux fonds propres était flou et non systématique. Grâce au processus de consultation mis en place par le Comité de Bâle, on a pu assister ces dernières années à une amélioration entre les approches propres au capital économique et au capital réglementaire. CONCLUSION Dans son nouvel accord et à travers l'approche basée sur la notation interne, le comité de Bâle a incité les établissements de crédit à développer leurs propres outils d'appréciation du risque de crédit. Cette incitation a poussé de nombreuses banques à adopter de nouvelles méthodes utilisant la notation interne, particulièrement celles fondées sur un concept devenu commun dans le domaine bancaire, connu sous l'appellation RAROC ou Risk Adjusted Return On Capital. L'objet du chapitre suivant sera de mettre l'accent sur l'aspect théorique de ce concept. CHAPITRE I: LA NOTION DE RAROC Dans l'environnement bancaire, la gestion des risques et de la rentabilité sont indissociables. D'une part, les risques engendrent l'instabilité des résultats de la banque. D'autre part la prise des risques est la condition d'une meilleure rentabilité future. Savoir gérer le couple Risque- Rentabilité constitue pour la banque un atout incontestable dans un environnement instable et caractérisé par la concurrence. Etant conscientes de cette réalité, de nombreuses banques ont développé des méthodes avancées leurs permettant une meilleure gestion du couple Risque-Rentabilité. La plus utilisée parmi ces méthodes est connue sous le nom RAROC pour Risk Adjested Return On Capial.
  • 12. L'objet de ce chapitre sera de mettre en évidence les principaux aspects théoriques liés à la notion RAROC. Nous allons commencer dans une première section par introduire le concept de mesure de rentabilité ajustée pour le risque. En suite, nous allons présenter la notion de RAROC dans une seconde section. Quand à la troisième, elle portera sur les paramètres constituant RAROC. SECTION 1: LE CONCEPT DE MESURE DE PERFORMANCE AJUSTEE POUR LE RISQUE Traditionnellement, les performances au niveau d'un établissement bancaire sont mesurées en rapportant des indicateurs de rentabilité financière (marge d'intérêts, PNB, Résultat net,...) aux fonds propres comptables de la banque. En effet, cette approche n'est pas tout à fait correcte, elle présente en effet deux inconvénients majeurs : d'abord la mesure comptable des fonds propres est un indicateur insuffisant du risque, en outre, ces mesures sont définies à l'échelle de l'établissement, puisque les fonds propres ne sont pas alloués à des transactions ou lignes d'activité spécifiques. Dans l'univers financier, un niveau de performance n'a pas de sens indépendamment des risques encourus pour l'atteindre. Pour chaque niveau de performance, il ya un prix à payer en termes de risque. C'est ce qui est traduit par le principe fondamental de la théorie financière : seul le risque est rémunéré. Les mesures de performances ajustées pour le risque (couramment appelées Risk Adjusted Performance Measurement ou RAPM) ont été mises en place justement pour répondre à cette problématique et pour permettre de ce fait aux managers de déterminer lesquelles des activités sont profitables, en comparant leur rendement ajusté pour le risque contre une mesure appropriée du coût de capital. I. DEFINITION D'UNE RAPM : Une mesure de rentabilité ajustée pour le risque (RAPM) peut être définie comme le ratio du résultat obtenu (ou espéré) sur une position sur les capitaux qu'il faut mettre en réserve pour couvrir la plus grande majorité des pertes possibles (perte maximale). Un ajustement peut se faire en déduisant une prime de risque soit du résultat soit du capital soit des deux. Cette prime de risque exprime la perte probable encourue sur la position. II. LES FONCTIONS DES RAPM : Les quatre principales fonctions d'un système de performances ajustées pour le risque sont: 1) La comparaison des performances d'activités présentant des niveaux de risque différents : Un gestionnaire qui dégage un bénéfice de un million en gérant des bons du trésor n'utilise pas le capital de la banque de la même manière que celui qui gagne un million en spéculant sur des titres très volatiles1. Il faut tenir compte non seulement de la 1 Jean Laurent VIVIANI - Mesures de performances ajustées pour le risque et allocation des capitaux propres.P2
  • 13. marge bénéficiaire dégagée par un gestionnaire mais aussi du risque qu'il fait subir à son institution. 2) L'aide à la décision d'engagement sur la base du couple risque/rentabilité : Les RAPM permettent de détecter les activités qui présentent un avantage compétitif et facilitent de ce fait la tache du gestionnaire qui consiste à constituer le portefeuille lui permettant de maximiser la rentabilité de son établissement tout en prenant des risques acceptables. Les RAPM présentent des mesures ex-ante qui permettent donc de raisonner sur des anticipations de résultat et de risque. 3) La facturation clients en fonction des risques : Il serait déloyal de faire supporter des charges similaires à deux contreparties présentant des profils de risque différents. Les RAPM permettent de mettre en place un système de tarification différentielle de façon à faire assumer individuellement à chaque client le coût des risques auxquels son prêteur pourrait être exposé. Ainsi, les emprunteurs présentant une situation stable et rentable supporterons un coût moindre à ceux ayant un profil plus risqué paieront d'avantage. 4) L'allocation efficiente des fonds propres : Les fonds propres globaux doivent être alloués aux centres de décisions. Inversement les consommations de fonds propres des centres de décisions doivent être ajustées sur les fonds propres globaux. Les RAPM facilitent les décisions d'allocation des fonds propres de la banque. Elles permettent ainsi le calcul des capitaux propres nécessaires pour couvrir l'ensemble des risques pris par les gestionnaires et de les ajuster sur les fonds propres économiques, réels ou réglementaires. III. LES PRINCIPALES RAPM : Selon la méthode d'ajustement utilisée, résultent trois ratios de type RAPM : · RAROC (Risk Adjusted Return On Capital) : l'ajustement se fait en déduisant une prime de risque du résultat, et le rapporter aux fonds propres qui lui sont alloués. Le RAROC consiste donc à moduler les marges, pour corriger la rentabilité requise en fonction du risque sans moduler le capital de référence. · RAROC = Fonds propres Résultat ajusté RORAC (Return On Risk Adjusted Capital) : Un ajustement de type RORAC consiste à rapporter les résultats non-ajustés aux fonds propres corrigés par le risque encouru (Fonds propres économiques). Résultat RORAC = Fonds propres ajustés
  • 14. · RARORAC (Risk Adjusted Return On Risk Adjusted Capital): Il tient compte des deux types d'ajustements: d'abord une prime de risque sera retranchée du résultat, puis ce résultat ajusté sera rapporté aux fonds propres corrigés par le risque encouru. RARORAC = Fonds propres ajustés Résultat ajusté Au plan conceptuel, le RARORAC est le meilleur ratio de référence. D'ailleurs, par la suite nous allons nous intéresser uniquement à ce dernier. Cependant, du point de vue de la terminologie, la désignation RAROC sera adoptée tout au long de notre travail. SECTION 2 : PRESENTATION DE RAROC I. HISTOIRE DE RAROC : L'élaboration de la méthodologie RAROC a commencé vers la fin des années 70, dans une période où la finance directe a pris sa revanche sur la finance indirecte, notamment après la nouvelle théorie du portefeuille de Morkowitz (1952), basée sur la diversification et le couple Rentabilité-Risque. La méthode RAROC a été lancée aux Etats-Unis au sein de la Bankers Trust par son ingénieur financier Charles S. SANFORD. L'idée originelle était de mesurer le risque du portefeuille de crédit bancaire, aussi bien que le montant de capitaux propres nécessaires pour limiter l'exposition des déposants de la banque et autres créanciers à une probabilité spécifiée de perte. Depuis lors, la méthode RAROC a connu une large diffusion au sein de plusieurs banques. D'abord dans les pays anglo-saxons, puis rapidement, son utilisation a connu une généralisation dans le reste du monde. L'adoption de la méthode RAROC par les banques françaises a été plus tardive. En effet, le premier établissement bancaire à avoir introduit cet instrument était le Crédit Lyonnais avec son application OR2 (Optimisation Risque-Rentabilité), dont l'objectif essentiel était la lutte contre la dégradation durable des résultats de la banque, causée essentiellement par les manquements aux principes de base du métier, comme la diversification des engagements et le manque de professionnalisme la sous-tarification du crédit. Quelques années plus tard, d'autres banques françaises ont suivi la même démarche, à l'image de Société Générale qui a lancé « Le projet RAROC » en 1997, puis la BNP Paribas en 2000. II. DEFINITION DE RAROC : RAROC est un indicateur synthétique permettant de mettre en regard la rentabilité réelle d'une opération avec le risque qui lui est associé: c'est le ratio entre la marge nette prévisionnelle après déduction des pertes moyennes anticipées (Expected loss) et une mesure de la perte inattendue (Unexpected Loss).
  • 15. En termes de gestion des fonds propres, le RAROC peut être défini comme étant un ratio qui exprime le taux de rendement des fonds propres économiques : C'est donc le rapport entre le résultat ajusté des provisions correspondant à la perte attendue, et les fonds propres destinés à couvrir les pertes inattendues. Comme il s'agit d'une mesure objective, et non réglementaire, les provisions et les fonds propres sont tous les deux économiques. Ainsi, nous pouvons écrire le RAROC sous la formule suivante: RAROC = Pertes inattendues Revenus -- Coûts d'opération -- Pertes attendues Ou encore RAROC = Fonds Propres économiques Revenus -- Coûts d'opération -- Provisions économiques Une fois calculé, le RAROC est comparé soit à un ratio-seuil (hurdle rate) tel que le rendement des capitaux propres (Return on Equity ou ROE), ou le coût moyen des fonds propres (Weighted Average Cost of Capital ou WACC), soit à un niveau RAROC* cible, fixé préalablement par la banque, à partir duquel elle estime que l'opération apporte de la valeur et devrait être réalisée. III. ILLUSTRATION NUMERIQUE DU CALCUL DE RAROC : Nous présentons dans l'exemple suivant une approche comparative entre la méthode classique de calcul de la rentabilité et la méthode RAROC. Nous considérons deux facilités de même montant et de même maturité, accordés à deux clients de classes de risque différentes. Dans un but de simplification, les récupérations en cas de défaut sont supposées nulles. C'est- à-dire les pertes sont égales aux expositions. Aussi, les marges sont calculées nettes des coûts supposés proportionnels aux encours. Contrepartie 01 Contrepartie 02 Exposition nette A 100000 100000 Echéance B 3ans 3ans Notations C A B Taux de défaut moyen sur 3 ans D 0.30% 0.90%
  • 16. Déviation du taux de défaut E 1.23 % 2.70 % Marge commerciale F 0.20 % 0.50 % Perte moyenne G=AxD 300 900 Perte maximale H= A x E 1230 2700 Recettes cumulées sur 3 ans I = Ax B x F 600 1500 Recettes - Perte moyenne J=I-G 300 600 Fonds propres économiques K=H-G 930 1800 RAROC J/ K 32.25 % 33.33 % Tableau 2.1 : Calcul de RAROC pour deux clients de rating différent La note de la contrepartie 1 étant meilleure que celle de la contrepartie 2, la marge commerciale va logiquement être plus élevée pour la contrepartie la plus risquée (2). En utilisant une mesure de performance non ajustée pour le risque, l'on peut juger que la transaction avec le client 2 est plus rentable, dans la mesure où elle offre la plus forte marge. Toutefois, la mesure de la rentabilité ajustée pour le risque, nous montre que les RAROC des deux transactions sont presque équivalents. Les deux transactions offrent le même niveau de rentabilité ajustée pour le risque. IV. LES TYPES DE RAROC: Selon la date et le périmètre des calculs, nous pouvons distinguer entre quatre types de RAROC à savoir : 4.1 RAROC à l'origine: Il est calculé à l'octroi du crédit sur la période allant de la date d'octroi du concours jusqu'à sa date d'échéance, il est souvent utilisé comme outil d'aide à la décision ainsi qu'une méthode de tarification des crédits. 4.2 RAROC résiduel: Son calcul se fait pendant la période d'utilisation du crédit, sur un horizon qui va de la date d'observation jusqu'à la date d'échéance.
  • 17. Le calcul prend immédiatement les changements des caractéristiques des clients (notes), des crédits (provisions) et des garanties. Cependant, la volatilité de ce type ainsi que sa forte dépendance des différents évènements de vie du crédit (commissions, frais de gestion,... etc.) ne permettent pas l'adoption d'une stratégie par client.1 4.3 RAROC annuel: Solution intermédiaire aux deux précédentes, elle peut correspondre à l'exercice budgétaire et donner la possibilité d'adopter une stratégie, de fixer des objectifs et de pouvoir mesurer les résultats à la fin de la période. 4.4 RAROC complet: Le calcul prend en compte, à une date donnée, tous les éléments des engagements en cours, de la date d'origine à la date d'échéance de chaque concours. Sa stabilité et son exhaustivité lui rendent le plus adéquat pour l'adoption d'une stratégie que ça soit au niveau individuel (pour chaque client), pour un portefeuille ou encore une activité. Le choix parmi ces différents types de RAROC se fait principalement en fonction de l'utilisation finale et des attentes de l'utilisateur. SECTION 3: LES PARAMETRES DE RAROC Après avoir défini le concept RAROC, nous nous intéressons dans cette section à présenter les paramètres rentrant dans son calcul. En effet, RAROC est une combinaison de plusieurs paramètres que nous pouvons scinder en deux catégories : les paramètres liés au risque et les paramètres comptables. I. LES PARAMETRES LIES AU RISQUE: Les deux paramètres de RAROC liés au risque sont évidemment : la perte attendue (Expected loss) et la perte inattendue (Unexpected loss). Avant de présenter ces deux paramètres, il est indispensable de passer en revue au préalable les trois principales mesures de risque qui rentrent dans leur calcul, en l'occurrence la probabilité de défaut, l'exposition en cas de défaut et la perte en cas de défaut. 1.1 La probabilité de défaut (Expected Default Frequency ou EDF): La probabilité de défaut est une notion orientée « contrepartie ». Elle mesure la probabilité d'occurrence d'un défaut sur une contrepartie sur un horizon déterminé. 1 T. RONCALLI, La gestion des risques financiers. Ed. Economica, Paris, 2004, p. 434. Le concept de probabilité de défaut peut être évoqué selon deux approches : une approche binaire et une approche graduée
  • 18. L'approche binaire est basée sur l'hypothèse qui suppose que les emprunteurs peuvent être répartis en deux groupes : les défaillants et les non défaillants (sains). Ainsi, la probabilité de défaut désigne la probabilité d'appartenance d'un emprunteur au groupe des défaillants. Dans l'approche graduée, les contreparties sont d'abord regroupées dans plusieurs classes de risque. Après on s'intéresse à calculer la probabilité de migration de chaque contrepartie vers les autres classes (y compris la classe de défaut). Ces migrations sont rassemblées dans une matrice de forme n x (n-1) appelée Matrice de Transition. Rating AAA AAA AA A BBB BB B CCC Default AA 90,81% 8,33% 0,68% 0,06% 0,12 % 0,00 % 0,00% 0,00 % A BBB BB 0,70% 90,65 % 7,79% 0,64% 0,06% 0,14 % 0,02 % 0,00 % B 0,09% 2,27% 91,05 % 5,52 % 0,74% 0,26 % 0,01% 0,06 % CCC 0,02 % 0,33% 5,95 % 86,93% 5,30% 1,17 % 0,12 % 0,18 % 0,02 % 0,14% 0,67% 7,73% 80,53% 8,84 % 1,00% 1,06 % 0,00% 0,11% 0,24% 0,43% 6,48% 83,46% 4,08% 5,20 % 0,22 % 0,00% 0,22 % 1,30% 2,38% 5,00 % 64,85 % 19,79% Tableau 2.2: Matrice de Transition (Source: CreditMetrics, JP Morgan, document technique, 1997) Exemple : La probabilité qu'une entreprise notée AAA migre vers la classe AA est 8,33%, et la probabilité que cette même entreprise garde sa note est 90,81% 1.2 L'exposition en cas de défaut (Exposure At Default ou EAD): C'est la valeur effective du montant du crédit détenue par l'emprunteur au moment du défaut. Elle est estimée sur la base des montants des engagements restant dus. La notion d'exposition englobe les encours bilanciels ainsi qu'une quote-part des engagements hors bilan. L'EAD revêt une double dimension qui couvre les aspects produits et emprunteur. L'exposition en cas de défaut des crédits standards correspond au montant total des flux contractuels encore dus. De ce fait, elle est fonction du mode de remboursement et d'amortissement. Dans le cas des crédits sur compte comme les découverts et les facilités de caisse, la mesure de l'exposition devient plus compliquée en raison du caractère optionnel du crédit et de
  • 19. l'incertitude liée aux tirages futurs. En effet, il a été observé que plus la qualité d'un emprunteur se détériore plus la probabilité de tirages supplémentaire augmente et inversement, plus sa qualité s'améliore plus cette probabilité diminue. Ces constatations ont emmené les banques à faire recours à des mesures basées sur des hypothèses conservatrices, telles que considérer le total de l'autorisation exposé à la perte, ou encore mettre des hypothèses sur les tirages futures en cas de changement de notation ou de défaut. Dans ce cas, la formule suivante peut être appliquée : EAD = Montant utilisé + (La part non utilisée x La probabilité de tirage) La probabilité de tirage est estimée à partir de la structure de la facilité et la notation de l'emprunteur. Dans le calcul de l'EAD, le comité de Bâle distingue entre les facilités confirmées et les facilités non confirmées. Dans l'approche IRB fondation, il retient un taux forfaitaire de tirage de 75% pour les facilitées confirmées (committed facilities) qui ne peuvent pas faire l'objet d'une annulation libre par la banque. Quant aux facilités non confirmées (uncommitted facilities) qui peuvent être annulées inconditionnellement et en tout moment par la banque, un taux de tirage de 0% sera appliqué et l'EAD sera égale par conséquent au montant d'utilisation. 1.3 La perte en cas de défaut (Loss Given Default ou LGD): La perte en cas de défaut est une notion orientée « Transaction », les pertes étant généralement dépendantes des caractéristiques du financement (caractéristiques de l'emprunteur, caractère subordonné du crédit, garanties reçues, etc...). Exprimée en pourcentage, elle correspond au taux de perte constaté en cas de défaillance. Elle se définit comme une perte économique, qui se mesure en prenant en compte tous les coûts directs et indirects liés au recouvrement. La LGD est appréhendée indépendamment du risque emprunteur. Un emprunteur a différentes LGD s'il dispose de plusieurs produits. La perte en cas de défaut dépend directement du taux de recouvrement. Mathématiquement elle représente le complément du taux de recouvrement à l'unité. LGD = 1 - Taux de recouvrement Le taux de recouvrement dépend principalement des suretés réelles ou personnelles présentées par l'emprunteur (garanties, cautions, hypothèque, etc...), du type de crédit et du niveau de séniorité de l'engagement. 1.4 La perte attendue (Expected Loss ou EL): La perte attendue correspond au montant que la banque risque de perdre en moyenne sur son portefeuille de crédit à un horizon donné. Ce montant doit en principe être couvert par des provisions économiques.
  • 20. Pour chaque ligne de crédit cette perte est fonction de la probabilité de défaut, de l'encours au défaut et de la perte en cas de défaut ELi = EADi x EDFi x LGDi Le caractère linéaire du moment d'ordre (un) fait que la perte attendue d'un portefeuille est égale à la somme des pertes attendues des prêts constituants ce portefeuille. EL portefeuille =? ELi La perte attendue n'est pas évidemment la perte qui sera réalisée effectivement. En effet, les pertes réelles n'ont pratiquement aucune chance d'être identiques à cette perte moyenne, celles-ci prennent des valeurs supérieures ou inferieures avec des probabilités non négligeables. Mais en moyenne, elles se rapprochent de cette valeur. 1.5 La perte inattendue (UnexpectedLoss ou UL): La perte inattendue (ou Unexpected loss) mesure la volatilité des pertes futures non anticipées. Elle correspond à l'écart type de la distribution des pertes. Elle peut être donnée par la formule suivante : UL = EAD SJEDF2.ó2LGD + LGD2. ó2EDF A. La perte inattendue d'une transaction : La perte inattendue d'une transaction est une mesure du risque de la transaction avant prise en compte des effets de diversification. Analytiquement, l'UL est égale à la volatilité de la valeur de la transaction autour de sa moyenne et est liée à la volatilité des défauts, à la volatilité de la valeur en cas de non défaut (possibilité de migration à l'horizon) et à la volatilité de la valeur en cas de défaut (la perte en cas de défaut étant une variable aléatoire). La perte inattendue d'une transaction est indépendante du portefeuille dans lequel on la considère. B. La perte inattendue du portefeuille : L'UL d'un portefeuille est une mesure du risque du portefeuille après prise en compte de tous les effets de diversification, elle varie donc selon les corrélations de défaut des contreparties qui le composent. Grâce aux effets de diversification, l'UL d'un portefeuille est inférieure à la somme des UL des transactions : UL portefeuille < ? ULtransaction Cela s'explique par le fait que les ULtransaction ne sont pas additives: ULportefeuille = .tJ? j ? ~ ULi.ULj.ñij où: · i et j deux actifs du portefeuille
  • 21. · ñij est le facteur de corrélation entre les titres i et j · 0 ?ñij =1 et ULi > 0 ?é J?~ ? ~ ULi.ULj.ñij = ? i ? jJULi.ULj.ñij Puisque ñij =1, nous avons : ? i ? j %JULi.ULj.ñij = ? i ? jvULi.ULj = ? vULi . ? ~ vULj = (? , vULj )2 < ? |vULj 2| (inégalité de Cauchy) ? ~ |vULj |2 = ?ULi , nous aboutissons donc à : ULportefeuille << ?ULi C. La contribution en risque (RC ou Risk Contribution): La perte inattendue du portefeuille est par construction la somme des Contributions en Risque (Risk contribution ou RC) de toutes les transactions le constituant. La contribution en risque (RCi) d'une transaction mesure la quote-part de la perte inattendue portée dans le portefeuille, compte tenu de la diminution enregistrée grâce à la prise en compte de l'effet de diversification. Elle peut être définie comme la variation du montant total des pertes futures non attendues (UL) lorsque l'on ajoute cette exposition au portefeuille. La contribution en risque d'un prêt i (RCi) est mesurée par : äULp RCi = Xi äXi Où Xi représente la proportion investie dans le crédit i, II. LES PARAMETRES COMPTABLES: Les paramètres comptables de RAROC sont le revenu et le coût d'opération. La détermination de ces deux paramètres au niveau global ne présente aucune difficulté particulière. Tandis qu'au niveau client ou transaction l'estimation du revenu et coût s'avère très délicate et nécessite des procédures complexes basées sur la comptabilité analytique. 3.1 Le revenu: Les revenus mesurent le profit direct tiré de l'opération de crédit. Ce profit correspond à la différence entre la somme des intérêts et commissions perçus des clients et le montant des intérêts payés par l'établissement pour financer les ressources mises à la disposition de la clientèle.
  • 22. Cette définition renvoie directement au concept du Produit Net Bancaire (PNB). On peut admettre ainsi que le revenu dans le calcul de RAROC n'est rien d'autre que le PNB. Analytiquement, le PNB correspond à l'agrégation de trois postes : la marge sur intérêts, les commissions nettes et les produits et charges divers · La Marge sur intérêts : elle représente la marge sur l'activité d'intermédiation du centre de profit, elle est égale à la différence entre les intérêts reçus des clients et les intérêts payés. · Les commissions nettes : elles correspondent à la différence entre les commissions reçues de la clientèle et les commissions versées à la clientèle. · Les produits et charges divers : Correspondent essentiellement aux produits du portefeuille titres de l'établissement ainsi qu'aux opérations de trésorerie et interbancaires. La détermination du PNB par opération repose sur le calcul de la marge sur intérêts et les commissions liées à cette opération. A. La marge sur intérêts: L'appréhension des marges sur intérêts d'une opération de crédit est liée au système de mesure des capitaux et des taux de cession interne des capitaux qui ont été retenus pour le calcul du PNB. Dans le cas d'un RAROC historique, la solution la plus simple consiste à prendre les intérêts réels versés par le client au cours de la période étudiée et à refinancer les crédits à l'aide d'un taux unique, comme celui du taux de marché monétaire ou celui du coût moyen des ressources. D'autres méthodes plus complexes peuvent être choisies, comme par exemple celle consistant à refinancer les prêts consentis à la clientèle suivant des taux dépendant uniquement des conditions de marché1. Dans le cas d'un RAROC ex-ante, l'estimation des intérêts à percevoir s'effectue en deux étapes : le calcul des intérêts en prenant en compte le taux d'intérêt appliqué et l'échéance du crédit, puis l'actualisation de ces flux. B. Les commissions : Contrairement au calcul de la marge sur intérêts, le calcul des commissions ne pose pas trop de problèmes particuliers. Les commissions sont généralement bien appréhendées, client par client, par les systèmes informatiquesF2F. Dans l'application de RAROC, plusieurs approches liées au calcul des commissions ont été proposées, cela revient à la disparité des auteurs quand à la prise en compte de quelques types de commissions ou non. L'approche la plus éminente est celle qui suppose que les commissions qui doivent être prises en compte sont celles liées directement à l'opération de crédit (frais de dossier, commissions d'impayés ou de remboursements anticipés, commissions de cautions...). 1 M. ROUACH & G. NAULLEAU. Le contrôle de gestion bancaire et financier .Ed La revue banque. Paris. P172
  • 23. 2 Même ouvrage P173 Dans une approche plus extensive, on intègre également les commissions perçues par la banque de sa relation avec la clientèle qui a pu naître suite à l'octroi du crédit et qui permet la vente d'autres produits et services (Les commissions de caisse, les commissions de tenue de compte...). L'approche la plus restrictive suppose que les commissions doivent être écartées du numérateur de RAROC, dans la mesure où ce dernier est considéré comme un outil de tarification ajustée au risque qui s'intéresse à la rentabilité intrinsèque du crédit (relative à la transformation des ressources en emplois) et non à la rentabilité additive (relative aux services) générée par les commissions. 3.2 Le coût d'opération: L'estimation des coûts d'opérations exige le passage par une étape primordiale dans la comptabilité analytique, il s'agit de faire transiter les charges par les centres de responsabilité avant de les attribuer aux produits. Avant de passer au traitement des charges, nous allons aborder de façon succincte le concept de répartition de la banque en centre de responsabilité. A. Définition des centres de responsabilité analytique : Un centre de responsabilité se définit comme une entité de gestion dont le responsable dispose d'une délégation formelle d'autorité pour négocier des objectifs et des moyens et dotée d'un système de pilotage de sa gestion. Plusieurs types de centre de responsabilité peuvent être distingués : Les centres de coûts : Ils n'engendrent que des charges afin de réaliser une prestation ou un produit. Pour le responsable, il s'agit de respecter un niveau de charge et un budget global de fonctionnement. Dans la banque, les centres de coût sont particulièrement nombreux, d'où l'intérêt de les rattacher à l'une des catégories suivantes : · ULes centres de structureU: qui réalisent des prestations non identifiables et non répétitives. Leur mission est de contrôler et de coordonner les activités des autres centres comme par exemple la direction générale ou la direction des engagements ; · ULes centres de support:U qui réalisent des prestations identifiables et non répétitives et dont le mode opératoire n'est pas aisé à formaliser. On trouve les centres de support au sein des services généraux comme l'informatique et l'organisation, le marketing ou les études économiques et financières ; · ULes centres opérationnels:U qui réalisent des prestations identifiables, répétitives et à mode opératoire formalisé, comme le traitement des chèques et virements ou l'exécution des ordres de bourse. Ces centres livrent aux autres centres des prestations dont ils ne maîtrisent pas le volume et qui sont non rémunérées. Les centres de profits : ces entités de gestion sont responsables des coûts mais aussi génératrices de recettes car elles réalisent des prestations à caractère commerciale ou
  • 24. financier. Le responsable d'un centre de profit dispose d'une délégation de pouvoirs couvrant les conditions de la négociation commerciale. Les agences bancaires constituent les centres de profit les plus importants B. Nomenclature des charges de fonctionnement : Selon leur appartenance aux différents centres de responsabilité de la banque, les charges peuvent être scindées en deux catégories : les charges directes et les charges indirectes : 1) Les charges directes : Les charges directes sont des charges qui peuvent être reliées sans équivoque au produit qui leur a donné naissance. La liaison est évidente et le facteur de production concourt totalement ou partiellement à l'élaboration du produit1. Ces charges peuvent être affectées directement au produit au moyen d'unités d'affectation choisies de façon adéquate. Une unité d'affectation peut être définie comme étant une unité de mesure de charges pouvant être exprimées en terme monétaire. Les principales charges directes sont : les frais de personnel, les charges de machine, les coûts immobiliers et les charges d'économat. · Les frais de personnel : ces frais constituent la partie la plus importante des charges directes. Ils représentent tous les frais relatifs aux effectifs pris au sens large. C'est-à- dire incluant non seulement la masse salariale mais aussi les frais de formation, de recrutement, de relations sociales... etc. L'unité d'affectation la plus logique est le cout minute de l'employé. · Les charges de machines : elles représentent les charges issues de l'utilisation des différents calculateurs, imprimantes, trieuses de billets... etc. L'unité d'affection la plus appropriée pour ces charges est le coût minute de fonctionnement de la machine. · Les charges immobilières : liées directement aux surfaces occupées qui incluent leurs frais d'entretien, l'amortissement des locaux, les loyers et les différents impôts et taxes afférents,... etc. L'unité d'affectation est le coût du mètre carré occupé par l'unité administrative, les surfaces communes sont ajoutées aux surfaces occupées au prorata des effectifs de chaque unité. · Les charges d'économat : elles sont de natures extrêmement diverses. Elles regroupent les fournitures de bureau, les charges en papier, imprimés, téléphone, fax, télex,... etc. Les charges d'économat sont généralement évaluées selon un coût forfaitaire moyen par opération. 1 Sylvie de Coussergues, gestion de la banque, édition DUNOD, Paris, 2000 2) Les charges indirectes : Les charges indirectes sont celles qui ne peuvent être reliées immédiatement au produit dont on calcule le coût. Ce sont des charges engendrées par des structures qui ne participent pas dans l'exploitation bancaire. Il s'agit des structures de la fonction assistance ainsi que les niveaux hiérarchiques les plus élevés des autres fonctions.
  • 25. Les charges indirectes représentent la difficulté principale du calcul du coût. Les clés de répartition utilisées pour leur affectation sont souvent arbitraires et ne permettent pas un calcul fin des différentes rentabilités. C. Le processus d'affectation des charges: 1) La détermination des charges à retenir en comptabilité analytique : Certaines charges enregistrées en comptabilité générale ayant un caractère exceptionnel - charges non incorporables - sont exclues. Inversement, d'autres charges qui ne sont pas enregistrées en comptabilité générale - charges supplétives - sont introduites. + Charges de comptabilité générale + Charges supplétive - Charges non incorporables = Charges incorporables de comptabilité analytique 2) L'affectation des charges aux centres de responsabilité : Dans cette étape, les charges incorporables calculées dans la première étape, vont être affectées aux différents centres de responsabilités. Leur affectation suppose leur maîtrise par les responsables des centres, chose qui est difficile à appréhender dans la mesure où les responsables ne sont souvent capables de décider pour une part de leurs charges que sur accord de leur responsable. 3) La ventilation des charges des centres fonctionnels et des centres de structure Cette étape consiste à répercuter sur les centres de profit et opérationnels les charges indirectes générées par les centres fonctionnels et les centres de structure. Cette démarche s'appuie sur des clés de repartions conventionnels. 4) Le calcul des coûts d'opération : Les centres opérationnels livrent des prestations indentifiables et répétitives aux centres de profit moyennant un prix, ce prix est appelé coût opératoire. Pour le calculer, plusieurs méthodes peuvent être utilisées (coût réel, coût standard, ...). 5) La facturation des coûts d'opérations aux centres de profit : Cette dernière étape consiste en l'affectation des charges des différents centres opérationnels aux centres de profit. Il s'agit d'une facturation interne tenant compte du volume et des coûts unitaires des opérations. D. Les méthodes de calcul des coûts d'opération : De nombreuses méthodes sont possibles pour calculer les coûts des opérations, le recours à chacune d'entre elles dépend des circonstances d'utilisation et des besoins. Nous allons présenter brièvement les méthodes les plus utilisées:
  • 26. 1) La méthode du cout réel : Il est calculé en divisant l'ensemble des charges du centre opérationnel par le nombre d'opérations effectuées par ce dernier. Par exemple si le back-office effectue 10 000 ordres de bourse sur une période déterminée et que le total des charges constatées durant cette période est de 100 000 um, le coût unitaire moyen d'un ordre de bourse au back-office serait de 10um. Cette méthode présente deux inconvénients : d'abord, Les variations du coût réel dues au niveau d'activité des centres opérationnels nuisent à la perception des performances dans la mesure où le centre de profit n'est pas responsable de ces variations. De plus, Les coûts réels facturés par les centres opérationnels peuvent être différents des prestataires externes lesquels seront facturées au prix de marché. 2) La méthode des coûts standards : Elle consiste à calculer des coûts prévisionnels - dans un contexte de fonctionnement normal des centres de responsabilité - qui constitueront une norme à respecter pour une période future tel que l'exercice budgétaire. Ils sont obtenus en divisant les charges globales prévisionnelles du centre opérationnel par le nombre d'opérations prévues. Prenons l'exemple d'un centre de traitement de chèques qui prévoit de traiter 1 000 000 chèques sur une période future.les charges prévisionnelles sont estimées à 10 000 000 um, ce qui fait que le coût moyen unitaire standard du traitement d'un chèque serait de 10um pour la période considérée. Ainsi, la méthode des coûts standards permet d'éviter l'influence de la variation du niveau d'activité des centres opérationnels sur les centres de profit 3) La méthode des coûts de marché Selon cette méthode, la facturation des opérations sera faite au prix de marché. Ce prix correspond au coût pratiqué par l'ensemble du secteur ou sur la base des prix proposés par des sous-traitants. Elle permet de ce fait de comparer en permanence les niveaux de performance internes à ceux du marché. Cependant, la disparité des conventions analytiques employées par les banques dans la détermination de leurs coûts et le manque d'informations rendent sa mise en oeuvre délicate. 4) La décomposition en coûts fixes et coûts variables Cette méthode distingue les charges liées à l'activité (les charges variables) de celles liées à la capacité et à la période (les charges fixes). Elle sert à fixer un seuil de rentabilité (notion de point mort) et à appréhender les effets de variations des volumes d'activité sur les coûts unitaires. Toutefois, elle n'est pas très sollicitée dans le secteur bancaire en raison de difficultés techniques et d'appréhension des critères de variabilité des charges. 5) La méthode ABC La méthode ABC (Activity Based Costing) découle du principe disant que les produits consomment des activités et les activités consomment des ressources. Les ressources consommées par un service (personnel, équipement, locaux) sont allouées par « inducteurs de ressources » aux différentes activités réalisées. Par la suite des « inducteurs de coûts » sont
  • 27. déterminés pour pouvoir allouer les coûts des activités aux produits. Ces inducteurs se substituent aux unités d'oeuvre ou aux clés de répartition utilisés dans la comptabilité analytique conventionnelle. Cette méthode permet un suivi par activité, cependant elle est complexe à mettre en oeuvre. La méthode ABC vise à améliorer l'exploration des charges indirectes dans l'ensemble des coûts. Elle permet d'apporter une aide en termes de tarification, en liaison directe avec la comptabilité analytique. CONCLUSION A travers ce chapitre, nous avons mis l'accent sur le concept RAROC et ses différents paramètres. Dans ce qui suit, nous allons voir comment peut-on appliquer ce concept dans la gestion du risque de crédit, que peut l'outil RAROC apporter pour la banque et quels sont ses limites. CHAPITRE II: LA GESTION DU RISQUE DE CREDIT PAR LA METHODE RAROC Bien que RAROC en tant que concept soit loin de toute complexité, son application au sein d'une banque requiert la prise d'une panoplie de mesures permettant l'estimation des différents paramètres le constituant. A travers ce chapitre, nous allons présenter RAROC en tant qu'innovation managériale pour la gestion du risque de crédit au sein des établissements bancaires. Dans cette perspective, nous allons procéder par une première section traitant le concept de notation interne et les procédures des systèmes de rating pour l'estimation des paramètres de risques au niveau individuel. Dans la deuxième section nous allons aborder les principes essentiels de la modélisation du risque de crédit et l'apport des modèles dans l'estimation des pertes futures. Quand à la troisième section, elle portera essentiellement sur l'aspect pratique de la méthode RAROC, ses applications en matière de gestion du risque de crédit et un aperçu sur l'apport et les limites de cet outil. SECTION 1: LA NOTATION INTERNE L'existence au préalable d'un système performant de notation interne dans la banque est indispensable pour la mise en place d'un outil de gestion de risque tel que RAROC. La pertinence de ce dernier est fortement liée à la qualité des outputs du système de notation. Dans cette section nous allons présenter les principaux aspects liés à la notation interne et aux systèmes de rating au sein des établissements bancaires.
  • 28. 1. ORIGINE DE LA NOTATION: La notation est apparue aux USA au début du vingtième siècle par la publication du premier manuel de notation de John Moody en 1909. Ce dernier a introduit un système graduel de notation pour les obligations émises par les compagnies des chemins de fer aux Etats-Unis, dont le but était de résumer l'information sur la qualité du crédit et de fournir aux investisseurs une information objective sur les entreprises. Depuis, plusieurs agences de rating ont vu le jour à l'instar de Fitch Investor Services en 1922 et Standard & Poor's en 1924. Cependant, ce n'est qu'aux années 80 que les systèmes de rating ont été adoptés en Europe. 2. DEFINITION DE LA NOTATION INTERNE La notation interne constitue un moyen d'appréciation du risque de perte consécutif à la défaillance de l'emprunteur. Cette appréciation tient compte de tous les aspects pouvant renseigner sur la contrepartie qu'ils soient qualitatifs ou quantitatifs. Le comité de Bâle retient la définition suivante des systèmes de notations internes : « Un système de notation recouvre l'ensemble des processus, méthodes, contrôles ainsi que les systèmes de collecte et informatiques qui permettent d'évaluer le risque de crédit, d'attribuer des notations internes et de quantifier les estimations de défaut et de pertes. »1 Qu'il soit simple ou avancé, un système de notation interne a pour objectif principal d'affecter chaque contrepartie à une classe de risque. Les individus ayant été classés au même niveau de risque doivent donc présenter des caractéristiques qui se rapprochent. 3. LES DEUX APPROCHES DE LA NOTATION INTERNE Il existe deux grandes approches pour attribuer des notations à des prêts ou des emprunteurs : 1 Document consultatif du comité de Bâle, avril 2003 1) Les systèmes expert : cette première approche repose sur l'opinion d'experts ; on parle de score par expertise. Elle reste prépondérante pour les notations des grandes entreprises, des pays, des collectivités locales, des financements de projets. Elle s'appuie sur une analyse approfondie des bilans, des projets... et sur une comparaison avec les notations des agences. 2) Les systèmes de scoring : cette approche s'appuie sur des analyses statistiques des défaillances observées dans le passé pour des dettes ou des emprunteurs comparables. Elle est prépondérante pour les crédits à la consommation, les prêts hypothécaires, les crédits permanents (cartes de crédit), les prêts aux PME... Par son caractère plus automatique, elle est très adaptée à la gestion des accords de crédit en ligne. 4. LES CARACTERISTIQUES D'UN SYSTEME DE NOTATION INTERNE: Des procédures et des critères clairs et précis doivent être bien définis pour qu'un établissement bancaire puisse attribuer des notes. Dans son dernier document consultatif, le comité de Bâle définit un certain nombre de paramètres indispensables à la mise en place d'un système de notation interne :
  • 29. «... les systèmes et processus de notation et d'estimation doivent permettre d'évaluer avec pertinence les caractéristiques d'un emprunteur et d'une transaction, de différencier valablement ces risques et de les quantifier avec suffisamment de précision et de cohérence ; ils doivent, en outre, faciliter un usage interne approprié des estimations obtenues. »1 4.1 La classification des expositions: Le comité de Bâle exige aux banques désireuses de se munir d'un système de notations internes de segmenter leurs portefeuilles de crédit en fonction des caractéristiques de risque, il a proposé dans sa version préliminaire les six catégories d'actifs suivantes : Entreprises, banques, emprunteurs souverains, banques de détail, financement de projets et enfin les portefeuilles d'actions. Une telle classification des risques est largement cohérente avec les pratiques bancaires en vigueur. Ce classement reste toutefois à titre indicatif uniquement, les banques gardent la possibilité d'utiliser leurs propres classifications des expositions tout en veillant à leur régularité dans le temps. 4.2 Les paramètres de notation: Pour être éligible à l'approche des notations internes, un système de notation doit être caractérisé par deux paramètres bien distincts : le risque de défaut de l'emprunteur et les facteurs spécifiques à la transaction. · Le risque de défaut de l'emprunteur : Il doit être indépendant de la nature des engagements dont a bénéficié le client. Ainsi, toutes les expositions sur cet emprunteur appartiendront à la même classe de notation. 1 Document consultatif du comité de Bâle, avril 2003 · Les facteurs spécifiques à la transaction : Ils englobent des éléments tels que les sûretés, le type et la durée du produit et autres. 4.3 Nombre des classes pour les actifs: Les banques doivent veiller à ce qu'il y ait une distinction claire entre les actifs sains et les actifs compromis qui nécessitent une attention particulière de la part des gestionnaires. En moyenne, les banques adoptent un nombre de classes proche de 10 pour les actifs sains et de 2 ou 3 pour les actifs douteux ou non productifs, en incluant les classes additionnelles, c'est- àdire celles affectées des signes + ou - modifiant la totalité ou une partie des classes. Il est également fortement préconisé d'établir les classes de façon à faciliter la comparaison avec les échelles des agences de notations externes. Le système de notations internes doit permettre une différentiation correcte et significative des expositions selon les classes de risques afin d'éviter une concentration excessive au sein d'une seule catégorie. De manière générale, les banques doivent veiller à ce qu'il n'y ait pas plus de 30% environ d'expositions notées à l'intérieur d'une seule catégorie d'emprunteurs. 4.4 L'estimation des paramètres de défaut:
  • 30. La banque doit utiliser toutes les données, les informations et les méthodes dont elle dispose pour l'estimation des PD, LGD, EAD. Elle peut même avoir recours à des sources externes si elle juge qu'elles soient cohérentes. A. Exigences pour l'estimation des PD: Les méthodes d'estimation des PD pouvant être utilisées selon Bâle II doivent s'appuyer sur l'une des trois techniques suivantes : · L'expertise et les données de défaillances internes; · Le mapping vers les données externes : il s'agit d'accorder à l'emprunteur non noté par les agences de notation une note équivalente au rating externe qu'il aurait obtenu. Par la suite la banque peut utiliser les historiques de PD et de migrations déjà observés et publiés par ces agences. · Des modèles statistiques de prédiction des défauts. B. Exigences pour l'estimation des LGD et EAD : Pour les banques sous le régime de l'approche avancée, les estimations de LGD et EAD doivent représenter une moyenne pondérée en fonction des défauts sur longue période pour chacun de ses engagements. L'estimation de LGD moyenne doit être fondée sur les taux de recouvrement antérieurs et pas uniquement sur la valeur de marché des sûretés. L'estimation d'EAD doit quant à elle être attribuée à chaque facilité, c'est une moyenne pondérée en fonction des défauts observés pour des facilités et emprunteurs similaires sur une période suffisamment longue. 4.5 Les dérogations :1 L'attribution d'une note doit reposer sur des preuves empiriques et satisfaire certaines exigences concernant l'historique de la série de données, leur représentativité ou encore la conjoncture économique, néanmoins des jugements personnels peuvent intervenir et changer la note. Ces dérogations peuvent être légitimes mais doivent être clairement justifiées. Elles doivent comprendre des contrôles et des autorisations de personnes habilitées à effectuer de tels changements. 5. LA VALIDATION DU SYSTEME DE NOTATION INTERNE: Il ne suffit pas de développer un modèle de notation, mais il faut le mettre en place. Toutefois, avant de l'exploiter, la banque doit s'assurer que le modèle qu'elle a développé donne des résultats fiables. C'est pourquoi le comité de Bâle a préconisé aux banques de développer un système de « backtesting » dont le but est de vérifier le pouvoir prédictif de l'outil de notation et le faire évoluer afin d'avoir des prévisions de défaut plus exactes. Jusqu'aujourd'hui, les autorités bancaires n'ont pas encore arrêté les règles communes de validation des modèles internes de notation, néanmoins une liste des points d'attention et des règles de prudence régissant les étapes de l'élaboration de ces modèles peut déjà être dressée. Ces règles reposent sur le respect de certaines normes qualitatives et l'aptitude de passer des tests statistiques.
  • 31. 5.1 La démarche qualitative: Il s'agit essentiellement de vérifier la qualité de l'information collectée et traitée par la banque et de la validation des procédures de contrôle : Le niveau de performance du système d'information reflète la qualité de l'information. A ce stade, le contrôle se fait sur les éléments permettant l'extraction, le stockage, la circulation et le traitement des données. Quand aux normes de contrôle, Celles-ci ont pour objectif de s'assurer de la régularité des procédures et règles de contrôle de la structure et du fonctionnement des modèles internes. Dans ce cadre d'analyse, il est important de vérifier certains aspects liés à l'indépendance de la fonction de gestion des risques, la pratique d'un reporting périodique aux dirigeants de l'établissement et le recours à des audits réguliers du modèle interne. 5.2 La validation statistique: Cette étape repose sur deux type de tests ; les tests de puissance et les tests de calibrage. Les premiers s'intéressent à la capacité du système de notation à bien discriminer les emprunteurs selon leur qualité de crédit, quand aux seconds, leur but est de mesurer la pertinence du calibrage des PD associés à chaque classe de risque. 1 Antoine SARDI - Audit et contrôle interne bancaire- AFGES - Paris 2002. P717 SECTION 2: LA MODELISATION DU RISQUE DE CREDIT: Dans leur gestion quotidienne du risque de crédit, les banques ont une préoccupation majeure, qui consiste à prévoir le montant des pertes qu'elles pourront subir dans le futur sur leurs portefeuilles d'engagements. Pour pouvoir estimer ces pertes futures, les banques ont recours à des modèles d'évaluation du risque de crédit. La modélisation est une étape primordiale dans le processus de mise en place d'un système RAROC, vue qu'elle fournie ses deux paramètres liés aux risques, en l'occurrence, la perte attendue (Expected Loss) et la perte inattendue (Unexpected loss). Dans ce qui suit, nous allons passer en revue quelques notions sur la modélisation du risque de crédit. 1. LES DIFFICULTES METHODOLOGIQUES DE LA MODELISATION DU RISQUE DE CREDIT 1.1 La nature de l'événement de crédit: A la différence du risque de marché, uniforme, le risque de crédit a des expressions fort différentes. En effet, la distribution de pertes dépend de l'événement retenu comme fait générateur (Défaut, changement de rating, variation du spread de signature, ...) et en conséquence les mesures des fonds propres associés vont être distinctes selon que l'on retienne un événement ou un autre. Cette réalité était à l'origine de l'apparition de deux types
  • 32. de modèles d'évaluation du risque de crédit : les modèles de défaut et les modèles Marked to Market. 1.2 L'horizon du risque de crédit: L'estimation de l'horizon de crédit est un exercice beaucoup plus délicat, qui peut appeler des réponses légitimes très éloignées. Les deux réponses extrêmes sont d'une part, l'horizon de l'exercice comptable (communément d'une année), d'autre part, l'échéance de la position. Le choix de l'horizon de l'exercice comptable suppose que l'horizon du risque de crédit est celui de la constatation comptable des pertes réelles ou potentielles associées à la dégradation de la qualité du portefeuille de crédit. Ce choix est essentiellement guidé par des considérations pratiques : C'est l'horizon de décision ordinaire des prêteurs, celui au cours duquel les contrats de crédit sont renégociés et celui au cours duquel les banques peuvent réunir des informations nouvelles pour évaluer la solvabilité des emprunteurs. Il représente également l'horizon sur lequel sont définis les besoins de fonds propres. Enfin, c'est sans doute aussi, en moyenne, l'horizon qui correspond à la majorité des crédits. A l'opposé, le choix de l'horizon de la position comme horizon du risque paraît indiscutable : un crédit à 7 ans engage la banque sur un horizon de 7 ans. Cependant, cette approche ne parait pas aussi évidente quand il s'agit de déterminer les fonds propres alloués à une opération donnée. Le problème qui se pose est le suivant : le montant des fonds propres alloués l'année t à une opération doit-il couvrir le risque de dégradation de la qualité de crédit sur cette seule année, ou couvrir le risque associé aux années ultérieures ? Dans la deuxième hypothèse, un montant inutile de fonds propres est engagé dés la première année, entraînant une utilisation sub-optimale du capital. Une allocation constituée sur une base annuelle semble en conséquence plus adaptée, mais elle ne repose alors pas sur une perspective à long terme des risques encourus et peut se révéler insuffisante à la fin de l'exercice comptable. 1.3 Le choix du niveau de pertes acceptable: La mesure des pertes inattendues nécessite la détermination au préalable d'un seuil de confiance, qui n'est rien d'autre qu'un quantile élevé de la distribution des pertes (99.9% par exemple). Le choix de ce paramètre repose sur plusieurs considérations : · L'aversion au risque de la banque : Le degré de prudence des dirigeants ou de leur aversion au risque est le critère le plus naturel sur la base duquel le seuil de confiance peut être déterminé. Si la banque est très adverse au risque, elle choisit un quantile élevé de telle sorte que l'estimation des pertes potentielles couvre les pertes induites par le plus grand nombre possible de réalisations des facteurs de risque. · L'objectif de raiting : Les agences de notation publient périodiquement les taux de défaut associés aux différents ratings. Si les dirigeants ont un objectif de rating, le niveau des fonds propres correspondant (d'où le seuil de confiance) devrait être celui qui conduit à un taux de défaut correspondant au rating visé. Par exemple une note Aaa de l'agence Moody 's correspond à une probabilité de défaut de 0,03%. De ce fait, une banque qui vise cette note choisira alors un quantile de 99,97%.
  • 33. · Les considérations prudentielles : le régulateur peut imposer le choix d'un quantile suffisamment élevé pour que les banques constituent un montant de fonds propres économiques suffisant pour couvrir une part plus importante des pertes potentielles. 2. LES ETAPES DE CONSTRUCTION D'UN MODELE DE RISQUE DE CREDIT: La construction d'un modèle de risque de crédit s'opère en deux étapes : 2.1 L'évaluation du risque au niveau individuel Cette étape est consacrée à la collecte de l'information sur les éléments constitutifs du risque de chaque crédit. Elle consiste essentiellement à ranger les crédits en classes de risque définies par le système de notation interne de la banque. Sur la base de cette classification, des probabilités de migration de chaque crédit entre les différentes classes de risque vont être déterminées. Dans le cas d'un modèle MTM toutes ces probabilités de migration sont prises en considération, afin de constituer une matrice de transition. Tandis que dans le cas d'un modèle de défaut on s'intéresse uniquement à la migration du crédit vers la classe de défaut. Celle-ci ne peut constituer une classe de départ, alors elle est dite « absorbante ». L'étape suivante consiste à mesurer la valeur de chaque crédit en fonction de son appartenance aux différentes classes de risque. Dans le cas d'un modèle de défaut, on s'intéresse à déterminer la valeur de l'exposition seulement dans le cas de défaut. Enfin, il importe de déterminer la perte en cas de défaut (LGD). Celle-ci dépend du taux de recouvrement en cas de défaut, qui dépend lui-même de la nature du crédit, de sa maturité et des garanties qui lui sont associées. Une fois les facteurs du risque sont déterminés, l'étape suivante consiste à déterminer la perte attendue et la volatilité des pertes (perte maximale inattendue) pour chaque position individuelle. 2.2 L'évaluation du risque au niveau du portefeuille: Cette étape consiste en une agrégation des résultats obtenus dans l'étape précédente, afin de déterminer le risque global du portefeuille, ce qui suppose l'intégration des corrélations entre les événements de crédit. Le but principal d'un modèle de risque de crédit reste de construire une distribution de pertes sur la base de laquelle la perte potentielle maximale (Value at Risk) et le niveau des fonds propres économique seront déterminés. A. La distribution des pertes La distribution de perte d'un portefeuille de crédit, à un horizon de temps choisi, correspond à une courbe qui relie la fréquence de perte de crédit à l'intensité du niveau de celle-ci. La PDF présente la particularité de ne pas être de type normal. En effet, celle-ci est fortement asymétrique (coefficient d'asymétrie1 positif) et leptokurtique (coefficient d'aplatissement2 supérieur à 1)
  • 34. Quelle que soit la méthodologie retenue pour sa construction, le principe reste identique. Pour chaque état de la nature possible (réalisation des facteurs de risque), il s'agit de déterminer conjointement la répartition de fin de période des emprunteurs au sein des classes de risque 1 Appelé aussi Skewness , il correspond au moment d'ordre 3 2 Appelé aussi Kurtosis, , il correspond au moment d'ordre 4 (y compris la classe de défaut) et la variation de la valeur de chaque crédit en fonction de la classe de risque dans laquelle il se trouve. Dans le cas d'un modèle MTM, la perte totale s'obtient alors, compte tenu de l'hypothèse d'indépendance des migrations conditionnelles, par simple agrégation des positions individuelles. Pour un modèle s'inscrivant dans l'approche de défaut, il suffit de déterminer le nombre de défauts dans chaque classe pour chaque réalisation des facteurs de risque et la perte relative à chaque défaut. Les corrélations entre événements de crédit interviennent entièrement dans ce cadre à travers le fait que les variations des valeurs individuelles (y compris en cas de défaut) dépendent directement de la réalisation des facteurs de risque et sont donc étroitement liées les unes aux autres. Deux approches bien distinctes sont utilisées pour la construction de la PDF: l'approche analytique et l'approche de simulation · Une approche de type analytique : consiste en la recherche d'une forme de distribution susceptible d'approcher la PDF et en particulier sa queue de distribution. Le modèle CreditRisk+ utilise ce type d'approche : la distribution des pertes est donnée par une relation de récurrence qui donne la probabilité de l'occurrence d'une perte de n unités d'exposition en fonction de la probabilité de l'occurrence d'une perte de n-1 unités d'exposition; · Une approche fondée sur la simulation Monte Carlo : applicable à de très grands portefeuilles, elle permet de spécifier un montant de pertes agrégées lié à une réalisation particulière des facteurs de risque. Dans un premier temps on effectue un nombre de tirages aléatoires (100 000 par exemple) à partir de la loi de distribution des facteurs de risque (généralement normale), après on lie chaque réalisation à un montant de pertes. Il suffit ensuite d'ordonner ces pertes pour construire l'histogramme de la distribution. Cette approche est utilisée aussi bien par CreditMetrics que par KMV. Ces deux approches peuvent être complétées par une approche fondée sur la théorie des valeurs extrêmes (EVT). Celle-ci permet de déduire une loi asymptotique pour la distribution des grandes pertes. L'usage de cette loi permet de mieux cerner la distribution des pertes extrêmes pour lesquelles le nombre de données est généralement insuffisant. B. La Value at Risk (VaR) La Value at Risk (VaR) est la perte maximale sur un crédit (ou un portefeuille de crédits) à un horizon de temps et un niveau de confiance donnés.
  • 35. Dans sa forme générale, la VaR peur être tirée de la distribution de probabilité des pertes. Elle est alors égale au quantile d'ordre á de la fonction de densité des pertes (PDF) : ~~ P (x?x*)= 1-á = f f(x) ~~ dx Où á est le seuil de confiance choisi (ex : 99%), x* le quantile d'ordre á et f la PDF. Si la distribution de la valeur marchande d'un titre est normale, que sa valeur moyenne est de 100 DA et que son écart type est égal à 10 DA l'approche par la VaR nous renseigne qu'à 99% de chance la valeur du titre reste supérieure à 100 - 2,33 × 10 = 76,7 DA ou bien que la perte soit inférieure à 100 - 76,7 = 23,3 DA. Ainsi, les éléments nécessaires pour le calcul de la VaR sont la moyenne et l'écart type des prix des actifs. Si ces éléments sont facilement estimables pour les valeurs faisant l'objet d'une cotation, leur estimation dans le cas des crédits bancaires présente une difficulté car leur valeur n'est pas directement observable. De plus, l'hypothèse de normalité est difficilement justifiable car la distribution de cette valeur est fortement asymétrique. Figure 2.1 : Distribution des pertes et VaR 3. MODELES DE DEFAUT VS MODELES MTM Les modèles de quantification du risque de crédit peuvent être rangés en deux grandes catégories: les modèles de défaut (Default model ou DM) et les modèles Marked to market (ou MTM) : 3.1 Les modèles de défaut (DM) : Ces modèles considèrent l'événement de défaut comme le seul risque de crédit. En conséquent, deux états de la nature sont jugés pertinents : le défaut et l'absence du défaut. Cette approche est généralement la plus adoptée par les banques car la plupart des prêts consentis par une banque ont vocation à rester dans son portefeuille jusqu'à l'échéance finale, quelle qu'en soit l'issue
  • 36. On retrouve dans cette catégorie le modèle de référence CreditRisk+ développé par Crédit Suisse Financial Productes (CSFP), 3.2 Les modèles Marked to market (MTM) : Dans ces modèles le risque de crédit correspond à l'un des événements suivants : · Un défaut comme dans le cas des modèles DM · Un changement de rating · Une modification du spread, en se qui concerne les instruments de marché De ce fait, la dégradation de la cote d'une obligation par exemple de BBB à BB, entraine une perte pour son détenteur, malgré l'absence de défaut. Dans les modèles MTM et contrairement aux modèles de défauts, la perte attendue peut prendre une valeur positive ( ce qui se traduit par un gain ) à partir du moment où la valeur de marché peut évoluer dans un sens positif. L'approche s'applique principalement aux titres de marché émis par des firmes notées par les grandes agences de rating telles que S&P ou Moody's. Parmi les modèles appliquant cette approche, on trouve CreditMetrics de JPMorgan . 4. LES MODELES DE REFERENCE: 4.1 CreditRisk+ de Crédit Suisse Développé en 1996 par Crédit Suisse Financial Productes (CSFP), CréditRisk+ est un model de défaut qui utilise une approche dite actuarielle. C'est un modèle dans lequel la probabilité de défaut est modélisée comme une variable continue caractérisée par une distribution de probabilité. Le comportement des taux de défaut est alors représenté par la volatilité de ce taux. Le modèle CreditRisk+ est fondé sur des hypothèses inspirées des techniques de calcul des primes d'assurance incendie. Dans un portefeuille d'assurances incendie, chaque sinistre a une faible probabilité de se réaliser et il est peu probable que toutes les maisons prennent feu. De plus, le coût de chaque sinistre est incertain en ce sens qu'une maison peut bruler entièrement ou partiellement. Par analogie, le modèle CreditRisk+ a été bâti sur les hypothèses suivantes : · Chaque crédit est supposé avoir une faible probabilité de défaut. · Chaque défaut sur un crédit est supposé indépendant des défauts des autres crédits. · Les pertes peuvent être plus ou moins importantes et leur montant est considéré comme une source d'incertitude. Méthodologie du modèle :
  • 37. Le modèle CreditRisk+ procède à une décomposition du portefeuille en bandes. Chaque bande considérée comme un portefeuille distinct qui regroupe des crédits dont les expositions s'approchent de sa valeur moyenne. Dans une première étape, le modèle va s'intéresser au calcul des pertes à l'intérieur de chaque bande. Ainsi, une probabilité moyenne de défaut va être attribuée à chaque portefeuille. Cependant, cette probabilité est incertaine dans la mesure où le taux de défaut est considéré comme étant une variable aléatoire. Dans sa spécification la plus simple, CreditRisk+ suppose que le taux de défaut suit une loi de poisson, la distribution de probabilité des défauts est alors de la forme : e -mmn P (n défauts) = n! Où m représente le nombre de prêts et n le nombre de défauts. En utilisant cette loi, on peut donc trouver les probabilités associées au nombre de défauts dans chaque bande. C'est-à-dire dans chaque portefeuille on calcul la probabilité qu'il y ait 0 défaut, 1 défaut, 2 défauts, jusqu'à n défauts. Par la suite, la distribution des pertes sera calculée à l'intérieur de chaque bande, et les pertes seront agrégées sur l'ensemble des bandes pour construire de cette manière la distribution des pertes sur le portefeuille global. 4.2 CréditMetrics de JP Morgan La méthode a été développée en 1997 par le groupe de recherche sur la gestion du risque de la firme J.P. Morgan pour mesurer le risque de crédit et valoriser les portefeuilles d'actifs non négociables tels que les prêts et obligations privées. Son objectif est de permettre aux établissements de crédit d'évaluer la valeur future de leur portefeuille et non pas seulement d'estimer leurs pertes potentielles. En ce sens, il s'agit d'un modèle de transition et non pas de défaut. Méthodologie du modèle : Essentiellement concentré sur une évaluation des risques au niveau d'un portefeuille, la procédure ne propose pas de technique d'évaluation des probabilités de défaut individuelles. En pratique, l'évaluation des probabilités de transition se fait au niveau des classes de risque (rating) et non au niveau individuel, ce qui implique que toutes les firmes d'une même classe sont supposées porter le même risque. La mise en oeuvre de la méthode repose sur les étapes suivantes : 1. Une note est attribué à chaque émetteur (ou émission) en fonction de sa solvabilité présumée. Cette notation peut être celle publiée par les agences spécialisées ou une notation interne ;
  • 38. 2. On détermine une matrice de transition de rating. Cette matrice consiste à donner pour un émetteur auquel on a attribué un rating actuel, les différents ratings potentiels à un horizon donné avec la probabilité de migration de la note initiale à chacune des notes potentielles. Cette matrice peut être obtenue à partir des données historiques fournies par les agences de notation ou par estimation statistique ; 3. A chaque type de rating, on attribue une courbe des taux prenant en compte le risque spécifique de cette catégorie de rating par rapport à un émetteur sans risque de crédit. Cette courbe des taux peut être déterminée à partir d'un panel d'émissions ayant ce rating ; 4. A chaque émetteur (ou émission), on attribue un taux de recouvrement en cas de faillite. Ce taux de recouvrement est celui que donnera le liquidateur aux créanciers de la société en cas de faillite. Afin de prendre en compte le caractère spécifique de chaque émission et en particulier les garanties associées, il peut être plus judicieux d'attribuer un taux de recouvrement par émission plutôt que par émetteur. La méthode permet également de se baser sur l'espérance et la volatilité du taux de recouvrement correspondant au rating et à la séniorité de la dette. 5. La dernière étape consiste en l'estimation de la VaR, pour ce faire, CréditMetrics utilise l'approche fondée sur la simulation Monte-Carlo en générant des scénarios de valeurs des titres faisant partie du portefeuille. Ces scénarios sont traduits en transitions vers des classes de risque et donc directement en valeurs du portefeuille. La distribution empirique de la valeur future du portefeuille de la banque est ensuite construite sur la base des résultats obtenus. 5. LA VALIDATION DES MODELES DE CREDIT: Avant d'utiliser un model, la banque est tenue d'évaluer sa performance. Elle doit s'assurer de se fait que les résultats obtenus sont pertinents et convergent vers la réalité. Pour ce faire les banques procèdent régulièrement à des tests de validation de leurs modèles afin d'ajuster des paramètres (coefficients) ou même de modifier des composantes. Plusieurs testes de validations sont utilisés pour les modèles de crédit, les plus connus sont le Backtesting, le Benchmarking et le Stress testing : 1) Backtesting : Cette méthode consiste à comparer les valeurs réelles des variables à celles estimées par le model. Ceci se fait par le calcul de l'écart dans le passé entre les variables objectifs (endogènes) estimées préalablement par le model et la réalité de ces variables constatée ex-post. 2) Benchmarking : Ce teste consiste à comparer le modèle interne avec des références externes. Les décalages significatifs dans les résultats restitués doivent être étudiés et justifiés. Les benchmarks consistent en des données fournies par des organismes externes de notation des crédits. Les écarts ainsi constatés permettent de mettre en lumière les insuffisances et les forces des méthodologies utilisées par la banque. 3) Stress testing : cette méthode (appelée aussi Scénario-catastrophe ou de crise) consiste à introduire différents scénarios extrêmes concernant les paramètres d'entrée du model (Input),