Résumé
La courbe de structure des taux d'intérêt est une des composantes fondamentales de la théorie
économique et financière. Celle-ci, en établissant une relation entre les taux d'intérêt et les maturités,
permet d’évaluer de nombreux actifs financiers. Or, les méthodes de révélation sont nombreuses mais
n'offrent pas toutes des résultats satisfaisants et souffrent, parfois, de certaines limitations.
Dans cet article, nous proposons de tester certaines de ces méthodes sur des obligations d'état
démembrées (strip). Nous montrerons que l'utilisation des réseaux de neurones artificiels peut
s'avérer très satisfaisante et que cette méthode reste robuste quant à l'éventuelle existence de données
aberrantes.
Abstract
The term structure of interest rates is certainly one of the most important components of
economic and financial theory. In fact, by building a relationship between interest rates and
maturities, it permits to valuate numerous term structure derivatives. There exist several estimation
methods but they don't offer good results and sometimes, have some limits.
In this paper, we propose to perform an empirical comparison using french strip bond data.
We’ll show that artificial neural networks can represent an interesting method, robust in presence of
outliers.
Article publié dans : "Bankers, Markets & Investors" n°35
http://www.revue-banque.fr/article/reseaux-neurones-lissage-fonction-actualisation-su
Similaire à Réseaux de neurones, lissage de la fonction d'actualisation et prévision des OAT démembrées : une étude empiriqueMEMBREES : UNE ETUDE EMPIRIQUE
Similaire à Réseaux de neurones, lissage de la fonction d'actualisation et prévision des OAT démembrées : une étude empiriqueMEMBREES : UNE ETUDE EMPIRIQUE (11)
Réseaux de neurones, lissage de la fonction d'actualisation et prévision des OAT démembrées : une étude empiriqueMEMBREES : UNE ETUDE EMPIRIQUE
1. RESEAUX DE NEURONES, LISSAGE DE LA FONCTION
D’ACTUALISATION ET PREVISION DES OAT
DEMEMBREES : UNE ETUDE EMPIRIQUE
Saïd BOLGOT*
et Jean-Christophe MEYFREDI**
Classification JEL : C4, C45, C1, C13, G, G12,
Mots clefs : Réseaux de Neurones, Régularisation, prévision, Courbe des taux, Strip OAT
Key words : Neural Networks, Regularization, Forcasting, Term Structure, Strip OAT
*
GREQAM, Groupement de Recherche en Economie Quantitative d’Aix-Marseille, Université de la Méditerranée.
E-mail : bolgot@ehess.cnrs-mrs.fr
**
CETFI, Centre d’Etudes des Techniques Financières et d’Ingénierie, Faculté d’Economie Appliquée, Université
d’Aix-Marseille III. E-mail : jcm@romarin.univ-aix.fr
2. 2
Résumé
La courbe de structure des taux d'intérêt est une des composantes fondamentales de la théorie
économique et financière. Celle-ci, en établissant une relation entre les taux d'intérêt et les maturités,
permet d’évaluer de nombreux actifs financiers. Or, les méthodes de révélation sont nombreuses mais
n'offrent pas toutes des résultats satisfaisants et souffrent, parfois, de certaines limitations.
Dans cet article, nous proposons de tester certaines de ces méthodes sur des obligations d'état
démembrées (strip). Nous montrerons que l'utilisation des réseaux de neurones artificiels peut
s'avérer très satisfaisante et que cette méthode reste robuste quant à l'éventuelle existence de données
aberrantes.
Abstract
The term structure of interest rates is certainly one of the most important components of
economic and financial theory. In fact, by building a relationship between interest rates and
maturities, it permits to valuate numerous term structure derivatives. There exist several estimation
methods but they don't offer good results and sometimes, have some limits.
In this paper, we propose to perform an empirical comparison using french strip bond data.
We’ll show that artificial neural networks can represent an interesting method, robust in presence of
outliers.
3. 3
1. Introduction
Les études relatives à la révélation de la structure par terme des taux d'intérêt sont peu
nombreuses sur le marché français. Cependant, de nombreux chercheurs ont tenté d'édifier une base
de réflexion rigoureuse, en vue de l'estimation de la fonction d'actualisation qui serait à l'origine du
processus de valorisation des actifs à revenu fixe négociés sur le marché obligataire.
En toute rigueur, la structure par terme des taux d'intérêt ne devrait être extraite qu'à partir des
obligations zéro-coupon. En effet, l'utilisation, comme cela a souvent été le cas, de titres couponnés
introduit un facteur supplémentaire qui affecte le niveau des taux d'intérêt. Cependant, le manque de
titres zéro-coupon sur le marché domestique a nécessité d'autres moyens d'obtention. Dès lors, il est
nécessaire de recourir à l'utilisation du prix d'autres actifs financiers pouvant être considérés comme
sans risque, tels que le cours des OAT “classiques”1
(considérées comme un portefeuille
d'obligations zéro-coupon) ou encore le cours des contrats de swaps des entreprises de première
catégorie.
La méthode la plus simple consistait à définir une courbe des taux zéro à partir des taux de
rendement actuariel (TRA) fournis par l'observation des obligations couponnées (DURAND[11],
FISHER [14], MASERA [22]).
Les modèles qui ont succédé visaient à approcher une fonction d'actualisation en temps discret
(CARLETON-COOPER [5]). AUGROS [1] a tenté d'adapter cette approche au marché obligataire
français. Cependant, il s'est heurté à un problème dû à la grande diversité des dates de détachement
des coupons. Pour y remédier, il lui a fallu caler les dates de versement des différents flux. Il a ainsi
procédé à un premier ajustement en utilisant les taux de rendement actuariel et une régression
multiple; et en cas de non platitude, il réalise un second ajustement pour corriger le biais introduit par
ces derniers.
Afin de pallier la principale critique des modèles précédents, une nouvelle voie de recherche,
consistant à mettre en place une fonction d'actualisation en temps continu, a été élaborée.
MCCULLOCH [23] utilise une approximation par des splines polynômiaux2
. SCHAEFFER [27] ajuste
la fonction d'actualisation par une série de polynômes de Bernstein. Mais l'application de ces
méthodes au marché français par BONNEVILLE [4] ont révélé des valeurs aberrantes aux extrémités
de la courbe de structure des taux. En effet, les splines impliquent une fonction d'actualisation qui
diverge au fur et à mesure de la croissance des maturités au lieu de converger vers 0 comme le
suppose la théorie.
Or, ces différentes méthodes sont limitées par le fait que les fonctions polynômiales ont
tendance à lisser la courbe de structure des taux d'une manière variable, en fonction des maturités.
VASICEK et FONG [29], SHEA [28] ont pris en compte des fonctions d'actualisation de forme
exponentielle ; CHAMBERS, CARLETON et WALDMAN [6] recourent quant à eux à des ajustements
non linéaires et mettent en place une fonction d'actualisation qui est à la fois polynômiale et
exponentielle. Enfin, on peut citer dans le même ordre d'idées le modèle de BERA et SIMONET [2]
qui utilisent également une fonction d'actualisation de forme exponentielle, mais se limitant (après
estimation empirique) à un polynôme de degré 3.
Ce sont ces trois derniers modèles qui font l'objet de l'étude menée conjointement par DE LA
1
Par opposition aux strips OAT que nous verrons ultérieurement.
2
Ce sont des fonctions qui doivent s'emboiter les unes aux autres afin de respecter une continuité dans leur jonctions.
4. 4
BRUSLERIE et GELUSSEAU [10] sur un échantillon d'obligations du Trésor US et un second composé
d'euro-obligations, toutes de maturité 1 à 15 ans (titres les plus nombreux et les plus liquides). Les
deux auteurs écartent volontairement les obligations zéro-coupon pour lesquelles on obtient
directement le taux comptant qui y est attaché. Ils parviennent à la conclusion que, compte tenu de la
liaison entre les résidus et les variables explicatives (maturité, et dans une moindre mesure, le taux de
coupon), les modèles testés sont significativement hétéroscédastiques, hormis peut-être pour le
modèle de VASICEK et FONG. Ce modèle semble le plus satisfaisant puisque la valeur du biais est
faible au long des différentes coupes. La difficulté majeure réside dans le fait que les résidus de
l'estimation sont très largement dispersés (2 points pour les T-bonds et 4 points pour les euro-
obligations) ce qui empêche l'utilisation du modèle à des fins pratiques.
Depuis cette étude, de nouveaux modèles proposant des fonctions approchées notamment en
terme de splines cubiques (FISHER, NYCHKA et ZERVOS [15]), des fonctions pas à pas (RONN [26]
ainsi que COLEMAN et FISHER [8]), des fonctions linéaires par parties (FAMA et BLISS [12]) et des
formes exponentielles (NELSON et SIEGEL [24]) ont été développés. BLISS [3] a testé 5 méthodes
d'estimation de la courbe de structure des taux parmi lesquelles celle de MCCULLOCH , celle de
FISHER et al. , celle de NELSON et SIEGEL, et enfin deux versions de la méthode de FAMA-BLISS
(une méthode lissée et une autre non lissée). Il teste ces différents modèles sur deux échantillons (un
servant à l'extraction des paramètres du modèle et un second permettant de valider le modèle). Son
analyse porte sur des données de fin de mois entre 1970 et 1996 (312 mois). Comme dans l'étude
précédente, les obligations avec des clauses spéciales (telles que les obligations à clause de
remboursement anticipé) et les titres pour lesquels il existait un problème de liquidité (titres inférieurs
à un mois), ont été écartés. Les différents tests qui ont été menés établissent, une nouvelle fois, que
certains facteurs ont été omis dans l'équation d'évaluation du cours des obligations et notamment
pour les longues maturités.
L'objectif principal de cette étude est de déterminer, sur la base de données françaises (strips
OAT), la courbe de structure des taux d'intérêt, puis d'utiliser cette dernière pour évaluer des
obligations. L'échantillon servant à la validation est composé de 13 OAT ordinaires n'ayant pas servi
à la détermination de la courbe des taux. Nous choisissons ainsi la démarche inverse de celle utilisée
par ROGER et ROSSIENSKY [25].
A titre de comparaison, nous avons choisi de confronter les résultats obtenus à l’aide des
réseaux de neurones à ceux provenant de la méthode de VASICEK-FONG
3
ainsi que d’un ajustement
polynômial4
. Après avoir effectué des tests préliminaires, nous avons volontairement écarté la
méthode des splines qui, si elle donne d’excellents résultats quant à l’estimation de la courbe de
structure des taux, souffre de deux inconvénients. Le premier concerne son utilisation, puisque cette
méthode exige des maturités distinctes. Or, il est fréquent de rencontrer plusieurs taux pour des
strips de même maturité. Le second problème est que cette méthode n’est pas parcimonieuse.
L'article sera donc organisé de la façon suivante : dans une première section, nous décrirons le
modèle utilisé. Dans une seconde, nous présenterons brièvement les strips OAT qui ont servi de
support à l’obtention de la courbe de structure par terme des taux d’intérêt (CST). Dans une
troisième, nous rappellerons en quoi consiste la méthode des réseaux de neurones et de quelle
manière ils peuvent s’appliquer à notre domaine d’étude. Enfin, après avoir décrit nos données dans
une quatrième section, nous validerons notre approche par une étude empirique sur le marché
français.
3
La fonction d’actualisation retenue par les auteurs est : ( ) ( ) ( ) ( )
G t a a e a e a et t t
= + + +− − −
0 1 2
2
3
3α α α
.
4
Aprés différents tests, nous retenons des polynômes d'ordre 3.
5. 5
2. Le modèle
Nous supposerons au cours de notre étude que les marchés sont parfaits. Afin de pouvoir
évaluer les taux au comptant, il convient de rappeler, tout d'abord, la formule d'actualisation de flux
certains en l'absence de frictions (sans taxes, ni coûts de transaction) :
( ) ( )n
n
r
n
t t
t
t
r
V
r
C
P
01 0 11 +
+
+
= ∑=
(1)
où Pt désigne le prix d'une obligation hors risque de défaut à la maturité t, Ct la valeur du coupon
versé à l'année t, 0 rt le taux d'intérêt au comptant applicable à une obligation d'un an ne versant pas
de coupon et Vr la valeur de remboursement.
Pour passer du cours de l'obligation zéro-coupon au taux d'intérêt au comptant correspondant,
on utilise la relation suivante :
1
100
1
0 −
=
t
t
t
P
r (2)
où 0 rt est le taux au comptant correspondant à la maturité t = T-t*
avec T l'échéance du titre et t*
la
date d'évaluation.
Lors de notre étude, nous nous servirons du cours des OAT démembrées afin d'obtenir les
différents taux au comptant associés, et ce à l'aide de la formule (2). Notre but est de pouvoir,
ensuite, obtenir une fonction continue et lisse permettant d'ajuster au mieux la courbe observée et qui
pourra servir à la valorisation d'actifs contingents aux taux d'intérêt.
3. Les strips5
Les émissions de titres obligataires zéro-coupon sont extrêmement rares sur le marché français
et ne pourraient, a fortiori, en aucun cas couvrir l'ensemble des échéances. Cependant, ce type de
titres présente un double avantage. D’une part, ils permettent de supprimer l’incertitude liée au
réinvestissement des coupons. D’autre part, s’il existait des obligations zéro-coupon couvrant tout le
spectre des échéances, il deviendrait par la même trivial d’extraire les différents taux au comptant
leur correspondant.
Voilà sans doute les raisons pour lesquelles, devant l'absence de ces titres si recherchés, il a été
choisi de «démembrer » des obligations classiques en plusieurs obligations zéro-coupon. Ainsi, il sera
possible, à partir d'un titre à taux fixe de maturité 10 ans de créer 11 titres zéro-coupon : dix,
représentant chaque versement normal d'intérêt et un dernier représentant le capital. En France, le
premier démembrement d'OAT n'a été mené qu'en 19856
, mais n'a pris son essor qu'en 1991 suite à
un allégement des dispositions réglementaires et fiscales.
5
Pour avoir de plus amples renseignements sur le démembrement des OAT et leur réglementation le lecteur intéressé
pourra se reporter à l'ouvrage de FERRANDIER et KOEN [13] ou encore à celui de CLERMONT TONNERRE et LEVY [7].
6
Cette technique initiée aux Etats-Unis dès 1972, n'a connu un véritable succès qu'à partir de 1982, date à laquelle les
autorités américaines ont mis en place un cadre réglementaire pour le démembrement des titres ; on a alors parlé de
programme strips (Separate Trading of Registred Interests and Principal of Securities).
6. 6
Cependant, l'utilisation des strips n'est elle-même pas exempte de toute critique puisqu'il est
possible de trouver pour une même maturité des taux au comptant différents (coupon et principal
arrivant à échéance au même moment), ce qui va à l'encontre de l'hypothèse d'un prix unique pour un
même actif.
4. Les réseaux de neurones
Une manière courante et commode de présenter un réseau neuronal est de le décrire sous
forme de schéma ou d’un graphe. En ce qui nous concerne, nous nous intéressons à un type de
réseaux dit multi-couches ou feedforward composé d’une couche d’entrée, d’une couche de sortie et
d’une ou plusieurs couches intermédiaires appelées couches cachées7
. Chacune de ces différentes
couches est composée d’un certain nombre d’unités appelées neurones et qui sont munies de
fonctions d’activation (fonctions de transfert).
Fig-1 : Réseau
Multi-Couches
Nous désignons par ),( βα=w
l’ensemble des paramètres du modèle, par
q le nombre d’unités dans la couche
cachée, par F(x) la fonction d’activation
des unités de la couche de sortie, par
)(xϕ celle des unités de la couche cachée,
par p le nombre de variables explicatives
et par s le nombre de variables expliquées. La couche d’entrée envoie des signaux ),...,,1(~
1
′= pxxx
qui en termes économétriques correspondent aux variables exogènes augmentées de la constante
appelée aussi biais ou threshold. Ces variables sont ensuite pondérées par des poids de connexion α
et transformées par les fonctions d’activation ϕ. On obtient alors de nouvelles variables inobservables
)(
1
0 ∑=
+=
p
i
iijjj xh ααϕ où p est le nombre de variables explicatives. Ces nouvelles variables sont à
leur tour pondérées par des poids de connexion β et transformées par les fonctions d’activation de la
couche de sortie F. Chaque neurone k de la couche de sortie produit alors :
skxFy
q
j
p
i
iijjjkkk ,...,1))((ˆ
1 1
00 =++= ∑ ∑= =
ααϕββ (3)
Les kj 00 et βα sont des constantes (biais) et le choix des fonctions ϕ et F est arbitraire,
généralement des fonctions sigmoïdales de forme générale :
∈+
+
−
= ,,
1
1
)( kbab
e
e
ax kx
kx
ϕ IR et a, k > 0 (4)
7
Nous nous limiterons à une seule couche cachée pour trois raisons. La première est d‘ordre numérique, car les
erreurs de précision et d‘arrondis de la machine peuvent s‘accumuler rapidement. La deuxième concerne le temps de
calcul qui peut devenir prohibitif. La troisième raison est théorique : les principaux résultats ont été démontrés pour
un réseau à une couche cachée.
7. 7
Dans la pratique, le plus souvent,
)exp(1
1
)(
x
x
−+
=ϕ (fonction logistique) ou encore
)tanh()( xx =ϕ (tangente hyperbolique) ; et F(x) = x (fonction identité). L’équation 3 devient
∑ ∑= =
++=
q
j
p
i
iijjjkkk xy
1 1
00 )(ˆ ααϕββ (5)
jk
q
j
jkkk xwxfy βαϕβ ∑=
′+==
1
0 )~(),(ˆˆ (6)
Nous nous situons donc dans le cadre d’un modèle de régression non linéaire multivariée d’une
forme particulière. Disposant d’un échantillon ( )[ ]N
ttt
N
yxZ 1
, =
= contenant N paires de vecteurs
),( tt xy avec ),...,( 1
′= tptt xxx et ),...,( 1
′= tstt yyy notre but est de construire, à partir de N
Z , un
estimateur )ˆ,...,ˆ(ˆ
1 sfff = de la fonction multivariée f. Pour cela, nous estimons l’ensemble des
paramètres w de manière à minimiser une fonction objective basée, par exemple, sur la somme des
carrés des résidus :
∑=
−
∈
−=
N
t
tt
Ww
wxfyNw
1
21
)],(ˆ[minargˆ (7)
HORNIK, STINCHOMBE et WHITE [19] et [20], GALLANT et WHITE [17] démontrent dans
l’espace de Sobolev (espace des fonctions continues et dérivables) que l’équation 6 est très riche et
peut approcher une très grande classe de fonctions ainsi que leurs dérivées avec autant de précision
qu’on le souhaite à condition d’avoir suffisamment d’unités dans la couche cachée et que les
coefficients soient « proprement » estimés. Nous pouvons retrouver des résultats similaires dans
CYBENCO [9], FUNAHASHI [16] et HECHT-NIELSEN [18].
Pour éviter certains problèmes de sur-apprentissage8
liés principalement à une abondance de
paramètres (q grand), autrement dit, pour que la courbe estimée soit lisse, ce qui nous intéresse
particulièrement en ce qui concerne l’estimation de la courbe des taux d’intérêt, on minimise la
somme des carrés des résidus pénalisée (ou régularisée)
∑=
−
Ψ+−
N
t
tt wxfyN
1
21
)],(ˆ[ λ (8)
Le deuxième terme de cette expression permet, à travers le coefficient λ de contrôler le degré
de lissage de la fonction f. Ψ est un stabilisateur (régulateur) qui pénalise le degré de courbure de la
fonction recherchée. En général ∫ ′′=Ψ dttf 2
)]([ . Mais il peut prendre bien d’autres formes dont la
plus simple est ∑=Ψ 2
iw (Weight Decay). La valeur de λ est optimisée par la méthode de
validation croisée.
Les paramètres d’intérêt w peuvent être estimés de différentes manières. La méthode la plus
utilisée est celle de la descente du gradient :
)),(ˆ(ˆˆ 1 wxfyZww ttii −+=+ η (9)
où η est le pas d’estimation qui peut être constant ou variable et wfZ ∂∂= / (jacobien).
8
Dans le jargon connexioniste, le terme apprentissage désigne l‘estimation des paramètres. Le sur-apprentissage
consiste à ce que les réseaux réalisent un ajustement parfait, au détriment de l’obtention d’une courbe lisse.
8. 8
A cet algorithme nous avons préféré celui de LEVENBERG-MARQUARDT car celui-ci est
beaucoup plus rapide et plus robuste. Il s’exprime comme suit :
)),(ˆ()(ˆˆ 1
1 wxfyZIZZww ttii −′+′−= −
+ µ (10)
Le paramètre µ permet de rendre la matrice ZZ′ inversible lorsque celle-ci est mal conditionnée. Cet
algorithme constitue un compromis entre l’algorithme de Gauss-Newton (lorsque µ → 0) et celui de
la descente du gradient (cas ou µ → ∞).
Pour estimer la courbe des taux, nous avons utilisé un réseau à une couche cachée contenant
trois neurones. Le modèle reçoit en entée les différentes maturités et fournit en sortie les taux
d’intérêt correspondants.
5. Les données
Elles se composent des cours de clôture journaliers des strips OAT issus de la base de données
Datastream entre le 1er
janvier 1996 et le 31 octobre de cette même année. Nous avons écarté de
notre échantillon les OAT démembrées émises en écu pour lesquelles il existait une prime de risque
plus élevée, ce qui risquait d'entraîner d'importants écarts entre le cours tel qu'il est observé sur le
marché et le cours théorique obtenu, ainsi que les strips représentant le capital. Au total 61 strips ont
été utilisées.
Notre base de données comporte, aussi, un échantillon de validation composé de 13 OAT
ordinaires.
6. Les résultats
Comme nous l'avons déjà souligné, ce travail s'effectue en deux étapes : la première consiste à
estimer la courbe des taux, puis dans une seconde étape on procède à l'utilisation de cette dernière
pour l'évaluation des 13 OAT de validation.
Lors de l’estimation des paramètres de VASICEK-FONG, par la méthode Gauss-Newton, nous
avons été confrontés à de larges problèmes d’instabilité du modèle. Sur les 219 dates, l’algorithme
n’a convergé que très rarement et lorsqu’il y avait convergence, les paramètres étaient tous
largement non significatifs. Ces difficultés sont dues au fait que la matrice hessienne est mal
conditionnée (singulière), ce qui explique le niveau élevé des écart-types d’estimation (et donc de
leur significativité). Nous avons donc choisi d’avoir recours à l’algoritme de Marquardt.
La figure-2, représente l'estimation de la courbe des taux via les trois méthodes retenues
au 31/10/96. Cette étape a nécessité l'estimation de 219 × 3 modèles correspondant au nombre de
jours de la période considérée. Les réseaux utilisés sont régularisés9
et entraînés à l'aide de
l'algorithme de Levenberg-Marquardt. Le tableau-1 résume les résultats de cette étape.
9
La notion de régularisation est essentielle, car l'objectif n'est pas, seulement, d'avoir un R2
élevé mais surtout d'avoir
une courbe lisse et d'éviter les problèmes de sur-apprentissage.
9. 9
(a) - Réseaux de Neurones (R² ajusté = 0.9688)
0 5 10 15 20 25 30
0.03
0.04
0.05
0.06
0.07
0.08
0.09
(b) - Vasicek & Fong (R² ajusté = 0.9546)
0 5 10 15 20 25 30
0.028
0.035
0.042
0.049
0.056
0.063
0.070
0.077
0.084
(c) - Lissage Polynomial (R² ajusté = 0.9527)
Maturité
0 5 10 15 20 25 30
0.03
0.04
0.05
0.06
0.07
0.08
0.09
Fig-2 : Estimation de la Courbe des Taux d’Intérêt
Modèle R2
moyen Ecart-type maximum Minimum
Réseaux de neurones 0.9818 0.0082 0.9973 0.9587
Vasicek & Fong 0.9720 0.0127 0.9939 0.9271
Lissage Polynômial 0.9665 0.0107 0.9881 0.9352
Tableau-1 : Qualité d’ajustement mesurée par le R2
ajusté.
Les résultats proprement dits et qui concernent l’étape de validation se trouvent dans les
tableaux 2, 3 et 4.
11. 11
Titre (OAT)
Erreur
moyenne
Erreur
absolue
moyenne
Erreur
minimale
Erreur
maximale
Erreur
absolue
minimale
Erreur
absolue
maximale
1985 10% 27/05/00 0,2837 0,4030 -1,7562 1,4867 0,00065 1,7562
1994 7.5% 25/04/05 0,6751 0,6919 -0,3846 2,4549 0,00643 2,4549
1995 7.75% 25/10/05 0,5647 0,5960 -0,4328 2,5608 0,00466 2,5608
1995 7.25% 25/04/06 0,2971 0,4101 -0,7350 2,3368 0,00067 2,3368
1989 8.125% 25/05/99 -0,1121 0,2703 -2,1784 1,2332 0,00033 2,1784
1987 8.5% 25/11/02 0,4539 0,5126 -0,7723 1,6153 0,00428 1,6153
1992 8.5% 25/04/03 0,6902 0,7155 -0,4544 2,0042 0,01597 2,0042
1987 8.5% 25/06/97 -0,0235 0,1441 -0,6938 0,7052 0,00135 0,7052
1990 8.5% 28/03/00 0,0772 0,2989 -2,0216 1,3726 0,00001 2,0216
1988 9.5% 25/06/98 -0,0832 0,2163 -1,7197 1,0217 0,00096 1,7197
1991 9.5% 25/01/01 0,2270 0,3774 -1,6302 1,3199 0,00315 1,6302
1986 9.7% 13/12/97 -0,0959 0,2086 -1,2483 0,8030 0,00070 1,2483
1985 9.9% 13/12/97 -0,0615 0,1878 -1,3220 1,0037 0,00364 1,3220
Tableau-4 : Résultats de la méthode polynômiale
Nous pouvons résumer ces trois tableaux à l'aide d'un seul plus compact (Tableau-5).
E désigne la moyenne des erreurs moyennes pour les 13 OAT de validation tandis que la moyenne
des erreurs absolues moyennes est notée | E |.
Modèle | E | en % Min Max E en % Min Max
Réseaux de neurones 0.260032 0.1472 0.3642 0.059602 -0.1344 0.3345
Vasicek & Fong 0.285546 0.1458 0.4639 0.067420 -0.2610 0.4098
Lissage polynômial 0.296800 0.1204 0.5930 0.152920 -0.1376 0.5477
Tableau-5 : Résultats récapitulatifs concernant l’échantillon de validation
Il apparaît très clairement, à la vue, de ces tableaux10
que les réseaux de neurones offrent de
meilleurs résultats, que ce soit du point de vue de l’erreur moyenne ou de l’erreur moyenne absolue
(la dispersion des résultats obtenus avec les réseaux de neurones est inférieure à celle des autres
méthodes).
Généralement, plus la maturité est élevée moins les résultats sont bons, encore qu'il faille
nuancer cette affirmation devant la faiblesse des erreurs moyennes absolues qui sont bien inférieures
à celles obtenues par BLISS dans son étude avec la méthode de FAMA-BLISS (en moyenne 0,8 %
pour les résultats dans l'échantillon et 2,01 % pour les résultats hors échantillon11
.
10
Tous les chiffres de ces tableaux sont en pourcentage.
11
Ces deux chiffres correspondent aux résultats de l'échantillon court terme, soit des obligations de durée de vie
12. 12
Nous avons tenu, et ce afin de pouvoir entreprendre une comparaison des résultats, à
incorporer dans notre échantillon de validation certaines OAT qui ont été démembrées et qui ont
donc servi à l’obtention de la courbe de structure des taux. Ces titres qui sont au nombre de 312
,
procureraient même des résultats qui sous-performeraient ceux des titres hors échantillon.
La figure-3 compare les valeurs des OAT de l'échantillon de validation avec les valeurs prévues à
l'aide des différents modèles. Nous aurions pu faire 13 graphiques comme celui-ci.
Fig-3 : Prévisions Hors Echantillon des OAT
Comme nous l’avons déjà signalé, la méthode de VASICEK-FONG nécessite impérativement
l’utilisation d’un algorithme adequat tel que celui de Marquardt [21] qui est moins utilisé et plus
difficile d’implémentation que celui de Gauss-Newton. Nous tenons également à signaler que nos
tests s’inscrivent dans une période où la courbe de structure des taux est dite normale. Or, ROGER et
inférieure ou égale à 5 années.
12
OAT 7,5 % 25/04/05 - OAT 7,75% 25/10/05 - OAT 8,5% 25/04/03.
(a) OAT France R²=0,967
Réseaux de Neurones
Jan Feb Mar Apr May Jun Jul Aug Sep Oct
1996
106.40
106.80
107.20
107.60
108.00
108.40
108.80
109.20
109.60
cours observés
cours prévus
(b) OAT France R²=0,956
Vasicek & Fong
Jan Feb Mar Apr May Jun Jul Aug Sep Oct
1996
106.5
107.0
107.5
108.0
108.5
109.0
109.5
110.0
cours observés
cours prévus
(c) OAT France R²=0,950
Lissage polynômial
Jan Feb Mar Apr May Jun Jul Aug Sep Oct
1996
106.5
107.0
107.5
108.0
108.5
109.0
109.5
cours observés
cours prévus
13. 13
ROSSIENSKY ont montré par des simulations que la méthode de VASICEK-FONG présente des
résultats de moindre qualité lorsque l’on est en présence de courbes en « bosse » ou en « creux ».
Les réseaux de neurones peuvent quant à eux s’adapter à tous les types de courbes.
La figure-4 visualise les erreurs de ces prévisions ainsi que leurs distributions inconditionnelles
estimées de façon non paramétrique et comparées à des lois normales théoriques. Il est probable que
les écarts par rapport à la normalité proviennent de l'existence de valeurs aberrantes (essentiellement
dans l'échantillon ayant servi à l'obtention de la fonction d'actualisation) et non à des erreurs de
modélisation. Rappelons que les modèles neuronaux n'exigent aucune hypothèse préalable sur les
erreurs. Par contre, l'existence d'hétéroscédasticité et l'absence de normalité met en cause les résultats
obtenus par les autres techniques. L'erreur peut, même si elle est très faible, s'expliquer également par
des écarts dus au lissage (cependant le R2
obtenu minimise énormément le risque d'erreur dû à ce
facteur), par l'utilisation de cours de clôture et non de moyennes bid/ask, ou encore par des
imperfections de marché (coûts de transaction,...). Enfin, ces erreurs ne signifient pas forcément qu'il
existe des opportunités d’arbitrage compte tenu de la non complétude du marché des zéro-coupon.
Fig-4 : Erreurs de prévisions et leurs distributions
Réseaux de Neurones
Jan Feb Mar Apr May Jun Jul Aug Sep Oct
1996
-2.0
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
Vasicek & Fong
Jan Feb Mar Apr May Jun Jul Aug Sep Oct
1996
-2.0
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
Lissage Polynomial
Jan Feb Mar Apr May Jun Jul Aug Sep Oct
1996
-2.0
-1.5
-1.0
-0.5
0.0
0.5
1.0
1.5
2.0
distibution inconditionnelle de ER_RNSF
-4 -2 0 2 4
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
0.45
observée
théorique
distibution inconditionnelle de ER_VFSF
-5.0 -2.5 0.0 2.5 5.0
0.0
0.1
0.2
0.3
0.4
0.5
observée
théorique
distibution inconditionnelle de ER_POLSF
-4 -2 0 2 4
0.00
0.05
0.10
0.15
0.20
0.25
0.30
0.35
0.40
observée
théorique
14. 14
7. Conclusion et développements futurs
Nous avons, au cours de cet article, présenté et testé une approche de lissage de la courbe de
structure des taux permettant d'aborder sous un nouvel angle les difficultés d'interpolation entre les
différentes valeurs composant la structure par terme des taux d'intérêt. La méthode que nous
préconisons, et pour laquelle nous obtenons des résultats significatifs, permet d'obtenir avec un degré
de précision élevé, les prix cotés des obligations assimilables du Trésor sur la période s'étalant du 1er
Janvier au 31 Octobre 1996. La fonction obtenue, lisse et continue, répond ainsi aux deux principales
qualités requises par la courbe de structure des taux.
Il serait intéressant de reprendre, dans le cadre de recherches ultérieures, l'approche préconisée
dans cet article et de la comparer avec d ’autres approches économétriques et sur des périodes ou la
courbe de structure des taux est inversée, en creux ou en bosse, ou encore de prendre un échantillon
de titres couponnés comme échantillon d’évaluation. Chaque titre sera vu comme un portefeuille
d'obligations zéro-coupon ; on obtiendrait alors un système de t équations à n inconnues (t étant le
nombre d'obligations utilisées dans l'échantillon et n le nombre de coupons).
Bibliographie
[1] AUGROS J.C., Etude de la structure des taux d’intérêt des obligations du secteur privé :
Application à l’extraction des taux au comptant, Analyse Financière, 1er Trimestre 1983.
[2] BERA M. et M. SIMONET, Quelques outils d’analyse du marché obligataire, Document de
travail, Séminaire HEC, Juin 1985.
[3] BLISS R., Testing Term Structure Estimation Methods, Document de travail, Federal Reserve
Bank of Atlanta, Octobre 1996.
[4] BONNEVILLE E., Les structures des taux d’intérêt spot, Finance , 2, Juin-Octobre 1981.
[5] CARLETON W. et I. COOPER, Estimation and Uses of the Term Structure of Interest Rates,
The Journal of Finance, 31(4), 1976.
[6] CHAMBERS D., W.CARLETON ET WALDMAN, A New Approach to the Estimation of the
Term Structure of Interest Rate, Journal of Financial and Quantitative Analysis, Vol 19(3),
1984.
[7] CLERMONT-TONNERRE (DE) A. et M.A. LEVY, Les Obligations à Coupon Zéro, Economica,
1992.
[8] COLEMAN T. Et E. FISHER, Estimating Forward Interest Rates and Yield Curves from
Government Bond Prices : Methodologie and Selected Results, Rapport Technique, Rutgers
University, June 1987.
[9] CYBENKO G., Approximations by Superpositions of a Sigmoidal Fonction, Mathematics of
Control, Signal and Systems, 2, 1989.
[10] DE LA BRULERIE H. ET L. GELUSSEAU, La mise en évidence empirique de la structure par
terme des taux d’intérêt, Finance, 8, Janvier 1987.
[11] DURAND D., Basic Yields of Corporate Bonds 1900-1942, Rapport Technique, National
Bureau of Economic Research, New-York, 3, 1942.
[12] FAMA E. et R. BLISS, The Information in Long-Maturity Forward Rates, American Economic
Review, 77(4), September 1987
15. 15
[13] FERRANDIER et KOEN, Marchés de Capitaux et Techniques Financières, Economica.
[14] FISHER D., Expectations, the Term Structure of Interest Rates and Recent British Experience,
Economica, Novembre 1964.
[15] FISHER M., D. NYCHKA et D. ZERVOS, Fitting the Term Structure of Interest Rates with
Smoothing Splines, Document de Travail, Federal Resrve Board, Janvier 1995.
[16] FUNAHASHI K., On the Approximate Realization of Continuous Mappings by Neural
Networks, Neural Networks, 2, 1989.
[17] GALLANT A.R. et H WHITE, On Learning Derivatives of an Unknown Mapping with
Multilayer Feedforward Networks, Neural Networks, 4, 1991.
[18] HECHT-NIELSEN R, Theory of the Back-Propagation Neural Network, Proceedings of the
International Joints Conference on Neural Networks, Washington D.C. New-York, IEEE
Press, 1989.
[19] HORNIK K., M. STINCHOMBE et H. WHITE, Multilayer Feedforward Networks are Universal
Approximators, Neural Networks, 2, 1989.
[20] HORNIK K., M. STINCHOMBE et H. WHITE, Universal Approximation of an Unknown
Mapping and its Derivatives Using Multilayer Feedforward Neural Networks, Neural
Networks, 3, 1990.
[21] MARQUARDT D., An Algorithm for Least-Squares Estimation of Non-Linear Parameters,
SIAM, J. Of Appl. Math., 11, 1963.
[22] MASERA, The Term Structure of Interest Rate, Clarendon Press, Oxford, 1972.
[23] MC CULLOCH J.H., The Tax-adjusted Yield Curve, Journal of Finance, 30, Juin 1975.
[24] NELSON C.R. et A. SIEGEL, Parsimonious Modelling of Yield Curves, Journal of Business,
60(4), Octobre 1987.
[25] ROGER P. et N. ROSSIENSKY, Estimation de la Structure des Taux par le Simplexe et le
Lissage des Taux Forward, Finance, 16(1), 1995.
[26] RONN E.I., A New Linear Programming Approach to Bond Portfolio Management, Journal of
Financial and Quantitative Analysis, 22, Décembre 1987.
[27] SCHAEFFER S, On Measuring the Term Structure of Interest Rates, Document de Travail,
London Business School of Finance and Accounting, 1973.
[28] SHEA G., Pitfalls in Smoothing Interest Rate Term Structure Data : Equilibrium Models and
Splines Approximation, Journal of Financial and Quantitative Analysis, 19, 1984.
[29] VASICEK O. et H. FONG, Term Structure Modelling Exponential Splines, Journal of finance,
37(2), 1981.
[30] WHITE H., Learning in Artificial Neural Networks : A Statistical Perpective, Neural
Computation, 1, 1989.