UNIVERSITÉ	PARIS‐DAUPHINE
 
 
   
HASARD	BROWNIEN	ET	
HASARD	SAUVAGE	
Etude	comparée	du	marché	américain	et	du	
marché	eur...
2 
 
Remerciements
Nos premiers remerciements vont à Monsieur Jean-Christophe Cotta, notre directeur de
mémoire, qui nous ...
3 
 
Sommaire	
 
INTRODUCTION................................................................................................
4 
 
3)  Interprétation des paramètres de forme .............................................................................
5 
 
III/ FRACTALES..........................................................................................................
6 
 
2)  Calcul avec l’embeding dimension et l’embeding delay et la méthode des false nearest
neighbours.....................
7 
 
INTRODUCTION
I/ DE LA DOMINANCE DE L’ORDRE …
 
“Order generally was a product of human activity. Chaos existed as a r...
8 
 
II/ … A LA CONSTATATION DU CHAOS ET DU HASARD
 
La réalité doit cependant être nuancée : tout ne peut pas être régit ...
9 
 
Pour citer Nietzsche, "Le préjugé foncier est de croire que l'ordre, la clarté, la méthode
doivent tenir à l'être vra...
10 
 
III/ LES HASARDS EN FINANCE
 
Le hasard va donc être pris en compte dans tous les domaines, qu’il s’agisse des activ...
11 
 
A l’extrême opposé se trouve le hasard sauvage qui prend en compte les fluctuations
extrêmes. Ces dernières ne sont ...
12 
 
IV/ HASARDS ET CRISE FINANCIERE
 
Bien que toujours dominante, la théorie brownienne a cependant été vivement critiq...
13 
 
V/ CADRE D’ANALYSE
 
Notre démarche ne se contentera pas d’analyser les avantages et inconvénients du hasard
brownie...
14 
 
Cette évolution peut être corrélée avec la croissance du PIB sur la même période, d’après les
données de la Banque M...
15 
 
PARTIE 1 : LE HASARD BROWNIEN
I/ PRESENTATION HISTORIQUE
 
Comme nous l’avons évoqué lors de l’introduction le mouve...
16 
 
à-dire la tendance naturelle d'un système à rendre homogènes les concentrations des espèces
chimiques en son sein. R...
17 
 
factices : la Bourse agit sur elle-même et le mouvement actuel est fonction, non
seulement des mouvements antérieurs...
18 
 
‐ Il a par la suite cherché à calculer ce qu’on appelle aujourd’hui le prix d’une option
d’achat, ce qui sera repris...
19 
 
des atomes. Einstein démontre que les incréments [X(t + г) - X(t)] du mouvement
brownien sont des variables aléatoir...
20 
 
II/ THEORIES RELATIVES AU BON FONCTIONNEMENT DU
MARCHE DANS UN UNIVERS BROWNIEN
 
Un marché supposé suivre un mouvem...
21 
 
investisseurs sont disposés à prendre un risque plus élevé si et seulement si, ils
obtiennent une rémunération plus ...
22 
 
c. Espérance et volatilité
Dans les conditions que l’on vient de voir, seul le rendement attendu, caractérisé par
l’...
23 
 
L’objectif peut être vu de deux façons :
- Maximiser le rendement pour un niveau de risque donné ;
- Minimiser le ri...
24 
 
a. L’efficience allocationnelle
Il s’agit là de la définition néoclassique de l’efficience. Cette dernière a été dév...
25 
 
Cependant, dans la réalité, ces conditions ne sont que très rarement remplis et d’autres formes
d’organisations sont...
26 
 
Cette théorie suppose par ailleurs une totale liquidité et une totale atomicité des agents : un
investisseur seul ne...
27 
 
3) Le mouvement brownien est-il une martingale ?
a. Définition de la martingale22
Une martingale est un processus al...
28 
 
Comme nous l’avons vu, une martingale est donc une marche aléatoire sans tendance ni à la
hausse ni à la baisse ; sa...
29 
 
III/ DISTRIBUTION GAUSSIENNE : DEFINITION ET
APPLICATION AU S&P100 ET AU FTSE 100
1) La découverte historique de la ...
30 
 
C’est visiblement la description d’un mouvement aléatoire brownien d’un atome ou d’une
particule dans un milieu aque...
31 
 
En scrutant à la lentille le mouvement d’une particule contenue dans le pollen de la Clarkia
pulchella, il s’est ape...
32 
 
Paramètres µ moyenne, σ écart type Loi normale centrée réduite
Espérance µ 0
Médiane µ 0
Variance σ² 1
Skewness 0 0
...
33 
 
a. Le FTSE 100
Pour les besoins de l’exemple, la durée d’étude du FTSE 100 court entre le 30 avril 2011 et le
28 avr...
34 
 
b. Le S&P 100
Par ailleurs, on considéré le S&P 100 sur la période du 29 avril 2011 au 27 avril 2012.
Graphiquement,...
35 
 
3) Interprétation des paramètres de forme
a. Calcul du coefficient de corrélation et loi normale empirique
Sur Excel...
36 
 
b. Les paramètres de forme : le skewness et le kurtosis
Ces deux statistiques indiquent un état de dispersion. Le sk...
37 
 
Pour conclure sur la loi normale, on peut dire qu’elle est déterminée par une
distribution symétrique, à queue mince...
38 
 
D’autres scientifiques ont travaillé sur la turbulence avec l’idée que la dissipation d’énergie
convergeait vers une...
39 
 
IV/ CRITIQUE DU MOUVEMENT BROWNIEN ET DE LA LOI
NORMALE
 
1) La leptokurticité de la loi normale
a. Erreurs de simpl...
40 
 
b. Les travaux de Mandelbrot sur la géométrie fractale
Mais la suprématie de la loi normale est remise en cause lors...
41 
 
c. Application à la finance
Mandelbrot a compris rapidement que ses observations étaient applicables à la finance (c...
42 
 
2) Irrationalité des agents et inefficience des marchés
a. Les apports de la finance comportementale
Comme nous l’av...
43 
 
ii. Le biais de représentativité
Ce biais repose sur l’idée, démontrée par Jegadeesh et Titman en 1993, que les inve...
44 
 
vi. L’excès de confiance
Ce concept va plus loin que le concept précédent puisqu’il met en avant la tendance des
inv...
45 
 
b. La mise en évidence d’anomalies
Actuellement, de nombreuses enquêtes empiriques ont mis en avant un certain nombr...
46 
 
3) Le « Virus B »
« Aux industriels qui n’ont cure de la justesse d’une formule pourvu qu’elle soit commode,
nous ra...
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Mémoire_Hasard_Brownien_Hasard_sauvage
Prochain SlideShare
Chargement dans…5
×

Mémoire_Hasard_Brownien_Hasard_sauvage

690 vues

Publié le

0 commentaire
0 j’aime
Statistiques
Remarques
  • Soyez le premier à commenter

  • Soyez le premier à aimer ceci

Aucun téléchargement
Vues
Nombre de vues
690
Sur SlideShare
0
Issues des intégrations
0
Intégrations
15
Actions
Partages
0
Téléchargements
14
Commentaires
0
J’aime
0
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Mémoire_Hasard_Brownien_Hasard_sauvage

  1. 1. UNIVERSITÉ PARIS‐DAUPHINE         HASARD BROWNIEN ET HASARD SAUVAGE Etude comparée du marché américain et du marché européen   JABLON Gabriel et LEGROS Loris   MÉMOIRE M1 FINANCE 2012/2013      Photo d’un choux romanesco, exemple naturel de géométrie fractale
  2. 2. 2    Remerciements Nos premiers remerciements vont à Monsieur Jean-Christophe Cotta, notre directeur de mémoire, qui nous a permis de nous exprimer aussi librement que nous le souhaitions et qui nous a encouragé à aller au bout de notre démarche, tout en nous dispensant ses conseils. Par ailleurs, une partie de l’analyse empirique de ce mémoire a pu être réalisée grâce aux conseils avisés de Monsieur Hervé Alexandre. Nous ne saurions être complets sans remercier Monsieur Sofiane Aboura, dont l’avis sur les modèles alternatifs à la loi normale nous a été précieux.
  3. 3. 3    Sommaire   INTRODUCTION................................................................................................................................... 7  I/ DE LA DOMINANCE DE L’ORDRE …........................................................................................... 7  II/ … A LA CONSTATATION DU CHAOS ET DU HASARD........................................................... 8  III/ LES HASARDS EN FINANCE...................................................................................................... 10  IV/ HASARDS ET CRISE FINANCIERE........................................................................................... 12  V/ CADRE D’ANALYSE..................................................................................................................... 13  PARTIE 1 : LE HASARD BROWNIEN.............................................................................................. 15  I/ PRESENTATION HISTORIQUE..................................................................................................... 15  1)  De la découverte d’un mouvement de la nature … .............................................................. 15  2)  … Aux premières modélisations mathématiques ................................................................. 16  3)  Formation finale du modèle.................................................................................................... 19  II/ THEORIES RELATIVES AU BON FONCTIONNEMENT DU MARCHE DANS UN UNIVERS BROWNIEN ......................................................................................................................................... 20  1)  La théorie moderne du portefeuille ....................................................................................... 20  a.  Hypothèses de base ............................................................................................................... 20  b.  L’attitude au risque................................................................................................................ 21  c.  Espérance et volatilité ........................................................................................................... 22  d.  La frontière de Markowitz ou frontière efficiente................................................................. 22  2)  L’hypothèse d’efficience du marché financier (HEM)......................................................... 23  a.  L’efficience allocationnelle................................................................................................... 24  b.  L’efficience organisationnelle............................................................................................... 24  c.  L’efficience opérationnelle.................................................................................................... 25  d.  L’efficience informationnelle................................................................................................ 25  3)  Le mouvement brownien est-il une martingale ? ................................................................. 27  a.  Définition de la martingale.................................................................................................... 27  b.  Mouvement brownien et martingale...................................................................................... 27  c.  La loi stable de Levy ............................................................................................................. 28  III/ DISTRIBUTION GAUSSIENNE : DEFINITION ET APPLICATION AU S&P100 ET AU FTSE 100......................................................................................................................................................... 29  1)  La découverte historique de la distribution gaussienne : un poète et un biologiste. ......... 29  2)  Présentation de la loi normale centrée réduite et interprétation des valeurs extrêmes .... 31  a.  Le FTSE 100 ......................................................................................................................... 33  b.  Le S&P 100 .......................................................................................................................... 34 
  4. 4. 4    3)  Interprétation des paramètres de forme ............................................................................... 35  a.  Calcul du coefficient de corrélation et loi normale empirique .............................................. 35  b.  Les paramètres de forme : le skewness et le kurtosis ............................................................ 36  c.  L’entropie.............................................................................................................................. 36  4)  Introduction au chaos déterministe. ...................................................................................... 37  IV/ CRITIQUE DU MOUVEMENT BROWNIEN ET DE LA LOI NORMALE............................... 39  1)  La leptokurticité de la loi normale......................................................................................... 39  a.  Erreurs de simplification ....................................................................................................... 39  b.  Les travaux de Mandelbrot sur la géométrie fractale ............................................................ 40  c.  Application à la finance......................................................................................................... 41  2)  Irrationalité des agents et inefficience des marchés ............................................................. 42  a.  Les apports de la finance comportementale .......................................................................... 42  b.  La mise en évidence d’anomalies.......................................................................................... 45  3)  Le « Virus B » .......................................................................................................................... 46  VI/ CONCLUSION : L’HYPOTHESE DES MARCHES COHERENTS ........................................... 47  1)  Définition et caractéristiques.................................................................................................. 47  2)  Limites du modèle ................................................................................................................... 49  PARTIE 2 : LE HASARD SAUVAGE................................................................................................. 50  I/ PRESENTATION.............................................................................................................................. 50  1)  Le hasard selon Benoit Mandelbrot....................................................................................... 51  2)  La nécessité de dompter le hasard sauvage........................................................................... 52  3)  Quel(s) modèle(s) utiliser ? ..................................................................................................... 54  II/ THEORIES ET PRESENTATION DES MODELES ALTERNATIFS A LA LOI NORMALE.... 55  1)  Effets Joseph et Noé ................................................................................................................ 55  a.  L’effet Joseph ou effet de persistance ................................................................................... 55  b.  L’effet Noé ou effet de discontinuité brutale......................................................................... 56  2)  La théorie des valeurs extrêmes............................................................................................. 56  a.  Théorème des valeurs extrêmes............................................................................................. 56  b.  Application empirique........................................................................................................... 57  c.  Pour conclure......................................................................................................................... 60  3)  La loi de Levy........................................................................................................................... 61  a.  Présentation ........................................................................................................................... 61  b.  Application empirique........................................................................................................... 61  4)  Utilisation d’une série en expansion de Gram-Charlier ...................................................... 63  5)  Que conclure sur ces méthodes ? ........................................................................................... 64 
  5. 5. 5    III/ FRACTALES.................................................................................................................................. 65  1)  Hypothèses de bases ................................................................................................................ 65  a.  L’hypothèse de fractalité des marchés .................................................................................. 65  b.  Principe d’échelle, invariance d’échelle et autosimilarité..................................................... 66  c.  Relation entre dimension et fractalité.................................................................................... 68  2)  Les objets fractals.................................................................................................................... 68  a.  L’attracteur de Lorenz........................................................................................................... 68  b.  Représentation graphique...................................................................................................... 69  3)  Les fractales selon Benoît Mandelbrot .................................................................................. 70  a.  Le modèle M1963 unifractal ................................................................................................. 70  b.  L’apport du modèle M1965 : le phénomène de Hurst........................................................... 73  c.  Le modèle multifractal : introduction au temps boursier ...................................................... 74  4)  Les vagues d’Elliott ................................................................................................................. 76  a.  Définition............................................................................................................................... 76  b.  Les 7 règles d’or des vagues d’Elliott ................................................................................... 77  c.  Caractéristiques des vagues................................................................................................... 78  d.  Les vagues de correction ....................................................................................................... 79  e.  Application empirique........................................................................................................... 81  5)  Le générateur de Mandelbrot................................................................................................. 81  a.  Définition et utilisation du pont brownien............................................................................. 82  b.  Constructions auto-affines diagonales................................................................................... 82  c.  Notre proposition................................................................................................................... 83  IV / CRITIQUE ET LIMITES DES MODELES ALTERNATIFS A LA LOI NORMALE................ 85  1)  Limites techniques................................................................................................................... 85  2)  L’analyse technique ou l’apologie du « chamanisme » ........................................................ 85  3)  « L’imposture des vagues d’Elliott » ..................................................................................... 86  V/ CONCLUSION : QUEL AVENIR POUR LE HASARD SAUVAGE ET LES MODELES NON- GAUSSIEN ? ........................................................................................................................................ 88  PARTIE 3 : TENTATIVE DE DEMONSTRATION D’UN ETAT CHAOTIQUE............................. 89  I/ Récapitulatif des preuves et des conditions d’apparition du chaos.................................................... 89  1)  Introduction à la théorie du chaos ......................................................................................... 89  2)  Le test BDS............................................................................................................................... 90  II/ L’exposant de Lyapunov .................................................................................................................. 93  1)  Présentation de l’exposant de Lyapunov .............................................................................. 93 
  6. 6. 6    2)  Calcul avec l’embeding dimension et l’embeding delay et la méthode des false nearest neighbours........................................................................................................................................ 94  a.  Calcul de l’exposant de Lyapunov sur des petites séries temporelles................................... 95  b.  Calcul itératif de l’exposant de Lyapunov sur une plus grande série, et limites de l’algorithme de Rosenstein............................................................................................................ 96  III/ Construction d’un attracteur............................................................................................................ 98  IV/ La prévision d’une série temporelle chaotique de Mackey-Glass avec le réseau de neurones, et tentative d’application au cours de bourse .......................................................................................... 100  1)  Série temporelle de Mackey-Glass ...................................................................................... 100  2)  Application avec un réseau de neurone............................................................................... 101  3)  Tentative d’application au cours réel. ................................................................................. 103  V/ QU’EN CONCLURE ? .................................................................................................................. 105  CONCLUSION ................................................................................................................................... 106  I/ CONCLUSION GENERALE.......................................................................................................... 106  II/ POUR ALLER PLUS LOIN .......................................................................................................... 107  BIBLIOGRAPHIE .............................................................................................................................. 109  ANNEXES .......................................................................................................................................... 113   
  7. 7. 7    INTRODUCTION I/ DE LA DOMINANCE DE L’ORDRE …   “Order generally was a product of human activity. Chaos existed as a raw material from which to create order” – Frank Herbert, Chapterhouse: Dune. Au fil des siècles, le concept d’ordre a évolué. Dans la plupart des religions anciennes ou actuelles, il est instauré par une force supérieure à l’Homme. Le développement des sciences et mathématiques a impulsé une nouvelle vision de ce concept, à l’opposé de la vision « mystique » établie de longue date ; sans toutefois renier la puissance de la religion. Pour citer Galilée, l’un des pionniers en la matière, « Dieu a écrit le livre de l'univers en langue mathématique ». De nombreux scientifiques vont orienter leurs travaux sur cette question. Ainsi, Galilée, puis René Descartes, Christian Huygens ou encore Isaac Newton ont édifié une nouvelle physique géométrique. Les lois régissant la physique ne sont rien de plus que l'expression mathématique de rapports nécessaires et constants entre des grandeurs variables, mesurables. La loi établit « un lien permanent, impossible à rompre, entre des grandeurs variables », énonce Max Planck, le fondateur de la physique quantique. En effet, l’interprétation que l’homme se fait des phénomènes naturels tend systématiquement vers la standardisation et l’uniformisation, et en un mot la normalité. Si nous observions les feuilles des arbres, nous y verrions des millions de versions identiques du même objet. Il en serait de même si nous étudions les flocons de neige, les grains de sable, etc. C’est cette observation qui faisait dire à John Hubbard que « en biologie, le hasard, c’est la mort, le chaos, c’est la mort »1 . Depuis lors et jusqu’à aujourd’hui, des centaines de scientifiques se sont penchés, et s’interrogent encore, sur les origines de notre monde, de notre univers et tentent de déterminer les lois qui les régissent afin qu’ils puissent fonctionner. Cette vision de l’ordre, ou mouvement déterminisme, ne laisse que peu de place à la notion de hasard.                                                              1 Hubbard, John. In Gleick, James. La théorie du chaos, Flammarion, 1987.
  8. 8. 8    II/ … A LA CONSTATATION DU CHAOS ET DU HASARD   La réalité doit cependant être nuancée : tout ne peut pas être régit et prédéterminé par des lois. Le monde ne pouvant être en situation de déséquilibre, l’ordre et la certitude doivent être contrebalancés par le désordre (nous privilégierons cependant le terme de chaos) et le hasard. Pour bon nombre de sociétés traditionnelles anciennes, l’un ne peut vivre sans l’autre ; l’ordre trouvant son origine dans le chaos. On peut, par exemple citer le poète grec Hésiode, qui dans La Théogonie, décrit les origines du monde comme suit : « Au commencement était le Chaos d'où sont issus le Ciel et la Terre, qui, en s'unissant l'un à l'autre, ont engendré le monstre Cronos. Cronos dévorait ses propres enfants au fur et à mesure de leur naissance. […] Zeus finit par triompher de son père et de la race des géants et des Titans; il s'imposa en maître et instaura le règne olympien de la justice et de l'ordre parmi les dieux et les hommes. Ainsi commence l'histoire du monde qui se confond avec l'histoire des dieux. » Au sein de ces sociétés, l’ordre est établi par une force bénéfique qui triomphe du mal ; et qui met en place un système visant à punir ceux qui tenteraient de transgresser, voir même de renverser l’ordre établi. L’ordre ne trouve pas son origine dans la volonté des hommes, mais il résulte d’une puissance divine qui s’impose à l’être humain. Cette vision des choses va cependant être repensée, notamment par Platon et Aristote qui soutiennent que l’Intelligence est la base même de l’ordre. Le désordre, quant à lui, émanerait d'une "cause errante" obscure, enfouie dans ce monde sensible, qui empêche la nécessité divine d'être parfaitement efficiente. En forgeant le concept de "matière", Aristote détermine, avec plus de précision que son mentor, cette résistance de la nature à réaliser un ordre parfait. Il soutient que le désordre du monde visible et sensible cache un ordre intelligible, visible à la seule intelligence, et notamment à une intelligence mathématique. Cependant, la notion de chaos ne présuppose pas nécessairement une anarchie totale. En effet, il existe des structures naturelles hétéroclites en apparence, qui sont régies par des règles. On peut penser à l’auto-détermination (ou anarchie) qui ne veut pas dire absence de règles, mais absence de leader2 .                                                              2 “Anarchy means "without leaders", not "without order". With anarchy comes an age or ordnung, of true order, which is to say voluntary order... This is not anarchy, Eve. This is chaos.” In V for Vendetta, by Alan Moore.
  9. 9. 9    Pour citer Nietzsche, "Le préjugé foncier est de croire que l'ordre, la clarté, la méthode doivent tenir à l'être vrai des choses, alors qu'au contraire, le désordre, le chaos, l'imprévu, n'apparaissent que dans un monde faux ou insuffisamment connu, --bref sont une erreur ; c'est là un préjugé moral, qui vient de ce que l'homme sincère, digne de confiance, est un homme d'ordre de principes, et a coutume d'être somme toute, un être prévisible et pédantesque."3 . Nietzsche est l’un des premiers à soutenir l’idée selon laquelle il pourrait y avoir de l’équilibre dans le déséquilibre, de l’organisation dans la désorganisation. Le hasard, notion difficile à définir, pourrait avoir un rôle à jouer dans la manière dont s’organise le monde. Aristote, par exemple, propose une définition de ce phénomène qui peut sembler peu convaincante : « le hasard, ni rien de ce qui vient du hasard ne peut être la cause des choses qui sont nécessairement et toujours ou des choses qui arrivent dans la plupart des cas », en clair le hasard ne peut être le fruit que du hasard. Cette définition va influencer celle donnée par Antoine-Augustin Cournot et qui définit le hasard comme la “rencontre de deux séries causales indépendantes”. Toute la difficulté, outre celle liée à la définition, est de savoir comment mesurer le hasard et de déterminer quel est son impact sur l’ordre des choses. Avec le temps, des moyens de modélisation du hasard vont émerger : les statistiques et les probabilités vont permettre de mettre en place une analyse plus affinée du monde en tenant compte des effets du hasard ; la logique de ces outils étant fondée sur un raisonnement en moyenne.                                                              3 Nietzsche, Friedrich. Wille zur Macht, La volonté de puissance, 1888.
  10. 10. 10    III/ LES HASARDS EN FINANCE   Le hasard va donc être pris en compte dans tous les domaines, qu’il s’agisse des activités de la vie quotidienne, de la météorologie4 , de la gestion, ou encore de la finance qui sera le cadre de notre analyse. En finance, le hasard peut être caractérisé par le risque, c’est-à-dire la volatilité. En investissant, on réalise une opération tout en prenant en compte le fait que cela puisse échouer du fait d’éléments imprévus. Cependant, le risque ne peut être pris sans l’espérance d’une compensation et plus le risque croît, plus la rémunération liée au risque augmente. En réalité, il apparait que le risque n’est pas unique, mais qu’il en existe deux types aux dénominations variables, dont nous retiendrons les suivantes pour notre analyse : le hasard brownien (ou bénin) et le hasard sauvage. Ces deux formes de hasard, ne vont être présentées que très brièvement ici, dans la mesure où leur opposition constitue le cœur de notre réflexion. Pour le hasard bénin, quand le nombre d'observations augmente, les fluctuations sont de moins en moins importantes, la loi est gaussienne et le présent est indépendant du passé considéré comme suffisamment éloigné pour être sans impact. C’est sur cette logique que reposent les modèles financiers dominants actuels. Ils supposent que les grandes variations, à la hausse ou à la baisse, sont assez marginales pour ne pas être intégrées au processus de prévision. Ce hasard suppose un ordre et une logique mathématiques établis et inébranlables, ce qui lui vaut aussi l’appellation de hasard sage.                                                              4 Le météorologiste Edward Lorenz est le premier à avoir constaté l’existence d’un hasard sauvage. Lorenz travaillait au MIT dans le service de prévision météorologique. Il se servait d’un Royal McBee sur lequel il avait entré douze équations capables de décrire les mouvements des vents dans l’atmosphère. Le système ainsi constitué était purement déterministe, et les lois mathématiques décrivaient exactement le chemin que devraient emprunter le vent, sous forme de grandes plages de chiffres. Un jour, au lieu de recommencer un calcul depuis le début, il le commença à mi-chemin en entrant comme valeur de la condition initiale une valeur trouvée auparavant. En comparant les nouveaux résultats avec ceux déjà calculé, il s’aperçu que les mouvements étaient identiques au début, puis peu à peu divergeaient. La prévision à un mois était totalement différente de la précédente. En fait, il avait arrondi les valeurs lorsqu’il a commencé l’expérience, et une petite différence d’un centième avait créé un objet totalement différent, à base d’un système déterministe. C’est ainsi qu’il observe pour la première fois ce qui va s’appeler la sensibilité aux conditions initiales (que Poincaré avait déjà remarqué), ou théorie du chaos. 10 ans plus tard, Lorenz animera une conférence à l’American Association for the Advancement of Science, qu’il intitule: “Predictability: Does the Flap of a Butterfly's Wings in Brazil Set off a Tornado in Texas”. En fait, Lorenz se demande : si la configuration décrite par le titre de la conférence était possible, que se passerait-il si le papillon battait plus tôt, ou à un autre endroit ?
  11. 11. 11    A l’extrême opposé se trouve le hasard sauvage qui prend en compte les fluctuations extrêmes. Ces dernières ne sont peut-être pas aussi marginales que le présuppose la théorie dominante. Cette forme de hasard intègre la logique selon laquelle les marchés financiers ont une mémoire et que les évènements sont appelés à se répéter et qu’ils répondent à une certaine logique. Cette notion de hasard sauvage théorisée par Benoit Mandelbrot, tout comme son utilisation, reste encore très marginale auprès des acteurs de la finance moderne, qui considèrent les hypothèses de base de cette logique comme relevant du « chamanisme ». De même que Nietzsche défendant l’idée d’ordre dans le désordre, tous les défenseurs du concept de hasard sauvage soutiennent l’idée qu’il est dicté par des règles : c’est ce qui poussera Nassim Nicholas Taleb à utiliser l’expression « d’incertitude sauvage mais domesticable ».5                                                              5 Taleb, Nassim Nicholas. Le Hasard Sauvage. Des marchés boursiers à notre vie : le rôle caché de la chance, Les Belles Lettres, 2005.
  12. 12. 12    IV/ HASARDS ET CRISE FINANCIERE   Bien que toujours dominante, la théorie brownienne a cependant été vivement critiquée suite à la crise financière. L’une des critiques les plus virulentes que nous avons retenues est celle développée dans le livre Le Virus B : crise financière et mathématiques de Christian Walter et Michel de Pracontal. Pour les auteurs, l’une des causes de la crise réside dans les outils utilisés, qui sous estiment les risques réels et qui consignent les acteurs des marchés financiers dans une logique de prévisions faussées. Ils élaborent au cours de leur ouvrage une métaphore filée de la maladie. Considéré comme un virus qui se propage dans les cercles financiers d’abord aux USA puis au reste du monde, les vecteurs du virus B (à savoir les actifs toxiques valorisés à partir d’un mouvement Brownien) finissent de contaminer le monde par la crise financière systémique et la contagion à l’économie réelle. Ils constatent ainsi qu’une quarantaine de maisons de Fontana (Californie), abandonnées par leurs occupants et saisis par les banques, sont la propriété de Deutsche Bank et IKB.  La thèse des auteurs est que les outils mathématiques qui dominent la finance ont « cristallisé une conception particulière des phénomènes financiers ». L’utilisation du mouvement brownien dans ces modèles a sous-estimé le risque financier. Le phénomène a été d’autant amplifié qu’ils étaient promus par une pléiade de prix Nobel : Paul Samuelson, Harry Markowitz, Myron Scholes, Fischer Black et Robert Merton, etc… Par exemple, les agences de notation telles que Moody's et Standard and Poors utilisent le modèle KMV qui dérive de la loi normale. Mais puisque les lois browniennes entrainent une sous-estimation du risque, des titres notés AAA auraient été surestimés. Pour montrer cette surestimation, deux universitaires de Lyon-I, François Quittard-Pinon et Oliver Courtois ont recalculé avec un modèle de Pareto-Lévy les probabilités de défaut établies par Moody's entre 1920 et 1996. Il s'avère que le risque a été sous-estimé d'un facteur 5, et que les résultats obtenus sont beaucoup plus proches des données réellement observées. A leur manière, nous avons souhaité discuter de la pertinence du « diktat » du modèle brownien en finance. Par ailleurs, notre mémoire aura l'ambition de proposer plusieurs alternatives à travers des lois de probabilités et la méthode fractale. Notre but est double : montrer les limites du modèle brownien tel qu'on l'utilise en finance et proposer des alternatives non browniennes quantitatives et qualitatives.
  13. 13. 13    V/ CADRE D’ANALYSE   Notre démarche ne se contentera pas d’analyser les avantages et inconvénients du hasard brownien et du hasard sauvage, opération qui ne présenterait qu’un intérêt très limité ; mais nous exposerons les différents modèles qui y correspondent et nous les appliquerons à des données empiriques, avant d’en retirer les conclusions qui s’imposeront à nous. Notre mémoire se basera donc sur une analyse comparée de deux indices, le premier représentatif du marché européen et le second représentant le marché américain. La gestion indicielle s’est fortement développée au cours des années 70, notamment suite aux travaux sur la théorie moderne du portefeuille de Markowitz et ceux sur l’efficience de Fama. La logique des indices est de répliquer au mieux le marché. Ce type de gestion repose sur l’hypothèse que les marchés sont parfaitement efficients et suivent une logique brownienne. Au cours de notre mémoire, nous analyserons un portefeuille indiciel composé des valeurs du S&P 100 et du FTSE 100 (aussi appelé Footsie). Dans le cadre de notre analyse, il nous est apparu pertinent d’utiliser deux indices fortement représentatifs de l’économie mondiale et qui présentent un certain nombre de caractéristiques communes et notamment le nombre et la taille des sociétés représentée. Le S&P 100 est un indice composé des cent plus grandes sociétés américaines (Apple, Exxon, AT&T, FedEx …). Le FTSE 100 est quant à lui composé des cent principales compagnies britanniques (Royal Dutch Schell, HSBC, Tesco, Unilever …). L’observation de l’évolution de ces deux indices, du fait de leur poids à l’échelle mondiale, permet d’avoir une image relativement peu biaisé de la santé de l’économie mondiale. Ainsi, si l’on, étudie l’évolution du FTSE 100 sur les dix dernières années, on peut distinguer trois grandes tendances : - De 2003 à mi 2007, l’indice croît fortement passant de près de 3600 points à plus de 6500 points ; - Entre 2007 et le premier trimestre 2009, la valeur de l’indice chute fortement et passant même sous la barre des 4000 points fin 2008 ; pour la première fois depuis 4 ans ; - Depuis 2009, le cours du FTSE est reparti à la hausse, atteignant les 6260 points le 8 février 2013 ; avec cependant une baisse en 2011.
  14. 14. 14    Cette évolution peut être corrélée avec la croissance du PIB sur la même période, d’après les données de la Banque Mondiale : - Jusqu’en 2007, la croissance du Royaume-Uni reste relativement stable, entre 2,5 et 4% par an ; - En 2008, elle chute fortement et est enregistrée à -1% avant de plonger à -4% en 2009 ; - On constate un net regain en 2010, puisque la croissance remonte à 1,8%. Cependant elle ralentit l’année suivante, se situant à 0,8%. Il semble donc y avoir une forte corrélation entre le niveau et l’évolution du FTSE 100 et la santé de l’économie britannique. Le constat est le même si l’on choisit de faire la même étude sur le S&P 100 et l’économie américaine. De plus, la corrélation entre les deux indices est, elle aussi, bien présente. C’est cet ensemble d’information qui nous amène à la problématique suivante : La crise actuelle ayant montré les limites des modèles mathématiques utilisés, qui ont tendance à sous-estimer les risques, peut-on proposer d’autres modèles permettant de modéliser le marché, en prenant en compte les événements rares ? Après avoir mené une analyse des marchés financiers dans un univers brownien à travers l’étude du FTSE 100 et du S&P 100, nous les étudierons dans le cadre du hasard sauvage en proposant des alternatives aux modèles gaussiens ; et enfin, nous conclurons en essayant de prolonger la notion de hasard sauvage en introduisant la théorie du chaos, et ce afin de tenter de démontrer l’existence ou non d’un état chaotique.
  15. 15. 15    PARTIE 1 : LE HASARD BROWNIEN I/ PRESENTATION HISTORIQUE   Comme nous l’avons évoqué lors de l’introduction le mouvement brownien est la logique dominante dans la finance actuelle. Avant de nous plonger d’avantage dans l’étude des hypothèses sous-jacentes, notamment la rationalité des agents et l’efficience des dits marchés, et des modèles mathématiques correspondant, il nous semble important de dresser un bref historique de cette approche ; et ce afin de comprendre comment elle s’est imposée et d’identifier ceux qui en ont été les promoteurs. 1) De la découverte d’un mouvement de la nature … Tout d’abord, qu’est-ce qu’un mouvement brownien ? Originellement, il provient d’une découverte du botaniste écossais Robert Brown, datant de 1827. Notons au passage qu’à l’instar du hasard sauvage émanant des travaux du météorologiste Edward Lorenz en 1961, le hasard brownien trouve son origine dans les observations de la nature. En 1827 donc, Robert Brown6 s’intéresse à l’action du pollen dans la reproduction des plantes. Pour ce faire, il observe le mouvement irrégulier et incessant de particules en suspension dans le liquide du pollen. Il apparait qu’une « grosse » particule suit un mouvement très irrégulier du seul fait de frictions avec des particules plus petites. Deux éléments ressortent de cette étude : ‐ Entre deux chocs, la « grosse » particule se déplace de manière linéaire et à vitesse constante ; ‐ En cas de choc, avec une autre particule ou la paroi du contenant, la « grosse » particule accélère. Du point de vu d’un scientifique, l’observation de ce mouvement a permis de comprendre le caractère thermodynamique des gaz ou encore le phénomène de diffusion de la matière, c’est-                                                              6 Brown, Robert. A brief account of microscopical observations on the particles contained in the pollen of plants; and on the general existence of active molecules in organic and inorganic bodies, 1928, (http://www.physik.uni-augsburg.de/theo1/hanggi/History/Brownian.pdf)
  16. 16. 16    à-dire la tendance naturelle d'un système à rendre homogènes les concentrations des espèces chimiques en son sein. Rien à l’époque ne relie cette découverte à l’univers financier. Brown a donc découvert, ou plutôt redécouvert puisqu’il a lui-même reconnu que des travaux ayant le même objet avaient été antérieurement menés notamment par l’abbé John Turberville Needham près d’un siècle auparavant7 , le mouvement désordonné de particules en suspension dans un liquide. Bien que contestées durant tout le XXème siècle, les conclusions de Brown ont été revérifiées dans des conditions similaires au début des années 1990. Au moment de sa découverte, ce mouvement n’est pas qualifié de brownien et n’est absolument pas modélisé de manière mathématique : pour cela, il faudra attendre l’aube du XXème siècle et les travaux du mathématicien français Louis Bachelier. 2) … Aux premières modélisations mathématiques Né le 11 mars 1870, Louis Bachelier est considéré comme le père fondateur des mathématiques financières. Sa thèse, qu’il soutient le 29 mars 1900 sous la direction de Henri Poincaré, et intitulée Théorie de la spéculation, est à l’origine de l’introduction en finance du mouvement « découvert » par Brown, base de la majorité des modèles de détermination des prix, tel que le modèle de Black-Scholes pour ne citer que le plus fameux. Afin de nous faciliter la compréhension de cette thèse, nous nous sommes aidés d’une étude de Christian Walter8 . Livrons nous à un bref résumé de cette thèse, avant d’en analyser les résultats : ‐ « Les influences qui déterminent les mouvements de la bourse sont innombrables, des événements passés, actuels ou même escomptables, ne présentant souvent aucun rapport apparent avec ses variations se répercutent sur son cours ». Bachelier fait ici référence aux facteurs externes au marché tels que la politique ou l’économie. « A côté des causes en quelque sorte naturelles des variations interviennent aussi des causes                                                              7 Turberville Needham , John. New microscopical discoveries, 1745. 8 Walter, Christian. « Une histoire du concept d’efficience sur les marchés financiers », in Annales. Histoire, Sciences Sociales, 51ème année, 1996, pp ; 873-905, (http://www.persee.fr/web/revues/home/prescript/article/ahess_0395-2649_1996_num_51_4_410892)
  17. 17. 17    factices : la Bourse agit sur elle-même et le mouvement actuel est fonction, non seulement des mouvements antérieurs, mais aussi de la position de place ». Il énonce ici l’idée qu’il existe des variations auto-engendrées du marché. Ces deux axes sont à la base même des analyses contemporaines des marchés ; ‐ Dès l’introduction, Bachelier pose l’hypothèse qu’il « est possible d’étudier mathématiquement l’état statique du marché à un instant donné ; c’est-à-dire d’établir la loi de probabilité des variations de cours qu’admet à cet instant le marché ». Il suppose ainsi que la détermination dynamique du marché ne peut pas et ne sera jamais une science exacte. Il se propose donc de rechercher une formule capable d’exprimer la probabilité des mouvements sur un marché ; ‐ Après un rappel des différentes opérations de bourse que sont les opérations fermes et les opérations à prime, que nous ne développerons pas dans la mesure où elles ne sont pas au cœur de notre démarche, Bachelier se lance dans l’étude des probabilités des opérations de bourse. Pour lui, deux types de probabilités coexistent :  La probabilité mathématique déterminée a priori ;  La probabilité « dépendant de faits à venir », non prévisible mathématiquement et qui constitue toute la démarche des spéculateurs, qui vont chercher à définir tous les éléments pouvant impliquer une hausse ou une baisse. La démarche de Bachelier consiste à définir la loi de probabilité qui caractérise le marché à un instant donné, c’est-à-dire quand « le marché ne croit ni à la hausse, ni à la baisse » ; ‐ Il pose dès lors le principe d’espérance mathématique défini comme suit : « on appelle espérance mathématique d’un bénéfice éventuel le produit de ce bénéfice par la probabilité correspondante ». Cette espérance permet de définir si un investissement est avantageux ou non. Après une série d’exemples, il arrive à une conclusion qu’il juge fondamentale : « l’espérance mathématique du spéculateur est nulle » ; ‐ S’ensuit alors une série de démonstrations, qui mènent à l’expression définitive de la probabilité √ ² ² ‐ La représentation de cette loi est gaussienne ;
  18. 18. 18    ‐ Il a par la suite cherché à calculer ce qu’on appelle aujourd’hui le prix d’une option d’achat, ce qui sera repris par Black et Scholes ; La question qui se pose alors est de savoir comment relier la théorie de Bachelier au mouvement observé par Brown. En effet, l’idée première de Bachelier n’était pas de modéliser le mouvement brownien ; et c’est pourtant ce qu’il fait en introduisant les probabilités à l’étude des marchés financiers. Le rapprochement se fait puisque Bachelier justifie sa thèse en s’appuyant sur ce qu’il appelle l’hypothèse de rayonnement de la probabilité, dérivée de la loi de diffusion de la matière issue des travaux de Brown : « chaque cours rayonne, pendant l’élément de temps, vers le cours voisin, une quantité de probabilité proportionnelle à la différence de leur probabilité ... La loi qui précède peut par analogie avec certaines théories physiques être appelée la loi du rayonnement ou de diffusion de la probabilité » Bien que grandement tronquée et vulgarisée, notre étude de la thèse de Bachelier permet de mettre en avant les points fondamentaux qu’il a développé : ‐ Les marchés sont impactés par des facteurs macro-économiques ; mais ils ont aussi tendance à générer leurs propres variations. Ce doublon permet de caractériser deux types d’analyses : l’analyse fondamentale et l’analyse technique ; ‐ Bachelier soutient la non-prévisibilité des rentabilités futures : il ne cherche donc pas à prévoir l’émergence d’un évènement mais à déterminer la probabilité qu’il a de se réaliser. De ce fait, il s’inscrit dans une démarche de loi de Gauss, où l’on suppose que les variations extrêmes sont assez rares pour être négligées ; ‐ Il introduit l’idée de marches aléatoires en temps continu. Bachelier n’avait pas saisis le lien entre ses travaux et le mouvement brownien. Son point de vue sera récusé par Benoît Mandelbrot qui considère que les crises économiques ne peuvent être prédites par le modèle de Bachelier. Suite aux travaux de Bachelier, qui après avoir été critiqués pendant très longtemps sont aujourd’hui reconnus comme dominants en finance, de nombreux physiciens vont les poursuivre. Brièvement, on peut en citer deux dont les travaux sont essentiels : ‐ Albert Einstein donne, en 1905, une description quantitative du mouvement brownien ; travail qui permit au français Jean-Baptiste Perrin de démontrer l’existence
  19. 19. 19    des atomes. Einstein démontre que les incréments [X(t + г) - X(t)] du mouvement brownien sont des variables aléatoires qui suivent une loi de Gauss ; ‐ Paul Langevin qui trois ans plus tard propose une équation décrivant la marche aléatoire de particules en suspension dans un liquide, et donc du mouvement brownien. 3) Formation finale du modèle Comme nous l’avons vu précédemment, Louis Bachelier a été le premier à appliquer, de manière involontaire, le mouvement brownien à la finance. En 1923, sous l’impulsion de l’américain Norbert Wiener9 , le mouvement brownien quitte le monde de la physique pour plonger dans celui de la finance dont il deviendra l’un des piliers. Wiener arrive à la conclusion suivante : le mouvement brownien mathématique est une fonction du temps (noté t) ; cette fonction X(t; ω) dépend d’un paramètre ω qui modélise le rôle du hasard dans la construction. Le paramètre ω est, en fait, une suite (ω1; ω2; ω3;..; ωn; :::) de nombres réels "tirés au hasard” de façon indépendante et selon une loi de Gauss ; chacun de ces "tirages” définit alors une trajectoire X(t; ω) du mouvement brownien. La dernière étape de la définition du modèle date de 1933 et est le fruit du mathématicien français Paul Levy. Il démontre que le mouvement brownien est un cas particulier de martingale, notion qui sera développée plus loin dans la partie. En 1948, il publie le premier ouvrage consacré au mouvement brownien (il est par ailleurs à l’origine de cette appellation), Processus stochastiques et mouvement brownien. Les travaux de Paul Levy relatifs à la loi stable et aux martingales seront développés dans la suite de la partie. Longtemps critiquée, la thèse de Bachelier trouve un souffle nouveau avec les travaux du soviétique Andreï Kolmogorov en 193110 .                                                              9 Wiener, Norbert, Differential Space, 1923 10 Article paru dans Mathematische Annalen, 1931
  20. 20. 20    II/ THEORIES RELATIVES AU BON FONCTIONNEMENT DU MARCHE DANS UN UNIVERS BROWNIEN   Un marché supposé suivre un mouvement brownien doit répondre à deux principes fondamentaux qui assurent son bon fonctionnement : le marché doit être efficient et les agents qui agissent sur ce marché doivent être rationnels. C’est la base même de la théorie financière moderne. La théorie de l’efficience des marchés est un concept « né » à la fin des années 1950, notamment sous l’impulsion des travaux d’Harry Markowitz et de James Tobin. On attribue cependant à l’américain Eugène Fama la paternité de cette hypothèse notamment du fait de 3 articles, considérés comme fondateurs, parus en 196511 , en 197012 et 199113 . 1) La théorie moderne du portefeuille Il s’agit là d’une théorie fondamentale développée en 1952 par Harry Markowitz14 . Son postulat de départ est le suivant : le risque d’un portefeuille peut être parfaitement mesuré par la variance de sa rentabilité. En découle alors un dilemme à la base même de la décision financière : obtenir une rentabilité certaine mais faible, ou accroitre son risque afin d’en retirer une rentabilité supérieure. a. Hypothèses de base La théorie moderne du portefeuille repose sur deux hypothèses fondamentales : - Premièrement, les marchés d’actifs sont supposés efficients, c’est-à-dire que les cours intègrent immédiatement la totalité des informations disponibles. Cette hypothèse sera d’avantage développée par la suite avec notamment les travaux d’Eugène Fama ; - La seconde hypothèse est l’aversion au risque des investisseurs. Cette dernière provient des travaux du mathématicien suisse Daniel Bernoulli et du Paradoxe de Saint-Pétersbourg qu’il énonce en 173815 . Brièvement, ce concept pose l’idée que les                                                              11 Fama, Eugène. The behavior of stock Market Prices, Journal of Business, 1965 12 Fama, Eugène. Efficient Capital Markets: A Review of Theory and Empirical Work, Journal of Business, 1970 13 Fama, Eugène. Efficient Markets: II, Journal of Business, 1991 14 Markowitz, Harry. Portofolio Selection, The Journal of Finance, vol.7, n°1, Mars 1952, pp. 77-91, (http://www.math.ust.hk/~maykwok/courses/ma362/07F/markowitz_JF.pdf) 15 Bernoulli, Daniel. Specimen theoriae novae de mensura sortis, Théorie sur la mesure du risque, 1738
  21. 21. 21    investisseurs sont disposés à prendre un risque plus élevé si et seulement si, ils obtiennent une rémunération plus élevée. Bien entendu, le rapport risque/rentabilité acceptable est propre à chaque agent. b. L’attitude au risque La théorie financière suppose usuellement que l’utilité d’un agent, d’un investisseur est représentée par une fonction quadratique, croissante et concave de la forme ² avec b > 0 (W représente la richesse de l’agent). L’aversion absolue au risque des agents augmente avec le niveau de richesse. La fonction d’utilité permet de « convertir » les espérances de richesses en espérance d’utilité. L’investisseur ne prend pas ses décisions que sur la base du critère de l’espérance de gain. La concavité de la fonction indique que : - L’investisseur est hostile au risque ; - L’utilité est croissante par rapport à la richesse. Le second pilier explicatif est la présence de courbes d’indifférences. Une courbe d’indifférence est le lieu des portefeuilles procurant le même niveau d’utilité à son possesseur, quels que soient leurs niveaux de risque et de rentabilité. Une augmentation du risque doit intuitivement être accompagnée d'une augmentation de l'espérance de manière à laisser la satisfaction inchangée. Le portefeuille optimal est donc celui qui maximise l’utilité et qui rend le portefeuille indifférent au risque. L’hostilité au risque justifie que l’investisseur demande une compensation pour placer son épargne sur un support plus risqué. Cette compensation est la prime de risque, définie par , ² avec U (E(X)) qui représente l’utilité d’une somme juste égale à l’espérance de gain du jeu. La prime de risque est donc le montant qu’il faut ajouter à l’espérance de gain pour la rendre équivalente, aux yeux de l’investisseur hostile au risque, au même montant perçu avec certitude
  22. 22. 22    c. Espérance et volatilité Dans les conditions que l’on vient de voir, seul le rendement attendu, caractérisé par l’espérance de gain, et la volatilité, représentée par l’écart-type, sont pris en compte par les agents dans leurs décisions d’investissement. L’investisseur ne tient pas compte de la distribution des gains ou de l’investissement initial. Comment représenter le rendement du portefeuille et sa volatilité ? - Le rendement du portefeuille n’est rien d’autre que la combinaison linéaire de celui des actifs qui le composent, pondérés par leur poids dans ledit portefeuille. Mathématiquement, il est représenté par la formule de l’espérance : ∑ ; - La volatilité du portefeuille, quant à elle, est fonction de la corrélation entre les actifs qui la composent. La volatilité est représentée par l’écart-type, à savoir la racine carrée de la variance notée : ² ∑ ∑ d. La frontière de Markowitz ou frontière efficiente Chaque couple d’actifs peut être représenté dans un graphique risque/rendement.
  23. 23. 23    L’objectif peut être vu de deux façons : - Maximiser le rendement pour un niveau de risque donné ; - Minimiser le risque pour un niveau de rendement donné. Tous les portefeuilles composant la frontière efficiente sont ceux se situant au dessus du portefeuille de variance minimale, c'est-à-dire les actifs risqués qui présentent un niveau de risque minimal. L’introduction d’un actif sans risque, caractérisé par son absence de corrélation avec les actifs risqués, permet de définir le portefeuille le mieux diversifié. Graphiquement, ce portefeuille correspond au point de tangence entre la frontière de Markowitz et la Capital Market Line, dont l'équation est la suivante : . Cette équation donne, pour un niveau de risque connu, le surplus de rentabilité par rapport à l’actif sans risque. La frontière efficiente peut donc se résumer en deux points : - Il est impossible d’accroitre sa rentabilité sans augmenter la prise de risque ; - Pour un niveau de risque donné, un investisseur ne choisira jamais un portefeuille à rentabilité sous-optimale. 2) L’hypothèse d’efficience du marché financier (HEM) Cette hypothèse fondamentale dans la logique financière actuelle a été développée par l’économiste américain Eugène Fama à partir du milieu des années 1960. En réalité, les travaux de Fama portent sur l’efficience informationnelle. Or, il existe en réalité quatre autres sortes d’efficience : la frontière d’efficience (que nous avons déjà développé avec les travaux de Markowitz), l’efficience allocationnelle, l’efficience organisationnelle et l’efficience opérationnelle.
  24. 24. 24    a. L’efficience allocationnelle Il s’agit là de la définition néoclassique de l’efficience. Cette dernière a été développée par l’économiste italien Vilfredo Pareto. Selon cette thèse, l’équilibre efficient est atteint lorsqu’il n’est pas possible de maximiser l’utilité d’un agent sans diminuer celle d’un autre. Les travaux de Pareto ont donc conduit à la mise en place d’une allocation optimale des ressources. Cette thèse suppose donc que le marché a la capacité d’orienter les flux d’investissement vers les actifs les plus productifs. Bien entendu, si cet actif rapporte d’avantage c’est qu’il est plus risqué et que le choix des investisseurs se fait en toute connaissance des risques. Si l’actif risqué ne rapportait pas plus que le non-risqué, les agents n’auraient donc aucun intérêt à investir dedans ; à moins que diverses raisons stratégiques ne les y poussent. b. L’efficience organisationnelle Cette hypothèse repose sur la recherche d’un modèle de marché optimal. La question est de savoir quelle organisation est optimale : le monopole, la concurrence pure et parfaite, l’oligopole … Dans un marché en situation de concurrence pure et parfaite, les prix sont générés par le marché. Cette théorie repose sur un certain nombre de conditions exposées par Franck Knight en 192116 : ‐ Pour être pure, la concurrence doit remplir trois critères : o L’atomicité : le nombre de vendeurs et d’acheteurs doit être très grand ; o L’homogénéité des produits : les biens échangés doivent être identiques et donc interchangeables ; o La transparence de l’information : tous y ont accès, elle est gratuite et immédiate. ‐ Pour être parfaite, la concurrence doit remplir deux critères : o La libre entrée et sortie du marché ; o La libre circulation des facteurs de production.                                                              16 Knight, Franck. Risk, Uncertainty and Profit, 1921
  25. 25. 25    Cependant, dans la réalité, ces conditions ne sont que très rarement remplis et d’autres formes d’organisations sont envisageables : ‐ Le monopole où les prix sont fixés par le monopole lui-même17 ; ‐ Introduction de phénomènes oubliés : la différenciation des produits, concentration, barrières à l’entrée18 ; ‐ Les marchés oligopolistiques19 . c. L’efficience opérationnelle Elle est reliée aux coûts des transactions. Les marchés sont jugés efficients si les coûts de transaction générés par les transferts sont maintenus raisonnables. d. L’efficience informationnelle Ce concept est défini en 1970 par Fama avant d’être remplacé par une définition moins rigide de Jensen en 197820 comme suit : « sont maintenant réputés efficients, les marchés sur lesquels les prix des actifs cotés intègrent les informations les concernant de telle manière qu’un investisseur ne peut, en achetant ou vendant cet actif, en tirer un profit supérieur aux coûts de transactions engendrés par cette action». Un marché est jugé informationnellement efficient si : ‐ La prévision n’est pas profitable ; ‐ La compétition entre les prévisionnistes fait disparaitre les opportunités de profit ; ‐ Le travail des prévisionnistes donne un sens aux cours. Selon Fama et son hypothèse d’efficience du marché financier, un marché est efficient quand les prix d’équilibre à un moment donné reflètent intégralement l’ensemble des informations disponibles. L’information doit être diffusée de manière simultanée et gratuite auprès de tous les agents et ils doivent être capables d’agir sur le marché en fonction de cette information.                                                              17 Sraffra, Pierro. The laws of return under competitive conditions, The economic Journal, 1926 18 Robinson, Joan. Economics of imperfect competition, Cambridge, 1933 19 Machlup, Fritz. The economics of seller's competition, 1952 20 Jensen, Michael. Some Anomalous Evidence Regarding Market Efficiency, 1978
  26. 26. 26    Cette théorie suppose par ailleurs une totale liquidité et une totale atomicité des agents : un investisseur seul ne peut pas être en mesure d’influencer le marché et le risque de contrepartie doit être inexistant. Ces travaux ont notamment contribué à la compréhension du MEDAF (modèle d’évaluation des actifs financiers) ; mais aussi à sa popularité. La littérature financière retient trois types d’efficience : ‐ L’efficience faible : les cours n’intègrent que les données liées à l’information passée. Cela offre la possibilité à tous les agents de prévoir l’évolution des cours ; ‐ L’efficience semi-forte : les cours intègrent toute l’information publique passée et actuelle. Certains agents sont donc mieux à même que d’autres de dresser des prévisions ; ‐ L’efficience forte : les cours intègrent l’ensemble des données privées et publiques, passées et présentes. L’hypothèse des marchés efficients est donc fondamentale et impacte directement les décisions financières comme le montrent Myers, Bradley et Allen21 . Ils énoncent ainsi une série de règles fondamentales à respecter lors d’une prise de décision : ‐ La mémoire des marchés n’est pas fiable ; ‐ Le prix à considérer est celui fournit par le marché ; ‐ Eviter de se faire piéger par l’illusion financière et baser sa décision sur les flux de trésorerie ; ‐ L’investisseur a tout intérêt à arbitrer lui-même son portefeuille ; ‐ A niveau de risque égal, les titres sont substituables. Cependant, cette hypothèse va fortement être critiquée, notamment avec l’émergence de la finance comportementale ; mais nous y reviendrons dans la dernière sous-partie de cette première partie.                                                              21 R. Brealey, M. Myers et F.Allen, M. Cheikh El Mehdi. Principes de gestion financière, 8ed, 2006
  27. 27. 27    3) Le mouvement brownien est-il une martingale ? a. Définition de la martingale22 Une martingale est un processus aléatoire sans tendance à la hausse ni à la baisse. « La valeur moyenne d’une martingale attendue pour demain sachant toute l’information dont on dispose aujourd’hui est égale à sa valeur actuelle ». Soit (Xn)nЄN un processus aléatoire et on note Ƒn l’information à notre disposition au temps n. En général, Ƒn = σ(X0, X1, …, Xn). - On appelle Ƒn-martingale un processus (Xn)nЄN tel que E(Xn+1 | Ƒn) = Xn, pout tout nЄN ; - On appelle sous martingale un processus (Xn)nЄN tel que E(Xn+1 | Ƒn) ≥ Xn, pout tout nЄN ; - On appelle sur martingale un processus (Xn)nЄN tel que E(Xn+1 | Ƒn) ≤ Xn, pout tout nЄN. Propriété fondamentale : l’espérance d’une martingale est constante au cours du temps  E(Xn) = E(X0), pour tout nЄN b. Mouvement brownien et martingale Un mouvement brownien est martingale de façon à satisfaire deux conditions : - Il est continu dans le temps ; - Le carré de cette martingale diminué de son temps est aussi une martingale. Donc (Mt) est un mouvement brownien si et seulement si il s’agit d’une martingale continue telle que (Mt² - t) est aussi une martingale.                                                              22 Giraud, Christophe. Martingales pour la finance: une introduction aux mathématiques financières, CMAP Polytechnique, (http://www.cmap.polytechnique.fr/~giraud/MartingalesFinance.pdf)
  28. 28. 28    Comme nous l’avons vu, une martingale est donc une marche aléatoire sans tendance ni à la hausse ni à la baisse ; sa valeur ayant, à chaque instant, la même valeur que l’espérance de ses flux futurs. Cela va donc permettre de modéliser le prix des actifs financiers car il s’agit de valeurs sur lesquelles deux parties, le vendeur et l’acheteur, s’accordent. Si le prix a une tendance à la hausse le vendeur n’accepte pas la transaction car il pourra en obtenir plus cher plus tard ; à l’inverse, l’acheteur refusera la transaction si la tendance est à la baisse car il pourra le payer moins cher. On peut alors supposer qu’il existe un fairprice possédant les propriétés d’une martingale. Cette propriété n’induit pas que le prix ne connait aucune variation. Il va monter ou descendre suivant les différents états du monde réalisables. Mais lorsqu’on prend en compte l’ensemble des états du monde, on peut raisonnablement penser que la variation espérée du prix est nulle. c. La loi stable de Levy La loi stable ou distribution tronquée de Levy est une loi de probabilité dont la densité de probabilité est représentée par une courbe en cloche. Sa fonction caractéristique est : , , , , | | Ω Avec Ω | | Elle admet trois cas particuliers : - La loi normale quand α = 2 et qui en qualité de modèle dominant de l’univers brownien sera traitée dans cette partie ; - La loi de Levy quand α = ½ et qui sera étudiée dans le cadre d’un univers en état de hasard sauvage ; - La loi de Cauchy quand α = 1 et qui sera évoquée par la suite, en préambule aux fractales.
  29. 29. 29    III/ DISTRIBUTION GAUSSIENNE : DEFINITION ET APPLICATION AU S&P100 ET AU FTSE 100 1) La découverte historique de la distribution gaussienne : un poète et un biologiste. Nous avons vu dans l’introduction l’application de la géométrie euclidienne dans la nature. L’origine de l’explication du hasard remonte aux premières découvertes du chaos, lorsqu’on a tenté de théoriser la nature. Paradoxalement, l’idée de l’existence du hasard sauvage (chaos) est arrivée avant celle de hasard bénin (brownien), alors que ce dernier est beaucoup plus répandu aujourd’hui. Les grecs furent les premiers à théoriser la dualité de l’état de la nature (le premier est l’état ordonné, dans lequel les montagnes sont des cônes, le deuxième est l’état chaotique, hérité de la guerre contre les titans). Mais s’ils ne voyaient que deux états possibles, il n’en est pas moins que certains penseurs contemporains avaient compris qu’il existait une alternative à leur monde bipolaire. Le poète latin Lucrèce (1er siècle avant Jésus-Christ) est l’auteur d’un poème magistral, écrit en langue latine, et qui constitue une transcription de la doctrine épicurienne. Dans ce poème aussi long que superbe, certains passages frappent le lecteur car ils sont en total oppositions avec les principes moraux, religieux et scientifiques de leur époque. Deux mille ans avant la théorisation en équation du hasard bénin, il écrit les vers suivant : « Puisqu'ils [les atomes] errent dans le vide, il faut qu'ils soient tous emportés, soit par leur pesanteur propre, soit par le choc d'un autre corps. Car s'il leur arrive dans leur agitation de se rencontrer avec choc, aussitôt ils rebondissent en sens opposés: ce qui n'a rien d'étonnant puisqu'ils sont corps très durs, pesants, denses, et que rien derrière eux ne les arrête. »23                                                              23 [2,80] Si tu penses que les atomes, principes des choses, peuvent trouver le repos et dans ce repos engendrer toujours de nouveaux mouvements, tu te trompes et t'égares loin de la vérité. Puisqu'ils errent dans le vide, il faut qu'ils soient tous emportés, soit par leur pesanteur propre, soit par le choc d'un autre corps. Car s'il leur arrive dans leur agitation de se rencontrer avec choc, aussitôt ils rebondissent en sens opposés: ce qui n'a rien d'étonnant puisqu'ils sont corps très durs, pesants, denses, et que rien derrière eux ne les arrête. Et pour mieux comprendre comment s'agitent sans fin [2,90] tous les éléments de la matière, souviens-toi qu'il n'y dans l'univers entier aucun fond ni aucun lieu où puissent s'arrêter les atomes, puisque l'espace sans limite ni mesure est infini en tous sens, ainsi que je l'ai
  30. 30. 30    C’est visiblement la description d’un mouvement aléatoire brownien d’un atome ou d’une particule dans un milieu aqueux. On retiendra les principales caractéristiques de ces mouvements : ‐ Les atomes sont en mouvement constant ; ‐ Quand ils se rencontrent, ils s’éloignent ; ‐ Ils sont infiniment petits de telle sortent que le mouvement d’un ne conditionne pas celui de tous les autres ; ‐ Certains rebondissent fortement et s’éloignent à de grandes distances, d’autres rebondissent faiblement et s’éloignent peu ; ‐ Les distances parcourues dépendent inversement de leur fréquence d’apparition (le nombre d’atomes qui vont loin dépend négativement de la distance parcourue). Si l’hypothèse d’ordre de la nature datait de Galilée (au cœur de laquelle il voyait des triangles et des carrés24 ), et l’hypothèse de hasard bénin de Lucrèce, c’est le botaniste Robert Brown est le premier qui a, en 1927, observé ce type de loi.                                                                                                                                                                                            montré abondamment avec la plus sûre doctrine. Puisqu'il en est ainsi, il ne peut y avoir aucun repos pour les atomes à travers le vide immense; au contraire agités d'un mouvement continuel et divers, ils se heurtent, puis rebondissent, les uns à de grandes distances, les autres faiblement, et s'éloignent peu. [2,100] Tous ceux qui, formant les assemblages les plus denses, ne s'écartent que de fort peu après leur rencontre, enchevêtrés qu'ils sont grâce aux entrelacs de leurs figures, ceux-là servent de base au corps dur de la pierre, au fer inflexible, à d'autres substances encore du même genre. Les autres, au contraire, peu nombreux, qui errent aussi dans le vide immense, mais se repoussent à de grandes distances, ceux-là fournissent le fluide de l'air et l'éclatante lumière du soleil Titus Lucretius Carus dit Lucrèce in De Rerum Natura, De la nature, Livre II. 24 « Le grand livre de la Nature est ouvert en permanence sous nos yeux et il renferme la vraie philosophie […]. Mais nous ne pouvons le lire si nous n’avons d’abord appris la langue et les caractères dans lesquels il est écrit […]. Il est écrit en langage mathématique et ses caractères sont des triangles, des cercles, et autres figures géométriques. », in Le cygne noir, Nassim Nicholas Taleb, citant Il Saggiatore de Galileo Galilei et paru en 1623. La petite histoire veut qu’en 1619, en pleine Contre-Réforme, s’engage entre Galilée et Orazio Grassi, un prêtre romain, une guerre d’idée sur la nature des comètes (aperçues l’année précédente). Après une dispute par ouvrages scientifique interposés, Orazio Grassi rédige un pamphlet virulent contre Galilée, mêlant astronomie et obscurantisme religieux. Galilée va s’employer à ridiculiser Grassi dans son ouvrage Il Saggiatore. Mais en réalité, les thèses de Grassi étaient vraie, alors que celle de Galilée se sont avérées fausses. C’est néanmoins la consécration pour Galilée, lorsque son ami de toujours, le Cardinal Barberini, devient le Pape Urbain VIII. En pleine Contre-Réforme, la dispute de Galilée et des Jésuites marque. Il les accusera d’ailleurs d’être responsables de son procès devant la Congrégation pour la doctrine de la foi en 1633.
  31. 31. 31    En scrutant à la lentille le mouvement d’une particule contenue dans le pollen de la Clarkia pulchella, il s’est aperçu que la particule évoluait dans son milieu suivant une trajectoire complètement désordonnée. Néanmoins, une constante revenait : la distance parcourue lors d’un déplacement était d’autant plus grande que sa probabilité d’apparition était rare. A partir de là, les mathématiciens et les physiciens vont se consacrer à trouver des applications concrètes à cette loi normale. Seront observées des distributions sur les végétaux, les sciences naturelles, les populations animales, les phénomènes météorologiques, et pour finir plus récemment aux phénomènes de la finance. 2) Présentation de la loi normale centrée réduite et interprétation des valeurs extrêmes La loi théorique aura donc pour but de trouver un lien de causalité entre une variation et sa probabilité de survenance. Par soucis d’expliquer ces variations, on dit que la taille d’une feuille ou d’un grain de sable suit une loi de probabilité, qui estime le risque qu’un objet ait une taille supérieure d’un certain nombre de sigma à la taille moyenne de tous les objets. Ainsi il existe une probabilité « a » que la taille d’un grain de sable soit supérieur à un sigma, une probabilité « b » que sa taille soit supérieure à 2 sigma, etc. Avec l’idée que plus l’écart à la moyenne augmente, moins cette variation a des chances de se produire. La fonction qui généralise cette propriété est appelée loi Normale, loi Gaussienne, loi de Gauss, loi de Laplace-Gauss,…elle est continue sur tout son domaine de définition (sous réserve que µ et σ sont différents de 0) et c’est la fonction qui possède l’entropie la plus élevée pour une moyenne et une variance donnée. Voici son expression standard, et un tableau récapitulatif de ses principales caractéristiques : √ ²
  32. 32. 32    Paramètres µ moyenne, σ écart type Loi normale centrée réduite Espérance µ 0 Médiane µ 0 Variance σ² 1 Skewness 0 0 Kurtosis 0 0 Entropie ln √2 ) 1,4189 Si on prend l’exemple de la loi normale centrée réduite, on s’aperçoit que la probabilité qu’une observation s’écarte de plus de 3 fois l’écart-type est de 0,001 (N(u<3) = 0,999). Voici les principales valeurs caractéristiques : Ecart à la moyenne, en écart type 0 0,25 0,52 0,84 1,28 1,64 2,32 3,09 3,71 4,06 Probabilité que ça n’arrive pas 0,5 0,6 0,7 0,8 0,9 0,95 0,99 0,999 0,9999 0,99998 Donc pour un écart de 4 sigma, la probabilité de survenance de l’évènement « le cours s’écarte en une séance de 4 sigma » est égale à 2*10-5 . Nous allons donc vous illustrer à travers un exemple simple l’application de la loi normale à la finance. Nous avons récupéré le cours sur diverses périodes du FTSE 100 et du S&P 100. Nous avons étudié leur taux de rentabilité. Pour chacun des deux cours, nous avons calculé les caractéristiques principales (moyenne et écart-type), et nous les avons approximés par une loi normale.
  33. 33. 33    a. Le FTSE 100 Pour les besoins de l’exemple, la durée d’étude du FTSE 100 court entre le 30 avril 2011 et le 28 avril 2012. On obtient la représentation graphique suivante, où la courbe bleue représente une gaussienne théorique et la courbe verte la gaussienne correspondant à la distribution du FTSE 100. Présentons les paramètres de forme du FTSE 100 sur la période concernée, et dont les résultats seront analysés par la suite. Nombre d’observations 253 Moyenne -0,0096 Ecart-type 0,5805 Kurtosis 1,2834 Skewness -0.2482 Entropie 4,1296
  34. 34. 34    b. Le S&P 100 Par ailleurs, on considéré le S&P 100 sur la période du 29 avril 2011 au 27 avril 2012. Graphiquement, on obtient la représentation suivante : De la même manière que pour le FTSE 100, nous avons calculé les paramètres de forme du S&P 100 : Nombre d’observations 253 Moyenne -0.0090 Ecart-type 0.6014 Kurtosis 3.0474 Skewness 0.5258 Entropie 3,5982
  35. 35. 35    3) Interprétation des paramètres de forme a. Calcul du coefficient de corrélation et loi normale empirique Sur Excel, on trie les valeurs des returns de chaque cours. Puis on calcule le coefficient de corrélation. Sa valeur est 0,982921088, ce qui dénote une très forte corrélation entre les distributions triées des returns des deux indices (modélisés selon une loi normale), mais sur une période longue durant laquelle les chocs de faible ampleur n’apparaissent pas forcément. L’écart-type et la moyenne des returns du FTSE100 sur la durée considérée est respectivement de 0,4874 et 0,011. Donc selon la loi normale, 84,13% des observations d’un cours qui suit cette loi devraient être inférieures à 1 écart-type. Donc les returns du FTSE 100, s’ils suivent une loi normale, devraient voir 84,13% de leurs observations être inférieures à la 0,011+0,4874 = 0,4984. A l’aide du tri des valeurs et de la formule statistique : =NB.SI($F$2:$F$7232;">= -0,4984”)-NB.SI($F$2:$F$7232; "> 0,4984”) On calcule le nombre d’observations dont la valeur absolue est inférieure à 0,4984, qu’on divise par le nombre d’observations. Le résultat du calcul affiche 78,66%, ce qui signifie que 78,66% de la distribution varie de moins d’un écart type. Dans ce cas, la loi normale théorique sous-estime les variations fortes en leur attribuant des probabilités plus faibles que la réalité. Si on réitère l’expérience avec plusieurs écart-type : Ecart par rapport à l’écart type 1 2 3 4 Probabilité théorique 84,13% 97,73% 99,87% 99,995% Probabilité empirique 78,66% 95,31% 98,62% 99,39 On s’aperçoit que la probabilité empirique est toujours inférieure à la probabilité théorique, ce qui veut dire que pour un écart type donné, la probabilité théorique que la variation effective soit inférieure à cet écart type est sous-estimée par rapport à la valeur empirique.
  36. 36. 36    b. Les paramètres de forme : le skewness et le kurtosis Ces deux statistiques indiquent un état de dispersion. Le skewness est le coefficient de dissymétrie. Un skewness négatif indique un décalage de la distribution vers la droite, et un coefficient positif vers la gauche. Un coefficient nul est indicateur d’une distribution symétrique, ce qui est le cas de la loi normale. Dans le cas du FTSE100 et du S&P100, sur l’échantillon pris, le skewness est proche de 0, ce qui montre que la distribution est centrée. Le kurtosis est le coefficient d’aplatissement d’une courbe ou dans notre cas, de pointicité. Plus il est élevé, plus la distribution présente une pointe en son milieu. On dit qu’une distribution est leptokurtique lorsque les queues de distributions sont plus épaisses que celles de la loi normale. Ce paramètre est très utilisé en finance pour montrer la survenance plus importante des valeurs extrêmes. La loi normale présente un kurtosis de 0, alors que le kurtosis de la loi de Laplace est égal à 3. Dans le cas des deux cours étudiés, les kurtosis sont élevés (1,28 pour le FTSE100 et 3,04 pour le S&P), ce qui est visible par l’aspect en pointe de la distribution et les queues de distribution non plates. c. L’entropie En physique, l’entropie représente l’état de désordre d’un système. Pour un liquide par exemple, elle augmente lorsqu’on le chauffe. En statistique, le calcul de l’entropie permet de reconnaitre qualitativement l’existence d’un chaos (entropie élevée). C’est le cas ici puisque l’entropie des deux cours est à chaque fois largement positive. Il serait d’ailleurs intéressant de refaire l’expérience de Brown avec les particules qui évoluent dans le liquide, en augmentant ou en diminuant l’entropie. Cette idée est traitée dans l’ouvrage de James Gleick25 , au chapitre sur les attracteurs étranges. Nous vous présenterons rapidement l’histoire derrière la découverte des attracteurs étranges et des applications qu’on possibles, dans la partie sur les attracteurs étranges.                                                              25 Gleick, James. La théorie du Chaos, vers une nouvelle science, Flamamrion, 1987.
  37. 37. 37    Pour conclure sur la loi normale, on peut dire qu’elle est déterminée par une distribution symétrique, à queue mince et possède une entropie faible. Ce n’est visiblement pas le cas pour les cours étudiés, sur la période considérée. Ces derniers présentent en effet un certain décalage et un kurtosis et une entropie élevés. C’est pour cela que nous pouvons dire qu’il existe des preuves de chaos dans les distributions étudiées, notamment en ce qui concerne le kurtosis et l’entropie. Néanmoins ces observations ne sont pas suffisantes pour trancher catégoriquement sur l’existence d’un chaos élevé. C’est pour cela que nous nous contenterons de dire que ces distributions contiennent des traces de chaos. Une analyse plus poussée sera faite dans la partie consacrée au chaos, en particulier avec l’utilisation d’indicateurs plus évolués comme le calcul de l’exposant de Lyapunov. 4) Introduction au chaos déterministe. Intéressons-nous au phénomène de la turbulence. D’abord considérée comme un domaine non compréhensible, les scientifiques s’appliquaient surtout à expliquer les mouvements réguliers et stables de la mécanique des fluides. La physique pensait ne pas pouvoir aller au-delà. Puis certains scientifiques se sont intéressés à la turbulence dans le but de l’éliminer. La première application a eu lieu lors de la Seconde Guerre mondiale, quand des physiciens de Los Alamos ont construit la bombe : la partie concernant la physique nucléaire était déjà résolue avant la guerre, il fallait maintenant étudier la turbulence créée lors d’une explosion. Les bases de la physique étaient mises en échec devant le constat de turbulence : comment expliquer que l’écoulement de l’eau dans un tuyau, qui était lisse et sans source extérieur de perturbation, pouvait devenir instable et désordonné ? Les scientifiques ont observé que lorsqu’on agite un liquide, on lui donne de l’énergie qui peu à peu se dissipe. Il se forme des tourbillons contenant eux-mêmes des plus petits tourbillons, qui contiennent des plus petits tourbillons qui en se dissipant donne des propriétés caractéristiques. A.N. Kolmogorov a proposé une description mathématique de ces tourbillons, par un enchaînement de tourbillons dans lesquels une cascade d’énergie de plus en plus petite tendait vers une valeur limite, à partir de laquelle l’énergie se dissipait finalement a cause des frottements. Les résultats de ses recherches ont abouti à la dimension de Kolmogorov, qui est l’échelle spatiale à partir de laquelle la viscosité permet de dissiper l’énergie cinétique d’un mouvement.
  38. 38. 38    D’autres scientifiques ont travaillé sur la turbulence avec l’idée que la dissipation d’énergie convergeait vers une valeur sans jamais l’atteindre (sous l’hypothèse qu’il n’y a pas de frottement) : c’est le deuxième principe de la thermodynamique. L’exemple le plus simple est celui d’un pendule vu de dessus, et dont l’énergie décroit à mesure qu’il tourne. Il arrive à une valeur limite qui est un état stationnaire qui correspond à l’arrêt du pendule. Un autre exemple est celui d’une tasse de café qui se refroidit26 . La thermodynamique est régit par des systèmes d’équations différentielles. Il est donc nécessaire d’avoir un ordinateur pour afficher les solutions des équations et leur projection qui permet de construire l’attracteur. Mais certain attracteurs peuvent se construire avec des équations linéaires, comme par exemple l’attracteur d’Hénon. Nous verrons sa construction et son application à la finance dans la partie consacrée à la démonstration d’un état chaotique et construction d’un attracteur.                                                              26 Lors d’une réunion scientifique, Lorenz déclara même : « nous aurons sans doute des difficultés pour prédire la température de ce café dans une minute, mais nous devrions en avoir aucune pour dire ce qu’elle sera dans une heure ». A la suite de cette réunion, Lorenz va considérer les équations des vents et de la température comme celles de la tasse de café. Il va créer un système de trois équations différentielles qui vont être à l’origine de l’attracteur de Lorenz.
  39. 39. 39    IV/ CRITIQUE DU MOUVEMENT BROWNIEN ET DE LA LOI NORMALE   1) La leptokurticité de la loi normale a. Erreurs de simplification Nous avons vu que la loi normale a été généralisée pour un grand nombre de distributions observables dans la nature, et qui suivent toute un hasard que l’on croit simple et maitrisé. En réalité, ce n’est pas vraiment le cas. La première constatation est qu’il existe un hasard dans toutes ces distributions (par exemple celle de la taille du grain de sable). En effet, rien dans la loi normale ne permet de préciser les conditions d’apparition des valeurs marginales (dont la probabilité d’apparition est faible), on sait juste avec quelle probabilité elles peuvent apparaitre. La croyance dans cette théorie entraine donc le sentiment qu’il existe un hasard « sage » dans une distribution : certes la taille d’un grain de sable est soumise à un aléa, mais le risque de valeur aberrante est connu (et est faible). La seconde constatation est que l’utilisation quasi-systématique de loi normale a entrainé une myopie des valeurs extrêmes (les valeurs aberrantes) et le crédo de la normalité a peu à peu pris place. Or ces fameuses valeurs aberrantes posent un problème de morale : que se passerait-il si une des valeurs aberrantes se produisait ? Par exemple si on soutient que la probabilité d’avoir un accident au volant d’un nouveau modèle de voiture est nulle, et que cet accident se produit ? Ou pire, si on dit que l’accident ne se produirai que si deux facteurs entraient en jeu, et que ces facteurs avaient une probabilité nulle d’arriver en même temps, et que un jour cet accident arrive ? Nous répondrons à ces questions dans notre mémoire. La troisième constatation réside dans le fait que par soucis de simplification, la réalité de la nature a été gommée, lissée. Les aspérités qui apparaissent au début, disparaissent à mesure qu’on s’éloigne des grains de sable, et vue de loin, la plage n’est qu’une sorte de rectangle jaune.
  40. 40. 40    b. Les travaux de Mandelbrot sur la géométrie fractale Mais la suprématie de la loi normale est remise en cause lorsqu’on s’aperçoit que les grandes variations d’un système, théoriquement impossibles à se réaliser, surviennent en réalité plus fréquemment. Et que leur amplitude est plus élevée qu’anticipée. Pour introduire un nouveau concept de hasard, nous nous sommes appuyés sur les écrits de B. Mandelbrot et son « hasard sauvage »27 . Mandelbrot est un pionnier dans la critique de l’utilisation systématique de la loi normale pour tenter d’expliquer tout phénomène observable. Il considère, au contraire de l’uniformité, que les constructions naturelles sont d’une extrême variabilité, et que le hasard peut prendre plusieurs formes, une forme normale (le hasard bénin) et une forme sauvage. Il reconnait que « si le hasard bénin a prouvé son importance, il ne suffit pas à décrire les phénomènes naturels »28 . Plus scientifique, Mandelbrot dresse ici les prémisses de la géométrie fractales et de son ensemble (l’ensemble de Mandelbrot), ainsi que sa caractéristique principale (que nous aurons l’occasion de développer), l’invariance d’échelle. Comme principal exemple du hasard sauvage, il prend celui « de la côte de Bretagne »29 : cette dernière semble complètement erratique lorsqu’elle est survolée à basse altitude par un avion. On note toutes les imperfections de la côte, qui ne semblent suivre aucune loi. En volant plus haut, on ne voit plus ces imperfections, mais on en découvre d’autres, tout aussi erratiques que les premières. Si l’avion vole encore plus haut, le même schéma se reproduit : les imperfections du palier du dessous disparaissent, alors que d’autres apparaissent. Ainsi, dans ce système qui apparait complètement désordonné, apparait au moins un règle : quelle que soit la hauteur de l’avion, la côte de Bretagne est irrégulière et suis un schéma semblable. Ainsi sous une apparence chaotique, se dresse une propriété commune à toutes les images prises depuis cet avion : l’invariance d’échelle.                                                              27 Mandelbrtot, Benoît. Fractales, hasards et finance, Flammarion,n°904, 1997. 28 Ibid, chapitre 2.1, introduction, abrégé. 29 Ibid, chapitre 2.1, « la cote de Bretagne ».
  41. 41. 41    c. Application à la finance Mandelbrot a compris rapidement que ses observations étaient applicables à la finance (ce qui lui a d’ailleurs valu d’être taxé à tort d’économiste). En effet, lorsqu’un marché étudié est calme, ses observations suivent une loi normale. C’est d’ailleurs cette dernière qui est constamment utilisée dans les calculs des probabilités, (et notre mémoire a pour but de dénoncer cette myopie). De plus, en observant un cours, on est incapable de déterminer à quelle échelle le cours a été pris : jours, semaine ou mois ne sont absolument pas identifiables. L’invariance d’échelle s’applique donc a la finance. L’application à la finance du hasard brownien date de 1900, année de la soutenance de la thèse de Louis Bachelier, Théorie de la spéculation. Dans sa thèse, il identifie trois propriétés des cours de bourse : la première est que les prévisions ont un caractère de martingale (ici mathématique, c'est à dire « qu'aucune stratégie ne permet un gain assuré »30 ), les réalisations sont indépendantes les unes des autres, et leur variance pendant un intervalle de temps est proportionnelle à cet intervalle (c'est à dire que la variance dépend du temps). Ces trois caractéristiques forment le cadre théorique d'un mouvement Brownien. Malheureusement la carrière de Bachelier finit avec sa thèse, lorsque soutenue devant Raymond Poincaré, elle ne suscite pas l'enthousiasme du jury. Bachelier reçoit la mention honorable, insuffisante pour espérer une grande carrière d'universitaire. Sa théorie sera oubliée de tous jusqu'à ce qu'elle soit ressuscitée par Paul Samuelson en 1958. Samuelson et ses collègues vont trouver une méthode pour pricer les options, méthode proche de celle de Black-Scholes, qui utilise la loi normale et les travaux de Bachelier. Dès lors, toutes les nouvelles théories (formule de Black et Scholes, l'intégrale de Wiener, la frontière d'efficience de Markowitz, le MEDAF, etc.) se serviront de la loi normale et du mouvement Brownien. La mise en garde contre l'utilisation systématique de la loi normale date des années 60, par un mathématicien du centre IBM près de New York. Il s'agit de B. Mandelbrot, qui avait déjà signalé l'insuffisance du modèle et proposé des modèles non-browniens (exemple de M-1963).                                                              30 Walter, Christian et de Pracontal, Michel. Le virus B : crise financière et mathématiques, Seuil, 2009.
  42. 42. 42    2) Irrationalité des agents et inefficience des marchés a. Les apports de la finance comportementale Comme nous l’avons vu précédemment, les travaux développés notamment par Fama et Markowitz sont au cœur de la finance moderne. Mais les crises des années 2000, ont permis de mettre en avant les limites des modèles et de nombreuses critiques vont émerger. Ainsi va émerger la finance comportementale à partir des années 1990, qui va montrer que les agents sont sujets à des biais cognitifs impactant leurs croyances et préférences. Ces travaux cherchent donc à remettre en cause l’hypothèse de rationalité des agents et donc celle de l’hypothèse de l’efficience informationnelle. La finance comportementale a permis de mettre en évidence différents biais que nous allons brièvement présenter ici. i. Le Biais de Familiarité Démontré par Heath et Tversky en 1991, il apparait lorsqu’un agent favorise une décision par rapport à une autre car elle lui est d’avantage familière. Ce résultat est empiriquement vérifié par les auteurs quand la probabilité de succès est la même ; mais aussi auprès d’une minorité lorsqu’elle est plus faible. Les différents chercheurs de la finance comportementale ont mis en lumière trois formes de biais de familiarité : ‐ Le biais national : les agents vont surpondérer les actifs domestiques au sein de leur portefeuille ; ‐ Le biais local : les agents vont choisir des entreprises dont le lieu d’implantation est leur région ; ‐ Le biais de l’employeur : l’investisseur va surpondérer son portefeuille avec les titres de la société dont il est salarié. La mise en évidence de ces trois biais permet d’arriver à la conclusion que les investisseurs vont avoir tendance à sous-diversifier leur portefeuille ; allant ainsi à l’encontre de la théorie financière moderne qui préconise de diversifier son portefeuille afin d’en réduire le risque.
  43. 43. 43    ii. Le biais de représentativité Ce biais repose sur l’idée, démontrée par Jegadeesh et Titman en 1993, que les investisseurs sont tentés de percevoir des tendances et des évolutions là où il n’y en a pas. Par exemple, les agents vont surestimer la probabilité d’apparition future d’un événement et ce, s’ils l’ont observés récemment. Les cours vont sur-réagir aux informations historiques. iii. Le biais de conservatisme Mis en lumière par Barberis, Schleifer et Vishny en 1998, ce biais montre comment les agents ont tendance à surévaluer la valeur des informations allant dans le sens de leurs opinions ; et à l’inverse, minorer celles qui les contrarient. Ce biais entraine une sous-évaluation de l’importance des informations actuelles et publiques. Cette vision des choses est issue des travaux de l’université de Columbia dans les années 1930 et notamment de Paul Lazarsfeld, qui a cherché à démontrer l’effet des médias sur les électeurs. Il arrive à la conclusion que les électeurs se tournent principalement vers les médias dont les idées vont dans le même sens que les leurs et qu’ils se détournent des autres. iv. L’effet de disposition Etabli par Grinblatt et Han en 2001, ce biais entraine la détention à plus longs terme des titres perdants par rapport aux titres gagnants. Les investisseurs restent enfermés dans leurs convictions, même si cela génère une perte. Ils considèrent que tant que le titre n’est pas vendu, il n’y a pas de perte et qu’il est toujours possible que la valeur des titres s’accroît. v. Le biais d’optimisme Mis en avant par Scheinkman et Xiong en 2003, ce biais montre que les agents sont prêts à investir un prix plus élevé pour acquérir un titre puisqu’ils anticipent la possibilité de le revendre à un prix plus élevé auprès d’agents qui se révéleraient plus optimistes qu’eux. Et selon les auteurs, c’est ce biais qui est à l’origine des phénomènes de bulles.
  44. 44. 44    vi. L’excès de confiance Ce concept va plus loin que le concept précédent puisqu’il met en avant la tendance des investisseurs à surestimer leurs capacité personnelles. Ce type d’investisseur correspond à ce que Nassim Nicholas Taleb appelle les « nigauds chanceux »31 . Ces investisseurs qui se considèrent eux-mêmes comme talentueux, et qui sont perçus comme tels par bon nombre de leurs confrères, du fait de leurs investissements réussis, ne sont, selon Taleb que des investisseurs chanceux dont le succès ne repose que sur l’utilisation d’outils mathématiques et informatiques (qu’ils ne comprennent que trop peu souvent). Et c’est cette attitude qui va les pousser à prendre des risques inconsidérés afin d’accroitre leur fortune et de flatter leur égo. Le problème est que plus les risques pris sont élevés, plus la chute est dure en cas de mauvais investissements. Ces acteurs peuvent être à l’origine de pertes énormes, qui le sauront d’autant plus s’ils ne sont pas contrôlés. vii. Les comportements suiveurs Ce phénomène, mis en avant par Hong et Stein en 1999, montre qu’en réalité la rationalité de certains investisseurs est limitée et qu’ils ne sont pas capables de traiter l’ensemble des données disponibles ; de fait ils seront obligés de suivre les autres afin de réaliser des investissements rentables. Hong et Stein vont mettre en évidence deux catégories d’agents : ‐ Les newswatchers capables d’effectuer des prévisions en se basant sur les signaux privés relatifs aux données fondamentales des titres ; ‐ Les momentum basant leurs prévisions de manière naïve sur la récente évolution du prix des titres.                                                              31 Taleb, Nassim Nicholas. Le hasard sauvage : Des marchés boursiers à notre vie : le rôle caché de la chance, Les Belles Lettres, 2005.
  45. 45. 45    b. La mise en évidence d’anomalies Actuellement, de nombreuses enquêtes empiriques ont mis en avant un certain nombre d’anomalies allant à l’encontre de la théorie de l’efficience des marchés financiers. i. Les effets saisonniers De nombreuses études ont mis en lumière l’existence d’un lien entre les « saisons » et les taux de rentabilité. On peut par exemple citer l’effet « week-end » : les taux de rentabilité sont négatifs le lundi et positifs le vendredi ; si bien qu’acheter systématiquement les actions à la clôture du lundi pour les revendre à la clôture du vendredi permettrait de faire un gain à chaque fois.Autre exemple, « l’effet janvier ». Les taux de rentabilités semblent plus élevés durant ce mois par rapport au reste de l’année (principalement pour les small-caps). En 2003, Schwert a essayé de fournir une explication, qui repose sur le fait que les entreprises réalisent volontairement des pertes en fin d’année pour réduire le revenu imposable. Cependant, cette explication n’est pas valable pour tous les marchés, puisque par exemple au Royaume-Uni l’année fiscale débute au mois d’avril. ii. L’effet « petite firme » Cet effet repose sur l’idée que les rentabilités observées des small-caps sont supérieures à celle des mid-caps (Banz, 1981) ; ce qui semble incohérent avec la théorie de l’efficience. Cependant l’impact de cet effet est limité puisque du fait des coûts de transaction cela ne permet pas de gagner plus que le marché. iii. L’excès de volatilité Au début des années 1980, Robert Shiller s’est intéressé à la volatilité excessive des marchés. En étudiant les écarts entre la variance des prix de marché et la variance de la valeur fondamentale des titres (obtenue grâce à la formule de Gordon-Shapiro), il arrive à la conclusion que la volatilité observée sur le marché est nettement supérieure à celle de la valeur fondamentale. Pour Shiller, cela permet de montrer que les marchés ne sont pas aussi efficients et rationnels que la théorie le suppose.
  46. 46. 46    3) Le « Virus B » « Aux industriels qui n’ont cure de la justesse d’une formule pourvu qu’elle soit commode, nous rappellerons que l’équation simple, mais fausse, c’est tôt ou tard, par une revanche inattendue de la logique, l’entreprise qui échoue, la digue qui crève, le pont qui s’écroule ; c’est la ruine financière, lorsque ce n’est pas le sinistre qui fauche des vies humaines », Pierre Duhem, 1893 Cette citation reprise par Christian Walter, professeur à l’Université Paris-1 Panthéon- Sorbonne, soutient l’expression de « Virus B » qu’il utilise pour définir le système brownien, dans un ouvrage paru en 200932 . Il met en lumière les impacts du « virus brownien » qui aurait perverti l’esprit des acteurs des marchés en les guidant dans une logique faussée. Il lui adresse de nombreuses et virulentes critiques, dont nous nous contenterons de présenter les grandes conclusions. La thèse majeure de l’ouvrage est que les outils mathématiques sont incompris par leurs utilisateurs qui ont été induits dans une logique faussée, les conduisant à réaliser des prévisions nécessairement biaisées. L’utilisation du mouvement brownien a eu pour conséquence majeure de sous-estimer les risques réellement supportés par les investisseurs. Cette logique se serait répandue à travers le monde et aurait « contaminée » l’esprit des investisseurs, les conditionnant ainsi dans une logique faussée et les rendant aveugles à toute défaillance du système. On peut alors en déduire les trois axiomes faussés de la théorie financière moderne : - La rationalité des agents : en réalité, chaque individu cherche à satisfaire ses propres besoins ; même si cela se fait au détriment de la réalisation de ceux des autres ; - La similarité des agents : en réalité, tous les agents n’ont pas les mêmes attentes et ne vont pas prendre les mêmes décisions. Ils ne sont pas que des « preneurs de prix », mais aussi des « faiseurs de prix » qu’ils vont influencer en fonction de leurs choix ; - Le changement de prix suit un mouvement brownien : la théorie veut que les changements soient rares et de faible importance. Dans une logique brownienne, un tsunami financier n’a lieu que tous les 7000 ans ( ! ) environ. Or, dans les faits, les fluctuations de prix sont bien plus importantes et présentes et surtout, l’intervalle d’apparition des crises est beaucoup plus faible, de quelques dizaines d’années au maximum.                                                              32 Walter, Christian et de Pracontal, Michel. Le virus B : crise financière et mathématiques, Seuil, 2009.

×