Mémoire de Master 2 Marchés Financiers
2012 -2013

Analyse Fondamentale et Analyse Technique
« L’analyse fondamentale et l...
2
SOMMAIRE

Introduction…………………………………………………………………

4

I - L’Apport de l’analyse fondamentale………………………………….

5

I.1 – L’appro...
INTRODUCTION
Nul doute que toute personne intervenant sur les marchés actions a au moins une fois
voulu posséder le don de...
I - L’APPORT DE L’ANALYSE FONDAMENTALE
L’analyse fondamentale a pour mission principale de valoriser un titre financier
re...
alors lien entre la valeur réelle de l’entreprise et sa valeur échangée sur le marché. Mais avant
tout cela, il est intére...
January Effect (traductible en Effet Janvier) a été observé sur la plus part des marchés
actions à travers le monde. Cette...
perspectives d’évolutions semblaient ne pas avoir de limite. Ayant atteint un niveau de vie
élevé, relativement aux revenu...
Cette perte de connexion avec la réalité économique, qui est spécifique à toute
euphorie financière se caractérise par une...
management pour la sélection des RMDS (Residential Mortgage-Backed Securities = prêt
hypothécaires ; prêts garantis par l’...
investissement initial de 50€, soit 20% de retour sur investissement, calculé comme 10€ (60€
- 50€) rapportés aux 50€ inve...
d’une relance économique, Elles ont toutes éclatées après une bulle spéculative inscrite dans
une phase économique où l’éc...
qu’un prix sera trouvé pour chaque bien auquel la demande sera égale à l’offre. Toutes les
ressources sont utilisées avec ...
1881 à Lember en Autriche-Hongrie et décédé le 10 Octobre 1973 à New-York) partage
quelques points de vues avec l’école de...
l’entrepreneur à l’origine de cette découverte aura tendance à avoir de plus gros profits et
tendrait à sortir les product...
fructifier dans le futur. Tout en acceptant et validant quelque part l’idée d’un retour à
l’équilibre sur le long terme, c...
l’asphyxie de l’Etat qui se répercutera sur les impôts et taxes prélevées, diminuant la
consommation générale et faisant, ...
économiques. Par exemple, si tout le monde est conscient que dans le cadre d’une récession le
gouvernement baissera les ta...
sort de ces dernières théories : l’augmentation de prix d’une énergie fortement utilisée par une
nation va limiter l’offre...
général semble avoir émergé, qui englobe les approches néo classiques et néo Keynésiennes.
Le débat concernant les cycles ...
I - 2 Les modèles d’évaluation
Avant de rentrer dans l’étude des modèles qui reprennent la logique tant
macroéconomique qu...
L’évaluation d’une société par l’analyse financière se fait par le biais des systèmes financiers
qui consistent en des mar...
Les acteurs financiers bien informés rendent les prix informationellement efficaces de
par leurs échanges. Quand ils achèt...
et supra-gouvernementales. Les régulateurs cherchent à promouvoir la justesse et l'ordre des
marchés sur lesquels les opér...
Les modèles d’évaluation utilisés pour déterminer la valeur du capital d’une entreprise servent
à estimer sa valeur intrin...
Le modèle le plus simpliste est le modèle d’actualisation des dividendes qui spécifie
que les cashflows futurs sont les di...
les dividendes vont évoluer à travers le temps à un rythme constant. Le Gordon Growth
Model (traduisible en Modèle de croi...
modèle vient apporter sa particularité pour complémenter ses pairs et ainsi apporter une
précision dans l’évaluation d’une...
de Gordon Shapiro et en rappelant l’idée que le prix de marché d’une action tendra vers la
valeur intrinsèque de l’action,...
dividendes distribués ou conservés pour son développement, etc. L’avantage majeur de cette
approche par les comparables de...
financier, qui, une fois l’évaluation intrinsèque du titre réalisée, permettra de projeter l’action
dans le futur et d’ind...
II – 1 L’analyse comportementale : les biais psychologiques
1.1 Les biais cognitifs
Les biais cognitifs portent sur l’impo...
La dissonance cognitive évoque la situation où laquelle l’individu est en contradiction
avec les infos obtenues et avec le...
comportement est visible sur certains indicateurs techniques qui identifient ce retournement
de tendance.

1.2 Les biais é...
1.3 Les conventions
Définition
Une convention se définie comme un commandement ou un principe entre divers
personnes ou gr...
fondamentale. Malgré la diffusion quasi instantanée de l’information à l’ensemble des
individus, il existe des disparités ...
confirmation de la convention est déterminée donc par la confiance que lui accordent le
marché dominant et les opérateurs ...
de marché. La récurrence de ces comportements est identifiable par les graphiques et se
traduisent sous forme de signaux. ...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance s...
Prochain SlideShare
Chargement dans…5
×

Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

6 667 vues

Publié le

Publié dans : Économie & finance, Business
1 commentaire
1 j’aime
Statistiques
Remarques
Aucun téléchargement
Vues
Nombre de vues
6 667
Sur SlideShare
0
Issues des intégrations
0
Intégrations
5
Actions
Partages
0
Téléchargements
170
Commentaires
1
J’aime
1
Intégrations 0
Aucune incorporation

Aucune remarque pour cette diapositive

Mémoire de fin d'étude: L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ?

  1. 1. Mémoire de Master 2 Marchés Financiers 2012 -2013 Analyse Fondamentale et Analyse Technique « L’analyse fondamentale et l’analyse technique peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? » Da Rocha Christophe (5MFI2) et Vaillant Rémi (5MFI2) Maître du mémoire : Bertrand Athouel Mots clés: analyse fondamentale, analyse technique, actions cotées en Bourse, tendances de marché.
  2. 2. 2
  3. 3. SOMMAIRE Introduction………………………………………………………………… 4 I - L’Apport de l’analyse fondamentale…………………………………. 5 I.1 – L’approche des Crises financières et économiques…………….. 6 I.2 – Les modèles d’évaluation………………………………………….. 21 II – L’Apport de l’analyse technique…………………………………….. 31 II.1 – L’analyse comportementale : les biais psychologiques………... 32 II.2 – Les forces et faiblesses de l’analyse technique dans la détermination des tendances……………………………………………. Conclusion………………………………………………………………….. 48 58 3
  4. 4. INTRODUCTION Nul doute que toute personne intervenant sur les marchés actions a au moins une fois voulu posséder le don de voir l’avenir. Qui n’a jamais voulu savoir avant tout le monde ce que le cours de telle ou telle action cotée en Bourse allait être demain ? Avec ce don, les possibilités de réussites financières semblent sans limites. Si cette capacité de prédire le cours futur d’une action cotée en Bourse existait, elle serait convoitée au plus haut point. Cependant, et jusqu’à preuve du contraire, une telle capacité n’existe pas et chaque intervenant sur le marché doit y aller de son analyse. De célèbres investisseurs ont fait fortune sur les marchés actions, et quelques noms, tel que Warren Buffet, font légendes. Peut-être ont-ils trouvé la clé pour deviner l’évolution future des cours? Cela semble surréaliste, surtout lorsqu’on le souvient des grandes pertes financières qui leurs ont été reconnues. Ces investisseurs, aussi couronnés de succès soient-ils, reposent comme chacun sur l’analyse qu’ils font du marché. Les marchés financiers demeurent des lieux d'échanges ou les acteurs principaux sont des êtres humains, avec leur compréhension du monde qui les entoure, leurs connaissances, leurs croyances, leurs humeurs. Les marchés financiers sont, à l'instar de la nature humaine, d'une complexité telle qu'il est impossible de les modéliser et d'en créer une équation parfaite, capable de les expliquer et donc de les prédire. Deux grandes écoles d’analyse se confrontent pour prédire les tendances boursières. D’un côté l’analyse fondamentale qui base ses résultats sur l’étude d’éléments économiques et d’autre part l’analyse technique qui base ses résultats sur l’étude de graphiques de cours. Ces deux écoles ont toujours été confrontées pour savoir laquelle des deux était plus viable, plus efficace. Aussi, il est intéressant de se questionner différemment. Ce mémoire va ainsi tenter de répondre à la question : L’analyse fondamentale et l’analyse techniques peuvent-elles s’associer pour prédire une tendance sur les marchés actions ? Dans un premier temps l’approche de l’analyse fondamentale mettra en avant la logique et les éléments lui permettant de définir une tendance, ainsi que les limites de son approche. Dans un deuxième temps, l’approche prise par l’analyse technique viendra confronter et combler l’analyse fondamentale dans la prédiction de tendance. 4
  5. 5. I - L’APPORT DE L’ANALYSE FONDAMENTALE L’analyse fondamentale a pour mission principale de valoriser un titre financier représentatif d’une société. Son but est de mettre un prix sur une action, un prix qu’elle estime être représentative du titre. L’analyse fondamentale a une approche économique de l’entreprise. Elle situe la société évaluée dans un contexte général: l’économie. Dans ce cadre, l’entreprise va interagir avec différents acteurs, tels que ses clients, ses fournisseurs ou encore ses concurrents, qui vont de par leurs actions inciter voir obliger l’entreprise à agir ou ne pas agir. Elle va également être soumise à des influences plus ou moins directes en provenance d’entité distinctes, tel que principalement le gouvernement ou encore la banque centrale qui vont, de par leurs politiques et décisions, influencer le contexte économique dans lequel l’entreprise évolue et ainsi bien souvent l’obliger à agir en conséquence. Toutes ces influences, retranscrites de façon différentes à l’économie, forment un cadre dans lequel l’entreprise va évoluer. Cette évolution va être liée à des changements dans ses achats, ses ventes, sa structure, son organisation, son développement, etc. De façon générale, son activité va être impactée par tous les changements de l’économie dans laquelle elle se trouve. Par extension, ses changements vont impacter sa valeur et donc le prix que les investisseurs sont prêts à lui accorder. C’est là que l’analyse fondamentale prend tout son sens, en ce qu’elle va permettre d’étudier toutes ces évolutions, tant passées que futures pour déterminer si une société va s’apprécier, et prendre de la valeur ou au contraire se déprécier et perdre de la valeur. L’idée sous-jacente est alors d’indiquer si le prix d’une entreprise va monter et s’inscrire dans une tendance haussière, ou baisser et s’inscrire dans une tendance baissière, ou encore rester dans une constance et s’inscrire dans une tendance neutre. Afin d’arriver à une conclusion quant à la tendance dans laquelle va s’inscrire le prix d’une action, l’analyse fondamentale a développé un certain nombre de modèle permettant d’indiquer avec un niveau de certitude plus ou moins élevé, si une action est sous-évaluée, surévaluée ou encore relativement bien évaluée. La construction de ces modèles s’appuie sur des hypothèses économiques issues de différentes réflexions économiques qui ont marqué l’approche que l’on a de l’économie depuis notamment ce dernier siècle. Pour étudier l’approche prise par l’analyse fondamentale, une réflexion sur les différentes écoles économiques est nécessaire pour mettre en avant les éléments utiles, indispensables à cette dernière. Une fois les réflexions économiques étayées et discutées, elles serviront de base à l’étude des principaux modèles utilisés par l’analyse financière qui font 5
  6. 6. alors lien entre la valeur réelle de l’entreprise et sa valeur échangée sur le marché. Mais avant tout cela, il est intéressant d’étudier les crises financières et économiques qui ont marqué l’histoire de l’homme, car elles ont été à la base des réflexions économiques qui permettent aujourd’hui à l’analyse fondamentale d’être une activité motrice de la finance. I - 1 L’approche des Crises financières et économiques Les Crises financières ayant eu lieu depuis le début du 20e siècle ont marqué l’économie et l’esprit collectif des hommes. Chaque Crise vécue a apporté son lot d’enseignements, que ce soit la Crise de 1929 qui plongea les Etats-Unis dans la Grande Dépression, le Krach d’octobre 1987 qui résulta dans la baisse spectaculaire de l’indice américain Dow-Jones de 22,6% en l’espace d’une journée ou encore la Crise de 2007, pour laquelle la reprise économique peine encore à se lancer. Les catastrophes financières font avancer la célèbre proposition voulant que si, d’une crise à l’autre, les conditions déterminantes sont les mêmes, ou similaires, alors quelques-unes au moins des conséquences seront les mêmes, ou similaires. Sur cette idée, l’étude des Crises financières met en évidence des phénomènes récurrents ou du moins des éléments qui tendent à se répéter. Des ressemblances mineures, voir triviales, apparaissent entre les Crises. Comme il a pu être remarqué, les Crises ont principalement lieu en automne; l’arrivée de l’hiver a peutêtre un effet psychologique sur l’humeur des acteurs des milieux financiers. De même, le lundi semble avoir été un jour particulièrement sombre; les spéculateurs et acteurs peu expérimentés qui se trouvaient sur les marchés financiers, après avoir connu d’autres préoccupations durant le week-end, ont surement laissé cours à leurs craintes et ont décidé de jouer la sécurité en revendant. Cela a été le cas le lundi 21 octobre 1929, première des journées d’avertissement qui ouvrit la voie au terrible mardi qui suivit, et de même pour le lundi 19 octobre 1987, reconnu comme le deuxième jour le plus dévastateur des marchés financiers, derrière le krach de la bourse islandaise de 2008. Dans la lignée de ces phénomènes calendaires, plusieurs études ont mis en évidence des effets périodiques récurrents sur les marchés financiers. Dans les années 1980, plusieurs recherches ont rapporté par exemple que les gains réalisés en Janvier sur les marchés financiers étaient significativement plus élevés comparés aux autres mois de l’année, avec en plus, des gains anormaux rapportés dans les cinq premiers jours du premier mois de l’année. Depuis les premières documentations dans les années 1980, ce pattern, connu sous le nom de 6
  7. 7. January Effect (traductible en Effet Janvier) a été observé sur la plus part des marchés actions à travers le monde. Cette anomalie, aussi qualifiée de Turn-of-the-year effect (traductible en Effet changement d’année civile) contredit les hypothèses d’efficiences de marchés car les gains en janvier ne sont attribuables à aucune nouvelle économique ou information pertinente. Un certain nombre de raisons ont été suggéré pour expliquer ce phénomène, la principale étant l’effet de taxation et plus particulièrement la vente réalisée en fin d’année civile pour récupérer une perte sur taxe. Les investisseurs auraient tendance à clore leurs positions en pertes latentes en décembre dans le but de réaliser une perte imputable à leurs gains réalisés dans le courant de l’année. Cette hausse d’offre sur le marché tend à faire baisser le cours des titres en fin d’années, qui sont ainsi rachetées en janvier à des prix plus faibles. Cette demande en début d’année dirige ainsi les prix à la hausse et donc la valeur des portefeuilles. Un certain nombre d’autres effets calendaires, ont été trouvés, mais ces anomalies connues du monde financier se font arbitrer, ayant pour conséquence de leur faire perdre leur effet. Aussi, ces éléments anecdotiques ne sauraient expliquer les causes de telles tragédies financières qui ont marqué, et marquent encore les marchés actions. D’autres similitudes entre les crises financières autrement plus importantes sont à souligner, l’histoire financière étant soumise aux mêmes conditions déterminantes. Une Euphorie générale alliée à une spéculation accrue La première condition déterminante à une crise financière, mise en évidence en amont des crises, est ce qui a été qualifié par John Kennet Galbraith de « droit acquis » à l’euphorie dans son ouvrage La crise économique de 1929 – Anatomie d’une catastrophe financière (titre original : The Great Crash). Les cours des actions cotées sont montés, au cours des années précédant les crashs boursiers, sans limite apparente. Dans les années 20, les Etats-Unis connaissent des années de croissance industrielle soutenue que rien ne semble pouvoir arrêter. L’économie tourne à régime soutenu, les emplois sont présents et la consommation ne faiblit pas. Bien que la pauvreté existait, la richesse s’échangeait, permettant aux classes aisées de l’être toujours plus, et aux classes moyennes de disposer de revenus en excès. Cette croissance des rémunérations s’est tout d’abord dirigée vers la consommation, continuant à rendre toujours plus profitables des entreprises dont les 7
  8. 8. perspectives d’évolutions semblaient ne pas avoir de limite. Ayant atteint un niveau de vie élevé, relativement aux revenus gagnés, les citoyens se sont naturellement tournés vers des activités pour faire fructifier leur nouvelle épargne, à la recherche de nouvelles richesses : la Bourse. L’excès de richesse devait être mis à profit, et les marchés financiers se sont trouvés être une solution intéressante. La Bourse, que ce soit dans les années 20 ou dans toute phase de croissance de l’économie, est un lieu qui permet à tout citoyen de facilement placer son argent dans des entreprises, dans des projets dont les rendements espérés sont élevés. La facilité à acheter et revendre des parts de sociétés a rendu cet endroit populaire et très prisé. La fin des années 20, avant l’éclatement de la Crise qui donna suite à la Grande Dépression, n’a pas dérogé à la règle : les volumes échangés sur les marchés financiers n’ont cessés de croître. Pendant les périodes d’euphorie financière, les marchés boursiers sont montés sans limites apparentes. Cette euphorie financière prend en force lorsque, malgré des interruptions temporaires, les marchés boursiers continuent, comme inexorablement, de grimper. Dans tous les cas, les influences sous-jacentes qui affectent les cours boursiers, que ce soient les anticipations de rendement ou la croissance économique, ont fait place à la croyance selon laquelle l’augmentation des valeurs ne cesseront jamais de monter. A noter que cette croyance collective se soucie peu de la réalité, l’achat d’un titre financier n’a comme intérêt que le profit que l’on peut en espérer sur sa revente. Les aspects de propriété, qui caractérisent les actions financières, n’existent plus dans ces moments, face à une hausse prochaine et sûre; sûre dans l’inconscient collectif qui veut que les prix ne s’arrêteront pas de grimper. Le revenu des biens ou le plaisir qu’ils peuvent procurer à leur propriétaire n’ont plus grande importance, car ils n’équivalent plus la valeur financière que le gain réalisable sur l’opération d’achat-revente peut concrétiser. L’inconscient collectif veut que, même si de petites fluctuations négatives apparaissent dans les cours des actions, les jours prochains seront positifs, les valeurs boursières continueront de monter. Ce droit à l’euphorie collective pousse tout citoyen à croire en des lendemains toujours meilleurs, à croire que leur richesse ne peut que continuer de s’apprécier. Dans le cas des années 1920, l’euphorie ne semblait pas pouvoir s’arrêter car il n’y avait eu jusqu’alors aucune crise marquante comme on pouvait l’avoir en mémoire à la fin des années 2007. Cette croyance en des gains futurs sans limites est surévaluée par la vision que l’on peut avoir de l’économie : le titre des actions grimpe, donc cela signifie, pour les acteurs financiers, que les entreprises sous-jacentes voient leur rentabilité croître. Donc pourquoi ne pas continuer à y croire ? 8
  9. 9. Cette perte de connexion avec la réalité économique, qui est spécifique à toute euphorie financière se caractérise par une bulle. Dans ces bulles financières, les prix des biens échangés atteignent des niveaux élevés déconnectés de la réalité économique. L’exemple le plus marquant de bulle spéculative revient à la Tulipomanie, la tristement célèbre Crise de la Tulipe survenue dans les années 1630. Au 16e et 17e siècle, voit se développer un engouement particulier pour l’horticulture en Europe du Nord et la tulipe devient un emblème de luxe, de rang social élevé. Leur convoitise et leur demande grandissante pousse les commerçants à mettre en place des contrats à terme sur ces fleurs. Ces contrats à terme sont devenus des objets de négociations tellement spéculés que le cours de l’oignon de tulipe voit sa valeur exploser. Même si les données historiques de l’époque sont très pauvres et si les différentes théories utilisées pour évaluer le prix des tulipes sont aujourd’hui discutées, il a été établi par Charles Mackay (écrivain et journaliste britannique à tendance économique né le 27 mars 181 à Perth en Ecosse et décédé le 24 décembre 1889 à Londres), pour ne citer que lui, qu’un bulbe de tulipe s’échangeait au plus fort de la tulipomanie contre 5 hectares de terre. La disproportion entre valeur spéculative et valeur réelle est frappante : il est économiquement illogique qu’un produit de la terre soit évalué autant de fois au-dessus de la valeur du terrain qui lui est nécessaire pour être produit. A chaque fois, cette déconnexion frappante de la réalité, qui a caractérisé chaque crise financière connue, a pourtant été dénoncé par quelques personnes, suffisamment alertes et distantes de la recherche de richesse facile. Ces parias de l’euphorie générale des marchés n’ont pourtant pas eu de poids face à une foule pacquée autour d’une croyance aussi forte. L’euphorie générale des marchés s’est trouvée, avant toute crise, un camarade de jeu : la spéculation. Cette alliée, incitée et facilitée par les outils mis à sa disposition, notamment les opérations sur marge, a joué un rôle prépondérant dans le décrochement des valeurs financières lors des crises. La crise des subprimes a encore récemment montré l’engouement démentiel des acteurs financiers pour la spéculation et le gain excessif. Les années 2002 à 2007 ont été pour les Etats-Unis une période de croissance soutenue comme l’atteste le S&P 500 passé de 776,76 points le 10 septembre 2002 à 1.565,15 5ans plus tard. A la fin des années 2006, Henry Paulson, ancien CEO (Chief Executive Officer = Directeur Général) de Goldman Sachs et à la tête du fonds Paulson & Co s’est mis d’accord avec Lloyd Craig Blankfein, actuel CEO de la Banque d’investissement, pour former un fond spéculatif basé sur les prêts hypothécaires américains. Début 2007, Goldman Sachs est rentré en contact avec ACA 9
  10. 10. management pour la sélection des RMDS (Residential Mortgage-Backed Securities = prêt hypothécaires ; prêts garantis par l’actif collatéral à savoir le bien immobilier acheté) pacqués ensemble et organisés en fonction de leur notation de crédit. La particularité de ce projet, nommé Abacus 07-AC1, a été la construction contre mesure faite par le duo Blankfein et Paulson : la sélection des RMDS a été réalisé dans l’optique de faire s’écrouler le produit. Une fois le produit construit, la vente du produit a été réalisée à des investisseurs non habitués à ce type de produit complexe. Les acheteurs tels que la banque allemande IKB et le danois ABN AMRO ont décidé de rentrer dans un monde spéculatif pour lequel ils ne détenaient pas le savoir-faire nécessaire. Dans cette phase économique roulant à bonne vitesse, ces investisseurs novices dans sur ce type de contrat ont cherché de nouvelles opportunités pour réalise plus de profits. Le tableau final avant l’explosion du fond Abacus était le suivant : d’un côté Henry Paulson tenant une position short sur le produit, croyant à l’effondrement du produit qu’il a construit, pour une spéculation à 1 milliard de dollars d’enjeux, et d’un autre côté des investisseurs détenant des positions long sur des produits dont ils ne mesuraient pas le risque, pour un espoir de gain élevé. En janvier 2008, 99% des actifs référencés dans le portefeuille Abacus ont fait défaut, créant le cataclysme faisant référence à la Crise des subprimes. Cet engouement pour la spéculation qui atteint tous les acteurs du monde financier, professionnels comme particuliers, est un effet apparu exacerbé avant l’éclatement des autres crises financières. L’augmentation des valeurs, soutenue par une croyance commune que les marchés ne s’arrêteront pas de monter, incite les individus à continuer leur spéculation. Un des éléments caractéristique de la spéculation sur les marchés actions est l’utilisation des achats et ventes à découvert sur marges. Les acteurs financiers peuvent acheter les actifs financiers qu’ils désirent en empruntant une partie du prix de l’actif à leur broker. Acheter sur marge peut grandement augmenter le potentiel de gains ou de pertes pour un montant d’actions car l’acheteur bénéficie d’un plus grand pouvoir d’achat. En comparant l’achat d’un titre à 100€ en argent plein avec le même achat réalisé à 50% sur marge, l’effet de levier sous-jacent au système d’achat sur prêt est mis en valeur : Si, ultérieurement, le titre vaut 110€, l’investisseur se retrouve à la fin avec 110€ pour 100€ investit soit 10% de retour sur investissement, calculé comme 10€ (110€ - 100€) de gains rapportés au 100€ investis. Avec un achat sur marge à 50%, le l’investisseur se retrouve au moment de la revente du titre avec 110€ en sa possession. Après remboursement du prêt de 50€, il lui reste 60€ pour un 10
  11. 11. investissement initial de 50€, soit 20% de retour sur investissement, calculé comme 10€ (60€ - 50€) rapportés aux 50€ investis. L’aspect d’euphorie des marchés est difficilement modélisable : comment attraper ce sentiment collectif dans une mesure économique quantifiable, comparable ? Une approche pourrait être similaire à celle de l’indicateur VIX. L’idée pourrait ainsi être de mesurer les attentes des marchés par l’évolution de leur volatilité. L’aspect spéculatif semble tout autant difficilement modélisable bien qu’une approche particulière puisse aider en ce sens : Le volume des prêts des courtiers, garantis par des valeurs achetées sur marge, et plus particulièrement leur évolution au travers des mois permettrait de mesurer la masse de spéculation sur les marchés. Entre 1920 et 1928, l’augmentation des volumes d’argent empruntés pour acheter sur marge des titres cotés sur NYSE parle de lui-même. En 1920, les montants de prêts du marché court terme variait entre 1 milliard et 1 milliard et demi de dollars. En 1926 ce chiffre est monté à 2 milliards et demi de dollars au courant de l’été. Un an plus tard l’augmentation fut encore plus marquante et fit monter les prêts à 3 milliards et demi de dollars. Fin 1928, le New-York Stock Exchange Year-Book 1928-1929 rapportait le chiffre de 5 722 258 724 dollars. Une économie en pleine expansion et des réponses gouvernementales à effet de levier Une autre condition déterminante à un éclatement boursier, comme les crises financières du passé l’enseignent, est un environnement économique en pleine expansion. Les montées des valeurs boursières enregistrées en amont des catastrophes boursières tiennent d’une grande part à leur économie macro sous-jacente. Les années 20 furent pour les Etats-Unis une période florissante. La production et l’emploi étaient élevés et continuaient à s’accroître, dans un système économique où les capitaux de la richesse s’échangeaient à un rythme soutenu. La stabilité des salaires s’alignait à la stabilité des prix. Entre 1925 et 1929, le nombre d’établissements industriels était passé de 183 900 à 206 700 et la valeur de leur production industrielle s’était porté de 60,8 milliards de dollar à 68 milliards (source : US Department of Commerce, Bureau of the Census, Statistical Abstract of the United States), soit 12% d’évolution en l’espace de 4 années. C’est dans cet environnement économique bouillonnant de croissance que la crise de 1928 a éclaté. Cela a été le cas pour toutes les crises économiques. Aucune crise n’est apparue au lendemain 11
  12. 12. d’une relance économique, Elles ont toutes éclatées après une bulle spéculative inscrite dans une phase économique où l’économie tournait à plein régime. L’étude des cycles économiques apporte alors une deuxième source d’explication au contexte économique dans lequel l’évaluation d’une entreprise s’inscrit. Les cycles économiques ont été définis pour la première fois en 1946 par Arthur Burns et Wesley Mitchell, dans leur ouvrage Measuring Business Cycles. Leur vision de l’économie défini les cycles économiques comme un type de fluctuation trouvé dans l’activité économique total des nations qui organisent leur travail principalement en entreprises commerciales : un cycle consiste en d’expansions se produisant approximativement au même moment dans plusieurs activités économiques, suivi par des récessions, contractions similaires et relances qui fusionnent dans la phase d’expansion du cycle suivant ; cette séquence d’évènements est récurrente mais non périodique (traduit de l’anglais). Un cycle économique se décompose ainsi en quatre phases : creux, expansion, pic et contraction, chacun apparaissant à la suite l’un de l’autre. Quand l’expansion d’une économie est bien établie, un boom souvent apparait. Ce boom est toujours une phase d’expansion caractérisée par une croissante économique qui teste les limites de l’économie. L’analyse fondamentale prend en considération le cycle dans lequel se situe le secteur évalué. Des cycles économiques ont été reconnus très tôt avec la théorie économique et des efforts considérables ont été entrepris pour les différencier, les comprendre, les expliquer. Cette démarche a énormément servi à l’analyse fondamentale qui peut ainsi positionner un secteur d’activité vis-à-vis d’un cycle de croissance, de décroissance, que ce soit avec un rythme plus ou moins soutenu. Jusqu’aux années 30, la vision générale donnait un caractère naturel à l’économie et présentait les récessions comme des phases temporaires. Cependant, la sévérité de la Grande Dépression des années 30 a créé une crise dans la théorie économique qui a nécessité une approche plus pragmatique. Après la Grande Dépression qui commença en 1929, le débat entre différentes écoles de pensées économiques a stimulé d’importantes innovations dans la manière où les cycles économiques sont décrits et expliqués. Similairement, après la récession déclenchée par les chocs du pétrole en 1973 et 1979, le vieux paradigme a été mis de côté et de nouveaux développements en économie ont mené à une compréhension améliorée de la dynamique économique. L’école Néoclassique, repose sur le concept d’équilibre général des marchés : tous les marchés tendent à atteindre un équilibre du fait, premièrement, d’une main invisible, comme la nomme son auteur Adam Smith (philosophe et économiste écossais né le 5 juin 1790 à Kirkcaldy en Ecosse et décédé le 17 Juillet 1790 à Edimbourg), et deuxièmement, par l’idée 12
  13. 13. qu’un prix sera trouvé pour chaque bien auquel la demande sera égale à l’offre. Toutes les ressources sont utilisées avec efficience, basé sur le principe que le coût marginal égale le revenu marginal des producteurs et que l’utilisation de la main d’œuvre et du capital sont également utilisés avec efficience, sans non-emploi volontaire. A noter que le capital se comprend comme le capital financier, correspondant notamment à l’investissement, mais aussi dans sa forme étendue au capital physique, à savoir les machines nécessaires à la production. Dans la pratique, l’approche néoclassique veut que cette main invisible réalloue le capital et la main d’œuvre pour produire ce que les consommateurs désirent consommer, et n’autorise pas de fluctuations ancrées dans l’économie générale et son activité. Si un choc modifie la demande générale ou l’offre générale, l’économie réajustera rapidement pour atteindre son équilibre, que ce soit par la variation des taux d’intérêts ou des salaires. Les économistes néoclassiques reposent sur la loi de Say qui stipule que tout ce qui est produit sera vendu car l’offre crée sa propre demande. Jean-Baptiste Say (économiste français et industriel du secteur du coton né le 5 Janvier 1767 à Lyon et décédé à Paris le 14 Novembre 1832) expliquait que si un bien est produit, le capital et la main d’œuvre utilisés pour le produire devra être compensé. Cette compensation, sous forme d’intérêts pour le capital financier et de salaires pour la main d’œuvre crée du pouvoir d’achat dans le sens où le travailleur reçoit une somme monétaire qu’il peut utiliser pour consommer les biens et services dont il a besoin. D’après l’école néoclassique, une crise massive est impossible de par le lissage continu et le retour à un équilibre économique constant. Cependant, cela arriva dans les années 30 avec la Grande Dépression. La validité de l’approche semble alors compromise, mais cela n’enlève pas tout à la valeur ajoutée que cette notion de main invisible et de retour à l’équilibre qui aujourd’hui encore ont leurs fondements. La Crise de 1929 a introduit une cassure dans la théorie économique car une crise de cette ampleur, jusque-là pas vécu, a touché de nombreux secteurs en même temps et d’une manière hautement dramatique. Parce que l’approche néoclassique a dénié la possibilité d’une dépression prolongée, elle ne saurait être utilisée pour expliquer comment combattre une telle dépression. Le principal mécanisme d’ajustement de l’école néoclassique, à savoir des réductions dans les salaires, était difficile à accomplir et remis en question plus tard par l’école Keynésienne. L’école de pensée autrichienne, incluant Friedrich Hayek (Friedrich August von Hayek, philosophe et économiste né le 8 mai 1899 à Vienne et décédé le 23 mars 1992 à Fribourg-en-Brisgau, en Allemagne) et Ludwig von Mises (économiste né le 29 Septembre 13
  14. 14. 1881 à Lember en Autriche-Hongrie et décédé le 10 Octobre 1973 à New-York) partage quelques points de vues avec l’école de pensée néoclassique, mais se concentre principalement sur deux sujets que sont l’argent et le gouvernement. L’argent n’était pas une nécessité dans le modèle néoclassique car l’échange de biens et services pouvait avoir lieu dans la forme de troc et pouvait toujours permettre d’atteindre un équilibre de valeurs. L’argent n’était alors vu que comme un moyen de simplification des échanges. De façon similaire, le rôle du gouvernement dans le modèle néoclassique était relativement limité car l’économie était vu comme capable de se prendre en charge elle-même et le gouvernement n’avait qu’un rôle de maintien de la loi et de sécurisation des frontières. Von Hayek argumentait que les fluctuations sont causées par les actions des gouvernements qui cherchent à accroitre le Produit Intérieur Brut et l’emploi en adoptant des politiques monétaires expansionnistes. D’après cette approche, les gouvernements diminuent les taux d’intérêts des marchés en dessous de leur valeur naturelle, ou valeur vers laquelle la main invisible les amènerait d’après Adam Smith, tendant ainsi à inciter les entreprises à investir toujours plus. Une fois que les entreprises réalisent qu’elles ont accumulé trop de machines et de structure, elles vont logiquement et soudainement arrêter d’investir, ce qui aura pour conséquence de réduire la demande générale et ainsi créer une crise dans l’économie. Pour retourner à un nouvel équilibre, les prix et les salaires doivent diminuer. Le résultat d’une telle manipulation des taux d’intérêts explique les fluctuations exhibées par l’économie qui n’auraient pas eu lieu autrement. L’école australienne préconise alors un interventionnisme limité du gouvernement dans l’économie. Cette pensée met en avant l’importance des décisions prises par le gouvernement d’un pays et l’importance de les incorporer dans l’étude d’une analyse financière. Les implications plus ou moins directes des décisions gouvernementales sont ainsi des éléments incontournables qui expliquent une part de la valeur donnée à un titre financier. L’école autrichienne va encore plus loin avec sa théorie de l’origine des cycles économiques : les interventions malavisées des gouvernements. L’école néoclassique n’a pas de théorie concernant les cycles économiques et notamment leur origine. Cependant, Joseph Schumpeter (économiste autrichien né le 8 Février 1883 à Triesch en Autriche-Hongrie et décédé le 8 Janvier 1950 à Salisbury au Connecticut), membre de ce courant de pensée, a formulé sa théorie sur la destruction créatrice et l’innovation qui montre que des cycles à l’intérieur des secteurs économiques résultent de progrès technologiques. Sa théorie de l’innovation explique des cycles limités aux secteurs : quand un inventeur crée un nouveau produit ou un moyen nouveau de mieux produire un bien ou service déjà existant, 14
  15. 15. l’entrepreneur à l’origine de cette découverte aura tendance à avoir de plus gros profits et tendrait à sortir les producteurs actuels du marché. Cette théorie est notifiable aujourd’hui encore avec les facteurs clés de succès nécessaires aux entreprises pour rester sur leur secteur : toutes les innovations technologiques peuvent être des exemples : avant de devenir un facteur clé de succès, autrement dit un élément indispensable à prendre en compte pour intégrer et rester sur un marché, une découverte technologique était un élément de distinction qui a permis à son entrepreneur inventeur de se différencier de ses concurrents et ainsi récupérer des parts de marché. Une fois le succès perçu par les concurrents, ces derniers doivent s’adapter et proposer un élément nouveau au moins équivalent à cette découverte pour récupérer leurs parts de marché. On note ainsi un des éléments nécessaires au maintien d’une entreprise sur son secteur : ses dépenses en Recherches et Développements, nécessaires pour se différencier de ses concurrents. Par cette théorie de l’innovation, Joseph Schumpeter a mis en avant l’idée que les innovations elles-mêmes peuvent générer des crises qui affectent un secteur. Deux autres écoles de pensées économiques, l’école Keynésienne et l’école Monétariste, ont eu une influence plus importante dans leur analyse des liens entre les cycles économiques et l’influence des gouvernements en ce qu’elles leur reconnaissent un rôle interventionniste important. John Maynard Keynes (économiste britannique né le 5 Juin 1883 à Cambridge en Angleterre et décédé le 21 Avril 1946 à Firle dans le Sussex, au RoyaumeUni) contestait les approches néoclassiques et australiennes. Il observa qu’une réduction généralisée des prix et des salaires, nécessaire pour ramener les marchés à un équilibre durant une récession, est dur à réaliser. Par exemple, un travailleur ne veut pas voir son salaire diminuer, ce qui rend l’action de réduire les salaires anti-démagogue et donc contraire à l’un des intérêts principaux des politiques, à savoir leur réélection. Dans l’hypothèse où la main d’œuvre serait prête à accepter une baisse de salaire, cette situation pourrait exacerber la crise dans laquelle l’économie se trouve en réduisant la demande générale plutôt que de la résoudre. (Cet aspect négatif a été noté dernièrement, avec les prévisions du FMI dans la relance économique de la Grèce.) La diminution de salaire implique une diminution des dépenses et donc de la demande générale. Cette réponse causerait une contraction encore plus importante dans la demande. De plus, Keynes pensait que d’autres circonstances pour lesquels une baisse des taux d’intérêts pourrait ne pas avoir comme conséquence une relance de la croissance : si la confiance dans les affaires et les attentes futures sont négatives, les entreprises peineront à investir car ne verront pas l’intérêt à dépenser de l’argent qui ne saurait 15
  16. 16. fructifier dans le futur. Tout en acceptant et validant quelque part l’idée d’un retour à l’équilibre sur le long terme, comme proposé par les écoles néoclassiques et autrichiennes, Keynes préconise l’intervention de l’Etat sous forme d’une politique fiscale soutenue. D’après son approche, l’Etat devrait intervenir lorsque les Crises ont lieu dans le but de conserver l’utilisation efficiente du capital et de la main d’œuvre. L’Etat devrait être un Etat providence, dans le sens où il n’interviendrait dans l’économie uniquement en cas de Crise, en cas de dernier recours dans le but de limiter les dommages des récessions majeures. Cette pensée économique, bien que présente aujourd’hui dans les principaux pays contemporains, a tout de même ses limites qui doivent être prises en considération lorsqu’il va être question d’analyser un marché. Premièrement, une hausse des dépenses fiscales implique une hausse de la dette publique qu’il va falloir in fine rembourser. Il y a le danger pour les gouvernements de finir asphyxiés par le remboursement de leur dette. Cette problématique est notamment d’actualité avec les taux d’endettements des pays européens et des Etats-Unis; le défaut de la Grèce à rembourser l’intégralité de sa dette a été un exemple phare des limites de cette politique fiscale. Deuxièmement, les cycles économiques appelés par Keynes visent le court terme. Sur le long terme, l’économie a de forte chance de revenir avec un effet de surchauffe sur l’économie : une croissance économique rapide dont le rythme n’est pas soutenable sur le long terme engendre diverses conséquences dont notamment l’inflation. Cette situation s’explique aussi par le décalage entre le moment d’intervention de la politique fiscale expansionniste et le résultat espéré qui intervient à un moment où l’économie a changé d’état. De façon générale, les politiques fiscales prennent du temps pour être implémentées, ce qui engendre un décalage entre leur effet souhaité et les effets réellement réalisés car ils ont lieu alors que l’économie est dans un état différent. Ces critiques sur la pensée Keynésienne ont été fortement discutées et contestées par l’école de pensée Monétariste, sous l’égide de Milton Friedman (économiste américain né à New-York le 31 Juillet 1912 et décédé le 16 Novembre 2006 à San Francisco), considéré comme l’un des économistes les plus influents du 20e siècle. Le modèle Keynésien est tout d’abord contesté car il ne prend pas en considération l’importance de la monnaie et plus particulièrement de son offre. Si la monnaie croit trop rapidement, l’économie tendra vers un boom insoutenable sur du long-terme ; si la monnaie croit trop lentement, l’économie tendra vers la récession. La vision à court terme des Keynésiens est également mise à mal en ce qu’elle ne considère pas les coûts des interventions du gouvernement sur le long terme. Comme évoqué précédemment, une dette croissante et des intérêts trop élevés tendent à 16
  17. 17. l’asphyxie de l’Etat qui se répercutera sur les impôts et taxes prélevées, diminuant la consommation générale et faisant, sur du long terme, rentrer l’économie dans une phase de récession. Dernièrement, le timing des réponses du gouvernement est incertain et les effets stimulant d’une politique fiscale expansionniste peuvent avoir lieu une fois la crise terminée et ainsi causer plus de dégâts qu’en soigner. Ainsi, d’après l’école Monétariste, les cycles économiques s’expliquent par des chocs externes à l’économie et l’interventionnisme des gouvernements. D’après sa vision, il est préférable de laisser l’offre et la demande trouver leur équilibre plutôt que de risquer de causer de plus amples fluctuations économiques. L’Etat ou les banques centrales doivent être présents pour conserver un taux de croissance de la monnaie modéré. De récentes écoles de pensées économiques ont continué à apporter leur pierre à l’édifice de la compréhension des cycles économiques en attaquant un nouvel angle d’approche. L’école néoclassique, sous l’égide de Robert Lucas (économiste américain né le 15 septembre 1937 à Yakima dans l’Etat américain de Washington), a discuté les fondements des modèles utilisés pour expliquer les cycles économiques apportant ainsi un aspect critique sur les raisons qui tendent à influencer les cycles économiques et leurs effets. Lucas approuve la vision de Friedman en ajoutant que les modèles utilisés devraient essayer de représenter les actions des agents économiques avec une fonction d’utilité et des contraintes budgétaires, à l’image des modèles utilisés en microéconomie. Cette approche de la macroéconomie cherche des conclusions macroéconomiques de la maximisation de l’utilité des individus avec comme hypothèse sous-jacente que les entreprises tendent à maximiser leur profit. Les modèles néoclassiques sont dynamiques dans le sens où ils décrivent les fluctuations à travers plusieurs périodes et présentent un équilibre général dans le sens où ils cherchent à déterminer tous les prix d’équilibre plutôt qu’un seul prix. Cette approche globale des choses cherche à comprendre l’évolution économique dans son ensemble plutôt que comme des situations au cas par cas. Pour exemple, les modèles présentés par Edward Prescott et Finn Kydland ont un agent économique qui fait face à des chocs externes à l’économie, tel qu’à la suite de changements technologiques ou de changements de goûts des consommateurs, et par conséquence optimise son choix pour atteindre l’utilité maximale. Si tous les agents agissent de façon similaire, les marchés vont graduellement tendre vers un équilibre. Les économistes Néo classiques, partent de l’idée que certaines recommandations faites dans le passé était plutôt irrationnels et donc non cohérentes avec l’attitude des agents 17
  18. 18. économiques. Par exemple, si tout le monde est conscient que dans le cadre d’une récession le gouvernement baissera les taux d’intérêts pour relancer l’investissement des entreprises, alors pourquoi ces entreprises investiraient en dehors des phases de récessions ? Si la majorité des entreprises pensaient cela, elles arrêteraient d’investir, causant ainsi une récession qui n’aurait pas eu lieu. Dans cette idée, le gouvernement et ses politiques « contre-cycles économiques » pourraient causer une récession. Les premiers modèles néoclassiques, qui n’incluaient pas d’argent et étaient alors qualifiés de modèle à cycles économiques réels, concluaient que les phases d’expansion et de contractions représentent des opérations efficientes de l’économie en réponse à des chocs externes. Dans cette vision non monétaire, les cycles ont des causes réelles telles que des changements technologiques et supposent que les variables monétaires, tel que l’inflation n’ont pas d’incidence sur le Produit Intérieur Brut d’une nation. Ces modèles reposent sur l’efficience des marchés, prônant ainsi que le chômage ne peut être que de courte durée : mis à part le chômage frictionnel, qui est la part de chômage attribuable au fait que les individus se retrouvent sans emploi parce qu’ils changent d’emplois et se retrouvent pendant une durée très courte sans rien, si les marchés sont efficients, une personne sans emploi est alors une personne qui ne veut pas travailler. Si une personne est sans emploi, dans le cadre de marchés efficients, elle a juste besoin de baisser ses attentes en terme de salaire jusqu’à ce qu’elle trouve un employeur. Cette approche est logique car si les marchés sont parfaitement flexibles, tous les marchés doivent trouver l’équilibre et le plein emploi. Ainsi, une personne est sans emploi si elle demande un salaire trop élevé et a donc une fonction d’utilité maximisée par le fait d’avoir des loisirs et moins de consommation. Cependant, l’observation faite pendant les récessions est tout autre : le fait que beaucoup de personnes cherchent du travail mais soient incapables d’en trouver malgré une chute de leur rémunération souhaitée démontre l’inexactitude de l’approche. Ces derniers modèles donnent une relative plus grande importance à la demande générale que la plus part des autres théories. Par exemple, l’importance de l’offre est limitée dans la théorie keynésienne, surement car Keynes était fortement affecté par et focalisé sur la Grande Dépression qui était une crise de la demande. Les modèles à cycles économiques réels montrent que les chocs liés à l’offre, tels que les avancées technologiques, peuvent augmenter le Produit Intérieur Brut potentiel d’une nation. Cependant, toutes les entreprises, au sein d’un pays, ne peuvent adopter la nouvelle technologie d’un seul coup et donc l’atteinte de ce potentiel se fera par des ajustements temporels. L’effet inverse est également un élément qui 18
  19. 19. sort de ces dernières théories : l’augmentation de prix d’une énergie fortement utilisée par une nation va limiter l’offre et tendre à réduire le PIB potentiel. L’inflation est souvent vue comme une des causes principales des cycles économiques car lorsque les politiques monétaires finissent par être trop expansionnistes, l’économie croît à un rythme non soutenable sur du long-terme, créant ainsi un gap inflationniste. Les fournisseurs ne peuvent suivre la demande, les prix continuent à augmenter plus vite que la normale : c’est l’inflation. En conséquence, la banque centrale devra souvent intervenir pour limiter l’inflation en resserrant la politique monétaire, qui généralement se traduit par une hausse des taux d’intérêts. Les taux augmentant, le coût de l’emprunt augmente et en cascade la demande, plus précisément la part de consommation faite à crédit va ralentir. Cette réponse va diminuer l’équilibre du PIB et peut résulter dans une récession. Dans la mesure où l’inflation apparait être le déclencheur des choix réalisés par les banques centrales, c’est une part importante et un apport considérable des cycles d’activités modernes. Aussi, il semble crucial d’incorporer cette notion monétaire à la croissance économique pour évaluer l’évolution d’une entreprise. Cet aspect inflation est le sujet principal d’un autre groupe de modèles d’équilibre général dynamique que sont les Néo Keynésiens, qui à l’instar de l’école Néoclassique tente de placer la macroéconomie sur un pied d’égalité avec la microéconomie. Par contraste avec l’école néoclassique, l’école néo keynésienne suppose un ajustement lent des prix et salaires. Les modèles néo Keynésiens montrent que les marchés n’atteignent pas leur équilibre immédiatement et de façon lisse, mais plutôt par de petites imperfections qui laissent les marchés en constant déséquilibre. L’interventionnisme de l’Etat, comme préconisée par Keynes dans les années 30 peut être utile pour éliminer le chômage et amener les marchés vers un équilibre. L’un des meilleurs exemples de cette imperfection est que les travailleurs ne veulent pas voir leur salaire diminuer pour aider le marché à atteindre un nouvel équilibre. Une autre possibilité, mentionnée par différents économistes, est l’explication par le « coût du menu » : il est couteux pour une entreprise de modifier ses prix en permanence pour rendre le marché clair, tout comme il serait couteux pour un restaurateur d’imprimer de nouveaux menus tous les jours en fonction de la mise à jour des prix. Ces dernières années, un consensus concernant les cycles économiques a commencé à se construire en macroéconomie. Il est surement trop tôt pour dire que les économistes s’accordent sur toutes les causes et remèdes aux fluctuations économiques, mais un cadre 19
  20. 20. général semble avoir émergé, qui englobe les approches néo classiques et néo Keynésiennes. Le débat concernant les cycles économiques tend à être politisé, comme on peut le lire aujourd’hui encore dans la presse, avec d’une part des gens contre l’interventionnisme de l’Etat, qui le sont principalement car ils tendent vers des déficits budgétaires colossaux, et d’autre part des personnes en faveur, qui sont principalement tournés vers l’allègement que le gouvernement apporte aux larges chocs économiques. Dans le cadre de l’analyse financière, les choix politiques ne devraient pas rentrer en considération, mais elle devrait plutôt prendre en compte les politiques en vigueurs et leurs potentiels effets sur l’économie car elles participent en grande part aux cycles économiques. L’action d’un gouvernement est ainsi un élément à prendre en compte comme encadrement de l’économie dans lequel une entreprise se situe. Sa valeur va ainsi être affectée par les décisions prises par le gouvernement en place. De façon générale, les effets liés au gouvernement sont des éléments incontournables qui doivent être pris en considération dans l’évaluation d’une entreprise. Une chose est certaine : l’économie n’est pas parfaitement modélisable car trop complexe, trop enchevêtrée de décisions, d’effet, de conséquences. Il est donc compliqué de prévoir l’avenir économique avec suffisamment de certitudes pour prédire sereinement une tendance sur les marchés. Les crises financières et économiques ont mis en lumière des éléments qui peuvent être résumées en trois points : une euphorie générale des marchés alliée à une spéculation accrue, une économie en croissance soutenue et finalement des politiques gouvernementales à effet de levier. Sur la base de ces éléments, il est possible de ressentir et même de justifier par des données économiques qu’une crise est sur le point d’avoir lieu. Ces éléments permettent d’établir un schéma caractéristique pour le retournement de marché dans le cas d’une crise financière. Cependant, ces éléments ils ne se suffisent pas pour prédire une tendance de marché de façon générale. Néanmoins, ces éléments ont permis aux différentes écoles économiques de mettre en avant des éléments caractérisant les fluctuations de l’économie, des éléments de compréhension de l’évolution des marchés qui permet à l’analyse fondamentale de prévoir des tendances. La notion primordiale mise en lumière et soutenue par toutes les écoles et que les prix des biens et par extension les prix des titres financiers tendent à se rapprocher d’une valeur réelle, modulo des effets économiques qui viennent rendre plus ou moins efficient le transfert d’information inscrit dans les échanges entre agents économiques. 20
  21. 21. I - 2 Les modèles d’évaluation Avant de rentrer dans l’étude des modèles qui reprennent la logique tant macroéconomique que microéconomique, il est important de regarder les barrières à l’évaluation des actifs sur un marché. Ces barrières ont leur importance dans la logique de l’analyse financière. Des barrières à l’évaluation financière et de l’importance de l’efficience des marchés L'action d'une entreprise, titre de propriété représentatif de cette dernière, est censée refléter son état financier. L'équation comptable Actifs = Fonds Propres + Dettes met en évidence la part représentative de cet actif financier dans le financement des entreprises. Par extension et d'une manière sommaire, en supposant une proportion respectée des éléments du bilan, l'augmentation du prix d'une action représente l'évolution positive de l'industrie de l'entreprise, toute chose égale par ailleurs. A contrario, la baisse du prix d'une action représente l'évolution négative de l'économie de l'entreprise. Autrement dit, soit une entreprise fictive valorisée le 01/01/XX à 1 million d’euros, financée à 100% par du capital et divisé en 100 actions de 10.000€ chacune. Cette société détient 1 million d’euros d’actifs, de par l’équilibre entre actif et passif. D’un point de vue comptable, chaque action représente 1% des biens de l’entreprise. Lorsque l’entreprise crée de la valeur, cette valeur est ajoutée à l’actif et mise au résultat à distribuer au passif. Ce résultat vient ainsi augmenter la valeur de chaque action. Une création de 100.000€ de richesse vient ainsi augmenter la valeur de chaque action de 1.000€ (100.000€ / 100 actions). Sur cette base nait l'idée qu'une action, cotée avec un prix de marché est censée refléter sa valeur. Le point de vue comptable vient ainsi poser l’une des bases de l’évaluation d’une entreprise en prenant la valeur passée des biens de l’entreprise. Le point de vue de l’analyse financière vient compléter cette vision en y ajoutant les attentes futures espérées. La théorie générale d’évaluation d’une entreprise par l’analyse financière est que sa valeur est la somme de ses cash-flows futurs actualisés. Cette théorie vient incorporer l’espérance future de croissance économique de la société évaluée dans la mesure où l’entreprise sera rentable si elle arrivera à générer des cash-flows positifs dans le futur ; si elle n’arrive pas à générer de richesse, l’entreprise est vouée à disparaître. Aussi, cette richesse ne peut se faire que si l’entreprise dispose de moyens de productions, tels que ses machines ou encore sa main d’œuvre, qui doivent être financés. Le financement est ainsi le nerf de la guerre. 21
  22. 22. L’évaluation d’une société par l’analyse financière se fait par le biais des systèmes financiers qui consistent en des marchés ainsi que des intermédiaires financiers qui y opèrent. Ils permettent aux intermédiaires financiers agissant pour leur compte ou celui de leurs clients directement sur les marchés de résoudre des problèmes de financement ou de gestion du risque. De façon générale, un système financier sera efficace s'il permet aux investisseurs, aux emprunteurs, aux hedgers et aux traders de pouvoir trouver une solution à leur problème de financement ou également, sous un autre angle, de gestion de leur risque. Dans le cadre des marchés actions, un système financier est qualifiable d'efficace si les entreprises peuvent facilement avoir accès aux capitaux dont elles ont besoin pour soutenir leurs projets, si les investisseurs peuvent facilement déplacer leur argent vers le futur en échange d'une espérance de gain positive, au travers de dividendes et/ou d'une plus-value. Considérons deux économies et leur système financier respectif. La première économie (économie A), comparable à celle d'un pays développé, dispose d'un système financier fortement développé dans lequel les acteurs de l'économie peuvent échanger à travers des intermédiaires financiers relativement facilement. La deuxième économie (économie B) quant à elle ne dispose pas des moyens nécessaires pour mettre en place et maintenir un système d'échange financier efficace. Dans l'économie A, les actifs et contrats pour apporter des solutions aux problèmes financiers de ses acteurs sont à disposition, son système financier a ainsi des marchés qualifiables de complets. Les coûts pour arranger les transactions sont faibles de par le nombre élevé d'intermédiaires se concurrençant ; le système financier est alors qualifiable d’opérationnellement efficient. Son efficience informationnelle suppose, elle, que dans cette économie les prix des actifs et des contrats reflètent toute l'information relative aux valeurs fondamentales. L'économie B quant à elle n'est pas capable de fournir cette efficience. Les bénéfices d'un système financier fonctionnant correctement sont immenses. Dans notre économie A, les investisseurs désirant déplacer leur argent vers le futur peuvent facilement se connecter à des entrepreneurs nécessitant des fonds aujourd'hui pour développer de nouveaux produits et services. De façon similaire, les entrepreneurs qui éviteraient de se lancer dans leurs projets dans l'économie B à cause du risque trop élevé peuvent, dans l'économie A, transférer ces risques à d'autres qui sauront les supporter. En augmentant le nombre d'acteurs ayant accès aux besoins d'autres acteurs, les transactions peuvent prendre place entre un nombre plus élevés d'étrangers, les bénéfices d'échanger peuvent ainsi dériver d'un grand nombre de rencontres. 22
  23. 23. Les acteurs financiers bien informés rendent les prix informationellement efficaces de par leurs échanges. Quand ils achètent des actifs qu'ils pensent sous-évalués, ils tendent à faire monter leur prix. Inversement, quand ils vendent des actifs qu'ils pensent surévalués, ils tendent à faire baisser leur prix. Les interventions des acteurs agissant ainsi sur les marchés financiers font refléter les informations qu'ils détiennent concernant la valeur des actifs. Par contraste, l'économie B, disposant d'un système financier œuvrant pauvrement a de grandes difficultés à allouer les capitaux à disposition dans l'économie parmi les nombreuses sociétés qui peuvent s'en servir. Dans de telles économies, les transactions financières se limitent aux connaissances, aux cercles familiaux et amicaux car les demandeurs de capitaux ont du mal à trouver une contrepartie digne de confiance qui honorera ses engagements. Cette économie n'utilise pas les ressources où elles sont les plus productives, elle les gaspille, elle n'est pas allocativement efficiente. Comment les prix reflètent précisément les informations fondamentales dépend du coût pour obtenir ces informations et de la liquidité disponible aux échangeurs bien informés. Le cadre réglementaire de l'économie A, avec ses standards comptables et ses exigences de déclarations qui produisent des informations significatives et opportuns, réduit les coûts pour obtenir ces informations et ainsi permet de réaliser une analyse fondamentale plus précise, par laquelle il n’y a que peu de bruit d’information. Plus l'information est disponible facilement, plus elle est retranscrite dans le prix des actifs. Les marchés liquides de l'économie A permettent aux échangeurs bien informés de réaliser leurs ordres à bas coût. A contrario, dans l'économie B les coûts élevés pour passer des ordres en limitent le nombre, ayant pour conséquence de ne pas transmettre l'information, qu'ils véhiculent, au marché. Dans ce cas, la rentabilité limitée par les coûts pour passer des ordres enlèvera de l'intérêt à chercher ces échanges et donc les acteurs financiers n'engageront pas de ressources pour collecter et analyser les informations et n'échangeront pas. Sans ces recherches et sans ces échanges, les prix seront moins informatifs. Ainsi, plus un marché tendra à limiter les barrières à l'échange, plus il facilitera les rencontres entre acteurs et plus il tendra vers une efficience parfaite. La qualité d'un titre financier à retranscrire ses informations fondamentales sur les marchés est ainsi fonction inverse des coûts à l'échange. La qualité de fonctionnement d'un système financier est cruciale dans l'évaluation d'un titre. La caractéristique principale rendant les marchés de l'économie A plus efficients comparés à ceux de l'économie B est la régulation imposée par les agences gouvernementales 23
  24. 24. et supra-gouvernementales. Les régulateurs cherchent à promouvoir la justesse et l'ordre des marchés sur lesquels les opérateurs échangent à des prix qui reflètent la valeur fondamentale sans encourir de frais de transactions trop élevés. Regrettablement, certaines personnes voleront d'autres personnes si la chance leur en ai donné, surtout si la probabilité de se faire attraper est faible ou si les sanctions encourues sont trop faibles. Le nombre de façon que les gens ont de frauder ou de détourner des richesses aura tendance à augmenter avec la complexité des marchés qui croit et parce que les clients des intermédiaires financiers ont moins de connaissance et de compétences relativement aux professionnels qui les servent. Sur des marchés non régulés, les pertes dues à des comportementaux délictuels seront plus élevés. Ainsi, l’aspect de marchés efficients est un critère crucial pour l’évaluation des actifs financiers, en appui des théories des différentes écoles de pensées économiques. Les considérations à prendre en compte pour évaluer une action financière sont les coûts de transaction et les coûts nécessaires à l’obtention de l’information. Ce point est important, car il démontre l’existence d’un écart entre la valeur réelle, ou intrinsèque, d’une action et sa valeur cotée. Dans un monde parfait où l’information serait instantanément traitée et répercutée par tous les acteurs financiers et économiques du monde, sans aucune restriction quant aux échanges, le prix de l’action serait alors équivalent à la valeur intrinsèque de l’actif réel dont il est la représentation. Ceci n’étant évidemment pas le cas, l’approche de l’analyse financière va se concrétiser en l’approche d’une valeur. La modélisation : Outil de valorisation L’analyse fondamentale rassemble et traite des informations pour pouvoir prendre une décision d’investissement, incluant une recommandation d’achat, de vente ou une position neutre. Les informations rassemblées et la façon par laquelle elles sont traitées dépendent de l’objectif de l’analyse. L’analyse fondamentale utilise des informations concernant l’économie, le secteur et l’entreprise comme base pour ses décisions d’investissement, tels que les taux d’emploi, le Produit Intérieur Brut, les parts de marchés sectorielles ou encore la croissance des revenus de l’entreprise. 24
  25. 25. Les modèles d’évaluation utilisés pour déterminer la valeur du capital d’une entreprise servent à estimer sa valeur intrinsèque ou valeur fondamentale, qui est basée sur l’analyse de ses caractéristiques et de ses fondamentaux. Les fondamentaux ainsi considérés dépendent de l’approche d’évaluation utilisée ; dans une approche top-down, l’examen partira de l’environnement économique, pour arriver à l’analyse des actifs d’une compagnie, préalablement choisie dans un secteur prospère. Dans une approche bottom-up, un analyste suivant un secteur anticipe les fondamentaux pour les compagnies du secteur afin d’en déterminer une valeur. Qu’importe l’approche, l’analyse fondamentale questionne en réalité la précision du marché à donner un prix à un actif équivalent à sa valeur fondamentalement estimée. En partant du principe qu’une action cotée est sous-évaluée, l’analyse fondamentale prédit qu’elle tendra à s’apprécier et inversement, une action cotée qui est surévaluée tendra à se déprécier. Avec des target price (objectifs de prix) sur des périodes généralement de plusieurs mois à un an, l’analyse fondamentale prédit une tendance de marché, soit à la hausse, si l’actif est sous-évalué par rapport à sa valeur intrinsèque, soit à la baisse, si l’actif est surévalué, soit neutre, si le prix de marché reflète assez bien la valeur intrinsèque du titre financier. Ainsi est l’objectif de l’analyse financière lorsqu’il est question d’évaluer une action cotée en Bourse : prédire une tendance. L’analyse fondamentale se sert ainsi de modèles prenant en paramètres différentes données marchés, secteurs et propres à l’entreprise évaluée. Ces modèles sont des simplifications du monde réel. Deux principaux types de modèle sont utilisés par les analystes financiers, selon le type de fondamentaux et de caractéristiques utilisés. Ces différents types de modèles sont nécessaires pour permettre un recoupage des informations apportées et une meilleure confiance dans l’estimation des valeurs intrinsèques. Les premiers types de modèles sont les modèles dits de valeurs actualisées, ils estiment la valeur intrinsèque d’une entreprise comme la valeur présente de ses futurs bénéfices espérés. Ces modèles suivent le principe économique fondamental précédemment mis en lumière qui formule que les individus reportent leur consommation, autrement dit, ils investissent, pour obtenir des bénéfices futures supérieurs à une consommation actuelle. Les individus et les entreprises réalisent des investissements parce qu’ils en espèrent un taux de rendement sur la période d’investissement. Logiquement, la valeur d’un investissement devrait être égale à la valeur actualisée des bénéfices futurs. Pour des actions ordinaires, l’actualisation de ses cashflows, correspond à cette logique. 25
  26. 26. Le modèle le plus simpliste est le modèle d’actualisation des dividendes qui spécifie que les cashflows futurs sont les dividendes associés à l’action ; la valeur d’une entreprise est égale à la somme de ses dividendes futurs actualisés. Aussi, l’expression du Modèle de Dividendes Actualisés est V0 = ∑ [Dt x (1 + r)-t], avec V0 la valeur de l’action aujourd’hui à t=0, Dt le dividende espéré en date t et r le taux de rendement espéré. Au niveau de l’actionnaire, les cashflows reçus d’une action incluent les dividendes et les gains réalisés sur la vente future. Si un investisseur a l’intention d’acheter une action pour une année, sa valeur actuelle et la somme de deux cashflows : le dividende de l’année en cours plus le prix de revente de l’action espéré autrement dit, V0 = (D1 + P1) x (1 + r)-1, avec P1 le prix espéré en date 1. Le prix de l’action en P1 peut s’estimer de façon similaire avec le dividende espéré en date 2 ainsi que le prix de revente espéré en date 2 soit P1 = (D2 + P2) x (1 + r)-1. Par substitution, on obtient ainsi la valeur de l’action en V0 = D1 x (1 + r)-1 + (D2 + P2) x (1 + r)2 . Par répétition de cet exercice de décomposition, on obtient la valeur en V0 = ∑ [Dt x (1 + r)- t ] + Pt x (1 + r)-t. En étendant la période de détention de l’action à une durée infinie, apparait la formule représentant la formule V0 = ∑ [Dt x (1 + r)-t] présentant la valeur d’une action comme la valeur présente de tous ses dividendes futurs. La considération d’un futur infini est valide dans la mesure où les entreprises cotées en Bourse sont établies pour opérer à l’infini. Ce modèle rencontre cependant un problème pour les entreprises ne distribuant pas de dividendes, comme c’est le cas pour certaines entreprises mid-cap (entreprises à capitalisation moyenne). Il en va de même pour les sociétés dont les dividendes futurs sont difficilement estimables. Dans la pratique, beaucoup d’analystes préfèrent pour cela utiliser un modèle de Free-Cash-Flow-to-Equity (FCFE) avec comme hypothèse que la capacité d’une entreprise à distribuer un dividende devrait être reflétée dans l’estimation des cashflows plutôt que les dividendes espérés. Le calcul du FCFE commence par le calcul des cashflows opérationnel de l’entreprise auxquels sont enlevés les dépenses d’investissement et rajoutés les emprunts net. L’avantage de ce calcul est que l’intégralité des données nécessaires sont disponibles à dans les documents comptables de l’entreprise et l’estimation des FCFE futurs s’établi plus facilement. Le modèle s’écrit ainsi similairement à celui des dividendes actualisés comme la somme des FCFE futurs V0 = ∑ [FCFEt x (1 + r)-t]. Un autre problème plus évident lors de l’utilisation du modèle d’actualisation des dividendes futurs est qu’il nécessite une estimation de séries de dividendes à l’infinie, ou au moins sur une période suffisamment longue pour que le taux d’actualisation rende la valeur présente nulle. Pour simplifier ce processus, les analystes financiers prennent l’hypothèse que 26
  27. 27. les dividendes vont évoluer à travers le temps à un rythme constant. Le Gordon Growth Model (traduisible en Modèle de croissance de Gordon) est ainsi particulièrement approprié pour évaluer les entreprises dans leurs phases de maturité, peu sensibles au cycle économique. Avec l’hypothèse d’une croissance constante g, l’équation du modèle d’actualisation des dividendes devient V0 = ∑ [D0 x (1 +g) x (1 + r)-t]. L’expression ∑ [D0 x (1 +g)] reprend les cashflows futurs à l’infini qui croissent à un rythme g constant. Avec l’hypothèse que le taux de rendement requis par les investisseurs r est strictement plus grand que le taux de croissance g, la formule se transforme en la forme simplifiée du modèle de Gordon Shapiro et s’écrit V0 = [D0 x (1 + g)] / [(r - g)]. Ainsi, le Gordon Growth Model estime la valeur intrinsèque d’une action comme la valeur actuelle d’une perpétuité croissante (si g = 0 on retrouve une perpétuité classique). Vient alors la problématique de cette croissance constante et de son estimation. Deux approches sont utilisées, une historique, l’autre plus déterminée. La première approche détermine un taux de croissance à partir des dividendes passés avec une régression linéaire. La deuxième approche reprend la logique du modèle FCFE et détermine le taux de croissance comme le produit du retour sur investissement ROE et du taux de rétention des profits b : g = b x ROE. Le taux de rétention des profits correspond à la part des profits non distribués, et donc réinjectés dans l’entreprise pour ses investissements ; multipliés par le retour sur investissement, il permet d’estimer cette proportion de réinvestissement accru par l’effet de retour sur lui-même. Les hypothèses ainsi soutenues par le modèle de Gordon Shapiro sont que premièrement les dividendes représentent une bonne métrique à utiliser dans le but d’évaluer une action. Deuxièmement, le taux de croissance des dividendes est éternel, autrement dit il est perpétuel et ne change jamais. Troisièmement, le taux de rendement est constant à travers le temps. Quatrièmement le taux de croissance est strictement inférieur au taux de rendement requis. Ces hypothèses, bien qu’initialement venu apporter une amélioration par rapport au modèle d’actualisation des dividendes futurs sont discutables car quelque peu trop simplistes pour refléter les caractéristiques de l’entreprise à évaluer. De façon similaire au modèle d’actualisation des dividendes futurs, le Gordon Growth Model n’est pas fait pour les entreprises ne distribuant pas de dividendes. Beaucoup d’autres modèles dérivent ainsi de l’hypothèse économique que la valeur actuelle d’un actif correspond à l’actualisation de ses cashflows futurs. Certains modèles prennent notamment en compte la situation de l’entreprise dans son cycle économique, dans la mesure où les distributions de dividendes diffèrent d’un état à un autre. Même si chaque 27
  28. 28. modèle vient apporter sa particularité pour complémenter ses pairs et ainsi apporter une précision dans l’évaluation d’une action, aucun modèle de cette famille n’est suffisamment solide pour prédire avec exactitude la valeur intrinsèque d’une entreprise. La valeur des dividendes reste en effet incertaine dans le futur, l’entreprise pouvant se retrouver dans une situation où elle aura besoin de s’autofinancer en quantité supérieure à l’habitude. Cela a été le cas pour beaucoup de sociétés cotés (ou non) dans les années suivants la crise de 2008. La méthode d’évaluation perd également en efficacité si la société se trouve dans une situation financière chancelante, avec des rendements futurs incertains. Les deuxièmes types de modèles, qualifiés de modèles des multiplicateurs de marché, se basent quant à eux sur des multiples de prix d’action ou de valeur de marché d’entreprise. Le terme de multiplicateur fait référence à un ratio qui compare le prix d’une action avec un flux monétaire ou une valeur qui permet l’évaluation de la valeur relative de cette action. Cette méthode est principalement utilisée en tant que moniteur de marché : si le ratio tombe sous une valeur spécifique, les actions sont alors identifiées comme candidates à l’achat, ou inversement, si le ratio dépasse une valeur spécifique, l’action sera pour la vente. Un certain nombre d’indicateurs sont ainsi utilisés par les analystes financiers, tels que le Price-toEarnings ratio (P/E), le Price-to-Book ratio (P/B), le Price-to-Sales ratio (P/S) ou encore le Price-to-Cashflows ratio. Une critique de tous ces multiplicateurs est qu’ils ne prennent pas en considération le futur, ils ne se servent que des données présentes de la société, issues soit de la comptabilité soit du marché (ex. capitalisation boursière). Cette critique est cependant contrée par l’utilisation d’une variété de techniques incluant des prévisions de fondamentaux au dénominateur. Le résultat obtenu peut remarquablement changer du multiplicateur calculé sur la base des données comptables, présentant des valeurs présentes voir passées. Dans l’absence de prévisions explicites de valeurs fondamentales, l’analyse résulte en une prévision implicite. Un ratio multiplicateur est souvent associé à un fondamental de l’entreprise. Bien que l’approche des ratios multiplicateurs soit fréquemment utilisée indépendamment des modèles d’actualisation de cashflows futurs, le fondamental sélectionné est généralement obtenu à travers une méthode d’actualisation de cashflows, associés au fondamental. La connexion entre les deux peut approfondir l’appréciation des facteurs de l’analyse qui affectent la valeur du multiple. Cela permet également d’expliquer certaines raisons pour des « incohérences » dans les multiples qui n’impliquent pas forcément un mauvais pricing. En partant du modèle 28
  29. 29. de Gordon Shapiro et en rappelant l’idée que le prix de marché d’une action tendra vers la valeur intrinsèque de l’action, soit, en supposant que la valeur intrinsèque V0 est égale au prix P0 : P0 = [D0 x (1 + g)] / [(r - g)]. En posant D1 = D0 x (1 + g), D1 équivalant ainsi les dividendes espérés l’année suivante, on obtient P0 = [D1 / [(r - g)]. Pour obtenir le Price-ToEarnings ratio (P/E), on incorpore les revenues E (pour earnings = Résultat Net) en divisant de chaque côté P0/E1 = (D1/E1) / [(r - g)]. Le rapport de D/E est également connu comme le ratio de redistribution de dividendes p, ou, la part du résultat net redistribué sous forme de dividendes. P0/E1 = (D1/E1) / [(r - g)] = p / [(r - g)]. L’équation ainsi obtenue indique que le P/E ratio est inversement lié au taux de rendement et positivement lié au taux de croissance. Autrement dit, une augmentation du taux de rendement implique une baisse du P/E ; une augmentation du taux de croissance implique une aussi du P/E. De même, le P/E ratio est positivement lié au taux de distribution de dividendes p. Le multiple met ainsi en lumière le lien fait entre l’activité de l’entreprise, l’espérance future de sa croissance et le prix du titre. Une autre approche des ratios multiplicateurs, plus largement utilisée, est la méthode des comparables. Cette méthode compare essentiellement les valeurs relatives estimées en utilisant des multiples ou des valeurs relatives de multiples. L’hypothèse économique rationnelle sous-jacente à cette méthode est la Loi du prix unique, qui stipule que tous les actifs identiques devraient se vendre au même prix. La méthodologie implique l’utilisation d’un ratio multiplicateur pour évaluer si un titre est soit normalement évalué, soit sous-évalué ou surévalué en relation à une valeur benchmark du multiplicateur. Les choix pour le benchmark peuvent inclure le multiple d’une entreprise similaire, c’est-à-dire dont l’activité est fortement ressemblante ; une moyenne ou encore une valeur médiane issue du secteur d’activité de l’entreprise. Identifier une entreprise benchmark individuelle ou encore le niveau de secteur dans lequel se trouve l’entreprise peut présenter un défi important. Beaucoup de grandes entreprises opèrent plusieurs lignes business ; l’échelle et la portée de leurs opérations peut ainsi grandement varier. La contrainte est de trouver une entreprise suffisamment similaire dans ses activités d’après plusieurs nombres de critères et de dimensions, comme la taille, les lignes produits, les services, les taux de croissance. De plus, cette approche s’attarde à trouver des écarts entre l’entreprise évaluée et son secteur. Une fois une différence significative trouvée, l’analyse doit investiguer plus en profondeur ces contradictions pour comprendre l’origine même de l’écart. Une extension de cette approche est la comparaison de l’entreprise avec elle-même à travers le temps. L’évolution de ses ratios indique la tendance que prend l’entreprise, en termes de croissance, de rentabilité, de 29
  30. 30. dividendes distribués ou conservés pour son développement, etc. L’avantage majeur de cette approche par les comparables des prix multiplicateurs est qu’elle permet facilement de réaliser une comparaison relative, contre le marché ou d’autres comparables, et contre ellemême à travers le temps. L’analyse va ainsi tendre à indiquer contre quelle entreprise ou moyenne de marché le titre est sur ou sous-évalué vis-à-vis d’un autre titre ou secteur. Dans le cadre d’une comparaison d’un titre vis-à-vis de son secteur ou d’un pair, l’analyse va être limitée en ce qu’elle ne fera qu’indiquer une valeur par rapport à un autre titre et non une valeur propre à l’entreprise. Les marchés actions, bien qu’ayant une forte efficience, ne peuvent retranscrire en temps réel la valeur vraie d’un titre financier. Lorsqu’il est question d’évaluer une action cotée en Bourse, l’analyse financière va ainsi se donner comme mission d’indiquer l’écart avec lequel une action coté diverge de sa valeur intrinsèque, autrement dit, d’estimer la valeur intrinsèque d’un titre et de la comparer à son prix coté avec comme idée que la cotation tendra in fine à se rapprocher de la valeur intrinsèque du titre. En cas de sous-évaluation, l’analyse aura comme conclusion que le titre s’inscrit dans une tendance haussière ; dans le cas d’une surévaluation, l’analyse conclura à une tendance baissière. Une conclusion est également valable dans le cas où la valeur intrinsèque estimée serait sensiblement identique au prix de l’action : le titre se trouve dans une tendance neutre ; l’analyse fondamentale sera alors dans l’attente d’informations neuves. L’analyse fondamentale est dépendante des données à sa disposition, qu’elles proviennent de l’économie en générale, qui aura un impact plus ou moins direct sur la société évaluée, qu’elles proviennent du secteur dans lequel se situe l’entreprise, et dans lequel elle aura des interactions avec ses concurrents, ses fournisseurs, ses clients, ou encore des données propres à l’entreprise, qu’elle retrouve au travers de ses différents états financiers et, de façon générale, des décisions du management. Pour en arriver à une conclusion quant à une tendance de marché, l’analyse financière va considérer trois aspects autours desquelles elle va étayer un point de vue: les éléments comptables de l’entreprise évaluée seront la base de l’analyse et serviront à comprendre la valeur « passé » de l’entreprise : comment l’entreprise a installé son business, et évolué à travers le temps. Les espérances de croissance attendues, représentant l’espérance de gains futurs, serviront quant à elles à estimer ce qui peut être attendu de l’entreprise, la croissance et les gains qu’elle peut encore apporter. Finalement, reste la valeur que le marché donne au titre 30
  31. 31. financier, qui, une fois l’évaluation intrinsèque du titre réalisée, permettra de projeter l’action dans le futur et d’indiquer si le titre va à la hausse ou à la baisse. II - L’APPORT DE L’ANALYSE TECHNIQUE Les fondements théoriques de l’analyse technique L’analyse technique est une boite à outil qui se base sur des historiques de cours. Elle permet d’analyser de manière pertinente les tendances boursières en matérialisant, sous forme de graphique, le comportement de la rencontre entre les acheteurs et les vendeurs d’un actif financier. En outre, l’analyse technique essaye de comprendre et d’évaluer le comportement des intervenants de marché. Elle trouve son efficacité lorsque le marché est inefficient car les opérateurs de marché sont submergés par leurs biais psychologiques lors de prises de décision en situation d’incertitude. Ainsi, l’analyse technique s’appuie sur des fondements théoriques que l’on peut retrouver chez les tenants de l’analyse comportementale et psychologique. En effet, l’école comportementaliste contredit l’école néo-classique sur la théorie de l’efficience de marché. Les néo-classiques considèrent que le cours d’un actif ne peut s’éloigner très longtemps de sa valeur fondamentale car les arbitragistes corrigent ces anomalies de marché et le cours revient ainsi à sa valeur fondamentale. Néanmoins, les comportementalistes considèrent que certains phénomènes restent inexpliqués par les seuls fondamentaux. Alors comment expliquer ce décalage de cours d’un actif financier de sa valeur fondamentale ? En reprenant les travaux de KAHNEMAN et TVERSKY en 1979, sur la théorie des perspectives aléatoires, nous allons essayer de comprendre quels sont les facteurs qui influencent les agents économiques, lorsqu’ils sont en situation d’incertitude lors de leurs prises de décision. En effet, les opérateurs de marché sont soumis à de nombreux biais psychologique propre à la psychologie humaine que nous allons étudier. 31
  32. 32. II – 1 L’analyse comportementale : les biais psychologiques 1.1 Les biais cognitifs Les biais cognitifs portent sur l’importance de nos connaissances et de nos croyances dans le processus décisionnel. Il montre que les opérateurs de marché ont souvent recours à des raccourcis cognitifs lors de la prise de décision. Les individus vont se référer à des heuristiques. Ce sont des règles empiriques qui permettent de simplifier le raisonnement en matière d’analyse et de prise de décision dans le but de gagner du temps. De ce fait, les individus ne prennent pas en compte tous les éléments qui leurs sont à leurs disposition. Dans la précipitation, ils prennent donc des positions erronées car ils n’ont pas été rationnels dans leur raisonnement. Le biais d’ancrage Le biais d’ancrage défini le fait que la prise de décision est influencée par le contexte dans lequel elle a été prise. En effet, on retrouve fréquemment ce biais dans le cas où une décision a été prise en situation d’incertitude. La disponibilité immédiate de l’information met les individus sur le même piédestal mais l’interprétation peut être différente d’un individu à l’autre. Un investisseur qui joue un titre à la hausse prendra ses gains dans la zone de résistance. A contrario, un investisseur qui joue un titre à la baisse prendra ces bénéfices sur la zone de support. L’analyse technique permet donc de renforcer la pertinence du biais d’ancrage en apportant un soutien visuel sur ces zones de support et de résistance. Le biais de conservatisme et la dissonance cognitive Le biais de conservatisme met en avant l’individu sur son autorité dans la prise de décision. En effet, l’individu porte une importance à ses connaissances notamment quand sa prise de décision concorde avec celle-ci. Deux composantes se définissent : la composante affective qui caractérise les émotions et la composante cognitive relative à la connaissance et la croyance. Les idées ancrées d’un décideur se renforce par les croyances qui concordent avec les informations obtenues. La composante émotionnelle se forment par le regroupement croyance et de savoir renforcé dans l’esprit d’un individu. 32
  33. 33. La dissonance cognitive évoque la situation où laquelle l’individu est en contradiction avec les infos obtenues et avec les croyances et les connaissances ce qui le met dans un état de stress difficile à gérer. On en dégage l’idée selon laquelle la perception d’un individu est sélective. En ignorant les infos, l’individu va réduire cette dissonance cognitive. De manière globale, plus l’investigation de l’investisseur est importante et plus il lui est difficile de changer son positionnement. Dès lors, l’individu élimine toutes les infos qui sont en contradiction avec ces croyances et connaissances. La dissonance cognitive semble supprimer toute objectivité de l’individu. La loi des petits nombres Les probabilités sont efficaces lorsque l’échantillon étudié est important. Cependant, certain intervenant de marché utilise un faible échantillonnage pour en tirer une loi générale. C’est une erreur en matière de probabilité car en situation d’incertitude ces opérateurs sont submergé par leurs biais cognitifs et ne tiennent pas compte de la loi des grands nombres. Ces individus transforment les probabilités et surpondèrent certains événements dont la probabilité d’occurrence est pourtant faible et inversement, ils ont tendance à sous-pondérer certains évènements dont la probabilité d’occurrence est pourtant forte. La loi des petits nombres met en avant l’efficacité de certaines figures chartistes qui permet de repérer clairement cette réaction des investisseurs. Le biais momentum Il démontre qu’un individu se base sur des évènements qui se sont passés récemment pour prendre leur décision. On remarque que l’investisseur est optimiste dans un marché haussier et pessimiste dans un marché baissier. Il pense que la hausse récente va se poursuivre et inversement dans le cas d’une baisse, il envisage que la baisse récente va se poursuivre. Dans ce cas de figure, il néglige totalement la loi des grands nombres et émet sa prévision à partir d’une série courte de données. Les acheteurs se positionnent à la hausse lorsqu’un actif financier progresse à la hausse. La hausse entraine la hausse et arrivé sur le sommet de l’ascension, d’autres acheteurs vont entrer dans le marché en passant que la hausse va continuer. Néanmoins la force acheteuse s’essouffle et les acheteurs sont pris de panique car les vendeurs ont pris le dessus et le cours de l’actif financier se retourne à la baisse. Ce 33
  34. 34. comportement est visible sur certains indicateurs techniques qui identifient ce retournement de tendance. 1.2 Les biais émotionnels Les bais émotionnels se réfère à la théorie de l’utilité espérée évoqué par NEUMANN et MORGENSTERN. Cette théorie explique comment les investisseurs réagissent dans un contexte incertain et remet en cause la théorie des néo-classique selon laquelle tout individus est rationnel et omniscient. Les comportementalistes décrivent donc deux principales caractéristiques mis en avant par la théorie de l’utilité espérée : un individu accepte plutôt une perte aléatoire à une perte certaine et préfèrent un gain certain à un gain aléatoire. Il pense qu’il est plus difficile pour les individus de maitriser leurs pertes que leurs gains. Le biais de l’attribution personnelle Le biais de l’attribution personnelle s’explique par le fait qu’un individu a recours à une pensée magique pour initier sa prise de décision. En effet, l’individu refoule un sentiment de supériorité à l’écart des autres individus et ce surplus d’optimisme le pousse à croire qu’il est supérieur aux autres. Lorsqu’un individu utilise cette pensée magique lors d’une prise de décision et que sont choix s’avère être juste, il en déduira que cela est uniquement la conséquence logique de ces qualités personnelles. Tandis que si le résultat est contraire à sa prise de décision, il portera systématiquement la faute sur le mauvais sors. L’individu ne prend pas en compte la globalité du problème et s’induit en erreur car il est focaliser sur soimême et agit par conséquent de manière irrationnel. Le biais dynamique Les opérateurs du marché ont tendance à se fier aux résultats enregistrés précédemment. Deux types de comportement en découlent : une série de gain occasionnerait un sentiment d’invincibilité et une prise risques plus considérable. Une série de perte engendrerait un traumatisme et l’individu se repliera des marchés. 34
  35. 35. 1.3 Les conventions Définition Une convention se définie comme un commandement ou un principe entre divers personnes ou groupe. Ce commandement peut être officiel ou officieux. Il s’agit d’un principe de conduite que toute personne connait, juge comme rationnel et à laquelle ils se conforment, même si elle n’est pas toujours fondé scientifiquement. Dans une situation de doute, il est très difficile même voire impossible pour un investisseur de prévoir la progression des marchés. Effectivement, dans cette situation, un individu accepte les codes de la collectivité même s’il n’y adhère pas personnellement, car les refuser est une menace d’être mis à l’écart. Une convention symbolise une régularité d’état d’esprit pour des investisseurs placé dans une situation semblable. Face à cette situation, ils vont avoir le même comportement pour décider en situation de doute. La convention donne les moyens de gérer cette situation et principalement de se décider. Car il pense, ou même pense savoir, comment les autres investisseurs pourrait réagir dans un contexte incertain. Conditions à la formation d’une convention Pour qu’une convention prenne forme, il faut que la plus part des individus y adhèrent. L’individu initiateur de la convention espère que les autres individus y adhèrent également. Si, les autres individus y adhèrent également, on décrit ce phénomène de prophéties autoréalisatrices. Ce phénomène explique donc le fait qu’un individu peut générer une règle de conduite qui sera suivie par les autres individus même si cette dernière n’a aucun fondement scientifique. La convention en question est donc renforcée et sa crédibilité dépend de la confiance que portent les autres individus à son égard. Ce phénomène irrationnel peut expliquer pourquoi on remarque des variations de prix d’un actif financier de sa valeur fondamentale qui ne peuvent être expliqués par la seule analyse fondamentale. L’irrationalité peut être à l’origine de formation de bulles spéculatives lorsque les opérateurs de marché sont pris au piège par leurs biais psychologique mais ce n’est pas la raison principales de la formation de ces bulles spéculatives. D’après les comportementalistes, l’irrationalité des investisseurs est un facteur essentiel dans l’inefficience de marché. Pour eux, elle serait à l’origine de ces décalages de cours entre la valeur boursière et la valeur 35
  36. 36. fondamentale. Malgré la diffusion quasi instantanée de l’information à l’ensemble des individus, il existe des disparités informationnelles d’individu à un autre. En effet, certains individus, issue de grandes institutions, peuvent avoir des informations privilégiées pour laquelle les autres individus n’ont pas accès. Dans un contexte incertain, ces derniers vont suivre l’individu qui s’est positionné sur la nouvelle convention en contradiction avec le consensus dominants. On peut alors parler de comportement moutonnier, de rationalité mimétique ou encore de rationalité autoréférentielle. Tous les individus se basent sur une règle fausse qui finit par être rationnelle lorsque son utilisation devient massive. Ce comportement peut être assimilé à la célèbre étude de KEYNES sur le concours de beauté qui met en évidence le phénomène pour lequel les individus vont adopter le même comportement pour se fondre dans la masse et en vue de ne pas être marginalisé par le refus de cette mode. Néanmoins, les modes ne durent jamais très longtemps et changent assez fréquemment. C’est pourquoi, l’individu doit être attentif et être sur le qui-vive pour pouvoir anticiper ces changements de mode. La convention est conforme dès lors que les investisseurs soutiennent toujours les signaux fournis de cette règle. Il va de soi que les investisseurs devront toujours vérifier la viabilité de cette convention. Ainsi, les biais psychologiques expliquent de manière pertinente pourquoi il subsiste des décalages entre le cours bousier d’un actif financier et de sa valeur fondamentale. Néanmoins, les biais psychologiques n’est qu’un facteur par mis d’autres et il ne peut à lui seul, expliquer les raisons de cette divergence cours. La formation d’une convention Une convention prend vie lorsqu’elle s’oppose au consensus dominant. En effet, il faut que la convention indique un changement de marché contraire au consensus dominant. Dans une éventualité haussière les investisseurs vont s’offrir le pessimisme ambiant et dans une éventualité baissière ils vont vendre l’optimisme ambiant du marché. Confirmation d’une convention La confirmation d’une convention réside sur l’importance que porte l’ensemble les investisseurs à cette dernière et surtout, de l’approbation du marché dominant à son égard. La 36
  37. 37. confirmation de la convention est déterminée donc par la confiance que lui accordent le marché dominant et les opérateurs de marché qui la compose. La fin d’une convention Cette étape est aussi celle où la convention arrive à son apogée, car elle est partagée par la totalité de la communauté financière, Plus l’irrationalité est à son sommet et plus la convention est forte. La modification de celle-ci peut se faire de manière brusque ou lente. Durant un krach boursier, beaucoup d’opérateurs réalisent de très mauvaise opération. Ces intervenants sont forcés de voir le changement de convention et vont se mettre à la recherche d’une nouvelle. Une convention peut mettre du temps à changer car l’ancienne est toujours solidement consolidée dans les esprits. Les opérateurs professionnels s’aperçoivent que les investisseurs les acceptent avec moins d’entrain. Ils vont donc exploiter cette information pour initier des positions qui seront les prémices de la nouvelle convention. 1.4 L’analyse psychologique Il est assez courant en bourse que les opérateurs cherchent une explication à la suite d’un fort mouvement de marché. L’analyse psychologique est un moyen par lequel on peut prévoir certains comportements à l’origine de ces retournements majeurs de tendance. De plus, dans le marché financier actuel, il est courant de constater de nombreuses divergences entre le consensus dominants des experts et des professionnels par rapport au marché ambiant. Ce constat peut paraitre étrange surtout de la part de l’école néo-classique mais on peut l’expliquer du fait que le marché a anticipé avant le consensus dominant, l’évolution des fondamentaux. En partant du principe que le marché a toujours raison, on peut dire que celuici peut être considéré comme un baromètre avancé de l’économie et surclasse les prévisions des experts. L’analyse technique permet, à l’aide de ces outils graphiques, de repérer le dominant ambiant du marché en fonction de signaux élaborés par l’analyse chartistes. Le phénomène des prophéties autoréalisatrices n’explique pas à elle seule tout les décalages de cours entre la valeur boursière et la valeur fondamentale. En effet, l’analyse psychologique permet de détecter de manière très précise le comportement des interlocuteurs 37
  38. 38. de marché. La récurrence de ces comportements est identifiable par les graphiques et se traduisent sous forme de signaux. Grace à l’historique de cours, les graphiques permettent donc de distinguer certain comportements récurrents car les biais psychologiques sont figés dans le temps. En effet, on peut retrouver des comportements similaires sur des espaces temps différents. Néanmoins, les prophéties autoréalisatrices peuvent être remises en question car certaines configurations graphiques étaient déjà visibles avant même l’apparition de l’analyse technique sur les marchés financiers. On peut en conclure que ces configurations graphiques peuvent être indépendantes de l’approche de l’analyse technique. Deux hypothèses émergent de ce constat :  Les prophéties autoréalisatrices soutiennent l’idée sur laquelle l’analyse technique doit son efficacité essentiellement aux biais cognitifs. Néanmoins, ce n’est qu’une composante parmi tant d’autres. La récurrence des comportements vient appuyer ce fait.  L’hypothèse de l’efficience des marchés est aussi remise en cause. En effet, cette théorie nie le fait que l’on peut se baser sur les évènements passés pour établir une prévision sur le futur. Néanmoins, certaines configurations graphiques permettent de constater des phénomènes récurrents et de les prévoir, même si ces comportements ne se reproduisent pas à l’identique sur l’espace temps. L’analyse technique est donc un outil efficace pour les investisseurs car elle permet de comprendre de manière précise les émotions des autres investisseurs. Néanmoins, son utilité peut être faussée car elle ne protège ces investisseurs aguerris de leurs propres erreurs. La réaction du marché En effet, un actif financier peut s’équilibrer voir même chuter face à de bonnes nouvelles. Plusieurs facteurs permettent de mieux comprendre ce phénomène. Cette information a déjà été devancée par les intervenants, et sa mise à disposition ne fait que confirmer ce que les investisseurs connaissaient déjà. Ainsi, elle n’est pas considérée comme suffisamment favorable pour le marché. Cette perception dominante sur le marché est extrêmement baissière et ne suffira pas au retournement du consensus dominant. Elle permettra, dans le meilleur des cas, de causer un rebond de l’actif financier mais la tendance baissière continuera irrémédiablement sa trajectoire. Le marché peut donc progresser 38

×