Hypothèse d’efficience des marchés et prédictions des krach

Je voudrais revenir rapidement sur une idée qui est mise en avant tant dans l’article de David Levine que celui de Gilles Saint-Paul dont j’ai discuté ici. Pour défendre les modèles théoriques standards face aux critiques leur reprochant leur incapacité à prédire la crise, les deux auteurs (mais ils ne sont pas les seuls à le faire) invoquent le fait que l’un des enseignements de ces modèles est précisément de montrer qu’une crise (c’est à dire un krach) ne peut être anticipé et prédit. Levine écrit ainsi :

« More to the point: our models don’t just fail to predict the timing of financial crises – they say that we cannot. Do you believe that it could be widely believed that the stock market will drop by 10% next week? If I believed that I’d sell like mad, and I expect that you would as well. Of course as we all sold and the price dropped, everyone else would ask around and when they started to believe the stock market will drop by 10% next week – why it would drop by 10% right now. This common sense is the heart of rational expectations models« .

De manière  similaire, Saint-Paul écrit :

« One example of a consistent theory is the Black-Scholes option pricing model. Upon its introduction, the theory was adopted by market participants to price options, and thus became a correct model of pricing precisely because people knew it. This is so because such a pricing rule is consistent with the “efficient markets” hypothesis, meaning that no profitable arbitrage opportunity is left once the rule is applied. By contrast, any theory of pricing that leaves arbitrage opportunities would instantaneously be defeated by the markets as soon as they believe it. The attempts by participants to make profits by exploiting the arbitrage opportunity would alter prices in a direction that will invalidate the theory.

Similarly, any macroeconomic theory that, in the midst of the housing bubble, would have predicted a financial crisis two years ahead with certainty would have triggered, by virtue of speculation, an immediate stock market crash and a spiral of de-leveraging and de-intermediation which would have depressed investment and consumption. In other words, the crisis would have happened immediately, not in two years, thus invalidating the theory. Thus, most crises are by nature unforecastable« .

Le raisonnement est le suivant : dans un monde où les agents font des anticipations rationnelles, c’est à dire qu’ils utilisent au mieux toute l’information disponible (note : cela ne veut pas dire qu’ils ne font pas d’erreur, seulement que ces erreurs ne sont pas systématiques et qu’elles tendent donc à se neutraliser sur le long terme) et où les marchés financiers sont supposés efficients (c’est à dire que le prix reflète l’ensemble des informations détenues par les agents à un moment donné), par définition aucune théorie ne peut prédire l’occurence d’un krach ou d’une crise. En effet, une théorie fait partie de « l’ensemble d’informations disponible » ; si cette théorie annonce une crise financière pour dans un an, les agents vont modifier leur comportement dès qu’ils auront accès à l’information procurée par la théorie et spéculeront sur cette crise annoncée… ce qui aura pour effet de faire émerger la crise immédiatement.

Cet aspect est notamment centrale dans l’hypothèse d’efficience des marchés qui, comme l’indique Richard Thaler, se décompose en deux idées : « the price is right » et « no free lunch ». Si la première idée, qui indique qu’à tout moment les marchés financiers indiquent le « bon » prix a été empiriquement contesté, la seconde, selon laquelle il est impossible de battre à long terme le marché, est en revanche plus solide. Précisément, il est impossible de battre le marché car si l’on disposait d’un modèle nous permettant d’anticiper son évolution (seul moyen d’extraire des gains), alors ce modèle serait incorporé dans l’ensemble d’information qui est reflété par le prix.

Tout en étant d’accord sur le principe de dire que demander à l’économiste de prédire le moment exact de l’occurence d’une crise financière n’a pas plus de sens que de demander précisément à un épidémiologiste combien de personnes seront touchés par la grippe A dans les mois à venir (voir ici et ), on peut se questionner sur la pertinence de l’argumentaire ci-dessus. Cela est vrai même si l’on part du principe que les hypothèses d’efficience des marchés et d’anticipations rationnelles sont justes (il y a quand même de sérieux arguments qui permettent d’en douter). Alex Tabarrok fait par exemple remarquer que même avec des agents à anticipations rationnelles vous pouvez faire des prédictions « qualitatives » sur les probabilités d’occurence d’une crise. Par exemple, vous pouvez dire que dans la situation A il y a plus de probabilités (même si on ne peut pas dire forcément combien exactement) qu’une crise survienne que dans la situation B et que par conséquent le passage de la situation A à la situation B implique une augmentation de la probabilité que survienne une crise. On ne peut pas dire quand exactement mais on peut porter un jugement, lequel peut notamment être informé par une bonne connaissance de l’histoire économique et du rôle des institutions. En ce sens, une prédiction est possible même si, par définition, elle aura un caractère infalsifiable. Ici, je crois que l’on peut distinguer trois économistes : ceux pour qui l’occurence de la crise n’appartenait même pas au champ des possibles (on constatera incidemment que ce sont souvent les mêmes qui adhèrent à l’hypothèse d’efficience des marchés et qui considèrent qu’il ne peut exister de « bulles » au sens strict du terme) ; ceux qui ont avertit de la présence d’un risque systémique mais qui le font depuis de nombreuses années, de sorte que l’on peut douter du fait que leur prédiction était assise sur l’identification des bons mécanismes causaux ; ceux enfin dont la prédiction qualitative était directement liée à l’identification de ces mécanismes (je pense en partie à Shiller notamment).

Bref, la défense par l’argument des anticipations rationnelles et de l’efficience des marchés n’est pas très convaincante. Elle l’est évidemment encore moins si l’on remet en cause l’une ou l’autre de ces hypothèses. De mon point de vue de non spécialiste, il me semble qu’elles (essentiellement celle d’efficience des marchés en fait) reposent sur une conception de l’information comme ayant un caractère par trop non-équivoque. En fait, il y a deux problèmes : d’une part, tous les agents n’accèdent pas forcément de manière uniforme à l’ensemble de l’information (argument mis en avant par exemple par Posner) ; d’autre part, de l’information, ça s’interprète et rien ne nous dit que tous les agents interprètent tous la même information de la même manière. Au contraire, l’effet de contexte mis en avant par l’économie comportementale permet d’en douter. Cela veut dire que les agents prennent leurs décisions non pas en fonction de l’information à disposition mais des croyances qu’ils forment à partir de cette information. Or, si ces croyances sont erronées, rien ne nous dit que leur dispersion autour de la « vérité » correspond à une distribution normale. Au contraire, on a toutes les chances de penser qu’il peut y avoir des biais systématiques… même si les agents sont rationnels (voir par exemple les cascades informationnelles). Autrement dit, une meilleure compréhension de la formation de ces biais, couplée à une meilleure compréhension des causes institutionnelles des crises financières, pourraient permettre un accroissement de notre capacité à anticiper une crise, sans jamais pour autant être en mesure de dire avec certitude quand elle émergera.  

Publicités

8 Commentaires

Classé dans Non classé

8 réponses à “Hypothèse d’efficience des marchés et prédictions des krach

  1. Thomas

    Sur la possibilité de prévoir les crises, un prof plus philosophe qu’économiste avait suggéré quelque chose d’intéressant.

    Il faisait une analogie avec la météorologie : les météorologues ne peuvent prévoir précisément combien de millimètres de pluie il va tomber le demain. Ils sont toutefois en mesure de dire que compte tenu de l’information disponible aujourd’hui, il y a un risque de très fortes précipitations demain et ainsi de déclarer l’alerte orange. Cela signifie que la situation est très limite et qu’un petit évênement aléatoire et/ou non-prévisible peut tout faire basculer d’un côté comme de l’autre.

    Bon après en économie avec les anticipations et les croyances c’est encore plus compliqué qu’en météorologie mais j’adhère pas mal à ce point de vue.

  2. elvin

    c’est exactement la thèse autrichienne : les phénomènes économiques sont ainsi faits que leurs lois sont purement qualitatives et qu’on ne peut faire que des prévisions approximatives (certains disent « génériques », Hayek dit « de structure »).

  3. arcop

    Ce qui m’effare dans l’argumentation (et je partage votre critique) est que c’est tout à fait ciculaire : en caricaturant à peine; les anticipations rationnelles/l’efficience des marchés comme hypothèses impliquent l’impossibilité d’une crise, qui elle même implique l’impossibilité de la prédiction d’une crise. Le tout petit problème est que l’on en a une. Donc sauf à considérer qu’elle est purement exogène…

    En plus on peut gentiment s’amuser à faire tourner leur explication à un deuxième niveau stratégique: je connais tout du modèle théorique, les autres agents aussi, donc je sais que si le modèle prédit une crise (disons suffisament à l’avance) cette crise n’aura pas lieu. Sachant cela je n’ai aucun intérêt à prendre le risque de crise comme un obstacle sérieux et continue sur la même lancée… Evidemment si tout le monde pense ça… 3e niveau et ainsi de suite… Et il n’y a aucune raison de s’arrêter à un niveau quelconque. Ca pourrait d’ailleur se modeler assez facilement comme un jeu de coordination avec une prediction théorique quasi-nulle puisque toute stratégie est de Nash…

    Je vous rejoins tout à fait sur la distribution non-normale des erreurs et l’existence de biais systématique.

    Cela ne veut pas dire que les économistes ont vocation à prédire quoi que ce soit (ou alors sous une forme probabiliste, fût-elle floue, comme vous le suggérez), auquel cas ils devraient peut-être le dire plus clairement.

  4. elvin

     » ils devraient peut-être le dire plus clairement.  »

    oui, mais il faudrait alors qu’ils en tirent les conséquences :
    1. qu’ils sont structurellement incapables de répondre aux sollicitations des politiques et des journalistes, ce qui enlèverait bien du prestige (et des revenus…) à la profession.
    2. que ça rend inapplicable le critère popperien de falsification, et qu’ils doivent donc se ranger aux conceptions épistémologiques autrichiennes, en passant par pertes et profits un siècle de « science économique »
    Ca serait trop dur, non ?

  5. arcop

    @ Elvin
    Premier point, tout à fait d’accord. Même s’ils peuvent avoir des choses à dire intéressantes, et même être des conseillers productifs des décideurs politiques. Par contre le format TV, ou presse économique est probablement incompatible (mais ça c’est vrai pour toute activité scientifique, il suffit d’avoir eu l’expérience de voir vos recherches résumées par l’un ou l’autre des media pour s’en faire une idée assez précise).

    Deuxième point, je ne vous suis pas du tout. D’abord, parce que ça fait longtemps que le critère popperien de falsification est caduque (quelque 50 ans d’histoire de la philosophie des sciences, sans apport autrichien), qu’être incapable de faire des prédictions dans certains domaines ne veut pas dire que le critère n’est pas valable dans d’autres (en gros la biologie est largement incapable de faire des prédictions sur l’évolution des espèces, mais ça ne veut pas dire qu’elle n’en fait pas sur des individus, voire des groupes). Pareil pour la physique, en gros trois astres dans le système solaire forment un système chaotique, pas de prédiction précise sur leurs trajectoires exactes, néanmoins la physique produit des prédictions ‘valides’ à peu près toutes les millisecondes.

    Une des conséquences que je tirerai ne serait donc pas de nature autrichienne, mais plutôt ultra-anti-autrichienne : on est dans ce marasme parce qu’on n’a pas fait assez de science, parce qu’on n’a pas été assez exigeant avec nos propres hypothèses, avec nos propres modèles, leurs fondements et les conséquences qu’on pouvait en tirer. On n’a fait trop d’axiomatique du comportement humain et (et on continue, et ça, ça a un fondement très Von Mises) et pas assez de mathématiques sales, inélégantes, mais bien plus valides empiriquement.

    Donc je ne vous suis pas… 😉

  6. elvin

    @arcop
    Effectivement, on n’est pas d’accord sur votre dernière phrase. Je pense exactement l’inverse : on n’a pas reconnu la spécificité du comportement humain, et on a fait trop de mathématiques propres, élégantes, mais sans validité empirique. Même Krugman pense ça !!!

  7. isaac37500

    @ arcop

    Je suis plutôt d’accord avec elvin sur le point de la spécificité de la nature humaine. De plus, je ne comprend pas votre amalgame modèle / mathématique. En soi, axiomatiser le comportement humain dans le but d’en déduire des choses (hypothético-déductif) c’est bien faire de la modélisation, se faire une représentation simplifiée du monde.

    Autre point, en quoi les mathématiques sont empiriquement plus valides ? Par définition, les mathématiques ne sont-elles pas purement analytique ?

    Je peux comprendre (et pas approuver) ceux qui portent l’idée selon laquelle un raisonnement utilisant les mathématiques est plus empiriquement testable en ce que le monde économique produit des chiffres, (prix …), même si cela prête à débat, mais dire que les mathématiques sont « bien plus valides empiriquement » me semble être un non-sens.

    Enfin, cela ne me semble pas juste pour Popper de dire que son critère est « caduc », premièrement parce que Popper ne cherche pas à poser un critère vrai par nature mais une simple convention de recherche. On peu l’accepter ou la refuser. Secondement car le principe de réfutabilité est encore très utilisé et que Popper est, à mon sens, le premier représentant de l’épistémologie moderne, précisément parce qu’il ne cherchait pas un principe universelle mais une simple convention. Sans Popper, pas de Lakatos, Kuhn, Feyerabend, …

  8. arcop

    @ Isaac37500

    Ma phrase était peut être ambigüe. Je ne cherchais pas à dire que les mathématiques étaient toujours et partout bien plus valide empiriquement (même si je ne suis pas loin de le penser), mais que les mathématiques élégantes et unifiées utilisées par la théorie standard étaient moins valides empiriquement que des maths plus construites à partir d’observations des données, qui ont toutes les chances d’être moins belles, et plus ‘messy’.

    Cela dit tout discours à visée scientifique est soit formalisable en termes logiques et/ou mathématiques et on peut juger relativement aisément de sa rigueur, des hypothèses nécessaires, et de sa cohérence, soit ne l’est pas et on s’expose toujours au risque de l’incohérence cachées, de l’existence d’hypothèses auxiliaires implicites, etc… Je ne dis pas que ce n’est pas une démarche intéressante, mais je ne vois pas sur quelle base on ne pourrait pas formaliser un discours rigoureux… (Un exemple intéressant serait Roemer et le marxisme analytique).
    Cela est complètement indépendant de la question qualitatif,quantitatif.

    Il me semble que votre vue de Popper comme essentiellement un conventionnaliste est extrêmement audacieuse… 😉

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s