Archives de Tag: Epistémologie

De l’impossibilité épistémique du poisson d’avril II

Soit deux individus, Daryl et Merle (c’était le dernier épisode de la saison 3 de The Walking Dead hier soir) interagissant un 1er avril. Merle est facétieux et aime bien faire des blagues à Daryl, en particulier un 1er avril. Daryl quant à lui, n’aime pas se faire avoir. Merle peut annoncer à Daryl soit une vraie nouvelle T, soit une fausse nouvelle F, soit ne rien annoncer N ; Daryl peut soit le croire (B), soit ne pas le croire (U). Il y a donc 6 résultats possibles et les préférences de Merle et Daryl sont respectivement les suivantes :

Merle : FB > TU = TB = NB = NU > FU

Daryl : FU = TB > NB = NU = TU > FB

On suppose que tout cela est connaissance commune parmi les deux joueurs. On suppose par ailleurs que les deux joueurs sont rationnels au sens bayésien. Il n’est pas très difficile de voir que dans cette configuration Merle ne prendra jamais l’initiative d’annoncer une nouvelle à Daryl, étant donnée la suspicion de ce dernier. On peut formaliser les choses de la manière suivante : soit E l’évènement « on est le 1er avril » et où E renvoi à un seul et unique état du monde w où, étant donnée la suspicion de Daryl, Merle n’annonce aucune nouvelle. Si l’on considère que E est connaissance commune, il en va de même pour la matrice et donc pour le résultat auquel elle conduit. Si l’on note par P l’évènement « Merle annonce le 1er avril une nouvelle fausse à Daryl qui le croit », alors il est trivial que E ne peut impliquer P. C’est ce que l’on peut appeler l’impossibilité épistémique du poisson d’avril.

Le résultat précédent est une pure tautologie : si on postule que les joueurs ont connaissance commune de l’évènement « 1er avril » et que celui-ci implique (logiquement) qu’aucune nouvelle surprenante (c’est-à-dire fausse mais perçue comme vraie) ne peut être annoncée, alors il est évident qu’il est connaissance commune qu’aucune nouvelle ne sera annoncée. L’hypothèse clé est que l’ensemble des états du monde Ω ne comporte qu’une seule et unique entité w, et que donc par définition Merle et Daryl lui assignent une probabilité de 1. Maintenant, supposons malgré tout que Merle annonce une nouvelle f à Daryl et notons Ef l’évènement « nous sommes le 1er avril et Merle annonce f ». Du point de vue de Daryl, il en découle que le modèle épistémique du paragraphe précédent est nécessairement faux. L’évènement Ef correspond nécessairement à un état du monde w’ autre que w. L’état du monde w’ peut renvoyer à plusieurs possibilités : Merle n’a pas les préférences indiquées ci-dessus, Merle n’est pas rationnel, Merle pense que Daryl n’est pas rationnel, Merle pense que Daryl pense que Merle n’est pas rationnel, etc. Il faut donc modifier la spécification de l’ensemble Ω des états du monde possibles en intégrant ces différentes possibilités. Pour faire simple, supposons que le seul autre état w’ est un état où Merle est irrationnel dans le sens où il agit aléatoirement selon une stratégie mixte conférant une probabilité de 1/3 à chacune de ses stratégies.

Par conséquent, si Daryl observe Ef, il sait que nous sommes en w’ et puisque Merle a annoncé une nouvelle, il en résulte qu’il y a une probabilité de ½ que celle-ci soit fausse. Si les préférences de Daryl sont celles spécifiées plus haut, il est optimal pour lui de penser que celle-ci est fausse. De ce point de vue, il semblerait que Merle n’aurait rationnellement aucun intérêt à paraître irrationnel. Mais est-ce si sûr ? Admettons que dans un troisième état du monde w’’ possible, Daryl pense que Merle est sincère (dire la vérité est une stratégie dominante pour Merle). Maintenant, l’évènement Ef devient difficile à interpréter pour Daryl car il peut signifier soit que Merle est irrationnel (auquel cas, il ne doit pas le croire), soit que Merle est sincère (auquel cas, Merle dit forcément la vérité et Daryl doit le croire). La réaction de Daryl à l’annonce de la nouvelle f (croire ou ne pas croire) dépendra de sa croyance antérieure p(w’’) concernant la probabilité que Merle soit sincère. On arrive alors au d’un résultat démontré par Robert Aumann sur la base de ce qu’il appelle la doctrine d’Harsanyi : si Merle et Daryl ont les mêmes croyances antérieures p concernant les différents états du monde et que leurs croyances postérieures sont connaissance commune, alors ils s’accorderont sur le résultat du jeu et la notion même de poisson d’avril n’a pas de sens. Par exemple, si p(w’’) est identique et très faible pour Merle et Daryl, alors tous deux savent que Daryl ne croira jamais une annonce f par Merle et que Merle ne fera donc jamais d’annonce. La surprise est impossible parce que leurs croyances antérieures sont les mêmes. Mais si leurs croyances antérieures sont différentes, les choses sont différentes : si par exemple Merle confère une probabilité élevée à p(w’’) mais pas Daryl, Merle fera l’annonce f et Daryl ne le croira pas ; le poisson d’avril échouera, comme cela arrive souvent en réalité. Si c’est Daryl qui assigne une probabilité élevée à l’état w’’ (mais pas Merle), on observe un résultat intéressant : Daryl s’attendra à ce que Merle lui annonce une (vraie) nouvelle mais Merle ne le fera pas.

La morale de l’histoire : si vous voulez expliquer les phénomènes de la vie réelle (les poissons d’avril, pourquoi des agents s’échangent des actifs sur les marchés financiers, etc.), il faut tenir compte de la possibilité que les croyances antérieures des agents divergent très souvent. Le fait qu’elles puissent parfois coïncider s’expliquent par l’existence de normes sociales. Mais dans le cas du poisson d’avril, il est intéressant de voir que la norme est auto-destructrice : en générant des croyances antérieures communes, elle rend impossible la surprise.

Sinon, sur le même thème, on peut lire ce billet de Jeff Ely.

Un commentaire

Classé dans Non classé

Faits institutionnels et intentionnalité collective : Searle versus l’analyse économique

C.H.

Mes recherches sur les thèmes de la saillance, de l’émergence ou encore du raisonnement collectif m’ont amené à m’intéresser récemment aux travaux du philosophe américain John Searle, et plus particulièrement à son ingénieuse théorie des faits institutionnels. Searle développe une réflexion ontologique sur la nature des faits institutionnels en montrant comment des objets sociaux acquièrent du point de vue des agents une réalité en tout point identique à celle des faits naturels. A ce titre, Searle traite de questions qui intéressent un nombre croissants d’économistes travaillant sur l’émergence et le fonctionnement des normes sociales et autres conventions. Il est de ce point de vue intéressant de se demander comment l’analyse de Searle se positionne par rapport à l’approche standard des économistes. Lire la suite

3 Commentaires

Classé dans Non classé

Les économistes ont-ils perdu toute « Vision » ?

C.H.

Roger Backhouse, auteur important dans le champ de la philosophie économique, et Bradley Bateman posent une question fondamentale dans cet article paru dans le New York Times : ne manque-t-on pas cruellement d’économistes capables d’avoir une pensée globale sur le fonctionnement de nos économies, de proposer une « Big Picture » de nos économies de marché et capitalistes ? Des penseurs qui, à la manière de Marx, Keynes, Hayek ou Friedman, pourraient développer une vision cohérente des économies contemporaines.

Backhouse et Bateman notent de manière très juste que l’évolution de la discipline n’est pas favorable à la survie de ce genre de penseurs. Ironiquement, c’est Keynes lui-même qui est le premier à l’avoir bien compris en expliquant qu’un économiste devait être comme un « dentiste » : avoir l’ambition mesuré de ne traiter qu’un problème bien identifié et bien circonscrit, mais dont la résolution peut être potentiellement très bénéfique. L’économie, comme toutes les sciences « dures », mais aussi comme de plus en plus d’autres sciences sociales, est aujourd’hui une discipline extrêmement spécialisée. Cela s’explique évidemment par le fait que le stock de connaissances ne cessent de s’accroître, et ceci de manière exponentielle. Les compétences techniques et les connaissances factuelles qui sont requises pour apporter une contribution significative dans un des sous-domaines de la science économique sont telles que, hormis pour une poignée d’individus extrêmement brillants, il est bien difficile de sortir de son champ d’expertise étroit. Ajoutez à cela les incitations et contraintes instaurées par le fonctionnement de la science moderne qui poussent à une recherche de la « productivité », et on comprend alors aisément pourquoi tous les économistes sont devenus des dentistes.

A chacun de se faire son opinion sur cette évolution, si elle est souhaitable ou dommageable. On peut faire remarquer, à juste titre, que d’une certaine manière elle échappe largement à notre contrôle et qu’elle s’inscrit logiquement dans le cadre d’une dynamique de « progrès » scientifique. Mais on peut aussi souligner certains de ses désagréments. Dans son monumental Histoire de l’analyse économique, Joseph Schumpeter (un de ces spécimens à avoir développé une vision globale du capitalisme) a insisté sur l’importance de ce qu’il appelle la vision dans notre manière d’aborder les problèmes socioéconomiques (citation en anglais, n’ayant pas la version française sous la main) :

Obviously, in order to be able to posit to ourselves any problems at all, we should first have to visualise a distinct set of coherent phenomena as a worthwhile object of our analytic efforts. In other words, analytic effort is of necessity preceded by a preanalytic cognitive act that supplies the raw material for the cognitive effort [and this] will be called Vision

Dans le cadre de la démarche analytique et cartésienne qui consiste à séparer les éléments d’un ensemble plus global pour les étudier séparément, nous avons besoins de passer par une phase de cognition pré-analytique où nous développons une vision de l’ensemble global qui va nous guider. Les problèmes socioéconomiques que les économistes étudient ne sont pas des faits objectifs. Les problèmes sont construits par la manière dont nous les caractérisons, les divisons les uns par rapport aux autres et par la manière dont nous les relions. Cet acte cognitif pré-analytique a également été très bien pensé par Max Weber et son concept de « rapport aux valeurs ». Le rapport aux valeurs est l’ensemble des éléments normatifs (la plupart du temps produit par le contexte culturel) qui nous conduit à considérer tel problème comme important ou significatif et tel autre autre problème comme secondaire. C’est aussi lui qui nous conduit à caractériser les problèmes de la manière dont nous le faisons. Le point de tout ça n’est pas que la méthode analytique est problématique en soi, mais qu’elle le devient à partir du moment où la caractérisation des phénomènes à étudier ne se fait plus sur la base d’une vision de l’ensemble global dans lequel ces phénomènes s’inscrivent.

Les économistes ont-ils perdu cette vision ? Probablement pas tous, mais il est évident que le rejet pour les travaux cherchant à développer une approche d’ensemble sur le capitalisme (par exemple) ne facilite pas l’entretien d’une telle vision. Il est peut être trop facile de prendre certains exemples extrêmes montrant comment la profession valorise plus des travaux s’intéressant aux stratégies optimales d’abaissement des lunettes de WC que des travaux portant sur les variétés du capitalisme (lesquels seront typiquement publiés ailleurs qu’en économie), mais il y a là certainement quelque chose qui a du sens. Au-delà ce ces contrastes caricaturaux, le plus inquiétant est qu’aujourd’hui un économiste du travail (par exemple) peut produire de la recherche de qualité (ou considérée comme telle) sans avoir la moindre connaissance (autres que les éléments théoriques communs) concernant le fonctionnement des systèmes financiers ou des systèmes de santé. Ces problèmes sont différents me direz-vous. Ce à quoi je vous répondrai que tout dépend de la vision que vous adoptez.

Cette question m’intéresse d’autant plus que cela fait 4 ans maintenant que je donne un cours sur les variétés de capitalisme à des non-économistes de niveau master. Ce que j’en tire, c’est que ce type de cours répond totalement aux attentes d’un public de non-spécialistes qui eux-même veulent se doter d’une vision, même approximative, de la manière dont fonctionne nos économies. Du coup, je me demande si ce n’est pas comme ça qu’il faudrait interpréter la récente affaire du « walk-out » qui a concerné le célèbre cours d’économie de Greg Mankiw à Harvard. Il y a clairement une motivation idéologique derrière l’action de ces étudiants (dont la lettre est d’une pauvreté argumentaire affligeante, surtout si l’on considère qu’il s’agit d’étudiants de Harvard !) mais il y aussi là le signe d’un décalage entre une demande provenant en partie d’étudiants non-économistes et une offre (le cours de Mankiw) qui s’inscrit dans la plus stricte orthodoxie de la profession (ce qui n’est pas une critique). Il est bien entendu que les aspirants économistes doivent se soumettre à l’austérité des cours d’économie standard (qui d’ailleurs ne sont pas forcément austères). Pour les autres, c’est moins évident et ce n’est en tout cas pas ce qu’ils attendent. Mais peut être qu’un changement de perspective chez les économistes professionnels eux-mêmes est-il nécessaire. Initialement, les économistes étaient des philosophes. Aujourd’hui, la plupart d’entre eux sont devenus de purs et brillants techniciens. On est peut être maintenant en mesure de trouver un juste équilibre, histoire de faire des économistes de véritables penseurs de notre société.

46 Commentaires

Classé dans Trouvé ailleurs

Little sur Simon et la complexité

C.H.

Ce billet de Daniel Little sur le point de vue de Herbert Simon concernant la complexité sociale est à lire. Il m’intéresse à titre personnel d’autant plus que je donne cette année (comme l’année dernière du reste) un cours de « systémique » en M2 d’économie, mais que j’ai construit de manière à ce que l’on s’intéresse essentiellement à la manière d’étudier les phénomènes et les systèmes complexes sans s’arrêter à une approche systémique au sens strict (le plus du cours est ici pour ceux qui sont intéressés).

Dans son billet, Little suggère que la caractérisation de la complexité que propose Simon est difficilement généralisable aux phénomènes sociaux. Simon semble considérer que tous les phénomènes complexes sont hiérarchiques et décomposables, ce qui revient à dire que l’on pourrait étudier un système complexe en le décomposant par ses différentes parties et en étudiant chacune de ces parties séparément. Cependant, Little fait remarquer que la plupart des phénomènes sociaux complexes ne répondent pas à ces critères :

But here is an important point about social complexity.  Neither of these expectations is likely to be satisfied in the case of social systems.  Take the causal processes (sub-systems) that make up a city. And consider some aggregate properties we may be interested in — emigration, resettlement, crime rates, school truancy, real estate values.  Some of the processes that influence these properties are designed (zoning boards, school management systems), but many are not.  Instead, they are the result of separate and non-teleological processes leading to the present.  And there is often a high degree of causal interaction among these separate processes.  As a result, it might be more reasonable to expect, contrary to Simon’s line of thought here, that social systems are likely to embody greater complexity and less decomposability than the systems he uses as examples.

Cela rejoint un point que Little avait déjà souligné : dans le domaine social, les phénomènes complexes résultent le plus souvent de l’interaction d’un ensemble de mécanismes (sociaux) et non d’un seul et même mécanisme qui serait décomposable. Il s’agit d’un aspect que les approches contemporaines en termes de mécanismes (très à la mode en philosophie des sciences, comme j’ai pu en juger récemment) ont tendance à sous-estimer. Ce sont ces interactions qui génère les phénomènes de non-linéarité qui rendent les dynamiques des systèmes difficiles à prédire. Notez que cela ne nécessite pas que l’on fasse appel à un quelconque concept d’émergence, que les scientifiques regardent souvent avec suspicion du fait de son caractère métaphysique supposé.

Une autre importante caractéristique des systèmes sociaux complexes est la capacité de réflexivité des agents qui composent les systèmes. Autrement dit, les agents sociaux peuvent utiliser les caractéristiques macro du système comme ressources cognitives pour prendre leurs décisions, ce qui engendre des « boucles rétroactives » qui accroissent la complexité. Il s’agit d’une forme de « mécanismes descendants » qui n’existe que dans les systèmes sociaux et c’est de ces mécanismes que le statut épistémologique particulier des institutions comme faits objectifs provient.

3 Commentaires

Classé dans Trouvé ailleurs

Croyances et intentions collectives, et économie

C.H.

Les récentes primaires « citoyennes » organisées par le parti socialiste me donnent l’occasion d’aborder une question qui n’intéresse généralement pas beaucoup les économistes mais qui a pourtant une signification économique tant théorique qu’empirique : le rôle des intentions et des croyances collectives. Les candidats à la primaire, en dépit de leurs efforts pour maintenir une certaine cohésion et unité, ont fait état ces dernières semaines d’un nombre non négligeable de désaccords sur des sujets centraux sur lesquels le programme du PS avait pourtant déjà pris position. Maintenant que François Hollande vient d’être désigné candidat officiel du PS, tous ses anciens « adversaires » vont se ranger de son côté et, défendre des idées qu’ils ont ouvertement critiqué lors des débats de la primaire. De son côté, les positions et les propositions de Hollande ne seront plus seulement les siennes, mais bien celles du parti socialiste dans son ensemble. Lire la suite

4 Commentaires

Classé dans Non classé

Guesnerie sur les anticipations rationnelles

C.H.

Suite de la discussion autour de l’article de John Kay dont j’ai parlé l’autre jour. Roger Guesnerie propose une réflexion vraiment très intéressante sur l’hypothèse d’anticipation rationnelle et l’hypothèse d’efficience des marchés. Un peu comme Woodward avant lui, Guesnerie considère que le problème de l’économie n’est pas l’excès de rigueur ou le recours à la modélisation (ce qui laissait entendre Kay), mais réside plutôt dans le fait de poser comme un axiome (les anticipations rationnelles) ce qui ne devrait être qu’une hypothèse de travail. Guesnerie souligne à juste titre (et il bien placé pour cela, étant donné qu’il travail sur le sujet depuis très longtemps) que la question fondamentale consiste à savoir comment les agents coordonnent leurs anticipations. Or, recourir à des anticipations rationnelles n’est… rationnel (ou plutôt, optimal) que si tout les autres agents agissent également en fonction d’anticipations rationnelles. En théorie des jeux (rappelons qu’un équilibre de Nash n’est rien d’autre qu’un équilibre en anticipations rationnelles), une belle illustration de ce problème est donné par le jeu du « mille-pattes » : si je suis rationnel, que l’autre joueur est rationnel et que cela est common knowledge, alors j’ai intérêt (au sens optimalité) à arrêter le jeu dès le début. Si en revanche j’ai un doute sur la rationalité de l’autre (ou si je pense que l’autre doute de ma rationalité), j’ai intérêt à poursuivre. Bref, comme le dit Guesnerie, un équilibre en anticipations rationnelles est un point focal (comme l’est un équilibre de Nash pour un théoricien des jeux), mais peut-être pas le seul.

Le point est donc de voir l’hypothèse d’anticipations rationnelles comme une hypothèse empirique et de la traiter comme telle : dans certains cas, elle est raisonnable, dans d’autres elle est ostensiblement fausse. Le fait que les économistes tendent à traiter cette hypothèse de manière axiomatique n’est toutefois par surprenant, comme l’indique cette remarque très judicieuse de Guesnerie :

The re-examination of the scope of the rationality hypothesis and a complete reassessment of the domains of validity of the REH are overdue. It has just been stressed that these tasks do not lead to dismiss the demand for theoretical modelling. This does not mean, obviously, that they are easy tasks and that they will not affect, perhaps deeply, our understanding of economic phenomena. For example, the second task, the re-assessment of the REH, will touch the roots of the philosophical determinism that has shaped economic culture, all schools of thought together. Outside a REH world, prediction is much more difficult[18], apart from any problem of non-stationarity (stressed in Kay’s text). The standard economic wisdom may be shaken up.

Cette remarque fait parfaitement écho avec le livre de Nancy Cartwright, The Dappled World, que je suis actuellement en train de lire. Comme le fait remarquer Guesnerie, l’hypothèse d’anticipations rationnelles a été l’un des moyens par lesquels les économistes ont mis du déterminisme et de l’ordre dans un monde socioéconomique qui est largement désordonné. Ce n’est pas une spécificité de l’économie : Cartwright défend de manière assez convaincante l’idée selon laquelle la physique elle-même repose sur une démarche consistant à construire des « machines nomologiques » exhibant des comportement entièrement prévisibles. Cartwright fait toutefois remarquer que le domaine d’application de ces machines nomologiques est extrêmement restreint, ce domaine s’arrêtant bien souvent aux frontières du laboratoire. Selon Cartwright, cette démarche n’est pas problématique en soi, tant que l’on a conscience que les lois qui caractérisent le comportement des machines nomologiques ne s’appliquent que ceteris paribus, et que le monde réel est bien plus désordonné que ce ce que suggèrent les modèles.

Il est vrai que l’hypothèse d’anticipations rationnelles est plus qu’une contrainte ad hoc imposée par les économistes à leurs modèles en raison de sa commodité : la critique de Lucas fournie au contraire de solides arguments épistémologiques pour penser que l’on ne peut décrire les relations entre agrégats macroéconomiques (par exemple entre production et dépenses publiques) par des coefficients structurels inamovibles (qui eux-mêmes servent à construire des machines nomologiques d’ailleurs). Un changement de politique économique (monétaire ou budgétaire) change la valeur de ces coefficients précisément parce qu’il semble raisonnable de penser que les agents anticipent les effets induits par un changement de politique économique.

C’est un argument solide, indiscutablement. Cependant, l’hypothèse d’anticipations rationnelles n’est pas une suite logique à la critique de Lucas. De mon point de vue de non-spécialiste, il me semble que la seule chose que la critique de Lucas autorise, c’est de postuler que les agents forment des anticipations qui affectent les relations entre agrégats macroéconomiques, mais rien d’autre. La nature des anticipations reste une question fondamentalement empirique. Pour dire les choses autrement, plutôt que de servir de contraintes structurelles à la construction de machines nomologiques, les anticipations rationnelles doivent au contraire être l’objet  d’une investigation théorique et empirique. De ce point de vue, la remise du « prix Nobel » d’économie à Sims et surtout à Sargent vient à point nommer puisque c’est justement une question traitée par ces auteurs. Comme je l’ai noté hier, l’une des contributions de Sargent a été notamment d’utiliser le concept de « self-confirming equilibrium » pour examiner les processus d’apprentissage par lesquels les agents peuvent éventuellement apprendre le « bon » modèle de l’économie et donc former des anticipations rationnelles. L’une des conséquences de ce genre de travaux est de souligner la possibilité d’équilibres multiples (j’en avais déjà parlé ici et ), autrement dit le fait que la convergence vers un équilibre d’anticipations rationnelles, si elle est possible, n’est pas une nécessité. Le concept d’équilibre corrélé peut également avoir une certaine pertinence : il n’est pas absurde de penser que les agents ne coordonnent pas leurs anticipations ex nihilo mais qu’ils s’appuient sur éléments exogènes (normes sociales, notes des agences de notation, ou… théories économiques performatives) qu’ils peuvent interpréter d’une multitude de manières. Là encore, la propriété d’un équilibre corrélé c’est qu’il ne correspond pas nécessairement à un équilibre de Nash. Empiriquement, la question est donc de déterminer sur quoi s’appuient réellement les agents pour former leurs anticipations. Rien ne dit alors qu’un équilibre en anticipations rationnelles soit un point focal.

Poster un commentaire

Classé dans Non classé

John Kay et la modélisation en (macro)économie

C.H.

John Kay développe une réflexion sur l’utilisation et la pertinence des modèles en économie, et plus particulièrement en macroéconomie. Le point de vue de Kay est très critique et s’avère être essentiellement une critique de la modélisation en tant que telle, en tout cas telle que la défend Robert Lucas, à savoir la construction « d’économie artificielle » permettant de dériver des prédictions sur l’économie réelle. Reprenant un argument développé par Nancy Cartwright (et discuté récemment sur ce blog), Kay fait remarquer que les économistes (comme tous les scientifiques) construisent des modèles simplificateurs mais ont la particularité de faire de (trop) nombreuses hypothèses structurelles qui finissent par détacher totalement le modèle de la réalité, dans la mesure où les résultats du modèle sont dépendants des hypothèses structurelles. Lire la suite

2 Commentaires

Classé dans Trouvé ailleurs