Archives de Tag: Epistémologie

De l’impossibilité épistémique du poisson d’avril II

Soit deux individus, Daryl et Merle (c’était le dernier épisode de la saison 3 de The Walking Dead hier soir) interagissant un 1er avril. Merle est facétieux et aime bien faire des blagues à Daryl, en particulier un 1er avril. Daryl quant à lui, n’aime pas se faire avoir. Merle peut annoncer à Daryl soit une vraie nouvelle T, soit une fausse nouvelle F, soit ne rien annoncer N ; Daryl peut soit le croire (B), soit ne pas le croire (U). Il y a donc 6 résultats possibles et les préférences de Merle et Daryl sont respectivement les suivantes :

Merle : FB > TU = TB = NB = NU > FU

Daryl : FU = TB > NB = NU = TU > FB

On suppose que tout cela est connaissance commune parmi les deux joueurs. On suppose par ailleurs que les deux joueurs sont rationnels au sens bayésien. Il n’est pas très difficile de voir que dans cette configuration Merle ne prendra jamais l’initiative d’annoncer une nouvelle à Daryl, étant donnée la suspicion de ce dernier. On peut formaliser les choses de la manière suivante : soit E l’évènement « on est le 1er avril » et où E renvoi à un seul et unique état du monde w où, étant donnée la suspicion de Daryl, Merle n’annonce aucune nouvelle. Si l’on considère que E est connaissance commune, il en va de même pour la matrice et donc pour le résultat auquel elle conduit. Si l’on note par P l’évènement « Merle annonce le 1er avril une nouvelle fausse à Daryl qui le croit », alors il est trivial que E ne peut impliquer P. C’est ce que l’on peut appeler l’impossibilité épistémique du poisson d’avril.

Le résultat précédent est une pure tautologie : si on postule que les joueurs ont connaissance commune de l’évènement « 1er avril » et que celui-ci implique (logiquement) qu’aucune nouvelle surprenante (c’est-à-dire fausse mais perçue comme vraie) ne peut être annoncée, alors il est évident qu’il est connaissance commune qu’aucune nouvelle ne sera annoncée. L’hypothèse clé est que l’ensemble des états du monde Ω ne comporte qu’une seule et unique entité w, et que donc par définition Merle et Daryl lui assignent une probabilité de 1. Maintenant, supposons malgré tout que Merle annonce une nouvelle f à Daryl et notons Ef l’évènement « nous sommes le 1er avril et Merle annonce f ». Du point de vue de Daryl, il en découle que le modèle épistémique du paragraphe précédent est nécessairement faux. L’évènement Ef correspond nécessairement à un état du monde w’ autre que w. L’état du monde w’ peut renvoyer à plusieurs possibilités : Merle n’a pas les préférences indiquées ci-dessus, Merle n’est pas rationnel, Merle pense que Daryl n’est pas rationnel, Merle pense que Daryl pense que Merle n’est pas rationnel, etc. Il faut donc modifier la spécification de l’ensemble Ω des états du monde possibles en intégrant ces différentes possibilités. Pour faire simple, supposons que le seul autre état w’ est un état où Merle est irrationnel dans le sens où il agit aléatoirement selon une stratégie mixte conférant une probabilité de 1/3 à chacune de ses stratégies.

Par conséquent, si Daryl observe Ef, il sait que nous sommes en w’ et puisque Merle a annoncé une nouvelle, il en résulte qu’il y a une probabilité de ½ que celle-ci soit fausse. Si les préférences de Daryl sont celles spécifiées plus haut, il est optimal pour lui de penser que celle-ci est fausse. De ce point de vue, il semblerait que Merle n’aurait rationnellement aucun intérêt à paraître irrationnel. Mais est-ce si sûr ? Admettons que dans un troisième état du monde w’’ possible, Daryl pense que Merle est sincère (dire la vérité est une stratégie dominante pour Merle). Maintenant, l’évènement Ef devient difficile à interpréter pour Daryl car il peut signifier soit que Merle est irrationnel (auquel cas, il ne doit pas le croire), soit que Merle est sincère (auquel cas, Merle dit forcément la vérité et Daryl doit le croire). La réaction de Daryl à l’annonce de la nouvelle f (croire ou ne pas croire) dépendra de sa croyance antérieure p(w’’) concernant la probabilité que Merle soit sincère. On arrive alors au d’un résultat démontré par Robert Aumann sur la base de ce qu’il appelle la doctrine d’Harsanyi : si Merle et Daryl ont les mêmes croyances antérieures p concernant les différents états du monde et que leurs croyances postérieures sont connaissance commune, alors ils s’accorderont sur le résultat du jeu et la notion même de poisson d’avril n’a pas de sens. Par exemple, si p(w’’) est identique et très faible pour Merle et Daryl, alors tous deux savent que Daryl ne croira jamais une annonce f par Merle et que Merle ne fera donc jamais d’annonce. La surprise est impossible parce que leurs croyances antérieures sont les mêmes. Mais si leurs croyances antérieures sont différentes, les choses sont différentes : si par exemple Merle confère une probabilité élevée à p(w’’) mais pas Daryl, Merle fera l’annonce f et Daryl ne le croira pas ; le poisson d’avril échouera, comme cela arrive souvent en réalité. Si c’est Daryl qui assigne une probabilité élevée à l’état w’’ (mais pas Merle), on observe un résultat intéressant : Daryl s’attendra à ce que Merle lui annonce une (vraie) nouvelle mais Merle ne le fera pas.

La morale de l’histoire : si vous voulez expliquer les phénomènes de la vie réelle (les poissons d’avril, pourquoi des agents s’échangent des actifs sur les marchés financiers, etc.), il faut tenir compte de la possibilité que les croyances antérieures des agents divergent très souvent. Le fait qu’elles puissent parfois coïncider s’expliquent par l’existence de normes sociales. Mais dans le cas du poisson d’avril, il est intéressant de voir que la norme est auto-destructrice : en générant des croyances antérieures communes, elle rend impossible la surprise.

Sinon, sur le même thème, on peut lire ce billet de Jeff Ely.

1 commentaire

Classé dans Non classé

Faits institutionnels et intentionnalité collective : Searle versus l’analyse économique

C.H.

Mes recherches sur les thèmes de la saillance, de l’émergence ou encore du raisonnement collectif m’ont amené à m’intéresser récemment aux travaux du philosophe américain John Searle, et plus particulièrement à son ingénieuse théorie des faits institutionnels. Searle développe une réflexion ontologique sur la nature des faits institutionnels en montrant comment des objets sociaux acquièrent du point de vue des agents une réalité en tout point identique à celle des faits naturels. A ce titre, Searle traite de questions qui intéressent un nombre croissants d’économistes travaillant sur l’émergence et le fonctionnement des normes sociales et autres conventions. Il est de ce point de vue intéressant de se demander comment l’analyse de Searle se positionne par rapport à l’approche standard des économistes. Lire la suite

3 Commentaires

Classé dans Non classé

Les économistes ont-ils perdu toute « Vision » ?

C.H.

Roger Backhouse, auteur important dans le champ de la philosophie économique, et Bradley Bateman posent une question fondamentale dans cet article paru dans le New York Times : ne manque-t-on pas cruellement d’économistes capables d’avoir une pensée globale sur le fonctionnement de nos économies, de proposer une « Big Picture » de nos économies de marché et capitalistes ? Des penseurs qui, à la manière de Marx, Keynes, Hayek ou Friedman, pourraient développer une vision cohérente des économies contemporaines.

Backhouse et Bateman notent de manière très juste que l’évolution de la discipline n’est pas favorable à la survie de ce genre de penseurs. Ironiquement, c’est Keynes lui-même qui est le premier à l’avoir bien compris en expliquant qu’un économiste devait être comme un « dentiste » : avoir l’ambition mesuré de ne traiter qu’un problème bien identifié et bien circonscrit, mais dont la résolution peut être potentiellement très bénéfique. L’économie, comme toutes les sciences « dures », mais aussi comme de plus en plus d’autres sciences sociales, est aujourd’hui une discipline extrêmement spécialisée. Cela s’explique évidemment par le fait que le stock de connaissances ne cessent de s’accroître, et ceci de manière exponentielle. Les compétences techniques et les connaissances factuelles qui sont requises pour apporter une contribution significative dans un des sous-domaines de la science économique sont telles que, hormis pour une poignée d’individus extrêmement brillants, il est bien difficile de sortir de son champ d’expertise étroit. Ajoutez à cela les incitations et contraintes instaurées par le fonctionnement de la science moderne qui poussent à une recherche de la « productivité », et on comprend alors aisément pourquoi tous les économistes sont devenus des dentistes.

A chacun de se faire son opinion sur cette évolution, si elle est souhaitable ou dommageable. On peut faire remarquer, à juste titre, que d’une certaine manière elle échappe largement à notre contrôle et qu’elle s’inscrit logiquement dans le cadre d’une dynamique de « progrès » scientifique. Mais on peut aussi souligner certains de ses désagréments. Dans son monumental Histoire de l’analyse économique, Joseph Schumpeter (un de ces spécimens à avoir développé une vision globale du capitalisme) a insisté sur l’importance de ce qu’il appelle la vision dans notre manière d’aborder les problèmes socioéconomiques (citation en anglais, n’ayant pas la version française sous la main) :

Obviously, in order to be able to posit to ourselves any problems at all, we should first have to visualise a distinct set of coherent phenomena as a worthwhile object of our analytic efforts. In other words, analytic effort is of necessity preceded by a preanalytic cognitive act that supplies the raw material for the cognitive effort [and this] will be called Vision

Dans le cadre de la démarche analytique et cartésienne qui consiste à séparer les éléments d’un ensemble plus global pour les étudier séparément, nous avons besoins de passer par une phase de cognition pré-analytique où nous développons une vision de l’ensemble global qui va nous guider. Les problèmes socioéconomiques que les économistes étudient ne sont pas des faits objectifs. Les problèmes sont construits par la manière dont nous les caractérisons, les divisons les uns par rapport aux autres et par la manière dont nous les relions. Cet acte cognitif pré-analytique a également été très bien pensé par Max Weber et son concept de « rapport aux valeurs ». Le rapport aux valeurs est l’ensemble des éléments normatifs (la plupart du temps produit par le contexte culturel) qui nous conduit à considérer tel problème comme important ou significatif et tel autre autre problème comme secondaire. C’est aussi lui qui nous conduit à caractériser les problèmes de la manière dont nous le faisons. Le point de tout ça n’est pas que la méthode analytique est problématique en soi, mais qu’elle le devient à partir du moment où la caractérisation des phénomènes à étudier ne se fait plus sur la base d’une vision de l’ensemble global dans lequel ces phénomènes s’inscrivent.

Les économistes ont-ils perdu cette vision ? Probablement pas tous, mais il est évident que le rejet pour les travaux cherchant à développer une approche d’ensemble sur le capitalisme (par exemple) ne facilite pas l’entretien d’une telle vision. Il est peut être trop facile de prendre certains exemples extrêmes montrant comment la profession valorise plus des travaux s’intéressant aux stratégies optimales d’abaissement des lunettes de WC que des travaux portant sur les variétés du capitalisme (lesquels seront typiquement publiés ailleurs qu’en économie), mais il y a là certainement quelque chose qui a du sens. Au-delà ce ces contrastes caricaturaux, le plus inquiétant est qu’aujourd’hui un économiste du travail (par exemple) peut produire de la recherche de qualité (ou considérée comme telle) sans avoir la moindre connaissance (autres que les éléments théoriques communs) concernant le fonctionnement des systèmes financiers ou des systèmes de santé. Ces problèmes sont différents me direz-vous. Ce à quoi je vous répondrai que tout dépend de la vision que vous adoptez.

Cette question m’intéresse d’autant plus que cela fait 4 ans maintenant que je donne un cours sur les variétés de capitalisme à des non-économistes de niveau master. Ce que j’en tire, c’est que ce type de cours répond totalement aux attentes d’un public de non-spécialistes qui eux-même veulent se doter d’une vision, même approximative, de la manière dont fonctionne nos économies. Du coup, je me demande si ce n’est pas comme ça qu’il faudrait interpréter la récente affaire du « walk-out » qui a concerné le célèbre cours d’économie de Greg Mankiw à Harvard. Il y a clairement une motivation idéologique derrière l’action de ces étudiants (dont la lettre est d’une pauvreté argumentaire affligeante, surtout si l’on considère qu’il s’agit d’étudiants de Harvard !) mais il y aussi là le signe d’un décalage entre une demande provenant en partie d’étudiants non-économistes et une offre (le cours de Mankiw) qui s’inscrit dans la plus stricte orthodoxie de la profession (ce qui n’est pas une critique). Il est bien entendu que les aspirants économistes doivent se soumettre à l’austérité des cours d’économie standard (qui d’ailleurs ne sont pas forcément austères). Pour les autres, c’est moins évident et ce n’est en tout cas pas ce qu’ils attendent. Mais peut être qu’un changement de perspective chez les économistes professionnels eux-mêmes est-il nécessaire. Initialement, les économistes étaient des philosophes. Aujourd’hui, la plupart d’entre eux sont devenus de purs et brillants techniciens. On est peut être maintenant en mesure de trouver un juste équilibre, histoire de faire des économistes de véritables penseurs de notre société.

46 Commentaires

Classé dans Trouvé ailleurs

Little sur Simon et la complexité

C.H.

Ce billet de Daniel Little sur le point de vue de Herbert Simon concernant la complexité sociale est à lire. Il m’intéresse à titre personnel d’autant plus que je donne cette année (comme l’année dernière du reste) un cours de « systémique » en M2 d’économie, mais que j’ai construit de manière à ce que l’on s’intéresse essentiellement à la manière d’étudier les phénomènes et les systèmes complexes sans s’arrêter à une approche systémique au sens strict (le plus du cours est ici pour ceux qui sont intéressés).

Dans son billet, Little suggère que la caractérisation de la complexité que propose Simon est difficilement généralisable aux phénomènes sociaux. Simon semble considérer que tous les phénomènes complexes sont hiérarchiques et décomposables, ce qui revient à dire que l’on pourrait étudier un système complexe en le décomposant par ses différentes parties et en étudiant chacune de ces parties séparément. Cependant, Little fait remarquer que la plupart des phénomènes sociaux complexes ne répondent pas à ces critères :

But here is an important point about social complexity.  Neither of these expectations is likely to be satisfied in the case of social systems.  Take the causal processes (sub-systems) that make up a city. And consider some aggregate properties we may be interested in — emigration, resettlement, crime rates, school truancy, real estate values.  Some of the processes that influence these properties are designed (zoning boards, school management systems), but many are not.  Instead, they are the result of separate and non-teleological processes leading to the present.  And there is often a high degree of causal interaction among these separate processes.  As a result, it might be more reasonable to expect, contrary to Simon’s line of thought here, that social systems are likely to embody greater complexity and less decomposability than the systems he uses as examples.

Cela rejoint un point que Little avait déjà souligné : dans le domaine social, les phénomènes complexes résultent le plus souvent de l’interaction d’un ensemble de mécanismes (sociaux) et non d’un seul et même mécanisme qui serait décomposable. Il s’agit d’un aspect que les approches contemporaines en termes de mécanismes (très à la mode en philosophie des sciences, comme j’ai pu en juger récemment) ont tendance à sous-estimer. Ce sont ces interactions qui génère les phénomènes de non-linéarité qui rendent les dynamiques des systèmes difficiles à prédire. Notez que cela ne nécessite pas que l’on fasse appel à un quelconque concept d’émergence, que les scientifiques regardent souvent avec suspicion du fait de son caractère métaphysique supposé.

Une autre importante caractéristique des systèmes sociaux complexes est la capacité de réflexivité des agents qui composent les systèmes. Autrement dit, les agents sociaux peuvent utiliser les caractéristiques macro du système comme ressources cognitives pour prendre leurs décisions, ce qui engendre des « boucles rétroactives » qui accroissent la complexité. Il s’agit d’une forme de « mécanismes descendants » qui n’existe que dans les systèmes sociaux et c’est de ces mécanismes que le statut épistémologique particulier des institutions comme faits objectifs provient.

3 Commentaires

Classé dans Trouvé ailleurs

Croyances et intentions collectives, et économie

C.H.

Les récentes primaires « citoyennes » organisées par le parti socialiste me donnent l’occasion d’aborder une question qui n’intéresse généralement pas beaucoup les économistes mais qui a pourtant une signification économique tant théorique qu’empirique : le rôle des intentions et des croyances collectives. Les candidats à la primaire, en dépit de leurs efforts pour maintenir une certaine cohésion et unité, ont fait état ces dernières semaines d’un nombre non négligeable de désaccords sur des sujets centraux sur lesquels le programme du PS avait pourtant déjà pris position. Maintenant que François Hollande vient d’être désigné candidat officiel du PS, tous ses anciens « adversaires » vont se ranger de son côté et, défendre des idées qu’ils ont ouvertement critiqué lors des débats de la primaire. De son côté, les positions et les propositions de Hollande ne seront plus seulement les siennes, mais bien celles du parti socialiste dans son ensemble. Lire la suite

4 Commentaires

Classé dans Non classé

Guesnerie sur les anticipations rationnelles

C.H.

Suite de la discussion autour de l’article de John Kay dont j’ai parlé l’autre jour. Roger Guesnerie propose une réflexion vraiment très intéressante sur l’hypothèse d’anticipation rationnelle et l’hypothèse d’efficience des marchés. Un peu comme Woodward avant lui, Guesnerie considère que le problème de l’économie n’est pas l’excès de rigueur ou le recours à la modélisation (ce qui laissait entendre Kay), mais réside plutôt dans le fait de poser comme un axiome (les anticipations rationnelles) ce qui ne devrait être qu’une hypothèse de travail. Guesnerie souligne à juste titre (et il bien placé pour cela, étant donné qu’il travail sur le sujet depuis très longtemps) que la question fondamentale consiste à savoir comment les agents coordonnent leurs anticipations. Or, recourir à des anticipations rationnelles n’est… rationnel (ou plutôt, optimal) que si tout les autres agents agissent également en fonction d’anticipations rationnelles. En théorie des jeux (rappelons qu’un équilibre de Nash n’est rien d’autre qu’un équilibre en anticipations rationnelles), une belle illustration de ce problème est donné par le jeu du « mille-pattes » : si je suis rationnel, que l’autre joueur est rationnel et que cela est common knowledge, alors j’ai intérêt (au sens optimalité) à arrêter le jeu dès le début. Si en revanche j’ai un doute sur la rationalité de l’autre (ou si je pense que l’autre doute de ma rationalité), j’ai intérêt à poursuivre. Bref, comme le dit Guesnerie, un équilibre en anticipations rationnelles est un point focal (comme l’est un équilibre de Nash pour un théoricien des jeux), mais peut-être pas le seul.

Le point est donc de voir l’hypothèse d’anticipations rationnelles comme une hypothèse empirique et de la traiter comme telle : dans certains cas, elle est raisonnable, dans d’autres elle est ostensiblement fausse. Le fait que les économistes tendent à traiter cette hypothèse de manière axiomatique n’est toutefois par surprenant, comme l’indique cette remarque très judicieuse de Guesnerie :

The re-examination of the scope of the rationality hypothesis and a complete reassessment of the domains of validity of the REH are overdue. It has just been stressed that these tasks do not lead to dismiss the demand for theoretical modelling. This does not mean, obviously, that they are easy tasks and that they will not affect, perhaps deeply, our understanding of economic phenomena. For example, the second task, the re-assessment of the REH, will touch the roots of the philosophical determinism that has shaped economic culture, all schools of thought together. Outside a REH world, prediction is much more difficult[18], apart from any problem of non-stationarity (stressed in Kay’s text). The standard economic wisdom may be shaken up.

Cette remarque fait parfaitement écho avec le livre de Nancy Cartwright, The Dappled World, que je suis actuellement en train de lire. Comme le fait remarquer Guesnerie, l’hypothèse d’anticipations rationnelles a été l’un des moyens par lesquels les économistes ont mis du déterminisme et de l’ordre dans un monde socioéconomique qui est largement désordonné. Ce n’est pas une spécificité de l’économie : Cartwright défend de manière assez convaincante l’idée selon laquelle la physique elle-même repose sur une démarche consistant à construire des « machines nomologiques » exhibant des comportement entièrement prévisibles. Cartwright fait toutefois remarquer que le domaine d’application de ces machines nomologiques est extrêmement restreint, ce domaine s’arrêtant bien souvent aux frontières du laboratoire. Selon Cartwright, cette démarche n’est pas problématique en soi, tant que l’on a conscience que les lois qui caractérisent le comportement des machines nomologiques ne s’appliquent que ceteris paribus, et que le monde réel est bien plus désordonné que ce ce que suggèrent les modèles.

Il est vrai que l’hypothèse d’anticipations rationnelles est plus qu’une contrainte ad hoc imposée par les économistes à leurs modèles en raison de sa commodité : la critique de Lucas fournie au contraire de solides arguments épistémologiques pour penser que l’on ne peut décrire les relations entre agrégats macroéconomiques (par exemple entre production et dépenses publiques) par des coefficients structurels inamovibles (qui eux-mêmes servent à construire des machines nomologiques d’ailleurs). Un changement de politique économique (monétaire ou budgétaire) change la valeur de ces coefficients précisément parce qu’il semble raisonnable de penser que les agents anticipent les effets induits par un changement de politique économique.

C’est un argument solide, indiscutablement. Cependant, l’hypothèse d’anticipations rationnelles n’est pas une suite logique à la critique de Lucas. De mon point de vue de non-spécialiste, il me semble que la seule chose que la critique de Lucas autorise, c’est de postuler que les agents forment des anticipations qui affectent les relations entre agrégats macroéconomiques, mais rien d’autre. La nature des anticipations reste une question fondamentalement empirique. Pour dire les choses autrement, plutôt que de servir de contraintes structurelles à la construction de machines nomologiques, les anticipations rationnelles doivent au contraire être l’objet  d’une investigation théorique et empirique. De ce point de vue, la remise du « prix Nobel » d’économie à Sims et surtout à Sargent vient à point nommer puisque c’est justement une question traitée par ces auteurs. Comme je l’ai noté hier, l’une des contributions de Sargent a été notamment d’utiliser le concept de « self-confirming equilibrium » pour examiner les processus d’apprentissage par lesquels les agents peuvent éventuellement apprendre le « bon » modèle de l’économie et donc former des anticipations rationnelles. L’une des conséquences de ce genre de travaux est de souligner la possibilité d’équilibres multiples (j’en avais déjà parlé ici et ), autrement dit le fait que la convergence vers un équilibre d’anticipations rationnelles, si elle est possible, n’est pas une nécessité. Le concept d’équilibre corrélé peut également avoir une certaine pertinence : il n’est pas absurde de penser que les agents ne coordonnent pas leurs anticipations ex nihilo mais qu’ils s’appuient sur éléments exogènes (normes sociales, notes des agences de notation, ou… théories économiques performatives) qu’ils peuvent interpréter d’une multitude de manières. Là encore, la propriété d’un équilibre corrélé c’est qu’il ne correspond pas nécessairement à un équilibre de Nash. Empiriquement, la question est donc de déterminer sur quoi s’appuient réellement les agents pour former leurs anticipations. Rien ne dit alors qu’un équilibre en anticipations rationnelles soit un point focal.

Poster un commentaire

Classé dans Non classé

John Kay et la modélisation en (macro)économie

C.H.

John Kay développe une réflexion sur l’utilisation et la pertinence des modèles en économie, et plus particulièrement en macroéconomie. Le point de vue de Kay est très critique et s’avère être essentiellement une critique de la modélisation en tant que telle, en tout cas telle que la défend Robert Lucas, à savoir la construction « d’économie artificielle » permettant de dériver des prédictions sur l’économie réelle. Reprenant un argument développé par Nancy Cartwright (et discuté récemment sur ce blog), Kay fait remarquer que les économistes (comme tous les scientifiques) construisent des modèles simplificateurs mais ont la particularité de faire de (trop) nombreuses hypothèses structurelles qui finissent par détacher totalement le modèle de la réalité, dans la mesure où les résultats du modèle sont dépendants des hypothèses structurelles. Lire la suite

2 Commentaires

Classé dans Trouvé ailleurs

Peut-on modéliser l’émergence ?

C.H.

On peut trouver dans un récent numéro de la revue de philosophie Synthese un article de Fabio Boschetti (version librement accessible ici) qui défend l’idée qu’il est impossible, tout du moins en l’état actuel de nos connaissances, de rendre compte de manière formelle des processus d’émergence. Voici l’abstract : Lire la suite

6 Commentaires

Classé dans Non classé

Sur les modèles en économie

C.H.

Gérard Dréan (qui intervient ici sous le pseudo d’Elvin) a posté un long et intéressant commentaire à mes deux récents billets sur le statut des modèles en économie. La démarche d’Elvin (qui consiste à imaginer comment un physicien modéliserait la concurrence entre des entreprises sur un marché) est originale même si je ne partage pas ses conclusions. Il y a au moins deux points sur lesquels je suis en désaccord : d’une part, je ne suis pas du tout certain qu’un physicien aborderait le problème de la manière dont Elvin la décrit ; il me semble qu’Elvin décrit ici plutôt la démarche de l’ingénieur, lequel cherchera à produire un modèle qui soit « opérationnel ». D’autre part, Elvin introduit un biais dans son expérience de pensée en faisant jouer un rôle à un « panel d’entreprises » finançant le programme de recherche du physicien. Cela génère une distorsion importante  dans la mesure où tout modèle scientifique a une dimension « cognitive » qui dépend des intentions du modélisateur et des utilisateurs du modèle. Il est évident qu’un chef d’entreprise et qu’un scientifique n’ont pas les mêmes objectifs et que, par conséquent, ils ne vont pas attendre forcément les mêmes choses d’un modèle. De ce fait, les critères d’évaluation ne seront pas les mêmes.

Il me semble qu’Elvin (mais il n’est pas le seul, loin de là) commet l’erreur de vouloir évaluer la pertinence des modèles construits par les économistes (en prenant comme référence ce que ferait un physicien imaginaire dans un contexte très spécifique) en isolant leurs pratiques de modélisation du contexte sociologique et historique de la discipline. Dans mes billets, je ne cherche pas à déterminer si la manière de procéder des économistes est la bonne ou non, notamment parce que je me place du point de vue du philosophe des sciences et non pas de celui de l’économiste modélisateur. Il s’agit d’abord d’expliquer pourquoi les économistes procèdent ainsi et pas autrement. Ce qui m’a intéressé dans l’approche de Suàrez, c’est qu’il fait jouer un rôle essentiel au modélisateur, à ses compétences et à ses intentions. Par exemple, on peut juger que le modèle proposé par Akerlof dans son fameux article « Markets for Lemons » sur les asymétries d’information ne modélise pas de manière satisfaisante ce qui se passe sur un marché. Mais le modèle prend du sens dès lors que l’on comprend le contexte dans lequel il a été produit et qui se caractérisait par la domination du paradigme de la concurrence parfaite. Le modèle a remplit alors à cette époque une fonction cognitive essentielle : modifier les représentations des économistes sur le fonctionnement de la concurrence. Il est clair que seul un économiste au fait de l’état de la discipline pouvait, à l’époque, comprendre l’intérêt de la douzaine d’équations et de la narration les accompagnant que l’on trouve dans l’article d’Akerlof.

Cela ne veut pas dire que les économistes ne doivent que communiquer entre eux. De fait, il y a des modèles conçus par les économistes et qui ont pour vocation de s’adresser à d’autres communautés. Je pense en particulier aux modèles développés en économie financière voire en économie du développement. La question de savoir ce qu’est un « bon » modèle est indissociable de la question du contexte sociologique et historique dans lequel il s’insère. Notez que la question du statut, ou encore de l’ontologie des modèles, est différente. C’est cette question qui m’intéressait initialement, mais ce n’est à pas celle-là qu’Elvin a essayé de répondre il me semble.

Sinon, toujours sur le sujet « un (bon) modèle, c’est quoi ? », voici une intéressante vidéo trouvée sur le blog « History of Economics Playground » :

1 commentaire

Classé dans Non classé

Causalité et explication dans les sciences

C.H.

J’étais une partie de la semaine dernière en Belgique (à Gand pour être tout à fait précis, ville fort sympathique au demeurant) pour participer au colloque « Causality and Explanation in the Sciences« . Je pensais en faire un compte-rendu mais Daniel Little, qui participait au colloque, en a déjà proposé un très complet que je vous encourage à lire. Globalement, j’ai trouvé les discussions très intéressantes même si j’avoue que certaines réflexions sur la causalité en mécanique quantique ont eu tendance à me dépasser…

Pour ceux qui sont intéressés par le papier que j’ai présenté avec un collègue, il est disponible sur demande (attention, version provisoire).

Poster un commentaire

Classé dans Non classé

Explication et représentation dans les modèles en économie (2/2)

C.H.

Suite (et fin) du billet précédent. Lire la suite

1 commentaire

Classé dans Non classé

Explication et représentation dans les modèles en économie (1/2)

C.H.

Note : Billet un peu long et donc divisé en deux parties avec la suite dès demain.

L’économie, au même titre que la physique et la biologie, est une science dont le mode d’explication repose largement sur le recours à la modélisation. Pour reprendre la terminologie de Peter Godfrey-Smith, l’économie est une « model-based science ». Toutefois, par comparaison avec la physique et à un degré moindre avec la biologie, le sens commun suggère que l’économie est une science qui a connu moins de « succès » (voire pour certains qu’elle a fait plus de dégâts qu’autre chose, mais c’est une autre histoire) dans le sens où elle a produit peu de résultats à la fois considérés comme fiables par l’ensemble de la communauté des économistes et qui ont résisté à l’épreuve de la confrontation avec la réalité. Ce jugement est discutable mais, pour les besoins de ce billet, on l’acceptera provisoirement. La question que l’on peut se poser est alors la suivante : pourquoi l’économie est-elle moins performante que la physique alors même qu’elle recourt à la même démarche scientifique, en particulier en utilisant la modélisation comme moyen de représentation de son objet d’étude ? Lire la suite

1 commentaire

Classé dans Non classé

Modéliser et prédire le comportement humain

C.H.

The Economist propose un intéressant article sur l’usage de plus en plus répandu de la part des acteurs économiques (pouvoirs publics, entreprises) de logiciels élaborés à partir de la théorie des jeux pour prédire certains évènements ou pour aider à la prise de décision. Il me semble toutefois que l’article manque d’une certaine distance critique et mélange plusieurs choses différentes. Lire la suite

Poster un commentaire

Classé dans Trouvé ailleurs

Le statut des modèles dans les sciences en général et dans les sciences sociales en particulier : une « reading list »

C.H.

Historiquement, et notamment pendant la période durant laquelle le positivisme logique était dominant, les théories scientifiques constituaient l’objet d’étude privilégié de la philosophie des sciences. L’explication scientifique était plus ou moins considérée comme équivalente à la production de théories, postulat servant par exemple de base aux travaux de Carl Hempel sur la structure des théories scientifiques (le modèle D-N). A partir des années 70, le statut épistémologique premier des théories a commencé à se fragiliser. Une étape importante a notamment était le développement de la conception « sémantique » des théories qui considère que les théories scientifiques ne sont rien de plus qu’une collection de modèles. Même si cette approche est contestée (notamment, réduire la science à une forme ou une autre d’activité de modélisation est excessif), elle a largement contribué à orienter les réflexions de la philosophie des sciences vers le statut ontologique et épistémologique des modèles. Si cette évolution a d’abord concerné les sciences de la nature (et en particulier les mathmatiques et la phsyique), les sciences sociales sont également touchées depuis quelques années.

Ci-dessous vous trouverez une bibliographie comportant des références abordant la question du statut des modèles. La plupart concerne directement l’économie et les sciences sociales, mais certaines se placent à un niveau de généralité un peu plus élevé. La liste ne prétend pas être exhaustive, aussi si certains d’entre vous ont d’autres références à indiquer, qu’ils ne se privent pas de le faire dans les commentaires. Lire la suite

3 Commentaires

Classé dans Non classé

La modélisation en économie et en biologie

C.H.

Un numéro spécial de la revue Biology and Philosopy consacré à la pratique de la modélisation en économie et en biologie va paraître en septembre. J’ai pu déjà consulter un certain nombre d’articles très intéressants : un article de T. Grüne-Yanoff sur l’utilisation de la théorie des jeux évolutionnaire en économie (j’en avais parlé ici), un article sur l’économie évolutionnaire ou encore un article de J. Martens qui interroge les fondements méthodologiques et heuristiques de la démarche en biologie évolutionnaire consistant à appréhender les organismes comme des agents maximisant « intentionnellement » leur valeur sélective en « choisissant » leurs traits phénotypiques. L’auteur oppose ce type d’explication individualiste à l’explication en termes d’approche multi-niveaux qui est souvent mobilisée pour étudier l’évolution de la coopération.

A noter également le très intéressant article de Robert Sugden qui poursuit sa réflexion sur les modèles comme « mondes crébibles ». Sugden va même un peu plus loin que dans ses articles précédents en défendant l’idée qu’en économie comme en biologie, il n’est pas rare que les chercheurs produisent des « explications en attente d’observations » : en clair, les modèles modélisent des phénomènes fictifs dont on a pas encore trouvé d’équivalent empirique, mais dont on a des raisons de penser qu’ils existent. Sugden prend deux exemples. Le premier est  l’article de Schelling sur les modèles de ségrégation résidentielles paru en 1971 (article qui n’est pas exactement identique au chapitre portant sur le même thème dans l’ouvrage Micromotives and Macrobehavior paru en 1978). Dans cet article, le point de départ de Schelling n’est pas le modèle en deux dimensions représentant un damier où les agents choisissent leur localisation mais un modèle unidimensionnel prenant la forme d’une ligne. Le modèle est très peu réaliste mais débouche sur des patterns intéressant au moins sur le plan formel… sans que Schelling n’indique à quel phénomène réel ils pourraient renvoyer. De même, l’article contient une variante du modèle en deux dimensions où les préférences des membres des deux populations diffèrent. Il émerge alors une ségrégation résidentielle avec une plus forte densité de population pour la population la moins « tolérante ». Le seul lien entre ce résultat et un quelconque phénomène réel est suggéré par Schelling au détour d’une fin de paragraphe, dans une phrase entre parenthèsesse terminant par un point d’exclamation. C’est ce que Sugden appelle une explication en termes d’observation.

Le second exemple est l’article de J. Maynard Smith et G. Parker, « The Logic of Asymetric Contest », paru en 1976. Ici, l’explication en attente d’une observation porte sur les stratégies évolutionnairement stables « paradoxales », c’est à dire les situations où le conflit entre deux animaux (pour la possession d’une ressource par exemple) est résolu « conventionnellement » en faveur du plus faible ou de celui pour qui la « victoire » est la moins intéressante. Dans le modèle de Maynard Smith et Parker, un tel équilibre existe et indique donc qu’une telle situation est théoriquement possible. Mais à l’époque où l’article est écrit, aucun exemple empirique n’était connu (depuis, on en a trouvé quelques uns, notamment chez certaines espèces d’araignées).

Au-delà de la thèse de Sugden, l’article de Maynard Smith et Parker est vraiment intéressant car il en dit long sur les pratiques de modélisation des biologistes. Les critiques de la science économique qui dénonce les « hypothèses irréalistes » ou les « fables » racontées par les modèles des économistes seraient bien avisés de consulter cet article, qui est quand même le point de départ de toute la littérature sur la stabilité évolutionnaire et plus largement qui a lancé l’utilisation de la théorie des jeux en biologie. On peut difficilement faire plus irréaliste que le modèle de conflit des auteurs : reproduction asexuée, symmétrie des « joueurs » au niveau des gains et des aptitudes au combat, interactions exclusivement dyadiques, comportement entièrement déterminé par le génotype, comportement génétiquement indépendant du rôle occupé par l’organisme (possesseur de la ressource ou challenger), etc. A vrai dire, même les modèles microéconomiques que l’on trouve dans les manuels d’économie paraissent plus réalistes que le modèle de Maynard Smith et Parker. Et pourtant, à en juger par l’évolution de la discipline ces trente dernières années, leur modèle a été d’une fécondité que l’on ne peut surestimée. On peut faire à peu près la même analyse d’ailleurs pour ce qui concerne les modèles de génétique des populations, disciplines qui a été confronté à des critiques similaires que l’économie.

Bref, ces différents points renforcent la thèse que l’économie et la biologie partagent de nombreuses caractéristiques, au-delà des pratiques de modélisation. Il y a indéniablement un isomorphisme formel entre modèle biologiques et modèles économiques. Ce n’est pas nouveau : les deux disciplines ont fait depuis longtemps de l’optimisation sous contrainte leur outil privilégié. Cependant initialement, l’optimisation sous contrainte en économie était justifiée par la rationalité des agents alors qu’en biologie c’était la sélection naturelle qui servait de justification ontologique à cette hypothèse. Ironiquement, les choses se sont inversées aujourd’hui : comme le montre l’article de Martens, la biologie utilise l’analogie de l’agent rationnel tandis qu’en économie, une partie de la littérature en théorie des jeux réinterprète les résultats classiques en substituant aux hypothèses sur la rationalité des agents l’argument de l’existence d’une forme ou d’une autre de sélection ! A cet isomorphisme formel s’ajoute un isomorphisme substantif qui indique qu’évolution culturelle et évolution biologique partagent certainement quelques principes ou mécanismes premiers, ce qui rend la transposition d’un même modèle d’un domaine à un autre possible, au moins de prime abord.

Poster un commentaire

Classé dans Trouvé ailleurs