Règles d’induction et complexité

C.H.

Dans mon récent billet sur la macroéconomie et la complexité, j’ai évoqué quelques raisons pouvant expliquer pourquoi la macroéconomie ne propose pas, de l’avis de nombreuses personnes, une théorisation adéquate de son objet d’étude. J’ai notamment abordé le phénomène de réflexivité qui induit directement la dimension complexe des phénomènes macro : les phénomènes macro sont le produit des actions adoptées par les agents sur la base d’anticipations portant sur ces mêmes phénomènes macro. Autrement dit, le fonctionnement du système macroéconomique est déterminé par la manière dont les agents conçoivent ce même fonctionnement. Cette idée est à la base de la théorie des anticipations rationnelles (l’article fondateur de Muth cite notamment l’analyse de Grunberg et Modigliani sur la possibilité de faire des prédictions publiques, qui est l’un des points de départ des réflexions sur la réflexivité) même si au final elle est amputée de l’essentiel de son intérêt, puisqu’il est postulé qu’il existe un bon modèle de l’économie et que les agents le possède. Ici, je vais essayer d’approfondir cette idée en la généralisant au-delà des phénomènes purement macroéconomiques.

Pour traiter cette question, un bon point de départ me semble être l’article de Ken Binmore sur la modélisation du processus de raisonnement de l’individu rationnel et que j’ai discuté ici dans le cadre de plusieurs billets. Pour rappel, Binmore (mais il n’est pas le seul) montre que dans le cadre d’un certain nombre d’interactions stratégiques, la confrontation de deux individus parfaitement rationnels et dont la rationalité est connaissance commune débouche sur une indécidabilité radicale : il est tout simplement impossible pour les individus de parvenir à un choix par le biais d’une délibération rationnelle. La même chose est vraie si l’on passe d’une situation impliquant deux individus à n individus. Il suffit de penser à l’exemple du concours de beauté donné par Keynes : si vous participez à un jeu concours où le gagnant est celui dont la sélection des photos des plus beaux visages parmi ceux proposés est celle qui se rapproche le plus du choix moyen, il est tout simplement impossible pour les participants de faire leur choix sur la base d’une délibération rationnelle. En effet, je vais sélectionner les photos en fonction de ce que je pense être les préférences des autres participants, mais je sais que les préférences des autres participants sont fonction de même propres préférences qui elles-mêmes…, etc. Dans ce cadre précis, les participants vont finalement faire leur choix sur la base de données exogènes, essentiellement des critères conventionnels concernant les canons de beauté.

Imaginons une situation S généralisant ce type de problème avec n individus mais où il n’existe pas de conventions ou de normes évidentes indiquant à chacun ce qu’il doit faire. On peut considérer que S est telle qu’il est impossible pour chaque individu de savoir quelle est l’action optimale, soit parce que S est indécidable (comme dans le concours de beauté) soit parce S est trop compliqué pour permettre la découverte de la solution optimale dans un temps raisonnable. Comment les individus vont-il faire pour choisir ? Dans son article, Binmore considère que les individus (qu’il conceptualise comme des machines) disposent de « guessing-algorithm », c’est-à-dire des règles à partir desquelles ils prédisent de manière approximative ce que les autres vont faire. De manière alternative (et à mon avis plus claire), on peut reprendre l’idée développée par Brian Arthur selon laquelle les individus s’appuient sur des règles inductives consistant à induire les comportements futurs des autres individus à partir de leurs comportements passés. En fait, ces règles inductives ne portent pas sur le comportement de chaque individu prit séparément mais sur la dynamique globale de la situation (ou système) S. Autrement dit, les règles inductives sont autant de modèles internes possédés par les individus, c’est à dire des modélisations subjectives du fonctionnement du système S auquel ils appartiennent. On peut encore formuler les choses autrement : les règles d’induction permettent de transformer un problème non-paramétrique (dont la solution dépend du comportement des autres joueurs) en un problème paramétrique pour lequel il est plus aisé de déterminer le comportement optimal.

Prenons un exemple qui ressemble à celui du bar donné par Arthur : vous aimez aller courir seul dans un parc pour vous détendre. Pour ne pas être dérangé, vous préférez courir lorsqu’il n’y a pas trop d’autres coureurs. Il en va de même pour n autres coureurs. Considérons que chaque coureur va courir une fois par semaine et que le jour et la plage horaire sont fixes et les mêmes pour chaque coureur. Chaque coureur ne veut allez courir que si le nombre total de coureurs m ne dépasse par m* ; autrement dit, un coureur ira courir uniquement s’il anticipe m ≤ m*. En tant que tel, cela revient pour chaque individu à se demander si chaque autre coureur va aller courir. Mais en fait, si l’on considère que l’ensemble des coureurs compose un système S, il s’agit de se demander quel sera le prochain état de S. Chaque coureur utilise, par le biais d’une règle d’induction, un modèle interne subjectif de la dynamique de S de type m(St-1,t-2,..t-k) –> P[m(St)] : à partir de l’observation (publique) m(St-1,t-2,..t-k) du nombre de coureurs ayant fréquenté le parc les k semaines précédentes, chaque coureur anticipe le nombre de coureurs qui ira courir la semaine suivante, noté P[m(St)]. Comme Arthur, on suppose qu’il existe une écologie de règles d’induction et qu’un individu conserve sa règle tant qu’elle génère des prédictions qui se réalisent ; il en adopte une autre (par un processus aléatoire) dans le cas contraire. Un exemple (parmi une infinité d’autres) de règle inductive peut être « si la moyenne de coureurs des k semaines précédentes est m’ alors il y aura m’ coureurs la semaine prochaine ». Dans son article, Arthur trouve par le biais d’une simulation une dynamique faisant converger l’état du système aux alentours du point m*. L’intuition derrière ce résultat est que le processus évolutionnaire va éliminer les règles cycliques et générer une population de modèles internes telle qu’à chaque fois une proportion proche de m*/n génère une prédiction P[m(St)] < m*.

Dans ce cas, il est possible de conclure que les agents parviennent à former des « anticipations rationnelles » dans le sens où les modèles internes à partir desquels ils génèrent leurs anticipations débouchent sur les bonnes prédictions. On a ainsi à faire en quelque sorte à des prophéties auto-réalisatrices. Il faut cependant bien voir qu’il n’y a aucune raison pour que le système converge systématiquement vers un tel état stable (des dynamiques cycliques sont envisageables). Surtout, il est tout à fait possible qu’il existe plusieurs états stables se caractérisant par différents ensembles de modèles internes auto-réalisateurs et, donc, différentes dynamiques. Il est clair que ce genre de raisonnement peut s’appliquer à un spectre très large de phénomènes, à commencer par les phénomènes macroéconomiques. Dans l’absolu, les phénomènes macro sont le produit de comportements micro. Toutefois, le comportement de chaque individu n’est pas la plupart du temps basé sur des croyances ou des anticipations sur ce que va faire chaque autre individu, mais sur ce que chacun croit être la dynamique du système macroéconomique dans son ensemble. Bref, le comportement de chaque agent est largement basé sur son propre modèle interne, lequel peut être objectivement « faux »… mais malgré tout s’auto-réaliser si les conditions sont propices. Prenons un exemple : si suffisamment d’investisseurs estiment qu’une économie nationale dont l’Etat à un endettement supérieur à x% de son PIB va connaitre des difficultés (leur modèle interne fait un lien négatif entre endettement public et performance économique), alors leur décision de ne plus investir (ou prêter des fonds au gouvernement) peut générer une confirmation de leurs anticipations.

Je n’ai pas pris cet exemple de l’endettement public par hasard car il peut aussi servir à illustrer le fait que la sélection des modèles internes peut être influencée par certains facteurs exogènes, comme par exemple la production scientifique des économistes. Récemment, Reinhart et Rogoff ont ainsi publié un ouvrage proposant une étude historique et empirique qui indique que le dépassement du seuil de 90% d’endettement public est annonciateur de difficultés économiques. Par ailleurs, on ne peut exclure que certaines règles inductives soient plus saillantes que d’autres, plus « évidentes » ou facile à assimiler. Beaucoup de croyances sur le fonctionnement de l’économie qui peuvent sembler objectivement fausses (comme par exemple que les prix baissent moins vite qu’ils n’augmentent) perdurent parce qu’elles sont intimement liées à des représentations culturelles ou idéologiques plus générales. On peut tout à fait imaginer que dans certains cas ces « modèles internes » aient un impact sur le fonctionnement de l’économie. Comprendre la formation de ces représentations, leur persistance et leur impact sur le fonctionnement de certains marchés ou de l’économie dans son ensemble semble être un thème de recherche assez intéressant.

2 Commentaires

Classé dans Non classé

2 réponses à “Règles d’induction et complexité

  1. Gu Si Fang

    « Binmore […] montre que dans le cadre d’un certain nombre d’interactions stratégiques […] il est tout simplement impossible pour les individus de parvenir à un choix par le biais d’une délibération rationnelle. »

    La rationalité consiste justement à affirmer cela. Une fois qu’on a compris que certains types d’interactions / contrats / institutions / organisations ne marchent pas, on peut en sortir, éviter d’y entrer, ou les prévenir.

    Comment cela s’applique-t-il à la dette publique ? C’est très simple : personne n’est obligé d’en acheter. En pratique, beaucoup de gens en achètent. Toujours en pratique, le phénomène du concours de beauté me semble être une très mauvaise description du fonctionnement de ce marché. En effet, les « runs » bancaires ou krachs obligataires portent toujours sur des établissements ou des Etats qui sont objectivement en piteux état. Ce n’est pas par un hasard irrationnel que des investisseur ont shorté la dette grecque…

    Comment cela s’applique-t-il à la macroéconomie, étant donné que personne ne peut en « sortir » ? Appliqué à toute l’économie, le problème du modèle d’anticipation faux signifie ceci : les gens ont un « modèle » faux du comportement de l’économie. En d’autres termes, ils ont des anticipations qui ne se réaliseront pas. Dit plus simplement : beaucoup de gens font une erreur (au moment des crises).

    La question qui se pose à l’économiste est donc d’expliquer comment un grand nombre de gens peuvent faire des erreurs simultanément. C’est le « cluster of errors » des autrichiens. Cette approche repose sur l’individualisme méthodologique, comme l’approche de Binmore. Mais en évitant de modéliser les gens comme des calculateurs maximisateurs.

    Lorsque les individus sont modélisés comme des calculateurs maximisateurs, il est facile de trouver des situations où ils se trompent systématiquement. Prouver qu’ils font des erreurs systématiques est alors une pétition de principe. Il est beaucoup plus difficile de montrer que des individus « normaux » peuvent se tromper tous, simultanément. C’est ce que tente de faire l’ABC, et encore peut-on la critiquer sur ce point.

    Cdt,
    GSF

  2. Adrien

    Cet exemple est une illustration parfaite d’une théorie (on peut peut être modérément parler de modèle), proposée par Jean Michel Lasry et Pierre Louis Lions du nom de jeux à champs moyens.

    L’idée est de proposer un modèle micro macro en étudiant des dynamiques d’équilibre de Nash à N joueurs et de faire tendre le nombre de joueurs à l’infini (comme des particules physiques, d’où le nom de champs moyen), ce qui est une très bonne approximation assez rapidement (au delà de 10 joueurs). De cette manière, chaque joueur influence marginalement l’équilibre du jeu, et chaque joueur observe la masse (densité) des autres joueurs et la dynamique de la masse (et non le comportement optimal de chaque joueur) pour décider. Bien sûr, il faut que cela boucle, et que la dynamique de masse corresponde au comportement optimal de tous les joueurs.

    Les applications commencent et sont amusantes : comment fixer une heure de réunion sachant que chaque joueur veut arriver avant le début de la réunion (quand disons les trois quarts des invités sont arrivés), mais ne veut pas arriver trop en avance? Comment modéliser la dynamique de la « mexican wave », la ola, dans un stade, à partir de données individuelles (panurgisme, confort)? Comment se répartissent des vacanciers sur une plage (pas trop près des autres, proche du bord de l’eau)? Comment se passe le changement de technologie (pour le pétrole, ne pas être le dernier à en vendre, mais rester tout de même parmi les derniers pour profiter des prix)? Comment se forme la volatilité sur un marché spéculatif?

    Cette modélisation a l’avantage de simplifier les jeux avec un trop grand nombre de joueurs, mais est réduite à un système symétrique de joueurs (on ne change pas l’équilibre en intervertissant deux joueurs), et il existe aussi des conditions d’existence particulières. Néanmoins cette technologie a un énorme avenir devant elle.

    Lions fait pour sa septième année consécutive le cours de mathématiques sur ces équations au Collège de France, qu’on peut trouver en video sur le site de l’institution. Ce sont des maths de haut vol, mais les applications commencent à venir, voir les papiers d’Aimé Lachappelle, Olivier Guéant et JM Lasry.

Votre commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l’aide de votre compte WordPress.com. Déconnexion /  Changer )

Image Twitter

Vous commentez à l’aide de votre compte Twitter. Déconnexion /  Changer )

Photo Facebook

Vous commentez à l’aide de votre compte Facebook. Déconnexion /  Changer )

Connexion à %s