Archives de Tag: Question de rationalité

Common knowledge et problème de l’attaque coordonnée

C.H.

Imaginez deux généraux byzantins situés chacun avec leur armée respective sur deux collines adjacentes. L’armée ennemie est située dans la vallée en bas des deux collines. La configuration stratégique est telle que si les armées des deux généraux attaquent simultanément l’ennemi, elles l’emporteront aisément. En revanche, si l’une attaque alors que l’autre ne bouge pas, c’est l’armée ennemie qui l’emportera. Sachant cela, les deux généraux mettent en place un système pour se coordonner en tenant compte du fait qu’il existe une probabilité e infime mais strictement positive que la transmission d’un message d’un général à l’autre échoue : le général 1 envoi un messager annonçant au général 2 son intention d’attaquer ; le général 2 envoi à son tour un messager au général 1 pour confirmer qu’il a bien reçu le premier message ; le général 1 envoi alors un messager pour confirmer qu’il a bien reçu le deuxième message ; le général 2 envoi alors un messager pour confirmer qu’il a bien reçu le troisième message, etc. Si le processus se poursuit à l’infini, alors l’intention d’attaquer est connaissance commune (common knowledge) parmi les généraux et la coordination est possible. Lire la suite

Poster un commentaire

Classé dans Non classé

La (non) rationalité des sportifs

C.H.

Article très intéressant mais aussi particulièrement édifiant sur le site d’ESPN sur les résultats d’une enquête conduite par la ligue américaine de football US (NFL) auprès d’un échantillon de joueurs concernant les commotions cérébrales. Les joueurs de foot US sont en effet particulièrement sujets à ce type de traumatisme et, depuis quelques années, la NFL a fait évoluer les règlements pour limiter au maximum leur apparition. Un point intéressant que montre l’enquête et que, en dépit de la prévention faite par la NFL depuis plusieurs années, une majorité des joueurs interrogés affirment être prêts à cacher à leur staff les troubles liés à une commotion qui pourraient les affecter afin de pouvoir continuer à jouer.

Ce qui est intéressant, c’est la manière dont certains joueurs expliquent cette attitude. Par exemple,

"I’ll probably pay for it later in my life," Mikell said, "but at the same time, I’ll probably pay for the alcohol that I drank or driving fast cars. It’s one of those things that it just comes with the territory."

Les joueurs connaissent les risques potentiels associés à une commotion cérébrale mais, comme pour la consommation d’alcool, donne une importance moindre aux risques futurs relativement aux "gains" présents. On peut interpréter les choses de deux manières. D’un certain point de vue, il s’agit d’une attitude tout à fait rationnelle au sens de l’économiste : les joueurs de foot US démontrent juste qu’ils actualisent les gains (ou les pertes) futurs à un taux très élevés, autrement dit qu’ils accordent beaucoup d’importance au présent par rapport au futur. En soi, cela n’a rien d’irrationnel à partir du moment où le taux d’actualisation est constant dans le temps. Cependant, certains éléments indiquent que les choses ne sont peut être pas si simples. Par exemple, la même enquête indique qu’une large majorité de joueurs interrogés souhaite la présente de neurologues indépendants au bord des terrains :

Players also said they should be better protected from their own instincts: More than two-thirds of the group the AP talked to wants independent neurologists on sidelines during games.

Cela peut s’expliquer par le fait que les joueurs ont conscience que leurs choix peuvent manifester une incohérence inter-temporelle. Techniquement, les joueurs n’actualisent pas leurs gains futurs de manière exponentielle (ex : de mon point de vue, 1 euro aujourd’hui vaut 0,50 dans un an et 0,5² = 0,25 dans deux ans, etc.) mais de manière hyperbolique : 1 euro vaut 0,50 dans un an et 0,25 dans deux ans mais, l’année prochaine 1 euro dans un an ne vaudra plus (par exemple) que 0,40 centimes. Il y a incohérence dans la mesure où le taux d’actualisation change en fonction de la période de référence, ce qui peut conduire à des choix contradictoires dans le temps et à des phénomènes de regret.

On peut interpréter l’actualisation hyperbolique en termes de personnalités multiples (mutiple selves) : l’idée est que l’on ne peut plus définir l’individu comme un agent doté d’une fonction d’utilité unique mais comme une collection de personnalités distinctes, chacune dotée de ses propres préférences et donc de sa propre fonction d’utilité. Notamment, chaque personnalité tend à sur-valoriser les gains qui sont présents de son point de vue. Le souhait des joueurs de foot US d’avoir aux abords des terrains des neurologues indépendants peut s’interpréter comme une volonté d’instaurer un "mécanisme" permettant "d’enforcer" les contrats conclus entre les différentes personnalités d’un même joueur : en clair, les joueurs à ce moment présent accordent une relative importance à leurs gains très lointains (leur santé après la fin de leur carrière) et, sachant que leur futur eux-mêmes, lorsqu’il sera sur le terrain, donnera moins d’importance à ces gains très lointains, souhaitent contraindre les choix de ces futures personnalités. Une version moderne du mythe d’Ulysse et des sirènes en quelque sorte…

8 Commentaires

Classé dans Non classé

Décès de Kim Jong-Il et hystérie collective : un cas d’ignorance pluraliste ?

C.H.

Pour beaucoup d’entre nous, les images montrant des scènes d’hystérie collective en Corée du Nord suite au décès de Kim Jong-Il ont quelque chose d’étrange, voire d’incompréhensible.

Quand on sait dans quelle misère vit la population nord-coréenne par la faute d’un Etat totalitaire mené par une poignée de fous-furieux, on peut se demander pourquoi les nord-coréens pleurent la perte de leur leader. Il y a bien sûr plusieurs explications envisageables. On peut faire l’hypothèse que les images de la télévision nord-coréenne sont un pur montage ; on peut penser que l’hystérie collective est le produit d’un endoctrinement de masse qui fait que les gens sont sincèrement malheureux ; on peut enfin conjecturer que la surveillance de la population est à un niveau tel que les gens préfèrent feindre d’être tristes, plutôt que de prendre le risque d’être arrêtés. Cette dernière explication aurait plutôt ma préférence, mais j’ai un doute sur le fait que la tristesse affichée des nord-coréens soit d’abord motivée par la peur de représailles.

Je me demande si la tristesse générale des nord-coréens n’est pas plutôt le résultat d’une forme d’ignorance pluraliste. L’ignorance pluraliste est une forme particulière de cascade informationnelle où l’absence d’information ne porte pas (comme dans une cascade informationnelle classique) sur les conséquences liées aux différents choix à disposition mais sur les préférences des membres d’une population. Prenons un exemple : vous êtes un jeune étudiant dans une soirée étudiante et, donc, bien alcoolisée. Vous avez le choix entre boire des boissons alcoolisées (A) et des boissons non-alcoolisées (B). Supposons qu’intrinsèquement vous préfériez B mais qu’en même temps vous êtes soucieux de vous conformer à ce que vous pensez être les goûts (et donc les préférences) du groupe auquel vous appartenez. Vous regardez autour de vous et vous constatez qu’une très large majorité de la population consomme des produits A. En bon économiste élevé depuis tout jeune au grain du principe des préférences révélées, vous inférez logiquement que si tout le monde consomme des produits A, c’est qu’au sein de la population A est préféré à B. Vous êtes donc persuadé que vos préférences intrinsèques sont différentes de celle de la population et, parce que vous souhaitez vous conformer aux préférences de la population, vous décidez de consommer des boissons alcoolisés, « révélant » ainsi votre préférence pour les produits A.

Il n’est pas très difficile de voir qu’un tel mécanisme peut facilement conduire à une situation où, dans une population, quasiment tout le monde agit de manière à se conformer à ce qui est perçu comme la norme dominante, alors même que cette norme ne correspond pas aux préférences des membres de la population. L’ignorance pluraliste est basée sur le fait que les individus font une interprétation erronée des comportements observés, en inférant que ces comportements reflètent les préférences intrinsèques de ceux qui les adoptent, alors qu’en fait ils sont uniquement motivés par une préférence pour la conformité*. La conséquence notable est que ce mécanisme peut permettre à une norme impopulaire (i.e. contraire aux préférences des membres de la population) de survivre. L’exemple que j’ai pris n’est pas fortuit, puisque quelques études suggèrent que les pratiques de consommation d’alcool au sein des populations étudiantes sont au moins partiellement le résultat d’un mécanisme d’ignorance pluraliste.

Le mécanisme de l’ignorance pluraliste a d’autant plus de chances d’apparaitre quand certaines conditions sont remplies : les membres de la population doivent d’une manière ou d’une autre s’engager dans une comparaison sociale et accorder une certaine importance à la conformité sociale ; les comportements des individus doivent être, sinon totalement public, au moins facilement observables par une fraction de la population ; la communication entre les membres de la population doit être réduite afin d’éviter qu’ils révèlent leurs préférences réelles. Nul doute que ce sont des conditions qui sont largement réunies dans le cas de la Corée du Nord. Il est ainsi tout à fait possible qu’en privé les nord-coréens détestent leur régime et soient heureux de la disparition de Kim Jong-Il, mais que chacun d’entre eux pense sincèrement être le seul à avoir cette opinion et que par conséquent il est parfaitement rationnel pour tous d’apparaitre attristé en public.

On peut conjecturer que la plupart des régimes totalitaires fondent leur stabilité (relative) sur ce type de mécanisme. Il faut notamment bien voir la différence avec un cas plus standard d’équilibre « sous-optimal » où tout le monde se conforme à une norme tout en sachant que tout le monde préfèrerait adopter une autre norme. Ce dernier pose un problème classique de coordination et d’action collective : il faut qu’une fraction suffisante de la population agisse simultanément afin de modifier la norme. C’est un problème de coordination difficile mais pas insurmontable. Dans le cas de l’ignorance pluraliste, les choses sont un peu plus compliquées car les préférences des agents ne sont pas connaissance commune. Par conséquent, chaque individu ne se représente pas la situation comme un « jeu » de coordination et donc l’idée même d’amorcer une action collective pour changer la norme n’a pas de sens. Encore une fois, cela permet de comprendre pourquoi la maitrise de l’information est cruciale dans un régime totalitaire : en bloquant l’information, on supprime les conditions épistémiques nécessaires à la mise en place d’un véritable raisonnement collectif où les membres d’un groupe s’accordent (tacitement ou explicitement) sur le problème qu’ils ont à résoudre. A partir du moment où les préférences réelles des agents deviennent connaissance commune, ce n’est généralement plus qu’une question de temps avant que les choses ne basculent…

*Ma distinction entre « préférences intrinsèques » et préférence pour la conformité n’est pas très rigoureuse puisque techniquement, elles figurent toutes dans la fonction d’utilité de l’individu. Par conséquent, il n’est pas vrai de dire que l’individu agit contrairement à ses préférences, mais seulement à une partie d’entre elles.

Un commentaire

Classé dans Non classé

Schelling revisited

C.H.

Thomas Schelling est notamment connu pour ses travaux sur la dynamique sociale et sur les phénomènes de masse critique (tipping point). Son article "Hockey Helmets, Concealed Weapons, and Daylight Saving: A Study of Binary Choice with Externalities" est un modèle du genre. La référence au casque des joueurs de hockey s’explique par l’anecdote avec laquelle Schelling commence son article :

Shortly after Teddy Green of the Bruins took a hockey stick in his
brain, Newsweek (1969) commented:

"Players will not adopt helmets by individual choice for several reasons. Chicago star Bobby Hull cites the simplest factor: "Vanity." But many players honestly believe that helmets will cut their efficiency and put them at a disadvantage, and others fear the ridicule of opponents. The use of helmets will spread only through fear caused by injuries like Green’s-or through a rule making them mandatory… One player summed up the feelings of many: "It’s foolish not to wear a helmet. But I don’t-because the other guys don’t. I know that’ silly, but most of the players feel the same way. If the league made us do it, though, we’d all wear them and nobody would mind."
The most telling part of the Newsweek story is in the declaration attributed to Don Awrey. "When I saw the way Teddy looked, it was an awful feeling . .. I’m going to start wearing a helmet now, and I don’t care what anybody says." Viewers of Channel 38 (Boston) know that Awrey does not wear a helmet.

Ce que cette anecdote illustre est un phénomène classique lorsqu’il y a des équilibres multiples : bien qu’il soit dans l’intérêt de tous les joueurs de hockey de porter un casque, le désir de chaque joueur de faire "comme les autres" enferme la population des joueurs dans un équilibre sous-optimal où personne ne porte de casque.

L’anecdote est encore d’actualité comme le révèle ce très intéressant article écrit par un joueur de la ligue nord-américaine de hockey (NHL). Le problème ne porte plus sur le port du casque (lequel est maintenant obligatoire) mais sur le port d’une visière ayant pour fonction de protéger une partie du visage. On y retrouve le raisonnement à la Schelling : a priori, les joueurs gagneraient collectivement à porter une visière mais individuellement, son port est désavantageux (essentiellement pour des raisons de visibilité comme expliqué dans l’article). Une règle contraignante imposant le port de la visière pourrait régler le problème. Mais l’auteur met en avant un autre aspect qui est souvent ignoré, relatif au fait qu’une règle peut modifier les comportements de manière non anticipée :

Sometimes there are unintended consequences to rule changes as well. At the beginning of the 2010-11 season all players were required to switch to shoulder pads with thicker, softer foam on the shoulder caps.

The idea was that the softer padding would reduce injuries in the event of shoulder to head contact. These new shoulder pads are universally unpopular with the players. They are huge, and I know many of teammates feel that they are so protective that they actually encourage players to hit even more recklessly. As a result, the new shoulder pads could produce the opposite effect for which they were originally intended.

I am told the League is now considering going to the opposite end of the spectrum and reducing the size of the shoulder caps. If they make them small enough, the hitter might be more conscious of the chances of injuring himself, and therefore are likely to play under control.

I do believe that in some cases the widespread use of visors has contributed to more reckless play — whether it’s how players handle their sticks, or how fearless they are leaning into a bodycheck.

Does this recklessness outweigh the obvious safety benefits of wearing a visor? I don’t know, but I would say probably not.

Les autres considérations (spectacle vs sécurité des joueurs) sont tout aussi intéressantes. A lire.

3 Commentaires

Classé dans Non classé

L’éthique du paternalisme libéral

C.H.

William Easterly semble avoir beaucoup aimé le dernier ouvrage de Daniel Kahneman, Thinking, Fast and Slow. Kahneman utilise les apports de l’économie comportementale pour défendre une forme de "paternalisme libéral" dont l’idée centrale pourrait se résumer par "les pouvoirs publics doivent aider les individus à faire les bons choix". A la fin de son article, Easterly relève un des problèmes de cette approche :

Kahneman’s endorsement of “libertarian paternalism” contains many good ideas for nudging people in the right direction, such as default savings plans or organ donations. But his case here is much too sweeping, because it overlooks everything the rest of the book says about how the experts are as prone to cognitive biases as the rest of us. Those at the top will be overly confident in their ability to predict the system-wide effects of paternalistic policy-making – and the combination of democratic politics and market economics is precisely the kind of complex and spontaneous order that does not lend itself to expert intuition.

Les "experts" et les pouvoirs publics ne sont effectivement après tout pas plus immunisés contre les biais mis en avant par l’économie comportementale. Je ne suis pas certain toutefois que ce soit la critique la plus forte que l’on puisse faire contre le paternalisme libéral. Ce billet de Leigh Caldwell fait un certain nombre d’objections à cet argument :

First, we are not comparing like with like. There is no claim that a regulator, when placed in the same situation and making the same decision as a citizen, will come up with a better answer. Instead, we are looking at times when citizens make snap decisions without thinking them through – or, often, make no overt decision at all because they do not notice that there is a decision to be made. In these cases, the regulator’s goal is either to say "what would the citizen decide if they did think about it carefully?", or even better, to encourage the citizen to make the effort of thinking it through themselves. If the answer to "what would the citizen decide?" is controversial or ambiguous, the regulator is unlikely to try to intervene.

Second, everyone specialises in something. A lawyer specialises in the law – I wouldn’t expect them to be better at making business decisions than me, but where my business decisions have legal ramifications I’d like to have their input. A doctor does not know better than me what I should choose to eat for dinner, but they can give me useful information to help me pick the foods that are right for me. And similarly, somebody who spends their professional life thinking about decision-making and examining the extensive research in this field is likely to be able to help me make decisions that I’ll be happier with.

Third, even if regulators are not perfect, a best-effort regulation may well be better than none at all. The absence of regulation does not mean the absence of nudging. As Thaler and Sunstein point out in Nudge, our decisions are going to be influenced by context, framing and defaults no matter what. If the government takes no part, then the influences will be random, or chosen by private companies (whose interests are sometimes opposed to mine, though not always). If a democratically accountable government can help to move from one default frame to another that is more likely to be in my interest, then why would I not prefer that one?

Ce qui est intéressant dans le paternalisme libéral, c’est qu’il justifie l’intervention de l’Etat d’une manière qui n’est pas traditionnelle en économie. Pour un économiste, l’intervention de l’Etat va notamment pouvoir se justifier en cas de défaillance de marché. Or, les biais comportementaux des individus (et notamment leur propension à avoir des préférences non stables et non cohérentes) ne remettent pas nécessairement en cause le bon fonctionnement du marché, comme l’a montré Robert Sugden. Autrement dit, "l’irrationalité" des individus (Kahneman n’aime pas parler d’irrationalité, d’où les guillemets) ne remet pas en cause la "rationalité écologique" du marché. Derrière la justification de l’intervention de l’Etat dans le cadre du paternalisme libéral se cache donc un argument sur les préférences des individus : les individus n’ont pas les "bonnes" préférences eu égard à certains critères d’évaluation. Ces critères ne sont pas économiques en tant que tels mais plutôt éthiques. A mon sens, la plus grande objection que l’on peut faire au paternalisme libéral n’est donc pas une objection "technique" (ou économique) mais plutôt une objection philosophique sur la nature des présupposés éthiques qui sous-tendent cette approche, présupposés au demeurant rarement explicités.

6 Commentaires

Classé dans Trouvé ailleurs

To blog or Not to Blog

C.H.

Comme l’a rappelé récemment Stéphane Ménia sur Econoclaste, "la blogosphère économique [française] est très indigente". Ce qui surtout fait cruellement défaut (et ceci sans manquer de respect aux blogs d’une qualité indéniable tenus par des doctorants/enseignants/universitaires-pas-superstars) c’est la quasi-absence de grands économistes français développant de véritables discussions académiques mobilisant les éléments les plus à la pointe de la théorie économique (ou pas – cf. les sempiternels débats autour de ISLM aux EU) pour proposer des réflexions sur l’actualité économique. Aux Etats-Unis, la densité et la qualité des blogs sont telles qu’aujourd’hui la blogosphère est le théâtre de véritables débats quasi-académiques de très hautes tenues.

Cet article de Paolo Manasse sur Vox indique que les blogs économiques am&ricains ont de plus un véritable impact académique : un papier cité par Marginal Revolution ou Freakonomics voit immédiatement son nombre de téléchargements augmenter et tenir un blog reconnu est un gage de notoriété au sein même du monde académique. L’auteur compare cette situation avec celle de l’Italie, où comme en France le nombre de blogs tenus par des économistes universitaires est faible. Il suggère plusieurs hypothèses pour expliquer ce fait :

  • Italy’s ‘economic literacy’ is far below that of the US, and this implies lower benefits from blogging;
  • Italy’s concentration of media ownership is far larger in Italy, which leaves less room for individual initiatives;
  • Italian (European) economists share a Catholic/post-Marxist culture which places much less confidence on individual, as opposed to collective, achievement;
  • The ‘market size’ is much lower in Italy, also due to language barriers, and this limits the gains from blogging;1
  • The benefits of personal (nonmarket) networks in Italy are far larger than the benefits of market-oriented activities such as blogging.

Je suppose qu’une partie de ces hypothèses est transposable à la France, en particulier la 1 et la 4 (et éventuellement la 5). Ce qui est certain, c’est que l’obsession bibliométrique croissante qui touche la recherche académique française en économie ne devrait pas arranger les choses dans l’avenir. Pourquoi dépenser son temps "gratuitement" à écrire sur un blog alors qu’il pourrait être utilisé pour jouer à la "guerre des étoiles" en écrivant une énième version d’un papier qui a déjà été publié 3 fois (je caricature un peu) ? Les coûts d’opportunité liés au fait de bloguer sont quand même très importants. La fonction d’utilité des économistes blogueurs français doit avoir une drôle de tête…

6 Commentaires

Classé dans Non classé

Une courte note sur les anticipations rationnelles (encore)

C.H.

Deux billets de Rajiv Sethi sur l’hypothèse d’anticipations rationnelles (un récent, un plus ancien) m’amènent à revenir brièvement sur le sujet. Suite à la citation d’un passage d’un article de Robert Solow dans lequel ce dernier résume (de manière lumineuse selon Sethi) l’essence de la pensée de Keynes, Sethi note :

This is as clear and concise a description of the fundamental contribution of the General Theory that I have ever read. And it reveals just how far from the original vision of Keynes the so-called Keynesian economics of our textbooks has come. The downward inflexibility of wages and prices is viewed in many quarters today to be the hallmark of the Keynesian theory, and yet the opposite is closer to the truth. The key problem for Keynes is the mutual inconsistency of individual plans: the inability of those who defer consumption to communicate their demand for future goods and services to those who would invest in the means to produce them.

The place where this idea gets buried in modern models is in the hypothesis of "rational expectations." A generation of graduate students has come to equate this hypothesis with the much more innocent claim that individual behavior is "forward looking." But the rational expectations hypothesis is considerably more stringent than that: it requires that the subjective probability distributions on the basis of which individual decisions are made correspond to the objective distributions that these decisions then give rise to. It is an equilibrium hypothesis, and not a behavioral one. And it amounts to assuming that the plans made by millions of individuals in a decentralized economy are mutually consistent. As Duncan Foley recognized a long time ago, this is nothing more than "a disguised form of the assumption of the existence of complete futures and contingencies markets."

L’idée selon laquelle l’hypothèse d’anticipations rationnelles est une hypothèse d’équilibre est très intéressante. Cela renvoi effectivement au fait qu’il s’agit d’une contrainte structurelle qui est imposée au modèle dans le sens où il est posé comme condition qu’à l’équilibre les anticipations des agents doivent avoir certaines propriétés. L’une des implications est très bien soulignée par Sethi dans le second billet :

[The rational expectations hypothesis] therefore requires not only that agents have "incredible cognitive abilities" but also that this fact is common knowledge among them, and that they are able to coordinate their behavior in order to jointly traverse an equilibrium path.

Cette clause de la connaissance commune est effectivement essentielle et correspond à ce qu’a par ailleurs écrit Roger Guesnerie (voir mon récent billet), à savoir qu’avoir des anticipations rationnelles n’est rationnel que si les autres ont les mêmes anticipations. Cela s’explique aisément par le fait que les anticipations des agents, qui portent sur les relations entre agrégats macroéconomiques, portent par extension sur les anticipations des autres agents (puisque les relations entre agrégats macroéconomiques sont le produit des actions et des croyances des individus). Comme je l’ai déjà écrit ici à plusieurs reprises, la clause de la connaissance commune est acceptable si elle appréhendée comme un évènement plutôt que comme une hypothèse. Autrement dit, il est intéressant d’essayer d’endogénéiser la réalisation de la connaissance commune au sein d’une population en intégrant explicitement les mécanismes épistémiques sous-jacents.

Comme l’indique Michael Chwe, la réalisation de la connaissance commune (d’un évènement ou d’une proposition) dans une population n’a rien d’exceptionnel et est tout à fait possible. Mais elle n’est possible qu’à des conditions bien particulières. Un évènement (quelque chose d’observable) ne peut être connaissance commune que s’il est public, c’est à dire que son occurrence se  produit dans des conditions telles que l’on peut être certain (ou au moins raisonnablement penser) que tout le monde l’a observé. Mais ce n’est souvent pas suffisant : pour qu’un évènement permette une coordination des anticipations des agents, il faut qu’il soit en mesure de générer une connaissance commune de ces anticipations. Bref, cela implique que tous les membres d’une population infèrent la même chose du même évènement. Cela renvoi à la doctrine d’Harsanyi et à son extension développée par Robert Aumann qui débouche sur la conclusion selon laquelle "it is impossible to agree to disagree"‘. Le postulat clé derrière cette doctrine est l’hypothèse de common priors : tous les agents ont les mêmes croyances ex ante sur la distribution des différents états du monde et sur les croyances (et actions) de chacun selon l’état du monde. Bref, cela revient à supposer que le monde socioéconomique est un gigantesque équilibre corrélé dans lequel la "Nature" indiquerait comme par magie à chacun ce qu’il doit faire à n’importe quel moment. Comme le défend de manière convaincante Ken Binmore dans ce récent ouvrage, c’est le genre d’hypothèses épistémiques qui ne peut tenir que dans un "small world" au sens de Savage, mais nullement dans la réalité socioéconomique.

Il n’empêche qu’il existe des équilibres corrélés dans le monde socioéconomique, ou autrement dit il arrive parfois que les individus aient les mêmes croyances ex ante. Dans ses cas, la réussite de la coordination des plans de multiples individus est une tautologie. Mais il faut expliquer (plutôt que postuler) comment cette corrélation des croyances est possible. La culture et les institutions sont évidemment probablement une importante explication. Mais d’autres facteurs peuvent jouer. Par exemple, faire l’hypothèse d’anticipations rationnelles sur les marchés financiers est moins héroïque que la faire pour la macroéconomie dans son ensemble, parce que sur les marchés financiers la théorie économique financière sert en partie d’instrument de corrélation des croyances et des actions. C’est en tout une possibilité suggérée par les travaux empiriques sur la performativité de la théorie économique. Mais c’est une hypothèse empirique qui demande à être étayée et qui peut être falsifiée. En revanche, postuler des anticipations rationnelles à l’échelle macroéconomique sans indiquer comment la corrélation des anticipations est possible revient à poser des contraintes épistémiques qui rendent les modèles qui le font très peu crédibles.

2 Commentaires

Classé dans Non classé

Little sur Simon et la complexité

C.H.

Ce billet de Daniel Little sur le point de vue de Herbert Simon concernant la complexité sociale est à lire. Il m’intéresse à titre personnel d’autant plus que je donne cette année (comme l’année dernière du reste) un cours de "systémique" en M2 d’économie, mais que j’ai construit de manière à ce que l’on s’intéresse essentiellement à la manière d’étudier les phénomènes et les systèmes complexes sans s’arrêter à une approche systémique au sens strict (le plus du cours est ici pour ceux qui sont intéressés).

Dans son billet, Little suggère que la caractérisation de la complexité que propose Simon est difficilement généralisable aux phénomènes sociaux. Simon semble considérer que tous les phénomènes complexes sont hiérarchiques et décomposables, ce qui revient à dire que l’on pourrait étudier un système complexe en le décomposant par ses différentes parties et en étudiant chacune de ces parties séparément. Cependant, Little fait remarquer que la plupart des phénomènes sociaux complexes ne répondent pas à ces critères :

But here is an important point about social complexity.  Neither of these expectations is likely to be satisfied in the case of social systems.  Take the causal processes (sub-systems) that make up a city. And consider some aggregate properties we may be interested in — emigration, resettlement, crime rates, school truancy, real estate values.  Some of the processes that influence these properties are designed (zoning boards, school management systems), but many are not.  Instead, they are the result of separate and non-teleological processes leading to the present.  And there is often a high degree of causal interaction among these separate processes.  As a result, it might be more reasonable to expect, contrary to Simon’s line of thought here, that social systems are likely to embody greater complexity and less decomposability than the systems he uses as examples.

Cela rejoint un point que Little avait déjà souligné : dans le domaine social, les phénomènes complexes résultent le plus souvent de l’interaction d’un ensemble de mécanismes (sociaux) et non d’un seul et même mécanisme qui serait décomposable. Il s’agit d’un aspect que les approches contemporaines en termes de mécanismes (très à la mode en philosophie des sciences, comme j’ai pu en juger récemment) ont tendance à sous-estimer. Ce sont ces interactions qui génère les phénomènes de non-linéarité qui rendent les dynamiques des systèmes difficiles à prédire. Notez que cela ne nécessite pas que l’on fasse appel à un quelconque concept d’émergence, que les scientifiques regardent souvent avec suspicion du fait de son caractère métaphysique supposé.

Une autre importante caractéristique des systèmes sociaux complexes est la capacité de réflexivité des agents qui composent les systèmes. Autrement dit, les agents sociaux peuvent utiliser les caractéristiques macro du système comme ressources cognitives pour prendre leurs décisions, ce qui engendre des "boucles rétroactives" qui accroissent la complexité. Il s’agit d’une forme de "mécanismes descendants" qui n’existe que dans les systèmes sociaux et c’est de ces mécanismes que le statut épistémologique particulier des institutions comme faits objectifs provient.

3 Commentaires

Classé dans Trouvé ailleurs

Croyances et intentions collectives, et économie

C.H.

Les récentes primaires « citoyennes » organisées par le parti socialiste me donnent l’occasion d’aborder une question qui n’intéresse généralement pas beaucoup les économistes mais qui a pourtant une signification économique tant théorique qu’empirique : le rôle des intentions et des croyances collectives. Les candidats à la primaire, en dépit de leurs efforts pour maintenir une certaine cohésion et unité, ont fait état ces dernières semaines d’un nombre non négligeable de désaccords sur des sujets centraux sur lesquels le programme du PS avait pourtant déjà pris position. Maintenant que François Hollande vient d’être désigné candidat officiel du PS, tous ses anciens « adversaires » vont se ranger de son côté et, défendre des idées qu’ils ont ouvertement critiqué lors des débats de la primaire. De son côté, les positions et les propositions de Hollande ne seront plus seulement les siennes, mais bien celles du parti socialiste dans son ensemble. Lire la suite

4 Commentaires

Classé dans Non classé

Décisions collectives et incohérence intertemporelle

C.H.

Jeff Ely sur Cheap Talk rapporte les résultats d’un papier de Matthew Jackson et Leeat Yariv sur le lien entre décision collective et incohérence intertemporelle. Jackson et Yariv montre qu’à partir du moment où les membres d’un groupe ont des préférences temporelles (mesurées par un facteur d’actualisation) conflictuelles et que ce groupe agrège les préférences des individus par une procédure non dictatoriale, alors les décisions du groupe manifesteront une incohérence intertemporelle, c’est à dire une inversion des préférences dans le temps.

Un commentaire

Classé dans Trouvé ailleurs

Guesnerie sur les anticipations rationnelles

C.H.

Suite de la discussion autour de l’article de John Kay dont j’ai parlé l’autre jour. Roger Guesnerie propose une réflexion vraiment très intéressante sur l’hypothèse d’anticipation rationnelle et l’hypothèse d’efficience des marchés. Un peu comme Woodward avant lui, Guesnerie considère que le problème de l’économie n’est pas l’excès de rigueur ou le recours à la modélisation (ce qui laissait entendre Kay), mais réside plutôt dans le fait de poser comme un axiome (les anticipations rationnelles) ce qui ne devrait être qu’une hypothèse de travail. Guesnerie souligne à juste titre (et il bien placé pour cela, étant donné qu’il travail sur le sujet depuis très longtemps) que la question fondamentale consiste à savoir comment les agents coordonnent leurs anticipations. Or, recourir à des anticipations rationnelles n’est… rationnel (ou plutôt, optimal) que si tout les autres agents agissent également en fonction d’anticipations rationnelles. En théorie des jeux (rappelons qu’un équilibre de Nash n’est rien d’autre qu’un équilibre en anticipations rationnelles), une belle illustration de ce problème est donné par le jeu du "mille-pattes" : si je suis rationnel, que l’autre joueur est rationnel et que cela est common knowledge, alors j’ai intérêt (au sens optimalité) à arrêter le jeu dès le début. Si en revanche j’ai un doute sur la rationalité de l’autre (ou si je pense que l’autre doute de ma rationalité), j’ai intérêt à poursuivre. Bref, comme le dit Guesnerie, un équilibre en anticipations rationnelles est un point focal (comme l’est un équilibre de Nash pour un théoricien des jeux), mais peut-être pas le seul.

Le point est donc de voir l’hypothèse d’anticipations rationnelles comme une hypothèse empirique et de la traiter comme telle : dans certains cas, elle est raisonnable, dans d’autres elle est ostensiblement fausse. Le fait que les économistes tendent à traiter cette hypothèse de manière axiomatique n’est toutefois par surprenant, comme l’indique cette remarque très judicieuse de Guesnerie :

The re-examination of the scope of the rationality hypothesis and a complete reassessment of the domains of validity of the REH are overdue. It has just been stressed that these tasks do not lead to dismiss the demand for theoretical modelling. This does not mean, obviously, that they are easy tasks and that they will not affect, perhaps deeply, our understanding of economic phenomena. For example, the second task, the re-assessment of the REH, will touch the roots of the philosophical determinism that has shaped economic culture, all schools of thought together. Outside a REH world, prediction is much more difficult[18], apart from any problem of non-stationarity (stressed in Kay’s text). The standard economic wisdom may be shaken up.

Cette remarque fait parfaitement écho avec le livre de Nancy Cartwright, The Dappled World, que je suis actuellement en train de lire. Comme le fait remarquer Guesnerie, l’hypothèse d’anticipations rationnelles a été l’un des moyens par lesquels les économistes ont mis du déterminisme et de l’ordre dans un monde socioéconomique qui est largement désordonné. Ce n’est pas une spécificité de l’économie : Cartwright défend de manière assez convaincante l’idée selon laquelle la physique elle-même repose sur une démarche consistant à construire des "machines nomologiques" exhibant des comportement entièrement prévisibles. Cartwright fait toutefois remarquer que le domaine d’application de ces machines nomologiques est extrêmement restreint, ce domaine s’arrêtant bien souvent aux frontières du laboratoire. Selon Cartwright, cette démarche n’est pas problématique en soi, tant que l’on a conscience que les lois qui caractérisent le comportement des machines nomologiques ne s’appliquent que ceteris paribus, et que le monde réel est bien plus désordonné que ce ce que suggèrent les modèles.

Il est vrai que l’hypothèse d’anticipations rationnelles est plus qu’une contrainte ad hoc imposée par les économistes à leurs modèles en raison de sa commodité : la critique de Lucas fournie au contraire de solides arguments épistémologiques pour penser que l’on ne peut décrire les relations entre agrégats macroéconomiques (par exemple entre production et dépenses publiques) par des coefficients structurels inamovibles (qui eux-mêmes servent à construire des machines nomologiques d’ailleurs). Un changement de politique économique (monétaire ou budgétaire) change la valeur de ces coefficients précisément parce qu’il semble raisonnable de penser que les agents anticipent les effets induits par un changement de politique économique.

C’est un argument solide, indiscutablement. Cependant, l’hypothèse d’anticipations rationnelles n’est pas une suite logique à la critique de Lucas. De mon point de vue de non-spécialiste, il me semble que la seule chose que la critique de Lucas autorise, c’est de postuler que les agents forment des anticipations qui affectent les relations entre agrégats macroéconomiques, mais rien d’autre. La nature des anticipations reste une question fondamentalement empirique. Pour dire les choses autrement, plutôt que de servir de contraintes structurelles à la construction de machines nomologiques, les anticipations rationnelles doivent au contraire être l’objet  d’une investigation théorique et empirique. De ce point de vue, la remise du "prix Nobel" d’économie à Sims et surtout à Sargent vient à point nommer puisque c’est justement une question traitée par ces auteurs. Comme je l’ai noté hier, l’une des contributions de Sargent a été notamment d’utiliser le concept de "self-confirming equilibrium" pour examiner les processus d’apprentissage par lesquels les agents peuvent éventuellement apprendre le "bon" modèle de l’économie et donc former des anticipations rationnelles. L’une des conséquences de ce genre de travaux est de souligner la possibilité d’équilibres multiples (j’en avais déjà parlé ici et ), autrement dit le fait que la convergence vers un équilibre d’anticipations rationnelles, si elle est possible, n’est pas une nécessité. Le concept d’équilibre corrélé peut également avoir une certaine pertinence : il n’est pas absurde de penser que les agents ne coordonnent pas leurs anticipations ex nihilo mais qu’ils s’appuient sur éléments exogènes (normes sociales, notes des agences de notation, ou… théories économiques performatives) qu’ils peuvent interpréter d’une multitude de manières. Là encore, la propriété d’un équilibre corrélé c’est qu’il ne correspond pas nécessairement à un équilibre de Nash. Empiriquement, la question est donc de déterminer sur quoi s’appuient réellement les agents pour former leurs anticipations. Rien ne dit alors qu’un équilibre en anticipations rationnelles soit un point focal.

Poster un commentaire

Classé dans Non classé

De la possibilité de la procrastination structurée

C.H.

Comme tous les ans, la remise des prix Nobel est précédée de la cérémonie des prix « Ig Nobel » dont l’objet est de récompenser des travaux relevant de différentes disciplines pour leur côté incongru, quoique que (plus ou moins) sérieux. Cette année, le prix Ig Nobel de littérature a été remis au philosophe John Perry pour son idée de la « procrastination structurée » qu’il a développé dans un article de 1996. L’idée est assez simple et Perry l’exprime ainsi : « he procrastinator can be motivated to do difficult, timely, and important tasks, as long as these tasks are a way of not doing something more important ». On peut se convaincre de la possibilité de la procrastination structurelle par un simple modèle mathématique.

Soit un individu qui a à réaliser une tâche A très importante, mais très pénible. Le jour 1, il a le choix entre réaliser cette tâche, ou bien ne rien faire, ce que l’on appellera la « tâche » C. S’il choisi C lors du jour 1, notre individu n’a pas d’autre choix que de réaliser la tâche A lors du jour 2. Notons UA1 = rAacA l’utilité liée au fait d’effectuer la tâche A le 1er jour avec rA une mesure de l’utilité intrinsèque de l’activité A (qui reflète par exemple son urgence ou son importance) et cA le coût lié à cet activité. Le paramètre a > 1 peut s’interpréter comme un coefficient de procrastination : il correspond à un phénomène psychologique de saillance qui amplifie le coût d’une activité qui doit être réalisée le jour même. Du point de vue de notre individu, l’utilité de réaliser l’activité A le second jour correspond à UA2 = rA – cA – b. Le paramètre a a disparu (puisque le fait de remettre quelque chose au lendemain fait disparaitre la saillance de la pénibilité) mais on ajoute un paramètre b qui traduit le fait que l’activité se retrouve faite dans l’urgence. L’utilité liée au fait de ne rien faire durant le jour 1 et le jour 2 est simplement UC1 = UC2 = rC. On pose que rA > rC. Il est facile de voir que notre individu rationnel procrastinera (faire C le jour 1 et A le jour 2) si UC1 + UA2 > UA1 + UC2 soit,

a > (cA + b)/cA                        (1)

Rien de très surprenant. Introduisons maintenant une troisième activité, l’activité B. Il s’agit d’une activité encore plus « difficile, urgente et importante » que l’activité A. L’utilité liée au fait de la réaliser lors du jour 1 est UB1 = rBacB – b et, lors du jour 2, UB2 = rB – cB – b. On considère que les inégalités suivantes sont satisfaites :

rB > rA > rC

cB > cA > 0

UA1 > UB1

On considère que si l’activité B n’est pas réalisée le premier jour, elle doit être effectuée nécessairement le second jour. L’introduction d’une troisième option va-t-elle changer le comportement de notre individu ? Pour qu’il y ait une procrastination structurée, il faut que notre individu fasse A le jour 1 (et B le jour 2), plutôt que C le jour 1, soit UA1 + UB2 > UC1 + UB2, ce qui implique que UA1 > UC1. Or, si l’inégalité (1) est satisfaite, c’est impossible. On peut toutefois imaginer qu’il existe un mécanisme (psychologique) qui altère le paramètre a lorsque l’activité B doit être réalisée. On peut par exemple supposer que le coefficient de procrastination appliquée à une activité varie relativement à la pénibilité/difficulté/urgence/importante de cette activité par rapport à l’activité la plus pénible/difficile/urgente/importante. Par exemple, considérons que aA = cA/cBa. Concrètement, cela signifie que la saillance de la pénibilité d’une activité particulière (aA) dépend de la tendance « naturelle » à la procrastination (a) et de la pénibilité de cette activité par rapport à la pénibilité de l’activité la plus pénible que l’on a prévu d’effectuer (cA/cB). Puisque cA < cB, aA < a. L’introduction d’une nouvelle activité urgente fait donc baisser la tendance à la procrastination pour l’activité précédente, éventuellement jusqu’à un point où l’inégalité (1) peut ne plus être vérifiée. Pour cela il faut que :

cA/cBa < (cA + b)/cA

a < (cA + b)cB/cA2                   (2)

La prédiction de ce modèle est la suivante : il y a aura procrastination structurée quand 1) la tendance à la procrastination (mesurée par a) est suffisamment élevée pour que l’inégalité (1) soit vérifiée mais ne dépasse pas un certain seuil définit par l’inégalité (2) et 2) si la difficulté de l’activité la plus essentielle par rapport à l’activité un peu moins urgente (le ratio cA/cB) est prononcée. Cela correspond bien à la recommandation de Perry consistant à placer en haut de sa liste des choses prioritaires des tâches particulièrement difficiles. Sur ce, après avoir bien procrastiné de manière structurée en écrivant ce billet, je retourne à mes activités les plus urgentes.

Un commentaire

Classé dans Non classé

Modéliser et prédire le comportement humain

C.H.

The Economist propose un intéressant article sur l’usage de plus en plus répandu de la part des acteurs économiques (pouvoirs publics, entreprises) de logiciels élaborés à partir de la théorie des jeux pour prédire certains évènements ou pour aider à la prise de décision. Il me semble toutefois que l’article manque d’une certaine distance critique et mélange plusieurs choses différentes. Lire la suite

Poster un commentaire

Classé dans Trouvé ailleurs

Crise de la dette publique, auto-référentialité et prophéties auto-réalisatrices

C.H.

A l’heure où j’écris ces lignes, la réaction des principales places boursières mondiales à la dégradation de la note des Etats-Unis par l’agence de notation Standards & Poors se fait encore attendre. Quoiqu’il en soit, cet évènement est l’occasion de souligner à nouveau une dimension qui est partiellement commune aux Etats-Unis et à certains pays européens : l’auto-référentialité du phénomène de crise de la dette publique. Lire la suite

6 Commentaires

Classé dans Non classé

L’évolution de la réciprocité directe dans un contexte d’incertitude expliquerait la coopération dans le dilemme du prisonnier

C.H.

Voici l’abstract d’un intéressant article à paraître dans PNAS qui tend à montrer que la coopération dans un dilemme du prisonnier à un coup s’expliquerait par l’évolution de la réciprocité directe dans un environnement incertain (version librement accessible ici) :

"Are humans too generous? The discovery that subjects choose to incur costs to allocate benefits to others in anonymous, one-shot economic games has posed an unsolved challenge to models of economic and evolutionary rationality. Using agent-based simulations, we show that such generosity is the necessary byproduct of selection on decision systems for regulating dyadic reciprocity under conditions of uncertainty. In deciding whether to engage in dyadic reciprocity, these systems must balance (i) the costs of mistaking a one-shot interaction for a repeated interaction (hence, risking a single chance of being exploited) with (ii) the far greater costs of mistaking a repeated interaction for a one-shot interaction (thereby precluding benefits from multiple future cooperative interactions). This asymmetry builds organisms naturally selected to cooperate even when exposed to cues that they are in one-shot interactions".

Je n’ai fait que survoler l’article mais si j’ai bien compris, l’idée est que dans un contexte d’incertitude où les agents ne peuvent être certains si une interaction sera répétée ou ephémère, il est préférable de coopérer pour ne pas compremettre d’éventuels gains futurs. Ainsi, même si un agent à de fortes présomptions quant à la nature éphémère de l’interaction, il peut être "programmé" pour coopérer. Les auteurs développent un agent-based model assez subtile pour montrer comment une telle règle de comportement peut évoluer.

Un point me semble néanmoins fragile : les auteurs indiquent que leur modèle peut servir à expliquer la propension des humains à coopérer dans les jeux expérimentaux où les interactions sont anonymes et non répétées. Je suis sceptique ici dans la mesure où dans le cadre d’une expérience contrôlée, les participants connaissent normalement les règles du jeu sans la moindre ambiguïté. Par conséquent, il n’y a aucune incertitude quant à la nature de l’interaction.

Un commentaire

Classé dans Trouvé ailleurs