L’économiste Steve Keen explique dans un article pourquoi… les économistes se trompent presque tout le temps. Ce genre de propos est à la mode (et Keen est depuis longtemps à la pointe de l’économiste-bashing) et peut parfois s’avérer pertinent. Malheureusement, Keen se concentre dans son article sur un aspect de la théorie économique qui me semble loin d’être le plus approprié pour ce genre de critique : la théorie du choix rationnel. Plus précisément, Keen affirme que la théorie des préférences révélées élaborées par Samuelson vers le milieu du siècle précédent est un parfait exemple de théorie démentie par les faits mais à laquelle les économistes s’accrochent quoiqu’il en coûte. Lire la suite
Archives de Tag: microéconomie
Changement climatique et préférences sociales
« De plus, les générations présentes ne supporteront qu’une toute petite partie des dommages climatiques qu’elles généreront à travers leurs émissions, l’essentiel étant porté par les générations futures. Et, comme on le voit dans les dossiers des retraites, de la dette publique ou de l’emploi des jeunes par exemple, la génération au pouvoir aujourd’hui se moque bien du devenir de celles qui les suivront ! L’attentisme des gouvernements nationaux n’est donc que le reflet du manque d’altruisme de leurs électeurs. »
Il s’agit d’un extrait de l’interview de Christian Gollier (économiste à la TSE) dans Atlantico, au sujet du réchauffement climatique. Dans le paragraphe cité, Gollier émet donc l’idée que la non-action des gouvernements est le reflet des préférences égoïstes des électeurs, et plus particulièrement d’une absence d’altruisme intergénérationnel. Est-ce nécessairement le cas ? Lire la suite
Classé dans Non classé
Opinion des experts et consensus (ou comment être unanime dans l’erreur)
Stephen Dubner nous rappelle dans un billet sur Freakonomics à quel point l’opinion des experts est parfois à relativiser. Il cite notamment le cas de la ligue majeur de baseball où aucun des 43 (!) experts d’ESPN n’a prédit que les Boston Red Sox et/ou les St. Louis Cardinals seraient les participants aux World Series qui se déroulent actuellement. Par ailleurs, Dubner indique un fait intéressant concernant le très fort consensus général qui régnait entre les experts au début de la saison. Il y a ici comme un aspect paradoxal. Après tout, le fait que plusieurs personnes partagent le même avis est généralement perçu comme un indicateur de « l’objectivité » de cet avis. Mais ce fait peut également s’interpréter de manière exactement opposée. Etudions ce point à partir d’un simple modèle.
Soit un agent A qui cherche à former une conjecture φA sur la réalisation d’un évènement quelconque. Une conjecture prend en fait la forme d’une distribution de probabilités p(ω) que l’agent assigne à chaque état du monde possible. Un état du monde ω est une description complète de la situation et où toute incertitude est levée. Si l’on reste sur l’exemple du baseball, un état du monde est alors une description complète de ce qui passe au cours d’une saison. Un évènement est un ensemble d’état du monde ; par exemple, un évènement peut comprendre uniquement deux états du monde différant uniquement quant à l’identité du vainqueur de la compétition. Supposons que A cherche à former une conjecture sur la probabilité de chaque évènement Ej correspondant à affiche possible des World Series. Comme il y a 15 équipes par conférence, il y a donc 15 x 15 = 225 évènements possibles. Il s’agit d’associer une probabilité à chacun de ces évènements.
Pour former sa conjecture φA, notre agent peut s’appuyer sur les opinions de deux « experts » X et Y. Chaque expert affiche publiquement sa conjecture, respectivement φX et φY. On suppose par ailleurs que l’agent A a sa propre opinion qui prend la forme d’un signal sA. Formellement, nous avons donc φA = f(sA, φX, φY). La question pour A est de déterminer la fiabilité de l’opinion des experts relativement à sa propre opinion. Pour simplifier, on imagine que A doit choisir entre deux fonctions f pour former sa conjecture : φA = f’(sA, φX, φY) = sA et φA = f’’(sA, φX, φY) = g(φX, φY). En clair, dans le premier cas, A ne tient compte que de son opinion ; dans le second, il ne s’appuie que sur l’opinion des experts. A adoptera la fonction ayant la fiabilité épistémique P(f) la plus élevée. Supposons que A observe que φX = φY. Que doit-il en inférer quant à la valeur de l’opinion des experts ?
Formellement, il s’agit pour A de déterminer la fiabilité épistémique P(g) conditionnelle au fait que les experts sont d’accord. Supposons que les experts se prononcent de manière indépendante : dans ce cas, la probabilité que leur avis converge par hasard est quasi-nulle. Il est alors hautement probable que cette convergence s’explique par un facteur de corrélation, qui est ici « l’expertise ». Le fait que les experts soient d’accord tend à indiquer que leur avis est objectivement le bon. Dans ce cas, P(g) se rapproche de 1.* Mais il est possible que l’opinion respective des experts soient corrélées pour une autre raison plus « causale » : peut-être que les experts sont tous deux influencés par l’opinion d’un troisième expert caché ou, plus simplement, qu’ils se sont influencés mutuellement. Autrement dit, les experts ne se prononcent pas de manière indépendante. Dans ce cas, le fait que φX = φY peut au contraire s’interpréter comme une absence complète de fiabilité épistémique de leur opinion. Dans ce cas, P(g) se rapproche de 0.**
Dès lors, lorsqu’un consensus se dégage parmi les experts, comment doit-on l’interpréter ? Dans le cas de notre agent A, son choix d’utiliser la fonction f’ (sa propre opinion) ou g (l’opinion des experts) va dépendre :
– De sa croyance ex ante sur la fiabilité de sa propre opinion et de celles des experts
– De la connaissance et de la croyance que l’agent a sur la structure causale à partir de laquelle les experts forment leurs opinions
De ce dernier point de vue, étant donnée que l’information circule de plus en plus grâce aux technologies modernes, il est hautement probable que des cascades informationnelles affectent l’avis des experts. Donc, le consensus devrait de plus en plus s’interpréter négativement. Il en résulte alors que la croyance des agents dans la fiabilité des opinions des experts devraient progressivement baisser. Cela peut avoir des conséquences très négatives : sachant tout cela, les « experts » peuvent être incités à essayer de se différencier les uns des autres. Mais si les agents savent cela, la différenciation (à moins qu’elle soit couteuse) perd toute sa qualité de signal et séparer les « bons » des « mauvais » experts est difficile.
Notes techniques
*Si l’on utilise la règle de Bayes et que l’on note P(g/ φX = φY) pour la probabilité que l’opinion des experts soit correcte sachant qu’ils sont d’accord, nous avons alors
P(g/ φX = φY) = P(g) P(φX = φY/g)/[P(g) P(φX = φY/g) + P(non-g) P(φX = φY/non-g)
Pour que P(g) tende vers 1, il faut donc supposer que P(φX = φY/g) > P(φX = φY/non-g). C’est par exemple le cas si l’on suppose que des experts fiables doivent nécessairement être d’accord (P(φX = φY/g) = 1) et qu’il n’y a aucune raison que des experts non fiables soient d’accord autrement que par hasard (P(φX = φY/non-g) = 0,0000…)
** Idem que précédemment mais ici l’hypothèse est que l’on a P(φX = φY/g) < P(φX = φY/non-g). Le cas extrême décrit plus haut correspond à la situation où l’on considère que même des experts fiables peuvent ne pas être d’accord en raison de l’aspect aléatoire et/ou complexe des évènements sur lesquels ils se prononcent (P(φX = φY/g) est faible, voire tend vers 0) et où des experts non-fiables sont d’accord parce que leur opinion est purement basée sur le mimétisme et rien d’autre (P(φX = φY/non-g) est proche de 1).
Classé dans Non classé
Fondements macro de la micro et modélisation
En réponse à un billet de Chris Auld sur 18 mauvaises critiques de la science économique , John Quiggin fait remarquer que la microéconomie standard (ou tout du moins « néoclassique » – la nuance peut avoir une certaine importance) repose sur une théorie macroéconomique dans la mesure où le modèle walrassien (ou Arrow-Debreu) de l’équilibre général dépend d’une hypothèse de plein emploi. Cela a inspiré à Paul Krugman un billet très intéressant sur le fait que la microéconomie a des fondements macro et que, en conséquence, séparer d’un côté la « bonne » microéconomie de la « mauvaise » macroéconomie n’a guère de sens :
Quiggin points out, rightly, that almost all microeconomics depends crucially on the assumption that the economy is at full employment; this assumption is false, but what makes it not too false in normal times is the existence of stabilization policies, monetary and fiscal, that usually produce fairly quick recoveries from slumps. Macro is what makes micro work, to the extent that it does.
Krugman fait ensuite un lien très intéressant entre la mathématisation de l’économie, et plus exactement sa constitution comme science basée sur la modélisation dans les années 1930-1950, et le développement de la macroéconomie keynésienne :
So why did model-oriented, math-heavy economics triumph? It wasn’t because general-equilibrium models of perfect competition had overwhelming empirical success. What happened, I’d argue, was Keynesian macroeconomics.
Think about it: In the 1930s you had a catastrophe, and if you were a public official or even just a layman looking for guidance and understanding, what did you get from institutionalists? Caricaturing, but only slightly, you got long, elliptical explanations that it all had deep historical roots and clearly there was no quick fix. Meanwhile, along came the Keynesians, who were model-oriented, and who basically said “Push this button”– increase G, and all will be well. And the experience of the wartime boom seemed to demonstrate that demand-side expansion did indeed work the way the Keynesians said it did.
Krugman termine par une petite pique contre les microéconomistes : basiquement, ce que vous faites n’intéresse pas grand monde, la seule raison pour laquelle les gens accordent une attention aux économistes est pour ce qu’ils ont à dire concernant les questions macroéconomiques :
Oh, and economists who are upset that the public seems to judge the profession by its success at macro diagnosis and prediction are missing the point: it has always been thus, and purists who disdain macro are making mock of the only reason anyone takes them at all seriously.
The academic enterprise of economics as we know it, in other words, rests on a macro foundation, and in fact a Keynesian foundation — and economists who denounce all of that as witchcraft are busily sawing off the branch they’re sitting on.
On peut aisément balayer ce dernier point d’un revers de la main, mais les deux autres sont plus intéressants. Sur les fondements macro de la micro, il est dommage que ni Quiggin ni Krugman ne citent d’exemples spéficiques. J’avoue que c’est quelque chose auquel je n’avais jamais pensé. Maintenant, il est clair que la très grande majorité de la microéconomie moderne, et notamment lorsqu’elle repose sur la théorie des jeux (pléonasme), est constituée d’analyses en équilibre partiel. Par définition, ces analyses n’incorporent donc aucune hypothèse explicite sur le niveau d’emploi dans l’économie. Est-ce que leur validité dépend tacitement de cette hypothèse ? A brûle-pourpoint, je peux penser à beaucoup de modèles qui semblent complètement indépendant d’une telle hypothèse (mechanism design, modèle de duopole). Il y a probablement des contre-exemples, aussi si des lecteurs ont quelques idées, qu’ils n’hésitent pas à les partager. Quoiqu’il en soit, de nombreuses extensions de la microéconomie sont totalement indépendantes de toute hypothèse macro (pensez à la théorie du choix social par exemple).
Le lien que fait Krugman entre modélisation/mathématisation et macroéconomie keynésienne est très intéressant. Il y a peut être effectivement une relation. Cependant, il me semble qu’un facteur autrement plus déterminant a été l’influence très importante, notamment dans les ays anglo-saxons, du positivisme logique. Le positivisme logique a notamment défendu la thèse selon laquelle une proposition n’est scientifique que si elle est significative, autrement dit si elle dépend d’éléments observables (et, donc, mesurables). Krugman cite Samuelson et cela est approprié : Samuelson, qui à l’origine de l’économie mathématique moderne, a été largement influencé par le positivisme logique. D’ailleurs, sa théorie des préférences révélées, dont le concept primitif est celui de choix observables, est élaborée dans le plus pur esprit du positivisme logique. De manière plus générale, Samuelson a initié la démarche axiomatique en économie, c’est à dire une approche consistant à définir une théorie ou un modèle à partir d’un ensemble d’axiomes qui, pour la plupart, doivent être empiriquement significatifs (c’est à dire qu’ils doivent avoir une traduction directe en termes de comportement des agents).
Le positivisme logique ne saurait évidemment expliquer complétement la constitution de l’économie comme science reposant sur l’axiomatisation et la modélisation. Cela est d’autant plus vrai que la tendance s’était amorcée dès la fin du 19ème siècle. Mais j’inverserais la causalité suggérée par Krugman : si la macroéconomie keynésienne a pu se développer (et par là j’entend surtout la macroéconomie à partir de Hicks avec ISLM), c’est parce que les économistes avaient déjà accepté le point de vue positiviste sur le rôle de la mesure et de l’observation, ouvrant ainsi la voie à la modélisation et à l’axiomatisation dans leur discipline.
Classé dans Non classé
Le coût social de l’émulation socioéconomique
L’économiste Robert Frank défend depuis de nombreuses années un principe de taxation de la consommation ostentatoire découlant de l’émulation socioéconomique (voir notamment son ouvrage The Darwin Economy). L’argument de Frank est qu’une partie de notre consommation n’est pas le produit de notre désir d’acquérir des biens ou des services intrinsèquement utiles, mais qu’elle s’explique par son insertion dans une forme de compétition sociale où il ne s’agit pas seulement de consommer des produits satisfaisant (ou optimaux) dans l’absolu, mais aussi étant donné ce que consomment les autres membres de la société. Cette émulation socioéconomique peut être causée soit par certaines préférences « sociales » (l’envie, l’ostentation) mais aussi par des facteurs tels que des problèmes informationnels (la consommation de certains produits signalant alors des propriétés spécifiques). L’économiste Matthew Kahn fait quelques remarques intéressantes sur les arguments de Frank dans deux billets. Il souligne en particulier que tout le raisonnement de Frank fait abstraction de l’offre en posant comme hypothèse que celle-ci est homogène et que les consommateurs évaluent la qualité des biens selon une unique dimension (ou, dans le cas du marché du travail, que les firmes évaluent la qualité des travailleurs selon une seule dimension). J’apporte plus bas quelques compléments et précisions. Lire la suite
Classé dans Non classé
Echange volontaire et avantage mutuel
Un échange volontaire est-il toujours mutuellement avantageux ? Oui, d’après la vulgate libérale (voire libertarienne). L’analyse économique ne semble pas dire autre chose : la boîte d’Edgeworth, le théorème de Coase ou encore le premier théorème de l’économie du bien-être sont autant de théories ou de modèles qui indiquent que, si certaines conditions sont vérifiées, un ensemble d’échanges volontaires doit conduire à un résultat Pareto-optimal. Cependant, Noah Smith affirme que l’analyse économique ne montre pas que l’échange volontaire est toujours avantageux pour tous les participants :
Basic Econ 101 does not imply that voluntary contracts are mutually beneficial to the people who enter into them.
The misconception springs from some solid intuition. In general, people who are free to do what they want, do do what they want. Maybe sometimes they don’t realize what they want, or are subject to compulsions like addiction, but in general, free people only make deals that they want to make.
BUT, it doesn’t follow that contracts are mutually beneficial. The reason is that there is uncertainty in the world.
Prenons un exemple suggéré par Smith. Supposons qu’il ne soit pas obligatoire de contracter une assurance automobile. Malgré tout, considérant la probabilité que je sois impliqué dans un accident, je décide malgré tout de m’assurer et donc de payer régulièrement une certaine somme à mon assureur. Supposons que le jour où je décide de me séparer de ma voiture, je n’ai été impliqué dans aucun accident. Pendant plusieurs années, j’ai donc payé une prime d’assurance sans percevoir en retour le moindre versement de mon assureur. D’après Smith, ex post, on ne peut pas considérer que l’échange entre mon assureur et moi a été mutuellement avantageux puisque le risque ne s’étant pas réalisé, j’aurais préféré ne pas contracter d’assurance si j’avais eu une connaissance complète du futur au moment où j’ai pris l’assurance.
Il me semble que ce raisonnement est discutable, selon les termes de l’analyse économique. Il y a bien sûr la possibilité que le fait d’être assuré soit source de satisfaction, indépendamment de la réalisation du risque, par exemple parce que les individus sont averses au risque, mais je ne la discuterai car elle est spécifique à l’exemple de l’assurance*. L’erreur dans le raisonnement de Smith est de confondre préférences fondamentales et préférences finales (la distinction est faite par Daniel Hausman). Les préférences fondamentales correspondent au pré-ordre de préférences dont la théorie économique considère que tout agent est doté, pré-ordre ayant de préférence certaines caractéristiques (complétude, transitivité). Les préférences finales sont révélées par les choix des individus tels que l’on peut les observer. Même si l’on a souvent tendance à confondre les deux, il est important de bien les distinguer notamment en raison de l’incertitude qui fait que le résultat d’un choix n’est pas toujours connu d’avance.
La différence entre les préférences fondamentales et les préférences finales est que ces dernières sont déterminées après que l’agent ait pris en compte tous les facteurs pertinents dans le cadre de sa décision, y compris ses croyances sur la réalisation des différents états du monde. Par exemple, imaginons quatre alternatives pures a, b, c, d avec l’ordre de préférence suivant : a > b > c > d. Je vous propose de choisir entre deux loteries A = [a, p ; d, 1-p] et B = [b, q ; c, 1-q] avec p et q des probabilités objectivement déterminées. Votre choix entre A et B dépendra non seulement de l’intensité avec laquelle vous préférez a et d à b et c mais aussi des valeurs de p et q. Dans cette approche « conséquentialiste », vos préférences finales telles que révélées par votre choix sont la conséquence de 1) vos préférences fondamentales sur les alternatives pures et 2) de vos croyances sur les états du monde (qui ici sont objectivement déterminées).
De ce point de vue, tout échange volontaire doit être mutuellement avantageux si l’on raisonne en termes de préférences finales, car votre choix de participer à l’échange ne fait que refléter la prise en compte de l’ensemble des facteurs qui, de votre point de vue, étaient pertinents au moment de prendre votre décision. L’erreur de Smith est de ne prendre en compte, ex post, que les préférences fondamentales. Pour reprendre l’exemple de l’assurance, notez respectivement par x et y respectivement l’état du monde où vous avez un accident et celui où vous n’en avez pas et par 1 et 2 l’état du monde où vous êtes assuré et celui où vous ne l’êtes pas. Cela donne 4 états du monde (ou résultats) sur lesquels vous pouvez former vos préférences fondamentales, dont on peut penser qu’elles correspondent à l’ordre suivant : y2 > y1 > x1 > x2. Si vous vous êtes assurés mais que vous n’avez pas d’accident, effectivement rétrospectivement vous auriez préféré ne pas vous assurer (y2 > y1). Mais un choix reflète vos préférences finales, lesquelles prennent en compte le fait que vous ne pouvez pas (totalement) choisir d’avoir un accident ou non et que vous ne pouvez donc que former des croyances sur la probabilité de la réalisation de cet évènement. Vos préférences finales ne portent donc que sur l’alternative [1 ; 2]. Prétendre que l’échange n’a pas été avantageux parce que le risque ne s’est pas réalisé est donc de ce point de vue fallacieux puisque l’échange (et donc le choix) dépend précisément de cette possibilité. L’échange satisfait vos préférences finales, et du point de vue de l’analyse économique, c’est tout ce qui importe.
Notez cependant que, sur un plan éthique, le raisonnement développé ci-dessus n’est pas un argument pour le libertarianisme. Par exemple, la présence d’asymétrie d’information peut mener l’une des parties à l’échange à former de fausses probabilités sur la réalisation des états du monde. Entendez par là que la partie ayant l’avantage informationnel peut manipuler l’information pour conduire l’autre à prendre une décision qu’il ne prendrait pas s’il était pleinement informé sur les caractéristiques objectives du problème de décision. Ensuite, les préférences fondamentales elles-mêmes peuvent faire l’objet de manipulation (c’est l’un des arguments de Thaler et Sunstein dans le cadre de leur paternalisme libéral). Un argument peut ainsi être développé pour distinguer satisfaction des préférences et bien-être. Même si un échange volontaire satisfait toujours les préférences (finales) de l’agent, on peut contester que cela soit toujours dans son intérêt ultime. Enfin, se pose la question de la détermination du point de départ de la négociation dans le cadre d’un échange. Outre le fait qu’un échange soit mutuellement avantageux ne signifie pas pas qu’il socialement bénéfique (problème classique des externalités), il peut surtout concrétiser (et renforcer) une situation inéquitable.
* Un exemple symétrique est le cas du joueur de loto qui tire une satisfaction du simple plaisir de jouer.
Classé dans Non classé
Obsolescence programmée et asymétrie d’information
Soit une entreprise en situation de monopole. Cette entreprise vend un produit dont la durabilité peut varier. Les consommateurs sont prêts à payer un prix VL si la durée de vie du produit est relativement courte. A ce prix, tous les consommateurs achètent le produit. Si on ignore les coûts de production, l’entreprise gagne ainsi un profit de RL = Q.VL avec Q la demande totale sur le marché. Lire la suite
Classé dans Non classé