Irrational Consumers, Market Demand and the Link Between Positive and Normative Economics

As a follow-up to my last post, I would like to briefly return on the claim that the representative agent assumption is also well alive in microeconomics, not only in macroeconomics. As Wade Hands explain in several papers I linked to in the previous post, the representative agent assumption in microeconomics finds its roots in the study of consumer’s choice and more generally in demand theory. This may seem surprising (at least for non professional economists) since in virtually all microeconomic textbooks the study of demand theory starts from the analysis of the individual consumer’s choice. This reflects the fact that initially ordinal utility theory was conceived as a theory of the rational individual consumer with market demand simply derived through the horizontal summation of the individual demand curves. Similarly, in his seminal article on revealed preference theory, Samuelson started with well-behaved individual demand functions on the basis of which he derived a consistency axiom nowadays known as the weak axiom of revealed preference theory.

However, as it is well-known, the idea that the individual consumer is rational in the specific sense of ordinal utility theory (i.e. the consumer’s preferences over bundle of goods form a complete ordering) or revealed preference theory (i.e. the consumer’s choices are consistent in the sense of some axiom) is a disputed one, inside and outside economics. A foundational issue for economics has been, and still is the relationship between individual rationality and what can be called “market” or “collective” rationality. To ask the question in these terms already marks a theoretical and even an ontological commitment: it presupposes that the rationality criteria we apply to individual agents are also relevant to study collective behavior. Some economists have always resisted this commitment. However, acknowledging the fact that individual consumers may not be rational, the issue is obviously an important one for the validity of many theoretical results in economics, particularly concerning the properties of market competition.

An important paper from this point of view is Gary Becker’s “Irrational Behavior and Economic Theory” published in 1962 in the Journal of Political Economy. Becker established that the so-called law of demand (i.e. demand is a decreasing function of price) is preserved even with irrational consumers who either choose randomly a bundle of goods among the bundles in the budget set or who, because of inertia, always consume the same bundle if it is still available after a change in the price ratio. The simplest, random-choice case, is easy to illustrate. Becker assumes a population of irrational consumers who choose a bundle on their budget hyperplane according to a uniform distribution. In other words, a given consumer has the same chance to choose any bundle which exhausts his monetary income. Consider the figure below:

Becker 2

Consider the budget set OAB first. An irrational consumer will pick any bundle on the budget line AB with the same probability. Since the distribution is uniform, the bundle a (which corresponds to the mid-point between A and B) will be chosen on average in the population. Now, suppose that good x becomes more expensive relatively to good y. CD corresponds to the resulting compensated budget line (i.e. the budget line defined by the new price ratio assuming the same real income than before the price change). For the new budget set OCD, the bundle b is now the one that will be chosen on average. Therefore, the compensated demand for good x has decreased following the increase of its price. This implies that the substitution effect is negative, which is a necessary condition for the law of demand to hold. Note however that this not imply that each consumer is maximizing his utility under budget constraint. Quite the contrary, an individual consumer may perfectly violate the law of demand through a positive substitution effect. For instance, one may choose a bundle near point A with budget set OAB and a bundle near point D with budget set OCD, in which case the consumption of x increases with its price.

Clearly, there is nothing mysterious in this result which simply follows from a probabilistic mechanism. Becker used it as a “as-if” defense of the rationality assumption for consumer choice. Even if consumers are not really rational, one can safely assume the contrary because it leads to the right prediction regarding the shape of the market demand. As Moscati and Tubaro note in an interesting historical and methodological discussion, most of the experimental studies based on Becker’s theoretical argument have focused on the individual rationality issue: are consumers really rational or not? As the authors show, it turns out that Becker’s article and the subsequent experimental studies only offer a weak defense of the rationality assumption because they only show that rational choice is a plausible explanation for demand behavior, not the best explanation.

Surprisingly however, the most significant economic implications of Becker’s argument seem to have been largely ignored: the fact that individual rationality is of secondary importance to study market demand and that only “collective” rationality matters. This idea has been recently developed in several places, for instance in Gul and Pesendorfer’s critique of neuroeconomics and in Don Ross’ writings on the scope of economics. The latter offer a sophisticated account of agency according to which an economic agent is anything that fulfills some consistency requirements. Contrary to Becker, Ross’ approach is not grounded on an instrumentalist philosophy but rather on a realist one and provides a strong defense for the representative agent assumption in microeconomics.

The problem with this approach does not only lie in the fact that it excludes from the scope of economics all issues related to individual rationality. More significantly, as I already note in the preceding post, it has significant implications for the relationship between positive and normative economics. Welfare analysis has been traditionally grounded on the preference-satisfaction criterion. The latter is justified by the fact that there is an obvious link between the preferences of an (individual) agent and the welfare of a person. The link is lost under the more abstract definition of agency because there is no reason to grant to some abstract market demand function any normative significance, despite its formal properties. Added to the fact that the irrationality of consumers makes the preference-satisfaction criterion meaningless, this makes necessary to rethink the whole link between positive and normative economics.

Poster un commentaire

Classé dans Non classé

Hands on the representative agent in macroeconomics and revealed preference theory

Note – comme vous pouvez le remarquer, ce billet a une particularité : il est en anglais. Cela fait un certain temps que l’idée d’écrire au moins certains billets en anglais me tente et histoire de marquer mon retour après un certain temps d’absence, je me lance. Je suppose (et je comprend) que certains lecteurs ne verront pas cela d’un très bon oeil, mais en même temps on écrit pour être lu, et de ce point de vue écrire en anglais est optimal. Cela ne veut pas dire pour autant que tous les billets à l’avenir seront en anglais, tous dépendra du « succès » de l’expérience.

I am currently doing the ultimate refinements on my working paper “Sen’s Critique of Revealed Preference Theory and Its Neo-Samuelsonian Critique”. In the process, I have just finished to read several papers by Wade Hands on Paul Samuelson’s contribution to revealed preference theory and general equilibrium analysis. Hands’ papers are mainly historical but they also contain many interesting methodological and theoretical insights regarding the significance and the relevance of the representative agent assumption in modern economics. Lire la suite

Poster un commentaire

Classé dans Non classé

Nouveau working paper : « Distributive Ethics, Separability and the Competing Claims View of Fairness »

Entre écrire des billets et écrire des papiers, il faut choisir (au moins en ce moment), et donc voici un nouveau working paper qui porte sur un sujet abordé plusieurs fois ici récemment :

« Distributive Ethics, Separability and the Competing Claims View of Fairness: A (Partial) Defense of Prioritarianism« 

As usual, comments are welcome!

Poster un commentaire

Classé dans Non classé

« Welfarisme et utilitarisme », « Egalitarisme et prioritarisme » (diaporamas de cours)

Suite et fin des diaporamas de mon cours « Economie normative et équité » : le premier est consacré à une discussion critique du welfarisme, le second à la distinction entre priorité et égalité. N’hésitez pas à me faire part de vos commentaires !

Poster un commentaire

Classé dans Non classé

Sport et philosophie : à quelles conditions joue-t-on à un jeu ?

Alors que je regardais il y a deux jours le match de basket NBA entre les Spurs de San Antonio et les Rockets de Houston, je me suis rappelé un article du philosophe David Papineau sur son blog consacré à la philosophie et au sport qui se demandait « What exactly does it take to be playing a game?« . Comment une telle interrogation wittgensteinienne peut-elle venir à l’esprit alors que l’on regarde du sport à la télévision ? En l’espèce, l’explication est la suivante : alors que le match battait son plein, les Spurs, sur consigne de leur coach Greg Popovich, ont mis en application une stratégie connue sous le nom de « Hack-a-Shaq », en référence au surnom de l’ancien pivot Shaquille O’Neal, unanimement considéré comme l’un des meilleurs de tous les temps à son poste. Bien qu’il ait été un des joueurs les plus dominants de son époque, O’Neal avait un point faible prononcé : une incapacité à ne réussir guère plus que 50% de ses lancers-francs, là où un joueur NBA tourne en moyenne à 70-75% et où les meilleurs dépassent les 90%. Certaines équipes adverses à l’époque (on parle des années 90 et 2000) ont alors adopté une stratégie consistant à faire faute volontairement sur O’Neal, même lorsque celui-ci n’avait pas le ballon, pour l’envoyer sur la ligne des lancer-francs*. La stratégie relève d’un simple calcul d’espérance de gain : en moyenne, une équipe NBA marque environ 100 points par match pour approximativement 90 possessions, soit un peu plus de 1,1pt/possession. En faisant faute sur O’Neal, ce dernier, du haut de ses tout juste 50% de réussite aux lancer-francs, ne scorait en moyenne que 1 point. A cela s’ajoute que la stratégie avait aussi le mérite de couper le rythme de tous les autres joueurs.

Depuis quelques années, cette stratégie s’est largement répandue en NBA, en raison notamment de la multiplication des joueurs incapables de rentrer leurs lancer-francs, avec parfois des pourcentages bien inférieurs aux 50%. C’est précisément ce qui est arrivé dans le match entre les Rockets et les Spurs, lorsque ces derniers se sont mis dans le 3ème quart-temps à enchaîner les fautes sur un joueur des Rockets, en l’occurence Josh Smith. Résultat des courses, ce dernier va tirer le nombre record de 26 (!!) lancer-francs en un seul quart-temps pour seulement 12 réussites. La stratégie sera payante puisque les Spurs vont l’emporter, profitant largement des points laissés en route par Smith.

Le hack-a-Shaq est un véritable supplice pour le (télé)spectateur puisque cette stratégie a pour conséquence de rendre le match interminable tout en limitant l’action sur le terrain au minimum syndical. Elle a aussi le don d’irriter les joueurs, entraineurs et dirigeants, même si de manière peu surprenante elle suscite des contestations davantage du côté des équipes qui subissent la stratégie. C’est ici que la question de Papineau intervient : à partir de quand un comportement ou une stratégie devient « en-dehors » du jeu ? Formellement, en tant que stratégie, le hack-a-Shaq est autorisé par les règles (sauf dans les 2 dernières minutes d’un match) même si elle repose sur une violation volontaire de ces dernières (faire faute volontairement). Papineau envisage trois possibilités : un comportement peut rentrer dans le cadre du jeu soit selon 1) les règles formelles, 2) les normes de « fair play » ou 3) le respect de l’autorité des « officiels ». Il est clair que le premier critère n’est pas satisfaisant : il y a de nombreuses situations dans le sport où le détournement voire le non-respect des règles fait « partie du jeu », autrement relève d’une pratique collectivement acceptée. Dans de nombreux cas, une certaine ambiguité existe entre le fait de savoir s’il s’agit de violations pures et simples d’une règle (la simulation au foot) sanctionnée de manière non-systématique ou plutôt du fait de jouer avec les règles, autrement dit de profiter avantageusement de ses dernières. Ce dernier cas de figure fait le lien avec la seconde possibilité : jouer à un jeu, c’est respecter le « code moral » de ce jeu. Papineau donne des exemples, tel que la fameuse main de Thierry Henry contre l’Irlande en barrage pour la qualification à la coupe du monde de 2010 (ou rétrospectivement, on peut se dire qu’il aurait été préférable de ne pas y être !), qui montre que le fait de ne pas se conformer à ce code ne remet pas en cause le résultat collectivement accepté (une autre main fameuse, celle de Maradonna en 1986, est également une « jolie » illustration). Le Hack-a-Shaq rentre également partiellement dans cette catégorie : bien que la pratique soit largement condamnée par les spectateurs, journalistes, coachs et joueurs, elle est toujours de fait autorisée et effective. Bien entendu, quand une pratique devient trop systématique, on peut s’attendre à une évolution des règles formelles, mais cela n’empêche que durant la période de transition, cette pratique n’est pas contradictoire avec le fait de participer au jeu. Reste la troisième possibilité évoquée par Papineau, celle d’accepter l’autorité des officiels, à commencer par les arbitres. Outre qu’il s’agit de l’une des premières choses que l’on inculque à un enfant lorsqu’il commence une pratique sportive, l’acceptation de cette autorité semble être une condition sine qua non : comme le dit Papineau, refuser de se soumettre à l’autorité, c’est en quelque sorte s’exclure de fait du jeu. Néanmoins, il me semble que les mêmes remarques que celles faites plus haut restent valables ici : on peut tout à fait chercher volontairement à tromper ou à influencer l’arbitre pour obtenir un avantage. C’est une pratique largement répandue dans le sport professionnel, peut être plus dans certains sports que dans d’autres. Surtout, il me semble que cette solution perd une grande partie de sa pertinence unefois que l’on considère que les officiels font, d’une certaine manière, également partie du jeu. Dans ce cas, leur autorité ne peut pas être comprise indépendamment des règles qui pré-existent et qu’ils sont supposés faire respecter.

A la question de savoir ce qui constitue le fait de jouer à un jeu, j’aurais tendance de mon côté à donner une réponse toute aussi wittgensteinienne : le fait de jouer à un jeu consiste en un ensemble de pratiques dont la force normative découle du fait qu’elles s’inscrivent au sein d’une communauté constituée de tous les participants pertinents : joueurs, entraineurs, officiels mais aussi, d’une certaine manière, (télé)spectateurs et journalistes. Ces pratiques peuvent elles-mêmes s’analyser comme le fait de suivre des règles, non pas les règles formelles évoquées plus haut, mais qui correspondent plutôt à un ensemble d’anticipations, de croyances et de préférences. Ces règles fonctionnent sur la base d’une « compréhension commune » de la situation dans laquelle les différents agents sont insérés. Certaines de ces règles sont plus fondamentales que d’autres dans le sens où elles correspondent à des croyances totalement partagées et normativement prégnantes : par exemple, il est absolument inconcevable dans un match de basket qu’une équipe prétende marquer des paniers à 4 points ou qu’un joueur défende en plaquant son adversaire. Le point n’est pas que ces pratiques sont interdites par les règles formelles (elles le sont bien sûr) ; la compréhension commune qu’ont les acteurs du jeu auquel ils jouent leur permet d’inférer (et de rendre connaissance commune) les implications de tels comportements. Ces règles fondamentales peuvent s’interpréter comme les « règles constitutives » du basket.D’autres règles/pratiques sont moins systématiques : la pratique du Hack-a-Shaq qui  a motivé ce billet est un excellent exemple. Aujourd’hui, cette pratique fait bien partie du jeu parce que de fait elle est utiisée et acceptée par les différents acteurs. Ce ne sera peut être pas toujours le cas, sans que l’on puisse considérer que l’existence ou non de cette pratique spécifique affecte signifiativement la représentation des acteurs du jeu auquel ils jouent.

* En NBA, toute faute commise sur un joueur par une équipe qui a plus de 4 fautes collectives dans le quart-temps envoie automatiquement le joueur sur la ligne des lancer-francs.

1 commentaire

Classé dans Non classé

Cowen sur égalité et priorité

Dans un article paru dans le New York Times et dans un billet sur Marginal Revolution, Tyler Cowen défend l’idée que la mise en avant des inégalités sur le plan moral est une « pure et simple erreur ». Bien qu’il ne précise pas vraiment la nature de cette erreur, on comprend à la lecture de l’article que ce que Cowen considère comme moralement significatif est le niveau de bien-être absolu des membres d’une population. Dans son billet, Cowen fait d’ailleurs référence au prioritarisme, laissant sous-entendre que ce qui est moralement important n’est pas de réduire le niveau des inégalités mais plutôt d’améliorer en priorité le niveau de vie des membres de la population les moins bien lotis.

Cowen reprend ici la distinction entre égalité et priorité telle qu’elle a été explicitement élaborée par le philosophe Derek Parfit dans la Lindley Lecture. L’idée de Parfit est que même si de nombreux individus, économistes et philosophes inclus, préfèreront généralement une société où le niveau d’inégalité est relativement faible, la plupart du temps la raison pour cette préférence ne tient pas au fait que les inégalités sont considérées comme intrinsèquement mauvaises (ce qui sera le point de vue de l’égalitariste). Selon Parfit, la raison est plutôt que la plupart d’entre nous s’accordent à accorder une priorité morale à l’amélioration du bien-être des plus démunis. Plus précisément, l’augmentation du bien-être d’une personne a une valeur morale d’autant plus importante que le niveau absolu de bien-être de cette personne est faible. Parfit illustre cette conception avec une métaphore :

“People at higher altitudes find it harder to breathe. Is this because they are higher up than other people? In one sense, yes. But they would find it just as hard to breathe even if there were no other people who were lower down. In the same way, on the Priority View, benefits to the worse off matter more, but that is only because these people are at a lower absolute level. It is irrelevant that these people are worse off than others. Benefits to them would matter just as much even if there were no others who were better off”

La différence entre égalitarisme et prioritarisme tient donc au fait que ce dernier serait non-comparatif (ou non-relationnel), dans le sens où l’évaluation de la valeur morale d’un bénéfice (une certaine quantité de bien-être) conféré à une personne ne dépend pas de la situation de cette personne par rapport aux autres ; seul son niveau de bien-être absolu est moralement significatif. Selon Parfit, un argument décisif en faveur du prioritarisme est que cette doctrine n’est ainsi pas sujette à la « levelling down objection » à laquelle Cowen fait allusion dans son article : si les inégalités sont intrinsèquement mauvaises comme le soutiennent les égalitaristes, alors le fait de diminuer le bien-être des mieux lotis sans augmenter celui des moins bien lotis doit améliorer la situation sous au moins un aspect, ce qui est éthiquement difficile à accepter d’après Parfit. Pour un prioritariste, au contraire, cette réduction des inégalités ne peut être considérée comme une amélioration sous quelque aspect que ce soit.

Les quelques allusions de Cowen au prioritarisme masquent toutefois la complexité de la distinction entre prioritarisme et égalitarisme. Il y aurait par exemple beaucoup à dire sur la « levelling down objection », en notant par exemple qu’aucune doctrine égalitariste ne considère que la seule diminution du bien-être des mieux lotis constitue une amélioration sur le plan moral une fois que tous les aspects éthiquement pertinents sont pris en compte. Par exemple, des versions de l’égalitarisme, telles que celles qui reposent sur le critère du leximin, sont compatibles avec le principe de Pareto. Les différentes variantes de l’égalitarisme, comme n’importe quelle autre doctrine morale (utilitarisme, prioritarisme), reposent sur la combinaison et éventuellement la pondération de différents « aspects » ou « idéaux » dont l’inégalité (ou l’égalité) n’est que l’un parmi d’autres.

Plus délicate encore est l’idée, sous-entendue par Cowen, que le prioritarisme est une doctrine non-comparative ou non-relationnelle. Une littérature assez récente montre que le prioritarisme ainsi appréhendé est contraire à de nombreuses intuitions morale (voir cette synthèse d’Otsuka et Voorhoeve). Le prioritarisme au sens de Parfit conduit notamment à ne pas distinguer les arbitrages moraux intra- et inter-personnels. Prenons l’exemple suivant (tiré de l’article précédemment cité) :


Vous avez deux enfants, Denise et Edmund et vous devez choisir entre déménager en banlieue ou en centre ville en tenant compte exclusivement des bénéfices en termes de bien-être pour vos deux enfants. On distingue deux cas : dans le cas « arbitrage intrapersonnel », Edmund est non affecté par votre choix (son niveau de bien-être est le même quelque soit votre choix) ; concernant Denise, il y a une incertitude sur l’option qui lui serait la plus bénéfique, tout en faisant l’hypothèse que son utilité espérée est maximisée en allant en banlieue plutôt qu’en ville (d > 0 dans le tableau). Dans le cas « arbitrage interpersonnel », déménager en banlieue peut soit bénéficier à Denise (avec une probabilité de 0,5), soit nuire à Edmund, par rapport au fait d’aller en centre-ville. Comme d > 0, l’utilité espérée totale est maximisée par le choix d’aller en banlieue. Il est facile de voir que le prioritarisme (dans sa version ex post, c’est-à-dire qui applique la priorité morale aux utilités finales, et non aux utilités espérées des individus) conduira à la même préférence sociale dans les deux cas. Or, il y a une différence significative sur le plan moral entre les deux cas : dans le cas intrapersonnel, la décision (aller en centre-ville ou en banlieue) n’affecte que Denise, tandis que dans le cas interpersonnel, elle affecte à la fois Denise et Edmund. Donner une priorité morale au bien-être de l’enfant désavantagé est plausible dans ce dernier cas. Mais dans le cas intrapersonnel, on peut raisonnable arguer que la décision doit uniquement être dictée par l’intérêt personnel de Denise, et dès lors il semble préférable de choisir l’option qui maximise son utilité espérée. De ce point de vue, le prioritarisme, comme l’utilitarisme selon la fameuse critique de Rawls, ne reconnait pas la « séparation » morale des personnes.

Ce problème ne remet pas en cause complètement le prioritarisme. On peut en effet tout à fait concevoir une version de cette doctrine qui distingue les arbitrages intra- et inter-personnels. Mais le seul moyen de faire cela est de réintroduire une dimension comparative, ce qui rapproche alors le prioritarisme de l’égalitarisme. Cela n’implique pas nécessairement que le prioritarisme « comparatif » et l’égalitarisme sont identiques, mais au moins que l’aspect relatif aux inégalités est moralement significatif pour le prioritariste.

Un autre moyen de défendre le prioritarisme est de le combiner avec une forme de « sufficientisme ». Cela semble clairement être la position de Cowen lorsqu’il fait référence aux travaux de Sher et Frankfurt. L’idée est d’accorder une priorité absolue au bien-être des individus dont le niveau de vie est en-dessous d’un certain seuil. Cette position ne dépend pas de considérations liées aux inégalités et semble éviter au moins en partie la critique évoquée plus haut concernant la séparabilité des personnes. Toute la difficulté tient bien entendu à la définition du seuil de bien-être au-delà duquel plus aucune priorité n’est accordée : si ce seuil est absolu (indépendant du niveau de vie dans la population), alors les implications dans les pays riches peuvent être radicalement anti-égalitaristes ; si le seuil est relatif, on peut s’attendre à des problèmes de cohérence dans la définition des préférences sociales.

Poster un commentaire

Classé dans Non classé

Utilitarisme et théorie de l’utilité espérée: les deux théorèmes d’Harsanyi (diaporama de cours)

J’ai achevé l’élaboration d’un diaporama sur l’utilitarisme et la théorie de l’utilité espérée pour mon cours « Economie normative et équité » dans le cadre du M2 recherche de ma fac. Vu qu’il aborde un thème souvent discuté ici, il pourrait intéresser un certain nombre de lecteurs. Tous les avis et commentaires sont les bienvenus ! Les deux autres diapos porteront respectivement sur le welfarisme et ses limites et sur la distinction entre prioritarisme et égalitarisme.

Poster un commentaire

Classé dans Non classé