Archives mensuelles : mai 2011

Pourquoi il faut lire les travaux de Robert Sugden

C.H.

La revue International Review of Economics a proposé en début d’année un numéro spécial consacré aux travaux de Robert Sugden. Les lecteurs réguliers auront certainement remarqué que je fais souvent référence à Sugden, et pas seulement parce qu’ils travaillent sur des questions qui m’intéressent.

Les travaux de Sugden tournent autour de la question de l’orde spontané : comment des règles et des conventions instaurant une certaine harmonie entre les individus peuvent-elles émerger sans que les individus s’entendent autour d’un contrat social à la Hobbes ou à la Rousseau. C’est une question typiquement hayékienne mais c’est essentiellement chez David Hume que Sugden trouve des éléments de réponse. Son ouvrage The Economics of Rights, Welfare, and Cooperation, bien que datant de 1986, reste à ce jour l’une des tentatives les plus convaincantes de la part d’un économiste d’analyse de l’émergence des normes et des conventions. C’est aussi le premier ouvrage où un économiste fait un usage systématique de la théorie des jeux évolutionnaires, qui était alors l’apanage des biologistes (Robert Axelrod est une exception antérieure à Sugden, mais Axelrod est politiste).

L’un des points les plus appréciables des travaux de Sugden est sa capacité à faire un usage éclairé des modèles, ce que tous les économistes devraient faire (mais ne font pas, loin s’en faut) : un bon modèle est un modèle simple mais éclairant pour mieux comprendre certains faits empiriques « surprenants ». Les modèles contenu dans ERWC sont un excellent exemple. Certains d’entre-eux (comme le modèle du ‘good-standing’) ont même été repris dans d’autres disciplines comme la biologie. Sugden a d’ailleurs proposé une intéressante réflexion épistémologique sur le statut des modèles comme mondes crédibles (voir ici et ). De manière plus générale, Sugden est à l’origine de plusieurs critiques méthodologiques et théoriques dévastatrices de l’économie standard. Il faut notamment lire sa réflexion sur l’usage de la théorie des jeux évolutionnaires par les économistes et, surtout, son article de 1991 « Rational Choice: A Survey of Contributions from Economics and Philosophy » qui est encore largement valable à ce jour et qui est la critique de la théorie du choix rationnel la plus clairvoyante que j’ai pu lire. Chose remarquable : Sugden a publié cet article dans le très mainstream Economic Journal. Il y a là certainement une leçon que les économistes hétérodoxes devraient méditer.

Outre Hume, Sugden a aussi été beaucoup influencé par les travaux de Thomas Schelling et de David Lewis. En tant que théoricien des jeux, Sugden avoue d’ailleurs se sentir beaucoup plus proche d’un Thomas Schelling que d’un Robert Aumann, notamment dans sa volonté de mener des réflexions théoriques qui ont une connexion directe avec la réalité empirique. Cet article de Sugden co-écrit avec Ignacio Zamarron propose une intéressante reconstruction de l’analyse des points focaux développée par Schelling. Cet article co-écrit avec Robin Cubitt est quant à lui une élégante reconstruction de la théorie du common knowledge de David Lewis. Avant de lire cet article, je crois que je n’avais jamais vraiment compris ce que voulait dire Lewis.

Enfin, Sugden est avec d’autres économistes et philosophes à l’origine d’une littérature intéressante sur le raisonnement d’équipe. Cet article, paru dans Economics and Philosophy en 2000, est l’illustration d’une démarche dont je suis à titre personnel féru : prendre un outil théorique (ici la théorie du choix rationnel), et pousser cet outil jusqu’au bout de sa logique pour en démontrer les implications surprenantes : ici, en l’occurence, que la théorie du choix rationnel s’accomode très bien d’une hypothèse de « group agency », c’est à dire où c’est le groupe qui devient une unité de décision. Plus dans une optique de philosophie morale, les travaux récents de Sugden cherchent à construire un nouveau mode d’appréhension des relations marchandes comme recherche d’avantage mutuel, recherche qui elle-même s’insère dans le cadre d’un raisonnement collectif. Voir notamment cet article et celui-ci.

Il y a encore d’autres points que j’aurais pu évoquer, comme les réflexions de Sugden sur les rapports entre économie et psychologie et les apports de l’économie comportementale mais c’est déjà pas mal. A mon sens, pour un économiste, lire les travaux de Sugden est un moyen très efficace pour mieux comprendre sa propre discipline et les enjeux théoriques, méthodologiques et philosophiques dont elle est porteuse.

7 Commentaires

Classé dans Non classé

Mes lectures du moment (10)

C.H.

Voici une liste de lectures en cours ou qui attendent patiemment de l’être :

* Evolution and the Levels of Selection, de Samir Okasha. J’ai eu l’occasion récemment de lire un certain nombre d’articles de ce philosophe de la biologie et cet ouvrage s’annonce très intéressant. Okasha s’attaque à une question fondamentale en biologie mais qui a aussi une certaine pertinence pour les sciences sociales, celle du niveau auquel opère la sélection. Okasha fait le lien avec les travaux sur les grandes transitions évolutionnaires (apparition des organismes multicellulaires, apparition des colonies d’insectes, etc.).

*Adapt, de Tim Harford. Le dernier ouvrage de Tim Harford va puiser dans la littérature relative à la biologie évolutionnaire, à la théorie des systèmes complexes, à la psychologie et à l’économie pour montrer que le succès ne se planifie pas. Pas commencé, mais si c’est du niveau de ses précédents ouvrages, ce devrait être intéressant.

* Supercooperators, de Martin Nowak. Mathématicien, Nowak est l’auteur de contributions théoriques fondamentales en biologie évolutionnaire. Cet ouvrage est une présentation accessible de ses principales idées sur l’évolution de la coopération au travers de différents mécanismes (réciprocité indirecte, sélection de group, sélection de parentèle, etc.).

* Rational Ritual: Culture, Coordination, and Common Knowledge, de Michael Chwe. Cet ouvrage aborde une question fondamentale qui a été très largement négligé par les théoriciens des jeux : la formation du common knowledge (connaissance commune) au sein de la population. L’hypothèse de common knowledge est généralement considérée comme une donnée primitive par les théoriciens des jeux, à partir de laquelle ils réfléchissent sur les différents concepts de solution et sur leur pertinence. Cela dit, c’est oublier que le fondateur du concept, David Lewis, faisait du common knowledge un évènement, quelque chose qui pour se produire requiert certaines conditions bien précises. L’ouvrage de Chwe offre un grand nombre d’exemples montrant comment le common knowledge peut se former au sein d’une population et quel rôle il joue.

3 Commentaires

Classé dans Non classé

Emergence, causalité descendante et équilibre corrélé

C.H.

Pas beaucoup de temps pour bloguer en ce moment, fin d’année universitaire oblige et aussi parce que j’ai pas mal de travaux en cours de rédaction qui me prennent pas mal d’énergie. Avec mon collègue Isaac, nous planchons en ce moment sur un papier sur le concept d’émergence en sciences sociales. J’ai déjà présenté ici mes réflexions sur la question et j’ai depuis quelque peu avancé. Pour rappel, la principale problématique est la suivante : si l’on définit le phénomène d’émergence par la combinaison d’un effet de survenance (causalité ascendante) et d’une causalité descendante (où l’entité émergente a une influence causale sur les entités du niveau ontologique inférieur), comment peut-on caractériser de manière convaincante la causalité descendante ?

La notion de causalité descendante est en effet très contestée, notamment en philosophie de l’esprit mais aussi en sciences sociales (un exemple). Dans un billet précédent, j’ai indiqué que si causalité descendante il y a dans les sciences sociales, alors cette dernière doit être essentiellement intersubjective. Le problème est alors de pouvoir la caractériser précisément. Mon idée est d’utiliser la concept d’équilibre corrélé comme instrument. Lire la suite

Poster un commentaire

Classé dans Non classé

La question du dimanche (mis à jour)

C.H.

On considère que vous participez à un jeu avec les règles suivantes : il y a face à vous deux boîtes, l’une transparente l’autre opaque. Dans la boîte transparente, vous pouvez voir distinctement qu’il y a 1000 euros. On vous propose deux possibilités : a) prendre le contenu des deux boîtes, b) ne prendre que le contenu de la boîte opaque. Avant de faire votre choix, on vous donne une information supplémentaire : avant que vous aillez fait votre choix, l’organisateur a pu mettre ou non dans la boîte opaque 1 million d’euros; l’organisateur a suivi les indications d’un medium (ou de tout autre individu doté de facultés psychiques particulières) : si celui-ci pense que vous allez prendre les deux boîtes, alors il a indiqué à l’organisateur de ne rien mettre dans la boîte opaque, si en revanche il pense que vous allez prendre seulement la boîte opaque, alors il a indiqué à l’organisateur de placer 1 million d’euros dans cette dernière.

On considère qu’il est connu que le medium est quasiment infaillible (la probabilité qu’il se trompe est p < 0,05). Question : étant donné toutes ces informations, prenez vous les deux boîtes ou seulement la boîte opaque ? Expliquez votre choix.

Eléments de réponse

Le problème proposé est une variante du « paradoxe de Newcomb » qui a été publié pour la première fois en 1969. La dimension paradoxale du problème vient du fait que les deux options (prendre les deux boîtes ou seulement la boîte opaque) peuvent chacune être justifiées rationnellement à l’aide de deux principes distincts communément admis en théorie de la décision : l’utilité espérée et la dominance. Pour s’en rendre compte, il est utile de poser le problème sous forme de matrice en considérant que p s’approche arbitrairement de 1 :

      Le médium  
    Boîte opaque   Les deux boîtes
  Boîte opaque 1 million   0
Vous        
  Les deux boîtes 1 million + 1000   1000

Les deux stratégies du médium doivent se lire respectivement comme « le médium prédit que vous allez prendre seulement la boîte opaque/les deux boîtes ». Un raisonnement en termes d’utilité espérée conduit logiquement à prendre uniquement la boîte opaque; en effet, 1 000 000p > 1000p + 1 001 000(1-p) pour p > 0,5 ce que l’on considère vrai par hypothèse. Cependant, le problème tel qu’il est présenté fait qu’il est tout à fait raisonnable d’adopter un raisonnement en termes de dominance. Comme le montre la matrice, il est alors clair que la stratégie « prendre les deux boîtes » domine la stratégie « prendre la boîte opaque ».

Les deux principes de décision (utilité espérée et dominance) étant considérés comme valables mais débouchant sur des préconisations opposées, on a donc bien à faire à un paradoxe. Comment peut-on sortir de cette impasse ? Le paradoxe a été discuté par de nombreux philosophes. Robert Nozick a indiqué dans un article de 1974 qu’après que le problème ait été discuté dans la revue Scientific American, parmi les 160 lettres de lecteurs qui ont été reçu après coup, 60% indiquaient le choix de la boîte opaque seulement. Par ailleurs, 11% des répondants considéraient que les données du problème étaient inconsistentes, créant ainsi artificiellement le paradoxe.

Cette dernière réponse est naturelle : à partir du moment où les deux principes de décision sont indiscutables, il est fort probable que le paradoxe soit le produit de l’énoncé du problème. On peut estimer que le paradoxe est le résultat de la dimension d’auto-référentialité contenu dans l’énoncé : le médium fait une prédiction sur un évènement, lequel évènement est fonction de la prédiction. Comme l’un des commentateurs l’a remarqué, cela soulève le problème philosophique du conflit entre libre-arbitre et déterminisme.

Une autre manière de présenter le problème est de le regarder au travers de l’opposition entre utilité espérée « causale » et utilité espérée « évidentielle ». La première est l’approche classique en théorie de la décision; elle part du principe qu’il y a indépendance entre l’état du monde Sj et la décision Ai prise par un individu. Dans ce cas, l’individu choisit l’action Ai qui maximise son utilité espérée en fonction de la probabilité d’occurence des différents états Sj. La version « évidentielle » de l’utilité espérée supprime la clause d’indépendance : l’action Ai conditionne l’état du monde Sj. Le problème de maximisation inclu donc une probabilité conditionnelle. Selon la version de l’utilité espérée qui est choisie, le problème ci-dessus donne deux solutions différentes. Soit on raisonne en termes d’utilité espérée causale et alors on considère qu’il y a indépendance causale entre notre choix et la prédiction du medium ; dans ce cas, le principe de dominance s’applique clairement. Soit on raisonne en termes d’utilité espérée évidentielle, considérant que notre choix produit causalement la prédiction du medium, et alors le principe de l’utilité espérée s’applique. Toute l’ambiguïté de l’énoncé est là : quelle est la nature de la prédiction du medium ?

Bref, c’était donc une question où quoiqu’il arrive, vous aviez raison !

5 Commentaires

Classé dans Non classé

Sélection de groupe, fitness et utilité

C.H.

Dans la série « ce que l’économie et la biologie ont en commun », je suis tombé sur ce très stimulant article de Samir Okasha paru dans Biology & Philosophy l’an passé (papier disponible sur demande). L’article aborde l’un des problèmes dans les modèles de sélection multi-niveaux : les groupes ont-ils une valeur sélective (fitness) propre distinctes de celle des individus qui le composent ? Pour le dire autrement, la valeur sélective d’un groupe n’est-elle que la somme (ou la moyenne) de la valeur sélective des membres du groupe (comme je l’ai moi-même supposé dans ce récent billet), ou bien le rapport entre valeur sélective individuelle et valeur sélective du groupe est-il autre ? Cette question comporte plusieurs enjeux philosophiques et théoriques : si l’on considère que la sélection de groupe est le résultat d’un phénomène d’émergence, alors faire la valeur sélective du groupe la simple somme des valeurs sélectives individuelles est problématique. A l’inverse, si la valeur sélective du groupe est plus que la somme des valeurs sélectives individuelles, comment le justifier sans tomber dans la métaphysique ? Remarquez au passage qu’un débat similaire en économie existe concernant « l’unité d’agence » (un groupe peut-il agir) et notamment si cela a un sens (ontologique, pas pragmatique) de doter un groupe d’une fonction d’utilité.

L’originalité de l’article d’Okasha est qu’il mobilise la théorie du choix social développée par les économistes pour traiter de ce problème biologique. Un article de Michod et al. sur l’évolution de la multicellularité développe un modèle de sélection multiniveaux où la valeur sélective du groupe est différente de la somme des valeurs sélective individuelle. Okasha se sert de la théorie du choix social et de l’analogie entre fitness et utilité pour interpréter ce modèle et déterminer si cette hypothèse est justifiée. L’auteur remarque que l’hypothèse « additive » (fitness du groupe = somme des fitness individuelles) est en tout point comparable à une fonction de choix social utilitariste. Comme on le sait, la construction d’une fonction d’utilité sociale repose sur un certain nombre d’axiomes (notamment indépendance parétienne, indépendance par rapport aux alternatives, anonymité, critère faible de Pareto). Par ailleurs, pur que cette fonction soit utilitariste, il faut que les fonctions d’utilité des individus aient certaines propriétés (il faut que les utilités soient cardinales et comparables). Okasha suggère que les axiomes des fonctions d’utilité sociale sont raisonnablement transposables en biologie mais montre que l’on ne peut pas définir une fonction de valeur sélective de groupe qui soit utilitariste (en raison des propriétés des fonctions de fitness, ces dernières ne pouvant être soumises aux transformations requises par les axiomes d’une fonction sociale utilitariste) . Conclusion : faire l’hypothèse que la valeur sélective d’un groupe est la somme des valeurs sélectives de ses membres n’a rien d’évident et ne va pas de soi.

Okasha va plus loin et montre que dans le modèle de Michod et al., a peu près tous les axiomes d’une fonction de choix social sont violés, à commencer par celui d’indifférence parétienne (qui indique que si tous les individus reçoivent la même utilité pour deux choix x et y, alors l’utilité sociale est la même que l’on choississe x ou y) et celui du critère parétien. Cela indique qu’il n’y a plus de relations « rationnalisables » entre la valeur sélective du groupe et celle des individus, ou plus précisément que la première ne dépend plus des secondes.

Le modèle de Michod et al. sert à expliquer une « transition évolutionnaire », c’est à dire une phase de l’évolution où se produit une sorte de saut ontologique et où émerge de nouvelles entités ayant une autonomie propre. L’idée est donc que pour qu’une telle transition se produise (et donc qu’il y ait émergence), il faut qu’il y ait une violation du critère parétien. Il s’agit là d’une interprétation originale de la sélection de groupe et de son rôle dans les transitions évolutionnaires. On a aussi une démonstration de la manière dont les outils issus d’une discipline peuvent permettre de réinterpréter un phénomène étudié depuis longtemps par une autre discipline. Sur ce dernier point, j’apporterai toutefois deux bémols : d’une part, la théorie du choix social est par nature normative puisqu’elle vise, à partir d’axiomes considérés comme raisonnables, quelles fonctions d’aggrégation sociales doivent être utilisées pour prendre des décisions collectives. Son importation dans la biologie se fait à des fins positives et explicatives, et je ne suis pas sûr que la transition soit évidente. D’autre part, l’analogie entre utilité et fitness est intéressante, mais comporte des limites. Il est vrai que cela est surtout problématique dans les modèles de jeux évolutionnaires où l’assimilation utilité/reproduction est clairement problématique ; il n’y a rien de tel ici. Néanmoins, les deux concepts restent très différents concernant leur « cible ontologique » respective, et le fait qu’ils aient un statut formel similaire dans les deux disciplines (basiquement, ils sont à la base des méthodes d’optimisation sous contrainte) n’empêche pas qu’il faille être prudent sur leur transposition d’une discipline à l’autre.

Poster un commentaire

Classé dans Non classé

(Prediction) Markets in Everything

C.H.

No comment

1 commentaire

Classé dans Divers

Visualiser la complexité

C.H.

Intéressant article de Tim Harford (dont le nouvel ouvrage Adapt sera prochainement sur ma pile des « à lire » et figurera probablement dans la biblio de mon cours d’analyse systémique) sur une nouvelle méthode développée par le physicien César Hidalgo avec l’économiste Ricardo Hausmann pour visualiser la structure des économies au travers de leurs « capabilités productives ». Cela permet de vite repérer ce que chaque économie produit et exporte ainsi que les connexions entre les différents secteurs d’activité. Cela peut donner aussi une bonne idée du potentiel de développement d’une économie. L’occasion de rappeler l’intérêt de prendre en compte la dimension spatiale et structurelle au travers de l’analyse des réseaux. D’ailleurs, si je devais faire un pronostic, je dirais que l’analyse des réseaux et la théorie des graphes sont deux des outils (voire les deux outils) dont les économistes vont de plus en plus se servir dans les années et décennies à venir.

2 Commentaires

Classé dans Trouvé ailleurs