Archives mensuelles : mai 2011

Pourquoi il faut lire les travaux de Robert Sugden

C.H.

La revue International Review of Economics a proposé en début d’année un numéro spécial consacré aux travaux de Robert Sugden. Les lecteurs réguliers auront certainement remarqué que je fais souvent référence à Sugden, et pas seulement parce qu’ils travaillent sur des questions qui m’intéressent.

Les travaux de Sugden tournent autour de la question de l’orde spontané : comment des règles et des conventions instaurant une certaine harmonie entre les individus peuvent-elles émerger sans que les individus s’entendent autour d’un contrat social à la Hobbes ou à la Rousseau. C’est une question typiquement hayékienne mais c’est essentiellement chez David Hume que Sugden trouve des éléments de réponse. Son ouvrage The Economics of Rights, Welfare, and Cooperation, bien que datant de 1986, reste à ce jour l’une des tentatives les plus convaincantes de la part d’un économiste d’analyse de l’émergence des normes et des conventions. C’est aussi le premier ouvrage où un économiste fait un usage systématique de la théorie des jeux évolutionnaires, qui était alors l’apanage des biologistes (Robert Axelrod est une exception antérieure à Sugden, mais Axelrod est politiste).

L’un des points les plus appréciables des travaux de Sugden est sa capacité à faire un usage éclairé des modèles, ce que tous les économistes devraient faire (mais ne font pas, loin s’en faut) : un bon modèle est un modèle simple mais éclairant pour mieux comprendre certains faits empiriques "surprenants". Les modèles contenu dans ERWC sont un excellent exemple. Certains d’entre-eux (comme le modèle du ‘good-standing’) ont même été repris dans d’autres disciplines comme la biologie. Sugden a d’ailleurs proposé une intéressante réflexion épistémologique sur le statut des modèles comme mondes crédibles (voir ici et ). De manière plus générale, Sugden est à l’origine de plusieurs critiques méthodologiques et théoriques dévastatrices de l’économie standard. Il faut notamment lire sa réflexion sur l’usage de la théorie des jeux évolutionnaires par les économistes et, surtout, son article de 1991 "Rational Choice: A Survey of Contributions from Economics and Philosophy" qui est encore largement valable à ce jour et qui est la critique de la théorie du choix rationnel la plus clairvoyante que j’ai pu lire. Chose remarquable : Sugden a publié cet article dans le très mainstream Economic Journal. Il y a là certainement une leçon que les économistes hétérodoxes devraient méditer.

Outre Hume, Sugden a aussi été beaucoup influencé par les travaux de Thomas Schelling et de David Lewis. En tant que théoricien des jeux, Sugden avoue d’ailleurs se sentir beaucoup plus proche d’un Thomas Schelling que d’un Robert Aumann, notamment dans sa volonté de mener des réflexions théoriques qui ont une connexion directe avec la réalité empirique. Cet article de Sugden co-écrit avec Ignacio Zamarron propose une intéressante reconstruction de l’analyse des points focaux développée par Schelling. Cet article co-écrit avec Robin Cubitt est quant à lui une élégante reconstruction de la théorie du common knowledge de David Lewis. Avant de lire cet article, je crois que je n’avais jamais vraiment compris ce que voulait dire Lewis.

Enfin, Sugden est avec d’autres économistes et philosophes à l’origine d’une littérature intéressante sur le raisonnement d’équipe. Cet article, paru dans Economics and Philosophy en 2000, est l’illustration d’une démarche dont je suis à titre personnel féru : prendre un outil théorique (ici la théorie du choix rationnel), et pousser cet outil jusqu’au bout de sa logique pour en démontrer les implications surprenantes : ici, en l’occurence, que la théorie du choix rationnel s’accomode très bien d’une hypothèse de "group agency", c’est à dire où c’est le groupe qui devient une unité de décision. Plus dans une optique de philosophie morale, les travaux récents de Sugden cherchent à construire un nouveau mode d’appréhension des relations marchandes comme recherche d’avantage mutuel, recherche qui elle-même s’insère dans le cadre d’un raisonnement collectif. Voir notamment cet article et celui-ci.

Il y a encore d’autres points que j’aurais pu évoquer, comme les réflexions de Sugden sur les rapports entre économie et psychologie et les apports de l’économie comportementale mais c’est déjà pas mal. A mon sens, pour un économiste, lire les travaux de Sugden est un moyen très efficace pour mieux comprendre sa propre discipline et les enjeux théoriques, méthodologiques et philosophiques dont elle est porteuse.

7 Commentaires

Classé dans Non classé

Mes lectures du moment (10)

C.H.

Voici une liste de lectures en cours ou qui attendent patiemment de l’être :

* Evolution and the Levels of Selection, de Samir Okasha. J’ai eu l’occasion récemment de lire un certain nombre d’articles de ce philosophe de la biologie et cet ouvrage s’annonce très intéressant. Okasha s’attaque à une question fondamentale en biologie mais qui a aussi une certaine pertinence pour les sciences sociales, celle du niveau auquel opère la sélection. Okasha fait le lien avec les travaux sur les grandes transitions évolutionnaires (apparition des organismes multicellulaires, apparition des colonies d’insectes, etc.).

*Adapt, de Tim Harford. Le dernier ouvrage de Tim Harford va puiser dans la littérature relative à la biologie évolutionnaire, à la théorie des systèmes complexes, à la psychologie et à l’économie pour montrer que le succès ne se planifie pas. Pas commencé, mais si c’est du niveau de ses précédents ouvrages, ce devrait être intéressant.

* Supercooperators, de Martin Nowak. Mathématicien, Nowak est l’auteur de contributions théoriques fondamentales en biologie évolutionnaire. Cet ouvrage est une présentation accessible de ses principales idées sur l’évolution de la coopération au travers de différents mécanismes (réciprocité indirecte, sélection de group, sélection de parentèle, etc.).

* Rational Ritual: Culture, Coordination, and Common Knowledge, de Michael Chwe. Cet ouvrage aborde une question fondamentale qui a été très largement négligé par les théoriciens des jeux : la formation du common knowledge (connaissance commune) au sein de la population. L’hypothèse de common knowledge est généralement considérée comme une donnée primitive par les théoriciens des jeux, à partir de laquelle ils réfléchissent sur les différents concepts de solution et sur leur pertinence. Cela dit, c’est oublier que le fondateur du concept, David Lewis, faisait du common knowledge un évènement, quelque chose qui pour se produire requiert certaines conditions bien précises. L’ouvrage de Chwe offre un grand nombre d’exemples montrant comment le common knowledge peut se former au sein d’une population et quel rôle il joue.

3 Commentaires

Classé dans Non classé

Emergence, causalité descendante et équilibre corrélé

C.H.

Pas beaucoup de temps pour bloguer en ce moment, fin d’année universitaire oblige et aussi parce que j’ai pas mal de travaux en cours de rédaction qui me prennent pas mal d’énergie. Avec mon collègue Isaac, nous planchons en ce moment sur un papier sur le concept d’émergence en sciences sociales. J’ai déjà présenté ici mes réflexions sur la question et j’ai depuis quelque peu avancé. Pour rappel, la principale problématique est la suivante : si l’on définit le phénomène d’émergence par la combinaison d’un effet de survenance (causalité ascendante) et d’une causalité descendante (où l’entité émergente a une influence causale sur les entités du niveau ontologique inférieur), comment peut-on caractériser de manière convaincante la causalité descendante ?

La notion de causalité descendante est en effet très contestée, notamment en philosophie de l’esprit mais aussi en sciences sociales (un exemple). Dans un billet précédent, j’ai indiqué que si causalité descendante il y a dans les sciences sociales, alors cette dernière doit être essentiellement intersubjective. Le problème est alors de pouvoir la caractériser précisément. Mon idée est d’utiliser la concept d’équilibre corrélé comme instrument. Lire la suite

Poster un commentaire

Classé dans Non classé

La question du dimanche (mis à jour)

C.H.

On considère que vous participez à un jeu avec les règles suivantes : il y a face à vous deux boîtes, l’une transparente l’autre opaque. Dans la boîte transparente, vous pouvez voir distinctement qu’il y a 1000 euros. On vous propose deux possibilités : a) prendre le contenu des deux boîtes, b) ne prendre que le contenu de la boîte opaque. Avant de faire votre choix, on vous donne une information supplémentaire : avant que vous aillez fait votre choix, l’organisateur a pu mettre ou non dans la boîte opaque 1 million d’euros; l’organisateur a suivi les indications d’un medium (ou de tout autre individu doté de facultés psychiques particulières) : si celui-ci pense que vous allez prendre les deux boîtes, alors il a indiqué à l’organisateur de ne rien mettre dans la boîte opaque, si en revanche il pense que vous allez prendre seulement la boîte opaque, alors il a indiqué à l’organisateur de placer 1 million d’euros dans cette dernière.

On considère qu’il est connu que le medium est quasiment infaillible (la probabilité qu’il se trompe est p < 0,05). Question : étant donné toutes ces informations, prenez vous les deux boîtes ou seulement la boîte opaque ? Expliquez votre choix.

Eléments de réponse

Le problème proposé est une variante du "paradoxe de Newcomb" qui a été publié pour la première fois en 1969. La dimension paradoxale du problème vient du fait que les deux options (prendre les deux boîtes ou seulement la boîte opaque) peuvent chacune être justifiées rationnellement à l’aide de deux principes distincts communément admis en théorie de la décision : l’utilité espérée et la dominance. Pour s’en rendre compte, il est utile de poser le problème sous forme de matrice en considérant que p s’approche arbitrairement de 1 :

      Le médium  
    Boîte opaque   Les deux boîtes
  Boîte opaque 1 million   0
Vous        
  Les deux boîtes 1 million + 1000   1000

Les deux stratégies du médium doivent se lire respectivement comme "le médium prédit que vous allez prendre seulement la boîte opaque/les deux boîtes". Un raisonnement en termes d’utilité espérée conduit logiquement à prendre uniquement la boîte opaque; en effet, 1 000 000p > 1000p + 1 001 000(1-p) pour p > 0,5 ce que l’on considère vrai par hypothèse. Cependant, le problème tel qu’il est présenté fait qu’il est tout à fait raisonnable d’adopter un raisonnement en termes de dominance. Comme le montre la matrice, il est alors clair que la stratégie "prendre les deux boîtes" domine la stratégie "prendre la boîte opaque".

Les deux principes de décision (utilité espérée et dominance) étant considérés comme valables mais débouchant sur des préconisations opposées, on a donc bien à faire à un paradoxe. Comment peut-on sortir de cette impasse ? Le paradoxe a été discuté par de nombreux philosophes. Robert Nozick a indiqué dans un article de 1974 qu’après que le problème ait été discuté dans la revue Scientific American, parmi les 160 lettres de lecteurs qui ont été reçu après coup, 60% indiquaient le choix de la boîte opaque seulement. Par ailleurs, 11% des répondants considéraient que les données du problème étaient inconsistentes, créant ainsi artificiellement le paradoxe.

Cette dernière réponse est naturelle : à partir du moment où les deux principes de décision sont indiscutables, il est fort probable que le paradoxe soit le produit de l’énoncé du problème. On peut estimer que le paradoxe est le résultat de la dimension d’auto-référentialité contenu dans l’énoncé : le médium fait une prédiction sur un évènement, lequel évènement est fonction de la prédiction. Comme l’un des commentateurs l’a remarqué, cela soulève le problème philosophique du conflit entre libre-arbitre et déterminisme.

Une autre manière de présenter le problème est de le regarder au travers de l’opposition entre utilité espérée "causale" et utilité espérée "évidentielle". La première est l’approche classique en théorie de la décision; elle part du principe qu’il y a indépendance entre l’état du monde Sj et la décision Ai prise par un individu. Dans ce cas, l’individu choisit l’action Ai qui maximise son utilité espérée en fonction de la probabilité d’occurence des différents états Sj. La version "évidentielle" de l’utilité espérée supprime la clause d’indépendance : l’action Ai conditionne l’état du monde Sj. Le problème de maximisation inclu donc une probabilité conditionnelle. Selon la version de l’utilité espérée qui est choisie, le problème ci-dessus donne deux solutions différentes. Soit on raisonne en termes d’utilité espérée causale et alors on considère qu’il y a indépendance causale entre notre choix et la prédiction du medium ; dans ce cas, le principe de dominance s’applique clairement. Soit on raisonne en termes d’utilité espérée évidentielle, considérant que notre choix produit causalement la prédiction du medium, et alors le principe de l’utilité espérée s’applique. Toute l’ambiguïté de l’énoncé est là : quelle est la nature de la prédiction du medium ?

Bref, c’était donc une question où quoiqu’il arrive, vous aviez raison !

5 Commentaires

Classé dans Non classé

Sélection de groupe, fitness et utilité

C.H.

Dans la série "ce que l’économie et la biologie ont en commun", je suis tombé sur ce très stimulant article de Samir Okasha paru dans Biology & Philosophy l’an passé (papier disponible sur demande). L’article aborde l’un des problèmes dans les modèles de sélection multi-niveaux : les groupes ont-ils une valeur sélective (fitness) propre distinctes de celle des individus qui le composent ? Pour le dire autrement, la valeur sélective d’un groupe n’est-elle que la somme (ou la moyenne) de la valeur sélective des membres du groupe (comme je l’ai moi-même supposé dans ce récent billet), ou bien le rapport entre valeur sélective individuelle et valeur sélective du groupe est-il autre ? Cette question comporte plusieurs enjeux philosophiques et théoriques : si l’on considère que la sélection de groupe est le résultat d’un phénomène d’émergence, alors faire la valeur sélective du groupe la simple somme des valeurs sélectives individuelles est problématique. A l’inverse, si la valeur sélective du groupe est plus que la somme des valeurs sélectives individuelles, comment le justifier sans tomber dans la métaphysique ? Remarquez au passage qu’un débat similaire en économie existe concernant "l’unité d’agence" (un groupe peut-il agir) et notamment si cela a un sens (ontologique, pas pragmatique) de doter un groupe d’une fonction d’utilité.

L’originalité de l’article d’Okasha est qu’il mobilise la théorie du choix social développée par les économistes pour traiter de ce problème biologique. Un article de Michod et al. sur l’évolution de la multicellularité développe un modèle de sélection multiniveaux où la valeur sélective du groupe est différente de la somme des valeurs sélective individuelle. Okasha se sert de la théorie du choix social et de l’analogie entre fitness et utilité pour interpréter ce modèle et déterminer si cette hypothèse est justifiée. L’auteur remarque que l’hypothèse "additive" (fitness du groupe = somme des fitness individuelles) est en tout point comparable à une fonction de choix social utilitariste. Comme on le sait, la construction d’une fonction d’utilité sociale repose sur un certain nombre d’axiomes (notamment indépendance parétienne, indépendance par rapport aux alternatives, anonymité, critère faible de Pareto). Par ailleurs, pur que cette fonction soit utilitariste, il faut que les fonctions d’utilité des individus aient certaines propriétés (il faut que les utilités soient cardinales et comparables). Okasha suggère que les axiomes des fonctions d’utilité sociale sont raisonnablement transposables en biologie mais montre que l’on ne peut pas définir une fonction de valeur sélective de groupe qui soit utilitariste (en raison des propriétés des fonctions de fitness, ces dernières ne pouvant être soumises aux transformations requises par les axiomes d’une fonction sociale utilitariste) . Conclusion : faire l’hypothèse que la valeur sélective d’un groupe est la somme des valeurs sélectives de ses membres n’a rien d’évident et ne va pas de soi.

Okasha va plus loin et montre que dans le modèle de Michod et al., a peu près tous les axiomes d’une fonction de choix social sont violés, à commencer par celui d’indifférence parétienne (qui indique que si tous les individus reçoivent la même utilité pour deux choix x et y, alors l’utilité sociale est la même que l’on choississe x ou y) et celui du critère parétien. Cela indique qu’il n’y a plus de relations "rationnalisables" entre la valeur sélective du groupe et celle des individus, ou plus précisément que la première ne dépend plus des secondes.

Le modèle de Michod et al. sert à expliquer une "transition évolutionnaire", c’est à dire une phase de l’évolution où se produit une sorte de saut ontologique et où émerge de nouvelles entités ayant une autonomie propre. L’idée est donc que pour qu’une telle transition se produise (et donc qu’il y ait émergence), il faut qu’il y ait une violation du critère parétien. Il s’agit là d’une interprétation originale de la sélection de groupe et de son rôle dans les transitions évolutionnaires. On a aussi une démonstration de la manière dont les outils issus d’une discipline peuvent permettre de réinterpréter un phénomène étudié depuis longtemps par une autre discipline. Sur ce dernier point, j’apporterai toutefois deux bémols : d’une part, la théorie du choix social est par nature normative puisqu’elle vise, à partir d’axiomes considérés comme raisonnables, quelles fonctions d’aggrégation sociales doivent être utilisées pour prendre des décisions collectives. Son importation dans la biologie se fait à des fins positives et explicatives, et je ne suis pas sûr que la transition soit évidente. D’autre part, l’analogie entre utilité et fitness est intéressante, mais comporte des limites. Il est vrai que cela est surtout problématique dans les modèles de jeux évolutionnaires où l’assimilation utilité/reproduction est clairement problématique ; il n’y a rien de tel ici. Néanmoins, les deux concepts restent très différents concernant leur "cible ontologique" respective, et le fait qu’ils aient un statut formel similaire dans les deux disciplines (basiquement, ils sont à la base des méthodes d’optimisation sous contrainte) n’empêche pas qu’il faille être prudent sur leur transposition d’une discipline à l’autre.

Poster un commentaire

Classé dans Non classé

(Prediction) Markets in Everything

C.H.

No comment

Un commentaire

Classé dans Divers

Visualiser la complexité

C.H.

Intéressant article de Tim Harford (dont le nouvel ouvrage Adapt sera prochainement sur ma pile des "à lire" et figurera probablement dans la biblio de mon cours d’analyse systémique) sur une nouvelle méthode développée par le physicien César Hidalgo avec l’économiste Ricardo Hausmann pour visualiser la structure des économies au travers de leurs "capabilités productives". Cela permet de vite repérer ce que chaque économie produit et exporte ainsi que les connexions entre les différents secteurs d’activité. Cela peut donner aussi une bonne idée du potentiel de développement d’une économie. L’occasion de rappeler l’intérêt de prendre en compte la dimension spatiale et structurelle au travers de l’analyse des réseaux. D’ailleurs, si je devais faire un pronostic, je dirais que l’analyse des réseaux et la théorie des graphes sont deux des outils (voire les deux outils) dont les économistes vont de plus en plus se servir dans les années et décennies à venir.

2 Commentaires

Classé dans Trouvé ailleurs

Ce que la biologie et l’économie ont en commun… ou pas

C.H.

Pour ceux qui s’intéressent aux relations interdisciplinaires entre l’économie et la biologie et surtout à la manière dont la modélisation est utilisée dans ces deux disciplines, je conseille ce récent article (working paper ici) de Till Grüne-Yanoff au sujet des modèles de jeux évolutionnaires. L’auteur propose une histoire en deux temps : tout d’abord, comment les biologistes ont construit la théorie des jeux évolutionnaires en important des concepts de la théorie des jeux classiques ; ensuite, comment les économistes ont à leur tour, à partir des années 80, importés la théorie des jeux évolutionnaire dans leur discipline.

Grüne-Yanoff met en avant deux choses intéressantes : d’une part, tandis que les biologistes ont pris de très grandes libertés avec la théorie des jeux lorsqu’ils l’ont importé dans leur discipline (par exemple, en inventant de nouveaux concepts de solution), les économistes ont eu tendance quant à eux à reprendre de manière très stricte l’appareillage mathématique développé par les biologistes, souvent pour l’appliquer sans discernement à des problèmes socioéconomiques. La principale raison est que les économistes ont trouvé dans la théorie des jeux évolutionnaire un moyen de réinterpréter et de justifier le concept d’équilibre de Nash (notamment parce que tout les points stables dans à peu près n’importe quel type de dynamique sont des équilibres de Nash) sans recourir à des hypothèses épistémiques invraisemblables. Il est intéressant de se demander quels présupposés ontologiques un tel transfert nécessite. D’autre part, l’auteur montre que biologistes et économistes n’ont pas utilisé les mêmes modèles pour la même chose : chez les biologistes, l’usage des modèles évolutionnaires se fait toujours en référence à des problèmes empiriques bien identifié ; chez les économistes, leur utilisation se fait essentiellement dans une optique théorique et axiomatique (prouver des théorèmes).

Sur des thèmes similaires on peut lire cet article de Robert Sugden ou encore ce papier de moi-même (qui est toujours en cours de soumission).  

Poster un commentaire

Classé dans Trouvé ailleurs

Narration, description et formalisation

C.H.

J’ai suivi jeudi dernier un intéressant séminaire animé par Hervé Dumez autour de la démarche narrative. Pour ceux qui ne connaissent pas, je conseille la lecture de cet article co-écrit par Dumez avec Alain Jeunemaître et paru en 2005 dans la Revue économique. La démarche narrative est une approche empirique qualitative (qui se distingue donc – sans nécessairement s’opposer – des approches quantitatives) qui consiste à analyser un phénomène de manière non formelle pour en restituer le déroulement et produire une explication. Pour être tout à fait précis, dans le cadre de cette démarche, l’explication est contenue dans la narration.

Ce dernier point pose pas mal de questions, notamment si l’on considère que toute narration présuppose une description. Dumez a pas mal discuté de ce moment de la description et il a avoué avoir lui-même des difficultés à le caractériser. Le problème fondamental est que dans la mesure où, sans pour autant tomber dans le post-modernisme, la description « objective » et « neutre » est impossible, et que toute description présuppose l’existence d’outils pour décrypter le réel, décrire c’est déjà expliquer. Dans le cadre de l’approche narrative, la distinction description/explication reste donc problématique. Sur ce plan, il me semble que chez un auteur comme Max Weber la notion de description est purement et simplement absente, ce qui se comprend dans la mesure où chez Weber le questionnement scientifique part d’un rapport aux valeurs, lequel conditionne d’emblé la construction des idéaux-types explicatifs.

En ce qui me concerne, l’aspect narratif m’intéresse depuis un certain temps, pas en tant que démarche méthodologique propre, mais en tant que dimension inhérente à toute explication économique y compris formalisée. La narration apparait explicitement dans les approches de type « analytic narrative » dont Dumez a rapidement parlé, ainsi que dans la plupart des modèles économiques comme « appendice interprétative ». Ces articles de Morgan et de Grüne-Yanoff et Schweinzer sur le rôle de la narration dans les modèles appliqués de théorie des jeux sont très éclairants sur ce point. A mon sens, la narration joue un rôle fondamental non seulement dans l’interprétation des modèles mais également dans la justification de leur pertinence. Je vais prendre deux cas sur lesquels je travaille depuis plus d’un an. Le premier exemple est celui des modèles évolutionnaires. Le problème fondamental des modèles de jeux évolutionnaires utilisés en économie est de justifier la pertinence d’utiliser des concepts et/ou un type de formalisation provenant initialement d’une autre discipline (la biologie). La narration – c’est-à-dire un argument discursif et rhétorique qui s’appuie sur des analogies, un appel au sens commun et à l’intuition ou sur un storytelling ou encore sur des connaissances non formalisés/formalisables – est par exemple essentiel pour justifier de type le dynamique utilisée dans le modèle. La narration est également utilisée pour justifier l’hypothèse – ontologique – qu’il doit y avoir d’une manière ou d’une autre un mécanisme de réplication. Une étude de cas intéressante est de voir comment un auteur comme Binmore mobilise le concept de mème à cette fin. Du fait des hypothèses très fortes des modèles évolutionnaires (population théoriquement infinie, réplication « asexuée », etc.), la narration est essentielle pour rendre le modèle crédible.

L’autre cas est plus général : la plupart des modèles de théorie des jeux, qu’ils soient utilisés à des fins purement théoriques ou pour mener des études empiriques, présupposent que 1) la structure du jeu, 2) la rationalité des joueurs et 3) leurs croyances sont connaissance commune (sans cela, le concept d’équilibre de Nash perd toute sa force conceptuelle). Or, les derniers développements en théorie des jeux épistémique (pour un aperçu des développements les plus récents, lire les chapitres 7 et 8 de cet ouvrage de Gintis) nous indique que considérer l’hypothèse de common knowldege comme une « primitive » est injustifiée ; le common knowledge est un évènement, quelque chose qui peut se produire… ou pas. A quelle condition par exemple les joueurs peuvent-ils avoir une connaissance mutuelle (si ce n’est commune) de leurs croyances ? Une possibilité est qu’ils partagent une culture commune et des normes sociales jouant le rôle de « signaux » sur ce que chacun va faire. Typiquement, ces normes seront hors du modèle. On peut les intégrer formellement par exemple au travers du concept d’équilibre corrélé, mais alors il faut expliquer pourquoi tel signal est utilisé et pas tel autre. Comme on ne peut décemment pas faire croître le modèle à l’infini, on est obligé à un moment de postuler des éléments exogènes. C’est la fonction de la narration de rendre convaincant ce postulat.

Pour finir, Dumez a insisté sur le fait que la démarche narrative était fondamentalement une méthode reposant sur le raisonnement contrefactuel. Le sociologue Richard Swedberg a émis l’idée que l’intérêt d’un outil formel tel que la théorie des jeux pour le sociologue est précisément d’aider au raisonnement contrefactuel. Cela suggère une autre affinité entre narration et théorie des jeux.

3 Commentaires

Classé dans Non classé

Les liens du matin (92)

C.H.

* "The math of social networks" – UnderstandingSociety

* "L’inefficacité économique des familles royales, un billet people" – Mafeco

* "Opération Fortitude, jeu de transmission d’information et rationalité limitée" – Expeconomics

Poster un commentaire

Classé dans Liens

Un débat sur la sélection de groupe

C.H.

On peut trouver par ici les vidéos des interventions de plusieurs chercheurs (économistes, biologistes, philosophes) dans le cadre d’un débat sur la sélection de groupe qui s’est tenu l’année dernière. Herbert Gintis était notamment l’un des intervenants :

L’intervention du philosophe Samir Okasha est particulièrement intéressante :

Okasha oppose la "vraie" sélection de groupe à la causalité ascendante. La première implique qu’il existerait un lien causal direct entre le groupe et ses caractéristiques et la valeur sélective (fitness) de ce groupe. La causalité ascendante indique au contraire que le lien entre le groupe et la valeur sélective du groupe (laquelle découle directement de la valeur sélective des membres du groupe) n’est qu’une corrélation et qu’en fait tout se passe au niveau individuel. La théorie de la sélection de groupe ne serait alors qu’un moyen particulier de tracer, sur un plan comptable (via l’équation de Price notamment), l’effet de la sélection au niveau individuel. Si j’ai bien suivi Okasha, ce dernier est très sceptique à l’égard de la "vraie" sélection de groupe.

Il me semble pourtant qu’il y a une possibilité intermédiaire où, sans supposer que le groupe aurait une valeur sélective, ce dernier peut toutefois intervenir causalement dans le processus de sélection. Prenons l’exemple abstrait le plus simple possible. Soit deux groupes A et B composés respectivement de n et m individus. La population totale N est tout simplement la somme de la population des deux groupes. Imaginons qu’il existe deux types d’individus dans cette population : des coopérateurs C et des défecteurs D qui intéragissent dans un dilemme du prisonnier (par conséquent, les défecteurs ont toujours l’avantage). Notons par p et q la proportion respective de coopérateurs dans les groupes A et B (p et q sont supposés différents). Enfin, notons par vGi(p) la valeur sélective d’un individu de type  i = C, D dans le groupe G = A, B en fonction de la proportion d’individus coopérateurs dans la population. Conformément à ce qui se passe dans le cadre d’un dilemme du prisonnier, plus le nombre de coopérateurs est élevé, plus la valeur sélective de n’importe quel individu sera élevé. Mathématiquement, on a donc dvGi /dp > 0.

Faisons l’hypothèse que la valeur sélective moyenne d’un groupe est simplement la somme des valeurs sélectives des membres du groupe divisée par la population. Ce faisant, on s’assure qu’il n’y a aucun "saut ontologique" entre individus et groupes et on se conforme à l’orthodoxie de la biologie évolutionaire qui nous indique que la sélection agit toujours in fineau niveau individuel. Par conséquent, si on note VG la valeur sélective moyenne du groupe G = A, B (c’est à dire, le nombre moyen de descendants des membres du groupe), nous avons

VA = 1/n ∑n vAi

VB = 1/m ∑m vBi

Par rapport aux hypothèses énoncées plus haut, on peut facilement déduire que

dV/dp > 0

dVB/dq > 0

(un groupe croît d’autant plus vite qu’il comporte un nombre élevé de coopérateurs). Dans ce modèle abstrait et sans dimension spatiale, un groupe ne va se définir que par une seule et unique chose, la proportion p (ou q) de coopérateurs à un moment donné. La construction même du modèle fait que si l’on change arbitrairement la valeur de ce paramètre pour l’un des groupes, alors on modifie la valeur sélective des membres du groupe et, par conséquent, la valeur sélective du groupe dans son ensemble. Si l’on accepte la définition "interventionniste" de la causalité selon laquelle un phenomène X cause un résultat Y à partir du moment ou toute intervention modifiant X en X’ produit directement un résultat Y’ différent de Y, alors il semble bien que l’on puisse parler d’une causalité du groupe sur la valeur sélective de l’individu. Comme, par ailleurs, la valeur sélective des individus détermine la valeur sélective mais aussi la composition du groupe, on a bien un lien causal, certes indirect, entre le groupe (définit par ses caractéristiques, ici le paramètre p) et la valeur sélective du groupe. Je ne suis pas certain que cela corresponde exactement à ce que disent la plupart des biologistes qui défendent la version "faible" de la théorie de la sélection multi-niveaux dont parle Okasha dans son intervention.

Poster un commentaire

Classé dans Non classé