Archives mensuelles : janvier 2011

As-if behavioral economics ?!

C.H.

L’économie comportementale est à la mode. C’est même plus que ça, c’est une approche qui est maintenant devenue "standard". L’une des explications de ce succès est peut être que finalement elle ne bouleverse pas tant que ça le cadre de l’analyse économique traditionnel. C’est l’une des idées développées dans ce magistral papier de Nathan Berg et Gerd Gigerenzer (Tim Harford en propose un résumé succinct ici). Il s’agit à mon sens de la critique la mieux argumentée de l’économie comportementale qui ait pu être écrite. Voici l’abstract :

"For a research program that counts improved empirical realism among its primary goals, it is surprising that behavioral economics appears indistinguishable from neoclassical economics in its reliance on “as-if” arguments. “As-if” arguments are frequently put forward in behavioral economics to justify “psychological” models that add new parameters to fit decision outcome data rather than specifying more realistic or empirically supported psychological processes that genuinely explain these data. Another striking similarity is that both behavioral and neoclassical research programs refer to a common set of axiomatic norms without subjecting them to empirical investigation. Notably missing is investigation of whether people who deviate from axiomatic rationality face economically significant losses. Despite producing prolific documentation of deviations from neoclassical norms, behavioral economics has produced almost no evidence that deviations are correlated with lower earnings, lower happiness, impaired health, inaccurate beliefs, or shorter lives. We argue for an alternative non-axiomatic approach to normative analysis focused on veridical descriptions of decision process and a matching principle – between behavioral strategies and the environments in which they are used – referred to as ecological rationality. To make behavioral economics, or psychology and economics, a more rigorously empirical science will require less effort spent extending “as-if” utility theory to account for biases and deviations, and substantially more careful observation of successful decision makers in their respective domains".

En substance, les auteurs montrent que que l’économie comportementale, en dépit de la volonté affirmé de ses praticiens de parvenir à un plus grand réalisme empirique, s’inscrit pleinement dans une optique instrumentaliste tout ce qu’il y a de plus standard. En clair, l’économie comportementale consisterait essentiellement à enrichir toujours plus les fonctions d’utilité en augmentant le nombre de paramètres, tout en continuant de supposer que les agents maximisent cette fonction sous contrainte. Cela implique l’acceptation des axiomes de la théorie de la décision : complétude, transitivité, etc.

Les auteurs indiquent que cette approche ne nous apprend rien de plus sur la manière dont les individus prennent effectivement leurs décisions puisque l’exercice consiste essentiellement à définir de manière ad hoc des fonctions d’utilité pour ensuite calibrer les paramètres de manière à ce qu’ils "collent" avec les données. En ce sens, les fonctions d’utilité de l’économie comportementale ne sont pas plus réalistes que les fonctions d’utilité standards, juste plus complexes, ce qui ironiquement suppose au passage que les individus sont capables de résoudre un calcul d’optimisation encore plus complexe. Par ailleurs, les auteurs remarquent la tendance des praticiens de l’économie comportementale à interpréter toute déviation des comportements réels de ce qui est prédit par la théorie standard comme "pathologique". En clair, sur un plan strictement normatif, l’économie comportementale va encore plus loin que l’économie standard puisqu’elle suppose que respecter les canons de la théorie de l’utilité espérée est la "bonne" manière de se comporter.

A la place, les auteurs proposent une approche à partir du concept d’heuristique, que je discute d’ailleurs dans mon papier mis en lien dans le précédent billet. L’idée est de définir quel est le véritable processus de décision des individus, sans préjuger qu’il s’agisse d’une "déviation" par rapport à un processus optimal. De fait, utiliser des heuristiques est souvent la meilleure façon de procéder, l’exemple des échecs étant célèbre. Au passage, les auteurs montrent que des études tendent à indiquer que non seulement les déviations par rapport aux canons de la théorie de la décision n’ont pas de conséquence économique significative pour les individus, mais qu’en plus ceux qui s’appuient sur des heuristiques pertinentes ont plus de succès.

Les auteurs ont incontestablement mis le doigt sur quelque chose d’important. L’ironie c’est que l’économie comportementale s’est vendue avec l’argument du réalisme et qu’au final, elle n’adopte pas une méthodologie différente de l’économie standard. Cela dit, les auteurs laissent entendre que cela disqualifie d’office cette approche. Ce n’est le cas que si l’on pense que l’instrumentalisme sur lequel est (partiellement) fondé la théorie économique est erroné. La théorie de l’utilité espérée, de même que la prospect theory, sont des outils qui permettent de décrire les comportements. Dans les deux cas, il s’agit effectivement de considérer que les individus se comportent d’une manière telle qu’ils résolvent un problème d’optimisation. Ce n’est clairement pas réaliste mais est-ce vraiment l’objectif, au-delà de la rhétorique de l’économie comportementale ? L’économie comportementale a permis d’ouvrir une réflexion sur le contenu des préférences des individus par exemple. De manière générale, elle a offert de nouvelles interprétations aux comportements effectivement observés. Evidemment, les choses sont plus compliquées lorsque l’économie comportementale est mobilisée par des recommendations de politique publique.

Quoiqu’il en soit, l’idée des auteurs selon laquelle une vraie association entre économie et psychologie  doit s’intéresser à la manière dont les individus prennent effectivement leurs décisions est d’une grande valeur. Mais il s’agit alors de faire un très grand pas en dehors du cadre traditionnel de l’analyse économique.

8 Commentaires

Classé dans Trouvé ailleurs

Heuristics, Behavior and Structures

C.H.

Comme je l’ai indiqué dans un billet précédent, je travaille notamment en ce moment sur les approches évolutionnaires de la justice. J’ai rédigé dans ce cadre un court papier qui discute l’ouvrage de J.M. Alexander, The Structural Evolution of Morality. Le papier est un peu plus qu’une note de lecture dans la mesure où il s’intéresse plus généralement à un ensemble de travaux qui s’inscrivent dans le cadre du "evolutionary generalism". Les lecteurs réguliers y retrouveront de nombreux thèmes abordés ici. Voici le papier:

Heuristics, Behaviors and Structures: What is the Explanatory Value of Evolutionary Generalism?

Ce document de travail n’a pas forcément vocation à devenir autre chose mais, bien entendu, tous les commentaires sont les bienvenus. A noter que c’est le premier document que je rédige sous LaTeX (oui, faut bien se moderniser) !

Poster un commentaire

Classé dans Non classé

L’entropie, un phénomène qui remet en cause la notion d’efficience 3/3

R.D.

Ce billet fera écho avec le précédent sur les systèmes adaptatifs complexes et le paradoxe de Jevons dans l’histoire de la pensée économique. Il sera également le dernier d’un lecture approfondi de l’ouvrage de Polimeni, Mayumi, et Giampietro. Nous allons voir plus précisément ici la manière dont le paradoxe de Jevons pourrait être intégré à la complexité de l’entropie. Pour cela, Polimeni, Mayumi, et Giampietro nous invite à revoir la définition de l’éco-efficience qui semblerait conserver une approche trop linéaire face à la complexité de la thermodynamique. C’est pourquoi loin des standards habituels, ces derniers présentent deux interprétations possibles de ce que nous pouvons définir par le terme « efficience ». Soit la première représente le niveau minimum d’entropie nécessaire que l’on pourrait rattacher à la notion d’efficacité. Cette dernière s’inspire d’une évaluation selon des unités de mesure d’input et d’output similaires pour convertir l’énergie. La seconde, quant à elle, se rapproche de l’évaluation des flux maximums d’énergie grâce à des choix de ratios économiquement pertinents que l’on nommerait ici efficience. Or, un simple ratio et une analyse de flux ne suffisent pas pour décrire les dimensions multiples et hiérarchiques des systèmes complexes adaptatifs.

Deux catégories d’efficience, antagonistes et complémentaires

Au delà de l’ambiguïté sémantique que peut apporter la notion d’efficience, il n’en demeure pas moins important de souligner l’importance des travaux de Kawamiya en 1983 sur ce sujet. En fait, ce dernier propose deux catégories d’efficience antagonistes dans lesquelles la première s’intitule « efficience de type 1 » en se ralliant à un ratio input/output qui ne prend pas la temporalité de la transformation entropique. A l’opposé, l’ « efficience de type 2 » se focalise sur le temps nécessaire pour générer des outputs. Leurs applications dans les systèmes socioéconomiques et écologiques nous permettent de mettre en lumière l’approche multi-dimensionnelle du système entropique. La célèbre machine de Carnot permet de mettre en lumière les limites de l’efficience de type 1 avec le premier principe de la thermodynamique. Ici, son augmentation réduit les pressions sur les ressources naturelles. En revanche, l’efficience de type 2 se confronte à la puissance qui permet d’augmenter une efficience temporelle, la productivité, et accentuer la dynamique évolutive des systèmes complexes et des comportements. Dès lors, comment appréhender l’efficience dans ce cas ? La réponse fait l’objet d’un débat passionnant car les priorités de ces efficiences sont différentes mais restent conjointement liées à l’évolution espèces et des techniques. Prenons un exemple. Il apparaitrait que l’efficience de type 2 favorise la maximisation adaptative des espèces vivantes, mais paradoxalement elle exacerbe l’épuisement des ressources naturelles. C’est la raison pour laquelle l’efficience de type 1 semblerait être une priorité selon les auteurs. D’ailleurs, à entendre Alfred Lotka, la domination de certaines espèces proviendrait de cette capacité à être les plus efficientes dans les éco-systèmes ; les systèmes complexes s’adaptent alors de manière cyclique. Rappelons-le, la production minimum entropique (E1) et le flux énergétique maximum (E2) sont antagonistes mais complémentaires. Certes mais dès lors qu’on s’attache à la quête de l’efficience, ce sont ses perceptions et leurs hiérarchisations de E1 et E2 qui affectent les systèmes adaptatifs complexes. Tout dépend du niveau d’analyse et de la place de l’observateur et du story-teller dans son système. Il semblerait aujourd’hui que c’est l’efficience de type 2 qui l’emporte. Cela n’a rien d’étonnant selon les auteurs Daly et Georgescu-Roegen car cette approche se rapproche des fondements de l’économie de marché.

Quelles efficiences à privilégier?

En réintégrant ce dualisme dans l’approche « holon » de Koestler, l’enjeu global de l’épuisement des ressources, et plus largement celui du développement soutenable, se confronte également à cette dualité micro et macroscopique. D’un côté, la vitesse d’adaptation est essentielle pour appréhender la qualité évolutionnaire et la diversité des systèmes écologiques sur le long terme. De l’autre, l’efficience métabolique favorise le phénomène de sélection. Dès lors, nous pouvons en déduire que les trajectoires technologiques sont également soumises à ce même principe dans lequel trois étapes circulaires peuvent contribuer au phénomène de sélection. Premièrement, la connaissance provenant du système social permet de définir des objectifs à atteindre en optant pour les possibilités les plus optimales. Par conséquent, les ressources disponibles apparaissent en plus grand nombre, multipliant ainsi le champ des possibles et la capacité d’adaptation. Or, cette dernière exacerbe d’autant plus l’épuisement des ressources naturelles, ce qui nous amène à nous focaliser à nouveau sur l’efficience de type 1. Il serait donc important selon les auteurs de ne pas négliger le cadre spatiaux-temporelles dans lequel se trouve les sociétés car la sélection engendre une « destruction-créatrice » qui supprime les connaissances et les options technologiques connues. Dès lors, comment les systèmes sociaux peuvent t-il s’adapter en prenant en compte l’efficience et l’adaptabilité dans une perspective de développement soutenable ? Cette question reste complexe et les réponses le sont d’autant plus. C’est pourquoi, Funtowicz et Ravetz nous rappelle que cette quête de la stabilité multidimensionnelle ramène directement les décisions à « la tragédie du changement » (Funtowicz,Ravetz, 1990). Il en résulte que cette quête d’un point d’équilibre représentée par l’efficience proviendrait des prises de décision qui résultent de plusieurs facteurs. Le phénomène de sélection dépend principalement des représentations des acteurs, du rôle des institutions et des cultures propres aux communautés qui s’inspirent de leurs expériences passées et de leurs visions du futur selon Giampietro (Giampietro, 1994).

Quelques pistes bibliographiques:

Kawamiya, Nobuo (1983) Entropii to Kougyoushakai no Sentaku (Entropy and Future Choices for the Industrial Society). Tokyo

Giampietro, Mario (1994) Using Hierarchy Theory to Explore the Concept of Sustainable Development. Futures 26(6): 616-625

Mayumi, Kozo (2001) The Origins of Ecological Economics: The Bioeconomics of Georgescu-Roegen: Routledge Research in Environmental Economics, London, 2001 : 161

Poster un commentaire

Classé dans Non classé

Mes lectures du moment (9)

C.H.

Voici quelques une de mes lectures en cours ou à venir :

* Micromotives and Macrobehavior, Thomas Schelling. J’avais survolé cet ouvrage il y a quelques années sans en apprécier le véritable intérêt. A sa relecture, je m’apperçoit qu’il s’agit d’une étude pionnière en sciences sociales pour tout ce qui concerne les effets émergents et les phénomènes complexes. Schelling fait partie de cette petite poignée d’auteurs capables, en quelques pages, de dévélopper une idée profonde en l’exprimant de manière simple. Je trouve que Schelling ressemble beaucoup à Coase de ce point de vue : un souci de partir des comportements et phénomènes réels et une capacité à expliquer ces comportements et phénomènes d’une manière qui peut paraitre "évidente" mais à laquelle personne n’avait pensé avant. A noter qu’il existe une traduction française de l’ouvrage.

* Prelude to Political Economy: A study of the Social and Political Foundations of Economics, et Beyond the Invisible Hand: Groundwork for a New Economics de Kaushik Basu. Basu est également un auteur intéressant à lire car il a la même capacité à exprimer les choses clairement. Le premier ouvrage est un véritable travail d’économie institutionnelle où Basu s’intéresse au rôle du droit et à l’évolution des normes et des conventions. Le second que je n’ai fait que feuilleter, semble développer une analyse assez critique de la théorie économique standard.

* Fact and Fiction in Economics: Models, Realism and Social Construction, coordonné par Uskali Mäki. Cet ouvrage collectif traite de la question plusieurs fois abordée ici du statut épistémologique des modèles.

* The Biology of Moral Systems, de Richard Alexander. Un ouvrage qui rentre dans le cadre de ce que l’on appelle "l’éthique évolutionnaire", approche qui consiste à expliquer nos règles morales à partir de l’évolution biologique. Bref, c’est de la sociobiologie.

1 commentaire

Classé dans Non classé

Les liens du matin (80)

C.H.

* "The Moral Heart of Economics" – Ed Glaeser

* "A People’s Economics" – Robert Shiller

* "Economic power begets political power" – Daron Acemoglu

* "Conflict and Cooperation: Week 1-2" – Cheap Talk

 

Poster un commentaire

Classé dans Liens

La vidéo du lundi : Akerlof sur la crise financière

C.H.

George Akerlof se prononce sur le rôle de l’hypothèse d’efficience des marchés dans la crise financière :

1 commentaire

Classé dans Trouvé ailleurs

Qu’est ce qu’un effet émergent ?

C.H.

J’ai été lire dans le détail l’article de Forsé et Parodi sur le modèle de ségrégation spatiale de Schelling que j’ai signalé l’autre jour. Il s’agit d’un article assez fascinant car il semble montrer que le modèle de Schelling, qui est l’objet de discussion intensive en économie, en philosophie, en sociologie urbaine depuis plus de 30 ans, ne produit finalement aucun résultat paradoxal ou même un tant soit peu étonnant. Je ne résumerai pas l’article ici, mais en deux mots les auteurs s’attachent à montrer que dans le modèle de Schelling, la relation entre préférences individuelles (le seuil d’insatisfaction des individus) et le degré de ségrégation au niveau macro (que les auteurs mesurent comme l’inverse du niveau d’ordre [au sens entropique] manifesté par le système) est approximativement linéaire. L’apparence d’un effet paradoxal selon lequel une relative tolérance individuelle engendrerait une ségrégation au niveau collectif s’expliquerait essentiellement par les contraintes structurelles du modèle, comme par exemple le fait que le seuil de tolérance pris par Schelling (< 1/3) ne correspond pas nécessairement à un nombre entier. Par conséquent, les auteurs montrent que l’intolérance effective est en moyenne plus élevée dans le modèle que ne le laisse supposer le seuil affiché (un individu qui a trois voisins ne sera satisfait que si pas plus d’un d’entre eux n’est pas de la même catégorie que lui, soit un seuil effectif de 2/3). Lire la suite

2 Commentaires

Classé dans Non classé

"Publish or Perish" : le dilemme du prisonnier dans la recherche académique

C.H.

Excellent article dans Le Monde sur la course à la publication qui est en train de s’institutionnaliser (ou de se généraliser) dans le monde de la recherche :

"En tentant de nous extraire de la masse, chacun de nous augmente les standards pour tous. Les décisions dictées par nos intérêts à court terme peuvent se révéler désastreuses à plus longue échéance. Ensuite, que faire ? Une solution serait d’être moins préoccupés, en tant qu’individus, par notre position relative dans l’échelle des publications. Toutefois, se retirer de la compétition revient de facto à abandonner la perspective d’un poste décent. En résumé, nous sommes prisonniers d’une course à l’abîme".

Les auteurs décrivent n’y plus ni moins ce qui est un dilemme du prisonnier : bien que tout le monde ait conscience que la course à la publication est socialement sous-optimale, chacun est individuellement et à court terme incité à publier plus que son voisin*. Cela était vrai aux Etats-Unis, ça l’est de plus en plus en Europe et notamment en France avec les modalités d’évaluation des laboratoires (et bientôt des chercheurs ?). Cependant, le problème ne vient pas des individus, mais bien des règles du jeu académique qui avec l’arrivée des pratiques de bibliométrie au ras des pâquerettes ne vont pas s’arranger.

Soyons clair, la fonction d’un chercheur est de produire de la connaissance (j’ai d’ailleurs appris récemment que l’AERES nous appelait maintenant les "produisants") et il est donc normal qu’il soit évalué sur ce plan. Mais la diffusion de la connaissance peut prendre de multiples formes : articles académiques, mais aussi ouvrages, articles de vulgarisation, communication en colloque… et blog. Parmi les solutions : accorder plus d’importance aux citations plutôt qu’au nombre de publication (critère imparfait mais dont les effets pervers me semblent moindre), prendre en compte la spécificité des disciplines et des sous-disciplines, valoriser les activités autres que la recherche académique pure. Et aussi réfléchir sérieusement aux limites de la bibliométrie et s’appliquer à les démontrer.

*Des lecteurs versés dans la théorie des jeux pourraient se dire que bien que nous soyons en présence d’un dilemme du prisonnier, celui-ci est répété indéfinement. Le folk theorem nous apprend que la coopération (traduire : le renoncement individuel à courir après la publication systématique) est théoriquement possible (mais pas le seul équilibre). Mais ce théorème n’est valable que sous des conditions assez strictes (petit nombre de joueurs, information publique) qui ne sont pas vérifiées ici. C’est donc clairement au niveau des règles du jeu (donc au niveau institutionnel) qu’il faut agir.

1 commentaire

Classé dans Trouvé ailleurs

Altruisme et égoïsme dans "Sciences Humaines"

C.H.

Le hasard (?) a fait que j’ai trouvé l’autre jour dans ma boîte au lettre le numéro de février de la revue Sciences Humaines dans lequel on trouve un dossier sur le retour de la solidarité. Le dosser comporte plusieurs articles intéressants sur l’altruisme chez les animaux et les Hommes, sur l’origine et les fondements de la morale, sur l’importance relative de l’égoïsme et de l’altruisme, etc. On peut trouver notamment une interview du primatologue Frans de Waal qui défend une vision naturaliste de la morale qui colle assez bien avec les approches évolutionnaires de la justice dont j’ai discuté dans un récent billet. de Waal va assez loin car il fait de l’empathie le mécanisme fondateur de la morale, chez les animaux comme chez les Hommes.

J’aurai deux remarques critiques à faire sur les articles du dossier qui abordent la question de l’altruisme. D’une part, sans trop de surprise, on y retrouve la classique critique de l’homoeconomicus réputé égoïste et porté en exergue par la théorie du choix rationnel, la théorie des jeux, le libéralisme. C’est un amalgame malheureux quand on sait que 1) les recherches sur l’altruisme et la coopération chez les animaux ont décollé à partir du moment où les biologistes ont commencé à utiliser… la théorie des jeux ; 2) ce qui définit l’individu rationnel, c’est un ensemble d’axiomes qui portent essentiellement sur la cohérence des préférences mais qui ne présupposent en revanche strictement rien sur leur contenu. Comme je l’ai déjà dit à de très nombreuses reprises ici, il ne faut pas confondre l’outil avec l’usage que certains économistes ou philosophes ont pu en faire. D’autre part, l’un des articles s’interroge longuement sur l’importance de l’altruisme et de l’égoïsme chez les individus. L’article aurait gagné en clarté et en pertinence s’il s’était appuyé sur la distinction entre cause ultime et cause de proximité : l’altruisme et plus largement la morale ont pour cause ultime les mécanismes de l’évolution biologique et culturelle, à commencer par la sélection naturelle. A ce titre, altruisme et morales peuvent se réduire à une maximisation "égoïste". Mais il ne faut pas confondre cet égoïsme ultime avec les mécanismes de proximité (c’est à dire psychologique) de l’altruisme qui peuvent (théoriquement) relever d’une logique authentiquement désintéressée (et le fait que l’on puisse décrire ces comportements désintéressés comme l’optimisation d’une fonction d’utilité ne change rien à cela puisque la théorie de l’utilité espérée ne fait aucune hypothèse sur les mécanismes psychologiques qui conduisent au choix).

Pour ceux qui souhaitent approfondir ce thème dans le cadre des sciences sociales, deux ouvrages sont incontournables : Moral Sentiments and Material Interests de H. Gintis et al. et A Cooperative Species de S. Bowles et H. Gintis (ce dernier est à paraitre et malheureusement la version provisoire n’est plus disponible sur le site de Gintis).

2 Commentaires

Classé dans Non classé

Quand les économistes influencent les coachs de foot US

C.H.

Je me suis fait plusieurs fois l’écho ici de recherches menées par des économistes montrant que les choix stratégiques des entraineurs de foot américain sont souvent sous-optimaux (voir ici et ). En clair, des études ont montré que les coachs sont trop conservateurs dans leur plan de match et dans leurs décisions à des moments clés : d’une part, ils ne tentent pas assez les 4ème tentatives dans le camp adverse et, d’autre part, ils privilégient trop la course au détriment de la passe qui est pourtant un moyen plus efficace pour gagner du terrain. Steven Levitt (qui est à l’origine de l’une de ces études) a remarqué une évolution sur ces deux plans durant la saison actuelle. Il relève que les Atlanta Falcons, l’une des meilleures équipes de la saison, a tenté près de 75% de ses 4ème tentative en terrain adverse et que par ailleurs le pourcentage de jeux offensifs utilisant la passe est passé de 54,7% l’année dernière à 55,4% cette année.

Je n’ai compilé aucune statistiques mais en tant que suiveur attentif du championnat de NFL qui consulte toutes les semaines les stats des matchs sur NFL.com, il me semble clairement que le jeu de passe prend de plus en plus d’importance dans le jeu offensif. Un exemple parlant sont les yards accumulés à la passe sur la saison par les quarterbacks. Cette saison, pas moins de 5 quarterbacks ont dépassé la barre des 4000 yards à la passe et ils étaient 10 l’an passé. En 1998, ils étaient 2 et seulement 1 en 1990. Il faudrait évidemment faire un traitement statistique plus élaboré mais mon impression est que la tendance depuis 20 ans est à un recours croissant au jeu de passe au détriment du jeu de course.

Ce point est assez intéressant quand l’on sait comment les entraineurs conçoivent leurs jeux offensifs et défensifs. Pour l’essentiel, la défense joue toujours en réaction par rapport à ce que propose l’attaque. Autrement dit, les alignements défensifs (nombre de linebackers, nombres d’arrières défensifs) et les schémas tactiques (blitz, couverture individuelle/zone, etc.)  sont déterminés en fonction de ce que l’on pense que l’attaque va faire étant donnée la situation. Les coachs offensifs en NFL ne cessent d’innover en mettant en place de nouveaux jeux, de nouvelles formations, etc. pour surprendre les défenses. Depuis une dizaine d’années, on constate que la grande mode en NFL sont les jeux à 5 receveurs sans coureurs et, de manière plus générale, des schémas offensifs dérivés de ce que l’on appelle la "west coast offense". Même mon équipe favorite, les Pittsburgh Steelers (toujours en cours cette saison), dont la tradition a toujours été de s’appuyer sur un jeu de course puissant et dominateur, s’est mise à jouer comme ça depuis 4-5 ans. Peu à peu, les coachs défensifs vont s’adapter à cette tendance et mettre au point des dispositifs pour contrer ces schémas offensifs. Mon intuition est que l’évolution conjointe des schémas offensifs et schémas défensifs est de type "hide and seek" : en clair, il s’agit pour l’attaque de trouver sans cesse de nouveaux dispositifs et pour la défense, avec un temps de retard, de trouver la parade. En clair, il y a peut-être une dynamique cyclique. Ainsi, il n’est pas exclu que dans les années à venir, le jeu de course revienne en force face à des défenses jouant systématiquement avec 5 voire parfois 6 arrières défensifs (que l’on met plutôt pour jouer contre la passe). Il serait intéressant de traiter les données statistiques sur les 60 dernières années pour voir si l’on ne peut pas trouver des traces de tels mouvements cycliques.

2 Commentaires

Classé dans Non classé

Le modèle de ségrégation de Schelling formalise-t-il un effet émergent ?

C.H.

En parcourant les revues disponibles dans la bibliothèque universitaire de mon université, je suis tombé sur le dernier numéro de L’année sociologique dans lequel figure un intéressant débat autour du modèle de ségrégation de Schelling. Un article de Michel Forsé et Maxime Parodi défend l’idée que le modèle de Schelling ne formalise aucun effet émergent et ne comporte aucune propriété de non-linéarité mais que le comportement macro du système est totalement issu des contraintes structurelles du modèle. Autrement dit, sans ces contraintes, il y a une relation linéaire entre préférences individuelles et niveau de ségrégation, contrairement à l’interprétation courante qui est faite de ce modèle. Voici l’abstract :

"Dans les années 1970, Thomas C. Schelling a proposé un modèle pour expliquer le lien entre ségrégation spatiale et préférences individuelles concernant cette ségrégation. Au moyen de simulations, il cherche à montrer qu’un haut niveau de ségrégation globale peut être le résultat collectif de décisions individuelles qui sont loin de viser une telle ségrégation. Cet article montre cependant que les contraintes structurelles du modèle expliquent intégralement les niveaux de ségrégation atteints. Une faible exigence individuelle pour s’entourer de voisins identiques conduit à une ségrégation collective faible et une exigence forte conduit à une ségrégation forte. Les niveaux de ségrégation correspondant à un seuil donné de satisfaction individuelle n’ont rien de surprenant en regard du hasard et de ce que chaque individu souhaite réellement. Le modèle de Schelling ne permet pas de conclure que, de manière générale, de larges ghettos naissent d’innocentes décisions".

Je n’ai fait que parcourir l’article ainsi que les réponses d’Alan Kirman et de Meredith Rolfe en diagonale mais il me semble important de noter deux points : 1) Schelling ne prétendait pas expliquer la ségrégation uniquement comme un phénomène émergent résultant de comportements individuels basés sur des préférences "tolérantes". La ségrégation est juste l’histoire qui vient donner de la substance au modèle, mais clairement l’intérêt de Schelling était d’abord analytique ; 2) à partir du moment où les préférences des agents ne portent pas sur l’état macro du système, ce dernier est nécessairement un effet émergent (la conséquence) des comportements micro, que la dynamique soit mathématiquement linéaire ou non. Un effet émergent n’est pas nécessairement quelque chose de contre-intuitif , d’inexplicable ou de magique. Au contraire, il doit pouvoir toujours se déduire des propriétés micro du système.

Pour le reste, les arguments dans l’article sont intéressants mais ma lecture en diagonale ne me permet pas de me prononcer dessus.

Poster un commentaire

Classé dans Non classé

Les liens du matin (79)

C.H.

* "Pourquoi l’économie n’est-elle pas une science ?" – Etienne Wasmer

* "Faut-il affamer les fonctionnaires ? Polanyi et les incitations "économiques"" – Denis Colombi

* "The decline of American economists and the European cultural revolution" – Worthwhile Canadian Initiative

* "The Imaginot Line" – Paul Seabright

* "Complexity, Spontaneous Order, blah, blah, blah… and Wow" – William Easterly

3 Commentaires

Classé dans Liens

Les modèles : outils d’expérimentation ou outils d’explorations ?

C.H.

J’ai déjà discuté à plusieurs reprises de la question fondamentale des statuts épistémologiques des modèles scientifiques, et plus particulièrement en économie. La thèse des modèles comme mondes crédibles proposée par Robert Sugden me semble séduisante mais elle n’est pas la seule. Uskali Mäki propose dans cet article une interprétation différente même si elle n’est pas forcément contradictoire avec celle de Sugden : voir les modèles comme des biais d’expérimentation (par la pensée) et voir les expériences contrôlées comme des modèles (matériels). Lire la suite

Poster un commentaire

Classé dans Non classé

Le paradoxe de Jevons : l’évolution des systèmes adaptatifs complexes et le défi pour l’analyse scientifique – 2/3

R.D.

L’évolution des systèmes adaptatifs complexes est un sujet qui soulève sans aucun doute l’intérêt des lecteurs de « Rationalité Limitée ». Il est d’autant plus intéressant d’étudier ce sujet lorsque l’on parle de développement durable et du paradoxe de Jevons. C’est la raison pour laquelle, ce billet fera, comme je l’avais promis dans un précédent billet, un condensé des travaux de la deuxième partie dans l’ouvrage intitulé « The Jevons paradox and the myth of resource efficiency improvements » de Polimeni, John M., Kozo Mayumi, et Mario Giampietro en 2008. Lire la suite

3 Commentaires

Classé dans Non classé

Comment les journalistes doivent-ils rendre compte des phénomènes économiques ?

C.H.

Un intéressant article de Télérama sur le traitement de la crise économique par les journalistes est signalé sur le forum d’Econoclaste. L’article insiste d’une part sur le problème de formation des journalistes et d’autre part sur le caractère biaisé des "experts" consultés par les médias. Cependant, comme le remarquent d’ailleurs certains commentateurs sur le forum, l’essentiel du problème n’est peut être pas là. Certainement, la formation économique de la plupart des journalistes laisse à désirer. A moins d’avoir fait une formation spécifique de journalisme économique (je sais qu’il existe quelques Master d’économie en France qui proposent un tel parcours), il ne faut pas s’attendre à ce qu’un journaliste soit capable de comprendre, et encore moins de rendre de manière satisfaisante, d’une crise financière ou autre phénomène dans le même genre. Néanmoins, quand bien même les journalistes seraient plus au point, cela ne résoudrait pas tous les problèmes.

En ce qui concerne le caractère biaisé des experts, cela se discute. Déjà, remarquons que l’article de Télérama est également biaisé car il laisse entendre que les "bons" économistes sont de gauche. En fait, les médias sont tous et en permanence biaisés, et pas seulement sur les questions économiques : Libération ou Marianne sont "de gauche" et vont plutôt interroger des "experts" de gauche, l’inverse pour Le Figaro ou Le Point.

Le problème plus fondamental tient à mon avis à la nature des phénomènes économiques (et de la plupart des phénomènes sociaux du reste), et notamment à leur caractère impersonnel. Depuis Adam Smith, l’économie s’est constituée comme la science sociale étudiant les mécanismes décentralisés et impersonnels, à commencer par le marché. Les phénomènes économiques résultent de l’action de personne en particulier mais de tout le monde en général. Cela est notamment vrai pour une crise financière. Cette dimension impersonnelle est particulièrement destabilisante car les médias grands publics tendent à personnifier l’actualité. C’est la raison pour laquelle, comme le relève l’article de Télérama, très rapidement les médias en sont arrivés à rendre compte de la crise financière au travers de personnalités telles que Bernard Madoff ou Jérôme Kerviel, produisant ainsi un effet loupe sur des aspects anecdotiques mais au combien symboliques, empêchant au final le public de comprendre les véritables rouages de la crise. Parfois, la personnification se fait de manière plus floue, comme l’exemple récent de la crise de la dette grecque dont la cause a été presque systématiquement ramenée aux "spéculateurs" ou aux agences de notation.

Mais fondamentalement, le problème ne vient pas des journalistes car ils ne font finalement que produire une explication qui est à peu près la seule audible par le grand public. Quiconque a déjà enseigné l’économie à des étudiants a pu se rendre compte de la difficulté à faire comprendre l’idée que beaucoup de phénomènes économiques sont plus que le produit de quelques volontés individuelles. Comprendre le fonctionnement du marché, comment celui-ci parvient à coordonner l’offre et la demande de manière décentralisée, est souvent difficile (les enseignants ont leur part de responsabilité d’ailleurs puisque souvent on commence à présenter le fonctionnement du marché au travers de la fiction du commissaire-priseur walrassien !). C’est également vrai d’ailleurs quand on veut démontrer "l’anti-main invisible", à savoir que des actions décentralisées peuvent donner lieu à des résultats néfastes. Quand on veut présenter une situation ayant la structure d’un dilemme du prisonnier à des étudiants, leur réaction est souvent de ne pas comprendre pourqui des individus rationnels ne peuvent pas voir qu’il y a une solution collectivement optimale.

Deux explications complémentaires et non exhaustives à ce fait me viennent à l’esprit. La première (que j’avais également développé ici), celle que défendrait un psychologue évolutionnaire, est que les hommes ont vécu pendant la majeure partie de leur histoire dans des petites communautés (jamais plus de 100 personnes) dans lesquelles ils avaient un contact physique et visuel avec tout le monde. Dans une petite communauté, il est plus facile d’identifier une personne responsable d’un phénomène donné. On peut même imaginer que nos capacités cognitives ont été sélectionné pour repérer les "tricheurs" ou, plus généralement, pour repérer des patterns et des relations de causalité spécifiques. Le problème, c’est que le monde économique d’aujourd’hui est infiniment plus complexe, qu’il est devenu impossible de remonter simplement la chaine de causalité pour repérer le "coupable" et que, plus fondamentalement, de tels coupables n’existent pas (j’avais appelé ça le "biais conspirationniste" dans un précédent billet).

Un autre explication, qui découle de la précédente, a trait au fait que la plupart des personnes ne perçoivent l’économie qu’au travers des leviers d’action (politiques) que l’on peut avoir dessus. Ici, la responsabilité incombe essentiellement aux hommes politiques, dont le fond de commerce est de prétendre qu’ils peuvent influer sur les phénomènes économiques. Comment influer sur quelque chose d’impersonnel ? Conceptuellement, ce n’est pas forcément évident à saisir, d’où cette tentation de toujours repérer le responsable. C’est à fois rassurant pour celui qui subit les phénomènes économiques, et valorisant pour celui qui cherche à se faire élire. Au final, les journalistes ne font finalement que répondre à une demande.

Il y a enfin un dernier aspect qui est problématique pour le traitement de l’information économique par les médias : l’économie, ce n’est pas de "l’actualité". Les phénomènes économiques sont le produit de causes à la fois multiples et historiques. La cause de la crise économique, ce n’est pas la chute de Lehman Brothers comme le traitement médiatique a pu parfois laisser le croire. C’est un faisceau de relations causales qui, pour certaines d’entre elles, remontent bien longtemps avant et dont il est difficile de déterminer le poids relatif. Comment rendre compte de cela étant données les contraintes de forme de la plupart des médias presse écrites/TV/radio. C’est d’ailleurs indiqué dans l’article de Télérama : la plupart des économistes sont réticents à aller dans les médias car il est impossible d’expliquer un phénomène économique en 30 secondes. Même une tribune dans la presse écrite est bien insuffisante et oblige à des raccourcis mettant en avant les biais de l’auteur. Les médias c’est de l’actualité quotidienne, ce qui veut dire pas de recul. Aux Etats-Unis, les blogs d’économie ont de ce point de vue comblé une lacune fondamentale, même s’il y a forcément un biais de sélection au niveau des lecteurs (la plupart des lecteurs de blogs d’économie sont déjà des personnes informées prenant du recul par rapport au traitement médiatique).

Sur un autre plan, on pourrait ainsi s’interroger sur le rôle des médias dans le développement de la crise. Cet article étudie la question au sujet de la dette grecque. 

4 Commentaires

Classé dans Divers