Simplicité, réalisme et mécanismes

Tom Slee, sur les vertus de la simplicité :

« The goal of simulations is not always to reproduce reality as closely as possible. In fact, building a finely-tuned, elaborate model of a particular phenomenon actually gets in the way of finding generalizations, commonalities, and trends, because with an accurate model you cannot find commonalities. (…)


in economics, think of Paul Krugman’s description of an economy with two products (hot dogs and buns). Silly, but justifiably so. In fact, read that piece for a lovely explanation of why such a thought experiment is worthwhile.

Or elsewhere in social sciences, think of Thomas Schelling’s explorations of selection and sorting in Micromotives and Macrobehaviour, or of Robert Axelrod’s brilliantly overreaching The Evolution of Cooperation, which built a whole set of theories on a single two-choice game and influenced a generation of political scientists in the process. All these efforts work precisely because they look at simple and even unrealistic models. That’s the only way you can capture mechanisms: general causes that lead to particular outcomes. More precise models would not improve these works – they would just obscure the insights« .

Cela rejoint la discussion qui s’est développée sous ce billet, au sujet des « agent-based models« . Effectivement, il s’avère que les meilleures explications scientifiques sont souvent les plus simples. Quel est le but premier de la science ? Expliquer les mécanismes sous-jacents aux phénomènes que l’on observe empiriquement. Par exemple, j’observe que le soleil se lève tous les jours à l’est. Quel mécanisme explique ce phénomène ? Pour prendre un exemple en sciences sociales, on constate une tendance à la concentration ethnique dans la localisation urbaine des populations. Quel(s) mécanisme(s) explique(nt) ce phénomène ?

Le but de toute modèle ou de toute théorie est, de ce point de vue, de fournir un éclairage concernant ces mécanismes. Le critère du « réalisme » pour évaluer la pertinence d’une théorie n’en est pas un : déjà parce que le réalisme totale n’existe pas et ensuite parce que le degré de réalisme n’indique rien de la capacité d’une théorie à éclairer des mécanismes fondamentaux. A la rigueur, au contraire : plus un modèle est « réaliste », plus il est complexe et moins il est facile à interpréter. On peut ajouter une troisième objection au critère du réalisme : comment sait-on ce qu’est la réalité ? Ce n’est pas faire oeuvre de constructivisme radical que de dire ça. On peut très bien considérer que la réalité a une existence indépendante des représentations que l’on en a (réalisme ontologique) mais qu’il est impossible d’en avoir une connaissance directe. Un peu comme la distinction noumène/phénomène chez Kant. Dès lors, si l’on ne peut accéder à la réalité que par l’intermédiaire des concepts (qui peuvent former modèles et théories), il est impossible d’évaluer le « réalisme » d’une théorie ou d’un modèle. En fait, à la limite, on ne devrait jamais parler de « réalisme », mais de complexité.

Est-ce à dire qu’il faut renoncer d’emblée à toute modélisation complexe, du genre des agent-based models et autres joyeusetés du même genre. Pas forcément. Si on y regarde bien, les ABM sont des versions plus complexes des modèles développés par Axelrod ou Schelling. Ils reposent exactement sur les mêmes principes, visent à étudier les mêmes phénomènes d’émergence, mais sont plus complexes dans le sens où ils incorporent plus de variables et de paramètres. Un raisonnement économique nous indique que la « montée en complexification » des modèles peut se poursuivre jusqu’à que l’utilité marginale de cette complexification (forcément décroissante à partir d’un moment donné) égalise son coût marginal (qui est toujours croissant, notamment en terme de temps et de ressources). En pratique, il est bien sûr bien difficile de dire à quel point l’on se situe par rapport à ce point d’équilibre.

Il est difficile de dire si les ABM ou autres types de modélisation similaires sont l’avenir de l’économie. Par contre, il y a un mouvement qui me parait être en marche depuis un petit moment. Il a au moins deux caractéristiques : d’une part, l’époque des théories « simples » mais ultra-généralisantes semble révolu. En d’autres termes, nous sommes passés à l’ère post-walrassienne. D’autre part, l’économie évolue de plus en plus vers l’étude du spécifique. Cela se voit d’abord avec la montée incontestable des études empiriques et ensuite dans les outils théoriques eux-mêmes. La théorie des jeux, si l’on met de côté le cas particulier des « raffinements » du concept d’équilibre qui relèvent autant des mathématiques que de l’économie (et qui semble de toute façon largement révolue lui aussi), est plutôt de nature à souligner la difficulté à trouver des théorèmes généralistes. Cela en raison d’abord du problème des équilibres multiples et ensuite parce qu’elle souligne la forte contingence du résultat à la valeur des paramètres.

Il se trouve que les ABM soulignent la même chose, ce qui n’est pas étonnant puisqu’ils sont largement ancrés sur la théorie des jeux. Le pouvoir généralisant de ces formes de modélisation est à mon avis très faible, justement parce qu’elles sont complexes. La complexité n’a de sens que si elle va de pair avec la spécificité : le but n’est plus forcément de révéler de grands mécanismes généraux (comme peuvent le faire des modélisations simples comme le modèle de Schelling) mais plutôt de pouvoir éclairer des phénomènes historiquement bien identifiés, sur lesquels on dispose de connaissances déjà relativement développées, qui aideront à construire le modèle plus pertinent. Bref, du couple simplicité/généralité, peut être va-t-on évoluer vers le couple complexité/spécificité.

1 commentaire

Classé dans Non classé

Une réponse à “Simplicité, réalisme et mécanismes

  1. elvin

    Expliquer les phénomènes observables complexes par l’action combinée de mécanismes simples, c’est la démarche de toutes les sciences, et c’est celle qui a été adoptée par les économistes classiques et théorisée par Say et JS Mill entre autres. Elle est cohérente à la fois avec l’utilisation de modèles simples (et donc abstraits) pour représenter ces mécanismes simples et de modèles complexes pour représenter les phénomènes observables, par définition complexes, qui résultent de la combinaison et des interactions des mécanismes simples.

    En revanche, ces auteurs classiques voient une différence essentielle entre les sciences humaines (dont l’économie) et les sciences de la nature où l’homme n’intervient pas. Pour eux, les faits élémentaires qui forment l’explanans ultime des sciences humaines sont eux-mêmes validés par l’expérience de notre propre comportement et non réfutables par l’expérience. C’est ce qu’on appelle l’apriorisme, qui fonde le dualisme méthodologique (différence radicale de méthodes entre sciences humaines et sciences physiques). Cette position épistémologico-méthodologique a été conservée par la tradition autrichienne alors qu’elle était abandonnée par Walras et les néoclassiques.

    Dans cette conception, le terme de « modèle » peut avoir un sens différent. En effet, il ne convient pas pour représenter les mécanismes élémentaires où les faits originels ne sont pas hypothétiques comme en physique, et où les relations causales sont purement logiques et donc nécessaires. En revanche, il convient pour représenter les interactions de ces mécanismes, mais alors ils sont par définition complexes et leur forme naturelle est celle de l’ABM.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s