Peut-on modéliser l’émergence ?

C.H.

On peut trouver dans un récent numéro de la revue de philosophie Synthese un article de Fabio Boschetti (version librement accessible ici) qui défend l’idée qu’il est impossible, tout du moins en l’état actuel de nos connaissances, de rendre compte de manière formelle des processus d’émergence. Voici l’abstract :

I argue that much of current concern with the role of causality and strong emergence in natural processes is based upon an unreasonable expectation placed on our ability to formalize scientific knowledge. In most disciplines our formalization ability is an expectation rather than a scientific result. This calls for an empirical approach to the study of causation and emergence. Finally, I suggest that for advances in complexity research to occur, attention needs to be paid to understanding what role computation plays in this experimental approach.

La thèse de l’auteur a une portée toute particulière en ce qui concerne l’agent-based modelling (ABM), technique de modélisation de plus en plus utilisée en sciences de la nature et en sciences sociales. En effet, les partisans et utilisateurs de l’ABM indiquent souvent que leur approche est particulièrement adaptée pour étudier les phénomènes d’émergence qui caractérisent les systèmes naturels et sociaux complexes (voir par exemple le chapitre introductif de Joshua Epstein dans cet ouvrage ou encore cet ouvrage pionnier  en ce qui concerne la modélisation de sociétés artificielles de Robert Axtell et Joshua Epstein).

Le nœud du problème concerne la manière dont on définit le concept d’émergence. Dans le cadre de l’ABM, la plupart des auteurs ont une définition minimaliste de l’émergence : un ensemble de régularités au niveau macro qui n’est pas directement observable à partir des propriétés des entités qui composent le système au niveau micro. Boschetti de son côté, suivant en cela une partie de la littérature en philosophie de l’esprit, définit l’émergence dans un version forte : l’association d’un phénomène de survenance et d’un phénomène de causalité descendante. La survenance correspond plus ou moins à la conception de l’émergence dans l’ABM : une propriété M survient d’un ensemble de propriétés P si deux systèmes ayant le même ensemble de propriétés P possèdent nécessairement (logiquement) tous les deux la propriété M. La causalité descendante indique qu’une entité émergente possède des propriétés causales autonomes (indépendantes des propriétés à partir desquelles elle survient) qui ont le pouvoir d’agir sur les entités au niveau micro du système.

Si l’on adopte la version forte du concept d’émergence, ce que l’ABM modélise la plupart du temps n’est pas un phénomène d’émergence mais plutôt un phénomène de survenance où un mécanisme macro est constitué d’un ensemble de mécanismes micro. D’autres méthodes de modélisation, comme la modélisation analytique classique (à l’aide d’équations différentielles) font exactement la même chose. Prenons un simple exemple : certains biologistes ont montré que de nombreux processus d’évolution aux niveaux biologique et animal peuvent être décrit par l’équation de réplication :

dp/dt = p(u_x(p*)u*(p*))

Cette équation indique que l’évolution de la proportion d’un trait phénotypique x dans une population dans le temps (dp/dt) correspond au produit de la proportion p de ce trait dans la population avec la différence entre la valeur sélective u_x de ce trait étant donné la distribution p* des différents traits dans la population et la valeur sélection moyenne u* de l’ensemble des traits de la population. L’équation de réplication décrit un mécanisme macro qui peut être dérivé de plusieurs mécanismes micro différents. En biologie, le mécanisme micro en question sera souvent celui d’une forme de reproduction (sexuée ou asexuée) combiné à un mécanisme déterminant les taux de mortalité des organismes en fonction de leurs traits phénotypiques (au niveau social, on peut dériver la même équation par le biais d’un mécanisme micro d’imitation).

De nombreux ABM simulent ce type de mécanisme. Imaginez par exemple un modèle simulant l’évolution de l’altruisme sur un plan constitué de m*n « cases ». Sur chaque case, vous avez un « agent » qui peut être dans un des deux états suivants : « altruiste » (couleur bleu) ou « égoïste » (couleur rouge). Chaque agent est doté d’un capital x d' »unités de vie » et « meurt » lorsque ce capital tombe à 0. Par ailleurs, chaque agent vieillit et perd un certain nombre de points à chaque période. Nous sommes en temps discret et, à chaque période, le programme simule l’algorithme suivant : 1) les altruistes « partagent » une partie de leur capital avec leurs voisins (qui voient ainsi leur propre capital augmenter) tandis que les égoïstes ne font rien (hormis éventuellement recevoir des points de la part des altruistes); 2) le capital de chaque agent est diminué d’un nombre de points définit (le « vieillissement »); 3) les agents dont le capital tombe à 0 meurs et sont remplacés par de nouveaux agents dont le statut est déterminé de manière aléatoire selon une règle spécifique.

Le paragraphe précédent décrit un ensemble de mécanismes micro : mécanisme de vieillissement, mécanisme de mortalité, mécanisme de naissance, mécanisme d’altruisme. Une fois spécifiée l’état initial de la population (nombre d’altruistes et nombre d’égoïstes), on peut faire tourner la simulation. Le résultat final dépend bien entendu de la spécification précise des différents paramètres mais quoiqu’il arrive on fini par obtenir un pattern (une régularité) concernant l’évolution de la proportion d’altruistes dans la population. Ce pattern (qui peut être un cycle par exemple) correspond au mécanisme macro et peut être plus ou moins approximé de manière satisfaisante par une expression mathématique.

Il n’est pas difficile de voir que, par construction, le mécanisme macro exhibé par le modèle est nécessairement une survenance des mécanismes micro, lesquels sont eux-mêmes spécifiés par les lignes de code du programme qui définit le modèle. Dans ce contexte, un ABM peut-il générer une causalité descendante ? Cela revient à se demander si l’on peut introduire dans un ABM une « entité » qui ne soit pas définit par une ligne de code et qui malgré tout ait un impact sur le mécanisme macro. La réponse est bien entendu non. Dans son article, Boschetti indique qu’il y a une équivalence logique entre un système formel (mathématique) et un système « computationnel » ainsi qu’entre un système computationnel et la logique formelle : tous deux sont définis par un ensemble d’axiomes et de règles qui génèrent un output. Le seul moyen de changer l’output est de changer soit les axiomes, soit les règles, bref de modifier le système.

Pour comprendre les implications de cela, on peut reprendre l’expérience de pensée que propose Boschetti au début de son article. Imaginez que vous voulez étudier le comportement des individus dans le cadre d’un type d’interaction bien particulier. Pour cela, vous élaborez deux procédures :  une procédure expérimentale en laboratoire où vous faites jouer un « jeu » à de vraies personnes. D’autre part, vous écrivez un programme définissant un modèle ou des agents artificiels vont interagir selon les mêmes règles. Admettons maintenant que durant le déroulement de l’expérience, vous souhaitiez savoir dans quelle mesure le fait de rappeler aux participants une règle éthique particulière va modifier leur comportement. Expérimentalement, cela ne pose pas de problème, il suffit d’intervenir pendant l’expérience, d’évoquer d’une certaine manière la règle éthique aux participants, et de voir ce qu’il se passe. Pour ce qui concerne nos agents artificiels, les choses sont en revanche plus compliquées : il va falloir changer le programme, ce qui signifie arrêter la simulation et la recommencer à zéro. Dans le cadre expérimental, l’intervention de l’organisateur génère indirectement une causalité descendante : une norme sociale va modifier le comportement des participants. Dans le cadre de la simulation, l’intervention se fait nécessairement au niveau des inputs ou de l’algorithme des modèles, ce qui implique que seule la survenance est modélisée, pas la causalité descendante.

L’argument me parait extrêmement convaincant et souligne les limites de toute forme de modélisation dans sa capacité à saisir l’ensemble des phénomènes qui caractérisent le monde réel. Pour autant, je ne pense pas que cela signifie que l’ABM n’ait rien à nous apprendre sur les phénomènes d’émergence (au sens fort). Un modèle n’est pas une structure isomorphique au monde réel où il y aurait une correspondance parfaite entre les éléments du modèle et les éléments du monde réel. De ce point de vue, un modèle doit toujours être interprété et combiné avec d’autres sources de connaissance. Un modélisateur qui a conscience des limites formelles de son modèle est à même de l’utiliser de manière pertinente pour produire une connaissance partielle des phénomènes d’émergence. Ce qui est une erreur (comme le souligne Boschetti), c’est de croire que quelque chose qui n’est pas modélisable n’existe pas en réalité.

6 Commentaires

Classé dans Non classé

6 réponses à “Peut-on modéliser l’émergence ?

  1. Le phénomène d’émergence parait en effet à la fois dur à définir, dur à discerner, dur à comprendre, polymorphe.
    J’ai aussi comme l’impression qu’il s’y cache un biais : l’émergence d’une structure serait une tentative réussie, et les tentatives échouées ardemment possibles à observer.

    En revanche, j »imagine que la non linéarité des systèmes doit y être pour quelque chose, et les probabilités aussi…
    Avez vous une bibliographie mathématique sur spécifiquement l’émergence qui ferait intervenir des équations différentielles (jeux diff, contrôle, transport optimal)?

  2. Gu Si Fang

    Je ne comprends pas bien la notion de causalité descendante. Si la propriété émergente macro est conséquence des hypothèses micro, le facteur causal est micro donc horizontal et non descendant. S’il y a une propriété macro dans le modèle, indépendamment des hypothèses micro, on ne parle pas de propriété émergente. Un exemple ? Merci !

  3. circusmaestro

    Merci pour ce billet. Il faut appeler Henri Bergson à la rescousse car la clé épistemologique et ontologique est probablement liée à notre notion du temps. Le temps n’est pas quantifiable. Il est dans son essence, qualitatif. Il faut donc utiliser notre intuition pour saisir la durée dans le processus d’émergence.

  4. C.H.

    @Adrien : Je n’ai pas de références biblio spécifiques sur cet aspect. C’est d’ailleurs quelque chose que je devrais regarder. Il y a peut être quand même ça :

    Boschetti F., Gray R. (2007), « Emergence and computability », Emergence and Computability, vol. 9(1-2): 120-130.

    @GSF: C’est tout le problème avec la notion de causalité descendante et la raison pour laquelle de nombreux philosophes de l’esprit la rejettent. Une entité M est émergente si 1) elle survient d’un ensemble d’entités P mais 2) qu’elle dispose de propriétés (causales) non réductibles à l’ensemble P. Est-ce que c’est possible (cohérent) et est-ce que cela existe dans la nature soulève des problèmes ontologiques, logiques et empiriques. Ce qui est sûr (il me semble), c’est que par nature un modèle (mathématique ou computationnel) ne peut pas intégrer une telle entité.

    Un exemple d’entité émergente dans le monde social serait une norme sociale quelconque : une norme ne peut exister que s’il y a des individus pour la suivre et toute modification du comportement des individus change la norme (survenance), en même temps la norme à une forme d’extériorité qui fait que pour déterminer son comportement, un individu va se référer (cognitivement) à la norme et non au comportement des autres individus. On peut voir cela comme une forme de causalité descendante. Remarquez que dans un billet récent j’ai toutefois pris mes distances avec ce concept :

    Mécanismes et causalité inter-niveaux

  5. @CH et GSF: J’en avais déjà parlé, et même si le modèle a ses limites évidentes, les jeux à champs moyens sont une belle idée à développer sur ce point. Le champ moyen est une théorie qui permet de concevoir l’ensemble des acteurs (ou particules) sans avoir à étudier précisément chacun d’eux. Il est formé comme synthèse des individus dans une dimension (leur position géographique, leur acceptation d’un comportement), et en retour agit sur tous. Historiquement, l’utilisation en physique est celle de de la pression : concept qui est calculé à partir de l’ensemble des atomes d’un système fermé et qui agit sur eux, et beaucoup plus simple à étudier que les milliards d’atomes dans ce système.

    Bien sûr, il faut a priori définir quel est le champ moyen, donc quelle est la norme qui émerge, mais en ce qui concerne l’interaction et la causalité descendante, on a bien ce qui est décrit, encore qu’il s’agit d’un équilibre (de type Nash dynamique).

    Les illustrations faites sont les suivantes : la mexican wave dans un stade, ou le temps d’applaudissements après un spectacle. On a un phénomène qui est groupé, « normalisé », influençant les gens du stades ou spectateurs, mais issus d’eux d’une certaine manière.

    Il y a d’ailleurs un point intéressant à exploiter dans l’émergence, c’est la disparition du phénomène (notamment la vague dans le stade a été bien étudié). Si on est obligé dans le modèle de partir d’une vague existante (donc elle n’émerge pas) on a en revanche des conditions de disparition (on pourrait dire que la « non vague » émerge?). Par inversion du temps (cela n’a pas de sens dans le modèle) peut être peut on essayer de voir quelles sont les conditions minimales d’émergence du champ… J’aimerai bien étudier cela…

    Conclusion : on n’est pas exactement dans le cas d’émergence, ni de causalité descendante, mais les analogies sont fortes (surtout si on ne fait pas de distinction entre norme et comportement des autres, ou mode). Il n’y a plus là de causalité, mais un équilibre, ou perpétuel aller retour de la norme aux individus.

  6. elvin

    Encore un assez long commentaire, mais vos billets invitent vraiment à une réflexion approfondie.

    « only certain processes can be modeled »

    Je pense que le problème ne se pose pas comme ça. La question « un processus peut-il être modélisé ? » n’admet pas une réponse par oui ou par non. Pour modéliser et formaliser, on doit introduire des hypothèses simplificatrices qui dépendent du langage de représentation et de la technique de « résolution » (analytique, par simulation ou autre). A chaque nouvelle hypothèse, le modèle s’écarte un peu plus de la réalité, et il arrive un moment où cet écart est tellement grand que le modèle perd toute utilité. En fait, tout processus peut toujours être modélisé, mais de façon plus ou moins exacte, plus ou moins précise et plus ou moins utile.

    Par d‘accord sur l’affirmation trop générale de l’équivalence entre ABM et modélisation analytique. Elle est peut-être vraie, et encore c’est à voir, quand les deux reposent sur les mêmes hypothèses, autrement dit quand ce sont deux formalisations différentes d’un même modèle abstrait. Mais la plupart du temps, un ABM nécessite et contient beaucoup moins d’hypothèses simplificatrices qu’un modèle analytique. Un ABM peut (et c’est son intérêt) conserver des facteurs que le modèle analytique du même système réel élimine, notamment l’hétérogénéité des agents, qui est souvent cruciale pour étudier l’émergence. Il en résulte que, dans la pratique, le modèle abstrait sous-jacent à un ABM ne peut généralement pas être traduit en un modèle analytique, et donc la question de l’équivalence des deux est vide de sens.

    Sur la causalité, je note avec plaisir que Boschetti en adopte la même définition restrictive que moi, en disant que c’est une relation qui n’a de sens qu’entre évènements, et même plus précisément pour lui (et je présume dans le cas des sciences sociales) pour des interventions humaines. En citant Pattee : « Causality should be attributed to the level(s) at which we can intervene », il adopte une conception anthropique, centrée sur l’action humaine (tiens, tiens…)

    Dans la même veine, il devrait dire qu’une convention sociale n’a d’existence réelle que dans l’esprit d’individus, et ne peut avoir de pouvoir causal que si elle est adoptée par des individus. La causalité va d’une action d’un individu dans le contexte de ses croyances à une ou des actions d’autres individus qui réagissent aux actions du premier dans le contexte de leurs propres croyances. Toute relation causale éventuelle est donc toujours horizontale et en aucun cas « descendante ».

    Des croyances peuvent être partagées sans qu’il soit nécessaire de postuler l’existence au niveau supérieur d’une entité « convention » qui aurait un effet causal descendant, ni d’introduire une telle entité dans le modèle. Mais il peut être commode de le faire, car comme vous le dites « Un modèle n’est pas une structure isomorphique au monde réel où il y aurait une correspondance parfaite entre les éléments du modèle et les éléments du monde réel. » Effectivement ça n’est pas nécessairement ça, mais ça peut aussi être ça.

    Par exemple, un changement dans le monde réel peut être modélisé si la caractéristique modifiée est représentée dans le modèle, et d’une façon telle que la modification du système réel peut également y être représentée. En revanche, un changement dans le modèle peut ne correspondre à aucun changement réalisable dans le monde réel.

    Quant à l’émergence, je définirais une propriété émergente d’un ensemble comme une propriété qui n’est pas une propriété de ses éléments pris individuellement, mais résulte collectivement de leurs actions.

    Dernier point relatif à la phrase de Boschetti : « In a formal (thus closed) system, there is no space for conceiving multiple outcomes: Events either happen or not, and when they happen they do so in a manner rigorously prescribed by the logical entailment originating in system axioms and rules ». C’est vrai pour un modèle analytique, pas pour un ABM où l’intervention du hasard est possible et où de ce fait deux exécutions du même modèle à partir des mêmes conditions initiales peuvent donner des résultats différents.

Laisser un commentaire