Rationalité et « group agency »

Pour ce billet de rentrée, je vais revenir assez brièvement sur un ouvrage très intéressant et très important que j’ai lu il y a quelques mois, Group agency : The possiblity, design, and status of corporate agents de l’économiste Christian List et du philosophe Philip Pettit. Je ne ferai pas de résumé détaillé du bouquin (ceux qui veulent en savoir plus peuvent aller voir sur les sites perso des deux auteurs, ou bien regarder la petite bibliographie que j’ai mis dans le syllabus de mon cours de systémique à la séance n° 5) mais je rappellerai quand même le propos général de List et Pettit (LP). Il s’agit pour les auteurs de s’interroger sur les conditions à partir desquelles un groupe, composé d’agents individuels répondant à certains critères minimaux de rationalité, va être en mesure d’émettre des jugements répondant également à ces mêmes critères de rationalité. Chaque agent émet des jugements individuels sur un certain nombre de propositions, ces jugements sont agrégés à partir d’un mécanisme particulier, et on obtient ainsi un ensemble de jugements collectifs. LP sont à la base d’une littérature, connexe à celles sur l’agrégation des préférences (paradoxe de Condorcet, théorème d’impossibilité d’Arrow), qui montre que l’agrégation de jugements n’est pas quelque chose de trivial, dans le sens où il apparait que bien souvent, des individus rationnels vont produire des jugements collectifs incohérents. Le « dilemme discursif », qui sert de cas générique aux auteurs pour développer leur réflexion, suffira à illustrer le problème.

Imaginez un jury composé de trois professeurs devant décider de la titularisation d’un de leur collègue (nous sommes dans le contexte anglo-saxon de la tenure). Chaque membre est appelé à se prononcer sur trois propositions : le candidat est-il un bon enseignant (proposition p) ? le candidat est-il un bon chercheur (proposition q) ? doit-on titulariser le candidat (proposition r) ? Concernant cette dernière proposition, il est admis que chaque membre du jury connaît et accepte la règle selon laquelle on ne peut titulariser un candidat que s’il est à la fois un bon chercheur et un bon enseignant. Par conséquent, cette troisième proposition peut s’écrire r ↔ (p & q). Imaginons la configuration suivante où les membres votent à la majorité sur chaque proposition :

p

q

r

r ↔ (p & q)

Membre 1

Vrai

Vrai

Vrai

Vrai

Membre 2

Vrai

Faux

Faux

Vrai

Membre 3

Faux

Vrai

     Faux

Vrai

Groupe

Vrai

Vrai

Faux

Faux

On constate grâce à la quatrième colonne que chaque membre émet des jugements cohérents (qui respectent la règle logique prédéfinie). Mais, lorsque l’on agrège ces jugements, on constate que la cohérence individuelle disparait au niveau collectif : le groupe juge collectivement qu’il ne faut pas titulariser le candidat alors même que sur les deux propositions « atomiques », ce même groupe juge que le candidat est un bon enseignant et un bon chercheur. On parle de dilemme parce que les deux méthodes pour aboutir un jugement collectif, la méthode des prémisses (on agrège les jugements sur les propositions atomiques, puis on déduit la conclusion) et la méthode des conclusions (on agrège les jugements sur la conclusion pour obtenir le jugement collectif), débouchent sur deux propositions contradictoires. Une bonne partie de l’ouvrage de LP vise à montrer que ce problème est général et qu’il ne peut être résolu que si on ampute la fonction d’agrégation des jugements de certaines propriétés.

Je m’arrête là sur l’objet principal de ce livre, mais j’insiste sur le fait que les résultats de LP sont très importants et qu’ils vont très loin dans l’exploration des problèmes liés à l’agrégation des jugements, au-delà du dilemme discursif. Je vais m’intéresser pour le reste de ce billet à quelque chose qui semble secondaire dans l’ouvrage, mais qui est pourtant essentiel (comme le titre du livre nous le rappelle) : qu’est-ce qu’un agent et surtout à quelles conditions un groupe peut-il être considéré comme un agent ? L’étude approfondie que font LP de la question de l’agrégation des jugements est en fait une étape intermédiaire dans le traitement de la problématique générale relative aux propriétés d’un groupe agissant comme un agent. Reconnaitre au groupe la capacité d’être un agent (dans un sens sur lequel je vais revenir) est important, par exemple, pour pouvoir le considérer juridiquement responsable. La question est donc essentielle. La première partie de l’ouvrage et notamment le premier chapitre est donc consacrée à la définition de la notion de « group agency ». LP s’emploient à élaborer des critères raisonnables que tout agent doit satisfaire pour être considérés comme tel. Il s’en dégage trois :

  • L’agent doit posséder ce que les philosophes de l’esprit appellent des états intentionnels, c’est des états portant sur la relation entre l’agent et son environnement. On distingue les états représentationnels décrivant l’environnement de l’agent (ex : les croyances) et les états motivationnels décrivant comment doit être l’environnement du point de vue de l’agent (ex : les désires).
  • L’agent doit pouvoir intervenir sur son environnement en utilisant ses états intentionnels.
  • L’agent doit répondre à certains critères de rationalité qui se trois ordres : ‘attitude-to-facts’, ‘attitude-to-action’ et ‘attitude-to-attitude’. Le premier ensemble de critères détermine les représentations correspondant à l’environnement, le deuxième détermine les motivations adaptées à l’environnement, le dernier définie notamment une condition de cohérence. Un agent rationnel ne peut pas par exemple posséder un état intentionnel qui suppose que deux propositions contradictoires soient vraies.

LP indiquent aussi qu’à un niveau de sophistication plus élevé, l’agent doit être capable de raisonner, c’est à dire de repérer et de corriger de lui-même ses déviations par rapport aux critères de rationalité. C’est sur cette base là que LP établissent un théorème d’impossibilité concernant l’agrégation des jugements, démontrant qu’une fonction d’agrégation répondant à certains axiomes ne peut pas préserver la rationalité des jugements au niveau collectif.

Lorsque j’ai lu l’ouvrage, cette conceptualisation de l’agent ne m’avait pas choquée outre mesure. Après tout, la nature même de ce type de travail (vérifier si une fonction d’agrégation peut préserver certaines propriétés) nécessite au préalable de définir ces propriétés par des axiomes plus ou moins arbitraires. Mais je suis tombé hier sur une critique assez forte de l’approche de LP proposée par Robert Sugden (article disponible sur demande), dont on sait qu’il est un important contributeur à la littérature sur le raisonnement collectif (littérature que LP ne citent qu’en passant). Sugden reproche à LP de baser toute leur analyse sur une définition a priori de la rationalité qui n’est finalement rien de plus que celle de la théorie de la décision standard, alors même que celle-ci ne correspond pas aux comportements réels des agents. Je met ici quelques passages représentatifs de cette critique :

 ‘Standards of rationality’ are presented as if they were the demands of some normative authority that lays down rules or requirements about what agents may and may not think. It is never clear what this authority is, or why its demands have force; but we (the readers) seem to be expected to accept List and Pettit’s claims to speak on its behalf (p. 270)

So if an organism or system is to count as an agent, it must act sufficiently like the agents modelled in rational choice theory. It must hold beliefs that can be represented as mutually consistent propositions, and which correspond with the available evidence. It must have desires (or ‘goals’) that can be represented as further, mutually consistent propositions. And it must choose the actions that best serve its desires, given its beliefs (pp. 24–25). List and Pettit magnanimously permit occasional mistakes, but (in a way that is reminiscent of Maoist self-criticism) demand that agents continually monitor their thoughts and actions for deviations from rationality and strive to correct these (p. 270)

In other words, the group must organize itself in such a way that it can solve the problem of judgement aggregation. But how does all this follow from the premise that we attribute agency to groups by recognizing that those groups perform like human beings do when they think of themselves as the authors of their individual actions? The only way I can see of linking the conclusion to the premise is by adding another premise, namely that when human beings think of themselves as the authors of their individual actions, the actions they take are generally consistent with conventional decision theory (and that if they find that they have accidentally contravened the theory, they engage in self-criticism). But that premise is disconfirmed by a huge body of experimental evidence collected by cognitive psychologists and behavioural economists. (p. 271)

 Après réflexion, cette critique ne me parait que partiellement convaincante. Pour bien la comprendre (et comprendre sa limite), il faut noter, comme Sugden le fait et comme LP l’indiquent explicitement, que la conceptualisation de la notion d’agence dont il est question ici est basée sur les travaux de Daniel Dennett et de son fameux concept du « point de vue intentionnel » (intentional stance). D’après Dennett, nous utilisons de manière routinière les concepts de la « folk psychology » (désires, intentions, croyances…) parce que ces concepts sont utiles pour expliquer et prédire le comportement d’entités diverses : humains, animaux mais aussi machines plus ou moins sophistiquées. Dans le cadre du point de vue intentionnel, un agent est définie par le fait que l’on puisse lui attribuer des états intentionnels permettant de prédire son comportement. Cette approche trouve son fondement dans le paradigme computationnel aujourd’hui dominant dans les sciences cognitives et la philosophie de l’esprit. Un parallèle avec le test de Turing notamment peut être aisément fait : si l’on vous fait « dialoguer » avec une machine sans que vous ne puissiez voir votre interlocuteur et qu’à l’issue de la conversation vous pensez avoir parlé avec un être humain, alors la machine a passé le test et on considère qu’elle a fait état des même facultés d’intentionnalité que vous et moi. C’est exactement l’idée de LP : si le groupe manifeste par ses attitudes (jugements, croyances, désires, intentions, actions) des propriétés d’intentionnalité qui sont celles que l’on attribue à un agent, alors ce groupe est lui-même un agent, peu importe son fonctionnement interne. Bien sûr, dans de très nombreux cas, notamment lorsque le point intentionnel est utilisé concernant une machine (et de manière plus controversée, pour les animaux), l’intentionnalité est « dérivée », elle n’est pas intrinsèque à l’agent. Toutefois, Dennett n’est pas instrumentaliste : de son point de vue, l’intentionnalité et plus largement « l’agency » n’ont pas d’autres propriétés que celles qui se manifestent dans le comportement. Il n’y a pas « d’ontologie à la première personne » de la conscience ou de l’intentionnalité, comme pourrait le défendre, par exemple, John Searle.

Où cela nous mène-t-il concernant la critique de Sugden ? Je pense que Sugden va trop vite lorsqu’il déduit de l’adoption par LP du point de vue intentionnel à la Dennett la conclusion que ces derniers imposent à tort la conception restrictive de la rationalité de la théorie standard.. Et il est vrai que le point de vue intentionnel comme la théorie de la décision amènent à utiliser les catégories de la « folk psychology ». Mais il n’en découle pas que l’un est réductible à l’autre. On peut bien sûr être en désaccord avec l’approche de Dennett, mais il ne me semble pas qu’elle débouche sur des critères de rationalité aussi stricts que ceux de la théorie de la décision. On rappellera que cette dernière repose sur trois axiomes significatifs (complétude, transitivité, continuité) auxquels il faut en ajouter d’autres dès lors que l’on raisonne en univers risqué et incertain. Ces axiomes sont souvent très forts et, effectivement, démentis en partie par l’économie comportementale. Cela dit, cela n’affecte pas l’approche de Dennett. Pour s’en convaincre, on peut se poser la question suivante : peut-on imaginer un agent ne possédant pas les trois propriétés listées plus haut ? Je veux dire par là, aurions-nous tendance, intuitivement, à considérer comme un « agent » une entité incapable d’agir avec son environnement, ou bien agissant avec son environnement de telle sorte que son comportement paraisse et soit effectivement totalement aléatoire ? La réponse est clairement non.

Maintenant, l’objection de Sugden n’est pas celle-là. Il s’agit plutôt de dire qu’au quotidien des individus, que nous n’hésitons pas à définir comme des agents, se comportent de manière « irrationnelle », incohérente, etc. Le fait qu’ils ne satisfassent pas à certains critères de rationalité devraient donc nous amener à ne plus les considérer comme des agents. La réponse à cette objection est la suivante (voir ce qu’en dit Dennett ici) : la « rationalité » d’un agent doit se définir de manière holistique, générale, dans le sens où elle est le produit d’une histoire évolutionnaire. L’incohérence peut être « rationnelle » du point de vue d’un agent parce que cette incohérence peut le rendre imprévisible et donc plus difficile à exploiter. Faire des erreurs ponctuelles peut être « rationnel » parce que évolutionnairement parlant, l’alternative aurait été de faire des erreurs moins souvent mais de plus grande ampleur. Ce qui est sûr, c’est que l’on ne peut pas imaginer un agent totalement incohérent : imaginez un système dont le comportement est gouverné par deux modules totalement indépendants. Si les « ordres » émanant de ces deux modules ne sont pas corrélés d’une manière ou d’une autre (par l’environnement par exemple), le comportement du système sera complètement aléatoire. Aucun individu n’a un comportement totalement aléatoire. Même dans les cas évidents dits de « non-rationalité » comme l’actualisation hyperbolique et les phénomènes de regret, on est quand même en mesure de repérer des patterns comportementaux.

Remis dans cette perspective, la position conceptuelle de LP ne me parait pas dénué de sens. Les exigences épistémiques et pratiques que nous avons à l’égard des organisations et des groupes sont généralement plus fortes qu’à l’égard des individus. Plusieurs raisons peuvent expliquer cela, l’une d’entre-elle étant qu’une organisation à un pouvoir de nuisance plus important qu’un simple individu. Reprenons l’exemple du comité de recrutement mais où le jury n’est plus constitué de 3 mais d’une vingtaine de membres : la cohérence des membres du jury parait être une exigence raisonnable mais on peut imaginer qu’une éventuelle incohérence dans un ou quelques jugements individuels passera inaperçue. En revanche, personne (en particulier le candidat) n’accepterait que le jury comme groupe soit incapable de rendre des jugements cohérents. Pour résumer, les standards habituellement utilisés pour attribuer le statut d’agent peuvent être assez souples (bien plus faibles que ceux de la théorie de la décision par exemple), mais dans le cas des groupes, nos exigences épistémiques tendent à être plus élevées, notamment en raison des capacités d’action de groupes organisés.  Par conséquent, un groupe ne possédant pas ces qualités « d’agence » n’auraient pas pu évoluer.

Publicités

2 Commentaires

Classé dans Non classé

2 réponses à “Rationalité et « group agency »

  1. elvin

    Ce billet me rappelle un travail que j’ai effectué il y a déjà quelques années, et qui s’était traduit par un bouquin pour lequel je n’ai jamais trouvé d’éditeur. Je vous en ai préparé quelques extraits ici :
    https://docs.google.com/file/d/0B5F7IJ139_KDcVdkRjFaS3oyU1U/edit

    Ma perspective est un peu différente : elle vise à proposer un mode de représentation des entités économiques, quelles qu’elles soient, dans une optique analogue à l’Agent-Based Modeling. Ce mode de représentation est donc fortement inspiré du langage informatique.
    La question que j’aborde dans ces extraits est « à quelles conditions peut-on représenter un agrégat d’agents par une entité ayant les mêmes caractéristiques qu’un agent ? », ce qui n’est
    pas tout à fait la même chose que « un agrégat d’agents est-il un agent homologue à un être humain ? » (pour moi, au sens strict, la réponse est de toute évidence non). La question que vous posez dans l’article en est un cas particulier.
    Si vous avez envie d’utiliser ces idées dans votre propre travail, j’en serais heureux. Parlons-en.

  2. Gu Si Fang

    La question semble être de savoir si l’objet étudié est « vraiment » un agent ou s’il se comporte seulement « comme » un agent. Pour LP, l’intentionnalité, la rationalité et les mécanismes de feedback sont seulement des hypothèses commodes que l’on peut juger a posteriori par leur aptitude à donner des prédictions correctes. Pour Dennett aussi, lorsqu’il parle de grille-pains ou de gros systèmes informatiques. Seulement, à ma connaissance, 1) on n’a pas encore fait de progrès dans la compréhension des grille-pains et des systèmes informatiques en utilisant cette méthode et 2) on a des raisons de penser que l’être humain est « vraiment » intentionnel parce que nous en avons une connaissance intime, grâce à la conscience. Un but n’est pas seulement une hypothèse commode, c’est une représentation interne que nous pouvons visualiser. Les neurosciences commencent à nous donner des indications à ce sujet : il semble que nous puisons des évènements passés dans notre mémoire pour nous représenter des états futurs du monde (ensuite il s’agit de choisir celui qui nous paraît souhaitable et atteignable). De la même manière, nous « sentons » nos erreurs, et avons donc une connaissance intime des mécanismes de feedback. Enfin, nous utilisons avec succès cette méthode pour prédire le comportement des gens autour de nous.

    Si l’on applique tout ça à des groupes concrets, l’exemples qui me vient à l’esprit est celui de la firme maximisant son profit. On sait que le modèle a une certaine pertinence – quoique limitée. Mais là encore, on peut très bien imaginer qu’il y a, au sein de l’entreprise, un PDG, directeur financier ou qui sais-je, qui « visualise » un certain niveau de ventes et de profit et cherche à l’atteindre. Finalement, on en revient à l’IM et à l’individu comme agent.

    Y a-t-il un autre exemple ?

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s