Arrow, Kuhn et la sélection des théories scientifiques

Comment les scientifiques sélectionnent-ils les théories ou modèles* ? Cette question en appelle à une autre : quels sont les critères utilisés par les scientifiques pour réaliser cette sélection ? Le philosophe des sciences Thomas Kuhn propose dans son article « Objectivity, value judgment, and theory choice » la liste de critères suivante, sans prétendre à l’exhaustivité : précision, cohérence, généralité, simplicité, fertilité (fruitfulness). Il se trouve que formellement, le contenu de la liste et le nombre d’items importent peu. De manière plus abstraite, considérons donc une liste de critères C = {c1, c2, …, cn} autour de laquelle les membres d’une communauté scientifique se sont accordés pour déterminer les théories à conserver et celles à éliminer. Notons T = {t1, t2, …, tm} l’ensemble des théories en question, avec n ≥ 2 et m > 2. Supposons que pour chaque paire de théories ti et tj et pour chaque critère ck il soit possible de définir une relation d’ordre complète et transitive ≥k, où ti k tj signifie que la théorie i est moins aussi bonne que la théorie j selon le critère k. On peut définir les relations de stricte supériorité > et d’équivalence = de la manière habituelle. Sur cette base, on cherche à définir un ordre (complet et transitif donc) R* permettant d’ordonner les composants de l’ensemble T. Quelle(s) propriété(s) doit posséder R* ?

Le problème du choix des théories scientifiques, tel que je l’ai formulé, est structurellement identique à celui du problème du choix social tel que formulé par Kenneth Arrow dans l’exposition de son fameux théorème d’impossibilité. Dans l’article cité plus haut, Kuhn défend la thèse du « no algorithm » : il n’existe pas d’algorithme unique permettant de sélectionner automatiquement et les théories scientifiques et l’intervention de facteurs « extra-scientifiques » (les jugements de valeurs) est inévitable. Dans son article « Theory Choice and Social Choice: Kuhn versus Arrow”, Samir Okasha utilise le théorème d’Arrow pour suggérer que, contrairement à l’idée de Kuhn il n’existe pas un unique algorithme acceptable, il est possible qu’il n’en existe aucun. Autant l’existence d’une pluralité d’algorithmes n’est pas de nature à remettre en cause la dimension rationnelle de l’activité scientifique (c’est le point de vue de Kuhn), autant l’impossibilité d’un algorithme acceptable présente une menace pour l’entreprise scientifique dans son ensemble.

Sans revenir sur les détails du théorème d’impossibilité d’Arrow, on peut rappeler que celui-ci montre qu’il n’existe pas de fonction d’agrégation des préférences individuelles permettant de définir un ordre de préférences collectives satisfaisant un certain nombre d’axiomes :

  • Universalité (U) : la fonction doit s’appliquer à l’ensemble des profils de préférences individuelles
  • Pareto (P) : si tous les individus préfèrent x à y, alors x doit être collectivement préféré à y
  • Indépendance (I) : la relation de préférence collective entre x et y doit uniquement dépendre des relations de préférence individuelles entre x et y
  • Non-dictature (N) : un individu unique ne peut pas déterminer l’ensemble des préférences individuelles

Le théorème d’Arrow démontre que les conditions U, P et I ne peuvent être satisfaites que si les préférences d’un individus déterminent entièrement les préférences collectives (violation de la condition N). On peut facilement transposer ce résultat au problème de la détermination d’un algorithme permettant de sélectionner les théories scientifiques. Formellement, un algorithme est une fonction F telle que, pour n’importe quel profil (b1, b2, …, bn) de classement des m théories contenues dans T selon les n critères contenus dans C, on obtient un classement global b, i.e. b = F(b1, b2, …, bn). Le théorème d’Arrow montre que cette fonction ne peut pas satisfaire aux 4 conditions U, P, I et N ci-dessus. Quelles sont les possibilités ? Abandonner la condition N revient à considérer que l’on ne peut sélectionner les théories qu’à partir d’un seul et unique critère, ce qui contredit les pratiques scientifiques d’élaboration et de sélection des théories, lesquelles reposent en permanence sur un arbitrage entre plusieurs critères. L’abandon de la condition U parait également inenvisageable puisque cela reviendrait à admettre qu’il n’existe aucune procédure de sélection pour certains profils de théories. Les conditions  P et I sont plus intéressantes à discuter.

Le critère parétien semble indiscutable, aussi bien dans le cadre originel de l’agrégation des préférences que dans celui de la sélection des théories scientifiques. Ce critère peut être utilisé dans une optique minimale où il ne s’agit de déterminer un algorithme déterminant complètement quelle théorie doit-être rationnellement sélectionnée, mais plutôt où l’on cherche à définir des contraintes minimales devant présider à la sélection des théories. En clair, on ne cherche plus à définir un algorithme sélectionnant invariablement une et une seule théorie, mais un algorithme permettant d’éliminer certaines théories. Notons RP le classement des théories découlant de la seule application du critère de Pareto. Selon RP, une théorie ti sera meilleure qu’une théorie tj si et seulement si ti >k tj pour tous les critères ck (on peut aussi envisager d’utiliser le critère de Pareto dans sa version plus forte où l’on remplace la stricte préférence par la préférence faible). La particularité de RP est qu’il s’agit d’un ordre incomplet puisqu’il n’ordonnera pas deux théories dès lors que l’une ne domine pas strictement l’autre selon tous les critères. Est-ce un problème ? Amartya Sen a largement contribué à remettre en cause l’idée qu’en matière de choix social, la complétude des préférences est une propriété constitutive de la rationalité. On peut penser qu’il en va de même pour la sélection des théories scientifiques : le critère de Pareto offre un algorithme minimal à partir duquel discriminer les théories. Il est peut être possible d’aller plus loin (cf. plus bas), mais ce n’est pas obligatoirement une condition nécessaire pour que la sélection des théories soit « rationnelle ».

Une autre possibilité est toutefois offerte au travers de la remise en cause de la condition I. Cette condition indique que la comparaison entre deux théories ti et tj doit dépendre uniquement de la manière dont elle se classe l’une par rapport à l’autre selon l’ensemble des critères. Cette condition a pour effet de restreindre considérablement la base informationnelle à partir de laquelle on peut ordonner les théories. Par exemple, imaginons que pour deux théories x et y et pour deux critères a et b, nous ayons x >a y et y >b x. Imaginons que pour le critère a, x et y soient les deux meilleures théories disponibles (x est donc première et y seconde) mais que pour le critère b, tandis que y est la meilleure théorie disponible x est la moins bonne. La condition d’indépendance pose que cette dernière information ne peut pas servir d’input pour définir le classement global de x et y. En clair, la condition d’indépendance impose que les théories sont classées de manière purement ordinale et interdit toute hiérarchisation cardinale en termes « d’intensité » et d’une quelconque autre mesure. L’indépendance est la condition la plus critiquée dans le théorème d’Arrow et c’est aussi sur cette base qu’Okasha envisage un dépassement du résultat « d’impossibilité algorithmique » auquel on arrive (voir aussi ce papier). Une remise en cause de la condition d’indépendance au travers d’une extension de la base informationnelle passe par l’utilisation d’une relation d’ordre cardinale. Cette approche, proposée d’abord par Sen dans le cadre de la théorie du choix social, permet de s’affranchir du résultat d’impossibilité sous certaines conditions**.

Comme le souligne Okasha, on retombe alors sur la thèse kuhnienne de l’absence d’algorithme unique de sélection des théories. En effet, l’utilisation d’échelles cardinales avec possibilité de comparaisons inter-critères a pour résultat qu’un grand nombre d’algorithmes sons susceptibles d’être utilisés. Sous certaines conditions, on peut par exemple définir une fonction d’agrégation F telle que tx > ty si et seulement si ∑k αk u(xk) > ∑k αk u(yk) avec u(xk) le « score » de la théorie tx selon le critère ck et αk un coefficient donnant un « poids » à ce critère. Il est bien évident que deux scientifiques n’accordant pas la même importance aux différents critères ne déboucheront pas sur la même conclusion concernant la valeur respective des théories. Il est intéressant ici de noter qu’un second problème d’agrégation, relevant cette fois-ci de l’agrégation des jugements, peut se présenter. En effet, Kuhn et Okasha se concentrent sur la manière dont chaque scientifique peut former son opinion sur la valeur de plusieurs théories. Mais le problème se transpose à l’échelle de la communauté scientifique : supposons, qu’en vertu de la thèse kuhnienne de la pluralité des algorithmes scientifiques, chaque scientifique ordonne les théories selon son propre algorithme. Supposons a minima que tous ces algorithmes satisfont le critère parétien mentionné plus haut. L’exemple suivant montre, pour un cas avec trois chercheurs, deux théories et deux critères, le type de « paradoxe » auquel on peut aboutir (on suppose que chaque chercheur utilise une échelle cardinale mais pas co-cardinale, i.e. les intensités de jugement relatifs à chaque critère ne sont pas comparables entre chercheurs)  :

 

c1 : x ou y ?

c2 : x ou y ?

Conclusion

A

x

x

x

B

x

y

y

C

y

x

y

Majorité

x

x

y

 

Comme on peut le voir, le jugement individuel du chercheur A respecte le critère parétien (ce n’est pas pertinent ici pour les deux autres). Imaginons que pour parvenir à un jugement collectif sur la valeur relative des théories x et y, nos trois chercheurs procèdent à un vote à la majorité. Il émerge alors une variante du dilemme discursif discuté par Philip Pettit et Christian List : si les chercheurs établissent le jugement collectif à partir de leurs jugements individuels sur les prémisses, à savoir les critères 1 et 2, alors le critère parétien implique que c’est la théorie x qui doit être jugée la meilleure. Si, en revanche, ils établissent le jugement collectif sur la base de leur jugement individuel des théories dans leur ensemble, alors ils jugeront que la théorie y est meilleure.

Ce billet est déjà trop long et donc je ne développerai pas cette idée plus que ça. Mais cet exemple montre que le fait que les chercheurs soient en désaccord quant à l’algorithme à utiliser pour évaluer les théories peut engendrer des incohérences, voire des inefficiences sur le plan de la dynamique scientifique. Ici, B et C ne partagent clairement pas le même algorithme et, associé au fait qu’il y a désaccord entre les chercheurs sur l’évaluation des théories selon chaque critère (ce qui en pratique est fréquent), on obtient un jugement collectif potentiellement contradictoire. Il semble que ce type de paradoxe disparait si on élargit la base informationnelle en faisant l’hypothèse que les chercheurs sont capables, pour chaque critère, de définir collectivement avec quelle intensité une théorie est meilleure qu’une autre. Le problème, c’est qu’une telle hypothèse est irréaliste. Il faudrait approfondir cette question, mais si l’intuition derrière cet exemple s’avérait solide, cela impliquerait que la science est peut être plus irrationnelle que ne le pensait Kuhn.

 Notes

* Dans ce billet, j’utiliserai les termes « théories » et « modèles » comme des synonymes même si, dans un monde parfait, il faudrait faire la distinction. Il se trouve à cet égard que je n’ai jamais lu ou entendu de distinction qui soit convaincante.

** Notamment, l’équivalent des comparaisons interpersonnelles d’utilité doit être disponible. Autrement dit, il faut que l’on puisse définir une échelle cardinale commune à partir de laquelle on ordonne les théories selon les différents critères.

About these ads

6 Commentaires

Classé dans Non classé

6 réponses à “Arrow, Kuhn et la sélection des théories scientifiques

  1. Sauf que les scientifiques sont des agents et ils ont la possibilité de confronter empiriquement les théories contradictoires précisément là où elles divergent: ils n’ont pas à se contenter de données déjà collectées. ( L’idée que les théories seraient radicalement incommensurables et qu’on ne pourrait donc pas les comparer du tout, avancée par Kuhn, est assez difficile à défendre au final pour plusieurs raisons)

    On peut construire artificiellement des cas où il y a une réelle sous détermination par l’expérience, mais ils sont triviaux (par exemple si l’univers dans son ensemble était en mouvement uniforme on aurait les mêmes observations mais on peut rester agnostique ou appliquer le principe du rasoir d’occam pour écarter ce cas). On peut aussi parfois avoir des différences d’interprétation d’une même théorie. Par exemple aujourd’hui en mécanique quantique. Dans ce dernier cas aucun choix ne s’impose et il peut exister une pluralité de positions. Il s’agit alors d’un problème plus philosophique que scientifique, ou la pondération de différents critères peut effectivement jouer. Mais le formalisme mathématique et les outils prédictifs sont indépendants des interprétations de la théorie.

    Dans les faits ( en tout cas en physique), on ne trouve jamais de théories confirmées qui cohabitent à propos des mêmes phénomènes tout en divergent radicalement sur leur contenu mathématique : l’une s’impose par l’expérience, ce qui semble indiquer que pour une raison ou une autre le modèle présenté ici ne s’applique pas vraiment au fonctionnement de la science.
    Il est possible par contre qu’il s’applique à la métaphysique, ou effectivement la question du poids à accorder à différents critères (intuitions, pouvoir explcatif, simplicité) pend toute son importance dans les débats mais il ne me semble pas que ce soit souvent le cas en science, ou seulement de manière transitoire avant qu’une théorie ne finisse par prendre le dessus.

  2. C.H.

    Merci pour ce commentaire. Je ne sais pas ce qu’il en est pour la physique (et je suis prêt à croire ce que vous écrivez à ce sujet), mais pour l’économie et plus particulièrement la macroéconomie, il me semble que la perspective kuhnienne (et tout ce qui est expliqué dans le billet) a une certaine pertinence. Que l’on pense aux éternelles querelles entre « vieux » keynésiens (ISLM), néo-keynésiens, nouveaux classiques, post-keynésiens, etc.

    • Je vois, je suis également prêt à vous croire sur ce point.

      Sinon à propos de la première * de l’article : l’idée qui prévaut en ce moment en philosophie des sciences est que les théories scientifiques sont des classes de modèles (c’est la « semantic view »).

    • Ne serait-ce pas un aspect du dualisme méthodologique (Say, Mill, Cairnes, Menger, JN Keynes – le père de l’autre, Popper, Mises, Hayek, …) qui dit que, parce que les « particules élémentaires » de l’économie sont douées de conscience et de libre arbitre, les méthodes applicables aux sciences humaines ne peuvent pas être les mêmes que celles utilisées dans les sciences de la nature ?

  3. Titan

    J’aimerais citer un certain théoricien Lakatos qui montre que les scientifiques sont à la recherche de l’algorithme le plus adapté, balayant ainsi sur leur passage les autres en se concentrant sur un noyau dur constitué de leur programme de recherche. Par ailleurs, comment parler de science, d’hypothèse, de théorie, sans même figurer ne serait-ce l’ombre de P. Duhem (la théorie physique et son objet). J’aurais quelques avis à donner @ Quen_tin
     » Mais le formalisme mathématique et les outils prédictifs sont indépendants des interprétations de la théorie. « . Au contraire, ce sont ces outils prédictifs qui sont utilisés pour les interpréter. Le choix de la géométrie de Riemann a été utilisé à dessin, et la mathématisation croissante est le signe même d’une recherche symbolique qui nourrit les querelles des interprétateurs théoriciens, plus que des épistémologues.
     » l’une s’impose par l’expérience, » quand la théorie est attribuée en vertu de ses seuls critères, mais il est question là du statut de la théorie.
     » une théorie « . Elle a pour critère de vérité l’unique principe d’irréfutabilité de Popper; On peut postuler autant qu’on veut que le cygne X est noir et avoir raison, jusqu’à tomber dans l’erreur. Et quand on ne parie plus sur la couleur du signe pour le définir comme catégorie, on parie sur un symbole, et on fait de la physique symbolique, oups pardon théorique. Mais selon E Cassirer, tandis qu’  » un signal est une partie du monde physique de l’étant, un symbole est une partie du monde humain de la signification,  » qui nous renvoie au problème de l’intentionnalité, avec Brentano ou Husserl comme système méthodique à visée universelle, et profondément subjectif, provocant une coupure phénoménologique avec le réel. La suite est à inventer.

  4. Pingback: Arrow, Kuhn et la sélection des th&eacut...

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s