Explication versus prédiction : quelques précisions

Suite à ce billet et à certains commentaires, j’aimerais préciser plusieurs points sur la relation entre explication et prédiction dans le cadre de l’enquête scientifique. Pour d’ores et déjà clarifier mon propos, je précise qu’il ne s’agit pas de dire que la prédiction n’a pas d’importance d’un point de vue scientifique mais plutôt que 1) il faut s’entendre sur les différents sens du terme de « prédiction » et que 2) en aucun cas la prédiction ne peut être le seul critère à partir duquel juger une théorie scientifique.

Il faut déjà préciser que le rapport entre explication et prédiction ne peut être dissocié de la « thèse de la symétrie » proposée par le philosophe Carl Hempel et qui découle du modèle déductif-nomologique de la structure de l’explication scientifique proposé par lui et Paul Oppenheim. En substance, ce modèle dit que toute explication scientifique consiste dans l’association d’explanans (les expressions rendant compte du phénomène étudié) divisés en deux sous-ensembles (des conditions de départ et une ou plusieurs « lois » générales) à partir desquels il sera déduit un explanandum (l’expression décrivant le phénomène étudié). Hempel tire de ce modèle l’idée qu’explication et prédiction sont logiquement équivalentes : prédire consiste à disposer des explanans et à annoncer l’occurence de l’explanandum avant de l’avoir observé (remarquons que l’explanandum n’a pas à se situer nécessairement dans le futur), tandis qu’expliquer consiste à remonter de l’explanandum pour retrouver les explanans. Par conséquent, dans le cadre du modèle D-N (qui relève typiquement du positivisme logique) toute théorie scientifique doit nécessairement prédire et expliquer simultanément, au moins en principe. Cette conception de l’explication scientifique a suscité une importante discussion dans les années 60 où il en est ressortie que si l’équivalence entre prédiction et explication était valide sur un plan logique, elle n’avait aucun sens sur un plan pragmatique. Pour comprendre cela, il faut bien définir ce que l’on entend par « prédiction », chose que les contributeurs au débat autour de la thèse de la symétrie ont mis du temps à faire.

Certains auteurs proposent de distinguer trois formes de prédictions revenant à poser trois questions différentes (voir ici par exemple) :

* Quel type de comportement de la part du système étudié peut-on attendre en fonction de conditions initiales définies et d’un calibrage donné des paramètres ? On pourrait appeler ça la « prédiction logique » ;

* Quel type de comportement un système donné va-t-il exhiber dans un futur proche, sachant que les paramètres et les états précédents peuvent avoir été mesurés de manière plus ou moins précise ? On pourrait ici utiliser le terme de « prédiction dynamique » ;

* Quel état final un système donné va-t-il atteindre dans un futur proche, avec la même précision que précédemment ? On pourrait parler de « prédiction téléologique ».

A strictement parler, seule la « prédiction logique » relève de la prédiction au sens de Hempel et de la thèse de la symétrie. Comme je l’ai déjà dit, ici l’équivalence entre explication et prédiction peut être acceptée de telle sorte que, dans ce sens, toute théorie scientifique doit permettre de faire des prédictions et peut être évaluée sur cette base. Le problème, ainsi que c’est indiqué dans l’article mis en lien, c’est que l’on voit facilement que si toute « bonne » explication scientifique doit permettre de faire des prédictions logiques, rien n’indique qu’elle permettra de faire des prédictions dynamiques et encore moins téléologiques « justes ». Il y a plusieurs raisons à cela mais la plus évidente est que le monde naturel et le monde social sont des systèmes ouverts, autrement dit des systèmes où le nombre de variables causalement efficaces tend vers l’infini.

Evidemment, les sciences de la nature ont ici un avantage important grâce à l’expérimentation, laquelle consiste précisément à fermer artificiellement le système pour mieux isoler l’impact causal d’un ou de quelques facteurs. Les sciences sociales n’ont pas cette possibilité et, bien qu’il s’agisse seulement d’une différence de degré et non d’une différence de nature, cet élément rend la mise en place de tests de falsification en sciences sociales beaucoup plus compliquée. Surtout, les « résultats » sont nécessairement marqués d’incertitude. Cela est de toute façon vraie pour toutes les sciences, comme l’indique la thèse de Duhem-Quine selon laquelle il est logiquement (et non seulement pragmatiquement) impossible de tester une hypothèse scientifique de manière isolée, pour la bonne et simple raison que toute hypothèse repose elle-même sur des hypothèses auxiliaires. Appliqué aux prédictions, on voit les problèmes que cela pose : pour toute théorie faisant des prédictions (des trois types) fausses, il faudrait pouvoir isoler là ou les hypothèses erronées. Le problème est que selon la thèse de Duhem-Quine cela est impossible. Il reste alors deux solutions : soit on abandonne la théorie dans son ensemble, soit on la conserve malgré tout parce que l’on estime qu’elle dispose quand même d’un pouvoir explicatif (heuristique) potentiellement intéressant.

La première solution (qui correspond au falsificationnisme naïf, celui que n’a jamais défendu Popper) est clairement impratiquable et n’a aucun sens et l’histoire des sciences montre sans ambiguité que c’est toujours la seconde solution qui a prévalu, pour des raisons d’ailleurs pas toujours « nobles ». On peut comprendre pourquoi en revenant sur nos trois types de prédictions. Clairement, une théorie faisant des prédictions logiques erronées ne devraient pas être conservée puisqu’il y alors tout lieu de penser que l’explication qu’elle propose est fausse. Mais ce n’est pas si simple. Prenons un exemple. La « loi de l’offre et de la demande » est certainement la proposition la plus célèbre de la science économique. Cette loi prédit (prédiction logique) que, suivant un certain nombre d’hypothèses (notamment concernant la rationalité des agents), lorsque le prix d’un bien augmente, la demande pour ce bien doit diminuer et vice-versa. L’explication est que, dans le cadre des explanans de la loi de l’offre et de la demande, les agents égalisent le rapport entre l’utilité marginale et le prix de chaque bien. Si l’utilité marginale est décroissante, la baisse relative du prix d’un bien doit logiquement se traduire par une augmentation de sa demande, jusqu’à que les rapports utilité marginale/prix de chaque bien s’égalisent de nouveau. Au-delà du fait que cette proposition théorique ne permet pas de faire des prédictions quantitatives mais seulement qualitatives, que se passe-t-il si l’on observe que cette prédiction n’est pas respectée (il y a des cas bien connus) ? Doit-on en induire que la loi de l’offre et de la demande est fausse ou plutôt que la spécification des explanans est incomplète ? On a là un problème à la fois logique et pratique : le problème est logique car la loi de l’offre et de la demande est impossible à tester de manière isolée (thèse de Duhem-Quine) et pratique car il est tout simplement impossible d’être sûr d’avoir spécifier correctement les explanans lors de l’étude d’un phénomène donné. Autrement dit, il est très difficile de savoir si notre théorie achoppe au niveau d’une prédiction dynamique ou téléologique (auquel cas, on peut conserver la théorie, cf. infra) ou si elle échoue à faire des prédictions logiques (auquel cas il ne faudrait pas nécessairement abandonner toute la théorie mais seulement quelques hypothèses). Les philosophes des sciences qui se sont intéressés à ce problème, Popper compris, avaient bien compris cela. Chez Popper, cela se traduit par une conception conventionnaliste des théories scientifiques (la communauté scientifique s’organise autour de conventions pour définir les critères de préservation ou d’abandon des théories), chez Lakatos on a l’idée que chaque programme de recherche protège son noyau dur de toute réfutation décisive via une « ceinture protectrice » et des « heuristiques » positifs et négatifs. Il faut préciser que, chez Lakatos tout du moins, il ne s’agit pas d’épistémologie normative, mais plutôt d’une observation faite à partir des pratiques effectives des scientifiques. C’est comme cela que la science s’organise et évolue.

En économie, un célèbre débat a opposé dans les années 50 les économistes Terence Hutchison et Fritz Machlup. Hutchison a été le premier à importer le falsificationnisme poppérien dans les débats de méthodologie économique, dès 1937. Hutchison défendait l’idée qu’en vertu du principe de réfutation, toutes les hypothèses de la théorie économique devaient être falsifiables. Machlup lui opposera de manière convaincante l’idée que non seulement cela est impossible mais également néfaste et que certaines hypothèses (comme le principe de rationalité) peuvent en principe être « protégées », l’important étant que les conclusions des théories soient testées. Il s’agit d’une autre manière de dire que l’incapacité d’une théorie à faire des prédictions téléologiques ou dynamiques ne doit pas conduire nécessairement à leur abandon.

Je terminerai enfin en faisant remarquer qu’il existe de multiples exemples de théories où tout le monde s’accorde qu’elles ont un pouvoir explicatif important et qui échouent à faire des prédictions autres que logiques. Joshua Epstein, qui défend une position radicale de ce point de vue, en donne quelques exemples. Le cas le plus illustratif est évidemment celui de la théorie de l’évolution qui, si elle permet d’expliquer les mécanismes présidant à l’évolution des espèces animales, ne peut prédire l’évolution future des espèces, pas plus qu’elle ne peut prédire, sans des hypothèses complémentaires (et qui peuvent donc s’avérer fausses), la manière précise (dates, lieux, etc.) dont les espèces ont évolué par le passé. A contrario, il est aisé de concevoir des prédictions qui se vérifient alors même qu’elles sont basées sur des explications fausses.

Encore une fois, il n’est pas de mon intention de dire ici que la capacité prédictive d’une théorie scientifique n’a aucune importance ou que les économistes n’ont rien à se reprocher concernant la crise financière. Concernant ce dernier point, il m’est d’avis que la « défaillance » relève d’abord d’un point de vue de sociologie de la science plus que d’un problème interne à la théorie économique. Sur le premier point, je voulais montrer qu’il est tout simplement faux de dire que le seul but de l’activité scientifique est de prédire et que par conséquent il faut juger les théories uniquement par rapport à ce critère. Oui, les propositions émanant des théories scientifiques doivent être falsifiables. Mais cela ne veut pas dire qu’une théorie qui a un potentiel prédictif modéré a forcément une faible valeur explicative et que la réfutation des prédictions est un procédé non-équivoque pour sélectionner les théories scientifiques. Cet argument repose à la fois sur des considérations logiques et des considérations historiques.

5 Commentaires

Classé dans Non classé

5 réponses à “Explication versus prédiction : quelques précisions

  1. isaac

    Bonjour,

    Concernant la fameuse thèse de Duhem-Quinn, il semble important de rappeler qu’associer ces deux noms ne va pas de soi. En effet, Pierre Duhem, physicien et historien, défend la thèse plus connue sous le nom de « theory ladenness » : l’outil de l’observation est chargé théoriquement. Concrètement, cela débouche sur l’idée qu’une théorie est un ajustement entre un appareillage phénoménologique, nos croyances vis-à-vis de celui-ci et une théorie explicative. A ce titre, l’observation est surdéterminée par la théorie. La question de Duhem concerne donc la potentialité d’une multitude d’ajustements possibles. Quine se situe à un tout autre niveau. Sémanticien logicien, il considère une théorie comme un ensemble de phrases et de croyances, de telle sorte que celle-ci est sous-déterminée par l’expérience dans sa constitution en tant qu’ensemble. A ce titre, une théorie doit être considérée comme un tout indissociable .

    Ainsi, d’un côté, celui de Duhem, on se trouve confronté à une contingence technique et réelle, de l’autre, Quine discute d’une sous détermination conduisant au holisme (i.e la théorie, en tant que système de croyance doit être considéré comme un tout). Duhem s’intéresse à des techniques, Quine à des phrases. Ainsi, la thèse de Quine ruine les fondement même de la thèse de Duhem en ce que l’ajustement entre plusieurs théorie (celle de l’objet et celle de l’appareillage). Ainsi, pour Quine : « Pierre Duhem a beaucoup donné dans le holisme au début de ce siècle, mais pas trop ».

  2. Les relations et différences entre prédictions et explications ont beaucoup travaillé René Thom ( http://fr.wikipedia.org/wiki/Ren%C3%A9_Thom ). A tel point que le titre d’un de ses livres d’entretiens (avec Emile Noël) s’intitule justement « Prédire n’est pas expliquer ».
    De mémoire (et après un rapide coup d’œil à la 4e de couverture) il inscrit cette différence dans une distinction plus générale entre sciences qualitatives et quantitatives ( http://www.grep-mp.org/conferences/Parcours-9-10/Thom.htm ).
    Bon, ça sent son vieil Aristote (dont il se réclamait) mais rejoint aussi les plus contemporaines préoccupations d’un Jean Gagnepain ( http://fr.wikipedia.org/wiki/Jean_Gagnepain ).

  3. elvin

    clap, clap, clap !!! Bravo à C.H.pour expliquer clairement un sujet pas évident.

    L’ « autrichien » que je suis est d’accord avec tout ça, mais souhaite prolonger et compléter ce post en ce qui concerne spécifiquement l’économie.

    Premièrement les thèses présentées, qui apparaissent comme très nouvelles et pour tout dire révolutionnaires, sont en réalité anciennes. On les trouve en germe dans le Discours préliminaire du Traité de Say, puis développées chez J.S.Mill et Cairnes, qui disent tous que la nature des phénomènes économiques est telle que la science économique ne peut produire que des « prédictions logiques » au sens où l’entend C.H.

    Au passage, si on admet cette thèse, alors la thèse de la symétrie vaut pour l’économie, alors qu’elle ne vaut pas nécessairement pour les autres sciences.

    Mais ces auteurs vont plus loin. Si on admet qu’une « loi » est un énoncé de la forme « telle cause, dans telles circonstances, produit tels effets », donc nécessairement prédictif, alors il en découle que les lois de l’économie (si elles existent, mais c’est un autre débat) ne peuvent être que qualitatives. Ce qui implique qu’elles ne peuvent pas se formuler sous forme mathématique (ou alors une forme très dégénérée), ce qui implique à son tour que le raisonnement mathématique n’est pas une forme de raisonnement appropriée pour les découvrir, position que soutenait encore pas exemple Marshall. Si toute la littérature économique jusqu’à Jevons, à de rares exceptions près, ne contient pas un seul raisonnement mathématique, ce n’est quand même pas parce que les outils mathématiques aujourd’hui utilisés n’existaient pas ni parce qu’aucun économiste ne les connaissait.

    Mais ces mêmes auteurs vont plus loin encore. J’utiliserai la formulation de Cairnes qui me semble particulièrement frappante : « If the economist was at a disadvantage as compared with the physical investigator in being excluded from experiment, he had also some compensating circumstances on his side… The economist starts with a knowledge of ultimate causes. He is already, at the outset of his enterprise, in the position which the physicist only attains after ages of laborious research. »

    Autrement dit, nous sommes capables d’établir des énoncés vrais concernant notre propre comportement, tout simplement parce que c’est de nous qu’il s’agit, et ces énoncés (qui ont le statut d’axiomes) peuvent servir de point de départ certain au raisonnement économique, alors que leurs équivalents dans les sciences physique resteront toujours de simples hypothèses.

    Cette thèse du « dualisme méthodologique » implique en particulier que des raisonnements méthodologiques valides pour les sciences de la nature ne sont pas nécessairement valides pour les sciences humaines, et notamment l’économie.

    Elle implique également qu’en économie, il y a place pour une sous-discipline que j’appellerais « économique fondamentale », qui consiste à identifier les axiomes relatifs à l’action humaine qui sont vrais a priori, et à en dériver les conséquences nécessaires par la simple logique. La discipline économique ne se réduit certes pas à cette sous-discipline, mais toutes les autres sous-disciplines doivent être cohérentes avec cette économique fondamentale. Cela ne veut pas dire non plus que tous les énoncés de l’économie sont vrais a priori (critique classique mais stupide de la position autrichienne), mais qu’il existe en économie des énoncés qui possèdent cette propriété sans être de simples tautologies.

    Au début du siècle dernier, ces thèses jusqu’alors dominantes en économie ont été balayées par le positivisme logique et la thèse de la « science unifiée », et n’ont guère été défendues envers et contre tout que par les économistes autrichiens. Tant mieux si un nombre croissant d’économistes les redécouvrent, mais en bon autrichien je trouve ce mouvement hélas bien lent.

  4. arcop

    @C.H.
    Tres interessant billet. Je vous rejoins pour l’essentiel. Mais il me semble qu’il demeure une question ouverte qui est de savoir ce qui fait que la science (ou une discipline scientifique) est autre chose que disons de la philosophie, ou meme de l’art (pour lesquels le conventionalisme est aussi de mise). Une possibilite, la plus souvent choisie, est celle de l’instrumentalisme (on peut faire des trucs avec les theories scientifiques qu’on peut pas faire avec l’art). Maintenant, la question est qu’est-ce qu’on peut faire avec la theorie economique? Et bien pas grand chose, j’en ai peur, surtout si l’on considere que les predictions dynamiques sont hors de portee. On peut meme pas faire de politique economique a la limite du raisonnement. Cela souleve alors le bien-fonde de garder des hypotheses, notamment fondamentales, de les proteger, etc. si on a aucun etalon pour mesurer leur fecondite.

    Un deuxieme point, et la, ca va ressembler a un troll mais ca n’en est pas un, on peut arguer que la theorie de l’evolution est tout sauf une explication. C’est meme typiquement le cas d’une theorie, ou d’un cadre theorique, qui n’est pas une explication. En effet, quel que soit la tournure que vous donniez a sa formulation, la theorie de l’evolution est une enorme tautologie: Survit ce qui est adapte (fitness). Et la seule mesure de la ‘fitness’ est simplement le fait que tel systeme survit ou simplement est perpertue (d’ou l’application universelle du darwinisme par Dennett). En gros c’est un raisonnement du genre Moliere: L’opium fait dormir du fait de ses proprietes dormitives. Il me semble que Popper pointait deja ca. C’est tres apparent en theorie des jeux evolutionnaires par exemple, ou lorsque vous essayez de definir les paiements (ou l’utilite) vous achoppez toujours sur ce point. Maintenant, il est evident que c’est un cadre theorique fructueux qui permet d’organiser les donnees disponibles, et peut-etre de structurer des theories sur l’evolution passee.

    @isaac Tout a fait d’accord.

    @Elvin
    La position de Cairnes me parait extremement naive et reposer sur un postulat dont je pense on peut assez facilement montrer qu’il est faux. En gros c’est l’idee de l’acces direct par le sujet aux causes de son comportement (ou encore de ses jugements), alors que le physicien n’aurait qu’un acces medie de type sujet-objet. Et je vois pas tres bien pourquoi on aurait la possibilite d’etablir des enonces vrais sur notre propre comportement. Au mieux, l’analyse rationnelle fournit un cadre semblable a la theorie de l’evolution, c’est a dire une tautologie, qui est completement vide de contenu mais peut s’adapter a tous les comportements: J’ai choisi A par rapport a B, parce que je prefere A. Mais rien ne dit que ceci n’est autre qu’une reinterpretation du resultat d’un processus de decision auquel il n’a pas consciemment acces. Que ce cadre theorique soit interessant ou fructueux (ce qui je pense est votre avis) ou pas (la mienne) est independent de la question de sa veracite immediate.

    Un autre detail, la formalisation ou l’usage des mathematiques n’impliquent nullement qu’on ne puisse faire que des predictions quantitatives, bien au contraire, la plupart des resultats fondamentaux de la theorie economique impliquent seulement des resultats qualitatifs (ex. loi de l’offre et de la demande, meme si c’est pas un super exemple en equilibre general)

  5. elvin

    Attention : dire que nous pouvons établir des énoncés vrais sur notre comportement ne veut pas dire que nous en connaissons les causes. Il s’agit précisément d’énoncés qui se situent A NOTRE NIVEAU DE CONSCIENCE ET D’ACTION, par exemple « si nous effectuons une action A, c’est parce que, dans les circonstances où nous nous trouvons, nous préférons A à toute autre action ». Mais ça ne signifie pas que les processus physico-chimiques qui sous-tendent l’activité de notre cerveau nous sont plus accessibles que les autres, ni que nous pouvons connaître les causes « ultimes » de nos actions. Et à l’inverse, il n’est pas besoin d’accéder directement aux causes de nos actions pour connaître certaines choses certaines à leur propos.

    Une autre question est de savoir si ces énoncés sont ou non de simples tautologies. Je reprends le même exemple : supposons que chacune des actions A, B et C nécessite de consommer une unité d’un bien X. Si je possède une seule unité de X, j’entreprendrai celle des trois actions que je préfère, soit A. Si j’en possède deux, j’entreprendrai A puis B qui m’intéresse un peu moins et si j’en possède trois, j’entreprendrai A, puis B, puis C qui m’intéresse à peine. Chaque unité supplémentaire de X m’apportera donc une satisfaction moindre que la précédente. C’est ce qu’on appelle la loi de l’utilité marginale décroissante. Est-ce toujours une tautologie ou un résultat intéressant ? J’ai bien l’impression que les économistes pensent que c’est une idée importante, et ça le reste même si les autrichiens la démontrent par la simple logique à partir de l’axiome de l’action.

    Sur le dernier point, je n’ai pas dit que l’usage des mathématiques implique qu’on ne puisse faire que des prédictions quantitatives. Je dis que si, pour des raisons ontologiques, on ne peut faire que des prédictions qualitatives (par exemple la loi de l’offre et de la demande), alors la formalisation mathématique n’est d’aucune utilité. D’autres, dont Marshall et Keynes (qui ne sont pas autrichiens que je sache), ont même écrit qu’elle est dangereuse.

Répondre à arcop Annuler la réponse.