Les économistes ont-ils un côté « luddite » ?

Warning : billet volontairement provocateur, je balance une idée sans forcément y croire. Je remercie d’avance les lecteurs les plus « mainstream » de tenir compte de cet avertissement avant de me tomber dessus.

Il y a deux siècles, l’ouvrier anglais Ned Ludd et certains de ses collègues ont entrepris la destruction organisée de plusieurs machines utilisées dans les usines anglaises, notamment des métiers à tisser. De ces actes, il est resté l’expression « luddisme« , pour désigner l’attitude de certains travailleurs hostiles au progrès technique, voyant dans ce dernier le remplacement du travail humain par la machine. L’idée sous-jacente au luddisme est la croyance – erronée – que la mécanisation et de manière plus générale le progrès technique contribue à diminuer les emplois disponibles et donc la demande de travail en provenance des entreprises. On sait que, sur le long terme, cette idée est fausse, et sur ce point 99% des économistes sont d’accords. Pourtant, il y a une autre raison pour lesquelles certains travailleurs peuvent s’opposer au progrès technique, raison qui est davantage fondée à leur échelle : l’obsolescence de leurs compétences. L’introduction d’une nouvelle technologie tend à en effet à rendre inutile, ou en tout cas moins valorisables, certaines compétences correspondant à l’état technologique précédent.

Et si la dynamique des paradigmes en science, et particulièrement en économie, suivait la même logique ? C’est l’idée qu’il m’est venu en lisant ce texte « dévastateur » à l’encontre de la théorie néoclassique. Je le dis tout de suite, je ne suis pas d’accord avec les trois quart de ce qu’il y a d’écrit là dedans. Déjà, il s’attaque à un ennemi qui n’existe pas, ou en tout cas pas exactement sous cette forme là. Ensuite, il fait l’amalgame habituel mais pas pour autant justifié entre économiste standard et défenseur du « free-market ». Enfin, les préconisations (la tabula rasa) sont farfelues. Mais il y a une remarque qui sonne plus juste que les autres dans ce texte :

« An essential pedagogic step here is to hand the teaching of mathematical methods in economics over to mathematics departments. Any mathematical training in economics, if it occurs at all, should come after students have done at least basic calculus, algebra and differential equations-the last area being one about which most economists of all persuasions are woefully ignorant. This simultaneously explains why neoclassical economists obsess too much about proofs, and why non-neoclassical economists like those in the Circuit School (Graziani 1989) have had such difficulties in translating excellent verbal ideas about credit creation into coherent dynamic models of a monetary production economy (c.f. Keen 2009).

Neoclassical economics has effectively insulated itself from the great advances made in these genuine sciences and engineering in the last forty years, so that while its concepts appear difficult, they are quaint in comparison to the sophistication evident today in mathematics, engineering, computing, evolutionary biology and physics. This isolation must end, and for a substantial while economics must eat humble pie and learn from these disciplines that it has for so long studiously ignored. Some researchers from those fields have called for the wholesale replacement of standard economics curricula with at least the building blocks of modern thought in these disciplines, and in the light of the catastrophe economists have visited upon the real world, their arguments carry substantial weight ».

Je pense que ce passage va en faire bondir plusieurs (d’où l’avertissement initial) : en clair, les économistes « stantards » sont en retard sur le plan de l’utilisation de l’outil mathématique. Je ne suis pas très certain que l’exemple de « l’écono-physique » que prend l’auteur pour illustrer la pertinence des nouvelles de modélisations soit pertinent mais l’idée est là : depuis une vingtaine d’année, une profusion de nouvelles méthodes mathématiques ont été importé en économie mais, de manière générale, elles ont beaucoup de mal à s’incruster dans des publications du top niveau, celles qui caractérisent ce que l’on appelle le mainstream. Pourquoi est-ce le cas ? Une réponse naturelle est de dire que c’est parce qu’elle n’ont pas fait leurs preuves, qu’elles sont plus complexes mais n’apportent pas nécessairement plus d’éclairage et que, en vertu du rasoir d’Occam, on peut s’en passer. C’est une hypothèse valide, plausible, qui a certainement une part de vérité. Cependant, les études en sociologie des sciences montrent que la science ne progresse pas de manière linéaire où théorie et méthode sont progressivement remplacées suivant un processus impersonnel où ce qui ne marche pas est impitoyablement éliminé. Il y a aussi une dimension « sociale ».

En l’occurence, il est fréquent de la part des économistes mainstream de balayer d’un revers de la main les critiques de leurs collègues hétérodoxes en invoquant l’idée que leurs critiques sont le fait de leur méconnaissance, voire de leur mécompréhension de l’économie standard et de ses techniques. Je le dis clairement : c’est vrai, pour beaucoup d’économistes hétérodoxes en tout cas. Beaucoup critiquent la théorie standard parce qu’il ne la comprenne pas, ou qu’ils ne veulent pas faire l’effort d’apprivoiser les différentes techniques. Maintenant, il me vient à l’esprit une hypothèse alternative à celle proposée plus haut : la difficulté des nouvelles formes de modélisation à s’imposer en économie ne vient-elles pas du fait que les membres du paradigme standard y voient un risque de rendre obsolète certaines de leurs compétences ? En effet, généralement, un économiste lambda acquiert ses outils techniques durant ses études et au tout début de sa carrière. D’où par exemple les conseils de gens comme Greg Mankiw qui conseille aux étudiants de mettre le paquet sur les matières techniques pendant leurs études. Par la suite, l’économiste va largement se reposer sur ses acquis techniques, ce qui est logique : pendant qu’on acquiert des outils, on ne fait pas de recherche et, les années passant, les capacités d’apprentissage diminuent. Par conséquent, toute introduction de nouvelles méthodes de modélisation revient, pour l’économiste qui ne les maitrisent pas, à voir ses compétences se dévaluer. Comme pour le travailleur qui voit une nouvelle technologie rendre ses compétences inutiles, on peut s’attendre à une réaction naturelle de l’économiste : se comporter en « luddite » et rejeter le progrès.

Chez les économistes, cela ne prendra pas la forme de sabotage, mais de fermeture paradigmatique, par exemple en empêchant la publication dans de grandes revues d’articles utilisant de nouvelles méthodes. Bref, on a là une manifestation de la science normale kuhnienne mais que l’on peut expliquer ici sans invoquer une quelconque forme d’irrationalité. D’ailleurs, si j’avais voulu, j’aurais pu construire un modèle pour exprimer ce que je viens de dire. Mon hypothèse est donc que le conservatisme scientifique s’explique en partie par la peur des scientifiques de voir leurs compétences perdre en valeur. Ce n’est peut être pas politiquement correct, mais, après tout, les scientifiques cherchent à maximiser leur utilité comme tout le monde.

20 Commentaires

Classé dans Non classé

20 réponses à “Les économistes ont-ils un côté « luddite » ?

  1. Mainstream

    Pourriez-vous citer un exemple à l’appui de votre « thèse » (je sais, vous-même ne semblez pas convaincu)?
    Quels sont les outils mathématiques auxquels vous pensez? Qu’apporteraient-ils?

  2. elvin

    Contrairement à C.H., je suis d’accord avec Steve Keen sur sa conclusion principale : il faut balancer par-dessus bord et sans regret toute l’économie néoclassique. Herbert Simon, Deirdre McCloskey et d’autres l’ont déjà dit en termes tout aussi crus.

    Je pense aussi comme lui:
    1. que ça sera long et difficile
    2. que dans le panorama actuel, l’économie évolutionniste est probablement la meilleure voie de reconstruction.

    Mais je prédis aussi qu’il faudra nécessairement retrouver tôt ou tard (le plus tôt serait le mieux) l’épistémologie que j’appelle « classico-autrichienne » (Say, Mill, Cairnes, Menger, Mises). J’ai écrit tout un article là-dessus, à paraître probablement dans un numéro à venir de Sociétal. RV à la parution.

  3. J-E

    Assez d’accord sur la thèse générale, surtout pour certains passages de l’histoire de la pensée économique comme par exemple le rejet prolongé des outils de la théorie des jeux ou de l’économie de l’information. Néanmoins le problème s’est résolu avec une simplification des concepts de manière à les rendre utilisables par des économistes moins formés techniquement (ou formés à des techniques différentes), et une répartition des tâches entre des chercheurs qui travaillent sur les outils eux-mêmes (raffinements de l’équilibre de Nash, théorèmes d’existence etc.) et d’autres qui les appliquent. Je ne vois pas très bien pourquoi les « nouveaux outils » ne suivraient pas le même modèle.

    Ce ser

  4. J-E

    (désolé fausse manoeuvre)

    Assez d’accord sur la thèse générale, surtout pour certains passages de l’histoire de la pensée économique comme par exemple le rejet prolongé des outils de la théorie des jeux ou de l’économie de l’information. Assez d’accord aussi avec votre désaccord avec l’article cité🙂

    Néanmoins le problème s’est résolu avec une simplification des concepts de manière à les rendre utilisables par des économistes moins formés techniquement (ou formés à des techniques différentes), et une répartition des tâches entre des chercheurs qui travaillent sur les outils eux-mêmes (raffinements de l’équilibre de Nash, théorèmes d’existence etc.) et d’autres qui les appliquent. Je ne vois pas très bien pourquoi les “nouveaux outils” ne suivraient pas le même modèle.

    Ce serait quand même bien d’avoir quelques exemples de ces super nouveaux outils trop cool qui ne sont pas publiés dans les vilains journaux principaux.

    Le même problème se pose à chaque fois que des mathématiciens ou des physiciens se proposent de révolutionner l’économie avec des modèles plus compliqués ou plus réalistes : avec un modèle suffisamment compliqué on arrive très vite à la conclusion que tout est possible en théorie. Pour quelqu’un formé dans les sciences dures ce n’est pas trop grave, il suffit de quelques expériences pour savoir ce qu’il en est. En sciences humaines il est peu probable qu’on arrive à estimer les paramètres importants (les anticipations par exemple) et donc on ne sera pas plus avancé.

    Le raisonnement de la plupart des économistes me semble au contraire de choisir la simplicité, même quand ils sont techniquement capables de faire des trucs beaucoup plus compliqués, et d’illustrer une idée ou un effet plausible, sans chercher à donner une représentation complète de la réalité. Dans les séminaires que je fréquente on présente généralement des articles assez exigeants mathématiquement, et la pire critique qu’ils puissent rencontrer est « d’accord, mais où est l’intuition économique derrière votre résultat ? ». L’article cité me semble donc assigner à l’économie un but entièrement différent de celui que poursuivent la plupart des économistes aujourd’hui.

  5. C.H.

    Sur les fameeux « nouveaux outils » dont parlent l’auteur, je suppose qu’il pense (c’est ce à quoi j’ai pensé en tout cas) à des trucs genre « agent-based model ». Un exemple :

    http://papers.ssrn.com/sol3/papers.cfm?abstract_id=997251

    Pas mal d’économistes étiquetté « hétérodoxes » utilisent ce genre de modélisation (Barkley Rosser, Samuel Bowles). Je pense que Keen doit aussi penser à tout ce qui ressemble à de la dynamique à base d’équations différentielles non linéaires, chose que j’avoue ne pas maitriser à la perfection…

    Edit : @J-E : je suis d’accord avec votre point sur la tendance au ‘tout devient possible » avec les modélisations plus complexes ou réalistes. Le problème est de trouver un équilibre. Cela dit, j’ai l’impression que les défenseurs de ces formes de modélisation pensent qu’elles peuvent avoir un apport qualitatif supplémentaire. Indéniablement, ça se discute.

  6. Thomas

    De mon humble point de vue, il me semble que les nouveaux développements de la théorie de la décision nécessitent un bon bagage mathématique (Modèle récursive multi-prior et les trucs comme ça).
    Pour ce qui est des « agent based models », notre prof nous a expliqué qu’elle avait pas mal de difficulté à convaincre les économistes de leur utilité, notamment du fait qu’ils n’y connaissent rien et que le coût d’entré est trop élevé pour eux. Néanmoins, certains de mes profs utilisent ce type de modèle mais comme vous dites ils sont assez hétérodoxes.
    Sinon bin oui avec des modèles très compliqués on serait peut-être en mesure d’expliquer plus de choses. Mais bon pour se retrouver avec des milliers d’équations et des milliers d’inconnues…

    En tout cas c’est fou tout cet encre coulé (l’expression devient un peu obsolète) autour de l’utilisation des maths en économie.

  7. J.D

    Les tisserands lyonnais, dits les canuts, se révoltèrent au XIXe siècle. Ils furent plus que durement réprimés. En est resté le terme « cervelle de canuts », sublimissime préparation à base de faisselle, d’échalotes, de vin blanc et d’herbes variées. A déguster lors d’un mâchon, aux alentours de sept heures de matin, accompagné de quelques andouillettes et d’un bon gratin dauphinois.
    Le reste de l’article est évidemment très bien aussi – il m’a donné faim!

  8. sancho

    « The discipline must also become fundamentally empirical, in contrast to the faux empiricism of econometrics. » C’est dommage que Keen condamne l’économétrie d’une manière aussi expéditive, j’aurais aimé connaitre ces arguments. Je crois au contraire que la discipline fait de gros progrès pour exploiter des séries macro souvent courtes et pas toujours de très bonne qualité.
    Utiliser de nouveau outils mathématiques pour modéliser des systèmes plus complexes et hautement non-linéaire pourquoi pas. Mais si on ne peu jamais confronter ces modèles aux données parce qu’ils sont trop exigeant en information, quel est le progrès? On peu toujours faire un modèle pour prouver n’importe quoi, s’il n’est pas falsifiable quel valeur a t’il?

  9. alex

    Concernant les agent-based models, ils ne me semblent pas exempts de critiques. Je ne suis pas un spécialiste, mais je viens de faire un tour d’horizon de la littérature en « computer science » concernant les problématiques de transmission d’information. Aucun des modèles que j’ai rencontrés ne modélise les agents comme étant stratégiques: leurs actions sont déterminées, et on observe simplement la dynamique d’évolution de la population. De plus leurs modèles sont tellement compliqués (avec du bruit partout) qu’on ne sait pas trop expliquer les effets à l’oeuvre, ce qui est de mon point de vue le point fort de la théorie des jeux moderne, et notamment du mechanism design. Je ne dis pas que tout est à jeter dans ces nouvelles approches, mais il me semble que la théorie « néoclassique » (le terme ne veut plus dire grand chose, mais puisque c’est comme ça que vous la désignez…) a encore beaucoup à nous apprendre.

  10. J-E

    Je vais me faire l’avocat du diable néo-classique, mais je ne vois pas trop ce qui distingue fondamentalement l’article donné en lien de papiers plus « classiques », si ce n’est qu’on met beaucoup plus de « blocs » différents que d’habitude dans le modèle (ce qui de mon point de vue nuit fortement à l’interprétation des résultats puisqu’on ne comprend pas quels éléments jouent), et que les comportements des agents sont définis de manière ad hoc au lieu d’être rationnels (certes supposer qu’ils sont rationnels est irréaliste, mais supposer qu’ils suivent une équation comportementale donnée n’est pas forcément plus proche de la réalité).

    Bon évidemment je défends mon bifteck !
    Enfin du point de vue des mathématiques cela me semble beaucoup beaucoup plus simple que ce qu’on trouve dans les articles habituels. Ou plutôt la structure du modèle est un peu plus compliquée, mais après au lieu de chercher à le résoudre et à prouver des propositions on demande à un ordinateur de simuler le modèle, ce qui n’est pas très compliqué. J’ai du mal à croire qu’un économiste « néo classique » traditionnel n’ait pas les compétences mathématiques pour faire la même chose (les idées originales et la culture historique lui manqueront peut-être, mais c’est un problème différent).

  11. Passant

    Pour ce qu’il vaut, faut-il limiter pour autant le constat aux seuls chercheurs en éco ?

    Cette question concerne tous les scientifiques, et sans doute, toutes les professions qu’on peut exercer toute une vie à partir d’une qualification initiale établie : médecins, juristes, enseignants, énarque, etc.

    Le parallèle intéressant à faire est alors de remarquer que l’exercice de telles professions se fait souvent dans un contexte de concurrence pour le moins affaibli : y compris en recherche du fait de l’argument d’autorité ou en médecine du fait du caractère règlementé des activités de soin.

    Auquel cas, il n’y a pas à s’inquiéter pour l’avenir des sciences économiques : car l’un des apports sociaux d’internet est précisément de retirer le monopole de la recherche aux chercheurs qualifiés.

  12. C.H.

    @Sancho :
    Concernant votre remarque sur l’économétrie, pour ce que j’en connais (c’est à dire pas des masses), je suis plutôt d’accord avec vous.

    @Alex :
    Le terme « néoclassique » n’est pas de moi mais de l’auteur de l’article en question. En ce qui me concerne, si vous cherchez dans les archives de ce blog, vous verrez que j’ai écrit un billet sur la « mort » de l’économie néoclassique au sens où on l’entend traditionnellement.

    @J-E :
    Effectivement, en terme de complexité, je ne pense pas que cela soit hors d’atteinte pour la plupart des économistes. Mais j’ai envie de dire que c’est la même chose avec l’économétrie : faire de l’économétrie, ce n’est pas dur en soi. D’ailleurs, beaucoup d’économistes s’improvisent économètres et des fois les résultats ne sont pas très heureux (cf. les critiques de McCloskey par exemple). En revanche, faire de la bonne économétrie, cela nécessite davantage que de maitriser les rudiments techniques. Cela demande un véritable investissement en capital humain pour digérer à la fois les techniques les plus sophistiquées mais aussi comprendre leur utilisation. Je pense que c’est pareil avec les « agent-based models ».

    Sur votre critique de fond (difficultés d’interprétation et comportements définis de manière ad hoc), tout à fait d’accord. En fait, le problème de ces modèles est, je pense, qu’ils ne sont pertinents que lorsqu’ils sont utilisés pour des problèmes très spécifiques. Ce que je veux dire, c’est que l’on ne peut pas espérer en tirer des résultats généraux. Tout est dans la construction du modèle, la définition des paramètres et leur calibrage. C’est pour ça que je pense que ce type de modélisation n’a de sens que si on lui associe des analyses non formlisées, plus historiques et qualitatives, qui permettent de justifier le paramétrage du modèle (et notamment les règles de comportement suivies).

  13. Thomas

    J’ai pas lu l’article donc ce que je dis risque d’être HS.
    Je suppose que par Agent based models vous entendez système multi-agents. J’ai eu un court cours dessus.
    J’étais, comme J-E, assez suspicieux (et sur ce point je pense vraiment avoir été influencé parmes lectures de blogs).
    Il faut savoir qu’il existe 2 façons de faire du multi agent.
    La première cherche à observer des phénomènes d’émergence, ce que ne peut faire l’économie standard dans la mesure où elle suppose un réductionisme total du micro au macro. Les 2 méthodes ne se battent donc pas sur le même terrain.
    La deuxième méthode consiste à faire varier de toutes les façons possibles tous les paramètres du modèle et ensuite à leur appliquer des tests économétriques pour voir justement ce qui est pertinent. Il me semble que ce genre de travail serait vraiment très long à faire avec une feuille et un crayon.
    Les SMA servent aussi d’heuristiques quand justement une solution mathématique n’est pas possible à trouver analytiquement.

    La prof nous a expliqué que les modèles sont souvent utilisés sur des données locales notamment pour des problèmes stables de politique publique (dans la mesure ou le modèle est très long à faire et où le problème n’a pas le temps de disparaitre pendant l’élaboration du modèle).

    Le dernier argument est qu’il s’agit d’une discpline jeune, il faut lui laisser le temps de se développer…

  14. C.H.

    Intéressant Thomas. Effectivement, l’étude des phénomènes d’émergence est l’un des grands intérêts de ces modèles. D’ailleurs, de ce point de vue, on peut considérer que le père de ces modèles est… Thomas Schelling. Sa fameuse illustration de la ségrégation à l’aide d’un damier est l’ancêtre des agent-based models. Et, effectivement, je crois que l’on est davantage dans un cadre de complémentarité que de concurrence avec les modèles plus standards. Ce qui est une raison supplémentaire pour dire que le texte de Keen tape un peu à côté…

  15. J-E

    Donc un modèle multi-agents c’est un modèle avec plusieurs agents et des phénomènes émergents ? On serait pas un peu en train de réinventer la microéconomie là ?

    @Passant : « Auquel cas, il n’y a pas à s’inquiéter pour l’avenir des sciences économiques : car l’un des apports sociaux d’internet est précisément de retirer le monopole de la recherche aux chercheurs qualifiés. »

    Il faut vraiment être un réactionnaire attardé comme moi pour s’imaginer que le point de vue de gens qui se consacrent depuis des années à un problème et en discutent avec leurs confrères est peut-être un peu plus autorisé que celui de l’abonné moyen du Monde. On le voit bien sur le dernier billet d’éconoclaste sur le bouclier fiscal : heureusement que des commentateurs anonymes sont là pour redresser la vérité et expliquer que l’Etat ne sert à rien et qu’on nous prend tout, même si 100% des spécialistes de la question disent le contraire. C’est vrai qu’à ce tarif Internet va vraiment révolutionner la science : j’attends avec impatience que les journalistes opposent le point de vue sur la théorie de la relativité d’un prix nobel de physique et d’un chroniqueur abonné du Monde, et que la pertinence d’une politique économique soit déterminée en regardant le nombre de commentateurs pour et contre sur le blog d’Econoclaste.
    Mais votre méfiance envers les « sachants » et la relativisation du savoir scientifique, ramené à une opinion parmi d’autres (voire plus suspecte que la moyenne), participe d’un anti-intellectualisme ambiant dont le Président de la République est un apôtre passionné. C’est un beau sujet pour un sociologue.

  16. C.H.

    @J-E :
    Peut-être est-ce réinventer la microéconomie. D’ailleurs, c’est de la micro. Mais, le fait est que je ne vois pas beaucoup d’articles comme ceux-là dans l’AER ou le JPE :

    http://www.brookings.edu/~/media/Files/rc/reports/2000/12corruption_hammond/ross.pdf

    http://www.pnas.org/content/99/suppl.3/7243.full.pdf+html

    On pourra rétorquer que, concernant les exemples que je donne, ce n’est pas vraiment de l’économie (encore que le JPE ne publie pas que des articles sur des sujets purement éco) mais bon. J’ai lu je ne sais plus où un texte de Barkley Rosser (spécialiste de ce type de modélisation – il s’est amusé à modéliser de la sorte les idées de Minsky) qui disait qu’il avait toutes les peines du monde à publier ses articles, ailleurs que dans « sa » revue (Journal of Economic Behavior and Organization).

    Encore une fois, peut être que tout cela est justifié car ce type de modélisation n’apporte rien de plus. Je ne sais pas, mon expertise n’est pas suffisante pour juger.

  17. J-E

    Que les revues les plus installées comme le JPE et l’AER ne publient que des articles de gens et de champs qui ont fait leurs preuves n’est pas niable, et cela participe certainement d’une forme de « luddisme ».
    Je ne suis pas un grand spécialiste de quelle revue publique quoi mais ça ne me surprendrait pas de trouver ce genre d’articles dans le Journal of Economic Theory par exemple. Inversement beaucoup de travaux récents qui ne se voudraient pas hétérodoxes ne sont pas publiés non plus dans l’AER ou le JPE, qui peuvent considérer que l’intérêt de ces travaux n’est pas encore suffisamment établi.
    Donc je ne suis pas sûr qu’il faille exagérer le côté bouleversant, hétérodoxe et blacklisté par les revues dominantes de ce champ. En tout cas à parcourir les articles que vous avez obligeamment cités je ne me suis pas senti profondément choqué et menacé dans mon âme de néoclassique.
    Beaucoup d’auteurs alternent d’ailleurs entre des articles assez standards et d’autres plus « computationnels » qu’ils publient dans des revues spécialisées dans ce genre de travaux, ou d’autres encore plus proches des mathématiques qu’ils publient directement dans des revues de maths.
    Bref de nos jours c’est il me semble facile de se dire hétérodoxe, mais moins de l’être vraiment, là ça ressemble un peu à une stratégie marketing (ou alors c’est moi qui suis trop tolérant et n’étiquette pas immédiatement comme hétérodoxes des gens qui changent une ou deux hypothèses par rapport à ce à quoi je suis habitué).

  18. Passant

    J-E : Vous qui aspirez manifestement à la qualification de scientifique, n’avez-vous pas le sentiment de quelque peu déformer mon propos ? Parvenez-vous à imaginer que ce que vous écrivez ici vous suivra toute votre vie et vous survivra certainement ?

    J’invite en effet quiconque recherche la vérité à aller le lire, ce fameux billet chez econoclaste dont vous évoquez l’existence. Ne serait-ce que pour constater l’indigence des arguments déployés en faveur de la thèse qui y est défendue.

  19. Duncan

    Juste pour aller de ma petite expérience en modèle multi agent en physique et optimisation. Le principe est extrêmement joli sur le papier et personnellement je le trouve intellectuellement très séduisant. Par contre, dans la pratique les modèles comportent rapidement beaucoup de paramètres peu controlables et les ajuster convenablement est un travail fastidieux qui relève plus des recettes de cuisines. Donc en tout cas dans mon domaine il ne me semble pas que ces méthodes soient encore assez mûres pour une utilisation massive car elles demandent un sacré coup de main.

  20. elvin

    « dans la pratique les modèles comportent rapidement beaucoup de paramètres peu controlables et les ajuster convenablement est un travail fastidieux qui relève plus des recettes de cuisines. Donc en tout cas dans mon domaine il ne me semble pas que ces méthodes soient encore assez mûres pour une utilisation massive car elles demandent un sacré coup de main. »

    c’est comme la réalité, en somme…

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s