Archives de Tag: Macroéconomie

Coordination, anticipations et macroéconomie

On peut lire sur la blogosphère américaine plusieurs billets à propos du récent ouvrage de Kartik Athreya, Big Ideas in Macroeconomics. Athreya avait fait parler de lui il y a quelques années pour avoir commis un texte très critique envers les blogs économiques expliquant, pour simplifier (à peine), que la macroéconomie est une chose trop sérieuse et trop difficile pour que quelqu’un d’autre que les spécialistes du domaine puisse en parler. Son ouvrage s’inscrit d’une certaine manière dans la continuité de ce texte : Athreya a l’ambition d’expliquer au grand public (l’ouvrage vise explicitement les journalistes et les décideurs publics) la manière dont travaille les macroéconomistes, ce qu’ils cherchent à faire, ainsi que le bien fondé des hypothèses sur lesquelles ils s’appuient. Pour autant que je puisse en juger étant donné mon avancement dans l’ouvrage (il me reste deux chapitres à lire), le pari est plutôt réussi. Un point frappant est qu’il n’est quasiment pas question dans l’ouvrage des thèmes macroéconomiques traditionnels comme le chômage, l’inflation, la politique monétaire, la politique budgétaire, etc. Il y est davantage question du théorème d’Arrow-Debreu-McKenzie, d’anticipations rationnelles, d’agent représentatif, d’économie du bien-être et même de mechanism design. De ce point de vue, une des vertus de l’ouvrage est de bien montrer que la macroéconomie n’est aujourd’hui rien de plus que de la microéconomie, mais avec des hypothèses supplémentaires très (trop ?) fortes. Lire la suite

9 Commentaires

Classé dans Non classé

Pourquoi les économistes ont parfois raison (ou pas toujours tort)

L’économiste Steve Keen explique dans un article pourquoi… les économistes se trompent presque tout le temps. Ce genre de propos est à la mode (et Keen est depuis longtemps à la pointe de l’économiste-bashing) et peut parfois s’avérer pertinent. Malheureusement, Keen se concentre dans son article sur un aspect de la théorie économique qui me semble loin d’être le plus approprié pour ce genre de critique : la théorie du choix rationnel. Plus précisément, Keen affirme que la théorie des préférences révélées élaborées par Samuelson vers le milieu du siècle précédent est un parfait exemple de théorie démentie par les faits mais à laquelle les économistes s’accrochent quoiqu’il en coûte. Lire la suite

4 Commentaires

Classé dans Non classé

Fondements macro de la micro et modélisation

En réponse à un billet de Chris Auld sur 18 mauvaises critiques de la science économique , John Quiggin fait remarquer que la microéconomie standard (ou tout du moins "néoclassique" – la nuance peut avoir une certaine importance) repose sur une théorie macroéconomique dans la mesure où le modèle walrassien (ou Arrow-Debreu) de l’équilibre général dépend d’une hypothèse de plein emploi. Cela a inspiré à Paul Krugman un billet très intéressant sur le fait que la microéconomie a des fondements macro et que, en conséquence, séparer d’un côté la "bonne" microéconomie de la "mauvaise" macroéconomie n’a guère de sens :

Quiggin points out, rightly, that almost all microeconomics depends crucially on the assumption that the economy is at full employment; this assumption is false, but what makes it not too false in normal times is the existence of stabilization policies, monetary and fiscal, that usually produce fairly quick recoveries from slumps. Macro is what makes micro work, to the extent that it does.

Krugman fait ensuite un lien très intéressant entre la mathématisation de l’économie, et plus exactement sa constitution comme science basée sur la modélisation dans les années 1930-1950, et le développement de la macroéconomie keynésienne :

So why did model-oriented, math-heavy economics triumph? It wasn’t because general-equilibrium models of perfect competition had overwhelming empirical success. What happened, I’d argue, was Keynesian macroeconomics.

Think about it: In the 1930s you had a catastrophe, and if you were a public official or even just a layman looking for guidance and understanding, what did you get from institutionalists? Caricaturing, but only slightly, you got long, elliptical explanations that it all had deep historical roots and clearly there was no quick fix. Meanwhile, along came the Keynesians, who were model-oriented, and who basically said “Push this button”– increase G, and all will be well. And the experience of the wartime boom seemed to demonstrate that demand-side expansion did indeed work the way the Keynesians said it did.

Krugman termine par une petite pique contre les microéconomistes : basiquement, ce que vous faites n’intéresse pas grand monde, la seule raison pour laquelle les gens accordent une attention aux économistes est pour ce qu’ils ont à dire concernant les questions macroéconomiques :

Oh, and economists who are upset that the public seems to judge the profession by its success at macro diagnosis and prediction are missing the point: it has always been thus, and purists who disdain macro are making mock of the only reason anyone takes them at all seriously.

The academic enterprise of economics as we know it, in other words, rests on a macro foundation, and in fact a Keynesian foundation — and economists who denounce all of that as witchcraft are busily sawing off the branch they’re sitting on.

On peut aisément balayer ce dernier point d’un revers de la main, mais les deux autres sont plus intéressants. Sur les fondements macro de la micro, il est dommage que ni Quiggin ni Krugman ne citent d’exemples spéficiques. J’avoue que c’est quelque chose auquel je n’avais jamais pensé. Maintenant, il est clair que la très grande majorité de la microéconomie moderne, et notamment lorsqu’elle repose sur la théorie des jeux (pléonasme), est constituée d’analyses en équilibre partiel. Par définition, ces analyses n’incorporent donc aucune hypothèse explicite sur le niveau d’emploi dans l’économie. Est-ce que leur validité dépend tacitement de cette hypothèse ? A brûle-pourpoint, je peux penser à beaucoup de modèles qui semblent complètement indépendant d’une telle hypothèse (mechanism design, modèle de duopole). Il y a probablement des contre-exemples, aussi si des lecteurs ont quelques idées, qu’ils n’hésitent pas à les partager. Quoiqu’il en soit, de nombreuses extensions de la microéconomie sont totalement indépendantes de toute hypothèse macro (pensez à la théorie du choix social par exemple).

Le lien que fait Krugman entre modélisation/mathématisation et macroéconomie keynésienne est très intéressant. Il y a peut être effectivement une relation. Cependant, il me semble qu’un facteur autrement plus déterminant a été l’influence très importante, notamment dans les ays anglo-saxons, du positivisme logique. Le positivisme logique a notamment défendu la thèse selon laquelle une proposition n’est scientifique que si elle est significative, autrement dit si elle dépend d’éléments observables (et, donc, mesurables). Krugman cite Samuelson et cela est approprié : Samuelson, qui à l’origine de l’économie mathématique moderne, a été largement influencé par le positivisme logique. D’ailleurs, sa théorie des préférences révélées, dont le concept primitif est celui de choix observables, est élaborée dans le plus pur esprit du positivisme logique. De manière plus générale, Samuelson a initié la démarche axiomatique en économie, c’est à dire une approche consistant à définir une théorie ou un modèle à partir d’un ensemble d’axiomes qui, pour la plupart, doivent être empiriquement significatifs (c’est à dire qu’ils doivent avoir une traduction directe en termes de comportement des agents).

Le positivisme logique ne saurait évidemment expliquer complétement la constitution de l’économie comme science reposant sur l’axiomatisation et la modélisation. Cela est d’autant plus vrai que la tendance s’était amorcée dès la fin du 19ème siècle. Mais j’inverserais la causalité suggérée par Krugman : si la macroéconomie keynésienne a pu se développer (et par là j’entend surtout la macroéconomie à partir de Hicks avec ISLM), c’est parce que les économistes avaient déjà accepté le point de vue positiviste sur le rôle de la mesure et de l’observation, ouvrant ainsi  la voie à la modélisation et à l’axiomatisation dans leur discipline.

2 Commentaires

Classé dans Non classé

Une courte note sur les anticipations rationnelles (encore)

C.H.

Deux billets de Rajiv Sethi sur l’hypothèse d’anticipations rationnelles (un récent, un plus ancien) m’amènent à revenir brièvement sur le sujet. Suite à la citation d’un passage d’un article de Robert Solow dans lequel ce dernier résume (de manière lumineuse selon Sethi) l’essence de la pensée de Keynes, Sethi note :

This is as clear and concise a description of the fundamental contribution of the General Theory that I have ever read. And it reveals just how far from the original vision of Keynes the so-called Keynesian economics of our textbooks has come. The downward inflexibility of wages and prices is viewed in many quarters today to be the hallmark of the Keynesian theory, and yet the opposite is closer to the truth. The key problem for Keynes is the mutual inconsistency of individual plans: the inability of those who defer consumption to communicate their demand for future goods and services to those who would invest in the means to produce them.

The place where this idea gets buried in modern models is in the hypothesis of "rational expectations." A generation of graduate students has come to equate this hypothesis with the much more innocent claim that individual behavior is "forward looking." But the rational expectations hypothesis is considerably more stringent than that: it requires that the subjective probability distributions on the basis of which individual decisions are made correspond to the objective distributions that these decisions then give rise to. It is an equilibrium hypothesis, and not a behavioral one. And it amounts to assuming that the plans made by millions of individuals in a decentralized economy are mutually consistent. As Duncan Foley recognized a long time ago, this is nothing more than "a disguised form of the assumption of the existence of complete futures and contingencies markets."

L’idée selon laquelle l’hypothèse d’anticipations rationnelles est une hypothèse d’équilibre est très intéressante. Cela renvoi effectivement au fait qu’il s’agit d’une contrainte structurelle qui est imposée au modèle dans le sens où il est posé comme condition qu’à l’équilibre les anticipations des agents doivent avoir certaines propriétés. L’une des implications est très bien soulignée par Sethi dans le second billet :

[The rational expectations hypothesis] therefore requires not only that agents have "incredible cognitive abilities" but also that this fact is common knowledge among them, and that they are able to coordinate their behavior in order to jointly traverse an equilibrium path.

Cette clause de la connaissance commune est effectivement essentielle et correspond à ce qu’a par ailleurs écrit Roger Guesnerie (voir mon récent billet), à savoir qu’avoir des anticipations rationnelles n’est rationnel que si les autres ont les mêmes anticipations. Cela s’explique aisément par le fait que les anticipations des agents, qui portent sur les relations entre agrégats macroéconomiques, portent par extension sur les anticipations des autres agents (puisque les relations entre agrégats macroéconomiques sont le produit des actions et des croyances des individus). Comme je l’ai déjà écrit ici à plusieurs reprises, la clause de la connaissance commune est acceptable si elle appréhendée comme un évènement plutôt que comme une hypothèse. Autrement dit, il est intéressant d’essayer d’endogénéiser la réalisation de la connaissance commune au sein d’une population en intégrant explicitement les mécanismes épistémiques sous-jacents.

Comme l’indique Michael Chwe, la réalisation de la connaissance commune (d’un évènement ou d’une proposition) dans une population n’a rien d’exceptionnel et est tout à fait possible. Mais elle n’est possible qu’à des conditions bien particulières. Un évènement (quelque chose d’observable) ne peut être connaissance commune que s’il est public, c’est à dire que son occurrence se  produit dans des conditions telles que l’on peut être certain (ou au moins raisonnablement penser) que tout le monde l’a observé. Mais ce n’est souvent pas suffisant : pour qu’un évènement permette une coordination des anticipations des agents, il faut qu’il soit en mesure de générer une connaissance commune de ces anticipations. Bref, cela implique que tous les membres d’une population infèrent la même chose du même évènement. Cela renvoi à la doctrine d’Harsanyi et à son extension développée par Robert Aumann qui débouche sur la conclusion selon laquelle "it is impossible to agree to disagree"‘. Le postulat clé derrière cette doctrine est l’hypothèse de common priors : tous les agents ont les mêmes croyances ex ante sur la distribution des différents états du monde et sur les croyances (et actions) de chacun selon l’état du monde. Bref, cela revient à supposer que le monde socioéconomique est un gigantesque équilibre corrélé dans lequel la "Nature" indiquerait comme par magie à chacun ce qu’il doit faire à n’importe quel moment. Comme le défend de manière convaincante Ken Binmore dans ce récent ouvrage, c’est le genre d’hypothèses épistémiques qui ne peut tenir que dans un "small world" au sens de Savage, mais nullement dans la réalité socioéconomique.

Il n’empêche qu’il existe des équilibres corrélés dans le monde socioéconomique, ou autrement dit il arrive parfois que les individus aient les mêmes croyances ex ante. Dans ses cas, la réussite de la coordination des plans de multiples individus est une tautologie. Mais il faut expliquer (plutôt que postuler) comment cette corrélation des croyances est possible. La culture et les institutions sont évidemment probablement une importante explication. Mais d’autres facteurs peuvent jouer. Par exemple, faire l’hypothèse d’anticipations rationnelles sur les marchés financiers est moins héroïque que la faire pour la macroéconomie dans son ensemble, parce que sur les marchés financiers la théorie économique financière sert en partie d’instrument de corrélation des croyances et des actions. C’est en tout une possibilité suggérée par les travaux empiriques sur la performativité de la théorie économique. Mais c’est une hypothèse empirique qui demande à être étayée et qui peut être falsifiée. En revanche, postuler des anticipations rationnelles à l’échelle macroéconomique sans indiquer comment la corrélation des anticipations est possible revient à poser des contraintes épistémiques qui rendent les modèles qui le font très peu crédibles.

2 Commentaires

Classé dans Non classé

Croyances et intentions collectives, et économie

C.H.

Les récentes primaires « citoyennes » organisées par le parti socialiste me donnent l’occasion d’aborder une question qui n’intéresse généralement pas beaucoup les économistes mais qui a pourtant une signification économique tant théorique qu’empirique : le rôle des intentions et des croyances collectives. Les candidats à la primaire, en dépit de leurs efforts pour maintenir une certaine cohésion et unité, ont fait état ces dernières semaines d’un nombre non négligeable de désaccords sur des sujets centraux sur lesquels le programme du PS avait pourtant déjà pris position. Maintenant que François Hollande vient d’être désigné candidat officiel du PS, tous ses anciens « adversaires » vont se ranger de son côté et, défendre des idées qu’ils ont ouvertement critiqué lors des débats de la primaire. De son côté, les positions et les propositions de Hollande ne seront plus seulement les siennes, mais bien celles du parti socialiste dans son ensemble. Lire la suite

4 Commentaires

Classé dans Non classé

Guesnerie sur les anticipations rationnelles

C.H.

Suite de la discussion autour de l’article de John Kay dont j’ai parlé l’autre jour. Roger Guesnerie propose une réflexion vraiment très intéressante sur l’hypothèse d’anticipation rationnelle et l’hypothèse d’efficience des marchés. Un peu comme Woodward avant lui, Guesnerie considère que le problème de l’économie n’est pas l’excès de rigueur ou le recours à la modélisation (ce qui laissait entendre Kay), mais réside plutôt dans le fait de poser comme un axiome (les anticipations rationnelles) ce qui ne devrait être qu’une hypothèse de travail. Guesnerie souligne à juste titre (et il bien placé pour cela, étant donné qu’il travail sur le sujet depuis très longtemps) que la question fondamentale consiste à savoir comment les agents coordonnent leurs anticipations. Or, recourir à des anticipations rationnelles n’est… rationnel (ou plutôt, optimal) que si tout les autres agents agissent également en fonction d’anticipations rationnelles. En théorie des jeux (rappelons qu’un équilibre de Nash n’est rien d’autre qu’un équilibre en anticipations rationnelles), une belle illustration de ce problème est donné par le jeu du "mille-pattes" : si je suis rationnel, que l’autre joueur est rationnel et que cela est common knowledge, alors j’ai intérêt (au sens optimalité) à arrêter le jeu dès le début. Si en revanche j’ai un doute sur la rationalité de l’autre (ou si je pense que l’autre doute de ma rationalité), j’ai intérêt à poursuivre. Bref, comme le dit Guesnerie, un équilibre en anticipations rationnelles est un point focal (comme l’est un équilibre de Nash pour un théoricien des jeux), mais peut-être pas le seul.

Le point est donc de voir l’hypothèse d’anticipations rationnelles comme une hypothèse empirique et de la traiter comme telle : dans certains cas, elle est raisonnable, dans d’autres elle est ostensiblement fausse. Le fait que les économistes tendent à traiter cette hypothèse de manière axiomatique n’est toutefois par surprenant, comme l’indique cette remarque très judicieuse de Guesnerie :

The re-examination of the scope of the rationality hypothesis and a complete reassessment of the domains of validity of the REH are overdue. It has just been stressed that these tasks do not lead to dismiss the demand for theoretical modelling. This does not mean, obviously, that they are easy tasks and that they will not affect, perhaps deeply, our understanding of economic phenomena. For example, the second task, the re-assessment of the REH, will touch the roots of the philosophical determinism that has shaped economic culture, all schools of thought together. Outside a REH world, prediction is much more difficult[18], apart from any problem of non-stationarity (stressed in Kay’s text). The standard economic wisdom may be shaken up.

Cette remarque fait parfaitement écho avec le livre de Nancy Cartwright, The Dappled World, que je suis actuellement en train de lire. Comme le fait remarquer Guesnerie, l’hypothèse d’anticipations rationnelles a été l’un des moyens par lesquels les économistes ont mis du déterminisme et de l’ordre dans un monde socioéconomique qui est largement désordonné. Ce n’est pas une spécificité de l’économie : Cartwright défend de manière assez convaincante l’idée selon laquelle la physique elle-même repose sur une démarche consistant à construire des "machines nomologiques" exhibant des comportement entièrement prévisibles. Cartwright fait toutefois remarquer que le domaine d’application de ces machines nomologiques est extrêmement restreint, ce domaine s’arrêtant bien souvent aux frontières du laboratoire. Selon Cartwright, cette démarche n’est pas problématique en soi, tant que l’on a conscience que les lois qui caractérisent le comportement des machines nomologiques ne s’appliquent que ceteris paribus, et que le monde réel est bien plus désordonné que ce ce que suggèrent les modèles.

Il est vrai que l’hypothèse d’anticipations rationnelles est plus qu’une contrainte ad hoc imposée par les économistes à leurs modèles en raison de sa commodité : la critique de Lucas fournie au contraire de solides arguments épistémologiques pour penser que l’on ne peut décrire les relations entre agrégats macroéconomiques (par exemple entre production et dépenses publiques) par des coefficients structurels inamovibles (qui eux-mêmes servent à construire des machines nomologiques d’ailleurs). Un changement de politique économique (monétaire ou budgétaire) change la valeur de ces coefficients précisément parce qu’il semble raisonnable de penser que les agents anticipent les effets induits par un changement de politique économique.

C’est un argument solide, indiscutablement. Cependant, l’hypothèse d’anticipations rationnelles n’est pas une suite logique à la critique de Lucas. De mon point de vue de non-spécialiste, il me semble que la seule chose que la critique de Lucas autorise, c’est de postuler que les agents forment des anticipations qui affectent les relations entre agrégats macroéconomiques, mais rien d’autre. La nature des anticipations reste une question fondamentalement empirique. Pour dire les choses autrement, plutôt que de servir de contraintes structurelles à la construction de machines nomologiques, les anticipations rationnelles doivent au contraire être l’objet  d’une investigation théorique et empirique. De ce point de vue, la remise du "prix Nobel" d’économie à Sims et surtout à Sargent vient à point nommer puisque c’est justement une question traitée par ces auteurs. Comme je l’ai noté hier, l’une des contributions de Sargent a été notamment d’utiliser le concept de "self-confirming equilibrium" pour examiner les processus d’apprentissage par lesquels les agents peuvent éventuellement apprendre le "bon" modèle de l’économie et donc former des anticipations rationnelles. L’une des conséquences de ce genre de travaux est de souligner la possibilité d’équilibres multiples (j’en avais déjà parlé ici et ), autrement dit le fait que la convergence vers un équilibre d’anticipations rationnelles, si elle est possible, n’est pas une nécessité. Le concept d’équilibre corrélé peut également avoir une certaine pertinence : il n’est pas absurde de penser que les agents ne coordonnent pas leurs anticipations ex nihilo mais qu’ils s’appuient sur éléments exogènes (normes sociales, notes des agences de notation, ou… théories économiques performatives) qu’ils peuvent interpréter d’une multitude de manières. Là encore, la propriété d’un équilibre corrélé c’est qu’il ne correspond pas nécessairement à un équilibre de Nash. Empiriquement, la question est donc de déterminer sur quoi s’appuient réellement les agents pour former leurs anticipations. Rien ne dit alors qu’un équilibre en anticipations rationnelles soit un point focal.

Poster un commentaire

Classé dans Non classé

Repenser la macroéconomie selon Stiglitz

C.H.

Très long mais extrêmement intéressant article de Joseh Stiglitz sur la macroéconomie, ses enseignements et ses limites dans le contexte économique actuel. Voici l’abstract (via Etienne Wasmer) :

The standard macroeconomic models have failed, by all the most important tests of scientific theory. They did not predict that the financial crisis would happen; and when it did, they understated its effects. Monetary authorities allowed bubbles to grow and focused on keeping inflation low, partly because the standard models suggested that low inflation was necessary and almost sufficient for efficiency and growth. After the crisis broke, policymakers relying on the models floundered. Notwithstanding the diversity of macroeconomics, the sum of these failures points to the need for a fundamental re-examination of the models—and a reassertion of the lessons of modern general equilibrium theory that were seemingly forgotten in the years leading up to the crisis. This paper first describes the failures of the standard models in broad terms, and then develops the economics of deep downturns, and shows that such downturns are endogenous. Further, the paper argues that there have been systemic changes to the structure of the economy that made the economy more vulnerable to crisis, contrary to what the standard models argued. Finally, the paper contrasts the policy implications of our framework with those of the standard models.

3 Commentaires

Classé dans Trouvé ailleurs

Macroéconomie et complexité

C.H.

Russ Roberts a écrit sur Cafe Hayek un essai stimulant sur le caractère scientifique de la macroéconomie. Je suis globalement d’accord avec Roberts mais, bien qu’étant loin d’être un spécialiste de macroéconomie, j’aimerais apporter quelques compléments. Lire la suite

8 Commentaires

Classé dans Non classé

Paul Krugman est-il un luddite ?

C.H.

Le macroéconomiste Stephen Williamson s’en prend violemment à Paul Krugman, non à ses idées mais à ses compétences. Le billet de Williamson a attiré mon attention car il ressort un argument que j’avais déjà invoqué (de manière à moitié sérieuse) pour expliquer certaines oppositions paradigmatiques et surtout la propension au conservatisme méthodologique dont font preuve un certain nombre d’économistes : la crainte de perdre en capital humain suite à une évolution "technologique" dans la discipline. En clair, Williamson considère que Krugman s’oppose à toute la macroéconomie moderne (faisant de facto de lui un "hétérodoxe") parce qu’il ne comprend pas les derniers développements théoriques et tente à tout prix de faire revenir la macroéconomie à une technologie qui lui est accessible.

Je ne sais pas ce qu’il en est de la véracité de cette thèse, mais je noterai plusieurs choses. Tout d’abord, faire dévier un débat en passant du niveau des idées à celui de la personne (et de ses compétences) avec laquelle on débat est souvent le signe d’une certaine faiblesse argumentative. Ensuite, Williamson note à juste titre que les "fringes" auxquels s’attaque Krugman sont loins d’être une secte d’hétérodoxes mais représentent bien la macro mainstream. C’est exact et c’est justement pour cela qu’il y a peut être un problème avec la macroéconomie moderne. Je ne suis pas macroéconomiste et j’aimerai vraiment qu’un spécialiste m’explique ce que les modèles DSGE nous apprennent de la crise financière et des politiques macro à mener en période de crise que des modèles plus anciens de type IS/LM ou AS/AD ne nous apprennent pas déjà. Antoine Belgodère avait déjà brillament montré à quel point les débats actuels autour des plans de relance s’insèrent naturellement dans un cadre offre globale/demande globale. Je veux bien croire que les modèles DSGE apportent une dimension quantitative absente de AS/AD (voir cet intéressant débat sur le foum d’éconoclaste) mais concrètement quelle est la valeur ajoutée de ces modèles ? Pourquoi leurs apports ne sont-ils pas mobilisés dans les débats publics ? Contrairement à d’autres, je ne pense pas que le fait que la plupart des manuels de macroéconomie tournent essentiellement encore autour de IS/LM et AS/AD signifient que les modèles DSGE n’apporte véritablement rien. Après tout, il suffit d’ouvrir un manuel de microéconomie pour se rendre compte à quel point la plupart sont à des années lumières de l’état de l’art (une exception). Mais j’avoue être dans le flou.  

Enfin, je constate que Williamson fait de North ainsi que de toute l’économie néo-institutionnelle (donc Oliver Williamson et Elinor Ostrom) des représentants de  l’"hétérodoxie". Manifestement, son critère doit être l’usage des mathématiques, critère stupide s’il en est. Cela ressemble à la position d’un "savant idiot" pour qui la forme prend le pas sur la substance. Les apports de North à notre compréhension des institutions sont inestimables, bien plus que ceux de 95% des macroéconomistes "standards" à la crise financière. Le fait est que les travaux de North sont reconnus par une grande partie de la profession, tout comme ceux de nombreux autres institutionnalistes au sens large, et c’est le seul critère qui compte.

4 Commentaires

Classé dans Non classé

Krugman vs Rajan, suite

C.H.

Dans la continuité de mon billet d’hier où je pointais le modèle caché derrière la proposition de Raghuram Rajan d’augmenter les taux d’intérêt de 2 points, le principal intéressé se fend d’une longue réponse à Paul Krugman. En résumé, "there’s no free lunch", maintenir des taux d’intérêts bas implique des coûts et nécessite donc de faire un arbitrage. La thèse de Rajan a du sens (du moins elle est plausible sur le plan théorique) mais en revanche je trouve sa proposition alternative (aider à le reconversion de la force de travail) peu convaincante, du moins d’un point de vue conjoncturel…

2 Commentaires

Classé dans Trouvé ailleurs

Un indice pour Krugman

C.H.

Paul Krugman s’étrangle à propos de la suggestion de l’économiste Raghuram Rajan, lequel estime que la FED devrait augmenter son principal taux directeur de pas moins de 2 points, alors que le chômage aux Etats-Unis flirte avec les 10%. Dans le modèle keynésien auquel Krugman s’accroche depuis plus le début de la crise cette idée n’a aucun sens, comme le prix Nobel l’explique dans son billet. Krugman finit sont billet en demandant :

"So what is Rajan’s model? What’s the justification for raising real rates in the face of high unemployment? How would that model work in normal times?"

Je crois que j’ai la réponse et elle se trouve ici, dans un papier co-écrit par Rajan et Douglass Diamond. Les lecteurs d’inclination autrichiennes seront ravis je pense de voir Rajan et Diamond défendre une thèse très proche de celle de la théorie autrichienne du cycle (c’est bien la première fois que que je vois Rothbard cité par des économistes mainstream !). En fait, les deux thèses sont assez différentes parce que chez Rajan et Diamond se sont les anticipations des agents (les banques) concernant la tendance de la banque centrale à baisser les taux fortement en période de crise qui peut induire un nouveau mouvement de "boom and bust" alors que dans l’ABCT c’est le niveau artificiellement bas du taux présent qui induit de mauvais investissements (Rajan et Diamond notent aussi le problème de la myopie des agents dans l’ABCT). En tout cas, avec ce modèle dans la tête, on comprend mieux la proposition de Rajan. Bon, je ne suis pas macroéconomiste, donc ce n’est pas moi qui départagerai les deux protagonistes…

7 Commentaires

Classé dans Non classé

Mais c’est quoi ces chiffres du chômage ??

Aujourd’hui, comme tous les jours, la Miss des Villes regarde le JT du matin et entre la débacle de l’équipe de France et les retraites, la miss des villes note une information à peine perceptible (et ce quelle que soit la chaine). Les chiffres du chômage, annoncés par les médias, ont sacrément augmenté.

En effet, Le Monde, dans un article en date du 3 juin,  évoque 2,7 millions de chômeurs (d’après l’INSEE). Mais ce matin, ce sont 3,95 millions de chômeurs… et ce quelle que soit les sources médiatiques, enfin les news band des chaines de la TNT ayant une matinale. Pourquoi donc un tel gap de 1 000 000 de chômeurs en un mois ?????

En économiste avertie, la Miss des villes sait bien que le chômage est une catégorie statistique complexe ; que le plus souvent sont repris par les JT les chiffres du chômage de la catégorie A (les plus faibles) et que les chiffres des catégories A, B et C ne se trouvent, à peu de choses près que dans Alter Eco.

La miss des villes décide donc de mener l’enquête et part à la chasse aux sources : les communiqués de presse.

-           Le site du Ministère d travail sur lequel se trouve le communiqué de presse comptabilise en premier  les chômeurs de catégorie 1 et fait preuve d’une grande pédagogie pour ce qui concerne les catégories de chômeurs

-          Le communiqué de presse fait de même….

-          Tout comme la dépêche AFP reprise par certains quotidiens

Alors que ce passe-t-il ? si elle était au café du commerce, la Miss des villes aurait tendance à faire des hypothèses interprétatives qui ne passeraient pas la censure du maitre des lieux et va donc s’en abstenir pour préserver le sérieux du blog… mais les commentaires sont ouverts



1 commentaire

Classé dans Non classé

Herbert Gintis sur l’interprétation "autrichienne" de la crise

C.H.

Via Marginal Revolution, un commentaire ravageur de Herbert Gintis sur un récent ouvrage défendant une explication "autrichienne" de la crise et plus généralement sur l’école autrichienne. Je ne pense pas qu’il soit vraiment nécessaire de préciser que je suis largement d’accord avec Gintis (même si je n’ai pas lu l’ouvrage). 

12 Commentaires

Classé dans Trouvé ailleurs

Flexisécurité = emplois ?

La Miss des Villes

Ces derniers temps, la lecture de E. Wasmer inspire beaucoup La miss des villes, qui du coup retourne à ses vieilles passions : l’économie du travail ou plutôt du chômage. Et oui, Mathilde Lemoine et Étienne Wasmer viennent de sortir, pour le CAE, un rapport sur la mobilité des salariés et la Miss des villes n’a pas pu résister à la tentation de le lire (en tous cas, sa synthèse, mais ne nous leurrons pas, c’est ce que tout le monde lit), ni de réagir.

Le rapport (sa synthèse) part du postulat que la flexisécurité est une bonne chose pour accompagner la fluidité du marché du travail. Et si la sécurité n’a pas encore atteins le niveau souhaité, la flexibilité elle a bien été organisée ces dernières années avec un accroissement important des contrats précaires à temps partiel et/ou à durée déterminée et/ou d’intérim (sans parler des contractuels et autres vacataires dans la fonction publique). Pour agir face à ce constat, les auteurs préconisent de développer la « mobilité » des salariés de plusieurs manières telles que le soutien en cas de déménagement, l’incitation à changer de poste en accompagnant les pertes de salaires éventuelles liées à une moindre connaissance de son secteur d’activité, le développement de droits individuels (comme le DIF) au détriment de droits attachés dans l’entreprise et bien évidemment, le développement de formations.

Deux idées sont donc sous-jacentes à ces préconisations. La première est qu’il faut accompagner la mise en place d’une plus grande mobilité chez les salariés, cet accompagnement prenant la forme de mesures  visant à diminuer le coût de la mobilité pour celui qui la supporte  Le deuxième axe est l’encouragement à se former, autrement dit à « investir dans son capital humain », de préférence avec des compétences facilement transférables et reconnues par un diplôme.

A priori, se former est une bonne chose, néanmoins certains diplômes peuvent constituer un obstacle à l’embauche sur le « marché du travail » car le coût du salarié diplôme devient rédhibitoire au regard de la valeur ajoutée supposée du diplôme. C’est le cas par exemple du doctorat (hors fonction publique). C’est le cas également pour le diplôme phare d’un secteur phare en terme de politiques d’emploi : les services à la personne.

On se situe ici en plein dans ce que Muller caractérise en terme de politiques publiques de tensions entre le rapport global de marché et un rapport sectoriel, en l’occurrence celui des services à la personne (et plus particulièrement de l’aide à domicile).

Dans les services à la personne, la flexibilité ne fait aucun doute : la majorité des salariéEs sont à temps partiel, ont plusieurs employeurs… sans parler de l’importante réserve de remplaçants qui sont en CDD de très courte durée. Des formations existent pour ces métiers : on dénombre pas moins de 19 diplômes différents de niveau BEP/CAP pour les métiers d’aide à domicile et de la garde d’enfants. Par ailleurs, les structures sont largement engagées dans des démarches de qualité, que ces démarches relèvent d’obligations légales (Agrément qualité par l’Etat ou autorisation) ou volontaires (certification). Elles ont donc largement cherché à recruter des salariés ayant un diplôme en lien avec le secteur. Notez que la Miss des villes vient d’utiliser le passé. Car c’était avant ce qu’il convient d’appeler la crise de l’aide à domicile. Pour faire (très) simple, cette crise provient largement de la tarification des services d’aide à domicile par des Conseils Généraux dont  les finances sont très tendues à l’heure où les prestations sociales de leur compétence se développent (RSA, Allocation pour l’Autonomie, la Prestation de compensation du handicap, etc.). Dans de telles conditions, les conseils généraux cherchent au maximum à faire des économies et, de par leur fort pouvoir de négociation (de 50 à 80% des financements des structures d’aide à domicile) contraignent les structures d’aide à domicile à se tourner pour leurs recrutements vers des salariés moins coûteusEs car non diplômées (pour rappel, on parle de diplômes de niveau BEP/CAP). Enfin, pour les structures qui ne sont pas déjà dans le gouffre puisque il y a  de nombreux redressements et/ou liquidations judiciaires de structures historiques prenant en charge plusieurs milliers de personnes âgées.

Une telle tension, entre l’encouragement à une flexibilité sécurisée et le secteur phare des politiques d’emploi qui ne recrute plus de salariés formés laisse la miss des villes perplexe… car à quoi bon vouloir diplômer tout le monde si les diplômés dont il y a besoin ne trouvent pas d’emploi car ils sont trop coûteux pour le marché du travail ???

Poster un commentaire

Classé dans Non classé

« The Missing Motivation in Macroeconomics », ou quand Akerlof fait du Schmoller

C.H.

Venant de finir de lire Identity Economics de George Akerlof et Rachel Kranton (note de lecture à venir prochainement), j’ai entrepris de creuser un peu plus ce programme de recherche en allant voir de plus près ce que Akerlof et Kranton ont raconté dans leurs articles académiques (lesquels proposent souvent une version formalisée des arguments présentés dans l’ouvrage). Ce matin, j’ai notamment lu attentivement un article d’Akerlof datant de 2007, « The Missing Motivation in Macroeconomics », qui renvoie en fait à sa conférence donnée en janvier 2007 en tant que président de l’American Economic Association. Akerlof y discute de l’état de la recherche en macroéconomie et plus précisément tente de montrer que les travaux actuels ignorent un élément crucial, induisant un biais dans leurs conclusions : le rôle des normes dans les comportements et leur impact macroéconomique. Lire la suite

3 Commentaires

Classé dans Non classé