« Une façon de lire le débat sur les fondements microéconomiques est de le voir comme un affrontement entre "haute théorie" et "politique pratique". Greg Mankiw, dans un Célèbre article, parle des scientifiques et des ingénieurs. Thomas Mayer [1993], dans son ouvrage Truth versus Precision in Economics, distingue la "science formaliste" de la "science empirique". Des idées similaires sous-tendent peut-être ma discussion des microfondations et des modèles de banques centrales, ainsi que celle de Mark Thoma.
Dans ces récits, la "haute théorie" est potentiellement autonome. Le problème est que cette théorie n'a pas encore produit les résultats escomptés en matière de politique économique et pose la question de savoir ce que les économistes qui conseillent les décideurs politiques devraient faire entretemps. Mais on présume généralement que la théorie le fera dès qu'elle le pourra. Mais le fera-t-elle d'elle-même ? Les universitaires sont-ils assez doués pour dire quelles sont les énigmes importantes ou ont-ils besoin que d'autres personnes plus connectées aux données les aident ?
On craint depuis longtemps que certaines énigmes soient sélectionnées parce qu'elles sont relativement faciles à résoudre et non parce qu'elles sont importantes. C'est le cas de la personne cherchant ses clés sous un lampadaire, alors qu’elles sont été perdues dans un endroit moins éclairé. C'est le sujet de ce billet. Un billet ultérieur abordera un autre problème, en l’occurrence la possible présence d’un élément fans la sélection des énigmes. Dans les deux cas, ces biais dans la sélection des énigmes peuvent persister en raison du manque de discipline exercée par la cohérence externe.
L’exemple qui m’a rappelé cela vient de ce graphique :
Taux d'épargne aux États-Unis (en %) Le rôle du taux d'épargne dans la Grande Récession aux États-Unis et ailleurs a été largement évoqué. Certains auteurs ont spéculé sur le rôle que les conditions de crédit peuvent avoir joué à cet égard, par exemple Eggertsson et Krugman ici ou Hall là. Mais qu'en est-il de la baisse régulière du taux d'épargne du début des années 1980 jusqu'à la récession ?
Etant donnée l'importance de la consommation en macroéconomie, vous pourriez vous attendre à ce qu’il y ait une abondante littérature, tant empirique que théorique, sur le sujet. Quelles que soient les conclusions de cette littérature, vous pourriez également imaginer que les principales institutions politiques intégreraient les résultats de ces travaux dans leurs modèles. Enfin, vous pourriez vous attendre à ce que toute publication universitaire utilisant un modèle de consommation totalement inadapté à cette tendance soit accueillie avec un certain scepticisme. Bon, j'exagère peut-être un peu, mais vous saisissez l'idée. (Des travaux universitaires ont bien sûr tenté d'expliquer le graphique ci-dessus : un excellent résumé de Guidolin et Jeunesse se trouve ici. Mon affirmation selon laquelle cette littérature n'est pas aussi abondante qu'elle devrait l'être est bien sûr difficile à juger, et encore moins à vérifier, mais je vais néanmoins la formuler.)
Il serait particulièrement ironique que les conditions de crédit soient responsables à la fois de la tendance à la baisse et de son inversion lors de la Grande Récession. Or, c'est exactement ce qu'affirment deux articles récents, ceux de Carroll et al. (ici) et d'Aron et al. (publié dans Review of Income and Wealth [2011], version antérieure ici), ce dernier examinant le Royaume-Uni et le Japon ainsi que les États-Unis. Si vous pensez que c'est une absurdité flagrante et qu'il existe une explication alternative et bien comprise à ces tendances, alors vous pouvez arrêter de lire. Mais sinon, supposons que ces auteurs aient raison, pourquoi a-t-il fallu autant de temps pour que cela soit découvert et encore moins intégré dans les macromodèles traditionnels ?
[…] John Muellbauer et Anthony Murphy ont exploré ces idées depuis le boom de la consommation au Royaume-Uni à la fin des années 1980. Comme je l'ai expliqué dans un précédent billet, il y avait une autre explication pour ce boom, outre les conditions de crédit, qui était plus cohérente avec le modèle intertemporel standard, mais les preuves empiriques étaient peu convaincantes. Le problème n'est peut-être pas tant la preuve empirique que la difficulté d'intégrer ce type d'effets de crédit dans les modèles DSGE standard. Il est bien difficile de construire une fonction de consommation microfondée et exploitable intégrant ces effets, même si Carroll et al. en présentent une. L'intégrer dans un modèle DSGE nécessiterait d'endogénéiser les conditions de crédit en modélisant le secteur bancaire, l'effet de levier, etc. C’est quelque chose qui commence à se faire en grande partie en conséquence de la Grande Récession, mais auparavant ce n'était guère un domaine de recherche majeur.
Voici donc mon problème. Le comportement de l'épargne aux États-Unis, au Royaume-Uni et ailleurs constitue une énigme majeure depuis au moins deux décennies, mais il n'a pas fait l'objet d'une attention particulière de la part de la recherche universitaire. La principale raison en est la difficulté de modéliser une réponse évidente à cette énigme selon l'approche des microfondements. John Muellbauer avance une affirmation similaire dans cet article. Pour le citer : "Si les modèles DSGE sont des outils de recherche utiles pour développer des intuitions analytiques, les hypothèses très simplifiées nécessaires à l'obtention de solutions d'équilibre général exploitables compromettent souvent leur utilité. Comme nous l'avons vu, les données contredisent les hypothèses clés faites dans ces modèles et leur adéquation aux réalités institutionnelles, tant au niveau microéconomique que macroéconomique, est souvent très mauvaise".
Je pense que la méthodologie des microfondations est progressive. Le problème est que, en tant que projet, elle pourrait avoir tendance à progresser dans les directions de moindre résistance plutôt que dans les domaines vraiment importants. Du moins, peut-être jusqu'à ce qu'une crise survienne. Il ne s'agit pas vraiment de confondre beauté et vérité : il existe de nombreux articles macroéconomiques avec des modèles DSGE plutôt mauvais, dont un ou deux que j'ai contribué à rédiger. Il s'agit de la manière par laquelle les énigmes sont choisies. Lorsqu'un nouveau doctorant me présente une idée, je me demande bien sûr si elle est intéressante et importante, mais je me demande aussi si l'étudiant s'attaque à un sujet qui lui permettra d'obtenir un résultat clair et publiable dans le temps disponible.
Lorsque j'ai décrit le modèle macroéconomique BEQM de la Banque d'Angleterre, j'ai évoqué le noyau microfondé et les équations périphériques qui ont permis de mieux l’ajuster les données. Si tous les macroéconomistes travaillaient pour la Banque d'Angleterre, ce modèle contiendrait un mécanisme permettant de surmonter ce problème. Les prévisionnistes et les analystes politiques sauraient, grâce à leurs équations périphériques, où les travaux prioritaires doivent être menés et cela fixerait l'ordre du jour des travaux sur la théorie microfondée.
Dans le monde réel, la plupart des universitaires sont incités à publier, souvent dans un délai limité. Lorsque l'analyse macroéconomique se concentre sur la cohérence interne plutôt que sur la cohérence externe, alors il n’est pas certain que ce mécanisme d'incitation est socialement optimal. Si ce n'est pas le cas, une solution consisterait à ce que tous les macroéconomistes travaillent pour les banques centrales ! Une alternative plus réaliste pourrait consister à reprendre, en macroéconomie universitaire, une tradition de modélisation qui accordait davantage d'importance à la cohérence externe qu'à la cohérence interne, en complément de l'approche des microfondations. (Justin Fox fait une remarque similaire concernant la modélisation financière.) »
Simon Wren-Lewis, « Microfoundations and evidence (1): the street light problem », Mainly Macro (blog), 9 avril 2012. Traduit par Martin Anota
Aucun commentaire:
Enregistrer un commentaire