« Christopher Sims a profondément renouvelé la façon par laquelle les macroéconomistes considèrent les données, l'incertitude, l'inflation et les limites de l'attention humaine. Pendant quatre décennies, il n'a cessé de poser la même question : quelles sont les hypothèses qu’un modèle occulte ? Puis, il a construit les outils pour y répondre.
J'ai déjà écrit sur la critique de Sims à l'égard des modèles macroéconométriques à grande échelle et sur les raisons pour lesquelles la macroéconomie n'a jamais connu de révolution de la crédibilité. Aujourd'hui, je veux me concentrer sur ce que Sims a construit, et non sur ce qu'il a démoli. Ses contributions portent sur quatre domaines : les modèles autorégressifs vectoriels ont remplacé des modèles structurels peu crédibles par des outils empiriques transparents ; les méthodes bayésiennes ont apporté une rigueur intellectuelle à l'estimation en situation d'incertitude ; la théorie fiscale du niveau des prix a remis en question la séparation traditionnelle entre politique monétaire et politique budgétaire ; enfin, l'inattention rationnelle a transformé la manière par laquelle les agents économiques traitent l'information. Dans chaque cas, la logique était la même : identifier ce qui était dissimulé et construire un cadre permettant de le mettre à jour. […]
Le langage des données macroéconomiques
Avant Sims, les macroéconomistes débattaient des modèles. Après Sims, ils débattaient des faits.
L'approche empirique dominante des années 1970 était celle des modèles structurels à grande échelle. Ces modèles, élaborés par des institutions telles que la Réserve fédérale, la Brookings Institution et la Commission Cowles, contenaient des dizaines, voire des centaines d'équations représentant la consommation, l'investissement, la demande de monnaie, l'offre de travail et la formation des prix. L'objectif était de capturer l'ensemble du système macroéconomique dans un système d'équations simultanées qui pouvaient être estimées, simulées et utilisées pour analyser les politiques économiques.
Le problème était que chaque équation nécessitait des hypothèses quant aux variables à inclure et celles à exclure. Une variable était déclarée exogène parce que le modèle l'exigeait. Un coefficient était fixé à zéro pour simplifier l'estimation. Ces modèles constituaient une impressionnante prouesse technique, mais leur contenu empirique reposait sur des restrictions d'exclusion qu’il était difficile de justifier de manière indépendante.
Au milieu des années 1970, les limites de cette approche étaient largement reconnues. La célèbre critique de Robert Lucas [1976] a montré que les paramètres estimés pouvaient changer lorsque la politique économique changeait, car les agents ajustent leur comportement aux nouveaux régimes. Lucas et d'autres chercheurs ont proposé de construire des modèles à partir de variables plus profondes (les préférences, la technologie, les anticipations rationnelles) qui resteraient stables malgré les changements de politique économique.
Sims a opté pour une voie différente. Plutôt que de remplacer un ensemble d'hypothèses fortes par un autre, il a posé une question plus fondamentale : que pouvons-nous apprendre des données avec le moins d'hypothèses possible ?
La réponse a été le modèle autorégressif vectoriel [Sims, 1980]. Prenons un ensemble de variables macroéconomiques, par exemple la production, l'inflation, le taux d'intérêt et la masse monétaire. Au lieu de supposer un modèle structurel qui spécifie quelle variable affecte quelle autre, on laisse chaque variable dépendre de ses propres valeurs passées et des valeurs passées de toutes les autres variables.
où Yt représente un vecteur de variables macroéconomiques et ut un vecteur de résidus de forme réduite. Aucune théorie économique n'est imposée. Le modèle VAR décrit simplement comment les variables évoluent ensemble au fil du temps.
Pour donner une interprétation causale à ces covariations, le chercheur doit décomposer les résidus en chocs structurels orthogonaux. Cela implique des restrictions, mais celles-ci sont explicitement énoncées. L'approche la plus simple est un ordre récursif, la décomposition de Cholesky qui suppose que certaines variables répondent aux chocs au cours de la période, tandis que d'autres n'y réagissent pas. Si l’on place le taux d'intérêt en dernier, cela revient à supposer que la politique monétaire réagit au cours de la période à toutes les autres variables, mais que la production et les prix ne réagissent qu'avec un certain décalage. Il s'agit d'une hypothèse, certes, mais d'une hypothèse que l'on peut observer, discuter et tester.
Une fois que l’on a identifié les chocs structurels, on en retrace les effets à l’aide de fonctions de réponse impulsionnelle. Que se passe-t-il pour la production au cours des douze trimestres suivant un choc de politique monétaire ? La fonction de réponse impulsionnelle est devenue l’outil emblématique de la littérature sur les modèles VAR et elle a bouleversé les termes des débats. Au lieu de s’interroger sur la validité des hypothèses théoriques, les macroéconomistes pouvaient désormais s’appuyer sur des données empiriques et demander : votre modèle peut-il reproduire ces faits ?
La boîte à outils s'est rapidement enrichie. Blanchard et Quah [1989] ont introduit des restrictions de long terme. Uhlig [2005] a proposé des restrictions de signe. Romer et Romer [2004] ont utilisé des méthodes narratives. Chaque approche reposait sur des hypothèses différentes, mais chacune rendait explicite ses hypothèses. C'est l'héritage de Sims en macroéconomie empirique : non pas une méthode spécifique, mais une norme méthodologique. Énoncez vos hypothèses, défendez-les et démontrez que vos résultats résistent à l’épreuve des faits.
Prendre l'incertitude au sérieux
Les modèles VAR sont de grande dimension. Un modèle VAR à six variables et huit retards possède des centaines de paramètres. Avec des échantillons de données macroéconomiques ayant typiquement quelques centaines d'observations trimestrielles, les méthodes fréquentistes classiques peinent à donner des estimations fiables. Sims a alors eu recours aux méthodes bayésiennes, devenant ainsi une figure centrale de l’introduction de l'économétrie bayésienne en macroéconomie.
L'idée clé était que les distributions a priori sont une caractéristique, non un défaut. Dans les modèles de grande dimension, il est nécessaire de procéder à une régularisation. Les méthodes fréquentistes le font implicitement avec la sélection du modèle. Les méthodes bayésiennes le font explicitement avec le choix de la distribution a priori.
L'application la plus influente est la distribution a priori du Minnesota, développée par Sims avec Robert Litterman et Thomas Doan [1984] au début des années 1980. Cette loi repose sur une hypothèse simple : chaque variable d'un VAR se comporte approximativement comme une marche aléatoire. Elle ramène vers zéro tous les coefficients, à l'exception du coefficient du premier retard propre à chaque variable, qui tend vers un. En l'absence d'informations sur la relation entre la production industrielle et le chômage à différents décalages, on peut supposer que chaque variable suit globalement sa propre tendance récente. Les données peuvent ensuite corriger cette hypothèse dès que les données empiriques sont assez robustes
Le modèle VAR bayésien est devenu un outil de prévision standard. La Réserve fédérale, la BCE et la Banque d'Angleterre utilisent largement des variantes de modèles VAR bayésiens pour leurs prévisions macroéconomiques.
Mais l’argument de Sims allait au-delà des prévisions. Il estimait que l'incertitude concernant le modèle lui-même, et non seulement celle relative aux paramètres du modèle, constituait une préoccupation majeure pour les responsables des politiques économiques. Les banques centrales ne connaissent pas le véritable modèle de l'économie. Un cadre bayésien permet d'attribuer des probabilités à différents modèles, de les actualiser à mesure que les données s'accumulent et de prendre des décisions de politique économique qui tiennent compte de cette incertitude. Le modèle de Smets et Wouters [2007], estimé par des méthodes bayésiennes et largement utilisé par les banques centrales, est un héritier direct de cette exigence.
La théorie fiscale du niveau des prix
Les modèles VAR et les méthodes bayésiennes sont avant tout méthodologiques. La théorie fiscale du niveau des prix est différente. Il s’agit d’une thèse de fond sur le fonctionnement de l'inflation, que de nombreux macroéconomistes continuent de rejeter.
Selon l’analyse dominante, l'inflation est fondamentalement un phénomène monétaire. Sims a proposé une alternative. Son argument est que le niveau des prix est également déterminé par la contrainte budgétaire intertemporelle du gouvernement.
[…] Selon l’approche standard, la politique budgétaire s'ajuste pour satisfaire cette contrainte. Dans la théorie fiscale, lorsque les autorités budgétaires n’ajustent pas leur politique, c'est alors le niveau des prix qui assure l’ajustement. Si la valeur actuelle des excédents futurs est inférieure à la valeur réelle de la dette, l'inflation augmente afin de réduire cette dernière jusqu'à ce que l'équation soit satisfaite.
Cela signifie qu'une banque centrale ne peut pas toujours contrôler indépendamment l'inflation. Son pouvoir dépend de la coopération des autorités budgétaires et du caractère "ricardien" (qui ajuste les excédents pour satisfaire la contrainte) ou "non ricardien" (laissant le niveau des prix faire l’ajustement) de la politique budgétaire.
Sims [1999] a appliqué ce cadre d'analyse à l'Union monétaire européenne dans un article prémonitoire intitulé "The Precarious Fiscal Foundations of EMU". Il y soutenait qu'une union monétaire sans intégration budgétaire était instable. Une décennie plus tard, la crise budgétaire grecque a confirmé de manière frappante le scénario que Sims avait prédit.
Cette théorie reste contestée. De nombreux macroéconomistes, dont Thomas Sargent, colauréat du prix Nobel avec Sims, contestent l’idée que la contrainte budgétaire du gouvernement doit être interprétée comme une condition d'équilibre déterminant le niveau des prix ou simplement comme une contrainte que les autorités budgétaires doivent satisfaire. Mais l'idée fondamentale, selon laquelle les politiques budgétaire et monétaire ne peuvent être analysées indépendamment, est devenue un élément central dans la façon par laquelle les macroéconomistes considèrent le monde. Avec l'accumulation de dette publique dans le monde depuis 2020, il est devenu encore plus urgent de répondre à ces questions.
L’inattention rationnelle
Les trois premières contributions portent sur la manière par laquelle les économistes analysent les données et réfléchissent à la politique économique. La quatrième aborde la façon par laquelle on modélise les agents.
Les modèles standard supposent que les agents sont parfaitement informés. La théorie des anticipations rationnelles va plus loin : les agents utilisent de manière optimale toutes les informations disponibles. Sims souhaitait étendre ce cadre en se demandant ce qui se passe lorsque le traitement de l’information a un coût. Les individus ne suivent pas tous les prix dans l’économie. Les entreprises ne mettent pas constamment à jour leurs décisions en matière de prix. La question était de savoir comment modéliser cette capacité limitée de façon rigoureuse.
Sa réponse s'appuyait sur la théorie de l'information de Claude Shannon. Dans un article influent, Sims [2003] proposait de considérer les agents économiques comme des canaux à capacité finie. Un agent observe un monde multidimensionnel (prix, revenus, taux d'intérêt, informations), mais il ne peut traiter qu'une quantité limitée d'informations par unité de temps, mesurée en bits de Shannon. L'agent doit choisir à quoi prêter attention. […]
Qu’est-ce que cela implique ? Les réactions des agents aux changements externes sont lentes et bruitées, non pas à cause de frictions mécaniques, mais parce qu’ils choisissent rationnellement de ne pas suivre précisément chaque fluctuation. Les prix évoluent lentement non pas à cause des coûts de menu ou des contrats à la Calvo, mais parce que les entreprises ont une capacité limitée à surveiller leur environnement. Le degré d’inertie est endogène : lorsque l’inflation devient plus volatile, les agents consacrent davantage de ressources à son suivi, et la réaction de l’économie aux chocs s’en trouve modifiée.
Ce cadre explique aussi pourquoi le comportement individuel est bruité, même chez des agents faisant face à des fondamentaux identiques, et pourquoi la communication des banques centrales importe. Si les agents ont une capacité limitée, la manière par laquelle l'information est présentée affecte son traitement.
La littérature sur l'inattention rationnelle a connu un essor considérable. Maćkowiak et Wiederholt [2009] ont montré que les entreprises accordent plus d’attention aux chocs idiosyncrasiques qu'aux chocs agrégés, ce qui explique pourquoi les prix agrégés sont plus rigides que les prix individuels. Matějka et McKay [2015] ont démontré que le modèle logit multinomial émerge comme la règle de choix optimale en cas d'inattention rationnelle avec coûts d'entropie de Shannon, établissant ainsi un lien inattendu entre la théorie de l'information et les modèles de choix discret.
Le fil conducteur
En octobre 2011, l'Académie royale des sciences de Suède a décerné conjointement le prix Nobel d'économie à Christopher Sims et Thomas Sargent. Le communiqué saluait leurs "travaux empiriques sur les relations de cause à effet en macroéconomie". L’association était judicieuse. Sargent avait étudié les anticipations rationnelles de l'intérieur, en élaborant des modèles structurels intégrant des agents prospectifs. Sims avait suivi une voie parallèle, en développant des outils empiriques permettant de discipliner la théorie sans la présupposer. Pendant quarante ans, ils ont débattu de manière fructueuse et dans le respect mutuel.
L'unité profonde de l'œuvre de Sims réside dans le schéma que j'ai décrit en introduction. Là où les modèles structurels à grande échelle reposaient sur des restrictions non testées, Sims a construit des modèles VAR qui rendaient les hypothèses transparentes. Là où l'estimation classique considérait le choix du modèle comme allant de soi, Sims a introduit des méthodes bayésiennes qui prenaient l'incertitude au sérieux. Là où la théorie monétaire traitait l'inflation comme le seul ressort de la banque centrale, Sims a montré l'importance des fondements budgétaires. Là où les modèles standard supposaient un traitement parfait de l'information, Sims a modélisé les limites de l'attention.
Chaque contribution commençait par reconnaître qu'un point important était passé sous silence, avant de construire un cadre qui le prenait au sérieux. Les données priment. La théorie doit expliquer les données, et non l'inverse. Sims était un théoricien de premier plan, mais il insistait sur le fait que la théorie ne vaut que si elle colle aux régularités empiriques, et non à sa seule élégance logique.
Lors de sa première année à Harvard, un assistant avait dit à Sims qu'en tant que mathématicien, il ne pourrait jamais changer le monde. Il prit ce conseil au sérieux. Il obtint son diplôme de mathématiques, puis se tourna vers la science économique. L’assistant avait raison sur un point : les mathématiques pures, prises abstraitement, ne changent peut-être pas le monde. Mais les mathématiques au service d'une recherche empirique rigoureuse le peuvent. Sims est décédé le 14 mars 2026. Il avait 83 ans.
J'ai volontairement omis un aspect de l'histoire de Sims : ses premiers travaux sur la causalité. Dans "Money, Income, and Causality" [Sims, 1972], il a appliqué le cadre théorique de Granger pour tester si la monnaie cause le revenu ou inversement, et ses résultats ont profondément modifié le débat entre monétaristes et keynésiens. Ces travaux, ainsi que la question plus générale de la signification de la "causalité" dans les séries temporelles, méritent une analyse approfondie. J'y reviendrai dans un prochain essai. »
Carlos Chavez, « Why Christopher Sims was so great? », 23 mars 2026. Traduit par Martin Anota
Références
Blanchard, O. J., & D. Quah (1989), « The Dynamic Effects of Aggregate Demand and Supply Disturbances », American Economic Review, vol. 79, n° 4.
Lucas, R. E. (1976), « Econometric Policy Evaluation: A Critique », Carnegie-Rochester Conference Series on Public Policy, vol. 1.
Maćkowiak, B., & M. Wiederholt (2009), « Optimal Sticky Prices under Rational Inattention », American Economic Review, vol. 99, n° 3.
Matějka, F., & A. McKay (2015), « Rational Inattention to Discrete Choices: A New Foundation for the Multinomial Logit Model », American Economic Review, vol. 105, n° 1.
Romer, C. D., & D. H. Romer (2004), « A New Measure of Monetary Shocks: Derivation and Implications », American Economic Review, vol. 94, n° 4.
Sims, C. A. (1972), « Money, Income, and Causality », American Economic Review, vol. 62, n° 4.
Sims, C. A. (1980), « Macroeconomics and Reality », Econometrica, vol. 48, n° 1.
Sims, C. A. (1999), « The Precarious Fiscal Foundations of EMU », De Economist, vol. 147, n° 4.
Sims, C. A. (2003), « Implications of Rational Inattention », Journal of Monetary Economics, vol. 50, n° 3.
Smets, F., & R. Wouters (2007), « Shocks and Frictions in US Business Cycles: A Bayesian DSGE Approach », American Economic Review, vol. 97, n° 3.
Uhlig, H. (2005), « What Are the Effects of Monetary Policy on Output? Results from an Agnostic Identification Procedure », Journal of Monetary Economics, vol. 52, n° 2.

Aucun commentaire:
Enregistrer un commentaire