Overblog
Suivre ce blog Administration + Créer mon blog
26 avril 2023 3 26 /04 /avril /2023 15:03

Les banques centrales peuvent-elles parvenir à ramener l’inflation à un faible niveau sans provoquer de récession ? Le débat a suscité de nombreuses analyses outre-Atlantique autour de la capacité de la Réserve fédérale à faire atterrir en douceur l’économie américaine. Alan Blinder (2023) estime qu’elle n’y est parvenue qu’une seule fois au cours des six dernières décennies, à savoir lors du resserrement monétaire du mitan des années quatre-vingt-dix. Pessimistes, Alex Domash et Larry Summers (2022a, 2022b) n’ont guère trouvé d’épisodes au cours desquels la Fed ait réussi à faire atterrir en douceur l’économie américaine avec un taux d’inflation et des tensions sur le marché du travail aussi importants que ceux observées actuellement. Partant de la courbe de Beveridge, Andrew Figura et Chris Waller (2022) et Brandyn Bok et alii (2022) estiment que les tensions sur le marché du travail américain peuvent diminuer sans que le taux de chômage ne s’accroisse significativement. Olivier Blanchard et alii (2022) en doutent : suite à la pandémie, la courbe de Beveridge s’est déplacée vers le haut, visiblement sous l’effet de la réallocation sectorielle et en raison de plus grandes difficultés d’appariement entre travailleurs et emplois, si bien qu’il leur paraît hautement improbable que le taux de postes vacants puisse diminuer sans que le taux de chômage n’augmente fortement. 

Dans une nouvelle analyse, Stephen Cecchetti, Michael Feroli, Peter Hooper, Frederic Mishkin et Kermit Schoenholtz (2023) ont étudié les grandes désinflations qui ont été observées depuis 1950 dans quatre pays développés, à savoir l’Allemagne, le Canada, les Etats-Unis et le Royaume-Uni. Ils en repèrent 17, dont 16 qu’ils estiment provoquées par un resserrement monétaire. Plusieurs d’entre elles n’ont guère été efficaces, dans le sens où elles ont été suivies par une remontée de l’inflation. En l’occurrence, les désinflations du début et du milieu des années soixante-dix ont été suivies par une forte hausse de l’inflation. C’est notamment le cas aux Etats-Unis, la Fed ayant assoupli sa politique monétaire dès que l’économie américaine basculait dans la récession. Les désinflations de la fin des années cinquante, du début des années quatre-vingt et du début des années quatre-vingt-dix ont été plus efficaces, dans la mesure où elles ont été suivies par une inflation relativement modeste. En l’occurrence, la seule désinflation qui a débuté avec des taux d’inflation supérieurs à ceux que l’on observe actuellement et qui s’est révélée efficace est celle du début des années quatre-vingt, celle amorcée par Volcker. 

Taux d’inflation aux Etats-Unis (en %)

Une désinflation sans récession ?

En reprenant la méthodologie de Laurence Ball (1994), Cecchetti et ses coauteurs ont cherché à déterminer le ratio de sacrifice des désinflations, c’est-à-dire la perte d’activité et d’emplois qu’elles ont entraînée. Ils ne trouvent guère d’épisode au cours duquel une ample désinflation impulsée par la banque centrale n’aurait pas entraîné de récession. A cet égard, la sortie de l’actuel épisode inflationniste avec une « désinflation immaculée », c’est-à-dire qui ne serait pas accompagnée d’une récession, serait sans précédent. 

En poursuivant leur analyse des désinflations passées, Cecchetti et ses coauteurs notent toutefois que le ratio de sacrifice varie d’un épisode à l’autre : certaines désinflations sont plus coûteuses que d’autres. Le coût d’une désinflation semble notamment déprendre du taux d’inflation initial et de la vitesse de la désinflation. En l’occurrence, une baisse d’un point de pourcentage de l’inflation détériore moins l’activité et l’emploi si elle débute à partir d’un taux d’inflation élevé ou si elle s’opère rapidement. Cela dit, comme le montre notamment le choc Volcker au tournant des années quatre-vingt, même quand le ratio de sacrifice est faible une ample désinflation s’avère coûteuse en termes d’activité et d’emploi.

Cecchetti et ses coauteurs ont alors utilisé les estimations qu’ils ont tirées des désinflations passées pour simuler les trajectoires probables des taux d’intérêt et de l’économie américaine au cours des trois prochaines années. Ils se sont demandé jusqu’à quel point le taux directeur doit augmenter pour ramener l’inflation à sa cible et quels seraient les coûts de cette désinflation en termes de chômage. Leurs estimations suggèrent que la Fed devra resserrer bien plus amplement sa politique monétaire pour ramener l’inflation à 2 % d’ici l’année 2025 et qu’un tel retour de l’inflation à sa cible serait associé à une récession.

Cecchetti et ses coauteurs se sont interrogés sur l’opportunité de relever la cible d’inflation. Il y a une douzaine d’année, dans le sillage de la crise financière mondiale, plusieurs économistes avaient proposé de relever la cible d’inflation à 3 %, voire 4 % [Blanchard et alii, 2010 ; Leigh, 2010 ; Ball, 2014]. Selon eux, cela permettrait notamment de donner à la banque centrale une plus grande marge de manœuvre pour baisser ses taux en cas de choc déflationniste en réduisant le risque que les taux se retrouvent contraints par leur borne inférieure zéro (zero lower bound). L’un des risques était que les banques centrales perdent en crédibilité : elles ne parvenaient alors pas augmenter suffisamment le taux d’inflation pour le ramener à 2 % ; relever la cible aurait creusé davantage l’écart entre le taux d’inflation et la cible. Olivier Blanchard (2022) a suggéré à plusieurs reprises que les banques centrales profitent des niveaux relativement élevés que l’inflation atteint actuellement pour relever leur cible. Cela permettrait notamment de réduire les coûts de la désinflation, dans la mesure où les banques centrales auraient à procéder à une désinflation d’une moindre ampleur.

Cecchetti et ses coauteurs n’y sont guère favorables. En effet, un relèvement de la cible aurait selon eux deux coûts à long terme. D’une part, elle augmenterait l’incertitude et amènerait ainsi les ménages et les entreprises à prendre des décisions moins efficaces, dans la mesure où l’inflation est d’autant plus volatile qu’elle est en moyenne élevée. D’autre part, si les ménages et les entreprises ne semblent guère prêter attention à l’inflation quand elle se maintient à un faible niveau (ce qui contribue à la stabiliser à ce faible niveau), ils auraient par contre tendance à y prêter attention lorsqu’elle dépasse un certain seuil (ce qui complique tout effort pour stabiliser l’inflation). Selon Oleg Korenok et alii (2022), ce seuil a été franchi. Cecchetti et ses coauteurs mettent également en avant un problème d’incohérence temporelle : si les banques centrales révisent leur cible d’inflation, la population va partir du principe qu’elles risquent de la modifier de nouveau et, plus simplement, qu’elles ne chercheront plus franchement à l’atteindre, si bien qu’elles risquent de perdre en crédibilité dans leur mission de stabilité des prix et que les anticipations d’inflation ne soient plus ancrées à un faible niveau. En définitive, Cecchetti et ses coauteurs jugent que les coûts d'un relèvement de la cible seraient supérieures à ses bénéfices. 

Par contre, ils se disent en faveur d’un retour à une stratégie préventive de lutte contre l’inflation. Selon eux, les banques centrales ne doivent pas attendre de voir l’inflation « dans le blanc des yeux » pour resserrer l’inflation, dans la mesure où laisser l’inflation s’éloigner de sa cible accroît l’ampleur de la désinflation à opérer, donc ses coûts. Anticiper l’inflation reste toutefois difficile. Le lien inverse entre vitesse et coûts des désinflations plaide pour que les banques centrales resserrent agressivement, et non graduellement, leur politique monétaire dès que l’inflation apparaît excessive.

 

Références

BALL, Laurence (1994), « What determines the sacrifice ratio? », in N.G. Mankiw (dir.), Monetary Policy, The University of Chicago Press. 

BALL, Laurence (2014), « The case for a long-run inflation target of four percent », FMI, working paper, n° 14/92, juin.

BLANCHARD, Olivier (2022), « It is time to revisit the 2% inflation target », in Financial Times, 28 novembre.

BLANCHARD, Olivier, Giovanni DELL’ARICCIA & Paolo MAURO (2010), « Rethinking macroeconomic policy », FMI, staff position note, n° 10/03, février.

BLANCHARD, Olivier, Alex DOMASH & Lawrence H. SUMMERS (2022), « Bad news for the Fed from the Beveridge space », PIIE, policy brief, n° 22-7, juillet. 

BLINDER, Alan S. (2023), « Landings, soft and hard: The Federal Reserve, 1965–2022 », in Journal of Economic Perspectives, vol. 37, n° 1.

BOK, Brandyn, Nicolas PETROSKY-NADEAU, Robert G. VALLETTA & Mary YILMA (2022), « Finding a soft landing along the Beveridge curve », Federal Reserve Bank of San Francisco, Economic Letter, n° 2022-24, août.

CECCHETTI, Stephen, Michael FEROLI, Peter HOOPER, Frederic S. MISHKIN & Kermit L. SCHOENHOLTZ (2023), « Managing disinflations », CEPR, discussion paper, n° 18068.

DOMASH, Alex, & Lawrence H. SUMMERS (2022a), « How tight are U.S. labor markets? », NBER, working paper, n° 29739, février.

DOMASH, Alex, & Lawrence H. SUMMERS (2022b), « A labor market view on the risks of a U.S. hard landing », NBER, working paper, n° 29910, avril.

FIGURA, Andrew, & Chris WALLER (2022), « What does the Beveridge curve tell us about the likelihood of a soft landing? », FEDS Notes, 29 juillet.  

KORENOK, Oleg, David MUNRO & Jiayi CHEN (2022), « Inflation and attention thresholds », GLO, discussion paper, n° 1175.

LEIGH, Daniel (2010), « A 4% inflation target? », in VoxEU.org, 9 mars.

TETLOW, Robert J. (2022), « How large is the output cost of disinflation? », Federal Reserve Board, finance and economics discussion paper, n° 2022-078, novembre.

Partager cet article
Repost0
16 avril 2023 7 16 /04 /avril /2023 15:39

L’ère de l’« hypermondialisation » [Subramanian et Kessler, 2013] semble bel et bien être révolue. La croissance des échanges s’était particulièrement accélérée à partir des années 1980, poussant les échanges internationaux, rapportées au PIB mondial, à des niveaux qu’ils n’avaient jusqu’alors jamais atteints (cf. graphique). Interrompu par la crise financière mondiale, cet épisode n’aura en définitive duré que deux décennies. Les tensions protectionnistes se sont accentuées tout au long de la dernière décennie ; elles se notamment concrétisées avec le Brexit et la guerre commerciale lancée par l’administration Trump. Les appels à une relocalisation des activités les plus essentielles au nom de la « résilience » se sont multipliés avec la pandémie de Covid-19 et les perturbations subséquentes des chaînes de valeur internationales. Enfin, l’invasion russe de l’Ukraine a renforcé les tensions géopolitiques, amenant certains à promouvoir une « amicalisation » (friend-shoring) des échanges. Il n’est pas encore clair qu’une véritable « démondialisation » soit à l’œuvre : la part des exportations mondiales dans le PIB mondial n’a que légèrement diminué depuis la crise financière mondiale [Goldberg et Reed, 2023]. Il serait plus juste de dire que nous connaissons depuis une quinzaine d’année une « slowbalization » [Bensidoun, 2022 ; Chavagneux et Martin, 2022].

GRAPHIQUE  Echanges internationaux (en % du PIB mondial)

Le progrès technique pousse-t-il les pays à commercer toujours plus ?

Ce n’est pas la première vague de mondialisation que le monde ait connue. Dans les décennies qui ont précédé la Première Guerre mondiale, les échanges ont augmenté bien plus vite que la production mondiale, en particulier à partir de 1870 [Berger, 2003]. La Première Guerre mondiale a mis un terme à cette « première mondialisation » en entraînant un retrait durable des échanges. La paix de l’entre-deux-guerres n’a pas stimulé le commerce international ; la Grande Dépression et ses guerres commerciales l’ont davantage déprimé. Ce n’est qu’après la Seconde Guerre mondiale que les échanges ont rebondi et il fallut attendre les années 1980 pour les exportations mondiales, relativement à la production mondiale, retrouvent le pic qu’elles avaient atteint à la veille de la Première Guerre mondiale. 

Au début des années 2000, avant que la crise financière mondiale n’éclate, beaucoup croyaient que l’hypermondialisation venait à peine de s’amorcer [Friedman, 2005 ; Blinder, 2006]. Ils n’étaient pas seulement convaincus à l’idée que le protectionnisme ne serait plus à l’ordre du jour ; ils estimaient que le progrès technique, d’une façon ou d’une autre, ne pouvait que pousser toujours plus loin la mondialisation, par exemple en réduisant toujours plus amplement les coûts à l’échange ou en permettant de délocaliser une part croissante des tâches de production. 

La question que Paul Krugman (2023) s’est posée est de savoir si le progrès technique pousse en soi inexorablement aux échanges (même si cette tendance peut être contrariée par des contrecoups politiques) ou bien si ce n’est qu’un certain biais du progrès qui pousse à échanger, un biais susceptible de s’inverser. Selon lui, le progrès technique affecte le commerce international de trois façons : via la convergence ou divergence des niveaux technologiques des différents pays, via le rythme relatif des avancées technologiques en matière de production et de transport et via le progrès technique différentiel qui affecte la part non échangée de la production. Il estime que les deux premiers canaux ont habituellement opéré par le passé de façon à approfondir la mondialisation, mais que cela n’était pas nécessairement le cas ; quant au troisième canal, il opère dans le sens opposé.

Pour évoquer le rôle des différences de niveaux technologiques, Krugman se tourne vers Robert Torrens, un auteur classique dont le nom est aujourd’hui peu cité, mais qui a pourtant été très prolifique sur le thème du commerce international et qui a su notamment, selon lui, élaborer le concept d’avantage comparatif indépendamment de Ricardo. Le concept de Torrens qui intéresse Krugman est celui de la « loi du commerce décroissant » (law of diminishing trade) : à mesure que les pays se développent, il leur est de moins en moins en moins nécessaire de commercer entre eux. Selon Krugman, l’idée de Torrens est que les pays commercent entre eux car ils ne disposent pas du même degré d’avancement technologique ; mais à mesure que le temps passe, les technologies se diffusent et les niveaux technologiques des différents pays tendent à s’égaliser, ce qui pousse les pays à moins échanger. A terme, les pays finissent par se contenter d’importer les produits qu’ils ne peuvent produire par eux-mêmes parce qu’ils ne disposent pas du climat pour ce faire.

Pour Krugman, la logique sous-jacente et le destin du concept de Torrens ne sont pas sans rappeler ceux de la loi de la population de Malthus. Si ses prédictions ne se sont ultérieurement pas vérifiées, ce n’est pas parce que le raisonnement est fondamentalement faux, mais c’est parce que les avancées technologiques réalisées depuis ont été plus importantes qu’il ne l’imaginait et que les écarts technologiques entre pays ont continué de se creuser, du moins jusqu’aux années 1990. Or, rien ne certifie que les avancées technologiques se poursuivent à l’avenir à un rythme soutenue et que les écarts de niveaux technologiques ne se referment pas. Autrement dit, on ne peut exclure un scénario à la Torrens où les pays cessent de commercer entre eux car ils disposent de la technologie pour tout produire. 

La divergence des niveaux technologiques n’est en tout cas pas le seul facteur à avoir contribué à la mondialisation des échanges ; celle-ci a également tenu aux changements dans les coûts de transport. De la maîtrise de l’énergie à vapeur à l’invention des porte-conteneurs, en passant par la création des canaux transocéaniques, les avancées technologiques ont contribué à fortement réduire les coûts de transport par le passé et l’on peut raisonnablement penser qu’elles continueront à le faire à l’avenir.

Cela dit, Krugman note aussi que les avancées technologiques ont en parallèle aussi permis de réduire les coûts de production dans un lieu donné. En fait, il y aurait une « course » entre les technologies de transport et les technologies de production : les pays tendent à échanger davantage entre eux quand les coûts de transport diminuent plus vite que les coûts de production. Jusqu’à présent, les technologies de transport ont certainement eu tendance à gagner par rapport aux technologies de production, mais ce n’était pas nécessairement le cas et cela ne sera pas nécessairement le cas à l’avenir. Certaines périodes passées ont même été marquées par une hausse des coûts de transport ; Antoni Estevadeordal et alii (2003) estiment par exemple que l’effondrement des échanges durant l’entre-deux-guerres s’explique notamment par la hausse des coûts réels du transport. On ne peut exclure que ces derniers augmentent de nouveau.

Certes, il est difficile de toujours distinguer clairement entre biens et services, et ce d’autant plus que certains services peuvent être produits dans un autre pays que celui où se situent leurs consommateurs finaux ; et des biens peuvent difficilement transportés. Mais, contrairement à ce que prévoyait Blinder (2005), l’essentiel des services ne peuvent toujours pas faire d’un échange international. Or, la part de la production de biens dans la production totale a diminué, tandis que la part des services a augmenté. Ce phénomène de tertiarisation s’explique notamment par la loi d’Engel : à mesure que le revenu des ménages augmente, ceux-ci consacrent une part plus petite de leur budget à l’achat d’aliments et une part plus grande aux services comme les loisirs. Elle s’explique aussi par le progrès technique : la productivité a augmenté plus vite dans la production de biens que dans la production de services. Dans tous les cas, la tertiarisation joue contre la mondialisation et, à mesure qu’elle se poursuivra, elle continuera de jouer contre celle-ci.

En définitive, Krugman estime que le progrès technique n’entraîne pas nécessairement une hausse de la part des échanges dans la production mondiale ; il peut même agir de façon à réduire les échanges. Même en l’absence de mesures protectionnistes, il apparaît tout à fait concevable d’imaginer un futur où les pays n’ont plus guère intérêt à échanger entre eux.

 

Références

BENSIDOUN, Isabelle (2022), « La mondialisation ne peut plus être guidée par la réduction des coûts », in Alternatives économiques, 21 mai.

BERGER, Suzanne (2003), Notre Première Mondialisation, Le Seuil. 

BLINDER, Alan (2006), « Offshoring: The next industrial revolution? », in Foreign Affairs.

CHAVAGNEUX, Christian, & Aude MARTIN (2022), « Vers une petite "mondialisation entre amis" ? », in Alternatives économiques, 5 mai.

FRIEDMAN, Thomas (2005), The World is Flat. A Brief History of the Twenty-first Century

GOLDBERG, Pinelopi K., & Tristan REED (2023), « Is the global economy deglobalizing? And if so, why? And what is next? », Banque mondiale, policy research working paper, n° 10392.

ESTEVADEORDAL, Antoni, Brian FRANTZ & Alan M. TAYLOR (2003), « The rise and fall of world trade, 1870-1939 », in The Quarterly Journal of Economics, vol. 118, n° 2.

KRUGMAN, Paul (2023), « Technology and globalization in the very long run », Stone Center on Socio-Economic Inequality, working paper, n° 63.

SUBRAMANIAN, Arvind, & Martin KESSLER (2013), « The hyperglobalization of trade and its future », PIIE, worling paper, n° 13-6

Partager cet article
Repost0
13 février 2023 1 13 /02 /février /2023 17:10
La politique monétaire accommodante alimente-t-elle l’instabilité financière ?

Lors d’une crise financière, le risque de faillites des institutions financières, notamment des banques, augmente, tandis que certains prix d'actifs, par exemple les cours boursiers et le prix des logements, chutent. En conséquence, les crises financières tendent à déprimer l’activité réelle : les entreprises réduisent leurs investissements  dans la mesure où l’accès au financement bon marché se retreint ; les ménages consomment moins et réduisent leur investissement immobilier, dans la mesure où les banques sont plus frileuses pour prêter et où la chute des prix des actifs entraîne des effets de richesse négatifs, etc. Et, en l’occurrence, le coût d’une crise financière à moyen terme est particulièrement élevé [Cerra et Saxena, 2008 ; FMI, 2009 ; Reinhart et Rogoff, 2009 ; Reinhart et Rogoff, 2014 ; Barnichon et alii, 2018].

Par conséquent, lorsqu’une crise financière éclate, les banques centrales tendent à réagir en assouplissant leur politique monétaire et en baissant notamment leurs taux directeurs, non seulement pour stabiliser le système financier, mais aussi pour contenir les effets sur l’activité réelle. C’est notamment ce qu’a fait la Réserve fédérale en 2000, lorsque la « bulle internet » éclata sur les marchés boursiers, puis de nouveau en 2007, quand la bulle immobilière éclata à son tour, plongeant l’économie américaine dans la Grande Récession.

Malheureusement, il est possible que l’assouplissement monétaire tende en retour à favoriser l’occurrence de crises financières. Certains, comme John Taylor (2011), ont accusé la Réserve fédérale d’avoir incité les institutions financières à prendre des risques excessifs et d’avoir laissé la bulle immobilière croître démesurément en laissant ses taux directeurs « trop longtemps trop bas » suite à l'éclatement de la bulle internet. Dans le sillage de la Grande Récession, beaucoup ont également craint que le maintien prolongé d’une politique monétaire exceptionnellement accommodante alimente de nouveau l’instabilité financière. Ils ont ainsi appelé les banques centrales à normaliser au plus vite leur politique monétaire, quitte à freiner la reprise. 

Plusieurs études empiriques ont pu montrer que les périodes de politique monétaire accommodante augmentaient effectivement la prise de risque de la part des agents financiers, par exemple en nourrissant la « chasse au rendement » [Altunbas et alii, 2014 ; Dell’Ariccia et alii, 2017], mais elles n’ont pas vraiment montré qu’elles se traduisaient au niveau agrégé par des crises financières plus fréquentes ou plus sévères.

Dans une nouvelle étude du NBER, Maximilian Grimm, Òscar Jordà, Moritz Schularick et Alan Taylor (2023) ont précisément cherché à savoir si une orientation accommodante de la politique monétaire alimentait l’instabilité financière. Pour cela, ils ont utilisé les données relatives à plusieurs pays sur une période s’étendant sur un siècle et demi. Pour identifier les périodes au cours desquelles les taux d’intérêt peuvent être considérés comme « excessivement faibles », ils se sont appuyés sur les estimations du taux d’intérêt « d’équilibre » (ou « naturel »), c’est-à-dire du taux d’intérêt qui serait en vigueur si l’économie était au plein emploi sans connaître de tensions inflationnistes (cf. graphique 1). Les périodes qu’ils identifient comme étant marquées par une politique monétaire excessivement accommodante sont alors celles pour lesquelles les taux d’intérêt sont inférieurs au taux d’intérêt d’équilibre.

GRAPHIQUE 1  Taux d’intérêt d’équilibre mondial (en %)

La politique monétaire accommodante alimente-t-elle l’instabilité financière ?

Au terme de leur analyse des données, Grimm et ses coauteurs concluent qu’une politique monétaire accommodante a de significatives implications pour la stabilité financière à moyen terme. En effet, lorsque le taux d’intérêt est en moyenne inférieur d’un point de pourcentage au taux d’intérêt d’équilibre sur une fenêtre de cinq ans, alors la probabilité qu’éclate une crise financière au cours des cinq à sept années suivantes augmente de 5,5 points de pourcentage et la probabilité d’une crise financière au cours des sept à neuf années suivantes augmente de 15,5 points de pourcentage. Ces effets sont significatifs, dans la mesure où la probabilité inconditionnelle qu’une crise financière éclate au cours d’une fenêtre de trois ans est de 10,5 %. En suggérant que les assouplissements monétaires tendent à alimenter l'instabilité financière, ces premiers résultats font écho à ceux obtenus dans la récente étude de Niall Ferguson et alii (2023) : ces derniers ont noté que les expansions des bilans des banques centrales étaient suivies par un risque accru de crises financières. 

Grimm et ses coauteurs ont ensuite cherché à déterminer comment une politique monétaire accommodante peut alimenter l’instabilité financière. Ils ont tout d’abord procédé à une étude d’événement. D’une part, ils ont déterminé l’orientation de la politique monétaire avant les crises financières relativement à celle observée en temps normal (cf. graphique 2, gauche). Il apparaît qu’au cours des cinq années précédant une crise financière l’indicateur d’orientation de la politique monétaire diminue à moyen terme, puis augmente immédiatement avant la crise. En l’occurrence, il est en moyenne 3,5 points de pourcentage inférieur cinq ans avant une crise relativement à ce qu’il est à l’instant même où éclate la crise. D’autre part, Grimm et alii ont déterminé l’évolution du ratio crédit sur PIB avant une crise financière relativement à celle observée en temps normal (cf. graphique 2, droite). Ils constatent qu’au cours des cinq années qui précèdent une crise le ratio crédit sur PIB augmente chaque année 1,7 point de pourcentage plus vite qu’en temps normal. En définitive, ces premiers éléments empiriques suggèrent que la politique monétaire est relativement plus accommodante qu’en temps normal dans les années qui précèdent une crise financière et que cette période s’accompagne d’un boom du crédit. Ce fut notamment le cas au début des années deux mille aux Etats-Unis avant qu’éclate la bulle immobilière.

GRAPHIQUE 2  Orientation de la politique monétaire et croissance du crédit avant une crise financière

La politique monétaire accommodante alimente-t-elle l’instabilité financière ?

Cette corrélation semble bien sous-tendre une causalité : lorsque les taux d’intérêt sont inférieurs au taux naturel pour une période de temps prolongée, la croissance des prix d’actifs et du crédit tend à s’accélérer. Or, plusieurs travaux empiriques, notamment auxquels certains d’entre eux ont participé, ont montré qu’une forte croissance du crédit [Schularick et Taylor, 2012 ; Jordà et alii, 2016], le boom des prix de l’immobilier [Jordà et alii, 2015a] et leur interaction [Jordà et alii, 2015b ; Greenwood et alii, 2022] constituent des indicateurs avancés robustes des crises financières. Autrement dit, ces travaux ont donné raison aux intuitions de Kindleberger et de Minsky. 

Enfin, Grimm et ses coauteurs ont observé les effets de la fragilité financière sur l’activité économique réelle. Il apparaît que les conditions financières souples peuvent stimuler la croissance à court terme ; par exemple, il est possible qu’elles stimulent la consommation et l’investissement des entreprises en relâchant les contraintes financières et en alimentant les effets de richesse. Cela dit, Grimm et ses coauteurs constatent que ces bénéfices sont obtenus à un coût considérable : une politique monétaire excessivement accommodante est associée à un risque significativement accru que l’économie connaisse un désastre à moyen terme. Ce résultat fait notamment écho à celui obtenu par Atif Mian et alii (2017) : ces derniers avaient constaté que les booms de l’endettement des ménages sont accompagnés d’une stimulation de l’activité réelle, mais que cette stimulation est temporaire et qu’elle finit par s’inverser.

De tels résultats n'amènent pas à exclure l'usage de l'assouplissement monétaire, ne serait-ce que pour stabiliser le système financier, lors d'une crise financière : les coûts macrofinanciers d'une inaction des banques centrales pourraient être bien supérieurs à ceux d'un assouplissement monétaire. Par contre, ils confirment que la gestion des crises financières ne peut reposer sur la seule politique monétaire : des mesures macroprudentielles sont certainement nécessaires pour réduire la fréquence et la sévérité des crises financières. Alors que, dans les décennies qui ont précédé la Grande Récession, la stabilisation de la demande globale avait tendance à reposer sur la seule politique monétaire, de tels résultats confortent l'idée qu'elle ne peut pas reposer uniquement sur celle-ci et que la politique budgétaire a un rôle à jouer.

 

Références

ALTUNBAS, Yener, Leonardo GAMBACORTA & David MARQUES-IBANEZ (2014), « Does monetary policy affect bank risk? », in International Journal of Central Banking, vol. 10, n° 1.

BARNICHON, Regis, Christian MATTHES & Alexander ZIEGENBEIN (2018), « The financial crisis at 10: Will we ever recover? », Federal Reserve Bank of San Francisco, FRBSF Economic Letter, n° 2018-19.

CERRA, Valerie, & Sweta C. SAXENA (2008), « Growth dynamics: The myth of economic recovery », in American Economic Review, vol. 98, n° 1.

DELL’ARICCIA, Giovanni, Luc LAEVEN & Gustavo A. SUAREZ (2017), « Bank leverage and monetary policy’s risk-taking channel: Evidence from the United States », in Journal of Finance, vol. 72, n° 2.

FERGUSON, Niall, Martin KORNEJEW, Paul SCHMELZING & Moritz SCHULARICK (2023), « The safety net: Central bank balance sheets and financial crises, 1587-2020 », CEPR, discussion paper, n° 17858.

FMI (2009), « What’s the damage? Medium-term output dynamics after financial crises », World Economic Outlook: Sustaining the Recovery, chapitre 4.

GREENWOOD, Robin, Samuel G. HANSON, Andrei SHLEIFER & Jakob Ahm SØRENSEN (2022), « Predictable financial crises », in Journal of Finance, vol. 77, n° 2.

GRIMM, Maximilian, Òscar JORDÀ, Moritz SCHULARICK & Alan M. TAYLOR (2023), « Loose monetary policy and financial instability », NBER, working paper, n° 30958.

JORDÀ, Oscar, Moritz SCHULARICK & Alan M. TAYLOR (2013), « When credit bites back », in Journal of Money, Credit and Banking, vol. 45, n° 2.

JORDÀ, Oscar, Moritz SCHULARICK & Alan M. TAYLOR (2015a), « Betting the house », 37th Annual NBER International Seminar on Macroeconomics.

JORDÀ, Oscar, Moritz SCHULARICK & Alan M. TAYLOR (2015b), « Leveraged bubbles », in Journal of Monetary Economics, vol. 76.

JORDÀ, Oscar, Moritz SCHULARICK & Alan M. TAYLOR (2016), « The great mortgaging: Housing finance, crises and business cycles », in Economic Policy, vol. 31, n° 85.

MIAN, Atif, Amir SUFI & Emil VERNER (2017), « Household debt and business cycles worldwide », in Quarterly Journal of Economics, vol. 132, n° 4.

REINHART, Carmen, & Kenneth ROGOFF (2009), « The aftermath of financial crises », in American Economic Review, n° 99.

REINHART, Carmen, & Kenneth ROGOFF (2014), « Recovery from financial crises: Evidence from 100 episodes », in American Economic Review, vol. 104.

SCHULARICK, Moritz, & Alan M. TAYLOR (2012), « Credit booms gone bust: Monetary policy, leverage cycles, and financial crises, 1870–2008 », in American Economic Review, vol. 102, n° 2.

TAYLOR, John B. (2011), « Macroeconomic Lessons from the Great Deviation », in NBER Macroeconomics Annual, vol. 25.

Partager cet article
Repost0

Présentation

  • : D'un champ l'autre
  • : Méta-manuel en working progress
  • Contact

Twitter

Rechercher