Location via proxy:   [ UP ]  
[Report a bug]   [Manage cookies]                

De Vroey Malgrange Théorie Et Modélisation Macro 2006

Télécharger au format pdf ou txt
Télécharger au format pdf ou txt
Vous êtes sur la page 1sur 32

PARIS-JOURDAN SCIENCES ECONOMIQUES

48, BD JOURDAN – E.N.S. – 75014 PARIS


TEL. : 33(0) 1 43 13 63 00 – FAX : 33 (0) 1 43 13 63 10
www.pse.ens.fr

WORKING PAPER N° 2006 - 33

La théorie et la modélisation macroéconomiques,

d’hier à aujourd’hui

Michel De Vroey

Pierre Malgrange

Codes JEL : B2, E1

Mots-clés : modèles macroéconomiques, synthèse


néoclassique, nouvelle économie classique

CENTRE NATIONAL DE LA RECHERCHE SCIENTIFIQUE – ÉCOLE DES HAUTES ÉTUDES EN SCIENCES SOCIALES
ÉCOLE NATIONALE DES PONTS ET CHAUSSÉES – ÉCOLE NORMALE SUPÉRIEURE
1

La théorie et la modélisation macroéconomiques, d’hier à aujourd’hui

Michel De Vroey* et Pierre Malgrange**

Résumé
Nous retraçons à grands traits l’évolution de la macroéconomie de sa naissance à nos jours,
son émergence dans les années 1930, puis la période de règne sans partage de la
macroéconomie keynésienne des années 1950 à 1970. L’étape suivante de son évolution est
l’offensive menée par Milton Friedman et Robert Lucas contre la macroéconomie
keynésienne. Les travaux de ces auteurs ont débouché sur un changement de perspective qui
nous paraît mériter d’être épinglé comme une « révolution scientifique » à la Kuhn,
l’émergence de la macroéconomie dynamique et stochastique. Avec celle-ci, le centre
d’intérêt de la théorie et de la modélisation macroéconomie se déplace. Le thème des
défaillances de l’économie de marché, et en particulier du chômage, est délaissé au profit d’un
examen des phénomènes du cycle et de la croissance, ceux-ci étant étudiés à partir de
l’hypothèse d’un fonctionnement efficace du système. Ces dernières années ont vu
l’émergence d’une “nouvelle synthèse néoclassique” rejouant le jeu de la synthèse ancienne
avec une combinaison d’éléments keynésiens et classiques, tout en adoptant la méthodologie
nouvelle de discipline de l’équilibre et de rationalité des agents.

Mots clés : modèles macroéconomiques, synthèse néoclassique, nouvelle économie classique


Classification JEL : B2, E1

The Evolution of Macroeconomic Theory and Modelling along the last fifty years

Abstract

An outline of the evolution from the birth up to present days of the macroeconomics is laid
out, its emergence during the thirties, then the period of the domination of the Keynesian
macroeconomics of the years 1950 to 1970. The following stage of the evolution has been the
attack from Milton Friedman and Robert Lucas against Keynesian macroeconomics. We
consider the works of these authors deserve the label of a “scientific revolution à la Kuhn”,
with the emergence of the dynamic and stochastic macroeconomics. Associated with this, the
focus of macroeconomics has shifted. Themes linked to market failures, and especially to
unemployment disappear, in favour of cycle and growth analysis, these last being studied
from the postulate of efficient working of the system. These last years have seen the
emergence of a “New Neoclassical Synthesis” mimicking the old synthesis in combining
keynesian and classical elements, while adopting the new methodology of equilibrium
discipline and of agents rational behaviour.

Keywords : Macroeconomic Models, Neoclassical Synthesis, New Clasical Economics


JEL Classification: B2, E1

* Michel De Vroey, IRES, Université Catholique de Louvain, Place Montesquieu, 3, 1348 Louvain-la-Neuve, Belgique
** Pierre Malgrange, IRES et PSE-CEPREMAP, 142 rue du Chevaleret, 75013 PARIS (correspondant)
2

La théorie et la modélisation macroéconomiques, d’hier à aujourd’hui ✶

Michel De Vroey et Pierre Malgrange

Version du 2 octobre 2006

1. Introduction

Comme son titre l’indique, l’objectif de notre étude est de retracer les grands traits de
l’évolution de la macroéconomie de sa naissance à nos jours1. Nous commencerons par
examiner son émergence dans les années 1930 pour étudier ensuite la période de règne sans
partage de la macroéconomie keynésienne des années 1950 à 1970. L’étape suivante de son
évolution est l’offensive menée par Milton Friedman et Robert Lucas contre celle-ci. Les
travaux de ces auteurs ont débouché sur un changement de perspective qui nous paraît mériter
d’être épinglé comme une « révolution scientifique » à la Kuhn, l’émergence de la
macroéconomie dynamique et stochastique. Avec celle-ci, le centre d’intérêt de la théorie et
de la modélisation macroéconomie se déplace. Le thème des défaillances de l’économie de
marché, et en particulier du chômage, est délaissé au profit d’un examen des phénomènes du
cycle et de la croissance, ceux-ci étant étudiés à partir de l’hypothèse d’un fonctionnement
efficace du système.

2. L’émergence de la macroéconomie moderne

Si la macroéconomie est fille de la grande crise des années 1930, Keynes en est certainement
la figure tutélaire et son livre, La Théorie générale de l’emploi, de l’intérêt et de la monnaie,
paru en 1936, sa poutre maîtresse. Ce livre visait à élucider le phénomène de chômage de
masse qui, à l’époque de la grande crise des années 1930, accablait les économies. Le désarroi
régnait parmi les responsables politiques, sociaux et intellectuels, qui ne parvenaient pas à
avoir de prises sur l’évolution des choses. Au sein de la communauté plus restreinte des
économistes académiques, le sentiment prévalait que leur discipline ne disposait pas des outils


Une version antérieure de cette étude a paru dans la collection des publications des économistes de Louvain,
Regards économiques, juin 2005, n° 30. Nous remercions Vincent Bodard et Jean-Louis Rullière pour leurs
remarques. Cette étude a été financée par la Communauté française de Belgique (bourse ARC 03/08-302) et par
le Gouvernement Fédéral belge (bourse PAI P5/10).
1
Parmi les études poursuivant le même objectif, citons : Blanchard (2000), Blinder ([1988] 1997), d’Autume
(2000), Drèze (2001), Danthine (1997), Hairault (1999), Lipsey (2000), Mankiw (1990, 2006), Snowdon and
Vane (2005), Van der Ploeg (2005), Woodford (1999).
3

adéquats pour comprendre la réalité qui les entourait et agir sur celle-ci. Sortir de cette crise
était manifestement une affaire complexe, mais Keynes était convaincu qu’une déflation
salariale ne pouvait qu’empirer les choses. Telle était pourtant la seule solution susceptible
d’être dérivée de la théorie économique de l’époque. L’objectif poursuivi par Keynes en
s’attelant à son livre était de faire sauter ce verrou théorique. À cet effet, il fallait, pensait-il,
dépasser le cadre d’équilibre partiel, tel qu’Alfred Marshall, le fondateur de l’école de
Cambridge, l’avait développé. Si le chômage était, bien évidemment, un phénomène se
manifestant dans le marché du travail, son origine devait être cherchée dans d’autres secteurs
de l’économie, en particulier la finance. Il s’agissait dès lors d’étudier l’interdépendance entre
les marchés, la piste suivie par Keynes étant d’attribuer le chômage à une insuffisance de la
demande agrégée, une partie du revenu des agents fuyant le circuit de la dépense.

La Théorie Générale est un ouvrage touffu, enchevêtrant différents thèmes plus ou moins
compatibles entre eux. D’où d’incessants débats interprétatifs quant à la nature de son
message central. Selon la reconstruction d’un des auteurs du présent article (De Vroey 2004a,
chapitre 5), le programme de Keynes comporte quatre objectifs ayant à être réalisés
conjointement: (a) démontrer l’existence d’un chômage involontaire d’équilibre, celui-ci étant
entendu comme une situation dans laquelle certains agents économiques souhaitent travailler
au salaire en vigueur mais se voient dans l’incapacité de réaliser ce projet ; (b) exonérer les
salaires de la responsabilité de cet état des choses ; (c) en donner un explication d’équilibre
général; (d) démontrer que la cause du phénomène est une insuffisance de la demande globale
pour les biens, de telle sorte que le remède à apporter consiste en une relance par l’Etat de
cette demande. L’évolution théorique ultérieure a révélé que la difficulté principale rencontrée
par ce programme concerne la conciliation de ses deux premiers objectifs. Il est possible de
construire une théorie du chômage involontaire sur la base de l’hypothèse de rigidité salariale.
Par contre, produire un résultat de chômage involontaire dans un contexte de flexibilité
salariale s’est révélé être une tâche extrêmement difficile.

La Théorie générale, un livre qui s’adressait aux économistes et non au grand public, reçut un
accueil immédiat favorable, en particulier de la part des jeunes économistes. Il faut dire que
l’attente d’un renouvellement théorique était forte et ce n’est que bien plus tard qu’on réalisa
ses ambiguïtés — son caractère statique, ses définitions à géométrie variable, sa poursuite
simultanée de lignes théoriques peu compatibles. Mais le livre de Keynes suscita aussi la
perplexité. Si ses lecteurs sentaient qu’ils se trouvaient face à une oeuvre novatrice, celle-ci
constituait néanmoins un objet étrange, souvent incompréhensible! La lumière vint d’une
4

conférence organisée à Oxford en septembre 1936 durant laquelle trois jeunes économistes
anglais, Harrod, Meade et Hicks, proposèrent leur décodage2. Leurs interprétations avaient
plusieurs traits en commun. Leur diagnostic quant au message central du livre était très
proche. De plus, tous trois le trouvaient moins révolutionnaire théoriquement que ce que
Keynes prétendait. Enfin, tous trois réussirent à transformer le raisonnement en prose de
Keynes en un modèle mathématique simple, composé d’un petit nombre d’équations
simultanées. Si cette transformation ne pouvait faire justice à la pensée kaléidoscopique de
Keynes, au moins maintenant son message devenait compréhensible pour les économistes
ordinaires. Si les trois modèles étaient proches en termes de contenu, seul l’un d’eux, celui de
Hicks — le modèle IS-LL qui fût ensuite rebaptisé du nom de modèle IS-LM — connut le
succès, l’amenant à devenir l’incarnation standard de la théorie keynésienne. Une de ses
raisons a été l'ingénieux graphique conçu par Hicks permettant de synthétiser sur un seul plan
les positions d’équilibre de trois marchés

Ainsi, se constitua le second jalon de la théorie macroéconomique. Restait à transformer le


modèle théorique en un modèle quantitatif. Si, ici, il est plus difficile de dégager une seule
personnalité fondatrice, il faut néanmoins mettre en avant le rôle joué par l’économiste
néerlandais, Jan Tinbergen. Lui aussi était motivé par la volonté de réagir à la grande crise.
Son étude des fluctuations économiques aux Etats-Unis de 1919 à 1932, effectué pour le
compte de la Ligue des Nations et publié en 1939, peut être épinglé comme le premier modèle
économétrique portant sur une économie dans son ensemble (Tinbergen 1939). Son objectif
était de tester différentes théories du cycle en vue d’établir celle qui recevrait la meilleure
confirmation empirique. À cette fin, Tinbergen construisit un système d’équations aux
différences finies linéaires, dans lequel chaque variable exogène se voyait attribuer une valeur
numérique censée refléter la réalité. Un autre travail pionnier a été l’étude de Lawrence Klein,
Economic Fluctuations in the United States, 1921-1941, parue en 1950 pour le compte de la
célèbre Cowles Commission for Research in Economics. Klein avait publié peu avant, en
1948, un bilan de l’apport de Keynes qui reste encore intéressant aujourd’hui, The Keynesian
Revolution (Klein 1948). Alors que ce dernier ouvrage était purement théorique, pour Klein,
les concepts forgés par Keynes dans la Théorie générale invitaient instamment à une
application empirique. Et effectivement, Klein joua un rôle moteur dans la mise en œuvre de
celle-ci.

2
Cfr. Young (1987).
5

Keynes lui-même était très critique quant au travail de Tinbergen, pensant qu'il y avait peu à
gagner à essayer d'estimer empiriquement les modèles théoriques. Pour lui, un tel exercice
était grevé d'arbitraire. Mais ses critiques n’eurent pas d’effets, sauf d'obliger Tinbergen et
ceux qui pensaient comme lui à mieux préciser leur programme de recherche et à en admettre
les limites. Très vite, la construction de modèles macro-économiques devint un champ de
recherche florissant. Malgré la réticence de Keynes à les patronner, ces modèles peuvent être
qualifiés de « keynésiens » car leur objectif était de développer empiriquement des situations
d’insuffisance de demande requerrant comme solution des interventions étatiques.

Telles sont les trois étapes ayant mené à l’émergence de la macroéconomie moderne. Certes,
une tension a continué à exister entre ses trois composantes. Ainsi, des keynésiens plus
« fondamentalistes » ont pensé que le modèle IS-LM trahissait le message central de la
Théorie générale. De même, les macroéconomistes théoriciens n’étaient pas nécessairement
sur la même longueur d’onde que leurs collègues appliqués, ces derniers ayant une approche
plus pragmatique des choses. Mais, la conjonction de ces trois composantes devenant
effective, le corps des macréoconomistes se constitua comme une communauté scientifique
nouvelle et reconnue dans sa spécificité.

3. Le règne de la macroéconomie keynésienne

Dès les années 1950, la macroéconomie keynésienne s’implante tant dans l’enseignement que
dans la recherche. Celle-ci se développe à la fois dans les universités, les banques centrales et
les administrations publiques. Modifié par Modigliani et popularisé par Hansen, le modèle IS-
LM, en est la clé de voûte. Le programme de recherche des économistes keynésiens consiste à
l’élargir et à l’approfondir, par exemple par la prise en compte plus explicite de l’Etat, des
échanges extérieurs, etc. De même, chacune de ses composantes, la consommation,
l’investissement dans sa dimension d’accumulation du capital, le choix du portefeuille, le
marché du travail a fait l’objet de développements propres. Une autre lacune que l’on vise à
combler est l’hypothèse de prix fixes caractérisant les premiers modèles IS-LM.
L’introduction de la courbe de Phillips permet de la combler. Le pas supplémentaire,
accompli ultérieurement par Samuelson et Solow, sera d’affirmer que la courbe de Phillips
offre un menu de politique économique, l’économiste pouvant faire valoir à l’homme
politique que des augmentations de l’emploi sont possibles pour autant qu’ en contrepartie un
certain taux d’inflation soit accepté.
6

La macroéconomie s’installe donc comme une discipline autonome, distincte de la


microéconomie. C’est l’âge de ce qu’on appelle la « synthèse néo-classique », un compromis
entre théorie keynésienne et théorie classique (c’est-à-dire la microéconomie). Il s’agit d’un
partage de territoire, la théorie classique étant déclarée compétente pour ce qui concerne les
aspects du long terme, la théorie keynésienne pour les questions relevant du court terme. Un
des arguments avancés pour justifier cette césure concerne la flexibilité des prix et salaires.
Celle-ci, affirme-t-on, est vérifiée dans le long terme, mais non dans le court terme. En
conséquence, des actions de relance d’origine étatique sont indiquées pour contrecarrer ce
manque de flexibilité.

Mais, durant cette période, le socle théorique sur lequel la macroéconomie s’est construite
n’est pas systématiquement ré-examiné. Pour parler en termes rétrospectifs, la question des
fondements microéconomiques des relations macroéconomiques reste peu posée. De même, la
question de savoir si les différents éléments formant le programme de Keynes sont
compatibles n’est pas analysée. D’ailleurs, les économistes keynésiens ont des vues
discordantes. Par exemple, s’écartant des proclamations de Keynes, la plupart des
économistes keynésiens basent leur résultat sur l’hypothèse de rigidité salariale, alors que
d’autres auteurs crient à la trahison. Enfin, les concepts posés par Keynes, en particulier les
notions de chômage involontaire et de plein emploi, font l’objet de peu de réflexion critique.
Il y a cependant des exceptions notoires. Mentionnons les livres de Don Patinkin, Money,
Interest and Prices, dont la première édition date de 1956, et d’Axel Leijonhufvud, On
Keynesian Economics and the Economics of Keynes, paru en 1968, ainsi que les travaux de ce
qu’on avait initialement appelé l’école du déséquilibre3.

Sur le plan du travail empirique, l’essor est impressionnant. Nous avons déjà évoqué la
monographie de Klein de 1950. Mais le modèle qui donna l’impulsion aux développements
ultérieurs fut le modèle Klein-Goldberger. Lancé en 1955 à l’Université du Michigan, il se
voulait un modèle de taille moyenne, comptant 15 équations structurelles et cinq identités.
L’objectif poursuivi était, d’une part, de faire des prévisions de l’activité économique et, de
l’autre, de simuler les effets de diverses mesures de politique économique. L’idée aussi était
d’avoir un modèle susceptible d’être constamment remanié. Plus marquant encore fut la
création du modèle de la Brookings dans la seconde moitié des années 1960. Celui-ci était
d’une taille impressionnante pour l’époque, contenant dans certaines versions presque 400
équations. Une telle évolution n’aurait bien sûr pas été possible sans le développement de

3
Pour un examen plus approfondi de cette approche, le lecteur est renvoyé à De Vroey (2004b).
7

l’informatique. Un autre trait significatif des transformations à l’œuvre est le caractère


collectif de l’activité de création et de développement des modèles. Ceux-ci ne sont plus
produits par des chercheurs isolés, mais le résultat d’un travail d’équipe associant un grand
nombre de chercheurs.

Ces modèles macroéconomiques s'inspiraient la plupart du temps d'un même noyau structurel
théorique, la version keynésienne du modèle IS-LM. Ce noyau était ensuite enrichi par des
considérations dynamiques, dont l'adjonction de mécanismes d'accumulation du capital et de
progrès technique inspirés par la tradition de la théorie de la croissance à la Solow, alors le
modèle prototype de la dynamique néoclassique. Des éléments d’ajustements des prix et des
salaires étaient aussi introduits, mais d’une manière partielle de telle sorte que les excédents
d’offre continuaient à prévaloir. En conséquence, le système était perpétuellement dans un
régime de fonctionnement « keynésien », d’excès d’offre sur les marché des biens et du
travail (cf. l’encadré 1). Cette architecture générale était cependant suffisamment œcuménique
pour autoriser une diversité pratiquement illimitée de spécifications. En effet, le propre de ces
modèles était leur caractère pragmatique — lorsqu’il s’agissait d’ajouter des spécifications
nouvelles, celles-ci trouvaient leurs sources dans l’observation de la réalité plutôt que dans
des considérations théoriques. Faisant l’objet d’un très large consensus, ces modèles ont régné
sans partage sur le monde économique jusqu’au milieu de années 1970.
8

Encadré 1

Une maquette représentative de l’esprit de la modélisation


macro-économétrique de la Synthèse Néoclassique

(1) Q = C + I + G* Equilibre offre-demande globale de biens

(2) C = C (Q - T*, C-1) Consommation

(3) K = K (Q, r, K-1) Demande de capital

(4) I = K - (1 - δ) K-1 Investissement

(5) N = N (Q, N-1) Demande de travail

(6) L = p Q L (r) Demande de monnaie

(7) M = M (r) Offre de monnaie

(8) L =M Equilibre du marché de la monnaie

(9) Un = 1 - N/N*s Taux de chômage

(10) Uc = Q/(aK) Degré d’utilisation des capacités (Output gap)

(11) w/w-1 = w (p/p-1, Un) Taux de salaire nominal (Courbe de Phillips)

(12) p = p(Uc, wN/Q, p-1) Prix (équation de mark-up)

La maquette décrit le fonctionnement dynamique global d’une économie fermée -l’indice -1 symbolise la
période précédente.
Les cinq premières équations correspondent au modèle de demande (courbe IS). Les différents éléments de la
demande possèdent une composante dynamique autorégressive (ajustements incomplets en raison de rigidités
réelles).
Les deux équations suivantes forment la courbe LM.
Viennent ensuite les équations définissant les tensions offre-demande sur les marchés du travail (chômage) et des
biens (degré d’utilisation des capacités). A leur tour, ces tensions sont un facteur explicatif essentiel de la
dynamique d’ajustement progressif des des salaires (courbe de Phillips) et des prix (mark-up).
Les trois variables exogènes sont G*, les dépenses publiques, T*, les taxes – supposées peser toutes directement
sur le revenu des ménages et N*s, l’offre de travail.
9

4. La critique de Friedman de la macroéconomie keynésienne

Milton Friedman a sans doute été le principal auteur à ouvrir une brèche dans la citadelle
keynésienne. Pendant des années, il mena un travail de sape contre la théorie keynésienne,
notamment par ses travaux sur le revenu permanent et la demande de monnaie. Un de ses
textes les plus influents fut sa conférence présidentielle à l’American Economic Association
en 1967, publiée en 1968 (Friedman 1968), dans laquelle il introduisit le concept de taux
naturel de chômage.

La cible de Friedman dans ce texte est l’idée selon laquelle un gouvernement pourrait
durablement diminuer le chômage par une politique d’expansion monétaire. Ceci serait le cas,
affirme-t-il, s’il était vrai que la courbe de Phillips reste stable à travers le temps alors même
que ce type de politique serait entrepris. Son raisonnement est basé sur l’hypothèse d’une
différence de perception entre firmes et travailleurs quant à l’évolution du salaire réel dans un
tel contexte d’expansion monétaire. Alors que les firmes ont des anticipations correctes, celles
des travailleurs sont erronées du fait de leur caractère rétrospectif. Friedman montre que
dans ce cadre une injection monétaire induit effectivement une augmentation de l’emploi (ou
une diminution du chômage) parallèlement à une hausse de l’inflation, ce qui correspond en
termes d’une courbe de Phillips à un déplacement le long de celle-ci. Mais ceci n’est vrai que
dans le court terme. À la période d’échange suivante, les travailleurs, qui ont réalisé leur
erreur d’anticipation, intègrent la hausse du niveau des prix dans leur attente, en conséquence
de quoi la Courbe de Phillips se déplace vers le haut. Pour maintenir le gain d’emploi, des
injections monétaires de plus en plus massives deviennent alors nécessaires. En résulte un
phénomène d’accélération de l’inflation, mettant en danger l’ensemble du système monétaire
et obligeant ultimement à l'abandon de la politique d'expansion monétaire. Il s'avère dès lors
que, si la courbe de Phillips a effectivement une pente négative dans le court terme, elle est
verticale dans le long terme au niveau de ce que Friedman appelle le taux naturel de chômage,
terminologie qui deviendra largement acceptée.

La leçon qui se dégage de son modèle est qu’il est vain de tenter d’augmenter l’emploi au-
delà du taux naturel par une politique de relance monétaire. Cette analyse renforce le
plaidoyer antérieur de Friedman en faveur de règles monétaires strictes. La gestion de la
masse monétaire, déclare-t-il, ne devrait pas être laissée à la discrétion des gouverneurs des
banques centrales (et encore moins des ministres des finances). Au contraire, leur action
devrait être limitée par des règles strictes de croissance de la masse monétaire.
10

Le propre des modèles théoriques keynésiens était de raisonner dans le court terme sans que le
résultat obtenu dans ce contexte ne soit rattaché à une perspective de long terme. Dans son
article, Friedman rompt avec cette pratique, mettant en évidence que la position de court
terme peut constituer un déséquilibre par rapport à celle de long terme, lequel déséquilibre
doit générer un processus correctif.

L’argumentation de Friedman est astucieuse, ne fût-ce que par son recours en vue de
renverser le résultat keynésien traditionnel à un élément auquel les keynésiens avaient —
peut-être à tort — donné une place centrale, la courbe de Phillips. Les keynésiens auraient
certes pu lui riposter qu’il avait seulement démontré l’inefficacité d’une politique d’expansion
monétaire dans un contexte où elle n’avait pas de raison d’être menée. Mais cet argument ne
fut avancé que bien plus tard après que les débats se soient déplacés sur d’autres plans. De
plus, alors que l’argumentation de Friedman était purement logique, le cours des évènements
confirma ses prédictions. L’émergence du phénomène de stagflation, c’est-à-dire l’existence
concomitante d’un taux de chômage et d’un taux d’inflation élevés, a pu en effet être
invoquée comme une vérification grandeur nature de la validité de ses thèses.

La critique de Friedman n’était pas une attaque frontale contre la macroéconomie


keynésienne. Contrairement à ce qui sera le cas pour Lucas, Friedman trouvait peu à redire
quant à la méthode de Keynes, un auteur avec qui il partageait une même filiation
marshallienne. Il était également peu opposé au modèle IS-LM en tant que tel, sa cible étant
plutôt les résultats de justification des interventions étatiques que les auteurs keynésiens en
dérivaient. Il s’agissait pour lui de plaider pour la validité de la version classique du modèle
IS-LM, qui suppose la flexibilité du salaire, aux dépens de sa version keynésienne, dans
laquelle le salaire est supposé être rigide.

La prise en compte de l’analyse de Friedman nous invite à revenir sur le sens de l’adjectif
« keynésien ». Il s’avère que celui-ci peut désigner deux objets distincts, d’une part, un
appareillage conceptuel, le modèle IS-LM, et, d’autre part, le projet politique au service
duquel cet appareillage est mis, la défense d’interventions étatiques visant à suppléer les
défaillances du marché. On peut alors parler de « keynésianisme au sens méthodologique » et
de « keynésianisme au sens politique ». À l’aune de cette typologie, la «macroéconomie
keynésienne » est redevable des deux sens de l’adjectif alors que Friedman se révèle être un
cas hybride, combinant keynésianisme méthodologique et anti- keynésianisme politique.
11

5. Une révolution kuhnienne


Il est étonnant que l’on n’ait pas plus caractérisé les modifications qui se sont produites en
macroéconomie dans la fin des années 1970 comme une « révolution scientifique » à la Kuhn.
En effet, elles en ont tous les attributs, tant du point sociologique (déclarations de guerre
tonitruantes, délaissement des anciennes figures tutélaires, affrontement intergénérationnel,
créations de nouvelles revues, etc.) que du point de vue du contenu.

Commençons par évoquer l’aspect terminologique. Rétrospectivement, la meilleure manière


de qualifier ce qui s’est passé est de parler de l’émergence d’une macroéconomie dynamique
et stochastique. Bien qu’imparfaite, l’appellation de « Dynamic Stochastic General
Equilibrium models » que l’on trouve de plus en plus dans la littérature est donc pertinente.
Mais cette terminologie est récente. Quand la nouvelle approche a émergé, on a commencé
par parler de modèles “monétaristes marque II”, du fait qu’effectivement Lucas visait à fonder
la thèse de Friedman sur l’inefficacité des politiques d’activation monétaire. Mais cette
terminologie est inadéquate car elle méconnaît la différence méthodologique profonde
séparant Lucas de Friedman. Par ailleurs, il faut, à l’intérieur de la nouvelle approche,
distinguer différentes phases de développment. A ce jour, elles se ramènent à trois. Il y a
d’abord la génération des modèles dits-nouveaux classiques, associés aux travaux fondateurs
de Lucas. Le terme de ‘théorie nouvelle classique’ vise à remettre à l’honneur le programme
de recherche que Keynes avait visé à disqualifier — c’est Keynes, dira Lucas, qui a constitué
un détour dans le développement de la théorie alors qu’Hayek avait correctement défini la
voie à suivre. Les modèles de cycle réel, initiés par Finn Kydland et Edward Prescott (1982)
et John Long et Charles Plosser (1983), constituent une seconde phase du développement de
la nouvelle macroéconomie. Dans ces modèles, l’élément déclencheur des fluctuations
cycliques n’est plus, comme chez Lucas, un choc monétaire mais un choc de nature
technologique — d’où l’adjectif ‘réel’. Enfin, bien qu’ici on soit dans l’histoire immédiate, de
telle sorte que les risques d’erreur d’appréciation sont plus grands, une troisième phase,
parfois épinglée sous l’étiquette de ‘Nouvelle Synthèse Néoclassique”, semble être en train
d’émerger.

Notre objectif dans la suite de l’article est de mettre en évidence les grandes lignes de chacun
de ces trois moments. Une attention particulière sera portée au dernier de ceux-ci. Mais
12

auparavant, nous consacrons une section à la présentation des critiques de la macroéconomie


keynésienne avancées par les auteurs nouveaux classiques4.

6. La critique de la macroéconomie keynésienne

Trois des diverses critiques avancées par les auteurs nouveaux classiques à l’encontre de la
macroéconomie keynésienne nous paraissent centrales : d’abord une critique conceptuelle et
méthodologique, dans laquelle Lucas (parfois conjointement avec Sargent) joua un rôle
central ; ensuite, une critique portant sur les défauts de construction des modèles macro-
économétriques keynésiens, elle aussi due à Lucas et qui a été épinglée dans la littérature
comme « la critique de Lucas » ; enfin, une critique plus générale, avancée par Kydland et
Prescott et portant sur le problème de crédibilité rencontrée par les politiques économiques
discrétionnaires. Nous les examinons successivement.

La critique conceptuelle de Lucas

Signe des temps ? Lucas et les nouveaux classiques sont bien plus cinglants que Friedman
dans leur critique de Keynes. Pour Lucas, ce qu’on doit retenir de Keynes est moins sa
contribution à la théorie économique proprement dite que le rôle que ses idées ont joué pour
endiguer l’expansion du socialisme ! Il met également au crédit du keynésianisme, entendu
dans un sens plus large que les écrits de Keynes, le fait d’avoir engagé la théorie économique
dans la construction de modèles économétriques. À ses yeux, ceci marque un saut qualitatif
dans la scientificité de la théorie économique.

Quant à l’apport de Keynes à la théorie économique, Lucas lui voit au moins trois défauts
majeurs. En premier lieu, les prédécesseurs de Keynes, comme Hayek, et Keynes lui-même
dans son Treatise on Money, avaient essayé d’aborder l’étude du chômage à l’intérieur d’une
théorie du cycle économique et donc dans une perspective dynamique. Mais dans la Théorie
générale, Keynes abandonna cette ambition pour se rabattre sur l’objectif plus étroit de
démontrer l’existence du chômage en un point du temps, c.à.d. dans un cadre statique. Ceci,
pour Lucas, est une sérieuse régression, même si on peut en comprendre les raisons,
notamment l’absence d’outils conceptuels et mathématiques adéquats. La seconde critique,

4
Bien que l’appelation ‘nouvelle classique’ devrait, à strictement parler, se limiter aux travaux de Lucas, nous
l’utiliserons parfois dans un sens plus large pour désigner l’ensemble du courant de la macroéconomie
stochastico-dynamique.
13

intéressante d’un point de vue méthodologique, est l’accusation émise à l’encontre de Keynes
d’avoir trahi ce que Lucas appelle la « discipline de l’équilibre ». Celle-ci est à ses yeux le
principe méthodologique fondant la spécificité de l’approche économique, consistant à se
refuser à aborder la réalité autrement qu’à travers les postulats de comportement optimisateur
et d’apurement des marchés. Enfin, et c’est sa troisième critique conceptuelle, Lucas a eu
beau jeu de montrer que les concepts centraux du discours de Keynes, le chômage
involontaire et le plein emploi, sont mal définis, ce qui le conduit à affirmer que rien n’est
perdu à les abandonner5.

La « Critique de Lucas »

Jusqu’aux années 1970, la modélisation microéconomique et la modélisation


macroéconomique ont formé deux univers largement séparés, connaissant chacun un essor
important mais dans des esprits différents. Alors que le développement de la microéconomie
se fit sous l’aiguillon de l’exigence de rigueur conceptuelle, la modélisation
macroéconomique, quant à elle, s’était développée d’une manière beaucoup plus pragmatique.
L’objectif principal des modélisateurs était de restituer les faits observés du monde réel le
plus fidèlement possible plutôt que de donner des micro-fondements rigoureux aux équations
de comportement des modèles. L’apport de Lucas (1975) a été de montrer que si l’on pouvait
considérer que ces modèles étaient satisfaisants en ce qui concerne leur utilisation pour la
prévision, il n’en allait pas de même pour l’évaluation de politiques économiques alternatives
par des simulations.

L’argumentation de Lucas prend comme fondement la notion de « modèle structurel »,


entendant par celle-ci un ensemble d’équations décrivant la réaction d’agents rationnels à un
environnement fluctuant. Selon lui, cette notion doit constituer le principe fondamental de la
modélisation macroéconomique. Mais, à l’époque, la pratique habituelle des modélisateurs
était loin de s’y conformer. En effet, elle était centrée sur la formalisation des « grandes
fonctions macroéconomiques », les différents constituants du schéma IS-LM dynamisé (cf
encadré 1). Autrement dit, la préoccupation des macroéconomistes de l’époque était de

5
Les économistes de sensibilité keynésienne ne sont, bien sûr, pas restés insensibles à ces critiques. Le propre
des économistes que l’on a regroupé sont la bannière de théorie « nouvelle keynésienne » a été de tenter de leur
riposter tout en acceptant de se placer sur le terrain défini par Lucas. Un grand nombre de modèles, de genres
souvent différents, ont été proposés, visant à produire un résultat soit de chômage involontaire, soit de sous-
emploi, en général dans un cadre statique. Malgré leur intérêt, ces modèles n’ont, pour la plupart, pas résisté
devant la lame de fond qu’a constitué la nouvelle macroéconomie. Pour un examen critique de ces modèles, le
lecteur est de nouveau renvoyé à De Vroey (2004a).
14

représenter quantitativement et le plus fidèlement possible la consommation, l’investissement,


la demande de travail, la demande de monnaie, etc. En conséquence, chacune de ces grandes
fonctions faisait l’objet d’une formulation théorique au cas par cas. Peu de considération était
donnée à la cohérence d’ensemble. De même, ces études se souciaient peu de fonder les
évolutions étudiées sur le comportement optimisateur des agents économiques. Enfin, ces
spécifications théoriques se voyaient transformées et simplifiées dans le but d’obtenir des
relations n’impliquant que des variables macroéconomiques observables, liées par des
relations — en général linéaires ou log-linéaires — dont les paramètres avaient fait l’objet
d’une estimation économétrique. Selon Lucas, le défaut majeur de cette manière de faire est
que, dans les utilisations pratiques ultérieures des modèles, ces paramètres sont traités comme
des données exogènes, alors qu’ils constituent des formes réduites intégrant des éléments de
la politique économique, taux de taxe, taux d’intérêt,…. et devraient donc varier avec elle.

Dans son article, Lucas donne plusieurs exemples des conséquences néfastes de cette pratique
et surtout suggère une voie qui permet d’échapper à cette critique, la discipline d’équilibre et
la rationalité des agents. Sa critique a été largement acceptée et a été à la base d’une
transformation radicale de la modélisation macroéconomique.

Une implication de la critique de Lucas porte sur la rationalité des anticipations. Le concept
d’anticipations rationnelle avait été introduit par John Muth en 1961, pour désigner l’idée
selon laquelle les agents doivent être appréhendés comme ayant la capacité de prévoir, avec
l’information dont ils disposent, et en moyenne, les résultats du modèle dans lequel ils
évoluent. Mais ce concept ne reçut une place centrale dans la théorie économique — pour
ultimement devenir un sine qua non de celle-ci — qu’après que Lucas l’ait utilisé à son tour
dans ses modèles. L’exigence méthodologique à laquelle l’hypothèse d’anticipations
rationnelles répond est la nécessité de spécifier avec précision la manière dont les agents
forment leurs anticipations quant aux valeurs prises par les variables dont dépendent leurs
comportements, par exemple le niveau des prix futurs. Traditionnellement, on supposait que
les agents utilisaient des modèles de prévision naïfs extrêmement frustes, simple projection
de l'évolution passée de la variable concernée, les anticipations adaptatives dont Friedman
avait doté les travailleurs de son modèle. Mais une telle représentation, malgré son éventuelle
plausibilité immédiate, ne résiste pas un examen critique. Elle implique que les agents
n’apprennent rien de leurs déboires et persistent dans leurs erreurs de jugement. Au contraire,
lorsque l’hypothèse d’anticipations rationnelle est introduite, les agents sont supposés avoir la
capacité de prévoir, avec l’information dont ils disposent et en moyenne, les résultats du
15

modèle dans lequel ils évoluent. En d’autres termes, on suppose que les attentes des agents
sont, en moyenne, conformes aux prédictions du modèle théorique.

La critique d’incohérence temporelle de Kydland et Prescott

Nous avons vu que Friedman avait plaidé contre toute politique monétaire qui serait
discrétionnaire, l’argument sous-jacent étant que si on peut rouler des gens une fois, on ne
peut le faire indéfiniment. Dans un article publié en 1977, Kydland et Prescott généralisent
cet argument en lui donnant une formulation rigoureuse. Cet article dégage une implication de
l’adoption de l’hypothèse d’anticipations rationnelles. Le fait de l’adoption de celle-ci
diminue la marge de manœuvre des gouvernements. Ce fut une pièce importante dans le débat
entre règle et discrétion en matière de politique économique, pesant fortement en faveur de la
première de ces deux alternatives.

La thèse audacieuse qu’ils soutiennent est qu’un gouvernement bénévolant et bien informé
aura tendance à renier constamment ses promesses sauf s’il en est institutionnellement
empêché. Imaginons par exemple un gouvernement qui cherche à obtenir une relance
économique immédiate par l’investissement et qui, dans ce dessein, annonce qu’il augmentera
le taux d’intérêt l’an prochain. Si les firmes attachent du crédit à cette annonce, elles
décideront d’accélérer sans attendre le rythme de leurs investissements pour profiter des
conditions encore favorables des emprunts. Mais alors, vu qu’une telle augmentation présente
des effets déflationistes, le gouvernement sera incité, l’échéance venue, à ne pas y procéder6.
Le problème sous-jacent peut être énoncé comme suit. Si une politique optimale peut être
définie en une matière quelconque, il peut s’avérer — une fois qu’elle est mise en œuvre et
que l’effet escompté est obtenu — qu’une alternative meilleure se dégage du seul fait que le
passé est le passé. Mais l’organe décideur ne peut se comporter ainsi car s’il le faisait, la
crédibilité de ses engagements ultérieurs serait ébranlée. Cette argumentation qui a été
épinglée sous la dénomination d’ « incohérence temporelle » n’est pas en soi originale — elle
était déjà présente dans les écrits des théoriciens des jeux dynamiques. Le mérite de Kydland
et Prescott est d’avoir introduit cette dimension de crédibilité dans l’univers
macroéconomique et d’avoir mis en avant la restriction significative du champ de manœuvre

6
C’est ce type d’argument –effet d’annonce d’une politique monétairefuture très restrictive- qui a été préconisé
sous la présidence de Ronald Reagan au début des années 1980 par les économistes de l’offre pour lutter contre
l’accélération de l’inflation.
16

économique des autorités politiques que sa considération entraîne. En effet, une fois qu’elle
est prise en compte, pour qu’une mesure de politique économique annoncée pour le futur soit
prise au sérieux par les agents privés, il faut que ceux-ci soient certains que la question, « le
gouvernement aura-t-il intérêt à mettre en œuvre demain ce qu’il annonce aujourd’hui ? »,
recevra une réponse positive.

7. Lucas et la révolution nouvelle classique

Les trois étapes de l’élaboration d’une théorie d’équilibre du cycle

Lucas, comme les autres auteurs ayant partagé sa démarche, a commencé par travailler à
l’intérieur de la macroéconomie keynésienne pour graduellement réaliser son insatisfaction
par rapport à celle-ci et ultimement la rejeter radicalement. Le premier article dans lequel
cette rupture s’est opérée est écrit conjointement avec Leonard Rapping et s’intitule “Real
Wages, Employment, and Inflation” (1969). Son originalité est double, résidant dans
l’adoption, d’une part, de l’hypothèse d’apurement immédiat et permanent des marchés et
d’autre part, du mécanisme de substitution intertemporelle entre le travail et le loisir. Ici,
l’intuition sous-jacente est que l’agent économique alloue son travail et ses loisirs
intertemporellement – travaillant par exemple moins aujourd’hui et plus demain — en
fonction des conditions de marché présentes et attendues pour le futur. L’idée de substitution
intertemporelle, en elle-même, n’était pas neuve mais elle n’avait que très peu été introduite
en macroéconomie. Au contraire, à partir de cet article fondateur, elle va en devenir le pivot.

Une seconde étude fondatrice de la nouvelle approche est l’article de Lucas, « Expectations
and the Neutrality of Money » (1972). Son objectif est de donner une base plus rigoureuse à la
thèse friedmanienne de l’inefficacité des politiques monétaires, notamment en remplaçant
l’hypothèse d’anticipations adaptatives, qui dans le modèle de Friedman amenait les
travailleurs à être leurrés systématiquement, par l’hypothèse d’anticipations rationnelles. A
cette fin, Lucas construit un modèle à générations imbriquées, introduisant l’hypothèse
d’anticipations rationnelles que John Muth avait proposé plusieurs années auparavant. Dans
ce modèle, les producteurs sont face à un problème d’extraction de signal : observant une
variation du prix du bien dans le lieu dans lequel ils se trouvent, ils doivent s’efforcer de
diagnostiquer, sans pouvoir l’observer directement, s’il s’agit d’un changement de prix relatif,
auquel cas ils ont intérêt à réagir en quantités, ou d’un changement nominal, auquel cas ils ne
doivent pas agir de la sorte. Face à un tel problème, ils adopteront un comportement
17

mélangeant les deux types de réaction. En conséquence, les chocs monétaires ont un impact
réel, sans cependant que ce trait puisse être utilisé comme un instrument de politique
économique. La thèse de Friedman est ainsi démontrée.

La troisième phase du développement théorique consiste dans la construction proprement dite


du modèle du cycle (Lucas, 1975, 1977). Le pas à franchir n’est en fait pas très grand. En
effet, le type de raisonnement mis en œuvre dans l’article sur la neutralité de la monnaie —
combinant les concepts d’apurement des marchés, de substitution intertemporelle, de choc
exogène, d’information imparfaite — ouvre un champ d’utilisation beaucoup plus vaste et en
particulier se révèle apte à produire une théorie du cycle. Alors qu’auparavant les théories de
la valeur et du cycle constituaient deux champs disciplinaires séparés, s’offre cette fois la
perspective de les réunir. Le résultat est un modèle du cycle dans lequel celui-ci est généré par
les décisions optimales des agents, son élément déclencheur étant des chocs monétaires
imparfaitement observés.

Les traits distinctifs de la nouvelle approche

Un premier élément constitutif de la nouvelle approche a déjà été évoqué plus haut, la
« discipline d’équilibre », expression chère à Lucas. Selon celle-ci, tant le comportement
optimisateur que l’apurement des marchés sont les préalables sine qua non du discours
théorique économique. Ce n’est pas que l’on déclare que le monde réel soit toujours
l’équilibre, c’est plutôt qu’une telle proposition, ou son contraire, est non-vérifiable. Pour
Lucas, le terme de discipline doit être entendu dans le sens d’une règle de comportement auto-
imposée. Selon lui, le propre de l’économiste est d’aborder la réalité à partir du prisme de
l’équilibre —rappelons que sa critique de Keynes est d’avoir abandonné cette discipline en ce
qui concerne le marché du travail. Le principe méthodologique préconisé est le suivant :
construisez un modèle, une économie fictive, sur la base de la prémisse d’équilibre ; cela étant
fait, évaluez sa capacité à reproduire les évolutions observables dans le monde réel. Tombe
alors à la trappe le concept de déséquilibre et son corrélat, le non-apurement des marchés
(alors que le projet de macroéconomie keynésienne était de démontrer ce non-apurement dans
le cas du marché du travail). Inutile de dire qu’un tel point de vue, basé sur l’admission
franche du caractère fatalement irréaliste des modèles, est contre-intuitif et ne peut
qu’accentuer la césure entre l’économie et les autres sciences sociales, le théoricien et le
grand public.
18

Seconde observation, ce principe d’équilibre est étendu à un champ dont on pensait


auparavant qu’il ne se prêterait pas à une telle analyse, le cycle. Sans que la chose ait été
préméditée, cette extension a comblé une division séculaire à l’intérieur de la science
économique entre les domaines de la valeur et du cycle. Dans cette division, la théorie de la
valeur était centrée sur l’équilibre, tout ce qui n’y trouvait pas de place étant relégué dans la
théorie du cycle. Si les termes d’équilibre et déséquilibre étaient employés par les théoriciens
du cycle, c’était seulement d’une manière allusive. Mais il était considéré comme évident que
le phénomène du cycle ne relevait pas de la théorie de la valeur. C’est cette manière de voir
les choses qui a été renversée, puisque la nouvelle théorie parvient à démontrer que des
modèles de fluctuations cycliques peuvent être construits à partir des prémisses de
comportement optimisateur et d’apurement permanent des marchés.

Les implications de cette extension du champ de la théorie de la valeur sont importantes.


Ainsi, il est affirmé que, contrairement à ce qu’on pourrait croire de prime abord, la théorie du
cycle peut se construire sans faire référence à la catégorie de chômage. C’est dire que la
notion de chômage involontaire n’a plus droit de cité dans une telle approche. L’indicateur
central à prendre en compte est le nombre d’heures travaillées. La question de savoir si ce
total d’heures se répartit également ou inégalement, auquel cas il y a effectivement chômage,
est jugée comme étant secondaire. Une autre implication est que l’existence de cycles est
maintenant considérée comme un phénomène normal plutôt que la manifestation d’un
dysfonctionnement de l’économie, vis-à-vis duquel l’état aurait à jouer un rôle correcteur.

Ces modifications analytiques ne peuvent se comprendre sans réaliser ce qui s’est passé en
amont. Deux éléments sont à considérer. Le premier est un changement dans les outils
mathématiques utilisés. Un vaste emprunt aux mathématiques des sciences de l’ingénieur
s’est produit, portant sur le contrôle optimal et le calcul de variations et rendant possible la
théorisation de la dynamique économique. Un des leitmotivs des propos méthodologiques de
Lucas est que les économistes antérieurs ressentaient le besoin d’étudier l’économie d’une
manière dynamique, mais n’avaient à leur disposition que des outils mathématiques statiques.
Cette lacune est maintenant comblée. Le second élément est le développement de
l’informatique qui a rendu possible des travaux de calcul et de simulation qui auparavant
étaient inconcevables. Donc la révolution scientifique qui s’est produite a un incontestable
soubassement technologique.

Mais la lame de fond est une modification radicale de l’agenda de recherche de la


macroéconomie. Comme nous l’avons noté, celle-ci est née avec la préoccupation de mettre
19

en avant l’existence de défauts de fonctionnement de l’économie de marché, justifiant des


actions correctrices de l’Etat. Il n’est dès lors pas étonnant qu’elle ait presque naturellement
penché du côté des réformateurs sociaux. Le chômage était considéré comme la principale de
ces dysfonctions et les macroéconomistes étaient en quelque sorte entrés en concurrence avec
les économistes du travail pour en faire leur objet d’étude. Ceci a radicalement changé. Le
thème des échecs de marché est passé de mode – et si ce propos paraît léger, rappelons que
l’intérêt de la vision kuhnienne est de mettre en avant qu’une dimension de mode n’est pas
absente du domaine théorique. C’est comme si les macroéconomistes, ayant cessé de trouver
le thème du chômage intéressant, avaient décidé de le renvoyer aux bons soins des
économistes du travail. L’intuition initiale de Keynes est ainsi renversée.

Incontestablement, les évolutions historiques ont joué un rôle dans un tel changement de
perspective. D’une manière générale, le spectre d’une grande crise a cessé de paraître
menaçant, perspective à mettre au crédit du keynésianisme. De plus, le contraste entre la
défaite historique des expériences socialistes, que ce soient les échecs des nationalisations ou
la chute du mur de Berlin, et la prospérité des économies basées sur le système de marché a
donné un nouveau tonus au libéralisme économique. D’une manière plus étroite, dans les pays
phares de la recherche, comme les Etats-Unis et le Royaume-Uni, le chômage a cessé d’être
un problème brûlant. Positivement, postuler que les marchés fonctionnent d’une manière
efficace permet de porter l’attention sur d’autres thèmes, ceux que les fondateurs de
l’économie politique avaient privilégiés et qui avaient été quasi-abandonnés avec la révolution
marginaliste, comme la croissance, les différences de richesse entre nations, les liens en
économie, démographie et éducation, etc.

8. Les modèles de cycle réel

Des différents modèles qui ont vu le jour dans la foulée des travaux de Lucas, c’est
incontestablement le modèle de Kydland et Prescott qui prit la préséance et devint le canon à
suivre. Ces auteurs s’inscrivent dans une ligne de continuité par rapport à Lucas. Ils
raisonnent dans un cadre d’équilibre général walrasien. La discipline d’équilibre, les
anticipations rationnelles, un environnement dynamique et stochastique et la substitution
intertemporelle sont au centre de leur analyse. Comme Lucas, ils conçoivent la théorie
économique comme une ensemble d’instructions sur la manière de construire une économie
artificielle — « a mechanical, imitation economy » selon les termes de Lucas (1981 : 272) —
dont le caractère radicalement irréaliste est admis. Mais ils s’écartent de la perspective
20

lucasienne sur quelques points importants : passage d’une économie monétaire à une
économie sans monnaie, remplacement de chocs monétaires par des chocs technologiques,
retour à l’hypothèse d’information parfaite. De plus, alors que le modèle fondateur de Lucas
était qualitatif, leur objectif est d’arriver à des résultats quantitatifs, à confronter les résultats
de la simulation du modèle avec les séries temporelles de la réalité.

Le modèle de Kydland et Prescott (1982)


L’objectif de l’article de Kydland et Prescott est de montrer que les fluctuations économiques
peuvent s’expliquer comme le résultat de l’adaptation optimale d’agents rationnels à des
chocs technologiques exogènes. Une première caractéristique de leur modèle est son caractère
extrêmement simplifié puisque l’économie se réduit à un agent représentatif. Celui-ci est un
producteur indépendant cumulant sur sa personne les fonctions de capitaliste et de salarié. La
chose étonnante de prime abord ici est que Kydland et Prescott prétendent pouvoir rendre
compte des fluctuations cycliques aux Etats-Unis de 1950 à 1975 à partir d’un modèle aussi
rudimentaire. Une autre particularité de leur approche est de fournir un cadre unifié pour
analyser deux phénomènes qui auparavant relevaient d’explications séparées, la croissance,
d’une part, et les fluctuations conjoncturelles, d’autre part.

Le point de départ de leur modèle est le modèle de croissance optimale de Ramsey (1928) et
Cass (1965) étendu au cas stochastique par Brock et Mirman (1972). Le programme
d’optimisation intertemporelle proposé par Ramsey est effectué par un planificateur
bénévolant et omniscient. Mais, en vertu du second théorème du bien-être, son résultat peut
être dérivé comme un équilibre concurrentiel. Le raisonnement de planification permet de
simplifier l’analyse puisqu’aucun recours à la notion de prix n’est nécessaire pour arriver au
résultat d’équilibre. Ainsi dans le cas du travailleur individuel (producteur indépendant)
représentatif du modèle de Kydland et Prescott, il suffit de résoudre les fonctions de
maximisation du profit et d’utilité. Les grandeurs de salaire et de taux d’intérêt
n’interviennent que lorsque l’analyse en termes d’un planificateur est réinterprétée dans le
contexte d’une économie décentralisée compétitive.

Kydland et Prescott l’étendent dans trois directions. En premier lieu, ils supposent que
l’investissement exige plusieurs périodes de maturation avant de devenir un input
opérationnel (d’où l’expression de ‘time to build’). En second lieu, comme noté plus haut, ils
adoptent l’hypothèse d’anticipations rationnelles, la fonction d’offre de Lucas et Rapping et
21

son soubassement de substitution intertemporelle7. Enfin, la technologie est supposée être le


moteur de l’évolution de l’économie et être sujette à chaque période à des chocs aléatoires
auto-corrélés.

Les variables pertinentes dans le modèle sont, d’une part, la production et ses facteurs — le
capital, l’activité (mesurée en nombre total d’heures travaillées) et la productivité (exogène)
— et d’autre part, les deux composantes de la demande, la consommation et l’investissement.
Le taux d’intérêt et le taux de salaire horaire réels s’y ajoutent naturellement par le calcul des
productivités marginales des facteurs, ce qui conduit à la prise en compte de huit variables.
Pour paramétriser numériquement les formes fonctionnelles du modèle, Kydland et Prescott
recourent à la méthode de « calibration ». Celle-ci consiste à recourir à des grandeurs trouvées
dans des études empiriques indépendantes et dans les données de la comptabilité nationale en
vue d’assigner des valeurs aux paramètres.

Cette tâche accomplie, Kydland et Prescott se retrouvent avec six paramètres ‘libres’,
auxquels aucune valeur numérique n’a été assignée. Ils concernent principalement la
substitution intertemporelle et les chocs technologiques. Pour combler la lacune, Kydland et
Prescott cherchent parmi les différentes valeurs des combinaisons possibles de ces paramètres
celles qui reproduisent le mieux les variances et covariances centrales des données. En
particulier, la variance des chocs technologiques est choisie de telle sorte que la variance de la
production s’ajuste à celle de l’économie américaine dans l’après-guerre.

La validation du modèle s’opère en confrontant les résultats de la simulation du modèle — le


calcul des moments du second ordre (volatilités, corrélations et auto-corrélations) des
évolutions des variables fournies par le modèle avec le calcul des mêmes moments du second
ordre des séries temporelles macroéconomiques observées. Le modèle « marche » si les
simualtions miment les observations empiriques.

Kydland et Prescott parviennent dans une large mesure à réaliser leur objectif. En prenant le
niveau des fluctuations de l’output comme référence, leur modèle reproduit d’une manière
satisfaisante tant la variabilité moindre de la consommation que la variabilité nettement plus
forte de l’investissement. Il en va de même pour la pro-cyclicité et la persistance de la plupart
des variables considérées. Mais leurs résultats sont insatisfaisants sur deux points. En

7
Auparavant, l’essentiel des travaux sur la croissance et les fluctuations de l’époque reposaient sur l’hypothèse
d’une offre de travail rigide. De plus, dans le but d’accroître la substituabilité intertemporelle du loisir, Kydland
et Prescott introduisent un effet de non-séparabilité intertemporelle du loisir. L’intuition sous-jacente est que si
on a beaucoup travaillé hier, ayant ainsi sacrifié du loisir, on souhaitera compenser la chose aujourd’hui, au
moins partiellement.
22

particulier, leur modèle ne parvient pas à rendre compte des variations de l’activité. Dans les
faits, celle-ci évolue en ligne presque parfaite avec l’output, alors que ceci n’est pas le cas
dans le modèle, dans lequel ces variations sont significativement moindres. Une autre
insuffisance du modèle, plus sérieuse, concerne le taux de salaire et le taux d’intérêt. Dans le
modèle, ceux-ci évoluent parallèlement à l’output, contrairement à ce qui se passe dans les
faits, où l’évolution des salaires est généralement acyclique tandis que celle des taux d’intérêt
est anticyclique. Il n’empêche que dans l’ensemble, les résultats de Kydland et Prescott sont
impressionnants. Leur prouesse est d’avoir été capable de reproduire avec succès plusieurs
caractéristiques empiriques des fluctuations économiques aux Etats-Unis sur une période
assez longue tout en partant du modèle le plus rudimentaire qui soit. Avant qu’ils ne soient
parvenus à le faire, l’opinion générale était que la tâche était impossible.

Du modèle Kydland-Prescott 1982 au modèle RBC canonique


De nombreuses critiques ont été avancées au modèle de Kydland et Prescott qui ne sont pas
restées sans réponses. Ces dernières ont été plus ou moins satisfaisantes — la moins
satisfaisante concernant l’écart entre la substitution intertemporelle requise dans le modèle et
celle dont on peut présumer l’existence dans la réalité. Quoiqu’il en soit, ces critiques n’ont
pas été capables d’arrêter l’envol de la nouvelle approche. De plus, elles se sont estompées
quand on a commencé à réaliser que le modèle de Kydland et Prescott, une fois décanté,
débouchait sur un modèle canonique, centré sur l’idée d’une optimisation intertemporelle et
pouvant servir à des usages multiples. Un glissement s’est en effet produit entre le modèle
fondateur et ce que l’on a progressivement considéré comme étant le modèle RBC canonique,
le point de départ d’une efflorescence de modèles visant chacun à tester des faits stylisés
nouveaux ou plus complexes.

Ce modèle canonique –encadré 2- a pour caractéristique de conjuguer parcimonie et un champ


explicatif très large. King, Plosser et Rebelo (1988) le présentent comme suit. Le
consommateur représentatif doit effectuer un double arbitrage, intra- et intertemporel, entre sa
consommation C et son loisir L, sachant qu’il dispose d’une unité de temps par période (son
offre de travail est donc 1 – L). Les contraintes auxquelles il fait face sont la contrainte de
ressource (2), avec une fonction de production Y = F( ., .) intégrant une variable
technologique Z. Celle-ci suit une évolution stochastique autorégressive (4). L’accumulation
du capital est donnée par l’équation (3) dans laquelle δ est le taux de dépréciation. Le salaire
réel et le taux d’intérêt réels peuvent être calculés par F’Let F’K - δ, respectivement.
23

Encadré 2

Le modèle de croissance optimale stochastique dans une perspective du cycle réel d’équilibre

(1) Max E0 Σ βt u(Ct, 1-Lt)

(2) Ct + It = F( Kt, Z tLt)

(3) Kt+1 = (1−δ) Kt + It

(4) Zt+1 = ρZt + εt

avec εt, , processus d’innovations stochastiques indépendantes et identiquement distribuées (iid)

Si l’élan impulsé par Kydland et Prescott n’a pas été arrêté, le nouveau paradigme a
cependant connu de profondes modifications. Celles-ci se sont produites de manière
endogène, à la fois dans un processus de réaction aux critiques et dans la volonté de rendre
compte de faits stylisés échappant au cadre explicatif des modèles élémentaires. Comme nous
le verrons dans la section suivante, le changement qui s’est produit a porté sur la mise en
avant de la concurrence imparfaite et la réintroduction d’une perspective monétaire avec la
réouverture du dossier des effets réels d’une expansion monétaire.

9. La nouvelle synthèse néoclassique

Le terme faisant l’intitulé de cette section est dû à Goodfriend et King (Goodfriend et King
1997) et désigne une classe de modèles visant à réintroduire la question des effets de la
politique monétaire dans la théorie macroéconomique, en d’autres termes, de pallier la
situation d’absence de monnaie dans le modèle canonique. L’appellation de “nouvelle
synthèse néoclassique” se justifie par le fait qu’on rejouerait le jeu de la synthèse ancienne
avec une combinaison d’éléments keynésiens et classiques. Ici, les éléments « keynésiens »
sont la concurrence imparfaite et la viscosité des prix. Les éléments « classiques » sont
l’approche dynamique-stochastique, l’optimisation intertemporelle et les anticipations
rationnelles. À ce jour, on ne peut savoir si cette appellation va s’imposer ou si elle n’aura été
qu’une passade. Mais il reste que, quelle que soit la terminologie en vigueur, un nouveau
développement est à l’œuvre.
24

Le point de départ de ce type de modèles est le fait stylisé suivant : on observe qu’un choc
monétaire produit des effets réels qui persistent pendant de nombreuses périodes. Pour
l’expliquer, un autre fait est mobilisé, à savoir que les prix s’ajustent imparfaitement,
phénomène qui, lui-même est conçu comme le résultat conjoint de la viscosité des prix et
d’une situation de concurrence imparfaite. S’il est admis que la viscosité est un trait de la
réalité, son intégration dans la théorie économique est loin d’être évidente, comme de
multiples épisodes de l’histoire de la théorie économique l’attestent. Parmi les différentes
voies explorées à cet effet, le modèle de contrats échelonnés de Taylor (1979), conçu au
départ pour les salaires et le modèle de Calvo (1983), défini à l’origine pour les prix, sont
devenues les plus populaires8. Dans la procédure à la Calvo, on suppose qu’à chaque période
d’échange, les prix sont susceptibles d’être modifiés avec une probabilité donnée. Supposons
que celle-ci soit de 33%. Alors, en moyenne, un tiers des firmes change leurs prix à chaque
période. Notons au passage que cette hypothèse manque de fondements microéconomiques
car, idéalement, on devrait avoir un schéma dans lequel les modifications des prix sont
fonction des états du monde, des conditions du marché. Mais la complexité technique requise
pour mettre en œuvre un tel schéma tend à le disqualifier. L’avantage indéniable du modèle
de Calvo, expliquant sa large utilisation, est sa maniabilité analytique, en particulier la
simplicité de son processus d’agrégation.

En ce qui concerne l’introduction d’un pouvoir de marché des agents, c’est un modèle ancien,
mais possédant d’élégantes propriétés d’agrégation, le modèle de concurrence monopolistique
de Dixit et Stiglitz (1977) qui a servi de point de départ pour les nouveaux développements.
Un de ses traits les plus intéressants pour la littérature qui nous concerne est que les
entreprises contrôlent leur prix de vente et le calculent en appliquant un mark-up sur leurs
coûts marginaux. Si, pour une raison ou une autre, elles ne peuvent adapter leurs prix face à
un accroissement de la demande, il est dans leur intérêt d’augmenter la quantité offerte
jusqu’à satisfaire la totalité de la demande, ce qui est justement l’effet souhaité.

Regardons maintenant l’impact d’un choc monétaire prenant la forme d’une diminution du
taux d’intérêt. La rigidité à court terme des prix implique une diminution du taux d’intérêt réel
et donc une augmentation de la demande de biens — réduction du coût du crédit, arbitrage
intertemporel modifié en faveur du présent — certes non définitive mais pouvant se perpétuer
au-delà de la période présente du fait des délais d’ajustement des prix. Supposons un système

8
Citons également l’hypothèse de coût d’ajustement quadratique des prix, introduite par Rotemberg (1982) et
parfois préférée pour sa simplicité.
25

de contrats échelonnés à la Calvo. Les firmes appartenant au groupe de celles qui, en la


période considérée, peuvent réajuster le prix des biens qu’elles produisent, trouveront optimal
de le faire. Mais celles qui n’ont pas cette possibilité décideront de produire plus. En
conséquence, l’écart entre le niveau d’activité idéal, correspondant à une situation de
concurrence parfaite, et le niveau existant préalablement et correspondant à une situation de
concurrence imparfaite, diminue9.

Le dernier élément de l’architecture de base du modèle de la nouvelle synthèse néoclasssique


est la politique monétaire. Celle-ci est censée porter sur le contrôle du taux d’intérêt, l’offre de
monnaie devenant une variable qui s’ajuste passivement à la demande. La formulation la plus
répandue de la règle monétaire a été proposée par John Taylor (1993) dans un article qui
visait à donner une estimation empirique de la politique suivie par la FED. Elle est maintenant
connue sous le nom de « règle de Taylor ». Son principe est de lier le taux d’intérêt nominal,
d’une part, à l’écart entre l’inflation observée et de l’inflation-cible (définie souvent comme la
stabilité des prix), et, d’autre part, à l’output gap (la différence entre output effectif et celui
qui se réaliserait si l’économie fonctionnait de manière compétitive) et à un résidu purement
aléatoire appelé le « choc de politique économique », non-corrélé avec l’inflation ni l’output
gap10. La présence de cette règle est souvent postulée de manière discrétionnaire. Mais un
courant de recherche très actif s’est consacré à l’étude de la fonction de réaction du taux
d’intérêt, en particulier à la mise en forme de règles de politiques monétaires optimales pour
une variété de spécifications précises de l’économie, et de la fonction de préférence de
l’autorité monétaire.

Les traits communs des modèles de la nouvelle synthèse néoclassique peuvent être
rassemblées en une maquette, présentée dans l’encadré 3 ci-dessous11. Elle vise à étudier les
effets de la politique monétaire sur l’activité réelle et les prix, dans un cadre aussi simplifié
que possible. Impasse est donc faite sur le capital. Le marché des biens est, quant à lui,
représenté par la consommation. La dérivation analytique, un peu laborieuse, permet d’aboutir
à un système de trois équations liant le taux d’intérêt nominal, l’inflation et l’output gap. Dans
ce modèle, l’économie comprend les quatre biens usuels : travail, consommation, monnaie et
titres, auquel on adjoint un continuum de biens intermédiaires. Ceux-ci sont utilisés comme
9
Il faut cependant noter que le problème d’optimisation que ces firmes ont à résoudre est complexe. En effet,
elles doivent tenir compte dans leur décision que leur tour de changer les prix viendra. Ce problème
d’optimisation intertemporelle et stochastique a été résolu de manière rigoureuse pour la première fois par Erceg
Henderson et Levin (2000).
10
Certains économistes préfèrent cibler les taux d’intérêt sur la seule inflation comme Woodford (2003), ce qui a
l’avantage de fournir une règle très simple et vérifiable et autorise une stabilisation parfaite de cette cible.
11
Cfr.Clarida, Gali et Gertler (1999) et Ireland (2004).
26

facteurs de production du bien final par des entreprises concurrentielles avec une technologie
à facteurs substituables et à rendements constants. Chaque bien intermédiaire est lui-même
produit par une firme monopoliste, utilisant une technologie de Leontief à partir du seul
travail. Un autre trait supposé du fonctionnement des ces firmes est la viscosité de leur prix
d’offre provoquée par l’existence de coûts d’ajustements quadratiques de ces derniers à la
Rotemberg (cf. la note 8). La maximisation de leur profit sous cette contrainte et la condition
d’équilibre symétrique sur les biens intermédiaires, jointe à la condition d’équilibre sur le
marché du travail, conduit à une relation d’offre agrégée que l’on peut exprimer sous forme
linéarisée en écart relatif à l’équilibre stationnaire par (1). La condition d’optimalité
intertemporelle (condition d’Euler) du programme des consommateurs fournit la relation (2).
Enfin la politique monétaire de la banque centrale n’est autre qu’une forme de la règle de
Taylor (3).

Encadré 3

Une maquette simplifiée représentative de la Nouvelle Synthèse Néoclassique

(1) π t = βEt π t +1 + µxt + u t ,


(2) xt = Et xt +1 − (rt − Et π t +1 ) + z t ,
(3) rt = ρrt −1 + ν 1π t + ν 2 xt + ε t ,

avec π t et rt, respectivement taux d’inflation et taux d’intérêt nominal de la période t et xt output gap, tous
mesurés en écart relatif à leur valeur d’équilibre stationnaire.

ut, zt et εt représentent des résidus exogènes stochastiques.

Les variables ut, zt et ε t sont obtenues par combinaisons des chocs structurels non-anticipés

sur les préférences des consommateurs, les technologies de l’offre et la politique monétaire.

Étonnamment, ces équations peuvent être vues comme la manifestation d’un come-back du
modèle IS-LM. L’équation (2) peut être assimilée à une courbe IS, l’équation (3) est un
substitut à la courbe LM et l’équation (1) n’est rien d’autre qu’une version « forward-
looking » de la courbe de Phillips, liant l’inflation à l’output gap et à l’inflation anticipée.

Ce type de modèles parvient à justifier la politique d’expansion monétaire, celle-ci ayant des
effets réels positif et durables en termes de bien-être. Le point de vue défendu par Friedman et
Lucas quant à l’inefficacité de la politique monétaire est donc battu en brèche. Ces modèles
27

manifestent-ils pour autant une résurgence de l’approche keynésienne ? Le tout est de voir ce
qu’on entend par le terme de keynésien. S’il désigne l’appareillage conceptuel marshallo-
keynesiano-hicksien, qui prévalait du temps de la macroéconomie keynésienne, la réponse est
non (malgré la ressemblance de la maquette avec le modèle IS-LM). Si l’adjectif keynésien
désigne le projet politique que l’on peut associer à Keynes — dénoncer l’existence d’échecs
de marché — la réponse sera plus mitigée. D’abord, on ne peut pas parler d’échecs de marché
strictu sensu. Notons aussi que ces modèles ne traitent pas de chômage involontaire mais
seulement de niveau d’activité inférieur à ce qu’il serait dans le cas walrasien. Il est vrai
cependant qu’une place est à nouveau dévolue à la politique monétaire. Ceci mérite-il que
l’on parle de renouveau keynésien ? Nous laissons la chose ouverte.

Toujours est-il qu’une situation de consensus accru s’est établie entre les nouveaux
keynésiens et les théoriciens du cycle réel comme en témoignent les propos suivants de
Blanchard :

“In the early 1980s, macroeconomic research seemed divided in two camps, with sharp
ideological and methodological differences. Real business cycle theorists argued that
fluctuations could be explained in a fully competitive model, with technological shocks.
New Keynesians argued that imperfections were of the essence. Real business cycle
theorists used fully specified general equilibrium models based on equilibrium and
optimisation under uncertainty. New Keynesians used small models capturing what they
saw as the essence of their arguments, without the paraphernalia of fully specified models.
Today, the ideological divide is gone. Not in the sense that underlying ideological
differences are gone, but in the sense that trying to organise recent contributions along
ideological lines would not work well. As I argued earlier, most macroeconomic research
today focuses on the macroeconomic implications of some imperfection or another. At the
frontier of macro-economic research, the field is surprisingly a-ideological” (Blanchard
2000: 39)

10. Conclusions

Diverses leçons se dégagent de notre étude. La première est la constatation banale, mais qu’il
y a toujours lieu de rappeler, est que la science économique progresse par controverses. Ceci
reste vrai même lorsqu’un stade est atteint dans lequel le cadre conceptuel dans lequel les
“joutes théoriques” ont lieu est devenu strictement défini. La seconde est une confirmation (à
l’échelle méthodologique rudimentaire à laquelle notre étude se place) de la vue selon laquelle
28

le schéma kuhnien, avec sa co-existence de phases de révolution scientifique et de science


normale, s’applique bien à l’histoire de la macroéconomie. Notre étude a mis en avant deux
tournants. Le premier concerne l’émergence de la macroéconomie, un évènement qui ne peut
pas être considéré, à proprement parler comme une révolution. Dans l’histoire, finalement
assez courte, de la macroéconomie, une seule révolution scientifique s’est produite, le passage
de la macroéconomie de type IS-LM à la macroéconomie de type DSGE. Ceci est une césure
radicale. Hors, de cette phase révolutionnaire, l’évolution a consisté en une successions de
modèles se répondant les uns aux autres à l’intérieur d‘une problématique commune et
dessinant ainsi un approfondissement théorique incontestable. Même dans ce cadre, on ne
peut cependant pas parler d’un sillon de développement unique. Mais si des inflexions
importantes se produisent, il semble peu indiqué de les caractériser comme des révolutions.
Ceci signifie que la révolution scientifique n’est pas la seule modalité selon laquelle la
transformation des cadres théoriques s’opère.
29

Références

Blanchard, J.O., (2000), "What Do we Know about Macroeconomics that Fisher and Wicksell
Did Not?", Quarterly Journal of Economics, 65,4, pp.1375-1409
Blinder, A. (1988), “The Fall and Rise of Keynesian Economics” in Snowdon, B. and H.
Vane (eds.) (1997), A Macroeconomics Reader, London: Rutledge, pp. 109-34
Brock, W. et L. Mirman (1972), “Optimal Economic Growth and Uncertainty: The
Discounted Case”, Journal of Economic Theory, vol 4, pp. 479-513.
Calvo, G.-A. (1983), “Staggered Prices in a Utility-Maximizing Framework”, Journal of
Monetary Economics, vol. 12, pp.383-398.
Cass D. (1965), “Optimal Growth in an Aggregate Model of Capital Accumulation”, Review
of Economc Studies,vol. 32, pp. 233-240.
Claride, R., J. Gali et M. Gertler (1999), « The Science of Monetary Policy: A New
Keynesian Perspective”, Journal of Economic Literature, vol. 37, pp. 1661-1707.
D’Autume A. (2000), “L’essor de la macroéconomie” in Béraud, A. et G. Faccarello (eds),
Nouvelle histoire de la pensée économique, Tome III, La Découverte, pp. 417-44.
Danthine, J.-P. (1997), “In Search of a Successor to IS-LM”, Oxford Review of Economic
Policy, vol. 13, n° 13, pp. 135-144
De Vroey, M. (2004a), Involuntary Unemployment. The Elusive Quest for a Theory, Londres:
Routledge.
De Vroey, M. (2004b), “Théorie du déséquilibre et chômage involontaire, Revue économique,
vol. 55, pp. 647-668.
Dixit, A.-K. et J.-E. Stiglitz (1977), « Monopolistic Competition and Optimum Product
Diversity », American Economic Review,vol. 67, pp.297-308.
Drèze, J. (2001), Advances in Macroeconomic Theory, Basingstoke: Palgrave in Association
with International Economic Association.
Erceg, C.-J., D.-W. Henderson et A.-T. Levin (2000), « Optimal Monetary Policy with
Staggered Wage and Price Contracts », Journal of Monetary Economics, vol. 46, pp.
281-313.
Friedman, M. (1968), “The Role of Monetary Policy”, American Economic Review, vol. 58,
pp. 1-17.
Goodfriend, M. et R. King, (1997), "The New Neo-Classical Synthesis and the Role of
Monetary Policy", NBER Macroeconomics Annual, 231-83.
Hairault, J.-O., (1999), “Vers une nouvelle synthèse néoclassique?”, Revue d’économie
politique, vol.109, pp. 613-669.
Hansen, A. (1953), A Guide to Keynes, New-York: MacGraw-Hill.
Hartley, J., Hoover Kevin and Kevin Salyer (1997), "The Limits of Business Cycle Research:
Assessing the Real Business Cycle Model", Oxford Review of Economic Policy, vol.
13; n°3, pp.1-21
Hoover, K. (1995), “Facts and Artifacts: Calibration and the Empirical Assessment of Real-
Business-Cycle Models, Oxford Economic Papers, vol. 47, pp. 24-44.
Hicks. J. R. (1937), “Mr. Keynes and the Classics”, Econometrica, April, pp. 147-59.
30

Ireland, P. (2004), “Technology Shocks in the New Keynesian Model”, Revuew of Economics
and Statistics, vol. ….
Keynes J.M. (1936), The General Theory of Employment, Interest, and Money, Macmillan:
London.
King, R., C. Plosser et S. Rebelo (1988), “Production, Growth and Business Cycles: I. the
Basic Neoclassical Model”, Journal of Monetary Economics, vol. 21, pp. 195-232.
Klein, L. (1948), The Keynesian Revolution, New-York: Macmillan.
Klein, L. (1950) Economic Fluctuations in the United States, 1921-1941, New-York, Wiley.
Kydland, F. et E. Prescott (1977), “Rules rather than Discretion: the Inconsistency of Optimal
Planes”, Journal of Political Economy, vol. 85, pp. 473-91.
Kydland, F. et E. Prescott (1982), « Time to Build and Aggregate Fluctuations »,
Econometrica, vol. 50, pp. 1345-70.
Lipsey, R. (2000), “IS-LM, Keynesianism, and the New Classicism”, in Backhouse, R. and A.
Salanti, (eds.), Macroeconomics and the Real World, vol. 2 Keynesian Economics,
Unemployment and Policy, Oxford: Oxford University Press, pp. 57-82.
Leijonhufvud, A. (1968), On Keynesian Economics and the Economics of Keynes, Oxford:
Oxford University Press.
Long, J. et C. Plosser (1983), “Real Business Cycles”, Journal of Political Economy, vol
94,pp. 39-69.
Lucas R. E. Jr. (1972), « Expectations and the Neutrality of Money », Journal of Economic
Theory, vol. 4, pp. 103-24.
Lucas, R. E. Jr (1975), “Econometric Policy Evaluation: a Critique” dans K. Bruner et A.
Meltzer, ed., The Phillips Curve and Labor Markets, Carnegie-Rochester Conferences
Series in Public Policy, vol. 1, Amsterdam: North-Holland, pp. 19-46.
Lucas, R. E. Jr (1977), “Understanding Business Cycles”, Carnegie Rochester Conference
Series on Public Policy, vol. 5, pp. 7-46.
Lucas, R. E. Jr (1980), “Methods and Problems in Business Cycle Theory”, Journal of
Money, Credit and Banking, vol. 12, pp. 696-715.
Lucas R. E. Jr. et L. Rapping (1969) “Real Wages, Employment, and Inflation”, Journal of
Political Economy, vol. 77, pp. 721-754.
Mankiw, G. (1989), “Real Business Cycles: a New Keynesian Perspective”, The Journal of
Economic Perspectives, vol. 3, pp. 79-90.
Mankiw, G. (1990), ‘A Quick Refreshing Course in Macroeoconomics’, Journal of Economic
Literature, vol. 38, pp. 1645-1660.
Mankiw, G. (2006), The Macroeconomist as Scientist and Engineer, NBER, Working Paper
12349.
Modigliani, F. (1944), "Liquidity Preference and the Theory of Interest and Money",
Econometrica, vol. 12, pp. 44-88.
Muth, J. (1961), “Rational Expectations and the Theory of Price Movements”, Econometrica,
vol 29, pp. 315-335.
Patinkin, D. (1965), Money, Interest and Prices, New-York: Harper and Row (seconde
édition).
31

Ramsey, F. (1928), “A Mathematical Theory of Saving”, Economic Journal, vol. 38, 543-559.
Rotemberg, J. (1982), “Sticky Prices in the United States”, Journal of Political Economy, vol.
90, pp. 1187-1211.
Taylor, J.-B. (1980), “Aggregate Dynamics and Staggered Contracts”, Journal of Political
Economy, vol. 88, pp.1-24.
Taylor, J.-B. (1993), “Discretion Versus Policy Rules in Practice”, Carnegie-Rochester
ConferenceSeries on Public Policy, vol. 39, pp.195-214.
Tinbergen, J. (1939), Statistical Testing of Business Cycle Theories, Genève, Ligue des
Nations.
Van der Ploeg, F. (2005),, “Back to Keynes?”, CESifo Working paper, No. 1424.
Woodford, M. (1999), « Revolution and Evolution in Twentieth-Century Macroeconomics »,
Paper prepared for the conference on “Frontiers of the Mind in the Twenty-First
Century, June 14-18 1999.
Woodford, M. (2003), “Inflation Stabilization and Welfare”, Contributions to
Macroeconomics, 2.
Young, W. (1987), Interpreting Mr. Keynes. The IS-LM Enigma, Cambridge : Polite Press.

Vous aimerez peut-être aussi