Mais, au fait… l’Économie est-elle une science ?
Rédacteur : Alexandre Delaigue
Ah, voici une vaste question, à laquelle il n’est pas facile de répondre brièvement. Il faut en effet pour cela se demander dans un premier temps ce qu’est exactement une science, ce qui implique une assez longue discussion épistémologique concernant les critères de scientificité. A partir de là, il sera possible d’avoir une idée plus précise sur le sujet, que nous pourrons appliquer à l’économie.
Guide de lecture : si vous arrivez sur cette page en connaissant déjà les principaux aspects de la méthodologie économique (que Popper, Kuhn et Lakatos n‘ont pas de secrets pour vous) vous pouvez vous dispenser du début du document. Cependant, je vous recommande la partie consacrée à Feyerabend, auteur fort mal présenté par les ouvrages classiques en méthodologie économique. Si vous connaissez également bien Feyerabend, attaquez directement ici.
Si vous ne connaissez pas ces aspects, ou que vous avez besoin de rappels, commencez la lecture du début. Ne soyez pas surpris qu’on ne parle que peu d’économie et beaucoup d’autres sciences dans cette première partie de texte, car les principaux auteurs en épistémologie n’ont que peu abordé celle-ci. L’économie arrivera ensuite.
Et déjà, c’est quoi, une science? La définition Poperrienne de la scientificité
Poser cette question, à la base, ne va pas de soi. Il faut voir en effet que les interrogations sur ce qu’est une science sont assez récentes. Pendant très longtemps, la question de distinguer parmi les connaissances humaines celles qui relevaient de la science et celles qui sont non scientifiques ne se posait pas. On ne réfléchissait que sur un seul champ, les connaissances, et les différents moyens de les améliorer. Cela ne posait par exemple aucun problème à Newton de publier des textes de physique, d’astrologie, voire même d’économie! il ne se posait pas la question de la scientificité relative des sujets qu’il étudiait. Si l’on veut chercher les premières réflexions organisées sur la scientificité, il faut se porter au XIXème siècle avec le positivisme d’Auguste Comte. La question qui se posait alors était celle de la validité des théories scientifiques. Pour cela, la réponse initialement apportée a été celle dite du vérificationnisme. une théorie est en effet un corps d’hypothèses conduisant de façon logique à des conclusions, donnant lieu à des prédictions. Dans cette optique, vérifier une théorie, c’est vérifier par le biais d’expériences que dans la réalité, les conclusions de la théorie se vérifient. Si les prévisions de la théorie ne se vérifient pas, alors elle n’est pas bonne et doit être modifiée; si elles se vérifient, alors on considérera la théorie comme juste.
Cependant, le vérificationnisme n’est pas très satisfaisant. C’est Karl Popper, dans “conjectures et réfutations” qui a montré que le vérificationnisme comporte une faute logique, à partir du célèbre exemple des cygnes blancs et noirs. Considérons une théorie zoologique aboutissant à la conclusion selon laquelle tous les cygnes sont blancs. En effectuant une promenade au bord d’un lac, on voit des cygnes et on constate qu’ils sont tous blancs. Faut-il en conclure que la théorie affirmant que tous les cygnes sont blancs est vraie? Certainement pas. Il est tout à fait possible que sur un autre lac, dans un autre pays, on trouve des cygnes dont le plumage est noir. Pour que l’expérience puisse valider la théorie, il faudrait faire l’inventaire de tous les cygnes du monde et vérifier qu’ils sont tous blancs. Et même cela ne serait pas suffisant! il faudrait en sus vérifier cela sur les cygnes qui n’existent pas encore parce qu’ils ne sont pas nés, ou sur les cygnes morts (qui sait, peut-être que les cygnes des égyptiens étaient noirs). Il suffit en effet qu’il y ait, ou qu’il y ait eu, un cygne noir pour que toute la théorie tombe par terre. Or, il n’est pas possible de procéder à la vérification pour tous les animaux. De ce fait, le vérificationnisme ne saurait prouver quoi que ce soit. Il n’est pas possible de démontrer par l’expérience qu’une théorie est vraie l’expérience ne permet que d’infirmer une théorie, c’est à dire de prouver qu’elle est fausse.
Popper utilise alors ce constat pour différencier science et non science. Ce qui caractérise une science, c’est précisément le fait qu’elle utilise l’expérience pour la réfutation des théories. Une discipline, pour être scientifique, se doit d’exprimer des théories réfutables, c’est à dire des théories qui permettent d’affirmer “si tel évènement se réalise, alors la théorie est fausse”. Par ailleurs, l’évolution de cette discipline doit se conformer au critère de réfutation cela signifie qu’une théorie qui a été réfutée par l’expérience se doit d’être abandonnée. Dans cette conception, la physique est une science, mais l’astrologie ne l’est pas. En effet, un physicien qui formule une théorie et constate qu’elle n’est pas vérifiée par l’expérience l’abandonne. Par contre, un astrologue s’arrange toujours pour formuler ses prédictions dans le sens “face je gagne, pile tu perds” (du genre, la lune en poissons va vous rendre irritable, ce qui est impossible à réfuter, vu qu’il est rare qu’on ne s’énerve pas un peu dans une journée) ce qui lui permet de toujours éviter de remettre en question ses théories.
Le critère poppérien de scientificité a eu un énorme succès. Les praticiens des sciences “dures” l’ont trouvé très satisfaisants d’autant plus facilement qu’il les consacrait comme sciences. L’économie l’a aussi adopté, parce que ce critère lui permettait de s’éloigner des sciences “molles” c’est à dire des autres sciences sociales, pour se considérer comme plus scientifique. En effet, les économistes utilisent des modèles logiques, hypothético-déductifs, qui permettent d’énoncer des prédictions qui peuvent être soumises à la mesure et à l’expérience. Pendant les années 50, ou le développement des techniques quantitatives et l’importance de la théorie de l’équilibre général conduisaient les économistes à se rapprocher par l’usage des modèles mathématiques des sciences dures, le critère de Popper venait à point nommé pour que les économistes se disent qu’ainsi, ils devenaient des scientifiques, pas des rigolos. Mark Blaug, auteur de l’ouvrage de méthodologie économique de référence, a consacré ainsi le critère de Popper comme le seul critère valide, le critère qui devait être utilisé par les économistes pour progresser.
La critique de Popper Kuhn, Lakatos, et Feyerabend
Le critère de Popper a plusieurs qualités. La première, c’est sa grande cohérence logique; Il est en effet impossible d’un point de vue de logique interne de critiquer ce critère. La seconde, qui n’est pas la moindre mais qui est souvent oubliée, c’est qu’il met les théories scientifiques à une place plus juste. Popper nous rappelle en effet que les théories scientifiques ne sont pas vraies elles ne sont que des représentations de la réalité, des façons de l’appréhender, et sont toujours en sursis, considérées comme vraies que dans la mesure ou on n’a pas trouvé de contre-exemple permettant de les infirmer. Loin de mettre les théories scientifiques sur un piédestal, il nous rappelle que nos connaissances sont toujours relatives, et qu’il ne saurait y avoir de vérité scientifique définitive. C’est donc plutôt un critère incitant à la modestie scientifique.
Cependant, la recherche sur les sciences ne s’arrête pas à Popper. Il convient de citer ici trois autres auteurs majeurs du XXème siècle en la matière, Kuhn, Lakatos et Feyerabend. Kuhn, dans “la logique de la découverte scientifique” s’est intéressé à la façon dont les sciences évoluaient vraiment. Cela l’a amené à prendre en compte l’attitude des scientifiques, qui n’est pas toujours aussi rationnelle que le sous-entend Popper. Kuhn distingue en effet la science “normale” et les “découvertes scientifiques”. Selon Kuhn, chaque science est caractérisée à un moment donné par un paradigme dominant. L’écrasante majorité des scientifiques s’accordent autour de ce paradigme, et leurs recherches s’inscrivent dans celui-ci. Mais il arrive qu’un nouveau paradigme apparaisse. Celui-ci est d’abord mené par une minorité de scientifiques qui s’opposent au paradigme dominant, finissent par remporter la lutte intellectuelle, et leur paradigme devient le nouveau paradigme dominant, la nouvelle science normale. On peut lire avec cette grille de lecture la façon dont l’héliocentrisme s’est imposé à l’époque de Copernic et Galilée, ou dont la physique einsteinienne a remplacé le modèle de Newton. On remarquera que l’approche de Kuhn n’est pas totalement incompatible avec celle de Popper le changement de paradigme peut tout à fait être dicté par la réfutation du paradigme ancien. Cependant, l’analyse de Kuhn montre que ce processus n’est pas aussi rationnel que le prétend Popper, qu’il est le résultat de luttes d’influence, de convictions, de chocs des générations, et que tous les scientifiques ne se conforment pas instantanément au nouveau paradigme même si celui-ci est meilleur (au sens popperien du terme) que le précédent.
Lakatos a lui développé le concept de programme de recherche scientifique (PRS). Un PRS se compose d’un coeur théorique, un ensemble d’hypothèses de base, à partir duquel sont élaborées des théories qui se rattachent à ce programme. En économie, on pourrait qualifier de PRS l’économie néoclassique. À partir d’un coeur d’hypothèses (rationalité, équilibre) on définit différents modèles (équilibre général, modèles de croissance à agent représentatif…) qui se rattachent tous au même courant. La physique newtonienne est elle aussi un bon candidat. À partir des principes de Newton, on élabore différentes lois expliquant le mouvement des astres, la chute des corps, etc. Dans l’optique de Lakatos, les PRS évoluent. Lakatos distingue les PRS progressifs et les PRS dégénérescents. Sera considéré comme progressif un PRS qui développe des théories qui permettent d’expliquer un nombre toujours croissant de faits. Cependant, chaque PRS rencontre sur son chemin des phénomènes qu’il ne parvient pas à expliquer ou qui s‘opposent à ses théories. Cela ne conduit pas à l’abandon immédiat de ce programme, mais à reformuler certaines théories existantes. Cependant, ce genre de procédé n’a qu’un temps, et au fur et à mesure que de nouveaux faits inexplicables apparaissent, le PRS devient dégénérescent, c’est à dire de moins en moins à même d’expliquer la réalité. Les théories du PRS s’effondrent les unes après les autres (quoique Lakatos n’exclut pas qu’un PRS dégénérescent redevienne progressif) et au bout du compte ne reste que le coeur qui finit alors par être abandonné. La présentation de Lakatos ne va pas non plus à l’encontre de l’analyse de Popper, elle en constitue plutôt un complément. Cependant, l’analyse de Lakatos est plutôt sociopsychologique que rationnelle. Les scientifiques dans son optique ne sont pas des créatures rationnelles, ils rechignent à abandonner un PRS, surtout lorsqu’aucune alternative n’apparaît. De ce fait, il est tout à fait possible qu’un PRS dégénérescent soit toujours d’usage parmi les scientifiques.
C’est au bout du compte Feyerabend qui porte le coup le plus violent sur le réfutationnisme popperien. Dans “Against Method”, il montre que l’application du critère de Popper est dépourvue de sens. En effet, le critère lui-même est réfutable. En effet, s’il est possible de trouver un exemple historique dans lequel la science a progressé en utilisant une théorie réfutée par l’expérience, alors cela signifie que le critère de Popper est inapproprié; de ce fait, la réfutation est réfutable. Or le critère de Popper n’a rien de nouveau, il était très couramment utilisé par les sophistes dans l’antiquité grecque (Feyerabend écrit ainsi que dire que Popper a inventé la réfutation est aussi juste que d’affirmer que Ronald Reagan a inventé la métaphysique) et ce critère n’a jamais été utilisé par les scientifiques. Feyerabend multiplie les exemples, on peut ici en citer un, celui de Galilée et de sa défense de l’héliocentrisme (idée que la terre tourne autour du soleil). Galilée avait utilisé la longue-vue (on ne sait pas s’il l’avait inventée ou achetée à un inventeur) pour observer les astres et se fondait sur ce qu’il avait vu à l’aide de cet instrument pour montrer que la terre tourne autour du soleil et non l’inverse. Mais dans le même temps, Galilée avait à l’aide de sa lunette établi des cartes de la face visible de la lune. Or ces cartes étaient fausses, et plus fausses que les cartes que Kepler avait élaborées au même moment, sans lunette, et alors même que Kepler souffrait d’une infirmité qui faisait qu’il voyait mal! Si l’on avait alors appliqué le réfutationisme popperien, aurait-il fallu en conclure que l’expérience montrait que la lunette de Galilée donnait des résultats faux et que de ce fait le soleil tourne autour de la terre, ce que l’expérience courante montrait quotidiennement ?
La réalité, c’est que l’expérience ne permet pas du tout d’infirmer des théories. En effet, toute expérience est critiquable, dépend de son protocole de réalisation, et il est impossible de ce fait d’en tirer des conclusions suffisamment valides pour infirmer une théorie complète. Une expérience contradictoire avec une théorie peut en effet s’expliquer de tout un tas de façons différentes, le fait que la théorie soit fausse n’étant qu’une explication parmi un grand nombre d’autres. Et les scientifiques sont parfaitement conscients de ces limites. Ainsi, en 1916, une expérience fut menée par des scientifiques à Eddington pour vérifier la théorie de la relativité générale d’Einstein. Rappelons que selon cette théorie, un corps massif va courber l’espace. L’expérience d’Eddington consistait donc à profiter d’une éclipse solaire pour vérifier si la masse du soleil déviait les rayons lumineux issus des étoiles (on ne peut faire cela qu’au moment d’une éclipse, car sinon la luminosité solaire empêche de voir). L’expérience a été menée et a vérifié les prévisions de la physique relativiste. Jusque là, on se croirait dans l’analyse popperienne si l’expérience n’avait pas fonctionné, cela aurait signifié que la théorie de la relativité générale n’était pas valide.
Mais il faut aller un peu plus loin. Déjà, lorsqu’après l’expérience on demanda à Einstein ce qu’il aurait pensé si l’expérience n’avait pas vérifié sa théorie. Einstein a répondu “j’en demande pardon à Dieu, mais cela n’aurait rien changé, la théorie est juste”. Par ailleurs, aujourd’hui on a de sérieux doutes sur la validité de cette expérience d’Eddington qui n’a jamais pu être reproduite avec les mêmes résultats. Il est probable que les scientifiques qui ont mené l’expérience ont interprété de façon très exagérée leurs résultats afin qu’ils concluent de façon définitive à la validité de la théorie de la relativité. Parce qu’en fait, à ce moment-là, la majorité des physiciens avaient déjà été convaincus; l’expérience n’était qu’un bonus dans un consensus assez largement établi. Il reste clair cependant qu’aucune expérience n’a jamais pu invalider la théorie de la relativité.
S’il fallait encore d’autres éléments montrant l’impossibilité pratique de réfuter des théories par l’expérience, il est possible de se référer à la physique contemporaine. Rappelons déjà que la physique contemporaine est fondée sur une contradiction Ses deux piliers sont en effet la physique relativiste et la physique quantique, qui sont, telles qu’elles sont aujourd’hui exprimées, mutuellement incompatibles, bien qu’aucune n’ait été invalidée par l’expérience. et cela ne pose aucun problème cela conduit les physiciens à rechercher de nouvelles analyses (comme par exemple la théorie des cordes) tout en sachant que celles-ci ne pourront pas donner lieu à des expériences avant longtemps, si même elles le peuvent un jour. Car la physique se trouve face à un problème simple aujourd’hui les travaux qui s’y réalisent ne peuvent pas encore donner lieu à des expériences, dans la mesure ou cela exigerait des accélérateurs de particules d’une puissance qui n’est pas encore atteinte. Ainsi, l’écrasante majorité des physiciens est persuadée de l’existence du boson de Higgs, particule utilisée dans tous les travaux contemporains, mais aucun accélérateur n’a permis de mettre en évidence cette particule. On peut toujours dire qu’à terme, on construira un accélérateur permettant cette vérification. Mais en attendant, cela n’empêche pas les physiciens d’avancer et de travailler, même sans expérience. Et il est tout à fait possible qu’un jour, il ne soit plus possible de mener des expériences. Le coût des accélérateurs de particules est tel qu’il est de plus en plus difficile de financer leur construction. Cela sonnerait-il la fin de la science physique? Certainement pas. Les physiciens continueront alors à faire ce qu’ils font déjà, c’est à dire faire des recherches sans expériences permettant de réfuter ou non les théories.
Avec tout ça, je ne comprends plus ce qui est de la science et ce qui n’en est pas, moi…
Résumons ce que nous venons de voir. Comme le montre Feyerabend, le critère de réfutation par l’expérience de Popper est sans doute très séduisant intellectuellement, mais en pratique il ne vaut rien. Parce qu’il ne permet pas de progresser dans les sciences, dans la mesure ou de grandes avancées ont été atteintes en faisant exactement l’inverse de ce que Popper préconise. Et parce que l’expérience en soi n’est pas assez fiable pour justifier quelque chose d’aussi important que l’abandon d’une théorie. En d’autres termes, les scientifiques n’utilisent pas le critère de Popper, et ils ont bien raison. Mais alors, la question, c’est quel est le bon critère qui permet de distinguer ce qui est une science et ce qui ne l’est pas?
La réponse de Feyerabend, c’est qu’il n’y a pas de critère qui permette de faire la différence. Que chercher à faire la différence entre science et non science n’a aucun intérêt. Avec ce genre d’idée, inutile de dire que Feyerabend s’est attiré des critiques particulièrement virulentes. Blaug, par exemple, écrit dans son ouvrage que Feyerabend, en s’opposant à la définition de la bonne méthodologie scientifique, “veut remplacer la philosophie des sciences par la philosophie du flower power” ce qui n’est pas un compliment. “L’anarchisme méthodologique” prôné par Feyerabend aboutirait en effet à mettre sur le même plan l’astrologie, les prévisions à partir d’entrailles de poulet, et la physique ou la biologie! On comprend l’énervement d’auteurs qui consacrent un livre entier à la définition de la scientificité, face à un Feyerabend qui leur explique que la question est totalement dépourvue d’intérêt…
Mais ce genre de critique tombe un peu à plat. Feyerabend ne s’oppose pas aux méthodes scientifiques, il s’oppose à leur hégémonie. A quoi bon chercher à déterminer de bons critères pour qualifier la science, si le seul résultat de l’opération est de mettre à la corbeille des pans entiers de savoir en se fondant sur des critères qui n’ont de logique que formelle? Ce qui caractérise les sciences, c’est dans son optique l’activité scientifique, la recherche. Et celle-ci a produit des résultats immenses sans jamais se préoccuper d’une bonne méthodologie qui s’appliquerait à toutes les disciplines. Les critères employés par chaque discipline sont le résultat du travail des scientifiques, d’une élaboration qui a pris plusieurs siècles. Par exemple, la physique n’est pas devenue plus scientifique en abandonnant l’astrologie de son champ de recherche (dire cela reviendrait à dire que Newton n’était pas un scientifique, ce qui est ridicule). Simplement, l’activité des physiciens et leur recherche permanente de modèles permettant de comprendre la réalité les a conduit à abandonner ce champ de recherche peu productif, et à adopter des critères qui sont propres à leur profession pour juger des résultats des différentes recherches. Ces critères doivent-ils être généralisés à toutes les disciplines? En aucun cas. Chaque discipline a un objet propre, des problèmes spécifiques, et les spécialistes font émerger des méthodologies et des modèles en fonction de leurs besoins. Ces méthodes, qui sont propres à chaque champ de recherche, sont le fruit de siècles de réflexion, et ont produit des résultats qui forment la science moderne. Pourquoi vouloir modifier ce qui fonctionne en cherchant à imposer des critères imposés de l’extérieur qui ne sont que des barrières à la connaissance ?
Si la physique a été conduite à donner à l’expérience un statut important, c’est parce que son domaine s’y prête bien. Il est en effet possible de se livrer à toutes sortes d’expérimentation, de répéter les expériences, en physique. Mais considérons un domaine comme la biologie, et la théorie Darwinienne. Il n’est là pas possible de se livrer à des expérimentations, étant donné que l’évolution des espèces porte sur des périodes de temps très longues. On ne dispose en la matière que de preuves indirectes, il est impossible de mener une expérience discriminante. Est-ce une raison pour devenir créationniste, ou pour dire que le Darwinisme est non scientifique? En astronomie, il n’est pas non plus possible de mener des expériences pleinement satisfaisantes les savants ne disposent que de ce que la nature leur laisse à voir. Il paraît pourtant bien difficile de qualifier l’astronomie de non scientifique.
Bon, et l’économie, dans cette histoire ?
On y arrive ! Comme nous l’avons vu plus haut, les économistes, désireux de se doter d’une petite aura scientifique, ont adopté le critère Popperien. Le problème, comme nous venons de le voir, c’est que ce critère ne s’applique déjà pas à une science aussi rigoureuse que la physique. Alors, que dire de l’économie !
En matière économique, il n’est possible de procéder à des expériences que dans une toute petite minorité de domaines. La plupart du temps, ce dont disposent les économistes, un peu comme les astronomes, c’est de ce que la réalité leur donne. Le problème, c’est qu’il est assez difficile dans cette réalité, d’isoler les phénomènes pour vérifier des causalités. Si le chômage baisse, est-ce parce que la politique monétaire a changé? Ou est-ce la politique budgétaire? Grâce au progrès technique? Pour des raisons psychologiques, les entrepreneurs devenant plus optimistes? En pratique, ces phénomènes se produisant souvent en même temps, il est difficile d’en isoler un parmi d’autres, ce qui fait que les faits sont difficiles à interpréter. Il est possible de se livrer parfois à des expériences en laboratoire, par exemple lorsqu’on cherche à comprendre le comportement individuel. Mais ce genre d’expérience est elle aussi difficile à interpréter à cause du matériau étudié, les individus. Si on met une claque à un photon (si l’on peut dire) celui-ci réagira toujours de la même façon, par un mouvement sur lequel il n’a aucun moyen d’action. Par contre, si on met une claque à une personne, l’éventail de ses réactions est nettement plus vaste. Il peut décider de répliquer, de se mettre à pleurer, etc. Par ailleurs, si on cherche à répéter l’expérience, il est fort probable que l’individu, instruit par le passé, cherchera à l’éviter! De ce fait, les résultats obtenus au cours de ce genre d’expérience sont nettement moins généralisables que les résultats des sciences naturelles.
Est-ce à dire que la réalité est impossible à interpréter, et que les économistes sont condamnés à ne jamais pouvoir prévoir les phénomènes? Bien sûr que non. La preuve en est que les économistes parviennent à des résultats et sont capables d‘élaborer des prévisions (par exemple, on peut prévoir, avec une marge d‘erreur minime, le taux de croissance de l‘année qui vient). Simplement, ceux-ci n’ont pas le caractère d’universalité, valables en tous temps et en tous lieux, des résultats que l’on peut obtenir dans les sciences naturelles. Par ailleurs, la prédiction ne constitue qu’une part du travail d’économiste Expliciter des phénomènes a posteriori, décrire des mécanismes conduisant aux faits réalisés, même si cela ne permet pas la prévision, est tout aussi important en économie que le travail de prévision. Mais tout cela fait que l’économie se présente plus comme une boîte à outils, un ensemble de théories parfois un peu hétéroclite et contradictoires, certaines plus valides que d’autres à un moment donné, que comme un cadre parfaitement unifié. Mais il apparaît aussi qu’au bout du compte, les points de consensus entre économistes sont nettement plus nombreux que les oppositions frontales. Une controverse enflammée comme le débat entre monétaristes et Keynésiens a finalement abouti à un consensus, la discipline dans son ensemble prenant ce que chaque doctrine avait de mieux à apporter.
L’infirmationnisme, inutile et nocif pour l’économie
Quel intérêt peut alors avoir le critère de Popper en économie? Son application peut servir à deux objectifs. Le premier, c’est de faire le tri entre les différentes théories, pour éliminer celles qui sont moins “scientifiques” que les autres. Le second, c’est d’inciter les économistes à privilégier les études empiriques, à plus les utiliser dans leur travail qu’ils ne le font. Mais ces objectifs ont-ils eux-même un intérêt, et le critère Popperien est-il à même des les servir ?
La réponse est non. Concernant le premier objectif, le tri parmi les théories économiques, on peut dans un premier temps se demander s’il présente un quelconque intérêt. Après tout, la réalité économique étant changeante, il est tout à fait possible que des intuitions du passé, peu réalistes à un moment donné, le redeviennent et soient alors de nouveau appropriées. Après tout, à de rares exceptions près, l’abandon complet d’une théorie est rare, que ce soit en économie ou dans les autres disciplines. La physique Newtonienne conserve tout son attrait et est tout à fait satisfaisante pour décrire les mouvements des corps (pour lancer des fusées dans l’espace, elle suffit largement). Certes, certaines hypothèses ont été abandonnées (cas de l’éther) mais certaines ont été abandonnées puis reprises (voir l’exemple de la constante cosmologique). Les sciences, comme les maisons, ne s’améliorent que rarement en rasant les fondations… Et en économie, on voit mal quelles théories mériteraient l’abandon. En étant strictement Popperien, il ne resterait probablement rien… On pourrait alors imaginer une sorte de Popperisme “adouci” qui conduirait à privilégier les théories économiques qui acceptent le test des faits. Cela conduirait par exemple à abandonner un champ théorique comme la nouvelle macroéconomie classique (comme Blaug le conseille, voir ce texte, et son incapacité à prouver l’inefficacité de la politique économique), ou la théorie marxiste face à la non décroissance du taux de profit, ou des auteurs comme Veblen, incapables de proposer autre chose que des concepts vagues comme l’ “affluent society”. Voire même tant qu’à faire toute la théorie de l’équilibre général fondée sur les hypothèses irréalistes. L’ennui, c’est qu’on se demande en vertu de quoi on décide de porter l’anathème sur telle théorie plutôt que sur une autre. Faut-il renoncer à lire la Théorie Générale de Keynes, fondée sur une fonction de consommation fausse ? Faut-il encore lire Smith et ses trois théories de la valeur contradictoires? La réalité, c’est que ce genre de sélection est totalement arbitraire, et qu’un pseudo-désir de scientificité ne sert alors qu’à camoufler des préjugés dépourvus de fondement rationnel.
Parce que les théories, mêmes lorsqu’elles sont fausses la plupart du temps, conservent leur intérêt. L’hypothèse d’anticipations rationnelles, pour ne citer qu’elle, a permis de réaliser de nombreux progrès en matière de modélisation et d’étude des conséquences des politiques économiques. Dans certains cas, cette hypothèse peut fort bien être encore utile. Et aucun économiste sérieux aujourd’hui ne prend cette hypothèse pour autre chose que ce qu’elle apporte véritablement à la compréhension des phénomènes économiques. Par ailleurs, il ne faudrait pas croire que les économistes s’abstiennent de procéder à des sélections entre les théories. A un moment donné, il y a un large consensus dans chaque branche de l’économie sur les bonnes théories à utiliser. Ce consensus est sans doute critiquable, mais il évolue, et c’est précisément cette évolution qui caractérise l’amélioration du raisonnement économique. C’est ce qui fait que si l’on regarde l’évolution des différentes branches de l’analyse économique sur le long terme, on constate un progrès régulier de l’analyse. Si l’on regarde de près, on verra à chaque moment des querelles d’ego, des préjugés; mais sur le long terme c’est ainsi que la science avance. Là encore, les débats en matière de politique macroéconomique constituent un bon exemple La critique du système classique par Keynes a permis de mettre en évidence la possibilité de politiques contracycliques ; la controverse monétaristes-keynésiens a permis d’en comprendre les effets et les limites, affinant l’analyse des effets des politiques monétaires et budgétaires, prenant en compte le rôle des anticipations, de préciser la fonction de consommation, etc. Pour un autre exemple du processus par lequel les discussions et débats parfois ésotériques conduisent à l’amélioration de la connaissance économique, en économie internationale, on peut se référer à l’ouvrage de D. Irwin.
Vouloir contraindre ce processus en imposant un critère d’une rationalité discutable conduirait plutôt à amplifier un défaut actuel des économistes celui de négliger les apports des anciens économistes. Car comme ils ne disposaient pas des outils techniques actuels, sans parler des données statistiques, ceux-ci ne présentaient que rarement leurs travaux sous la forme de jolis modèles quantitatifs bien testables, mais plutôt sous une forme littéraire ou il est difficile de distinguer clairement ce qui est dit. Par contre, ils compensaient ce défaut par des façons originales de traiter les problèmes, et par une bonne connaissance des institutions et des conditions dans lesquelles ils s’exprimaient. Et les économistes d’aujourd’hui auraient tout intérêt à s’inspirer des intuitions de leurs prédécesseurs, qui couplées aux techniques plus contemporaines permettent des progrès conséquents. On ne compte plus les découvertes économiques contemporaines qui ne sont en fait que la reformulation d’idées d’économistes passés. Que ce soient le rôle des rendements croissants (traités par Marshall), la théorie de la croissance (intuition de Schumpeter) la nouvelle économie internationale (traitée de façon littéraire par Hecksher ou Ohlin) voire même l’équivalence ricardienne, “redécouverte” par Barro en 1974… Le désir de “faire science” conduisant à abandonner tout ce qui n’est pas conforme au moule Popperien peut être singulièrement nuisible à la connaissance. Il est donc douteux que le critère de scientificité Popperien apporte quoi que ce soit aux choix déjà effectués par les économistes. Il risque plutôt d’amplifier de mauvaises tendances.
L’autre attrait éventuel de ce critère réside dans l’accent qu’il met sur les études empiriques. Or l’un des reproches souvent fait à l’économie porte sur sa tendance à privilégier les modèles purement formels, aux hypothèses irréalistes et à faible pertinence pratique. Dans ce sens, le rôle central donné par le critère de Popper à l’expérience inciterait les économistes à faire plus d’efforts en matières d’études empiriques pour tester leurs théories.
Le problème, c’est que l’excès de formalisme qui a pu être rencontré en économie est venu au départ, de la volonté de singer les sciences exactes, au premier rang desquelles la physique. Sachant cela, imposer aux économistes des critères pour rendre leur discipline plus “scientifique” risque d’aboutir au résultat inverse de celui qui est souhaité, en conduisant ceux-ci à retomber dans le formalisme.
Par ailleurs, la critique de l’excès de formalisme en économie commence à dater. Il est clair que la période des années 50 aux années 70 a vu se multiplier les modèles très formalisés, avec les travaux sur l’équilibre général prenant une place prépondérante dans la discipline, et tendant à imposer ses règles à tous les domaines de l’économie. Mais cette hégémonie était tout à fait justifiée, tant la théorie de l’équilibre général paraissait riche de promesses. Le programme consistait quand même à construire une théorie pure capable de décrire toute l’économie, en se fondant sur les comportements individuels. Ce projet n’a pas pu être réalisé, mais entre-temps de nombreux progrès ont été réalisés. Au delà de la théorie de l’équilibre général elle-même, les études ont porté sur ses conditions de réalisations, sur les processus conduisant à l’équilibre, etc. Elles ont aussi permis de donner à la macroéconomie des fondements microéconomiques plus solides que ceux qui existaient auparavant, et de fournir des outils d’analyse à toutes les branches de l’analyse économique. Même si ces résultats sont en deçà de ce qu’on pouvait espérer (mais après tout, avoir montré que les conditions de réalisation d’un équilibre général sont impossibles à réunir est un résultat en soi) ils sont tout de même notables. Par ailleurs, l’hégémonie du formalisme en économie aura été de courte durée. Si l’on regarde tous les travaux de recherche depuis le début des années 80, on constate un retour en force des études empiriques servant de base à l’élaboration des théories. Au point que l’on constate parfois un excès inverse, celui de privilégier les études empiriques et les résultats de régressions statistiques sans élaborer de théorie! Par ailleurs, si l’on regarde la liste des prix Nobel d’économie depuis que ce prix existe, on constate que celle-ci comprend assez peu d’auteurs ayant consacré leurs travaux à la théorie sans songer aux aspects empiriques. Si l’on excepte peut-être Samuelson, Debreu, et Allais, les théoriciens purs sont absents du palmarès, ce qui montre assez bien que le goût des économistes pour la théorie purement formelle n’est pas si prononcé. Un grand nombre d’entre eux sont des néoclassiques, pourra t’on rétorquer. Peut-être. Mais néoclassique n’est pas synonyme de formalisme exagéré.
Ce que montre l’état actuel de la recherche en tout cas, c’est que le besoin d’empirisme est nettement moins important aujourd’hui qu’il n’a pu l’être. Parce que les économistes ont changé (comme l’a dit fort justement Samuelson, “funeral by funeral, science makes progress“) et que les critères d’évaluation, du moins pour les travaux de premier plan, ont évolué. Et la théorie de l’équilibre général n’a plus le statut dominant qu’elle a pu connaître dans le passé. Il reste bien quelques scories, mais le mouvement est bien visible. Les économistes de premier plan aujourd’hui sont des Stiglitz, Romer, Krugman, Bhagwati, (la liste n’est pas exhaustive) c’est à dire des gens qui font à la fois de la théorie de grande qualité sans en méconnaître les limites et refuser les études empiriques.
De ce fait, quel besoin de s’embêter avec des critères de “scientificité” extérieurs et inappropriés? Un critère comme celui de Popper n’est pas à même d’apporter de réponses aux problèmes des économistes. Il est de plus nocif s’il conduit à laisser de côté pour des raisons injustifiées des théories, avant que celles-ci ne puissent faire leurs preuves, sous prétexte d’une scientificité qui n’a rien de scientifique.
L’économie, une science sans prestige
Ainsi, la question de la scientificité de l’économie ne se pose pas. Ce qui caractérise toutes les sciences, c’est le travail des praticiens, le développement d’outils intellectuels qui permettent d’améliorer la compréhension que l’on a du réel, de dépasser les simples perceptions de nos sens. En ce sens, l’économie n’a rien à envier (ni de leçons à donner d’ailleurs) aux autres disciplines scientifiques. Elle se débrouille face à un objet complexe et retors, les comportements humains dans la lutte contre la rareté, et ne le fait pas si mal.
Il n’en reste pas moins que la discipline a mauvaise réputation. Depuis Carlyle qui au début du XIXème siècle l’a baptisée “science lugubre” (dismal science) les critiques n’ont pas manqué envers les économistes, et sont toujours aussi virulentes aujourd’hui.
À cela, on peut trouver plusieurs raisons. La première, c’est que l’économie touche de près la vie de chacun de nous, et qu’en cela elle fait l’objet d’une demande sociale d’explications et de solutions assez forte. Demande qu’elle est souvent bien en peine de satisfaire. Le message des économistes est souvent celui de Cassandre, peu à même de susciter l’enthousiasme, et douchant plutôt les aspirations de chacun à une vie meilleure. L’une des phrases préférées des économistes n’est-elle pas “there’s no such thing as a free lunch” ?
Par ailleurs, la spécificité de l’économie fait que celle-ci est amenée à se tromper, et que ses erreurs ont des conséquences. La forte demande sociale conduit également souvent les économistes à mélanger ce qui ressort du domaine strict de leur expertise avec des opinions qui leur sont personnelles, et à affirmer l’un et l’autre de façon également péremptoire. Milton Friedman a certainement des choses intéressantes à dire en matière de politique monétaire; mais on n’est pas obligé d’accorder le même crédit envers ses opinions favorables au marché libre et au gouvernement minimal. Le problème vient de ce que ses analyses en matière de politique monétaire sont en partie assises sur ses opinions personnelles, ce qui ne facilite pas la tâche de qui cherche à démêler son discours. On pourrait en dire autant de tous les économistes s’exprimant publiquement; tôt ou tard, ils sont amenés à sortir de leur champ de compétence. L‘ennui, c’est que si les économistes savent faire la différence, c’est nettement plus difficile pour le grand public. Par ailleurs, les économistes ont un peu trop souvent la déplaisante manie de manquer de modestie, et de s’exprimer publiquement à tort et à travers sur des sujets sur lesquels leur expertise personnelle n’est que limitée en se basant sur la position que leur statut d’économiste leur confère. Ce travers n’est pas spécifique aux économistes Voir les physiciens spécialistes des matériaux composites s’exprimer sur les bienfaits de l’énergie nucléaire, ou dans un genre plus léger, Johnny Hallyday interrogé sur le vote sur le referendum sur l’Union européenne en 1992 (il avait répondu qu’il s’en moquait et préférait sa copine et sa moto, ce qui témoigne d’un bon état d’esprit). Mais il prend de grandes proportions en économie, ou l’on peut voir par exemple un spécialiste connu pour avoir résolu le problème de l’équilibre général par la méthode des surplus s’exprimer ad nauseam sur l’économie internationale ou la question des flux migratoires, sujets sur lesquels son expertise professionnelle est nettement plus ténue.
Il faut ajouter à cela des problèmes spécifiques. Pour l’économie, la période récente aura été celle des désillusions. Les économistes ont pu penser, pendant les années 50-60, avoir atteint une sorte de nirvana, une situation dans laquelle les politiques type stop and go permettait de mettre fin aux fluctuations, qu’il n’y avait plus vraiment de problème qui ne soit résolu ou en voie de l’être. La crise des années 70 a de ce point de vue été aussi une crise pour la pensée économique qui a du abandonner plusieurs de ses certitudes, rendant l’arrogance des temps passés difficile à supporter et discréditant par effet de balancier la profession.
L’autre problème de l’économie, c’est le flou qui entoure la compétence d’économiste. Un peu comme la biologie, l’économie a ses créationnistes, de pseudo-experts qui s’autoproclament économistes, qui mettent trois morceaux d’offre et de demande, de chiffres faux, et une bonne dose de préjugés politiques, dans leur discours, et qui envahissent le débat public. Il est bien difficile pour le grand public de faire la différence, tant le qualificatif d’ “économiste” est galvaudé et peut signifier n’importe quoi, du chercheur unanimement respecté par ses pairs (mais qui peut fort bien parler d’un sujet auquel il ne connaît rien de plus qu‘un médiocre étudiant de première année) jusqu’au spécialiste de stratégie militaire qui parle d’économie, en passant par le parfait crétin qui croit tout comprendre mais ne comprend rien.
Ces différents éléments font que le discours économique est source de multiples déceptions pour qui essaie de le suivre. Mais il faut savoir aller au delà. Car l’économie, malgré ses défauts, reste une science, et une belle science, qui peut déjà apporter beaucoup à la compréhension du monde, et qui est fort loin d’avoir épuisé toutes ses possibilités. Pour en savoir plus, on peut se référer à l’ouvrage de référence en matière de méthodologie économique, celui de Mark Blaug, “La méthodologie économique”, qui constitue une défense de l’utilisation du critère de Popper en économie. On peut aussi lire l’ouvrage de C. Mouchot (méthodologie économique, Hachette) même si ce dernier ouvrage reproduit les travers trop souvent rencontrés en matière économique dans le débat français. Critiquant l’idée de Blaug selon laquelle l’économie devrait pour être une science suivre le critère de Popper, il en arrive à nier l’existence même de l’économie, qui ne serait qu’une composante du discours politique, incapable d’exprimer quoi que ce soit de spécifique. Vous l’aurez compris, le texte que vous venez de lire se situe dans une position critique par rapport à ces deux auteurs.
La critique de Feyerabend du critère de scientificité de Popper est l’objet de son ouvrage “Contre la méthode” qu’on peut trouver en édition de poche. Pour une introduction facile à lire de la pensée de Feyerabend, on préférera ses “Dialogues sur la connaissance” au Seuil.