Pendant de nombreuses années, j’ai commencé mon cours d’économie politique en Master d’ergologie par une référence à deux ouvrages.
Le premier a été écrit par John Kenneth Galbraith à plus de 95 ans. Économiste américain sérieux, connu et reconnu par les économistes du monde entier, professeur à la prestigieuse université de Harvard, il a occupé les plus hautes fonctions académiques, comme celle de président de l’American Economic Association, et assuré des missions politiques importantes, puisqu’il fut conseiller du président Kennedy et ambassadeur en Inde. Son petit essai a été immédiatement traduit en français, sous un titre évocateur : Les Mensonges de l’économie (Grasset, Paris, 2004). S’appuyant sur une longue expérience, il se propose d’y montrer « comment, sur la base des pressions financières et des modes du moment, la théorie et les systèmes économiques et politiques en général cultivent leur propre version de la vérité. Une version qui n’entretient aucune relation nécessaire avec le réel. Personne n’est particulièrement coupable : on préfère, et de loin, penser ce qui arrange chacun. C’est un phénomène dont doivent avoir conscience tous ceux qui ont appris l’économie, qui sont aujourd’hui étudiants ou qui s’intéressent à la vie économique et politique. (…) La plupart des auteurs de ces ’mensonges’ que j’entends démasquer ici ne sont pas volontairement au service de ces intérêts. Ils ne se rendent pas compte qu’on façonne leurs idées, qu’ils se font avoir ». Bien que toute sa vie fût réglée à l’aune de la bienséance universitaire et du langage diplomatique, Galbraith n’hésite pas, dans ce petit ouvrage, à dire ce qu’il pense : que l’abandon du concept de capitalisme pour désigner le monde contemporain au bénéfice de celui d’économie de marché, notion « creuse, fausse, insipide et mièvre », est une « escroquerie », « pas tout à fait innocente », née du « désir de se protéger du passé », du « bilan peu reluisant du pouvoir des capitalistes », de « l’héritage de Marx, d’Engels et de leurs disciples fervents et exceptionnellement persuasifs » ; bref, que l’économie est « une discipline complaisante » [1].
S’ils sont également célèbres, Albert Uderzo et René Goscinny ne sont ni économistes, ni sérieux, et ce qu’ils écrivent n’est pas enseigné dans les facultés de sciences économiques. Mais il ne leur a pas fallu une longue expérience académique et des responsabilités respectables pour parvenir aux mêmes conclusions que Galbraith. Il suffit pour s’en convaincre de lire Obélix et compagnie, bande dessinée parue en 1976. Cet épisode retrace l’histoire de l’introduction, dans le village gaulois, de la monnaie, du marché et du salariat, par un « économiste » romain qui achète les menhirs fabriqués par Obélix. Les « explications » que l’« économiste » donne à Obélix pour que ce dernier se conduise comme souhaité sont elles aussi des « mensonges » : si les prix du menhir montent, « c’est à cause de l’offre et de la demande…le marché…enfin, c’est compliqué, mais les prix montent tout le temps » ; il y a cependant un risque de baisse : « si tu ne peux pas augmenter la production, l’offre ne pouvant satisfaire la demande, ça risque de faire chuter les cours ». Ce qu’Obélix, qui doit convaincre ses amis du village de travailler pour lui, traduit par : « les prix volent avec le marché et j’offre la demande, c’est drôlement compliqué », « si la demande offrée de la production satisfaite, j’en fais pas assez, alors ça va faire chuter les sesterces dans la cour », et il interroge un interlocuteur pour savoir si « l’offre demandée a encore fait sauter les prix en l’air depuis le marché d’hier ». Même constat que Galbraith donc : des « mensonges économiques » sont dits plus ou moins innocemment dans l’unique objectif de satisfaire des intérêts particuliers : semer la zizanie (d’autres diraient introduire la lutte des classes) dans le village gaulois pour le Romain, et ainsi réduire sa capacité de résistance à l’envahisseur, devenir « l’homme le plus riche » et donc « le plus important » du village pour Obélix.
Au moment où ces lignes sont écrites, des salariés luttent contre la fermeture de leur usine, pour leur pouvoir d’achat, et, avec d’autres, vêtus de jaune, protestent contre le mépris dont ils sont l’objet de la part des « sachants » qui croient que, en expliquant « pédagogiquement », ils vont convaincre. Ces travailleurs ne comprennent pas très bien. Pourtant, « on » leur a assez répété que « la contrainte extérieure est très dure », que « la concurrence internationale est impitoyable », que « l’emploi est fragile », que « l’économie est convalescente », que « l’inflation est sournoise », que « la compétitivité de la France est trop faible », que « le coût salarial français est trop fort », que « la durée du travail est trop courte », que « la protection sociale est trop ruineuse », que « la reprise est pour bientôt, mais en attendant... », que « la rigueur est de rigueur », qu’il y a « trop de rigidités et qu’il faut flexibiliser pour s’adapter ».... Malgré toutes ces explications, ils ne comprennent pas. Bien sûr, en même temps, ils apprennent que « les entreprises font de plus en plus de profits », que « les entreprises du CAC 40 ont distribué 57 milliards de dividendes à leurs actionnaires », que « l’euro montre la bonne santé » de l’économie européenne, ce qui favorise les entreprises qui exportent en dehors de la « zone euro », que « la croissance repart », ... que « le bout du tunnel approche... ». Ce n’est pas étonnant qu’ils ne comprennent pas. En fait, la raison de cette incompréhension est simple : ces salariés ne connaissent rien aux « dures lois de l’économie », que seuls quelques spécialistes sont à même de maîtriser. En un mot, ils ne sont pas compétents dans la chose économique, et il ne leur reste qu’à faire confiance à ceux qui savent.
Voilà rapidement tracée l’idéologie technocratique qui est diffusée à longueur de journée par les radios, les télévisions et la quasi-totalité de la presse écrite. Bien peu de commentateurs posent les questions les plus triviales qui méritent d’être posées : que savent au juste ceux qui savent ? d’où tiennent-ils leurs savoirs ? d’où viennent ces savoirs ? où les ont-ils appris ? qu’ont-ils appris exactement ? Autrement dit, la « science économique » aurait-elle acquis un degré de rigueur tel que les êtres humains pourraient être partagés en deux catégories : ceux qui savent et ceux qui ne savent pas ?
Ce sont là des questions sociétales importantes, sinon essentielles, qui posent inévitablement des problèmes épistémologiques redoutables : que sont exactement nos « connaissances » en économie, et, pour aller un peu plus loin, peut-il exister des « connaissances scientifiques » dans ce domaine ?
Il faut de ce point de vue reconnaître que les économistes n’ont jamais été avares de questionnements sur ces questions épistémologiques. Il suffit de remarquer le nombre de manuels qui commencent par un chapitre intitulé « Objet et méthode de l’économie politique », ou encore le foisonnement d’ouvrages et d’articles portant sur l’histoire de la pensée économique, comme si le discours de la discipline trouvait une sorte de légitimité dans ces références à son passé et à sa rigueur (ce dont n’ont pas forcément besoin les sciences de la nature, comme le soulignait Canguilhem [2]). Mais cela recouvre aussi une autre réalité, que Serge Latouche [3] a bien mise en évidence : pour l’essentiel, les sciences sociales consistent en une interrogation sur la nature même du social et sur les conditions de sa connaissabilité. C’est particulièrement clair pour ce qui concerne le projet marxien : il se définit à la fois comme une « critique de l’économie politique » et comme une « application » à l’histoire du matérialisme dialectique, c’est-à-dire par un double point de vue épistémologique. C’est un peu moins clair et un peu moins connu, mais non moins vrai, pour les autres projets théoriques (Léon Walras prétendait « mécaniser » la science économique, Alfred Marshall la « biologiser », et John Maynard Keynes la « psychologiser »). Toute la tradition de ce type de réflexion en économie politique est de situer cette discipline par rapport aux sciences reconnues, notamment celles de la nature ou celles dites « dures » : d’un côté, l’économie politique voudrait leur ressembler, elle voudrait être « vraiment scientifique », et elle cherche à en reprendre les concepts et les méthodes (mathématisation, expérimentation) ; d’un autre côté, elle sent bien la différence, et cherche à la faire apparaître dans des difficultés qui tiendraient à l’interdépendance des phénomènes sociaux qui complexifie l’analyse, à la nature du temps, dont l’irréversibilité interdirait l’expérimentation, à sa « jeunesse », etc.
Mais en substance, la réponse des économistes (et pas seulement ceux du mainstream) est naturellement de se faire reconnaître comme participant à l’élaboration d’une « science dure », et que l’on trouve dans le titre d’un colloque tenu à Paris en 1992, « L’économie devient-elle une science dure ? » [4].
Il faut prendre à la lettre comme point de départ ce qu’écrivent Antoine d’Autume et Jean Cartelier (deux économistes très différents, voire opposés en termes d’approche théorique) dans l’introduction à l’ouvrage qui retrace les Actes du colloque : « les exigences de rigueur logique et de soumission aux faits fournissent des principes généraux qui ne peuvent guère être discutés ». C’est sur ces deux aspects, non discutables donc (rigueur logique des théories économiques et soumission de ces théories aux faits), qu’il est possible de donner quelques exemples qui montrent la difficulté qu’il y a à considérer que l’économie politique pourrait être une science « comme les autres ». Ainsi que le souligne Bernard Walliser, « souvent cataloguée comme la plus dure des sciences molles ou la plus molle des sciences dures, l’économie s’éloigne des canons usuels de toutes les autres disciplines pour se situer dans un ailleurs » [5].
La cohérence logique : quand la fourmi se mord la queue
Le questionnement portant sur « la cohérence interne des théories » est aussi ancien que l’économie politique : Marx critiquait Smith et Ricardo sur ce terrain, Böhm-Bawerk mettait au jour, à la fin du XIXe siècle, les incohérences de Marx, Boukharine au début du XXe siècle s’attaquait à l’école autrichienne ; et l’ambiance intellectuelle régnant parmi les économistes durant les années 1970 était profondément marquée par cette « critique interne ». Foisonnaient à cette époque les démonstrations de l’incohérence de la théorie néoclassique du capital et de la répartition, ou de la théorie marxienne de la transformation des valeurs en prix de production, sans pour autant que les néoclassiques cessent d’être néoclassiques et les marxistes marxistes. La forme de l’examen de la cohérence logique des théories économiques a néanmoins profondément changé au cours du dernier tiers du XIXe siècle : la volonté de faire de l’économie politique une « science » au même titre que les « sciences dures » a abouti à la mathématisation de cette discipline.
On considère habituellement que c’est Jevons qui a initié l’introduction des mathématiques en économie (même si Cournot s’interrogeait dès 1838 pour savoir dans quelle mesure les outils mathématiques permettent de comprendre l’économie et la philosophie) [6]. Mais c’est indéniablement Walras qui formalise, voire sacralise, cette démarche intellectuelle avec son modèle d’équilibre économique général, faisant éclore ainsi éclore la « science économique ». Il entreprend de créer une « économie pure », qui s’inscrirait dans la lignée de l’astronomie newtonienne, et il annonce son projet sans la moindre ambiguïté : « Il est à présent bien certain que l’économie politique est, comme l’astronomie, comme la mécanique, une science à la fois expérimentale et rationnelle […]. Le XXe siècle, qui n’est pas loin, sentira le besoin, même en France, de remettre les sciences sociales aux mains d’hommes d’une culture générale, habitués à manier à la fois l’induction et la déduction, le raisonnement et l’expérience. Alors l’économique mathématique prendra son rang à côté de l’astronomie et de la mécanique mathématiques ; et, ce jour-là aussi, justice nous sera rendue » [7].
Cette mathématisation de l’économie politique ne cessera de se renforcer tout au long du XXe siècle, et son examen conduit à deux constatations : d’une part, « ressembler à la physique » (pour aller vite) aurait dû conduire les partisans de la mathématisation à s’interroger sur le fait de savoir par quel miracle les mathématiques, pur produit du cerveau humain, pourraient décrire ou expliquer la réalité ; d’autre part, si cette mathématisation a indubitablement permis quelques progrès dans la cohérence logique des théories, elle a abouti en même temps à mettre en évidence des incohérences irréductibles.
Je ne m’attarderai pas sur le premier constat. Son thème fait depuis des siècles et des siècles l’objet de discussions ininterrompues, y compris chez les physiciens [8]. Il faut néanmoins rappeler la position de Keynes à ce propos. Dans La théorie générale, il n’a pratiquement pas utilisé les mathématiques pour étayer ses démonstrations. Il n’y a qu’au chapitre 20, première section, qu’elles sont présentes de façon conséquente, et il prévient le lecteur dans une note de bas de page qui accompagne le titre de ce chapitre : « Ceux qui (à juste titre) craignent l’algèbre, peuvent sauter la première section du chapitre sans perdre grand-chose ». Et il précise, à un autre endroit : « Les méthodes pseudo mathématiques (…) qui donnent une figuration symbolique d’un système d’analyse économique ont le grave défaut de supposer expressément l’indépendance rigoureuse des facteurs dont elles traitent et de perdre leur force et leur autorité lorsque cette hypothèse n’est pas valable. Dans le raisonnement ordinaire, où nous n’avançons pas les yeux fermés mais où, au contraire, nous savons à tout moment ce que nous faisons et ce que les mots signifient, nous pouvons garder derrière la tête les réserves nécessaires (…). Trop de récentes économies mathématiques ne sont que pures spéculations ; aussi imprécises que leurs hypothèses initiales, elles permettent aux auteurs d’oublier dans le dédale des symboles vains et prétentieux les complexités et les interdépendances du monde réel ». La rhétorique qu’utilise Keynes dans son ouvrage confirme totalement ce principe. Des expressions telles que « peu s’en faut », « à peu près », « en partie », « principalement mais pas complètement », « en première approximation », « tendanciellement », etc. inondent le texte. Le « flou » des relations qui constituent La théorie générale reflète chez Keynes la prise en compte de l’impossibilité d’établir une théorisation logique d’un système économique dans lequel les processus extra-économiques (politiques, conventionnels, et surtout psychologiques) tiennent une place prédominante.
Le second constat est d’une certaine manière plus jouissif. En effet, comme je l’ai déjà dit, l’utilisation des outils mathématiques a permis de mettre en évidence les incohérences logiques des principales théories économiques, ce qui « normalement », c’est-à-dire à l’image des sciences de la nature, devrait conduire immédiatement à leur rejet. De nombreuses démonstrations en ont été apportées [9] que j’ai résumées, seul ou avec d’autres, sous des formes simples, dans plusieurs publications [10]. Je ne peux évidemment pas les reproduire dans cet article, et je me contenterai de deux exemples : le premier concerne la fameuse « loi de baisse tendancielle du taus général de profit » de Marx, le second la conception des prix dans une économie de marché.
C’est dans le chapitre 13 du Capital (livre III, tome 6 aux Éditions sociales) que Marx énonce « la loi » de baisse du taux de profit général (avant d’en analyser les « contre-tendances » au chapitre 14 et « le fonctionnement contradictoire » au chapitre 15, lesquels chapitres ne sont pas en discussion ici). Le principe en est relativement bien connu : le « progrès technique », que les capitalistes sont obligés d’introduire dans les processus de production pour participer à la concurrence, se traduit par l’élimination du travail vivant relativement au travail mort (moyens et objets de travail) ; toutes choses étant égales par ailleurs, cette hausse de la « composition organique du capital » conduit inévitablement à une baisse du taux de profit général. Ce « toutes choses étant égales par ailleurs » est évidemment une hypothèse importante pour la démonstration mathématique. Marx dit lui-même, y compris dans le chapitre 13, et a fortiori dans les deux suivants, que tout évolue simultanément : c’est ainsi, par exemple, que le « progrès technique », en même temps qu’il conduit à une diminution du travail vivant relativement au travail mort, augmente la productivité du travail, fait diminuer la valeur des « biens de consommation » et donc fait diminuer la valeur de la force de travail et augmenter le taux d’exploitation. Au total, le jugement que l’on peut porter sur cette loi établie pas Marx ne saurait se réduire à la seule logique mathématique du chapitre 13, mais doit tenir compte de l’ensemble des trois chapitres qui en traitent. Tout le problème est de savoir si cette élimination relative du travail vivant conduit bien à ce résultat. Un modèle très simple permet de démontrer qu’il n’en est rien. Cependant, au-delà d’un problème de cohérence mathématique, cette loi a largement démontré sa puissance d’explication des crises que traversent les économies capitalistes.
Soit une économie à un seul bien, le blé par exemple ; dans cette économie, pour récolter 1 quintal (q) de blé, il faut en semer 0,6 q et utiliser un travailleur pendant un an ; pour vivre un an, le travailleur doit manger 0,2 q de blé. Si nous appelons m la valeur (travail) d’1 q de blé, le capital constant c est la valeur des semences 0,6m, le capital variable v est la valeur de la nourriture du travailleur 0,2m (valeur de la force de travail), et la plus-value s est la différence entre la quantité de travail fournie par le travailleur pendant un an et la valeur de sa force de travail ; si nous posons comme étant égale à l’unité cette quantité de travail fournie, s = 1 – 0,2m. Dans cet exemple chiffré, la composition organique du capital (c/v) est égale à 3 et le taux de plus-value (s/v) à (1 – 0,2m)/0,2m. Comme il est possible de calculer m avec la formule m = 0,6m + 0,2m + (1 – 0,2m) (m est égal à 2,5), le taux de profit est facilement calculable et égal à 25%.
On peut généraliser cette formulation en appelant a la quantité semée de blé pour obtenir une quantité donnée de produit que l’on pose comme égale à l’unité, q la consommation du travailleur par unité de travail fournie, et t la quantité de travail fournie. Ces quantités constituent les données du modèle (les paramètres). Nous obtenons comme équations
m = am + t(1)
ou encore
m = am + mqt + (t – mqt)(2)
où
am = c
mqt = v
t – mqt = s
le taux de profit r s’écrit
r = s / c + v
soit
r = (t – mqt) / am + mqt(3)
De (1) nous tirons
m = t / (1 – a)
en remplaçant dans (3), nous obtenons, après simplifications
r = (1 – a – qt) / (a + qt)(4)
Faisons maintenant l’hypothèse, comme Marx, que des « progrès techniques » conduisent à l’élimination progressive du travail vivant, ce qui, dans le modèle, se traduit par une diminution de t, toutes choses restant égales par ailleurs. L’équation (4) montre trivialement que le numérateur augmente et le dénominateur diminue, et donc que le taux de profit augmente. Autrement dit, la « démonstration » de Marx, selon laquelle l’élimination relative du travail vivant conduit à une baisse du taux de profit (et qui repose sur l’idée que la « source » de la plus-value se tarit progressivement) est purement et simplement fausse.
Voilà un premier exemple d’incohérence : la démonstration que Marx utilise pour « démontrer » la loi de baisse du taux de profit général est erronée, erreur qui résulte d’une formalisation défectueuse qui le conduit à « oublier », à « négliger », ou à « sous-estimer » le fait qu’une diminution relative du travail vivant dans les processus de production a pour conséquence immédiate une baisse de la valeur de toutes les marchandises, y compris la force de travail. L’équation (4) montre d’ailleurs que si le travail était totalement éliminé (on fait tendre t vers 0), le taux de profit tendrait asymptotiquement vers un maximum (1-a) / a, ce qui signifie, en outre et en substance, que le taux de profit dépend uniquement du surproduit et non de la plus-value.
Le fait que le marché ait des fonctions régulatrices n’est que rarement discuté dans la littérature économique. Habituellement, la « régulation par le marché » est présentée de façon très simple : celui-ci envoie aux divers agents économiques (entreprises, ménages, institutions financières, pouvoirs publics) des signaux qui sont autant d’informations à partir desquelles ils modifient leur comportement selon une rationalité préétablie. C’est dans cette relation informationnelle que résideraient les processus autorégulateurs, puisque, grâce à elle, chaque agent serait capable de juger ses propres actions et de les modifier le cas échéant pour qu’elles deviennent compatibles avec les actions des autres agents, cette compatibilité étant accomplie dans la situation d’équilibre entre les offres et les demandes pour tous les biens et services existant dans le système économique.
À la base de ce raisonnement, se trouve l’idée selon laquelle le marché est régulateur dès lors qu’il fait apparaître les phénomènes de rareté et d’abondance relatives. Si, pour un prix donné, l’offre d’un bien est supérieure à sa demande, alors ce bien sera considéré comme abondant, et son prix diminuera, entraînant normalement une baisse de l’offre et une augmentation de la demande. Si, à l’inverse, pour un prix donné, la demande d’un bien est supérieure à son offre, alors ce bien sera considéré comme rare, et son prix augmentera, entraînant normalement une baisse de la demande et une hausse de l’offre ; le prix d’un bien atteint son niveau d’équilibre lorsqu’il assure l’égalité entre l’offre et la demande, le bien en question n’étant alors ni rare ni abondant, et c’est ce prix qui est censé être « indicateur de rareté ». Comme cela se comprend aisément, la notion de rareté, ou d’abondance, n’a, dans ce cadre d’analyse, strictement rien à voir avec un quelconque état de nature : un bien n’a pas pour caractéristique intrinsèque d’être rare, il n’est rare, lorsqu’il l’est, que pour un prix donné. Considérer les prix déterminés par le marché comme des prix indicateurs de rareté est par conséquent trompeur puisque, lorsque le prix d’un bien atteint son niveau d’équilibre, ce bien n’est ni rare ni abondant. Ce qui est indicateur de rareté, c’est le sens de variation du prix : à la hausse si le bien est « rare », à la baisse s’il est « abondant ».
Cette manière de raconter les choses constitue le cœur de la théorie néoclassique. Mais cela ne lui est cependant pas spécifique : comment raconter autrement qu’en faisant intervenir le jeu de l’offre et de la demande les processus qui conduisent à l’égalité sectorielle des taux de profit dans la théorie classico-marxienne des prix de production ? C’est pourtant ce « cœur » qui s’effondre dès que l’on examine un tant soit peu attentivement les réquisits logiques mobilisés par un tel raisonnement. Et c’est cet effondrement qui devrait interdire aux économistes de faire référence à la notion de marché.
En effet, pour qu’il y ait « marché », il faut une offre, une demande, un prix, et il faut que l’offre, la demande et le prix « se comportent » tel qu’indiqué supra. Autrement dit, il faut une offre qui soit une fonction croissante du prix, une demande qui soit fonction décroissante du même prix, et un prix flexible qui augmente quand la demande est supérieure à l’offre et qui baisse quand l’offre est supérieure à la demande. Tous ces réquisits sont logiquement contestables.
Commençons par le plus trivial. Que peut bien vouloir dire, dans une économie où existent plus de deux biens, la phrase « le prix d’un bien baisse (ou augmente) » ? Tout prix est un rapport d’échange entre deux quantités de biens. Par conséquent, parler du prix du bien A, c’est définir la quantité de bien B qui s’échange contre une unité du bien A ; et dire que le prix du bien A baisse (augmente), c’est dire que la quantité de bien B qui s’échange contre une unité du bien A baisse (augmente). Notons en passant que lorsque le prix du bien A baisse (augmente), cela signifie ipso facto que le prix du bien B augmente (baisse). C’est simple. Mais ça se complique dès qu’il y a trois biens. En effet, dans ce cas, le bien A a au moins deux prix (en fait, il en a une infinité qui s’expriment en « quantités de paniers » constitués de x unités de bien B et y unités de bien C, x et y pouvant prendre n’importe quelle valeur comprise entre zéro et l’infini) : l’un exprimé en quantité de bien B, l’autre exprimé en quantité de bien C. Et affirmer, sans autre précision, que le prix du bien A baisse ne peut avoir d’autre signification qu’il baisse aussi bien lorsqu’il est exprimé en bien B que lorsqu’il est exprimé en bien C. Si, par hasard, il baissait lorsqu’il est exprimé en bien B et augmentait lorsqu’il est exprimé en bien C, son sens de variation serait proprement indéterminé. Inutile de décrire la tête des offreurs et des demandeurs du bien A lorsqu’ils doivent modifier leur comportement au vu des signaux envoyés par le marché ! C’est pourtant la situation « normale » d’un « marché » dans une économie où existent un grand nombre de biens : au mieux, il y a un bien et un seul dont le prix augmente (par rapport donc à tous les autres biens), et un bien et un seul dont le prix baisse (par rapport donc à tous les autres biens) ; tous les autres prix ont un sens de variation indéterminé ! On croit résoudre cette difficulté en exprimant tous les prix en termes de l’un des biens, qui sert alors de numéraire. Mais cela ne résout strictement rien puisque, théoriquement, le choix du numéraire est arbitraire, et que par conséquent changer de numéraire pourrait faire changer le sens de variation des prix. On comprend pourquoi la tradition classique s’est acharnée sur la question de « l’étalon invariable des valeurs » (de David Ricardo à Sraffa, en passant par Marx avec sa « branche de composition organique moyenne », Cournot avec sa « valeur absolue », Marshall et Walras avec leur « monnaie d’or avec billion d’argent régulateur ») ; et on mesure les conséquences de l’échec de cette quête.
Ces deux exemples n’ont pas d’autre prétention que d’illustrer les difficultés de la « science économique » dans toutes ses composantes théoriques à respecter l’exigence de cohérence ou de rigueur logique dont parlent Cartelier et D’Autume.
Le cas de La Théorie générale de Keynes mérite cependant d’être traité à part. Explicitement, pour la plupart d’entre elles (le chapitre IV est de ce point de vue exemplaire), Keynes adopte une vision qui exclut toutes les incohérences : courte période, car il ne peut rien dire sur les variations des quantités de capital, anticipation de la rentabilité, car il ne peut rien dire sur le taux de profit réalisé, rejet de l’hypothèse de nomenclature, car il ne peut rien dire sur les prix relatifs, ce qui le conduit à ne retenir pour seul instrument de mesure des grandeurs économiques l’unité monétaire (ou l’unité de travail, mais encore faut-il remarquer que l’unité de travail n’est qu’un dérivé de l’unité monétaire) et à considérer une « unité de temps » très particulière, qui exclut toute vision dynamique. À partir de là, La Théorie générale ne souffre d’aucune contradiction interne, et se présente selon une structure logique implacable : elle repose en effet sur un ensemble de définitions non ambiguës, et les hypothèses, en nombre somme toute très faible, ne viennent qu’après. Aucune hypothèse en effet n’est nécessaire pour définir parfaitement le revenu, la consommation, l’épargne et l’investissement, qui constituent les fondements de La Théorie générale : c’est dans ce cadre, et donc par définition, que l’épargne est toujours égale à l’investissement, et c’est parce que cette égalité est toujours vraie, puisqu’elle l’est par définition, que le revenu est contraint par la demande effective. Si l’on admet, comme Keynes, que l’investissement réalisé par les entrepreneurs ne dépend pas du montant de l’épargne, alors on est obligé d’admettre qu’à chaque montant de l’investissement correspond un montant du revenu, et un seul, celui qui engendre un montant d’épargne équivalent (pour des habitudes de consommation données, ce qui entre dans la définition de la courte période). Ce « principe » n’a rien à voir avec une quelconque vision en termes d’équilibre : il découle directement et logiquement des définitions adoptées par Keynes, et il est dès lors compréhensible qu’il prenne tant de soin et de temps à réfuter les autres définitions en leur reprochant et en démontrant leurs ambiguïtés et leurs incohérences. Il reste cependant un point qui me paraît faible chez Keynes. C’est la manière dont il traite de l’amortissement par l’intermédiaire de sa fameuse définition du « coût d’usage » : « le coût d’usage est la diminution de valeur subie par l’équipement du fait de son utilisation par rapport à celle qu’il aurait subie s’il n’avait pas servi compte tenu d’une part du coût de l’entretien et des améliorations qu’il y aurait eu avantage à effectuer et d’autre part des achats faits aux autres entrepreneurs ». Définition tellement alambiquée que Keynes lui consacre un appendice, et finit par dire que le mieux est de se référer aux savoirs des comptables et autres agents des impôts [11] !
La soumission aux faits : quand la fourmi reste en l’air
La seconde exigence émise par Cartelier et D’Autume (qui ne saurait « être discutée ») pour que la « science économique » devienne une « science dure » comme la physique est la « soumission aux faits ». Prise à la lettre, cette expression pourrait faire sourire, car aucune des grandes théories de la physique ne s’est « soumise » aux « faits ». On pourrait même avancer le contraire : les théories physiques se sont soumis les faits, c’est-à-dire ont construit leur compréhensibilité [12]. Je considérerai par conséquent que cette « soumission aux faits » pose la questions des rapports que peuvent entretenir les théories économiques avec les « faits » qu’elles prétendent expliquer, c’est-à-dire avec la réalité économique.
Le « couplage théorie-réalité » effectué par les économistes se fonde sur deux postulats qui ne sont que très rarement discutés :
- la « réalité économique », faite de faits (les prix, la production, les salaires, les taux de change, etc.), est là ; il suffit de la regarder pour la voir, au besoin avec quelques lunettes plus ou moins sophistiquées qui permettent de la mesurer et de la mettre en statistiques ;
- ce que dit cette « réalité » peut être comparé à ce que dit la théorie, pour la confirmer ou la réfuter, ou encore la nuancer ; c’est ce qui permet d’effectuer des « tests économétriques », mais aussi de critiquer « l’irréalisme » des hypothèses de telle ou telle théorie.
Quelques remarques s’imposent sur ce sujet.
- Il n’est jamais simple de « voir » la réalité économique. On sait à peu près quel est le prix du super 95 aujourd’hui dans une station-service particulière ; mais que sait-on du prix du super 95 en France aujourd’hui, et plus généralement des prix en France aujourd’hui ? Il est possible de donner des kyrielles d’exemples pour montrer que nous ne savons que fort peu de choses sur la réalité économique, non seulement par manque de moyens pour la voir, mais surtout parce que l’opacité, voire le secret, en sont des attributs essentiels. Dès lors, imaginer qu’on puisse tirer de cette méconnaissance des éléments à comparer avec les éléments de connaissance fournis par les théories économiques confine à l’absurde.
- Par principe, des « faits » ne peuvent pas être comparés à des énoncés théoriques. On ne peut comparer que ce qui est comparable, c’est-à-dire « commensurable », c’est-à-dire encore « ayant une substance commune » ou « étant de même nature ». Or, un énoncé théorique propose un élément de savoir ou de connaissance plus ou moins conceptualisé et plus ou moins abstrait qui, peu ou prou, ressemble à une « loi », par exemple en économie : « si la composition organique du capital augmente, alors le taux de profit diminue » ou « si la demande d’un bien augmente, son prix augmente ». Prétendre comparer des « faits » à ces énoncés théoriques revient implicitement à faire l’hypothèse qu’il y aurait des savoirs dans ces faits, dont la nature les rendrait immédiatement comparables aux savoirs proposés par ces énoncés. Toute la tradition épistémologique française, au moins depuis Gaston Bachelard, montre au contraire que, avant de pouvoir être « comparés » aux énoncés théoriques par la voie du protocole expérimental, les « faits » sont nécessairement « traduits » en « langage » théorique, et que ce n’est qu’à cette condition que le couplage « théorie-réalité » et le « dialogue expérimental » (Ilya Prigogine et Isabelle Stengers [13]) peuvent avoir lieu et prendre sens.
- Est-ce que la comparaison ou la soumission est un couplage ? Quel est le dispositif qui « accouple » ? Ces questions ne sont bien entendu jamais posées par les économistes. Le « couplage scientifique » est une « ré-adhérence », une « reconnexion » (Schwartz), un « arraisonnement » (Bachelard), un « dialogue », un « accouplement ». Malgré le flou de ces concepts, on sent bien intuitivement qu’ils sont autrement plus forts, et plus exigeants, que les notions de « comparaison » ou de « soumission ». Non seulement ils exigent cette « traduction » dont il vient d’être question, mais en outre ils exigent d’être pensés dans un dispositif conceptuel précis : tout processus expérimental est en lui-même une activité théorique et abstraite particulière ; c’est la théorie qui dit comment elle doit être « expérimentée », qui donne les conditions de son éventuelle réfutation ou de son éventuelle validation, qui ordonne la réalité en spécifiant ce qu’il faut abstraire d’elle pour en extraire uniquement ce qui est « arraisonnable ». C’est toute la différence entre le scientifique des scientifiques et l’empirisme des économistes.
- Enfin, est-on sûr qu’il existe une réalité qui soit proprement, voire spécifiquement, économique et dont la science économique aurait à rendre compte ou à construire la compréhensibilité ? Contentons-nous de poser la question, en rappelant toutefois les réponses négatives qu’y apportent Maurice Godelier [14], Serge Latouche [15], ou encore Michel Foucault [16], et les difficultés qu’il y a à la penser comme réalité préalable, indépendante et séparable des théories économiques qui sont censées en fournir l’explication [17].
Quand bien même passerions-nous outre toutes ces questions, il est possible d’illustrer en quelques exemples toutes les ambiguïtés qui portent sur des éléments de « la réalité économique » aussi apparemment évidents que le taux de croissance d’une économie et le chômage.
Les problèmes de mesure traversent toute l’histoire de l’économie politique. Ils se situent à plusieurs niveaux d’abstraction et impactent les fondements mêmes des diverses théories économiques. Il y a en effet des mesures qui paraissent impossibles : on ne sait pas mesurer une quantité de travail, alors que toute la théorie classico-marxienne de la valeur des marchandises repose sur la quantité de travail qui est nécessaire à leur production ; on ne sait pas mesurer le capital qui entre dans la fonction de production de la théorie néoclassique, ce qui a donné lieu à l’une des plus belles polémiques qui a duré vingt-cinq ans entre les néoclassiques de Cambridge (États-Unis) et les postkeynésiens de Cambridge (Royaume-Uni) ; on ne sait pas mesurer l’amortissement autrement qu’en se réfugiant derrière les normes fiscales (lesquelles n’ont que peu à voir avec l’analyse économique), alors que cette mesure est essentielle à la définition du taux de profit et du revenu.
Deux « curiosités » peuvent illustrer les ambiguïtés de la mesure des grandeurs « réelles » dans le domaine économique. La première tient au fait que les grandeurs économiques sont des grandeurs qui s’expriment en prix, et que la manipulation théorique des prix est quelque chose de délicat. La seconde est plus concrète et montre l’importance des conventions arbitraires dans certaines mesures.
La mesure du taux de croissance
Dans son ouvrage Moi et les autres [18], Albert Jacquard donne l’exemple suivant : En 1981, il a acheté chez son libraire 20 livres de poche à 10 francs l’unité et 20 livres d’art à 100 francs l’unité, ce qui fait une dépense totale de 2200 francs. En 1982, les prix ont changé, le livre de poche est passé à 15 francs et le livre d’art à 90 francs ; il a acheté 60 livres de poche et 15 livres d’art, soit une dépense totale de 2250 francs. Un des problèmes que se posent les économistes, dit-il, est de déterminer, dans l’augmentation de la dépense (50 francs), quelle est la part qui revient aux variations des quantités de livres achetés, et quelle est la part qui revient aux variations des prix unitaires. La réponse qu’ils donnent semble facile :
- si les prix étaient restés constants à leur niveau de 1981, en 1982 la dépense aurait été de 2100 francs ; le changement dans les quantités de livres achetés a donc entraîné une diminution de la dépense de 100 francs ;
- si les quantités achetées avaient été en 1982 les mêmes qu’en 1981, la dépense aurait été de 2100 francs ; le changement des prix a donc entraîné une diminution de la dépense de 100 francs.
Ainsi, agissant séparément, chacune des variations (des prix et des quantités) aurait entraîné une diminution de la dépense, et pourtant, ensemble, elles ont entraîné une augmentation. Jacquard en conclut que la question posée est absurde (quelle est la part due aux variations des quantités et la part due aux variations des prix ?), et que la réponse, quelle que soit la technique de calcul utilisée, ne peut qu’être absurde. C’est pourtant ainsi qu’en substance sont calculés les taux de croissance des économies contemporaines, qui servent entre autres de base aux modèles économétriques qui comparent les théories et les « faits » et à la politique économique.
C’est bien connu, le choix de l’année de base est essentiel : selon l’année de base choisie, les taux de croissance sont très différents, pouvant éventuellement logiquement, pour une même période, changer de signe ! En fait, il n’y a aucune raison de croire qu’existe un « bon choix ». Il n’y a pas par conséquent « un » « taux de croissance de l’économie » qui soit calculable et mesurable, représentant quelque chose qui pourrait s’assimiler à « la croissance réelle », susceptible d’être confronté à ce que disent les modèles théoriques. Les chiffres obtenus ne peuvent même pas être considérés comme des « approximations », puisqu’ils ne sont approximation de rien. C’est ce que disent, depuis longtemps, les statisticiens lorsqu’ils affirment, s’adressant aux économistes : « donnez-nous le choix de l’année de base et nous vous calculerons le taux de croissance que vous voulez ».
Cette « curiosité » n’est pas sans importance dans la « vie réelle ». Il y a eu un changement d’année de base dans les mesures opérées par l’Insee : on est passé de la base 2000 à la base 2005, et ce changement de base a naturellement eu des effets sur les mesures des taux de croissance. À titre d’exemple, le PIB de 2008 s’établit à 1948,5 milliards d’euros en base 2000, et à 1933,2 milliards d’euros en base 2005, soit une différence de - 0,8 %. Quand on sait que le taux de croissance « officiel » du PIB en 2008 a été mesuré à 0,3 %, on est semble-t-il autorisé à douter de la pertinence de ce chiffre et de cette mesure !
La mesure du chômage
La deuxième curiosité a trait à la mesure du chômage. Il convient d’emblée de remarquer que cette mesure a une histoire qui doit nous faire réfléchir. On trouve cette histoire dans l’ouvrage de Nicolas Baverez, Robert Salais et Bénédicte Reynaud-Cressent [19].
Jusqu’à la fin du XIXe siècle, la notion de chômage n’existe ni en tant que catégorie statistique, ni en tant que concept économique. Ce n’est qu’à la fin de ce siècle que la convergence des questions relatives à la différenciation de certaines positions dans l’espace social et à leur repérage met le chômage à l’ordre du jour. En 1891, lors du recensement, la catégorie de chômeur n’existe toujours pas : la plupart des individus « sans travail » étaient classés dans leur profession habituelle ; les autres étaient classés avec les « sans profession » comme les saltimbanques, les bohémiens, les vagabonds et les filles publiques. D’une certaine façon, le chômage n’existe pas comme objet d’étude ou d’analyse, seul existe le problème, à résoudre, du vagabondage et de la mendicité. Ce n’est qu’à partir du recensement de 1896 qu’un certain nombre de règles seront progressivement établies, permettant de cerner le concept de chômage : il se définit comme une suspension temporaire de travail dans l’établissement, étant entendu par exemple que cette suspension doit être d’une durée minimum (rien en 1896, un « certain nombre de jours » en 1901, huit jours de 1906 à 1936), que le chômeur doit avoir moins de 65 ans (1896 et 1901), que le maximum de durée de suspension est fixé à un an (1896 et 1901). L’existence de questions dans le recensement relatives aux causes du chômage permet de compléter cette définition, mais aussi de mettre en évidence les incertitudes conceptuelles auxquelles elle renvoie. Il existe, en effet, selon le questionnaire du recensement de 1896, trois causes de chômage : la maladie ou l’invalidité, la morte saison « ordinaire », et le manque « accidentel » d’ouvrage. Dans les autres recensements, le chômage apparaîtra comme relevant essentiellement de la responsabilité professionnelle de l’employeur. Mais, et cela mérite d’être noté, jusqu’à la Seconde Guerre mondiale, pour être chômeur, il faut être employé ou ouvrier (les autres catégories socio-professionnelles sont exclues du chômage), et le fait que l’une des causes recensées puisse encore être la maladie montre que la notion de chômage ne se dégage pas encore de son sens ancien de suspension du travail (le chômage est le non-travail pendant une durée déterminée).
Ce n’est donc que relativement récemment que le concept de chômage, lequel permet évidemment sa mesure, s’est stabilisé. Retenons ici la définition qu’en donne le Bureau international du travail. Pour être recensé comme chômeur, il faut remplir cinq conditions ou cinq critères :
- ne pas travailler, c’est-à-dire ne pas avoir d’emploi ;
- avoir cherché un emploi pendant les 4 semaines avant le recensement ou avant l’enquête ;
- le faire de manière active ;
- vouloir travailler ;
- être immédiatement disponible (dans un délai d’un mois).
Il se trouve que, le 9 novembre 2005, dans sa rubrique « Économie », le quotidien Le Monde publie une interview de Tito Boeri, professeur d’économie à l’université Bocconi de Milan, au sujet de la question de la mesure du chômage. Il dit des choses fort intéressantes : « La modification, y compris à la marge, de l’un ou l’autre de ces (critères) peut entraîner des variations importantes. Trois économistes de la Banque d’Italie ont étudié quelles seraient les répercussions si, pour le critère numéro 2, la norme demandait une recherche d’emploi pendant les cinq semaines (au lieu de quatre) précédant le recensement. En France, le nombre de chômeurs augmenterait de presque 20 % ! ». (Rappelons au passage que le nombre de chômeurs au sens du BIT en France en 2004 était d’environ 2,3 millions, et que le changement marginal dont parle Boeri le ferait augmenter de 430 000 !). Il est évident que des critères sont nécessaires pour définir statistiquement ce qu’est un chômeur et ainsi mesurer le chômage, et on peut penser que si les critères restent stables, les statistiques donneront une tendance significative de son évolution. La question qui se pose est que le choix de ces critères est parfaitement arbitraire, dans le sens où ce ne sont pas des considérations d’ordre théorique qui les justifient : pourquoi quatre semaines et pas cinq ou trois ou huit ? Et on peut craindre (mais je ne connais pas de démonstration probante à ce sujet) que des changements de critères modifient non seulement les grandeurs, mais également le sens de leur évolution. En tout état de cause, nous devons nous poser la question de ce qu’est le chômage « réel », c’est-à-dire celui qui pourrait être comparé à ce que dit la théorie économique.
Il n’y aura pas de conclusion, sinon pour dire que ces deux « curiosités » illustrent la difficulté de l’économie politique à se présenter comme une « science quantitative », voire comme une « science » tout court. On aimerait croire que ce que disait Joan Robinson, il y a une quarantaine d’années, dans son ouvrage Les Hérésies économiques soit maintenant dépassé : « La situation présente de l’enseignement de la théorie économique est insatisfaisante, pour ne pas dire honteuse » [20]. Mais des doutes sont permis.
Il est possible qu’une méthodologie qui s’est développée récemment en science économique ait tenu compte de ces difficultés, à la fois de l’ordre de la cohérence logique et du rapport entre la théorie et les faits, et présente une réorientation vers les « sciences expérimentales » qui sont au fond moins « dures » que les « sciences dures » : vérifier, « en laboratoire » comme la psychologie, ou « sur le terrain » comme on ne sait pas trop qui ou quoi, si les comportements des agents économiques sont conformes à la rationalité, comme le prétend la théorie dominante. Ce n’est plus la mathématisation qui prévaut, mais la « reproductibilité » de l’expérience ou de l’expérimentation. À l’évidence, les résultats concernant la rationalité des agents interdisent pratiquement toute mise en mathématiques, et éloignent la « science économique » des sciences dures. Au fond, ces résultats redécouvrent ce que les philosophes nous ont enseigné depuis longtemps : le comportement des êtres humains, y compris naturellement dans la sphère économique, est dicté par des débats de normes et/ou de valeurs, voire par des émotions, qui ne sauraient se réduire à un simple calcul « rationnel ».
Au total, s’il s’agit de s’interroger pour savoir si l’économie politique pourrait énoncer des « vérités scientifiques », au sens où les « sciences dures » énoncent des « vérités scientifiques », la réponse est clairement négative. Ni la cohérence logique des théories, ni le couplage aux faits ne supportent la comparaison. Autrement dit, si nous n’avons comme seule image de la science (comme mode de production de connaissances sur le monde) que celle que nous livrent les sciences « dures », la science économique n’est pas une science.
Par contre, si nous pensons qu’il n’y a pas qu’un seul mode de production de connaissances sur le monde, que celui mis en œuvre par le « modèle dur » n’est que l’un d’entre eux, si nous admettons que l’économie politique, malgré ses incohérences logiques, malgré ses difficultés à définir son objet, nous fournit des interprétations du monde social, nous met en mesure d’agir sur lui, de le maîtriser, voire de le transformer, alors la réponse est plus nuancée. Il est possible, en effet, de définir un mode de production de connaissances spécifique aux activités humaines et qui paraît mieux adapté au monde économique. Fondé sur le dialogue des savoirs, sur la prise en compte notamment des savoirs que les protagonistes des activités économiques investissent dans leurs pratiques, ce mode de production « ergologique » produit des connaissances qui peuvent être qualifiées de « scientifiques », dans la mesure où elles sont le résultat à la fois d’une construction conceptuelle et d’une validation (ou d’une réfutation) par l’ensemble de ce qui autrefois avait été désigné par le terme de « communauté scientifique élargie » [21]. Autrement dit encore, si les économistes veulent copier le modèle des sciences dures, ils ne feront que de la mauvaise copie. Si, au contraire, ils acceptent de considérer qu’il y a une autre façon de faire, s’ils acceptent de quitter leur position d’experts en extériorité par rapport aux activités économiques et sociales, s’ils acceptent de confronter leurs propres savoirs à ceux de ce qu’il est convenu d’appeler les « agents économiques » (chefs d’entreprises, salariés, consommateurs, chômeurs, organisations syndicales, etc.), alors il est envisageable que la question ne soit même plus posée.