Comment expliquer que la “science lugubre”, celle qui pondère froidement les coûts et les bénéfices des alternatives du choix politique, se soit progressivement imposée comme conseillère légitime et incontournable des princes en matière climatique? Le Centre Cournot a convoqué un casting d'exception pour plancher sur la question et nous livre dans cet ouvrage les actes d'un colloque passionnant.
Stigmatisés pour leur incapacité à prévoir la crise de 2008, les économistes ont été paradoxalement assez épargnés par la polémique du "climate gate" qui a terni le sommet de Copenhague en décembre 2009. Le bien public “climat” les conduit en effet sur un terrain glissant dépourvu de l'étalon naturel et rassurant qu'est le “marché”. Incertitude radicale, enjeux de long terme, équité inter/intra générationnelle, autant de défis théoriques qui bousculent la vulgate de l'économie publique. Cet ouvrage – Changement de climat, changement d'économie – se demande ainsi si l’économie est bien outillée pour relever ces défis et fournir des repères normatifs pertinents à l’action publique. Epistémologie, réflexion théorique, histoire des sciences, géopolitique voilà les principaux ingrédients de ce dialogue stimulant entre économistes (dont deux Nobels) de très haut niveau.
Un panorama de l'économie du changement climatique
Olivier Godard rappelle que la discipline économique n’est pas homogène et propose une topologie du champ académique structuré autour de trois courants d’influence inégale :
• le courant néoclassique pour qui l'environnement est une collection de biens qui relève de la problématique générale de l’allocation optimale de ressources rares en fonction des préférences des agents individuels. William Nordhaus, concepteur du modèle intégré économie/climat DICE, fait figure d’initiateur de l'économie du changement climatique standard;
• l’économie écologique qui étudie l’économie humaine comme un système écologique à travers l’étude de transferts d’énergie, des interactions complexes entre l’économie humaine et le fonctionnement physique et biologique de la planète (Nicolas Georgescu-Roegen, Herman Daly, Robert Ayres etc.). L'ambition y est clairement interdisciplinaire en convoquant les théories de la thermodynamique, de l’information, de la biologie intégrative, et des systèmes;
• la socio-économie ou l'écodéveloppement (R. Passet, I. Sachs) centrés sur l’articulation entre les comportements d’utilisation des ressources naturelles et les institutions et normes sociales qui servent de médiations nécessaires entre l’homme et la nature.
Olivier Godard se demande, de façon ironique, si la théorie néoclassique qui domine indéniablement les deux autres courants est partie de la solution ou du problème climatique. Tout problème environnemental est en effet perçu par la théorie standard comme une défaillance de marché qui peut toujours être corrigée par l'action de l'Etat via l' "internalisation des effets externes". Le rôle de l’Etat consiste alors à révéler les coûts sociaux de l'émission de CO2 par exemple et de les faire payer via un instrument économique approprié (taxe, permis négociables) pour récupérer la richesse perdue et surtout modifier les comportements d’émissions. Mais comment déterminer le niveau optimal d'émission de CO2 ? Ce niveau n’est pas celui où il n’y aurait plus de pollution (son coût serait trop élevé) mais celui qui égalise le coût marginal des réductions d'émissions au dommage marginal évité par une telle réduction. Mais que se passe-t-il si ce niveau est supérieur au taux d’absorption naturelle du CO2 par la planète? Un processus d'accumulation dynamique des émissions et par suite de dégradation irréversible s'enclenche. Donc l’internalisation des externalités coupée de toute connaissance des phénomènes d'irréversibilités ou des effets de seuils critiques dans l'exploitation des ressources naturelles, ne rétablirait qu’une pseudo-efficacité économique et n’offrirait aucune garantie contre une catastrophe future.
Une plongée dans les grandes controverses de l’économie du changement climatique
La lutte contre le changement climatique représente à l’échelle mondiale une tentative d’internalisation des effets externes d’une ampleur inédite. Mais nul consensus n'existe sur l'intensité de l'effort à déployer. Il existe une ligne de fracture majeure parmi les économistes mise en scène par la controverse Nordhaus/Stern. Cette controverse oppose les partisans d'une action graduelle, qui insiste sur les coûts pour les générations présentes induits par une action trop volontariste alors que les bénéfices profiteront à des générations futures supposées plus riches et surtout mieux dotées en technologies pour faire face aux éventuels dérèglements climatiques, aux partisans d'une action immédiate qui serait bien moins coûteuse que l’inaction et devrait être perçue comme la meilleure assurance contre des changements climatiques potentiellement incontrôlables si les températures mondiales dépassent le seuil de +2°C. Une autre façon d’interpréter le problème revient à mesurer le coût d’opportunité de l’action. Est-il préférable d'investir aujourd'hui dans des capacités productives “business as usual” pour augmenter les revenus futurs ? Le développement serait ainsi le meilleur investissement pour protéger les pays pauvres contre les effets du changement climatique. Ou faut-il investir prioritairement dans des projets innovants faiblement intensifs en carbone pour réduire les dommages à venir car le changement climatique remettrait radicalement en cause les stratégies traditionnelles de développement ?
Les coûts de réduction des émissions ou les dommages sont de l’ordre de quelques pourcents de PIB (entre 1 et 5%) selon les évaluations. Mais les mêmes valeurs peuvent être interprétées comme tout à fait considérables (Martin Weitzman souhaiterait ainsi que les économistes soient plus transparents et disent au public la vérité sur les coûts) ou comme négligeables (Thomas Sterner rappelle que les coûts de l'action et leurs impacts sur la vie des populations sont à relativiser puisqu'ils engendrent seulement un ralentissement de la croissance des richesses et non un appauvrissement en valeur absolue).
Enfin, l’une des sources de variations numériques les plus importantes dans les évaluations des coûts et des dommages provient du taux d’actualisation (soit le poids du futur dans le calcul présent) retenu dans les analyses couts-bénéfices (ACB). Nicholas Stern est ainsi accusé par William Nordhaus d'utiliser un taux d’actualisation arbitrairement bas (ce qui donne relativement plus de poids au futur) pour justifier des politiques volontaristes de réduction d'émissions. Le débat très technique sur le bon taux d’actualisation pour apprécier les projets de long terme agite régulièrement le monde académique sans émouvoir le public. Or, intuitivement, il est aisé de saisir les effets du taux d’actualisation. En ramenant la valeur des dommages futurs à leur valeur actuelle, il “écrase” le futur et rend toute action présente relativement trop coûteuse, donc indésirable, puisque les dommages futurs ne valent rien.
Thomas Sterner propose une résolution très élégante de la controverse en montrant que les résultats de Stern peuvent être obtenus avec un taux d’actualisation à la Nordhaus. En introduisant dans la fonction d’utilité sociale un bien “environnement” subissant une dégradation continue, le bien environnement devient mécaniquement de plus en plus précieux par rapport aux autres biens de consommation et l'effet des prix relatifs finit par compenser exactement celui de l’actualisation. L'action immédiate redevient alors économiquement justifiée, sans avoir besoin de recourir à une “astuce” théorique dérangeante !
Le défi de l'incertitude
Pour Martin Weiztman l’économie n’aborde jamais l’incertitude avec enthousiasme car elle préfère le déterminisme qui lui permet de mener des analyses routinières d'une précision qui fait forte impression sur les décideurs. Il s'interroge ainsi sur la pertinence des ACB fondées sur la théorie de l'espérance d'utilité face à l’incertitude structurelle propre à la question climatique. La précision des résultats des ACB qui traitent le risque ou l'incertitude à l'aide de fonctions de probabilité normales (représentées par la belle cloche gaussienne) est en réalité trompeuse. L’hypothèse implicite de ce type d'analyses est que les catastrophes peu probables peuvent être négligées. Etant données les cascades d'incertitudes qui entourent les phénomènes climatiques, cette hypothèse est intenable et procure une fausse impression de sécurité. Martin Weitzman montre que les probabilités faibles des événements extrêmes, loin d’être négligeables, peuvent en fait peser très lourd dans les calculs.
D’où vient l’incertitude structurelle aux extrêmes ?
Une première source d'incertitude réside dans le passage de la teneur en gaz à effet de serre (GES) aux températures ou encore l'indice de "sensibilité climatique" (effet d'un doublement de la concentration en GES sur la hausse de la température moyenne). Selon le GIEC cet indice se situe probablement entre 2 et 4.5°C et des valeurs nettement supérieures à 4.5°C ne peuvent être exclues (15% des études). L'incertitude est dite structurelle car l’information empirique ne peut suffire pour apprendre – les événements extrêmes ne se produisant, par définition, que très rarement. En prenant en considération des phénomènes de rétroaction du carbone sur la libération de méthane piégé actuellement dans le permafrost ainsi que la saturation des capacités d’absorption des océans, la sensibilité climatique pourrait être supérieure a 20°C avec une probabilité de 1%. Une telle hausse des températures correspond à une destruction de la planète telle que nous la connaissons.
La deuxième source d'incertitude principale concerne le passage des températures à la sensibilité du bien-être des populations. Ainsi la valeur statistique de la civilisation telle que nous la connaissons serait la borne supérieure des dommages possibles. Mais l'évaluation socio-économique des dommages révèle tout un éventail de dommages possibles selon la sensibilité des sociétés aux changements climatiques.
Que peut dire une ACB face à ces différentes strates d’incertitudes structurelles cumulées ? La rigueur obligerait à reconnaître qu'elle est désemparée. Quel que soit le taux d’actualisation, la possibilité de la catastrophe pèse trop lourd dans l’ACB et conduit à des recommandations qui n’ont pas de pertinence politique réelle puisqu'il faudrait être prêt à sacrifier toute la richesse présente pour éviter une catastrophe future pourtant peu probable. Pour sauver l’ACB il faudrait ainsi parvenir à distinguer au sein de l’incertitude globale structurelle ce qui relève de l’incertitude radicale (à jamais irréductible en raison de la finitude de l'entendement humain) de ce qui relève de l’incertitude épistémique (issue seulement d'un manque de connaissance et donc potentiellement soluble).
Quelles conséquences pour l’action publique ?
Pour incarner ses réflexions théoriques Martin Weitzman se demande si nous sommes, par exemple, confrontés au même type d'incertitude face aux changements climatiques et face aux OGM ? Selon lui, les enjeux de la Frankenstein food ne sont pas de même nature. D'un côté il s'agit du destin de la planète, de l’autre d'une catastrophe écologique plus circonscrite dont les effets pourraient être connus avec précision par un simple effort de recherche accru. La controverse reste ouverte mais cette comparaison, ouvertement polémique, donne l'intuition que les décisions sous incertitudes ne sont pas toutes de même nature et qu'il existe des gradations dans l'incertitude.
De son côté, J-P. Dupuy tire des leçons beaucoup plus radicales de l’incertitude structurelle. Son plaidoyer pour un catastrophisme éclairé consiste à toujours retenir le scénario le plus pessimiste quand deux conditions sont réunies : 1/ lorsque l’incertitude est radicale, ce qui signifie qu’il est impossible de recourir à une ACB (le philosophe fait rapidement le deuil de l'outil préféré des économistes), non pour des raisons de faits (manque de connaissance) mais pour des raisons de droit : le changement climatique nous situe au-delà du domaine de la validité de l’analyse économique car s’il existe des seuils critiques dans la nature l’ACB n’a plus de pertinence ; 2/ lorsque les enjeux sont immenses : l’avenir de l’humanité est en danger. Mais que le lecteur ne s'y méprenne pas, le catastrophisme éclairé se veut aussi une critique radicale du principe de précaution qui serait piégé dans la normativité propre au calcul de probabilités en faisant comme si les efforts de recherche pouvaient réduire l'incertitude radicale en confondant alors cette dernière – issue de la finitude de l’entendement humain – avec l'incertitude épistémique – issue d'un déficit (résorbable) de connaissances.
Quelles stratégies géopolitiques pour sauver le climat?
Thomas Schelling, grand théoricien des jeux et stratège de la dissuasion nucléaire s'interroge sur les conditions d’un accord climatique international crédible. Il rappelle ainsi que les financements viendront nécessairement des générations présentes des pays riches tandis que les bénéfices profiteront principalement aux générations futures des pays pauvres. C'est pourquoi l'argument selon lequel le développement serait le meilleur investissement pour protéger les pays pauvres contre les effets du changement climatique est si puissant. Il en tire une conséquence d'une simplicité et d'un pragmatisme désarmant: comment intéresser les Américains au changement climatique alors qu’ils n’en souffriront que très peu? Et pour aller plus loin dans le refus de tout "angélisme onusien" il ajoute la question géopolitique suivante : comment inciter les pays à une coordination internationale d’une ampleur inégalée en temps de paix ? Bien que la coopération internationale soit bien souvent la meilleure stratégie individuelle des Etats selon Inge Kaul, il s’agit de comprendre ce que signifie imposer des "engagements contraignants". Qui forcera les Etats Unis ? Qui imposera au Guatemala de respecter ses engagements? Quelqu’un suggèrera-t-il d’utiliser la force ? Le recours à cette ultime menace qui a maintenu l’équilibre des forces et empêché le déclenchement d’un conflit nucléaire pendant la guerre froide parait en temps de paix et pour un tel enjeu (le climat) peu probable.
Selon Thomas Schelling les négociations depuis Kyoto font fausse route en se focalisant sur des résultats de long terme alors qu'il apparaîtrait beaucoup plus crédible de s’engager sur des choses à faire effectivement avec des échéances de court et moyen terme. Il propose également de renégocier au sein du G20 plutôt que de poursuivre un processus inefficace à plus de 180 pays. Ces engagements sur des actes vérifiables pourraient notamment porter sur la R&D en matière de capture et stockage du carbone par exemple ou encore sur le cas problématique de la géo-ingénierie (augmenter l’albédo de la Terre en injectant dans la stratosphère des particules ou des aérosols pour réfléchir les rayons du Soleil). Le problème et en même temps l'avantage de cette "effroyable" solution réside dans le fait qu'elle est incroyablement bon marché par rapport a toute stratégie de réduction des émissions. Ainsi elle est potentiellement à la portée d’un Etat seul et il est urgent de réfléchir dès maintenant à un cadre international qui en réglementerait l’usage. Et Thomas Schelling de prophétiser que ce débat ne fait que de s’ouvrir