Sans mettre en doute le réchauffement climatique observé ni les émissions à l’atmosphère de gaz absorbant le rayonnement infrarouge, trois questions centrales restent sans réponses correctement quantifiées, sans lesquelles aucune politique climatique autre que celle de l’adaptation progressive puisse se justifier : la sensibilité du climat aux contributions humaines, les inconvénients et les avantages pour l’humanité qu’induirait un climat généralement plus chaud, et l’évolution prévisible du climat selon les modifications imprévisibles de l’activité humaine.
À ce jour, aucune observation faite dans notre système climatique ne permet de discriminer les effets anthropiques des variations naturelles.
On en reste à des conjectures et autres spéculations, tant sur le passé récent que sur l’avenir. Pour cela les climatologues développent des modèles avec lesquels ils peuvent tester leurs hypothèses. Or, à l’évidence, ces modèles surchauffent.
Pour en vérifier la validité, l’évolution du climat doit être reconstruite a posteriori (hindcasting). Il est alors possible de comparer les résultats des modèles avec la réalité observée.
102 modèles "déraillent"
Voici ce que donnent de telles reconstructions, faites avec 102 modèles issus d’institutions différentes de par le monde, comparées avec des séries d’observations faites par des ballons sondes et des satellites entre 1979 et 2016.
Figure 1 Comparaison de l’évolution des anomalies de température de la troposphère moyenne entre modèles climatiques et observations par ballons sondes et satellites pour la période 1979-2016.
La courbe rouge représente la moyenne des résultats des modèles lissés sur 5 ans.
Source : J. C. Christy, University of Alabama at Huntsville. Présenté ainsi au Sénat américain.

Au cours de cette période, la température de la troposphère moyenne mesurée au-dessus des tropiques (prise ici comme exemple) a augmenté de 0.11 °C par décennie (entre 0.07 et 0.17), alors que selon ces même modèles, le réchauffement aurait dû s’élever de 2.7 °C par décennie (entre 0.12 et 0.46).
Cette différence est statistiquement significative. Depuis 1998, le réchauffement global de la basse troposphère n’est plus que de 0.02 °C par décennie, c’est pourquoi la période actuelle est appelée « pause », sans doute dans l’espérance que le réchauffement reprenne bientôt un cours plus virulent.
Figure 2 Taux de réchauffement de la troposphère moyenne dans les tropiques sur la période 1979-2016 (en °C par décennie) recalculés a posteriori par 102 modèles (série bleue à gauche) et mesurés par 13 moyens d’’observation (série verte à droite, ballons sondes, satellites).
Les lignes trait-tillées max et min délimitent un intervalle de confiance à 95% pour chacun de ces groupes.
Source : J.C. Christy, University of Alabama at Huntsville.

Vus d’une autre manière, ces résultats se distribuent selon l’histogramme suivant :
Figure 3 Distribution des résultats de 102 modèles (en bleu) et de 13 séries d’observations (en jaune).

Les modèles paraissent distribués de manière « normale » autour d’une moyenne mais seulement deux d’entre eux chevauchent le domaine des observations, le plus proche étant d’origine russe.
Discussion
Il n’est pas vraisemblable que les observations soient erronées, même si les modélistes ont la mauvaise habitude de parler d’expérience (experiment) chaque fois qu’ils font tourner un ensemble sur leurs super-ordinateurs, c’est-à-dire en effectuant plusieurs répétitions d’un scénario ayant les mêmes paramètres en en variant ses conditions initiales. Jusqu’à preuve du contraire, les résultats in vivopriment sur ceux obtenus in silico.
Si des modèles variés sont élaborés par des équipes concurrentes, il faudrait s’attendre à ce que leurs résultats ne convergent pas vers une moyenne.
Et s’ils le faisaient, cette moyenne devrait alors correspondre à la réalité, à la vraie valeur.
La distribution constatée et la grande inexactitude indiquent que ces modèles seraient tous de même nature, qu’ils approximent le système climatique par des méthodes et suppositions analogues. Il n’y a que deux valeurs extrêmes, dont une seule (modèle d’origine russe) touche la cible au bon endroit, et qui mériterait d’être mieux comprise.
Est-ce l’effet d’un bienheureux hasard ou celui de considérations bien délibérées ?
Il est indéniable qu’à deux exceptions près ces modèles surchauffent, d’un facteur 2.5 environ. Les explications qui sont faites ne sont pas satisfaisantes car trop souvent ce sont avec d’autres modèles que les premiers sont soumis à examen.
La seule explication plausible de cette différence est qu’une ou plusieurs erreurs systématiques sont commises qui poussent à l’exagération ou qui s’auto-amplifient au fur et à mesure que le modèle tourne (par itération selon l’axe du temps).
Les causes possibles d’erreurs systématiques sont pourtant nombreuses.
Une prise en compte erronée des rétroactions (de Rougemont 2016), des phénomènes connus qui ne sont calculés que par approximation, la grossièreté des modèles tendant à amplifier les instabilités (Bellprat and Doblas-Reyes 2016), les phénomènes connus mais incalculables qui ne sont pas pris en compte, ou alors le sont mais comme des boîtes noires très rudimentaires, les phénomènes inconnus qui le restent.
Aussi, la calibration des modèles sur une même période de référence et à l’aide de paramètres particulièrement orientés vers la mise en valeur des gaz à effet de serre contribuera à un biais systématique.
Autre cas compliqué, lecteur accroche-toi : souvent, pour expliquer des observations en contradiction avec les projections calculées, les modélistes éliminent la part anthropogène de leurs algorithmes (surtout l’effet du CO2) et recalculent ce qui aurait dû se passer sans l’influence humaine pendant la même période.
Constatant par exemple que de tels modèles « revenus à la seule nature » ne prévoient pas de réchauffement entre 1979 et 2016, ils se permettent alors d’attribuer tout de go le réchauffement effectivement constaté aux activités humaine (Santer et al. 2017).
On ose même parler de preuve. Le modèle, artefact de l’homme incluant toutes ses impérities, sert alors de référence : si le système ne répond pas comme le prévoirait une tendance calculée sui generis (« internally generated trend »), alors toute déviation constatée sera anthropique.
Cette manière de faire est tautologique : j’ai raison parce que j’ai raison. Elle est pervasive dans les articles scientifiques et dans les revues qui en sont faites, surtout le cinquième rapport du GIEC. On y montre des courbes de distributions de probabilité qui sont centrées sur une moyenne de résultats de modèles, analogues aux barres bleues de la Figure 3, sans se préoccuper de l’exactitude de cette moyenne. Il ne semble pas que les climatologues, les activistes d’entre eux bien entendu, comprennent l’exigence d’exactitude qui leur est demandée.
Il y a donc une certitude : celle que la modélisation n’est pas [encore] adéquate. Nier cela est une folie, seulement explicable par une hystérie collective des apologistes de la causa climatica.
Si cela restait à l’intérieur d’une communauté scientifique à la recherche d’une vérité qui lui échappe, cela ne serait pas grave, bien au contraire. Mais lorsque cela déborde sur les politiques publiques, tel l’accord de Paris et les engagements des parties contractantes, alors le risque est plus que probable que les mesures proposées ne servent à rien et que les énormes moyens à engager ne soient destinés qu’au gaspillage. C’est bête et injuste.
Bellprat, Omar, and Francisco Doblas-Reyes. 2016. “Attribution of Extreme Weather and Climate Events Overestimated by Unreliable Climate Simulations.” Geophysical Research Letters 43(5): 2158–64. http://doi.wiley.com/10.1002/2015GL067189.
de Rougemont, Michel. 2016. “An Estimate Based on a Simple Radiative Forcing and Feedback System.” : 1–8. http://bit.ly/2xG50Tn
Santer, Benjamin D. et al. 2017. “Tropospheric Warming Over The Past Two Decades.” Scientific Reports 7(1): 2336. http://www.nature.com/articles/s41598-017-02520-7.