Par MD
La COP26 va enfin se tenir dans la bonne ville de Glasgow. Wikipedia nous apprend que Glasgow dérive du brittonique Glascu, composé de glas « vert » et de cu « creux ». Mauvais présage. Un bon vent au large des côtes écossaises évitera-t-il le black-out tant redouté outre-Manche ?
On trouvera dans cet article quelques graphiques qui (ne) seront certainement (pas) présentés aux congressistes. Les observations relevées depuis la fameuse COP21 de Paris de fin 2015 sont renforcées en gras.
1/ Températures globales (depuis 1979, année origine des relevés par satellites et ballons-sondes).
Les données proviennent de quatre organismes bien connus : Hadley Center, Remote sensing system (RSS), University of Alabama Huntsville (UAH), GISS (NASA).
Les quatre séries de données diffèrent essentiellement par leurs périodes de références. Les allures générales sont à peu près concordantes. Agrandissement pour les sept dernières années (octobre 2014-septembre 2021).
Comme par le passé, les « experts » ne manqueront pas de trouver nombre d’explications ingénieuses pour expliquer pourquoi les températures sont restées tendanciellement stables depuis sept ans.
2/ Comparaison avec les pronostics de GIEC.
A Paris fin 2015, les congressistes ne disposaient encore que du cinquième rapport du GIEC dit « AR5 », dans lequel on pouvait trouver (fig TS14 page 87) un diagramme des projections d’évolution des températures selon 138 « modèles » élaborés par des équipes internationales. A titre de vérification, on a superposé à ce diagramme l’évolution réelle des températures calculées par Hadley Center (indicateur Hadcrut4 ; pour 2021, extrapolation des 9 premiers mois).
Le résultat est intéressant. Il montre que jusqu’à présent les températures réelles peinent à se maintenir dans le bas du chevelu, ce qui devrait inciter « les scientifiques » à être plus modestes, faute pour la nature de se plier à leurs injonctions.
3/ Détail des températures relevées par Hadley Center.
Hadley Center, outre l’indicateur global Hadcrut4, publie mensuellement des séries désignées respectivement par Hadsst3 pour les océans, Crutem4v pour les terres émergées, et ceci pour chacun des deux hémisphères. Le graphique suivant représente les évolutions respectives de ces indicateurs.
Pendant cette période, les terres se sont réchauffées plus que les océans, et par conséquent l’hémisphère nord plus que l’hémisphère sud. Les températures des terres émergées présentent une grande variabilité interannuelle, contrairement aux océans, probablement du fait d’une plus grande inertie thermique (rappelons qu’ils occupent 70% de la surface de la planète). Agrandissement pour les sept dernières années (octobre 2014-septembre 2021).
L’espèce de palier observé depuis sept ans s’étend indistinctement à ces quatre divisions du globe terrestre, à des niveaux différents.
4/ Emissions de CO2.
On sait l’importance que le monde entier accorde à ce gaz vital réputé soudainement maléfique. Les émissions dites « anthropiques » sont donc scrutées par une multitude d’organismes qui déplorent l’augmentation continuelle de ces émissions et prescrivent d’y mettre fin sans tarder. Le graphique présenté ici représente les émissions résultant de la combustion de énergies fossiles.
Las ! le monde ne s’est pas conformé aux prescriptions de ses mentors politiques et moraux. Après la diminution brusque de 2020 due à la pandémie, les émissions, loin de continuer à diminuer, seront revenues en 2021 à leur niveau de 2019, voire plus. Les besoins en énergie ont repris leur cours normal, à la surprise générale (sauf des lecteurs de MM&M). D’où les déconvenues qui défraient actuellement la chronique.
5/ Concentrations en CO2.
Ces concentrations sont notamment mesurées par la NOAA (station de Mauna Loa, Hawaï). Les variations saisonnières au cours de l’année sont bien visibles, avec un maximum vers mai et un minimum vers septembre.
Agrandissement pour les sept dernières années (octobre 2014-octobre 2021). Le pointillé représente les moyennes annuelles.
6/ Variations mensuelles de la concentration en CO2. Une représentation classique consiste à comparer la concentration en CO2 lors d’un mois donné de l’année n avec le même mois de l’année précédente n-1, ce qui élimine l’influence des variations saisonnières.
Agrandissement pour les sept dernières années (octobre 2014-octobre 2021). Le pointillé représente la moyenne mobile sur 12 mois.
On voit que ces variations ont été erratiques, tout en restant centrées sur une valeur moyenne de l’ordre de +2,5 ppm par an.
En résumé, depuis sept ans, la concentration en CO2 a continué à augmenter. Elle s’est accrue de 17 ppm pendant cette période. On a déjà expliqué pourquoi la baisse – modeste – des émissions en 2020 n’avait pas pu avoir d’influence discernable sur la concentration de CO2 dans l’atmosphère. Ne confondons pas flux et stock.
7/ Variations mensuelles des concentrations en CO2 et des températures.
Par conséquent, depuis la COP21, l’augmentation de la concentration en CO2 n’a pas entraîné d’augmentation de la température. On se contentera de l’observer sans en tirer de conclusions vue la brièveté de la période.
On peut entrer plus avant dans la comparaison entre ces deux paramètres en représentant sur un même graphique les températures et les variations mensuelles de concentration en CO2 (pour éliminer la tendance).
Il existe manifestement une certaine analogie entre les courbes. La question de savoir quel phénomène commande l’autre agite les spécialistes depuis des décennies. Ne nous mêlons pas de cette querelle.
8/ Conclusion.
Au fond, la COP26 pourrait être l’occasion d’une réjouissance collective. En effet, si on avait bien compris, l’« objectif » fixé à Paris il y a six ans était que les températures se stabilisent, ou au moins n’augmentent plus de façon significative. On vient de voir que c’est bien cette tendance qui est observé depuis lors, au-delà de la variabilité des différents indicateurs. On peut être partagé entre « pourvu que ça dure » ou « c’est toujours ça de pris ». Certes, la concentration en CO2 a continué à augmenter. Et alors ? Illustration supplémentaire de la discordance entre « modèles » théoriques et observations. Voilà des sujets sur lesquels les congressistes pourraient disserter au cours de leur solennelle et rituelle causerie. Tant qu’on y sera, on pourra aussi évaluer leur état de conscience et de vigilance sur l’« échelle de Glasgow ® ».
P.S. Les lecteurs attentifs ne manqueront pas de relever des analogies avec l’article de l’an dernier. Que voulez-vous, on n’a jamais le choix qu’entre se répéter ou se contredire.
Merci, c’est avec ces courbes que l’on peut essayer de convaincre…
J’aimeJ’aime
Les inondations côtières et les mauvaises récoltes créeraient un exode de ″éco-réfugiés » menaçant le chaos politique, a déclaré Noel Brown, directeur du bureau de New York du Programme des Nations unies pour l’environnement, ou PNUE.
Selon lui, les gouvernements ont une fenêtre d’opportunité de 10 ans pour résoudre l’effet de serre avant qu’il n’échappe au contrôle humain.
À mesure que le réchauffement fera fondre les calottes polaires, le niveau des océans augmentera de près d’un mètre, ce qui suffira à recouvrir les Maldives et d’autres îles plates, a déclaré M. Brown dans une interview accordée mercredi à l’Associated Press.
Les régions côtières seront inondées ; un sixième du Bangladesh pourrait être inondé, ce qui entraînerait le déplacement d’un quart de ses 90 millions d’habitants. Un cinquième des terres arables de l’Égypte dans le delta du Nil serait inondé, coupant son approvisionnement alimentaire, selon une étude conjointe du PNUE et de l’Agence américaine de protection de l’environnement.
″Les réfugiés écologiques deviendront une préoccupation majeure, et ce qui est pire, c’est que vous pouvez constater que les gens peuvent se déplacer vers des terres plus sèches, mais les sols et les ressources naturelles peuvent ne pas soutenir la vie. L’Afrique n’a pas à s’inquiéter des terres, mais voudriez-vous vivre dans le Sahara ?″ a-t-il dit.
Le PNUE estime qu’il en coûterait au moins 100 milliards de dollars aux États-Unis pour protéger sa seule côte est.
L’évolution des schémas climatiques ramènerait les conditions du Dust Bowl des années 1930 sur les terres à blé canadiennes et américaines, tandis que l’Union soviétique pourrait faire des récoltes exceptionnelles si elle adapte son agriculture à temps, selon une étude du PNUE et de l’Institut international pour l’analyse des systèmes appliqués.
Selon l’étude, l’excès de dioxyde de carbone se déverse dans l’atmosphère en raison de l’utilisation par l’humanité de combustibles fossiles et de la combustion des forêts tropicales. L’atmosphère retient plus de chaleur qu’elle n’en émet, un peu comme une serre.
Selon les estimations scientifiques les plus prudentes, la température de la Terre augmentera de 1 à 7 degrés au cours des 30 prochaines années, a déclaré M. Brown.
Article AP News de 1989
apnews.com/article /bd45c372caf118ec99964ea547880cd0
J’aimeJ’aime
Paul Aubrin
Merci pour ce rappel. Rappelons aussi que ce sont ces prévisions délirantes (avec quelques autres) qui ont contribué à alimenter le sommet de Rio trois ans après, en 1972.
Au passage, en trente ans (1989-2019), la température n’a pas augmenté de « 1° à 7° » mais d’environ 0,5° à 0,6°. Tout le monde peut se tromper.
Cordialement
MD
J’aimeJ’aime
Je voulais dire 1992, évidemment. Preuve supplémentaire que tout le monde peut se tromper.
MD
J’aimeJ’aime
Bonjour, et merci pour cet article. La chose qui m’est apparu toujours la plus invraisemblable dans ces modèles, c’est que personne ne s’inquiète de la validation logicielle. Ayant pas mal travaillé dans l’aéronautique et ma femme surtout (avec les autorités de certification européenne EASA, et américaine FAA), on sait très bien que dans un logiciel, l’essentiel ce ne sont pas les lignes de code qu’on « pisse à l’envie », mais la validation. Les lignes de code dans l’aéronautique sont les plus chères du monde. Pour donner une image, on passe 49% du temps au début à spécifier ce qu’on veut, 49% à la fin à vérifier que ça fait bien ce qu’on voulait, et 2% du temps au milieu à écrire le logiciel. C’est imagé, mais ça ne doit pas être très loin.
C’est en travaillant comme ça qu’on parvient sans incident ou très peu, à trimballer tous les jours des milliers de personnes à 900km/h et 10000m d’altitude, en leur servant une coupe de champagne.
Dans le cas des modèles du GIEC qui donnent ces spaghettis multicolores incohérents, franchement, je donnerais ma selle et mes bottes pour qu’on me montre leurs plans de validation logicielle, et j’enverrai bien ma femme faire un petit audit juste pour aller voir si au moins, ils se sont posés la question de la validation. Quand on pense aux milliards qu’ils dépensent pour des logiciels sans doute non validés, incohérents entre eux, et qui en final, nous feront dépenser conséquemment d’autres milliards pour des décisions politiques stupides sur l’énergie.
Pourtant, la matière est là pour faire des validations. Il y a le passé récent ou même lointain. Mais sans doute sont-ils incapables de modéliser le passé. Alors pourquoi serait-on capable de modéliser le futur ? Pour qu’ils se remettent en question une seconde, on devrait obliger ces gens à venir à Glasgow dans un avion équipé d’un logiciel conçu par eux histoire de leur faire . Pardon, c’est méchant mais ça m’est passé par la tête.
Amicalement Dominique
J’aimeAimé par 1 personne
C’est parti tout seul ! Complément : « … histoire de leur faire appréhender le concept de validation… »
J’aimeJ’aime
Tu parles de 3 conditions pour les modèles sur lesquels s’appuient la décision :
– le modèle théorique
– le code
– la validation des modèles par le réel (observations).
Tu n’as parlé un paramètre fondamental : la qualité des données entrantes dans le modèle ou utilisées lors de l’étape de validation car si elles sont biasées, ou même en partie, l’accident n’est pas loin, au moins dans quelques situations qui seront générées par ces lots de mauvaises données.
J’ai des exemples très concrets en risques et pollutions sur ce point.
Par exemple, sur le site georisques.gouv.fr, qui présentent les risques et pollutions en France, notamment en les localisant géographiquement (ok, ce n’est pas un modèle mais un affichage des données). On peut trouver les ICPE ou les sites à risques de pollution BASIAS dans un rayon de 500 m autour de chez soi. J’ai trouvé plein de ces sites localisés à plus de 1km de leur position réelle (ils peuvent être donc au droit de l’immeuble sélectionné sans que le site ne les mentionne).
Et que se passe t-il ? Mes concurrents vendent des prestations générées automatiquement via ces données (en disant que la source est le Ministère de l’écologie). Je m’y refuse par déontologie connaissant les failles multiples dans ces données mais comme le Ministère qui les affiche lui-même (avec un petit astérisque perdu dans un fichier CGU que personne ne lira mentionnant qu’il pourrait y avoir des erreurs).
Donc, il n’y a pas que le code et sa validation mais aussi la qualité des données, probalement bien plus importante dans la faillite des modèles. Et il n’y a pas que la climatologie qui est concernée mais aussi la gestion des risques majeurs et des pollutions.
Comme je le dis souvent, une erreur dans les données entrantes dans un programme et qui se répercute par un affichage de pubs sur internet non ciblé n’est pas très grave.
Mais dans des domaines aux enjeux majeurs (climat, gestion de risques), ce n’est tout simplement pas acceptable. Mais il y a cette attractivité si forte des résultats des modèles informatiques, pour ceux qui n’y connaissent rien…
J’aimeJ’aime
Bonjour Cédric, en effet la qualité des données entrantes importe tout autant que le code. Mais sinon, la première chose qu’un auditeur demanderait s’il était sollicité pour les simulateurs du GIEC c’est : « Prouvez-moi que le climat est modélisable ! » Car la démonstration n’a jamais été faite, et ça ne coule pas de source pour un système chaotique. Qui sait si un simple battement d’aile de papillon n’aurait pas empêcher l’optimum médiéval, ou le petit age glaciaire ? Et si ce n’est pas le cas, pourquoi ont-ils eu lieu ? Tant qu’on ne sait pas répondre à ça pour le passé, il est illusoire de prétendre prédire l’avenir.
J’aimeAimé par 1 personne
@Dominique et Cedric
Cette discussion sur les modèles aurait été mieux placée en commentaires du récent billet de François Gervais concernant le prix nobel de physique mais tant pis. Mieux vaut ici que pas du tout car ces modèles foireux sont bien le point central de toute cette hystérie climatique.
Je mets en lien cet article remarquable qui va tout à fait dans le sens de ce que vous dites tous les deux:
https://www.europeanscientist.com/fr/opinion/climat-crise-sanitaire-les-derapages-de-la-modelisation-numerique/
J’aimeJ’aime
@HUG Ah bein les modèles sur la crise sanitaire nous prédisaient le pire en Afrique en début d’épidémie et les commentaires fusaient « Nous en Europe avec nos structures sanitaires et nos états forts, on va bien gérer tandis que l’Afrique va sombrer ».
J’ai bien résisté à ces prévisions mais comme elles étaient avancées par l’OMS, tout le monde croyait à une source fiable. J’avais même des harcellements pour oser y résister.
C’est tellement ridicule.
C’est l’inverse qui s’est passé. L’Europe, arrogante, a pris la crise à la légère alors que des décisions très fortes ont été prises par les états africains comme la fermeture des frontières pour éviter l’arrivée en masse des cas infectieux tandisque l’Europe, avec sa population de vieux, se croyait à l’abri et parlait de gripette.
Cela fait mal à l’Europe une telle déconnexion vis à vis du réel.
C’est pareil avec le CO2.
J’aimeJ’aime
Dominique, Cedric et Hug. Au contraire, ces commentaire sur les « modèles » sont tout à fait approprié au thème de mon article. Je recommande vivement la lecture de l’article de Marc Rameaux (European Scientist) dont Hug donne le lien, Il y est notamment question des « modèles » du GIEC.
Cordialement
J’aimeAimé par 1 personne
@MD Oui très bon article donné par Hug, de haut niveau.
Je crois que le problème que l’on rencontre sur l’acceptabilité des modèles (utilisez simulations svp) est causé par une déficience dans la méthodologie journalistique. J’explique : un journaliste ne pourra jamais se faire sanctionner s’il avance des résultats de source fiable (et non des résultats fiables). Ainsi, les résultats des modèles dans les rapports de l’OMS et du GIEC sont relayés dans les médias car issus de source fiable (Nations Unies quand même). Pour la presse, la fiabilité de la source compte plus que l’incertitude qui entoure le résultat dans la source et notamment pour les prévisions du modèle. Du coup, les résultats douteux du modèle paraissent comme fiables (à cause de la source), envahissent le champ informatif, modèlent l’opinion et poussent le politique à la décision. Il faut donc vraiment que les journalistes fassent un réel travail sur cette carrence dans leur méthodologie sinon, on ne s’en sortira pas de si tôt.
Je sors du sujet, j’apprécie la fin de cet article sur les métaverses, un horizon humain auquel nous ne pensons pas assez mais qui se dessine déjà avec les réseaux sociaux (avatar, communautés virtuelles, captologie…) et certains jeux en ligne. D’ailleurs, j’ai assisté à une conférence internationale climato-réaliste dans le métaverse I-Life avec une visite guidée des îles madives finement modélisées et nappés d’un paysage réel, de grands spécialistes pour nous expliquer que ces îles ne coulaient pas, avec des sites spécifiques aux Maldives visitables, des animations 3d qui y apparaissaient à des endroits clefs et des interprètes pro connectés qui traduisaient dans l’instant les scientifiques qui nous guidaient ou les questions qu’on leur posait.
Les organisateurs avaient même créé un timelaps accéléré sur les 100 dernières années sur le port Kulhudhufushi : les invités étaient situés en bord du quai et l’on y voyait que le niveau moyen de la mer n’évoluait presque pas alors que les navires qui y accostaient avaient bien changé sur tout le siècle. Au passage, j’ai pris la carte virtuelle de visite de Steve Mac Intyre, très accessible, avec qui on a rigolé, notamment sur l’autre site des Maldives dans le métaverse, celui créé par le gouvernement des Maldives, avec des prévisions catastrophistes pour les 100 prochaines années, où se sont pressés les politiques, les ONG, les fonctionnaires des Nations Unies et les journalistes. On y voyait des grosses affiches d’une mutltinationale de BTP, issue d’un projet mature de GoogleX, écolo-vertueuse et qui s’engageait à résoudre les problèmes posés par l’élévation du niveau marin par un système de contre-subsidence très innovant mais un peu obscure (pour des raisons de brevet sur l’invention) qui permettrait de sustenter les îles pour qu’elles ne soient pas englouties. La Banque mondiale a validé le projet après sa visite du métaverse, va déclencer un financement de 150 000 milliards de UnitedCoins et garantie ses résultats dans le réel de lîle (sauf tsunami). Par contre, le site climato-réaliste des Maldives dans I-Life est sur le point d’être censuré par FaKebook qui a développé ce métaverse, sous prétexte de désinformation criminelle.
(nan, je déconne mais tout cela sera possible dans le métaverse sur les années qui viennent ;).
J’aimeJ’aime
Sans parler du « tuning » ou « réglage » des modèles qui sont « réglés » (en l’occurrence comprendre « bricolés ») pour « obtenir les propriétés souhaitées » ( source Hourdin et all, repris par Steven Koonin* dans son livre Unsettled p85 et 86) ….ce qui en dit long sur la déontologie de la « science climatique ».
En réalité, ces outils sont eux-mêmes des objets de recherche très incertains (compte tenu de la complexité du sujet) et rien d’autre.
Le message à faire passer est : la science climatique est immature et l’otage d’idéologues.
C’est la démonstration documentée et précise de Steven Koonin dont le livre récent n’est malheureusement pas traduit en français.
* Steven Koonin est physicien et ancien sous secrétaire d’Etat à la science dans le DOE de l’administration Obama. Le titre du livre est ( traduit par mes soins en français : Unsettled : Instable, ce que la science du climat nous dit, ce qu’elle ne nous dit pas et pourquoi cela pose un problème. )
J’aimeAimé par 1 personne
« Unsettled », ce serait plutôt traduit par « Non, le débat n’est pas clos », en opposition au fameux « The debate is settled. Climate change is a fact. » de Obama
(En français on ne pourrait pas ne mettre qu’un seul mot car ça fait référence à ce tweet de Obama : https://twitter.com/barackobama/status/428355988098265088?lang=fr)
J’aimeJ’aime
Le « C’est faux donc c’est vrai » ou quelque chose d’approchant dans le 1984 d’Orwell, colle très bien avec les modèles « prédictifs » « validés » (pardon Dominique Cresley) par le GIEC/IPCC
J’aimeJ’aime
Merci beaucoup pour cette nécessaire et salvatrice analyse.
Je répercute dans mon entourage.
Excellente journée et bon courage.
J’aimeJ’aime
Le plus extraordinaire est que l’on confie notre vie (les contraintes qui pèsent sur nous, notre pouvoir d’achat, le détournement de centaines de millard de dollars d’utilisations potentiellement bien meilleures…) à des algorithmes douteux. J’étais jeune scientifique lorsque l’informatique est arrivée en masse dans les labos. Le directeur de notre centre de recherches fulminait alors contre le fait que les chercheurs passaient déjà plus de temps à calculer au’à réfléchir! Cela n’a fait qu’empirer: plus grand monde ne s’interesse à creuser le fondement des choses et même les meilleurs esprits sont sujets à l’addiction informatique. Il y a un parallèle interessant à faire entre la modélisation de la circulation du Covid19 et celle des phénomènes climatiques: la modélisation par agents (telle que très largement utilisée dans les approches SIR –Susceptible Infected Recovered–) est analogue à une résolution d’équations différentielles par des méthodes numériques. Dans les deux cas, la discretisation spatiale efface de nombreux effets qui doivent être réintégrés artificiellement via une accumulation de paramètres, pour la plupart sans justification expérimentale. Pire, dans le cas de la modélisation du C19 la dynamique de la variable majeure qui détermine l’impact global de la propagation, à savoir l’évolution dans le temps et l’espace de la dangerosité du virus au fil de ses multiples mutations, est complètement inconnue. Il semble que l’on monte partout des échafaudages qui ne reposent sur aucun socle solide.
J’aimeAimé par 1 personne
Très intéressant! Le graphe du paragraphe 2 est très parlant: on se situe tout en bas de l’éventail des prévisions. Est-ce qu’il existe des comparatifs similaires établis entre la situation actuelle et les pronostics publiées dans des rapports du GIEC plus anciens que celui de 2015. Est-ce qu’un tel comparatif démontrerait de façon encore plus évidente l’écart entre la réalité, finalement assez sobre, et l’alarmisme des prévisions? Ou bien est-ce seulement dans les quelques dernières années que ce « plateau » est apparu, et que la distorsion avec les prévisions anciennes se révèle?
J’aimeJ’aime
Philippe Cassagne.
Votre question tombe à pic, jugez-en
Il y a exactement 8 ans, le 14 octobre 2013, Roy Spencer publiait un article intitulé « Maybe that IPCC 95% certainty was correct after all », avec un graphique comparant les projections de 90 « modèles » (CMIP5) avec les mesures Hadcrut et UAH (qui se terminaient en 2012 à l’époque).
On peut trouver l’article dans ses archives du mois d’octobre 2013
http://www.drroyspencer.com/2013/10/
Le graphique est édifiant
Cordialement
MD
PS J’avais publié en mars 2014 sur un autre site un article reproduisant ce graph.
J’aimeJ’aime
Quand je compare la fameuse courbe en forme de cross de hockey avec les graphes présentés ci-dessus, je rigole !
Pas vous ?
Climatiquement vôtre. JEAN
J’aimeJ’aime
Concernant la variation du taux de CO2 au cours du temps, on peut calculer un taux moyen annuel en faisant la somme des taux mensuels donnés par la NOAA pour les 12 mois de l’année et en divisant par 12. On obtient ainsi une courbe des taux moyens annuels entre 1998 et 2020. J’ai limité à cette période de temps. La courbe de tendance qui donne les meilleurs résultats (R2=0,99944) est une courbe du second degré : Taux(ppm) = 0,021×2 + 1,6565x + 364,93 (avec 1998 année 1 et 2020 année 23). La dérivée première de cette courbe donne la variation de la vitesse de croissance du taux, et la dérivée seconde son accélération. Cette accélération est constante, du moins sur cet intervalle de temps, Sa valeur est 0,042, mais ce résultat permet sans doute de faire une évaluation du taux de CO2 pour les 5 à 10 années suivantes. On obtiendrait ainsi pour 2025 la valeur de 427,8 ppm (±0,6 ppm).
J’aimeJ’aime