Par MD.
“La question ne sera pas posée”
(le président Delegorgue au procès de l’« affaire », 1898).
Introduction.
Il y a tout juste un an, on écrivait ici même : « Célèbrerons-nous dans un an les « huit années les plus chaudes » ? On a gagné. Du coup, les convulsionnaires médiatico-politico-scientifiques sont entrés dans leurs transes rituelles. Et d’entonner l’hymne à la « cinquième – ou sixième – année la plus chaude » preuve du « dérèglement climatique ».
Nous commençons à être habitués à cette antienne. En effet, voici tantôt huit ans que les « températures globales » marquent une sorte de palier ou de « pause ». Les quelques graphiques qui suivent permettent d’illustrer et de détailler cette situation climatique temporaire, qui n’est d’ailleurs pas sans précédents.
Sources.
Les données numériques proviennent de quatre sources bien connues et généralement peu contestées. Les séries de températures y sont exprimées en termes d’« anomalies ». Ce terme désigne les écarts de températures par rapport à des périodes étalons – de trente ans en général – différentes selon les sources.
Deux organismes utilisent des données thermométriques combinant températures de l’air ambiant au-dessus des continents et températures de l’eau en surface des océans :
–GISS : NASA, Goddard institute for space studies. Indicateur Gistemp4 (référence 1951-1980).
–Hadley Center et CRU. Indicateur Hadcrut5 (référence 1961-1990).
Deux organismes interprètent depuis 1979 des mesures composites par satellites et ballons-sondes :
–RSS : Remote sensing system. Indicateur RSS-v4 (référence 1979-1998).
–UAH : University Alabama Huntsville. Indicateur UAH 6.0 (référence 1981-2010).
Evolution des températures globales entre 1979 et 2022.
Le graphique ci-dessous limité à la période des satellites (1979-2022) superpose ces quatre séries de températures annuelles pour l’ensemble du globe terrestre.Les courbes présentent des allures générales peu différentes, se distinguant surtout par leurs périodes de référence (les courbes Gistemp4 et Hadcrut5 se déduisent approximativement l’une de l’autre par une translation de 0,07°C correspondant au décalage de dix ans entre les deux références). Sur les 44 années d’observations, les températures ont augmenté d’environ 0,6°C. Les écarts interannuels sont plus ou moins marqués, avec des pics qui sont généralement attribuées au phénomène d’oscillation australe dit ENSO (El Niño Southern oscillation) et des périodes de relative stabilité comme la période actuelle.
On peut illustrer le même phénomène en superposant cette fois les températures mensuelles (pour une meilleurs lisibilité la courbe Gistemp4 a été atténuée).La représentation est moins claire mais les paliers successifs sont visibles, notamment le dernier en date.
-Evolution des températures par tranches de latitudes.
Voici à titre d’exemple les séries Gistemp4 du GISS qui détaillent les températures annuelles moyennes par tranches de latitudes.Les continents se réchauffent plus vite que les océans et par conséquent l’hémisphère nord plus que l’hémisphère sud, ce dernier étant essentiellement maritime. D’où un gradient nord-sud manifeste. Mais attention aux différences de superficies. La représentation ci-dessous fournit une image relativement fidèle des superficies respectives des tranches de latitudes retenues par le GISS.
Par exemple les zones circumpolaires (64°-90° N et S) ne représentent chacune que 5% de la surface terrestre. En comparaison, les zones intertropicales (24°N-EQU-24°S) figurées en carmin représentent 41% de la surface terrestre, d’où leur influence marquée sur la température moyenne du globe.
Les relevés par satellites racontent une histoire analogue comme le montre RSS (attention : le découpage choisi est différent et il y a des chevauchements de zones). Rappelons que les zones polaires sont imparfaitement couvertes par ce type de mesure indirecte.
-Evolution des températures entre océans et continents.
Selon Hadley Center.
Evolution des températures globales des huit dernières années (2015-2022).
Voyons maintenant le détail des huit années « les plus chaudes » de l’histoire récente. En températures relatives mensuelles et selon les quatre sources précédentes.
-Par tranches de latitudes selon RSS.
-Entre continents et océans selon Hadley Center.
En conclusion, en dépit des notables irrégularités mensuelles et annuelles, les températures des huit dernières années sont tendanciellement étales ou légèrement décroissantes. Par le plus grand des hasards, à la fin de 2022 les températures sont presque identiques à celles du début de 2015. Il est donc doublement mensonger d’affirmer que les phénomènes météorologiques rares se multiplieraient ou s’accélèreraient ces dernières années « du fait du réchauffement climatique ».
Questions.
Deux faits troublants mis précédemment en évidence conduisent à s’interroger sur le rôle supposé prépondérant du CO2 dans ces phénomènes climatiques globaux.
-D’une part la stagnation tendancielle persistante des températures est contradictoire avec la concentration en CO2 qui a continué à augmenter régulièrement et inexorablement.
-D’autre part les importantes disparités géographiques sont contradictoires avec le fait que le CO2, étant réputé « well mixed », aurait dû produire sur l’ensemble du globe des effets équivalents sinon identiques ce qui est loin d’être le cas. On le constate notamment pour les continents de l’hémisphère nord et en particulier l’Europe.
Par conséquent, il est légitime de penser que de nombreux autres facteurs influent de façon notable sur le climat (disons plutôt « les climats »). On ne pourra pas continuer à les ignorer et à se focaliser sur un paramètre unique devenu obsessionnel et, de ce fait, paralysant.
Conclusion.
Personne ne sait à quoi est due la pause actuelle, ni si elle va durer ou non.
Un commentaire approprié à la situation aurait pu être (parmi d’autres formulations possibles) : « En 2022, la température terrestre globale s’est établie sensiblement à la moyenne de la période 2015-2021, étendant ainsi à huit années ininterrompues le palier déjà observé l’an dernier. Certains scientifiques suggèrent que la stagnation actuelle pourrait être attribuable au phénomène d’oscillation australe dit ENSO (El Niño Southern oscillation). Les grands mouvements océaniques et atmosphériques naturels influeraient donc de façon majeure sur l’évolution des températures, (etc. etc.) ».
N’y comptez pas. D’ailleurs notre média gouvernemental, docile, nous a prévenus : interdit de toucher au dogme.
La question ne sera pas posée.
Les convulsionnaires de St-Médard (1727). Gravure de l’époque.
Je trouve que les graphiques mélangent des chiens et des chats. En effet, sur le cycle total montré, quatre périodes différentes sont assemblées. Quatre évolutions évaluations faites par des institutions différentes avec leurs propres méthodologies. Vu les fluctuations de température somme toutes faibles d’une année à l’autre, comment ne pas tenir compte de ces variations méthodologiques ? C’est tout le problème de l’étude du climat qui comporte des tas de problèmes méthodologiques et épistémologiques bien peu étudiés. Sans compter de l’aveu même des climatologues, le climat se détermine à l’échelle du siècle minimum. Or, on s’entête à baser les analyses sur un laps de temps annuel.
Pour moi, la climatologie est au pire une pseudo-science, au mieux une préscience. Elle se fonde sur des aprioris que seule l’économie se permet de faire de façon tout aussi peu scientifique.
J’aimeJ’aime
Bonjour,
Merci pour le post. Ce qui aurait été complémentaire ce serait aussi de mettre la différence entre température observée et modélisation (la moyenne par exemple des modèles de dernière génération) sur les 8 dernières années. On peut rappeler ici l’importance du chaos :
https://news.ucar.edu/123108/40-earths-ncars-large-ensemble-reveals-staggering-climate-variability
(avec dans cette étude une partie de la conclusion sur la variabilité naturelle très discutable … ! ).
Cordialement.
J’aimeJ’aime
Sur les modèles, vous pouvez consulter cet article
Si c’est bien là votre question
Cordialement
MD
J’aimeJ’aime
Il est surprenant que personne ne travaille de manière approfondie sur l’observation essentielle : la suprématie des Océans dans l’absorption de l’énergie solaire et … essentiellement, dans l’inflexion des températures de la Troposphère.
Ce constat, partagé par tous les courants de théorie climatique ne résiste pas à une analyse des énergies en jeu et d’un indice de corrélation hautement plus crédible scientifiquement que la minable « coïncidence » de tendance que les tenants du réchauffais me anthropique s’obstinent à faire agréé comme « corrélation » scientifique, occultant le fait que cette « sensibilité climatique au CO2 » ne soit inobservable dans l’immense majorité des épisodes paleo-climatique, raisonnablement documentés.
J’aimeJ’aime
Tous les ouvrages traitants de paléo-climats incorporent une touche d’effet de serre co2 par ci par là…et personne n’a jamais pu reproduire expérimentalement une quantification précise de celui-ci.
On se borne perpétuellement à appliquer des pseudo calculs liés à l’absorption IR et à la convection thermique qui devrait en résulter, laquelle ne se retrouve pas sur les observations stratosphériques et non plus sous les tropiques ou la CIT.
Y a comme qui dirait un blème, mais tout le monde s’en fout !!!
J’aimeAimé par 1 personne
Il y a bien une corrélation entre températures et concentrations de CO₂. Elle n’est pas fortuite puisqu’elle persiste quand on considère les variations de températures et les variations de CO₂. Les variations de CO₂ suivent incontestablement les variations de température.
J’aimeAimé par 1 personne
Oui c’est bien cela : apparemment elles suivent…!!
J’aimeJ’aime
Bonjour, certes, mais grâce aux malus, aux supers malus à 50 000 €, puis à l’interdiction des moteurs thermiques en France (pas en Italie) aux malus aux poids et aux ZFE (Zone de Forte Exclusion) et bien c’est l’inverse et cela ne se discute pas. Vous payez et vous déconstruisez et ça se refroidira…🤢 Merci. Bonne libération de C02.
J’aimeJ’aime
Oui, c’est vrai, et je me souviens qu’à l’époque où le signe du déphasage T°/CO2 dans les transitions interglaciaires n’était pas encore apparu clairement, l’implacable corrélation entre les deux grandeurs était fièrement affichée par les carbocentristes comme une « preuve flagrante » du rôle du CO2 dans le réchauffement actuel, y compris par mes collègues physiciens. Et moi, je leur répondais que ça ne prouvait rien du tout, puisqu’il était évident que l’augmentation du CO2 dans l’atmosphère lors des déglaciations provenait du dégazage océanique et était donc une conséquence du réchauffement, et non sa cause (du moins sa cause première).
Ce qui est encore plus savoureux, c’est que lorsque des esprits chagrins firent remarquer que l’augmentation du CO2 était bien en léger retard de phase sur l’augmentation de la température comme on pouvait s’y attendre, plusieurs climatologues influents sur le web (je ne me souviens malheureusement plus sur quels sites) ont pédalé dans la choucroute, en essayant d’expliquer que les deux grandeurs T° et CO2, telles que mesurées dans les carottes, pouvaient souffrir de décalages temporels, dus au tassement de la glace, ou au fait que le cycle de la température intertropicale ne serait pas en phase avec celui de la température polaire australe, ou je ne sais plus trop quoi de tout aussi hypothétique. En vertu de quoi il se pourrait que le retard apparent soit en fait une avance…
Cette tentative dérisoire pour sauver la face est, à mon sens, révélatrice d’un état d’esprit. Car au lieu de se raccrocher à une branche morte, ces climatologues pédagogues auraient pu s’en sortir tout simplement en rappelant que la cause première des cycles glaciaires était de nature astronomique et que le CO2, dégazé par les océans, ne pouvait au mieux qu’amplifier le réchauffement, en agissant dans la boucle comme une contre-réaction positive.
J’aimeJ’aime
Blais,
Je ne pense pas qu’on puisse dire que personne ne travaille de manière approfondie sur la « suprématie » des océans dans l’absorption de l’énergie solaire. Les coefficients de réflexion à la surface des océans sont régis par des équations physiques ultrasimples et sont connus avec une excellente précision (bien meilleure que pour l’albédo continental), à toutes les longueurs d’onde du spectre solaire, à toutes les latitudes et à toute heure du jour. Et comme ce qui n’est pas réfléchi est intégralement absorbé dans les premiers mètres, il n’y a pas de difficulté à calculer la quantité de flux solaire absorbée par les océans en tout lieu et à tout instant. En revanche, ce qui est beaucoup plus délicat à modéliser, ce sont les échanges d’énergie entre l’océan et l’atmosphère, qui s’effectuent principalement sous forme de chaleur latente, et qui jouent effectivement un rôle majeur dans l’évolution du climat. Peut-être est-ce cela que vous vouliez dire?
Quant au rôle du CO2 dans les épisodes paléoclimatiques, je ne pense pas qu’on puisse dire qu’il soit « inobservable », mais on peut en revanche se demander s’il n’est pas largement surestimé. Les cycles glaciaires permettent de déterminer des valeurs de l’ECS (de mémoire 3~4°C par doublement du CO2) dont je crois avoir compris qu’elles reposent sur le raisonnement suivant: on constate que l’amplitude thermique des cycles glaciaires (~6°C) est trop grande pour être attribuée aux seules variations des paramètres de l’orbite terrestre puisque ces dernières, d’après les simulations effectuées à effet de serre constant, ne devraient produire qu’environ 3 à 4°C de variation de température au sol (en moyenne globale); par suite, on met la différence (D = 2~3°C) sur le compte du CO2, dont la concentration telle qu’on la mesure dans les bulles des carottes de glace oscille typiquement entre 180 et 280 ppmv au cours des cycles. On en déduit la sensibilité climatique d’équilibre, ECS = D*ln(2)/ln(280/180), à la louche.
Il me semble que la grande faiblesse de ce raisonnement est qu’il oublie la vapeur d’eau, GES beaucoup plus important que le CO2, et qui elle aussi est susceptible de fortes variations cycliques. Mais comme les variations passées de la concentration de vapeur d’eau ne laissent aucune trace mesurable, on les ignore, et seuls le CO2 et son complice (le CH4) restent sur le banc des accusés, pace qu’eux seuls ont laissé leurs empreintes sur la scène de crime paléoclimatique. C’est donc un raisonnement par défaut, qui ne me paraît pas du tout satisfaisant du point de vue heuristique, et qui n’est pas conforme au principe du rasoir d’Ockham (principe de moindre hypothèse si vous préférez).
Je crois aussi me souvenir que les valeurs de l’ECS déduites des données paléoclimatiques sont systématiquement plus grandes que celles déduites des données récentes. Pourquoi? Serait-ce dû encore à la vapeur d’eau, ou bien à la couverture nuageuse, dont l’évolution réelle au cours des cycles glaciaires n’a pas laissé davantage de traces dans les archives de la planète?
J’avoue humblement que mes connaissances ne me permettent pas de répondre à cette question. Mais puisque les climatologues honnêtes (ceux qui ne mentent que par omission) finissent par avouer sous la torture que de fortes incertitudes subsistent quant à l’évolution future des fameuses rétroactions que constituent la vapeur d’eau et les nuages, je ne vois pas pourquoi ces incertitudes seraient absentes dans l’évolution passée du climat.
J’aimeJ’aime
Je me suis exactement posé les mêmes questions il y a quelque temps en observant les données UAH et les travaux de Ole Humlum. Ces deux observations suffisent largement à mettre à mal les théories réchauffistes.
Deux documents potentiellement intéressants , l’un au sujet des différentes zones géographiques et l’autre concernant l’éclairement solaire des dites zones. Dans les deux cas, un modèle simplifié a été utilisé :Terre sphérique et mouvement circulaire uniforme autour du Soleil, l’idée étant simplement d’obtenir des ordres de grandeurs.
https://www.pecheurdetoiles.com/spip.php?article119
https://www.pecheurdetoiles.com/spip.php?article123
J’aimeAimé par 1 personne
Bonjour, ce n’est pas ce que Gilles Bouleau de TF1 🤔a annoncé, il a dit » c’est l’année la plus chaude », qui doit-on croire ? Merci. Que le C02 vous protège.
J’aimeAimé par 1 personne
De très nombreux journalistes (dont peut-être Gilles Bouleau) ont en effet parlé de 2022 comme l’année « la plus chaude »… en oubliant juste d’ajouter « en France ». Encore un mensonge par omission.
J’aimeJ’aime
Il est étonnant qu’après avoir montré une certaine ouverture au climato-réalisme en recevant Christian Gerondeau sur ses plateaux, C News persiste et signe dans l’alarmiste le plus primitif en claironnant « 2022 l’année la plus chaude ! » . Quelque’un peut-il leur faire suivre cette chronique ? N’oublions pas que la population n’a pas accès aux publications scientifiques et rarement à nos sites climatologies-réalistes mais se forge une opinion sur le pseudo-problème climatique essentiellement à partir des avis émis par les médias. Il ne faut pas se gêner pour rabrouer ces médias, ce que je ne manque pas de faire ici au Québec.
J’aimeJ’aime
Bonjour Reynald, de mon côté j’ai entendu « en France, c’est l’année la plus chaude depuis 120 ans », ce qui est acceptable dans ce cas, nonobstant les précisions « en France & depuis 120 ans ». A contrario, sur TF1, Bouleau a dit » c’est l’année la plus chaude », c’est une sorte de mensonge ayant pour objectif la manipulation et la désinformation par omission, mais venant de TF1 ce n’est pas surprenant. Merci. Bonne libération de C02.
J’aimeJ’aime
Vous pouvez, comme tout un chacun, vous réjouir : les présentateurs météo que j’ai entendus, depuis ces deux derniers jours, nous prédisent, à l’unisson, que les températures de ces prochains jours seront enfin plus conformes aux normales saisonnières.
J’avoue personnellement que je n’étais pas pressé du tout.
J’aimeJ’aime
Bonjour jg, tout à fait, sur le fond nous sommes bien d’accord. De plus, la Macronie infestée par le virus carbo-climatique devrait se réjouir de cet hiver clément qui permet des économie d’énergie. Ainsi elle n’aura pas à justifier son incompétence et sa gestion calamiteuse de l’énergie, alors que sur ce site même, de nombreux intervenants reconnus avaient tirés la sonnette d’alarme depuis longtemps. Désormais il est trop tard, nous vivons le déclin de la France et le déclassement des Français. Merci. Bonne libération de C02.
J’aimeJ’aime
Il est possible que les éditorialistes de C News craignent encore davantage l’étiquette « climatosceptique » que toutes les autres étiquettes déshonorantes qu’on leur colle régulièrement (« raciste », « fasciste », « réac »…). Personnellement je comprends leur prudence (cette étiquette est épouvantablement poisseuse), et je l’approuve, car si la tentative à laquelle vous faites allusion était « Gérondeau face à Rioufol » du 8 mai 2022, ce n’était pas très brillant. Il faudra trouver mieux. Par exemple, des commentaires éclairés du récent ouvrage de Steven Koonin seraient à mon avis beaucoup plus percutants que les sempiternelles dénonciations des « mensonges » du GIEC, développées avec des arguments peu convaincants par quelqu’un qui n’a visiblement pas tout compris.
J’aimeJ’aime
(Je répondais à Reynald)
J’aimeJ’aime
Considérons la doxa: il y a réchauffement, la température du globe est en croissance régulière et permanente. Cela veut dire que la dernière année enregistrée est forcément la plus chaude; de même pour les 5, 10 ou 20 dernières années c’est logique, et dans leur délire (ils y croient) ils auront raison.
D’ailleurs, 2023 sera également l’année la plus chaude, de même que 2024, et les suivantes.
C’est dire si toutes les belles courbes et beaux graphes exposés ici ne pourront jamais convaincre un croyant; face au dogme, la raison perd tout le temps.
J’aimeAimé par 1 personne
On peut aborder la question de l’évolution du climat soit par les observations, soit par les reconstitutions du passé, soit enfin par les prévisions des modèles.
Pour les observations, on ne dispose que de quelques dizaines d’années vraiment sérieuses incluant notamment des mesures par satellite. Et celles ci ne sont d’ailleurs pas si simples à interpréter car il faut des modèles assez complexes et pas mal de données de laboratoire (en spectroscopie notamment) pour estimer ce qui nous intéresse. Malgré tout il semble bien que depuis les années 70 il y ait une légère hausse (moins de 1 degré) qui semble en train de plafonner. Quand on sait que l’on a eu dans le passé récent (i.e. jusqu’à l’époque romaine) de épisodes chauds et des épisodes froids pouvant durer des dizaines d’années (ce qui n’est pas surprennant compte tenu de l’inertie des océans, des paramètres orbitaux et des cycles solaires), on ne peut exclure que la montée de température des dernières dizaines d’années ne coïncide que par hasard avec la montée du CO2 atmosphérique.
Pour les reconstitutions du passé lointain, il ne faut pas oublier que les carottes glaciaires et les anomalies isotopiques de foraminifères ou autres ne sont pas précises à l’année près, ce qui laisse ouvert la question de quoi précède quoi. Et il ne faut pas oublier que là aussi les reconstitutions sont très indirectes (la température joue sur l’évaporation des océans et donc sur des phénomènes d’enrichissement isotopique).
Enfin sur les prévisions par modèle, c’est là que l’on peut être le plus sceptique. Certes les modèles donnent tous des tendances croissantes mais avec une forte dispersion. Quand on sait qu’ils ont de fortes parentés entre eux et contiennent une quantité suffisante de paramètres ajustables pour trouver à peu près tout ce que l’on veut, il n’est pas très difficile de leur donner la pente croissante souhaitée.
Un exercice salutaire serait de demander la publication de l’ensemble des paramètres utilisés dans ces modèles (je doute qu’il n’y ait que la constante de Planck !) et leur justification. A mon avis seuls les paramètres issus d’expériences analytiques (i.e. en isolant les phénomènes) en laboratoire peuvent faire foi. Les paramètres résultant d’ajustements sur des expériences intégrales (i.e. un grand nombre de phénomènes jouant simultanément) ne pourraient être fiables que si le nombre de situations test et leur diversité était grand devant le nombre de paramètres à ajuster. J’ai quelques doutes là-dessus !
J’aimeJ’aime
Bonjour,
Un modèle, c’est un logiciel. Aucun de ces logiciels n’a été validé. Il n’existe aucun plan de validation rendu public. Ces modèles donnent tous des résultats très disparates, ce qui semble accepté par l’ensemble des scientifiques en phase avec le GIEC. C’est juste n’importe quoi. Le pire encore c’est qu’ils en font la moyenne comme si la moyenne de 80 modèles faux pouvait tendre vers une moyenne moins fausse. On nage dans la pseudo-science. La validation logiciel, c’est ce qui permet aux avions de ne pas tomber à cause d’erreur de logiciel (c’est un peu ma partie). Quand on fait des impasse des validation ça donne le premier lancement d’Ariane 5 par exemple https://www.ina.fr/ina-eclaire-actu/video/cab96023317/explosion-au-lancement-d-ariane-5. Il faudrait demander à tous ces gens du GIEC de se rendre à la prochaine COP dans un avion dont les logiciels embarqués auront été conçus par les concepteurs de ces modèles climatiques. Ça leur donnera une idée que ce qu’il faut entendre par validation logiciel…
Amicalement. Dominique
J’aimeJ’aime
C’est pire encore. Il ne s’agit pas que de validation de logiciel (quoique je n’ai guère confiance aussi sur ce point) mais surtout de validité des sous-modèles physiques rassemblés dans ces mégalogiciels.
J’aimeJ’aime
(@Dominique & Jean-Claude)
« Le pire encore c’est qu’ils en font la moyenne comme si la moyenne de 80 modèles faux pouvait tendre vers une moyenne moins fausse. »
Ca pourrait le faire à la rigueur, à condition qu’on ait de bonnes raisons de penser que les résultats des 80 modèles se répartissent selon une distribution à peu près symétrique autour de la valeur réelle, de sorte que les erreurs se compenseraient. Mais ce n’est évidemment pas le cas. La plupart des modèles surchauffent, et les modélisateurs eux-mêmes sont bien obligés de le reconnaître, puisque la trajectoire suivie par la température moyenne globale se situe dans le bas de la fourchette prédite antérieurement par les modèles. Il y a donc un biais, ou plusieurs, qui faussent par excès les prédictions de nombreux modèles.
Ceci pourrait être dû à un phénomène physique encore mal compris par l’ensemble de la communauté climatologique. Mais il y a en fait plusieurs biais possibles, associés à divers phénomènes souffrant de larges incertitudes (les plus souvent cités sont les effets des aérosols, la répartition 3D de la vapeur d’eau, et celle des nuages). Comment peut-il se faire que plusieurs biais tirent presque toujours dans le même sens? Il est permis de penser que ce soient les modélisateurs eux-mêmes qui, de façon involontaire, infléchiraient les résultats presque toujours du même côté, à cause d’un biais méthodologique qui resterait à découvrir.
Un inventaire des protocoles et paramétrages serait donc souhaitable, non seulement dans les articles parus, mais aussi dans les laboratoires, au contact direct des équipes… Mais seraient-elles prêtes à l’accepter?
Le GIEC présente en général les projections des divers modèles dans un graphe unique où les courbes s’entremêlent de façon illisible (les fameux plats de spaghettis). Ce qui serait plus intéressant, ce serait de tracer les distributions statistiques à divers instants (2020, 2030, 2040…) et de les analyser. Je serais surpris que ces distributions soient gaussiennes. Je ne serais pas surpris qu’elles soient non monotones, en forme de chameau, avec une grosse bosse (les modèles qui surchauffent) et une plus petite (les modèles qui sont à peu près dans les clous). Ensuite, il faudrait rechercher ce qui différencie fondamentalement les deux catégories de modèles. Je ne sais si ce genre d’analyses est au programme du projet d’intercomparaison CMIP. Si quelqu’un ici le sait, il pourrait compléter l’article Wiki consacré au CMIP, qui est très succinct, et probablement récent (sa page de discussion est vierge).
J’aimeJ’aime
Si l’on avait simplement la liste des paramètres des modèles (facile si ce n’est pas programmé à la porc avec des paramètres noyés dans le code), je pense que la confiance dans ces modèles en prendrait un coup !
J’aimeJ’aime
@JCB
Oui, je me trompe peut-être mais ce qu’il me semble avoir compris sur la théorie de l’effet de serre, c’est que les transferts radiatifs sont correctement maitrisés et modélisés, mais que les transferts convectifs par chaleur latente le sont beaucoup moins, sans parler des nuages…
Vu l’importance de ces derniers, indépendamment de la validité intrinsèque des modèles du strict point de vue programmation-logiciel, on ne peut que souscrire à l’opinion qu’en a William Happer :
https://www.prageru.com/video/can-climate-models-predict-climate-change
J’aimeJ’aime
Il n’est pas prouvé que le climat soit modélisable. D’autant plus en considérant son caractère chaotique. Il n’est pas non plus prouvé qu’on puisse prouver un jour qu’il l’est, ni son contraire d’ailleurs. En revanche, ce qui devient de plus en plus certain à mesure que le temps passe, c’est que nos brillants modélisateurs devraient abandonner leurs calculateurs quelques temps et se remettre à étudier la physique de l’atmosphère un peu plus sérieusement tant leurs prédictions s’écartent des observations.
Vu de l’extérieur, ces modélisations sont simplement le signe d’une incompréhension générale des phénomènes physiques en jeu. On n’y comprend rien, alors à défaut, on fait tourner des ordinateurs qui sortent des courbes multicolores, très jolies, mais sans rapport avec la réalité. Ça donne un vernis de science qui permet de faire de jolis rapports. Tout cela n’est pas très sérieux.
J’aimeJ’aime
0.6°C en 44 ans, on va tous mourir !
Ça fait du 1.36°C / siècle. Quand on pense qu’avec un vent de 30km/h on a facilement 10°C de différence entre le réel et le ressenti, c’est sûr qu’on va mourir, mais pas tout de suite, et pas de ça !
En effet, dans le langage carbocentré on ne dit pas :
“Les températures du globe font un plat depuis 8 ans” Mais,
“Les 8 dernières années sont les 8 les plus chaudes jamais enregistrées”
Ce qui est paradoxale, fallacieux, et finalement très astucieux de la part de nos amis, dans cette façon de dire les choses, c’est que plus le plat dure longtemps, plus ça donne l’impression que c’est grave, alors que c’est l’inverse.
En effet, si le plat continue encore 8 ans, ils pourront dire :
“Les 16 dernières années sont les 16 les plus chaudes jamais enregistrées”
16 années chaudes, c’est 2 fois plus grave que 8 années chaudes non ?
En matière de communication, c’est très fort. Rien à redire.
Amicalement Dominique
J’aimeJ’aime
Vous avez vu juste, Dominique: rien à redire !
Mais cette manière fallacieuse de masquer la pause aura toutefois ses limites. Si la température globale continue à stagner, il viendra un moment (entre 2028 et 2035 peut-être) où elle ne sera plus dans le bas de la fourchette prévue par les modèles, mais carrément en dehors. Et là, le discours dominant deviendra probablement « Nos efforts de réduction des émissions de GES portent leurs fruits, mais attention, nous ne sommes pas tirés d’affaire ». Même si le CO2 dépasse 500 ppm. Pas de problème, ils ont déjà tout prévu.
J’aimeJ’aime
Laurent, si le CO2 continue de monter comme ça https://www.woodfortrees.org/plot/esrl-co2/from:1950 ce que je pense que ça fera, ça leur sera difficile de dire que nos efforts ont porté leur fruit alors que ça ne s’infléchit pas du tout.
Même si le plat de température s’allonge beaucoup, je pense qu’ils peuvent tenir longtemps. Le plat d’après 1998 avait duré environ 15ans. Ils ont tenu. Et malheureusement, ensuite ça a continué de monter… pour moi il faudrait un plat de 30 ans pour en finir vraiment (on sortirait vraiment beaucoup du plat de spaghettis du GIEC). Le plat fait 8 ans, donc si ça descendait à 1.3°C/siècle à partir de maintenant, ça mettrait environ 11 ans pour obtenir un plat de 30 ans (2×11+8). On peut toujours rêver…
J’aimeJ’aime
Bon, on sait pas si le plat va durer et combien de temps, mais ce qui est sûr c’est que les spaghettis, eux, ne feront jamais un plat !
Blague à part, à la louche (décidément tout ça c’est vraiment de la cuisine), la ligne horizontale pourrait sortir des spaghettis par le bas de la fourchette (!) dans une petite dizaine d’années seulement, puisqu’aucun modèle ne prévoit de pente inférieure à 0,2°C/décennie pour le scenario actuel (+25 ppm de CO2 par décennie). Par contre, si la température continue de suivre la pente moyenne des 30 dernières années (~0,13°C/décennie), elle restera longtemps dans le bas de la fourchette, mais peut-être qu’une certaine presse commencera à entendre les observateurs critiques qui disent depuis plus de 15 ans que cette tendance n’a pas grand chose d’alarmant, puisqu’elle nous mettrait finalement à +2°C sans avoir fait d’énormes efforts de réduction. Nous verrons, si Gaïa (et Gretta) nous prêtent vie…
J’aimeJ’aime
Pour ceux que ça intéresse, suite à mon commentaire du 18/01/23 15:31, j’ai trouvé ça sur RealClimate (https://www.realclimate.org/index.php/archives/2022/02/another-dot-on-the-graphs-part-ii/):
« […] the CMIP6 ensemble contains a dozen models (out of ~50) with climate sensitivities that are outside the CMIP5 range, and beyond the very likely constraints from the observations. This suggests that comparisons to the observations should be weighted in some way. One reasonable option is to follow the work of Tokarska et al (2020) and others, and restrict the comparison to those models that have a transient climate response (TCR) that is consistent with observations. »
En clair, Gavin Schmidt (directeur du GISS de la NASA) reconnaît qu’il y a un problème avec les modèles qui surchauffent, et il suggère de les mettre de côté, littéralement de « restreindre la comparaison aux seuls modèles dont la réponse climatique transitoire (TCR) est compatible avec les observations ».
A mon avis les modèles foireux ne doivent pas être exclus de l’intercomparaison, bien au contraire (cela reviendrait à refuser de comprendre pourquoi ils foirent), mais il faut bien sûr les exclure des projections. Et ce n’est pas seulement une douzaine de modèles qu’il faudrait mettre hors jeu, mais plus de la moitié, voire une bonne trentaine. On peut d’ailleurs s’étonner que le ménage n’ait pas été fait plus tôt, car déjà dans CMIP5 il y avait une bonne moitié des modèles qui foiraient. Le GIEC aurait dû depuis longtemps, dans son résumé pour décideurs de l’AR5 voire même avant, mettre en garde les profanes contre ces modèles plus que douteux. Au lieu de ça, les résumés du GIEC mettent toujours l’accent sur les projections les plus alarmistes, y compris celui de l’AR6 (qui avertit par exemple que les océans pourraient monter de 15 m d’ci 2 siècles… lol).
Mais le CMIP ne doit pas se contenter de faire le ménage. il faut aussi faire de l’exégèse, je veux dire analyser en profondeur les modèles foireux, comprendre comment ils ont été élaborés, et même demander des comptes à leurs auteurs.
Ceci dit, les modèles foireux ne sont peut-être pas plus faux que les autres: ces derniers contiennent peut-être des erreurs tout aussi grossières, mais qui par chance se compensent. L’exégèse devrait donc s’étendre à tous les modèles. Bref, il y a du boulot !
J’aimeJ’aime
@M.D.
Merci encore pour vos articles toujours limpides, et meilleurs voeux pour 2023 !
Le premier graphe m’inspire une remarque et des questions un peu techniques. Si l’on fait des régressions linéaires sur les 5 jeux de données, que ce soit sur 2 décennies ou 3, on obtient en général des pentes temporelles plus fortes pour les températures au sol (GISS, NCDC, HadCRU) que pour celles de la basse troposphère (RSS, UAH). C’est assez net pour l’hémisphère Nord (HN), beaucoup moins pour l’hémisphère Sud. Voir notamment Foster et Rahmstorf, ERL 2011, Fig.2.(https://iopscience.iop.org/article/10.1088/1748-9326/6/4/044022/meta)
On en déduit que le gradient thermique vertical de la basse troposphère augmente au cours du temps, du moins dans l’hémisphère Nord. Et je me demande pourquoi.
J’ai appris dans ma jeunesse que le gradient adiabatique sec est une constante physique caractéristique de l’air (Gd = g*M/Cp = 9,8°C/km) qui s’applique en principe partout où l’air est sec. Là où l’air est humide (notamment au-dessus des océans) se produisent par endroits des phénomènes de condensation (formation de nuages) qui libèrent de la chaleur latente et diminuent sensiblement le gradient (typiquement Gs = 6°C/km). D’où mes questions:
1. Est-ce que l’augmentation du gradient moyen, tel que déduite des mesures satellitaires de l’HN, est confirmée par les mesures des ballons-sondes?
2. Si oui, faut-il en déduire que l’air de l’HN devient de plus en plus sec, et que sa couverture nuageuse serait en régression?
3. Les stations météo et les vues satellites confirment-elles une régression de la couverture nuageuse dans l’HN (mais pas dans l’HS)?
4. Si oui, ne serait-ce pas là la cause principale du réchauffement de ces 30 dernières années?
Bien à vous
Laurent
J’aimeJ’aime
@Laurent
Le premier boulot qui n’a toujours pas été fait à ma connaissance, c’est d’apporter la preuve que le climat est modélisable, et dans quelle proportion. Ce n’est pas acquit du tout. À force de voir des résultats farfelus s’écarter des observations, le profane que je suis se pose légitimement la question.
On peut deviner que le climat et ses dizaines (centaines ?) de paramètres a forcément une composante déterministe (prédictible), et une chaotique (l’effet papillon qui dépend des conditions initiales). La question est : « quelle proportion pour ces 2 composantes ? ».
Si j’osais, je ferais la « comparaison du baigneur ». Sur la plage il observe que le niveau de la mer a des grandes fluctuations de plusieurs mètres sur plusieurs heures, les marées. Et quand il va se baigner, il observe aussi les hauteurs des vagues de 50cm qui rafraîchissement son visage de façon désordonnée et a priori aléatoire. Notre baigneur, fin observateur, ne tarde pas à mettre en relation le mouvement de la lune et les marées, et parvient à faire des prévisions très précises de ces grandes fluctuations. Fort de son succès, il entreprend de prévoir les mouvements des vagues, et rentre tout un tas de paramètres dans les modèles de gros ordinateurs qu’il fait tourner (nature du sol, galets ou sable, relief du sol, forme de la cote, etc …). Mais rien n’y fait, il se prend les vagues dans la tronche à des moments tout à fait imprévisibles quelques soient la précision de ses modèles, le nombres des paramètres, et la puissance des ordinateurs.
Je me demande simplement si pour le climat, la part déterministe ne serait rien de plus que quelques phénomènes majeurs à l’image des marées dont les principaux sont les cycles astronomiques, et quelques autres comme les éruptions volcaniques, les particules cosmiques, les cycles du soleil, etc… Nos amis du GIEC ne tenteraient-ils pas vainement de rendre déterministe des phénomènes qui ne le sont pas (à l’image des vagues), et dont l’ampleur est si petite (1°C/siècle), qu’on ne pourra que les observer sans jamais savoir les prédire.
Tous ces travaux, tous ces modèles, ces millions d’heures de calcul, ne seraient-ils pas vains ? Aussi vains que de tenter de prévoir les vagues ? Existe-t-il à votre connaissance des travaux scientifiques qui tente de s’attaquer à la question de la prédictibilité du climat ? (À défaut, mon scepticisme commence ici).
Amicalement Dominique
J’aimeJ’aime
Hello Dominique,
Je souscris à la majeure partie de votre propos, et votre comparaison du baigneur est séduisante. Comme vous, je pense qu’il y a une part de chaos dans l’évolution du climat (ou plutôt des climats), mais cette part est-elle si grande qu’elle interdise toute prédiction? That is the question…
Mes connaissances en théorie du chaos étant limitées, je ne peux que disserter sur ce sujet. Je crois savoir que l’une des caractéristiques d’un système chaotique est sa sensibilité aux conditions initiales. Les modélisateurs du climat éludent la question en clamant que leurs simulations sur ordinateur sont peu sensibles aux conditions initiales. Pour moi ça ne prouve pas grand chose: ça dit simplement que les systèmes virtuels (simplifiés) qui habitent dans leurs ordinateurs ne sont pas chaotique (ou peu); ça ne nous dit pas ce qu’il en est pour le système réel.
Certaines personnes pensent (et soutiennent parfois sur ce forum) que le climat ne peut pas être prédictible puisque déjà la météo ne l’est pas au-delà de 5 ou 6 jours. Je pense que c’est un argument simpliste, auquel les partisans inconditionnels de la modélisation du climat répondent par un argument tout aussi simpliste, en disant que
puisque les saisons sont prédictibles, il n’y a pas de raison que le climat ne le soit pas aussi. Ce genre d’argument – que j’ai entendu il y a quelques mois sur France Culture mais je ne sais plus dans la bouche de qui – est irrecevable tel quel pour un physicien ou un mathématicien, mais il est malheureusement recevable tout cru pour tout auditeur non scientifique qui, si on lui dit que la climatologie repose sur les équations de la mécanique, est porté à croire aveuglément que le climat ne serait pas moins prédictible que le mouvement des planètes.
Les variations climatiques les mieux caractérisées sont celles de longue période, à savoir les cycles glaciaires, qu’on peut voir comme des oscillations forcées en réponse aux variations des paramètres astronomiques. Je ne doute pas que, moyennant quelques ajustements, les modèles de circulation générale parviennent, à cette échelle de temps (100.000 ans), à reproduire les cycles glaciaires de façon assez fidèle, avec leur amplitude et leur phase, voire même leur forme en dents de scie (ou toits d’usine). Je doute en revanche qu’ils rendent compte des variations à plus courte échelle de temps, telles que les alternances millénaires entre les optimums (minoen, romain, médiéval) et les petits refroidissements qui les séparent, ou bien les brusques réchauffements temporaires qui surviennent au cours des transitions glaciaires. A fortiori, je ne pense pas que les modèles climatiques soient capables de prédire les oscillations multidécennales ou subdécennales (comme l’ENSO). Pour autant, il n’est pas évident que cette imprédictibilité soit attribuable au chaos; peut-être à une résolution spatiale insuffisante des maillages, ou à une connaissance imparfaite de mécanismes locaux difficiles à caractériser? Auquel cas la prédictibilité pourrait s’améliorer. Les climatologues s’offusquent souvent quand on leur dit que la climatologie est une science jeune. Pour ne pas les vexer, disons qu’elle est encore largement perfectible!
La remarquable reproductibilité des cycles glaciaires m’incite à voir le système climatique comme un bistable (depuis que les continents occupent essentiellement l’hémisphère Nord). La bistabilité implique la non linéarité mais pas nécessairement le chaos. Dans un état stable, la réponse aux petites perturbations est fortement atténuée par la non linéarité, et le basculement vers l’autre état ne peut se produire qu’à la faveur d’une perturbation suffisamment forte (et de signe approprié bien évidemment). Si c’est ainsi que ça fonctionne, nous pourrions peut-être craindre d’aller vers une nouvelle glaciation en rejetant dans l’atmosphère des quantités massives d’aérosols qui augmenteraient l’albédo; mais nous n’aurions pas grand chose à craindre de nos rejets de CO2, car il serait impossible de basculer vers un 3e état encore plus chaud que celui dans lequel se trouve la Planète depuis environ 10.000 ans. Je pense que ceux qui craignent un « emballement » du climat ne connaissent pas la physique non linéaire.
Que se passerait-il si les trois paramètres astronomiques responsables des cycles glaciaires devenaient subitement constants? Le climat deviendrait-il stable, ou bien continuerait-il à basculer d’un état chaud à un état froid, de façon spontanée, selon une période propre a priori différente de celle que nous connaissons? Je n’en sais rien. Et je ne suis pas sûr que les modèles actuels puissent répondre à ces questions.
Peut-on démontrer que le climat est modélisable? Probablement pas. Mais je doute aussi qu’on puisse démontrer qu’il ne l’est pas. Donc, « dans le doute », il n’est pas interdit de recourir à des modèles, aussi imparfaits soient-ils. A condition de rester prudent. J’ai lu quelque part qu’un modélisateur du climat connu et respecté (je ne sais malheureusement plus qui) avait récemment « refroidi » la communauté climatologique en disant qu’il ne fallait pas faire dire aux modèles plus qu’ils ne pouvaient, et qu’il fallait les considérer avant tout comme des outils de compréhension, et non de prédiction. C’est à mon avis ce genre de message, remarquable de sagesse et d’humilité, que devrait délivrer le GIEC.
J’aimeAimé par 1 personne
Et le GIEC se grandirait aussi en mettant le doigt là où le bat blesse (la grande dispersion des projections) et en encourageant le projet d’intercomparaison (CMIP6) à faire non seulement le ménage parmi les modèles, mais aussi leur exégèse, en commençant par ceux qui surchauffent, comme je le disais plus haut (19/01 16:10)
J’aimeJ’aime