Plateau de températures : le point sur la nouvelle controverse K15

La nouvelle affaire sur le front du climat prend de l’ampleur. Puisqu’il ne faut certainement pas compter sur un compte-rendu loyal par les grands médias français, voici ce qui, je crois, peut en être dit quatre jours après son déclenchement. L’affaire étant susceptible d’avoir des retentissements importants, j’ai choisi de faire un point complet, qui reprend tout depuis le début.

Acte I : le plateau de températures

Depuis la fin des années 70, les carbocentristes clament que la température globale va monter sous l’effet de l’accroissement de la teneur atmosphérique en gaz à effet de serre. Dans un premier temps, la nature a semblé leur donner plutôt raison : à partir des années 70 et jusqu’à la fin du XXe siècle en effet, la température monte.

Problème : à peine le XXIe siècle commence-t-il que c’est la panne : la Terre ne se réchauffe plus.

Logiquement considéré comme anecdotique les premières années, ce plateau des températures devient de plus en plus manifeste au fil des années, donc de plus en plus difficile à ravaler au rang de simple incongruité ponctuelle sans signification statistique. Certains ergotent en soutenant que la température monte encore un peu, d’autres font mine de croire que le plateau n’existe que si on le fait commencer en 1998 (année d’un pic ponctuel de la température globale dû à El Niño), d’autres encore soutiennent que des « pauses » de ce genre peuvent apparaître dans certaines simulations de modèles un peu n’importe quand au fil du XXIe siècle. Quoi qu’il en soit, tous les carbocentristes nous l’affirment en chœur : il est sûr et certain que, très bientôt, une hausse vigoureuse sera de retour.

Les années 2000 terminées et les années 2010 bien commencées, le « hiatus » entre les observations et les modèles se fait pourtant de plus en plus béant. Même si, et c’est de bonne guerre, les carbocentristes tâchent de minimiser le problème, les arguments climatosceptiques s’en trouvent de plus en plus renforcés : comment expliquer, en effet, qu’alors que les émissions de gaz carboniques n’ont jamais été aussi importantes, la courbe de température soit d’un calme aussi plat ? Le GIEC lui-même est contraint de faire face à l’objection – même si c’est, bien sûr, pour expliquer qu’elle n’a pas lieu d’être.

Acte II :  Pausebuster

En 2015, les diverses tentatives carbocentristes pour analyser la si gênante « pause » trouvent un aboutissement dans un article scientifique signé Karl et al. (désigné K15 ci-après). Cet article consiste en une réanalyse des données utilisées pour calculer la température globale. Ses résultats sont un coup de tonnerre  : non seulement le « plateau » n’aurait jamais existé, mais la température globale de 2000 à 2014 aurait même augmenté au même rythme qu’au cours de la seconde moitié du XXe siècle : environ +0,1°C par décennie.

L’article arrive en 2015 comme une divine surprise pour la diplomatie climatique qui doit se réunir quelques mois plus tard pour la COP21 de Paris et sceller un accord international pour une politique climatique ambitieuse. Si, comme l’affirme K15, le réchauffement se poursuit toujours de manière aussi imperturbable, alors l’un des arguments climatosceptiques les plus percutants s’effondre, et l’horizon scientifique se dégage pour le carbocentrisme.

Inévitablement, la grande presse, qui ne brille jamais par sa présentation équilibrée des éléments de discussion, saute sur l’occasion : le grand public, qui n’avait guère été informé de l’existence d’un plateau de températures, est bruyamment mis au courant par les médias mainstream que ce plateau n’existe plus. K15 devient un nouvel étendard de l’alarmisme climatique, c’est « l’article paru dans la très sérieuse revue Science » que l’on peut brandir face à tout négationniste qui oserait encore contester que les températures augmentent depuis le début de notre siècle.

Une campagne de presse est organisée en fanfare pour appuyer la révélation. La comparaison des tendances de la température globale sur deux types de périodes (avec des nuances mineures) semble sans appel. Voici la partie significative de la première figure de l’article (la figure entière et sa légende seront données plus loin) :

karl1

Les disques marrons correspondent aux tendances anciennement calculées, les carrés oranges aux tendances proposées dans K15. L’article donne 5 périodes : A et C correspondent en gros à la seconde moitié du XXe siècle, B, D et E au début du XXIe, plus précisément lors de la période (aux contours nécessairement un peu flous) où l’on parle de plateau (« hiatus »). Alors que les disques marrons des périodes B et E sont visiblement plus bas que ceux des périodes A, C et D, les carrés oranges, eux, sont tous à peu près sur la même ligne. Cette fois, donc, ça y est : l’encombrant plateau a enfin « disparu ».

Acte III : Premières contre-attaques

À peine annoncé, l’article suscite de vives oppositions. L’une des premières d’entre elles est qu’il suffit d’avoir vu une fois une courbe de température globale pour savoir que la figure ci-dessus ne dit pas tout, car la température a été à peu près horizontale entre les années 40 et les années 70. Ce n’est qu’à la fin de ces dernières que la température a monté. Prendre pour durée de référence toute la seconde moitié du XXe siècle (périodes A, C et D ci-dessus) a donc pour effet de diluer le réchauffement des années 80 et 90 en lui intégrant la période antérieure de stabilité des températures. Le réchauffement qui avait précédé immédiatement le « plateau » étant ainsi considérablement réduit, la comparaison avec le début du XXIe siècle devient artificiellement plus favorable au carbocentrisme, sans pour autant démontrer que la hausse perdure sans changement notable : changements il y a, mais ils sont noyés dans une moyenne. Cette remarque, ainsi que d’autres, sera dûment publiée quelques mois plus tard dans un article de Nature, qui s’oppose aux conclusions de K15 et reconnaît le ralentissement du réchauffement.

Seconde objection : K15 s’intéresse à des données terrestres et maritimes, alors qu’il existe aussi des mesures satellitaires de températures. C’est un vieux débat que de savoir quelle technologie est la plus pertinente pour constituer une température globale (sans parler de la notion même de température globale, elle aussi questionnable). Sans le reprendre ici, disons simplement que les climatosceptiques préfèrent en général les mesures satellitaires, et que celles-ci ne sont pas impactées par K15. K15 ne peut donc prétendre faire disparaître le plateau que sur un seul type de courbe, renforçant au passage la divergence déjà croissante et problématique entre les courbes proposées par les deux  technologies concurrentes.

Troisième remarque, qui sans être une objection à l’article à proprement parler, mérite toutefois d’être faite : en admettant que l’on puisse se fier à K15, la tendance globale qu’il propose est d’en gros +0,1°C par décennie, une tendance assez stable (quelle que soit la période présentée, l’augmentation reste dans un mouchoir). K15 suggère donc indirectement que la hausse est régulière, sans accélération, et que cette hausse est de l’ordre de +1°C par siècle. On est bien loin des +4°C ou +5°C de la poële à frire qui nous est régulièrement annoncée pour 2100.

Mais les objections ne s’arrêtent pas là. Pour aller plus loin, voici la figure 1 complète de l’article, avec sa légende :

karl2

Nous nous sommes déjà intéressés à sa partie gauche (« global »), voyons à présent ses parties centrale et droite : océans et terres (« land »). Comme on le voit, les tendances proposées par K15 pour les terres (partie droite) sont en bon accord avec celles qui avaient cours avant K15. Autrement dit, chaque carré orange est très proche du disque marron qui lui correspond. S’agissant des océans, disques et carrés des périodes anciennes (A et C) sont également très proches, mais, et c’est le point clé, ceux des périodes plus récentes divergent fortement. C’est donc de là, et de là seulement, que provient la nouveauté dans les conclusions de K15. Et c’est de là aussi que viennent les principales critiques scientifiques, dont celle de Judith Curry, alors professeur à l’institut de technologie de Georgie et titulaire d’une chair en sciences de la terre et de l’atmosphère :

Les plus grands changements dans la nouvelle analyse de la température de surface par la NOAA [l’employeur de Karl] concernent la température des océans depuis 1998. Cela ne manque pas de sel, dans la mesure où il s’agit de la période pour laquelle nous disposons de la meilleure couverture de données avec les mesures de la meilleure qualité – or balises Argo comme satellites ne montrent aucune tendance au réchauffement.

D’autres objections se portent sur le fond des calculs. C’est Ross McKitrick qui les présente. Économiste à l’université de Guelph (au Canada), il s’est rendu célèbre il y a quelques années pour avoir, avec Steve McIntyre, démoli la fameuse « courbe en crosse de hockey ». Son analyse de K15 s’attache à la méthodologie qui y est employée pour harmoniser deux types de données de températures maritimes : celles des navires d’une part, celles des bouées d’autre part (ces dernières ne devant pas être confondues avec les balises Argo). Les premières ont été obtenues de façon plus ou moins informelle par des marins chargés de récupérer de l’eau de mer dans un seau et de noter la température relevée, la date, l’heure et le lieu de la mesure. Ces données sont certes utiles, principalement parce qu’elles sont les seules disponibles pour les périodes les plus anciennes. Toutefois, on comprend bien qu’elles ne sont pas sans défauts et sans biais. Ceux-ci sont d’ailleurs bien connus depuis des années : non seulement la fiabilité et la précision des mesures est souvent difficile à garantir, mais quantité de problèmes annexes se posent, qui vont des variations locales de température selon l’endroit du navire où l’eau est collectée à la fixité des routes maritimes suivies par les navires militaires ou marchands (laissant ainsi de larges zones océaniques vierges de toute mesure). Même le type de seau utilisé au moment de la collecte est un paramètre dont il faut tenir compte – non sans problème puisque les informations de ce genre n’ont pas toujours été consignées.

Ce n’est qu’à partir des années 70 qu’un réseau dédiée de bouées a commencé à être en mesure de prendre le relai pour fournir de meilleures données.

Ainsi donc, K15 utilise deux jeux de données maritimes : celles des navires, moins fiables mais qui remontent plus loin dans le temps, et celles des bouées, plus courtes mais plus précises. Jusqu’ici, tout va bien : on fait avec ce qu’on a.

K15 constate que, lorsque les deux types de données sont disponibles pour un lieu et une date donnée, les navires donnent une température en moyenne plus élevée de 0,12°C. Cet écart peut logiquement être considéré comme un biais systématique, ce qui justifie que l’article applique une correction de 0,12°C à l’un des deux jeux de données pour le faire coller à l’autre. Là encore, rien que de très normal (même si j’aurais apprécié une discussion complémentaire qui nous assure que la différence entre les écarts-types est suffisamment faible pour ne pas requérir elle aussi une correction). La question est maintenant de savoir comment appliquer cette correction de 0,12°C. Du point de vue mathématique, l’alternative est la suivante :

  • ajouter 0,12°C aux données des bouées pour les faire coller à celles des navires
  • ou retrancher 0,12°C aux données des navires pour les faire coller à celles des bouées.

Au vu de ce qui a été rappelé plus haut sur les qualités comparées des données, la logique commande d’adapter les moins fiables aux plus fiables. Et c’est pourtant l’inverse qui a été fait dans K15. C’est là un choix tout à fait incompréhensible, et l’on se demande comment il se peut que pas un des neuf coauteurs de l’article n’ait relevé le problème. Il semble qu’ils aient pensé que cela n’avait pas d’importance. L’un d’eux, Thomas Peterson, a d’ailleurs écrit un tweet dans ce sens il y a à peine quelques jour :

Les bouées sont 0,12°C plus froides que les navires. Ajoutez 0,12°C aux bouées ou soustrayez 0,12°C aux navires et vous obtenez exactement la même tendance.

L’argument est le suivant : faire monter tout un jeu de données ou descendre un autre revient, semble-t-il, à glisser une courbe vers le haut ou vers le bas sans changer sa tendance, c’est-à-dire sa pente. Même en acceptant une telle explication, l’argument laisse un goût dérangeant : si vraiment cela ne change rien, il semble quand même intellectuellement curieux de choisir de changer de bonnes données pour les faire coller à de moins bonnes. (On ajouterait : si vraiment l’ajustement ne change pas la tendance, à quoi bon l’ajustement…)

Tout cela ne serait pas bien grave sans ce point crucial : les données des bouées remontent moins loin dans le temps que celles des navires. Ajouter 0,12°C à ces données-là a donc pour effet de relever les températures des années récentes mais pas les anciennes, atténuant ainsi mécaniquement le « plateau ». Si, à l’inverse, on retranchait 0,12°C aux navires, alors au lieu de réchauffer la période récente on refroidirait le passé plus lointain. (Je pense que l’écart de tendance entre la seconde moitié du XXe siècle et le début du XXIe serait alors encore plus en faveur d’un « plateau » qu’avant, mais il faudrait vérifier soigneusement, d’autant que l’avantage ainsi donné au plateau serait atténué par le poids statistique plus faible donné aux navires dans le calcul.) McKitrick calcule que ce 0,12°C conjugué au poids statistique important des bouées explique à lui seul la moitié du réchauffement supplémentaire proposé par K15.

L’autre moitié ? K15 en explique lui-même la provenance : un ajustement qui consiste à refroidir largement les données des navires pour la période 1998-2000. Cette correction vers le froid au début de la période récente a mécaniquement pour effet d’accroître la tendance au réchauffement que l’on calcule pour les années suivantes. On peut discuter de la pertinence de cet autre ajustement, toujours est-il qu’il y a, là aussi, largement de quoi s’interroger.

Acte IV : l’affaire devient politique

La conclusion sans pitié que tire Judith Curry de ses premières observations résume bien l’état d’esprit qui prévaut dès le départ chez les sceptiques au moment de la publication de K15 :

Bien que je sois certaine que cette nouvelle analyse de la NOAA sera considérée comme politiquement utile pour l’administration Obama, je ne la considère pas comme une contribution particulièrement utile à notre compréhension scientifique de ce qui se passe.

Un élu Républicain, Lamar Smith, membre de la Chambre des représentants (dont il est chairman du comité scientifique), passe alors à l’attaque. Il lance une injonction (subpoena) à la NOAA pour que celle-ci lui fournisse données et méthodes plus détaillées sur K15, mais aussi le contenu des discussions entre co-auteurs (la loi américaine permet ce type de requête lorsque les personnes concernés sont des agents travaillant pour le compte de l’État). La NOAA refuse ce dernier pointLe ton monte les jours qui suivent, avant que 300 scientifiques, dont certains éminents, écrivent à Smith, appuyant sa démarche en lui demandent d’intervenir pour que la NOAA respecte la loi sur la qualité des données (Data Quality Act) :

Selon nous, s’agissant de Karl et al. 2015 et des documents liés, la NOAA n’a pas respecté les directives du Bureau de la gestion et du budget, ni les siennes propres, établies en relation avec la loi sur la qualité des données, pour l’examen par les pairs d' »informations scientifiques influentes » et d' »évaluations scientifiques hautement influentes ».

C’est là un autre volet crucial des critiques adressées à K15 : la mauvaise qualité de l’archivage des données utilisées, qui rend difficile voire impossible de reproduire fidèlement leur travail.

L’obstruction se prolongeant, en février 2016 le ton monte encore d’un cran entre Smith et la NOAA. Et c’est au même moment que paraît l’article de Nature signalé plus haut qui s’oppose à K15.

Ensuite, plus rien. Peut-être Smith a-t-il d’autres choses de plus urgentes à régler à l’approche des élections ? Peut-être aussi qu’au fond tout le monde est content. Les carbocentristes ont eu leur coup d’éclat en 2015 juste avant la COP21. Les sceptiques peuvent désormais leur opposer l’article de Nature (dont l’un des coauteurs n’est pourtant autre que Michael Mann, l’homme de la crosse de hockey, bête noire des climatosceptiques). Par ailleurs, un épisode El Niño a fait son apparition : la température de la Terre augmente considérablement pendant plusieurs mois, et les gros titres angoissés sur « l’année record » n’ont plus besoin de K15. Les carbocentristes tiennent leur nouvelle commodité pour dénier l’existence du plateau de températures, les climatosceptiques vont devoir expliquer qu’El Niño n’a rien à voir avec les gaz à effet de serre… Le débat se déplace et l’affaire K15 s’achemine doucement vers une extinction des feux.

Mais alors que la bataille semble finie faute de combattants, le 4 février dernier, un coup de tonnerre retentit.

Acte V : Derrière le rideau

En novembre 2016, c’est un scientifique de haut rang qui prend sa retraite. Après un doctorat de météorologie, John Bates a passé toute sa carrière à la NOAA, et notamment au NCEI, le centre national de données climatiques. Distingué deux fois pour son travail (en 2004 et 2014), il s’est spécialisé notamment dans la question du bon archivage des données et leur mise à disposition.

Bates n’est pas coauteur de K15, mais sa position au sein de la NOAA lui a permis de voir de l’intérieur la façon dont l’article a été fait. Ayant identifié de multiples problèmes et manquements à la rigueur, il a tenté d’arranger les choses par la voie institutionnelle, sans succès.

Une fois à la retraite, il décide finalement de parler publiquement de ce qui s’est passé. L’occasion se présente le 13 décembre, où le Washington Post publie un article sur le mode : les climatologues ont peur de Trump, ils recopient à la hâte leurs données sur des serveurs indépendants pour éviter qu’on les force à faire disparaître des données gênantes.

« Quelle ironie !« , s’indigne Bates, alors qu’en tant qu’ancien archiviste de la NOAA il est particulièrement bien placé pour savoir que « le problème le plus crucial dans l’archivage des données climatiques est en réalité posé par des scientifiques qui ne veulent pas archiver de manière formelle et documenter leurs données.« 

Le Washington Post ayant refusé d’ouvrir ses colonnes à Bates (est-ce une surprise ?), c’est le blog de Judith Curry qui accueille sa tribune, et relance ainsi la polémique à l’échelle mondiale, avec d’autant plus d’écho que, quelques heures plus tard à peine, David Rose publie sur le sujet un article incendiaire dans le très lu Mail on Sunday.

Intitulé « Les climatologues contre les données climatiques », la tribune de Bates est une violente charge contre la manière dont K15 a été préparé. Bates se focalise sur l’utilisation et l’archivage des données, c’est-à-dire la partie préparatoire de K15 que son rôle d’archiviste lui a permis de suivre de près. Et il balance :

L’exemple le plus sérieux de climatologue n’archivant ni ne documentant un ensemble crucial de données climatiques est celui de l’étude de Tom Karl et al. 2015 (…), censée montrer l’absence de « hiatus » dans le réchauffement climatique dans les années 2000 (…).

Dans ce qui suit, je donne les détails sur la manière dont M. Karl n’est pas parvenu à divulguer des informations critiques à la NOAA, à Science Magazine et au chairman Smith concernant les ensembles de données utilisés dans K15. Je dispose d’une documentation complète pour fournir une vérification indépendante de l’histoire ci-dessous. Je propose également mes suggestions pour faire en sorte que nous puissions éviter à l’avenir une manipulation si flagrante de ce qui doit guider l’intégrité scientifique et les standards de la publication scientifique. Enfin, je donne quelques liens pour illustrer ce à quoi ressemble un bon archivage de données climatiques, les lecteurs pouvant ainsi apprécier le contraste avec ce que M. Karl a fourni.

La suite, très précise et documentée, est un réquisitoire extrêmement sévère contre les auteurs. Extraits :

J’ai été stupéfait de voir que Tom Karl, le directeur de la NCEI en charge des archives climatiques de la NOAA, ne suivait pas la politique de sa propre agence, ni les instructions de Science Magazine pour l’archivage et la documentation des jeux de données.

J’ai questionné un autre coauteur pour savoir pourquoi ils avaient choisi d’utiliser un seuil de confiance de 90% (…) au lieu du standard de 95% (…) – il a aussi exprimé de la réticence et n’a pas défendu cette décision.

Un superviseur de la NCEI a remarqué combien il était révélateur de regarder Karl travailler les coauteurs, le plus souvent de manière subtile mais pas toujours, poussant à des choix soulignant un réchauffement. Peu à peu, au cours des mois qui ont suivi la sortie de K15, il apparut de plus en plus que Tom Karl mettait son poids dans la balance (had his thumb on the scale) — documentation, choix scientifiques, divulgation des données — afin de discréditer l’idée d’un « hiatus » du réchauffement climatique et de hâter la publication du papier pour influencer les négociations nationales et internationales sur la politique climatique.

Le défaut d’archivage (…) viole aussi la politique éditoriale de Science sur la mise à disposition des données [lien]. Celle-ci énonce : « Données climatiques. Les données doivent être archivées sur le serveur de la NOAA ou autres bases de données publiques. » Karl et al. ont-ils indiqué à Science Magazine qu’ils ne suivraient pas la politique d’archivage de la NOAA, ne stockeraient pas les données, et ne donneraient accès qu’à une version non lisible par un ordinateur et uniquement sur un serveur FTP ?

Ainsi, à chaque étape de la préparation et de la divulgation des jeux de données concernant K15, on trouve Tom Karl mettant son poids dans la balance, poussant, et souvent insistant, pour des décisions qui maximisent le réchauffement et minimisent la documentation.

J’ai appris par la suite que l’ordinateur employé pour utiliser le logiciel avait subi une défaillance complète, ce qui avait suscité une blague ironique de certains qui avaient travaillé dessus, blague selon laquelle cette défaillance était délibérée pour garantir que le résultat ne pourrait jamais être reproduit.

Bien sûr, les chiens de garde du carbocentrisme ont aussitôt réagi, à peu près complètement à côté de la plaque. Comme toujours, les mêmes faux arguments ont été mis en avant, comme le typique « d’autres études confirment K15 », auquel on ne peut qu’opposer cette excellente remarque faite par Wegman au cours de son audition lors de l’enquête sur la célèbre « courbe en crosse de hockey » : « Je suis sidéré par l’affirmation qu’une méthode incorrecte n’est pas un problème parce que la conclusion est juste de toute façon. Une méthode fausse avec une réponse juste n’est que de la mauvaise science.« 

Judith Curry et John Bates ont ensuite fait le point en répondant à toutes les critiques, d’une manière qui ne laisse aucun doute sur le sérieux de la tribune initiale.

Puisque j’en suis à rappeler ce que disait Wegman, il convient de noter que le déroulement de cette nouvelle affaire n’a rien d’inédit : un « article qui renverse la table », aussitôt contesté dans sa méthodologie et l’impossibilité de toute reproductibilité, des tentatives vaines pour avoir des précisions, et enfin une révélation « de l’intérieur »… difficile, décidément, de ne pas y voir une réplique de la fameuse controverse autour de la « crosse de hockey », la tribune de Bates remplaçant le Climategate. Quoi qu’il en soit l’affaire a déjà redonné des ailes à certaines critiques formulées par les climatosceptiques. On lira par exemple Rud Istvan sur le traitement des données de températures aux États-Unis, Paul Matthews sur l’instabilité des algorithmes d’ajustement ou encore les réflexions de Geoff Chambers.

La fusée est partie, et il va vite devenir difficile de tout suivre. Ma boule de cristal ne me dit pas comment tout cela va se terminer, mais on peut penser que, au vu de la couleur de la nouvelle administration américaine, ce nouveau rebondissement a de bonnes chances d’être utilisé comme argument de choix pour justifier les réformes qui s’annoncent aux États-Unis dans le domaine de l’environnement et des sciences du climat. Sur ce point, la date où Bates a pu faire valoir ses droits à la retraite n’aurait pas pu tomber plus à point.

24 réflexions au sujet de « Plateau de températures : le point sur la nouvelle controverse K15 »

  1. Historique sérieux, au cas où l’archivage s’en perdrait.
    Espérons effectivement que l’alignement de planètes entre une administration climatosceptique et la liberté de parole d’un haut scientifique retraité, aidé par une porte-voix également jeune retraitée mais qui n’en a jamais manqué, donnera naissance à un Climategate II.
    A propos de cette dernière, joli jeu de mots bilingue – laudatif et involontairement sexiste – en présentant Judith Curry comme titulaire d’une CHAIR en sciences de la terre et de l’atmosphère 🙂

    J’aime

  2. Voilà un texte très long pour ne rien dire…
    Alors pourquoi qu’ils font des ajustements ? Ben si le réseau d’observation change, peut être pour passer de l’ancien au nouveau (parce que le nouveau est plus précis, plus pratique, parce que l’ancien est voué à disparaitre etc…) ? Mais ce qui est bien, c’est que tout ne change pas d’un coup, et si on compare ce que donnent les bateau, les bouées et les satellites (ceux qui donnent la SST) séparément, tout donne le même résultat. Voir Hausfather et al.

    Vous dites :
    « Au vu de ce qui a été rappelé plus haut sur les qualités comparées des données, la logique commande d’adapter les moins fiables aux plus fiables. Et c’est pourtant l’inverse qui a été fait dans K15. »
    « L’argument est le suivant : faire monter tout un jeu de données ou descendre un autre revient, semble-t-il, à glisser une courbe vers le haut ou vers le bas sans changer sa tendance, c’est-à-dire sa pente. Même en acceptant une telle explication, l’argument laisse un goût dérangeant : si vraiment cela ne change rien, il semble quand même intellectuellement curieux de choisir de changer de bonnes données pour les faire coller à de moins bonnes. (On ajouterait : si vraiment l’ajustement ne change pas la tendance, à quoi bon l’ajustement…) »

    Alors pourquoi qu’ils ajoutent plutôt que retrancher ? Ben en fait, la question n’a pas de sens : parce que quand on regarde des anomalies (un changement par rapport à une moyenne de référence), ça revient au même…
    Mais bon, tout le monde ne maitrise pas les maths niveau collège.

    Sinon, dans votre précédent post, vous avez essayé de vous raccrocher aux branches en parlant des ajustements de GHCN mais GHCN ça concerne que les terres donc rien à voir avec les bateaux et les bouées (utilisés que sur les océans, hein ? ).
    Encore raté…

    J’aime

    • Je sais, le texte est long… c’est sans doute la raison pour laquelle vous n’avez pas vu qu’il y est exposé pourquoi ajouter ou retrancher n’est pas la même chose.
      Pour GHCN, vous confondez les objections de Bates (sur GHCN, post précédent) avec celles de McKitrick (bouées et navires). Bates parle archivage et fiabilité des données, McKitrick calcul et homogénéisation. Moralité : eh oui, un même article peut engendrer des remarques sur différents points.

      J’aime

      • Citation de Curry, piquée dans votre texte trop long que vous devriez lire :
        « Les plus grands changements dans la nouvelle analyse de la température de surface par la NOAA [l’employeur de Karl] concernent la température des océans depuis 1998.  »

        Vous comprendre différence océan continent ?

        Sinon, désolé, mais enlever la valeur constante de 0,12°C aux données des navires ou ajouter cette valeurs aux données des bouées revient au même pour les anomalies. Êtes vous bien sûr d’être mathématicien ? En sciences du climat et en physique en général, je sais que vous êtes nul. Par contre, vous n’êtes pas sensé l’être en maths.

        Je vous recommande aussi de lire l’article que vous avez mis en lien sous « les chiens de garde du carbocentrisme ». Notamment regardez la deuxième figure dans laquelle on voit l’ancienne version NOAA et la nouvelle, histoire de comprendre de quoi vous parlez.

        J’aime

    • Contrairement à ce que vous dites, ce texte très long ( c’est vrai ) me paraît assez clair et compréhensible pour celui qui maîtrise un tant soit peu la langue française!

      A ce propos, si certains ne maîtrisent pas « les maths niveau collège », d’autres ne semblent pas être à l’aise avec la langue française, ceci expliquant cela :
      « pourquoi qu’ils font » « pourquoi qu’ils ajoutent » …
      …pourquoi font-ils …pourquoi ajoutent-ils …c’est peut-être mieux, qu’en pensez-vous ?

      J’aime

  3. Sur Trump je ne suis pas optimiste.
    Il est très « grave » et j’ai peur qu’il ne radicalise surtout son opposition.

    Le seul bon point c’est qu’il semble avoir causé une réaction immunitaire contre les délires conspirationnistes jusque là tolérés voir soutenus par les média, genre anti-vaccins&co…

    Un point grave actuellement c’est que on pousse de plus en plus des « Index de l’Eglise » genre décodex, le genre qui sur Wikipedia a censuré les sites dissidents, même sur des faits scientifiques établis, répliqués, documentés, permettant à des « scienceapologist » de prétendre qu’il n’y a pas de papiers publiés, de réplications, de peer review…

    Les #fakeNews et les #AlternateFact sont une réalité depuis longtemps.
    Les Leak aussi.
    Trump a juste lancé la chasse, parce qu’il est trop grave.
    J’aime pas avoir ce clown du même avis que moi.

    J’aime

  4. Pour l’instant tout cela paraît confus mais si le débat sur le climat était sérieux, cela n’aurait aucune importance et tout le monde s’en ficherait car cet indicateur (anomalies moyennes de températures mondiales) n’a:
    -aucune signification physique puisque un climat est déterminé par bien plus qu’une moyenne de température (mini, maxi, hygrométrie, saisonnalité, pluviométrie,rose des vents) et que pour additoner ou moyenner, il faudrait des quantités de chaleur, pas des températures. En outre, si on affiche honnêtement les incertitudes, surtout sur les valeurs anciennes, il n’ a plus grand chose de significatif.
    – et aucune utilité pratique puisque un climat, c’est régional, et que pour nous adapter (si besoin) c’est le régional qu’il nous faut.

    L’indicateur de la NOAA et autres a été choisi uniquement à des fins politiques, pour effrayer le bon peuple et faire croire qu’on « valide » les « modèles ». C’est pourquoi il est si important pour les « réchauffistes » qu’il soit conforme au dogme. Le problème pur eux c’est que ça se retourne contre eux.

    J’aime

  5. Les modèles climatiques qui prédisent le futur (ou le projettent), sont basés sur des constantes climatiques, calculées sur les données harmonisées, issues des données climatiques brutes relevées.

    Plus on modifie une donnée en amont, plus les conséquences seront importantes.
    Or:
    – les données brutes ne sont pas bidouillables (il y aurait fraude)
    – les constantes ne sont pas bidouillables (facilement recalculable)
    – les modèles peuvent être vérifiés pour le passé
    Il reste donc ces fameuses données harmonisées, qui constituent les soit-disant « faits ».
    CQFD

    J’aime

  6. Je ne suis pas un spécialiste, mais quand j’étais moins jeune (vingt ans plus tôt) , il ne me serait pas venu à l’idée d’utiliser le GHCN 1) avec le niveau de précision qui est aujourd’hui demandé, 2) pour prévoir le climat dans 100 ans.
    Mais c’était il y a vingt ans et je ne suis pas spécialiste.
    Quant à l’archivage des données et des traitements, c’est un vrai sujet depuis…

    J’aime

  7. Ils peuvent faire disparaitre la pause, supprimer le ralentissement, mais ils n’arrivent pas à produire l’accélération prévue par les modèles. Les 0,1°C de K15, c’est deux fois moins que les 0,2°C des modèles. Cela va finir par se voir un jour…

    J’aime

  8. La NOAA n’est pas le seul institut à publier des courbes d’anomalies de températures. Parmi l’ensemble des possibilités, le projet Berkeley Earth a apporté sa pierre à l’édifice depuis plusieurs années, tout en donnant accès aux données brutes et au code informatique de traitement des données. Pleine transparence voulue dès le début du projet par Richard Muller (ex-climatosceptique).

    Et que voit-on sur les courbes de Berkeley ? La même chose que sur celles de la NOAA : l’absence de pause …

    Tempête dans un verre d’eau ?

    J’aime

      • Oui j’ai vu la citation de Wegman que vous reprenez à propos de la NOAA dans votre billet.
        Je ne vous parle pas de la NOAA, je vous parle de Berkeley, avec des méthodes justes et une réponse juste qui doit donc être de la bonne science.
        J’aimerais votre avis.
        Merci

        J’aime

    • Sur le site Berkeley Earth, on voit deux courbes à chaque fois: l’une en ordonnée a « températures annuelles » ; elle grimpe aux molettes. L’autre est un zoom depuis 1998/2000 qui a pour ordonnée « anomalies mensuelles » où on retrouve bien la pause en particulier pour les températures continentales. Quelqu’un pourrait-il m’expliquer?

      Quant aux températures de surface en mer, Berkeley utilise les données satellites du Hadley center… dont on sait qu’elles ont « opportunément » été « recalibrées » après l’article de Karl.

      J’aime

    • Rosa,

      Question méthodologie, Berkeley, c’est la fraction continentale. Et non, leur méthode n’est pas, selon votre terme, juste. Elle n’est d’ailleurs qu’une variante de celles utilisées pour la construction des autres indices de températures de surface.

      Ces méthodes ne se basent pas sur les valeurs des données relevées (°C) mais sur la progression de ces valeurs (°C / t). Les inhomgénéités ponctuelles détectées dans les pentes de séries individuelles sont supposées être non significatives et sont simplement supprimées. Les pentes moyennes obtenues sont ensuite intégrées pour construire les anomalies de température.

      Du point de vue de la métrologie, un tel traitement est absurde et n’offre aucune garantie pour la reconstruction des tendances sur le long terme. On sait, en fait, grâce à plusieurs études régionales que le réchauffement en est accentué jusqu’à près de 1 °C par siècle par rapport aux données brutes.

      On peut expliquer ce biais de la manière suivante : l’augmentation régulière des perturbations anthropiques affecte les pentes et est donc pleinement prise en compte alors que les corrections partielles au moment des changements de sites sont supprimées par la méthode.

      J’aime

      • Merci Phi, je n’ai que peu de temps devant moi pour aller dans le détail, mais :
        Si « Du point de vue de la métrologie, un tel traitement est absurde et n’offre aucune garantie pour la reconstruction des tendances sur le long terme » quelle est votre méthode ? A-t-elle été utilisée / publiée ? Quid de la tendance ?C’est la méthode utilisée partout pour raccorder des séries.
        Si « Du point de vue de la métrologie, un tel traitement est absurde » que dire de tous les ajustement de capteurs qui sont fait tous les jours partout dans le monde et dans tous les domaines ?
        Si « Du point de vue de la métrologie, un tel traitement est absurde » pourquoi Berkeley, nid de climato-sceptiques, utilise-t-il (elle) cette méthode ?
        « On sait, en fait, grâce à plusieurs études régionales que le réchauffement en est accentué jusqu’à près de 1 °C par siècle par rapport aux données brutes. » Je veux bien une liste d’articles. Je suis particulièrement intéressé.
        A vous lire.

        J’aime

      • Rosa,
        « quelle est votre méthode ? A-t-elle été utilisée / publiée ? »

        Un peu hors sujet, non ?
        Disons qu’avec les caractéristiques des données disponibles, il paraît impossible de reconstruire des courbes ayant une précision raisonnable sur la seule base des stations météo.

        Mais quelques pistes :

        1. Contrôler les tendances à long terme régionales en calculant les moyennes des relevés bruts. La méthode est bonne si on s’assure de l’homogénéité des sources (séries longues).
        2. Contrôle avec les données satellitaires.
        3. Contrôle avec les proxies de la température.

        Quelques exemples pour ces trois points :
        1. Böhm 2001, Begert et al. 2003, http://berkeleyearth.org/wp-content/uploads/2015/04/Figure5.png
        2. http://oi68.tinypic.com/261kw9d.jpg, http://www.skyfall.fr/wp-content/2014/12/plusuah.png
        3. http://www.skyfall.fr/wp-content/2014/12/polar2.png, http://oi60.tinypic.com/2jdq590.jpg

        « que dire de tous les ajustement de capteurs qui sont fait tous les jours partout dans le monde et dans tous les domaines ? »

        Mais c’est complètement différent !!! Et on intègre jamais des dérivées de mesures dont on a supprimé les sauts quand on s’intéresse à l’évolution sur le long terme. Pensez par exemple à la dérive d’un instrument (tendances) et aux calibrages périodiques (sauts). Il n’y a qu’en climatologie que l’on peut rencontrer ce genre d’idiotie.

        J’aime

      • Mais non ça n’est pas hors sujet. Toute cette histoire c’est bien en raison du plateau non ?
        Je regarderai vos références à tête reposée, mais pour l’instant je vois qu’il n’y a pas eu d’alternative. Berkeley reste donc devant en terme de « test » sur les données brutes.
        Merci pour tout

        J’aime

  9. Ping : PLATEAU DE TEMPÉRATURES: LE POINT SUR LA NOUVELLE CONTROVERSE K 15 | Le blog de Reynald Du Berger

  10. Ping : Des climatologues défendent leur non-vérité | Mythes, Mancies & Mathématiques

Laisser un commentaire