Sélectionner une page

(NB :Si l’aricle vous parait trop long à lire, ou si vous voulez plus de détail, allez voir la vidéo Youtube associée ;).  Vous pouvez également télécharger cet article pdf avec les codes et données associées en bas de cette page)

Cette question m’est venue à la lecture d’un commentaire sur un groupe facebook dont je suis membre. L’auteure de ce post, qui a une aversion manifeste pour le GIEC (répétée dans plusieurs commentaires, plusieurs fois dans l’année), écrit ceci :

 

L’auteur affiche un scepticisme apparent sur le consensus actuel au sujet du changement climatique. Que l’on ne se méprenne pas : c’est important d’être sceptique, parce que cela évite de croire n’importe quoi. Le fondement du scepticisme, c’est d’avoir le courage de revoir son jugement selon les arguments qui nous sont présentés, ce qui constitue la base de la pensée scientifique. Ce qui est critiquable, par contre, c’est de se dire sceptique et de refuser de recevoir les arguments qui ne vont pas dans le sens que l’on souhaite. C’est ce qu’on appelle le biais de confirmation.

Je voulais répondre tout de suite à la publication, mais écrire une réponse complète m’aurait pris beaucoup trop de temps. Je me suis donc dit que cela valait la peine d’écrire un long article qui explique les bases des séries temporelles, appliquées au changement climatique. Cela me permet en même temps de glisser 2-3 conseils pour mes collègues biologistes qui ont ou auront à traiter avec des séries temporelles. D’ailleurs, il y a la possibilité de télécharger les codes R relatifs aux figures de l’article en bas de celui-ci. 

Ceci étant dit, nous pouvons revenir sur les propos ci-dessus.

A la première lecture, l’argumentaire semble cohérent. Seulement, il y a plusieurs biais de raisonnement. Il faut reprendre les arguments les uns après les autres pour avoir un propos structuré.

Argument 1 : l’augmentation de température reste stable alors que la concentration en CO2 augmente.

Ici, il y a une mauvaise compréhension des modèles physiques qui lient CO2 et température. La personne suppose que la relation qui lie CO2 et température est directe, et qu’on a quelque chose de type température = f(CO2). En réalité, la température à la surface de la Terre dépend de la quantité d’énergie dans le système sol-atmosphère-océan. Il faut donc comprendre les flux d’énergie entrant dans ce système et les flux d’énergie sortant de ce système. La page wikipedia sur le bilan radiatif de la Terre explique très bien l’ensemble de ces flux : https://fr.wikipedia.org/wiki/Bilan_radiatif_de_la_Terre

La quantité d’énergie entrant dans le système sol-atmosphère-océan dépend par exemple des radiations solaires, du volcanisme, etc. La quantité d’énergie sortant dépend des gaz à effet de serre (méthane, CO2, vapeur), de l’albédo, etc. Les modèles qui permettent de lier la température au CO2 se basent donc en réalité sur des équations physiques intégrant l’ensemble de ces paramètres. Une augmentation de la concentration en CO2 atmosphérique au cours d’une année ne mène pas forcément à une augmentation de la température globale, puisque d’autres paramètres peuvent temporairement en compenser l’effet. Le rapport AR5, dans son chapitre 9, détaille la façon dont les modèles climatiques sont construits. Le chapitre est téléchargeable ici : https://www.ipcc.ch/site/assets/uploads/2018/02/WG1AR5_Chapter09_FINAL.pdf

Il faut toujours, lorsque l’on analyse des résultats où lorsque l’on essaie de faire des prédictions, prendre en compte l’ensemble des paramètres du modèle. Autrement, on risque de conclure de façon erronée. Dans le cas du CO2 et de la température, oui, une augmentation de CO2 atmosphérique conduit à une augmentation de température globale de la Terre. Le mécanisme en jeu s’appelle le forçage radiatif : cela correspond à la quantité d’énergie qui est conservée dans le système sol-atmosphère-océan à cause de la concentration en CO2 Cependant, comme il y a beaucoup d’autres facteurs en jeu, et que le forçage radiatif dû au CO2 est relativement faible (en ordre de grandeur, moins d’un Watt/m² ) comparé au flux globaux (les radiations solaires reçues sont de l’ordre de 340 W/m²), l’effet instantané (sur une année) de l’augmentation de la concentration en CO2 n’est pas forcément perceptible et peut être compensé par autre chose. Néanmoins, l’effet cumulé est bien réel.

A titre d’illustration, imaginons que l’atmosphère est une bassine, remplie d’une certaine quantité d’eau (représentant l’énergie, et donc in fine la température). Un robinet avec un débit D remplit la bassine. Simultanément, un trou dans la bassine permet à l’eau de s’évacuer avec le même débit D. Cela correspond à la part d’énergie perçue qui est renvoyée dans l’espace. Maintenant, s’il y a une toute petite différence entre le débit de remplissage et le débit d’évacuation, la quantité d’eau dans la bassine va changer. Le forçage radiatif dû à l’effet de serre est très petit, on l’a vu, mais il est constant. Cela revient à rétrécir un petit peu le trou dans la bassine. Donc, l’eau va commencer à monter, doucement certes, mais monter quand même. Il peut arriver que le débit du robinet varie un petit peu d’une année sur l’autre, et qu’il vienne plus ou moins compenser la réduction du débit de sortie. Néanmoins, ces variations se font sur de courtes périodes, alors que la réduction du débit due au forçage radiatif est constant.

On peut simuler tout ça assez facilement sur R (un langage de programmation open source dédié aux statistiques). La portion de code suivante est à l’attention de mes lecteurs ayant un intérêt sur R. Si cela ne vous intéresse pas, vous pouvez passer directement au résultat 😉

Créons d’abord une série de longueur 1000 minutes (un peu plus de 16 heures). On définit qu’on a un robinet avec un débit DebitE = 10 l/min et un trou avec un débit de sortie DébitS = 10 l/min également. On définit que notre bassine contient 40 litres d’eau au départ

set.seed(123)
Vbassine <- 40
DebitE <- 10 # Débit Entrant
DebitS <- 10 # Débit Sortant
longueurSerie <- 1000

On ajoute ensuite des variations aléatoires du débit entrant, à plus ou moins 0.02 l/min, grâce à la fonction rnorm (l’écart type étant à 0.01 et la moyenne 0, presque 100% des valeurs sont entre -0.02 et +0.02). Ensuite, on réduit progressivement le débit de sortie. Durant les 500 premières minutes, DebitS ne change pas. De la minute 500 à la minute 1000, le débit sortant passe progressivement de 10 l/min à 9.995 l/min, soit une diminution de 0.05%.

DebitE <- DebitE + rnorm(longueurSerie, sd = 0.01)

DebitS <- DebitS – c(rep(0,longueurSerie/2), seq(0, 0.005, length.out = longueurSerie/2))

Ensuite on calcule les différences de Débit et on calcule l’accumulation d’eau dans la bassine

Diffs <- DebitE – DebitS

for(i in 2: longueurSerie){

  Vi <- Vbassine[length(Vbassine)]

  Vbassine <- c(Vbassine, Vi + Diffs[i-1])

}

plot(Vbassine)

Le résultat est le suivant :

On voit bien que le niveau fluctue jusqu’à 500 minutes, et on SAIT que ces fluctuations sont dues au hasard, puisque c’est comme ça qu’on l’a écrit dans le code. Ensuite on voit que le niveau d’eau augmente, très légèrement, mais qu’il augmente quand même, jusqu’à 41.5 l.

Il y a donc une tendance à la hausse, qui est dûe à la réduction progressive du débit sortant, et une part d’aléatoire qui représente tous les paramètres que l’on ne contrôle pas ou que l’on ne connaît pas. Ce qu’il faut comprendre ici, c’est que ce n’est pas parce que la bassine se vide temporairement à cause de la stochasticité que l’effet de la réduction de débit sortant s’arrête. Il est juste compensé temporairement. C’est la même chose pour le CO2. Ce n’est pas parce que l’effet du forçage radiatif a été temporairement compensé que cet effet s’arrête.

Une fois que l’on a intégré qu’il y avait des variations rapides et une tendance générale, on est tout à fait armé pour comprendre les séries temporelles. Et ce faisant, cela me permet de pointer du doigt la deuxième chose qui n’est pas comprise : la stochasticité dans une série temporelle.

Argument 2 : on est sur un plateau de température.

L’auteure écrit que nous sommes sur un plateau voire une baisse de température, car l’anomalie mesurée en 2016 était de +2.2°C alors que l’anomalie mesurée l’an dernier était de +1.1°C. Pour rappel, l’anomalie est la différence entre la température moyenne du globe et la température de référence. La température de référence est la température moyenne entre 1951 et 1980. Pour voir exactement ce qu’il en est, téléchargeons les données à cette adresse : https://data.giss.nasa.gov/gistemp/, et regardons les données depuis 2016 :

A première vue on se dit que l’auteure du post facebook à raison : ça ne monte pas du tout !

Sauf que….c’est une très mauvaise façon d’interpréter une série temporelle.

Une série temporelle est en général décrite avec trois composantes :

  1. une tendance, qui est la direction générale que prennent les données
  2. une saisonnalité, qui est la variation périodique de la variable observée
  3. la stochasticité, qui correspond à toutes les petites variations non expliquées, à l’aléatoire

Il peut y avoir plusieurs composantes saisonnières qui se superposent. Par exemple, pour la température atmosphérique dans une ville au cours d’une année, il y a un cycle jour/nuit (plus froid la nuit que le jour), et un cycle annuel (plus froid en hiver qu’en été). Parfois il n’y a pas de composante saisonnière.

L’idée n’est pas ici de faire un cours complet sur les séries temporelles, mais de donner les clés pour décomposer le graph des anomalies de température.

Le jeu de données téléchargé plus tôt comprend l’anomalie moyenne, chaque mois depuis le premier janvier 1880. Affichons ces données.

Chaque point représente l’anomalie mensuelle. La ligne bleue qui parcourt ces points est ce qu’on appelle un lissage (smoothing), qui permet de tracer une courbe de tendance. Dans le cas présent, le modèle mathématique qui a servi à créer cette courbe est un modèle additif généralisé, mais on n’entrera pas dans le détail. Nous voyons d’emblée que la tendance de l’anomalie est franche, surtout depuis les années 1950, avec une augmentation quasi linéaire. Cette augmentation est très faible, ce qui n’est pas étonnant si vous vous souvenez de la faible intensité du forçage radiatif. Nous voyons également que les points sont plus ou moins proches de cette tendance. Pourquoi ? Et bien parce qu’il y a une composante saisonnière et stochastique qui entrent en jeu

Les séries temporelles ont fait l’objet de nombreux travaux depuis des années, et il existe de nombreux outils pour les analyser. Sous R, que j’utilise, il y a notamment le package “stats” qui permet de décomposer la série temporelle en tendance, saison, et résidus (la stochasticité). Voici ce que cela donne, au premier abord :

Bien sûr, dans la vraie vie, et pour publication, on passerait beaucoup plus de temps à chercher la meilleure façon de décomposer cette série temporelle. Mais pour l’illustration, l’algorithme de base est bien suffisant. La façon dont cette figure se lit, c’est que le graphique du haut est en fait la somme des 3 graphiques inférieurs. On voit que la tendance est très similaire aux données brutes, mais la courbe est beaucoup plus lisse. C’est parce qu’on en a retiré la composante saisonnière, et la composante aléatoire (la stochasticité, ou les résidus). La saisonnalité parait très confuse, parce qu’en fait il il y a une cyclicité annuelle, et comme il y a beaucoup de cycles représentés sur le graph, c’est moche. Ce qu’on remarque également, c’est que le graphique des résidus ne présente pas de motif particulier. Cette courbe n’est ni croissante ni décroissante, et ne présente pas de bosse. C’est très important car, si cette courbe présentait des motifs spécifiques, cela voudrait dire que les processus aléatoires ne sont pas répartis équitablement au cours de la série temporelle, et que la décomposition est mal paramétrée. En gros qu’on a fait n’importe quoi.

Alors effectivement, si l’on regarde les données depuis 2016, on a l’impression d’être sur un plateau. En revanche, si l’on regarde la série dans son ensemble, on comprend que cette impression est due à la stochasticité de la série temporelle. En calculant d’abord la tendance, puis en zoomant sur la période 2016-2020, c’est frappant :

Pour résumer, la tendance représente la réalité globale (par exemple : les hommes sont en général plus grands que les femmes), alors que la stochasticité représente la réalité locale (je connais Chantale, et elle est plus grande que Michel). La réalité locale ne change pas la réalité globale : ce n’est pas parce que Chantale est plus grande que Michel que les hommes ne sont pas plus grands que les femmes. C’est juste qu’il existe des variations naturelles. D’ailleurs, tout le travail des statistiques est de quantifier ces variations, cette stochasticité !

Bref, une fois qu’on a fait cette décomposition de série temporelle, on peut s’amuser à la décrire sous forme d’équation, et à prédire ce que sera l’anomalie dans les années à venir. Il existe mille façons de le faire. Dans notre cas, et pour le fun, on utilisera du triple lissage exponentiel, appelé aussi Holt Winters. Voici les prévisions pour les 50 prochains mois.

Si nous étions réellement sur un plateau, l’algorithme l’aurait capturé. Ici, il nous prédit une augmentation de l’anomalie. Il faut noter que cette prédiction se base uniquement sur la forme de la série temporelle, et pas du tout sur les paramètres géophysiques utilisés par le GIEC pour modéliser les différents scénarios de réchauffement.

Argument 3 : l’année 1880 est un très mauvais point de référence car cela marque la fin du Petit Âge Glaciaire, donc les températures ne pouvaient que monter.

Là encore, l’argument fait sens. Cela dit, de nombreux articles en paléoécologie et paléoclimatologie, ont permis de reconstituer le climat passé à l’aide de plusieurs indicateurs. Un des papiers les plus cités est celui – ci https://www.nature.com/articles/nature03265#MOESM1

Il utilise plusieurs méthodes,  sur lesquelles on ne va pas s’étaler, pour calculer les températures. L’article étant publié dans Nature, on peut considérer que la méthodologie employée est fiable.

Il suffit de regarder les données pour se rendre compte que l’anomalie mesurée aujourd’hui est bien supérieure à ce qu’il y avait avant le petit âge glaciaire :

Il n’y a pas grand chose à dire sur ce ce graphique. Il parle de lui-même. On notera la forte stochasticité des points avant les années 1900 qui est due à l’incertitude du modèle qui a permis de reconstruire les températures passées. On peut gommer un peu ce bruit en utilisant une moyenne glissante (Moving Average).

La moyenne glissante se calcule comme suit :

  • On choisit une taille de fenêtre, par exemple 10.
  • Pour l’année 10, on calcule la moyenne de l’année 0 à l’année 10, puis on décale d’une année.
  • Pour l’année 11, on calcule la moyenne de l’année 1 à l’année 11, puis on décale d’une case, 
  • Ainsi de suite jusqu’à arriver au bout du tableau.

On perd un peu de données (on perd autant de points que la taille de la fenêtre), mais ça permet d’avoir quelque chose de beaucoup plus lisible. La moyenne glissante est un lissage très classique en série temporelle ! Voilà ce que cela donne :

En conclusion

L’erreur de l’auteure du post facebook est de se concentrer sur des détails qui la confortent dans son opinion, c’est ce qu’on appelle le biais de confirmation. Et dans la recherche cela nous arrive aussi, malheureusement ! Il arrive parfois que l’on s’obstine tellement à vouloir que notre expérience marche qu’on ne voit pas tous les résultats qui nous disent que ça ne marche pas. Le tout est de s’en rendre compte 😉

Ce qu’il faut retenir, en bref, c’est que:

  1. La relation qui lie le CO2 au réchauffement est très complexe et dépend de nombreux paramètres. Ceci dit, elle est très bien comprise, et une récente étude montre que la plupart des modèles développés au cours des dernières décennies ont prédit correctement le climat actuel.(https://agupubs.onlinelibrary.wiley.com/doi/abs/10.1029/2019GL085378)
  2. L’effet du forçage radiatif dû au CO2 est réel, même s’il est difficilement perceptible à notre échelle car très faible.
  3. On ne peut pas interpréter une série temporelle sans la regarder dans son ensemble.La fin du PAG n’est peut-être pas le meilleur point de référence, mais l’anomalie de température dépasse de nos jours toutes les températures mesurées ou estimées pendant l’Holocène.(depuis 2000 ans)

Pour le biologiste qui doit traiter des séries temporelles :

  1. Il existe des packages qui font tout pour vous. Je recommande lubridate, forecast, et zoo.
  2. La moyenne glissante (fonction SMA du package forecast ou rollmean du package zoo) est très pratique pour débruiter une série temporelle.
  3. Il faut toujours garder en tête qu’une série temporelle est composée de plein de choses et qu’il faut la décortiquer.
  4. HoltWinters est une très bonne base pour s’exercer à modéliser une série temporelle.

Références

GISTEMP Team, 2020: GISS Surface Temperature Analysis (GISTEMP), version 4. NASA Goddard Institute for Space Studies. Dataset accessed 20YY-MM-DD at https://data.giss.nasa.gov/gistemp/.

Lenssen, N., G. Schmidt, J. Hansen, M. Menne, A. Persin, R. Ruedy, and D. Zyss, 2019: Improvements in the GISTEMP uncertainty model. J. Geophys. Res. Atmos., 124, no. 12, 6307-6326, doi:10.1029/2018JD029522.

Hausfather, Z., Drake, H. F., Abbott, T., & Schmidt, G. A. ( 2019). Evaluating the performance of past climate model projections. Geophysical Research Letters, 46. https://doi.org/10.1029/2019GL085378

Flato, G., J. Marotzke, B. Abiodun, P. Braconnot, S.C. Chou, W. Collins, P. Cox, F. Driouech, S. Emori, V. Eyring, C. Forest, P. Gleckler, E. Guilyardi, C. Jakob, V. Kattsov, C. Reason and M. Rummukainen, 2013: Evaluation of Climate Models. In: Climate Change 2013: The Physical Science Basis. Contribution of Working Group I to the Fifth Assessment Report of the Intergovernmental Panel on Climate Change [Stocker, T.F., D. Qin, G.-K. Plattner, M. Tignor, S.K. Allen, J. Boschung, A. Nauels, Y. Xia, V. Bex and P.M. Midgley (eds.)]. Cambridge University Press, Cambridge, United Kingdom and New York, NY, USA

A.E. Roy, D. Clarke Taylor & Francis, « Astronomy Principles and Practice Fourth Edition » [archive], 1er juin 2003, p. 21.,(en) Barrie W. Jones, « Life in the Solar System and Beyond » [archive], Springer, 11 février 2004.

 

Téléchargez l'article en pdf et recevez les codes et datasets !

Vous recevrez tout immédiatement et aurez accès à mes nouveaux articles en avant première !

Pin It on Pinterest

Share This