2.Climat présent : la connaissance s'affine

Avec l’émergence des instruments de mesures en météorologie dès la fin du 19e siècle, la connaissance du climat s’est considérablement enrichie. Aujourd’hui, de longues séries de données sont disponibles pour étudier localement l’évolution des variables climatiques. Le développement des techniques de spatialisation et de modélisation en 2D ou 3D ont permis de décrire les processus complexes qui conditionnent le climat à l’échelle locale et régionale.

2.55. Instrumentation et techniques de spatialisation des données

La définition et la mémorisation de l’information météorologique à l’échelle humaine se décomposent en deux périodes très distinctes : avant et après l’invention des instruments de mesure.

Avant la mesure, seuls les écrits fixent pour la postérité une information plus ou moins quantifiée (Cf. 2.1). En 1709, les archives nous apprennent, par exemple, que l’hiver a été très rigoureux : Louis XIV a traversé le Rhône à Tarascon avec son armée en traînant des canons ; un mètre de neige recouvrait les rues niçoises ; le vin gelait dans les tonneaux au fond des caves à Villars-sur-Var… Ces détails constituent une approche descriptive indirecte d’un événement. Avec la période instrumentale apparaissent des réseaux de mesure d’abord thermométrique et pluviométrique, avec des protocoles précis permettant de standardiser et donc de comparer les données. Dès la fin du 19e siècle apparaît ainsi le poste de l’Observatoire Longchamp à Marseille, mais c’est surtout à l’issue de la Seconde Guerre mondiale que vont se multiplier les postes de mesure pour satisfaire la demande croissante d’information météorologique émanant de l’activité aérienne, l’agriculture, le tourisme hivernal et estival, les transports, la gestion du risque… Les progrès de l’électronique ont aussi permis de fabriquer des stations météorologiques amateurs de plus en plus fiables et complètes à un moindre coût, ce qui a encouragé la naissance de réseaux amateurs capables d’apporter des observations complémentaires à celles du

monde professionnel. L’apparition des satellites artificiels (Landsat, SPOT…) va également donner un nouvel élan à l’instrumentation, grâce aux capteurs passifs, détectant une large gamme de longueurs d’ondes, ou actifs (radars, par exemple), mais aussi aux capteurs au sol destinés à des applications de plus en plus pointues.

Mais la mesure ponctuelle terrestre, même effectuée en continu et répétée de proche en proche, présente l’inconvénient de laisser des espaces interstitiels sans information, ce qui signifie que la mesure enregistrée dans un contexte physico-environnemental local n’est a priori représentative que d’elle-même. La densité d’un réseau de mesures a des limites et la question de la spatialisation, c’est-à-dire de l’estimation en tout de point de l’espace, s’est vite posée afin de combler le « vide » de la manière la plus judicieuse.

Depuis les années 1970-80, de nombreux travaux ont été consacrés à cette problématique que l’on peut nommer pour simplifier « géostatistique » (Zoom 3). Dans cette démarche empirique, inductive, visant à attribuer la valeur la plus probable d’une variable à un point donné où la mesure est absente, deux familles de logiques différentes sont vite apparues.

ZOOM 3. Les deux logiques de la géostatistique

La géostatistique a pour objet « l’étude de tout phénomène quantitatif qui se développe de façon structurée dans l’espace et/ou le temps ». Elle se décompose en deux logiques :

L’une répond à la logique de l’autocorrélation spatiale qui consiste à attribuer à un point non documenté une valeur proche de celles de ses voisins documentés. Par exemple, dans le cas le plus simple, la valeur inconnue d’un point C, situé à mi-distance entre deux points A et B à valeur connue, sera égale à la moyenne de ces derniers : 10° en A et 6° en B, donc 8°C en C. Cela se complique quand on n’a plus affaire à un transect (une ligne), mais à une surface et quand on décide qu’il n’y a pas forcément de gradient linéaire entre les stations. Mais la logique fondamentale demeure : on s’appuie sur le principe qu’un point ressemble d’autant plus à un autre qu’il en est proche. C’est entre autres la logique du IDW (Inverse Distance Weight) omniprésent dans les systèmes d’information géographique (SIG), mais aussi celle des fonctions SPLINE ou encore des différentes formes de krigeage (Figure 6).

L’autre, déclinée sous le terme de « régressions environnementales », cherche des relations non pas entre les stations, mais avec leur environnement. Ce dernier est avant tout décrit par des caractéristiques d’ordre géographique, comme la latitude et la longitude, et topographique comme l’altitude, l’éloignement de la mer, l’exposition, la pente, l’encaissement relatif d’une vallée… Le choix de ces variables a évidemment en arrière-plan une connotation physique avec le poids exercé par la densité de l’air, le bilan radiatif, l’occurrence d’inversions thermiques… D’autres familles de descripteurs peuvent être prises en compte : végétation, matériaux urbains…

Figure 6. Lames d’eau mesurées en 24 heures le 3 octobre 2016 en PACA (Source : Keraunos)

Ces deux approches s’appliquent généralement à des situations différentes (les régressions environnementales en cas de relief contrasté, par exemple), mais peuvent se combiner à certaines étapes du calcul : les résidus (écart entre valeur observée en un point et valeur recalculée par le modèle) d’une régression environnementale peuvent être soumis au krigeage, s’ils ont une structure spatiale.

A ces démarches empiriques, on peut opposer une autre approche, déductive, totalement différente, celle de la modélisation déterministe fondée sur les lois de la physique. Ici, pour reconstituer un champ d’une variable (températures, précipitations…), on n’utilise pas un jeu de données locales (mesures), mais les lois physiques qui gouvernent une variable en calculant celle-ci à chaque point d’une grille (ou chaque pixel) à partir de la densité de l’air, du bilan radiatif, de la conduction dans le sol, de l’advection (apport d’air) horizontale et verticale, de la chaleur latente libérée par la condensation ou consommée par l’évaporation… Cette logique permet en outre de prévoir à différents horizons temporels, puisqu’en établissant un premier bilan au temps T, appelé « état initial », il est possible de calculer un nouvel état à court, moyen ou long terme qui devient à son tour un nouvel état initial et ainsi de suite. C’est la base de la prévision météorologique moderne, avec une limite de l’ordre d’une semaine à dix jours pour la prospective à cause du caractère chaotique de l’atmosphère.

2.102. Le changement climatique est-il déjà une réalité ?

Les indicateurs d’évolution du climat sont souvent donnés à l’échelle globale, décrivant ainsi une situation générale sur la planète, mais les effets du changement climatique ne sont pas uniformes d’un point de vue spatial et temporel. Selon les continents, les pays, la région ou les territoires, l’évolution du climat diffère, même si les tendances générales concordent.

Quelle évolution de la température dans le monde ?

Quand on parle de changement climatique, la première question est de savoir si on observe actuellement ses effets. Le dernier rapport du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC, WG1, 2013), rassemblant les compilations mondiales des observations depuis le début du 20e siècle, fait un constat clair. Le réchauffement du système climatique est sans équivoque. Depuis les années 1950, les changements observés sont sans précédent depuis des siècles, voire des millénaires. L’atmosphère et l’océan se sont réchauffés, la quantité de neige et de glace a diminué, le niveau des mers s’est élevé, les concentrations de gaz à effet de serre ont augmenté… Chacune des trois dernières décennies a été successivement plus chaude à la surface de la Terre que toutes les décennies antérieures depuis 1850. La période de 1983 à 2012 (30 ans) constitue probablement la période la plus chaude dans l’hémisphère Nord depuis 1400 ans. Depuis cette publication, les années 2014 et 2015 ont battu tous les records. En effet, d’après la National Oceanic and Atmospheric Administration (NOAA), 2015 a été de loin l’année la plus chaude à l’échelle du globe depuis le début des relevés en 1880. Sur l’année, la température moyenne globale — terres et océans compris — a dépassé de 0,9°C la moyenne de référence de 13,9°C calculée sur le 20e siècle. Cette anomalie est supérieure de 0,16°C à celle constatée en 2014, qui était jusqu’ici l’année la plus chaude jamais enregistrée.

La Figure 7 présente la tendance des températures moyennes de surface entre 1901 et 2012 sur le globe. La carte montre que le réchauffement n’est pas uniforme. Il est très sensible sur certaines zones continentales, comme la Russie, la Chine du Nord, le Canada ou encore le Brésil, et au contraire moindre sur les océans. Dans l’Atlantique Nord, au sud du Groenland, une baisse de la température est même constatée. En France, la hausse de la température se situe au niveau de l’augmentation moyenne constatée sur les continents de l’hémisphère Nord.

Figure 7. E volution des températures moyennes de surface (à 2 m au-dessus du sol) entre 1901 et 2012 (source : GIEC, rapport de synthèse AR5)

Quelle évolution de la température en France ?

En France métropolitaine, l’évolution des températures moyennes annuelles de l’air montre une tendance au réchauffement (Figure 8). La répartition spatiale de ce réchauffement n’est pas homogène, mais l’augmentation des températures est généralisée sur tout l’Hexagone.

L’augmentation de la température n’est pas la même si l’on considère la température minimale ou maximale de la journée.

Sur la majeure partie du pays, la température en fin de nuit a augmenté plus rapidement que celle relevée en milieu d’après-midi, à l’exception notable des Alpes du Nord.

Le rythme de cette augmentation s’est accéléré de manière significative depuis les années 1980. Ainsi, sur la période 1959- 2009, la tendance observée est d’environ +0,3°C par décennie et les trois années les plus chaudes (2014, 2011 et 2015) ont été observées dans les cinq dernières années. A l’échelle de la France, la température moyenne a dépassé la normale 1981- 2010 de 1,2°C en 2014, de 1,1°C en 2011 et de 0,9°C en 2015.

Figure 8. Tendances annuelles 1900-2000 des températures de l’air (minimales à gauche, maximales à droite). Source : Météo-France

ZOOM 4. Reconnaître les tendances climatiques

Comment détecter les tendances climatiques ?

La détection des tendances climatiques fait appel à des techniques statistiques sophistiquées. En effet, pour apprécier une tendance du climat à long terme dans une série de données, il faut tout d’abord disposer de plusieurs dizaines d’années de mesures, car la variabilité interannuelle des données, c’est-à-dire l’ordre de grandeur des différences de valeur d’une année à l’autre, est plus forte que le signal climatique que l’on cherche à détecter. Mais plus la série de données est longue, plus elle est susceptible d’avoir été perturbée par d’autres facteurs : changement du capteur de mesures ou de sa localisation, modifications de l’environnement local ou de la méthodologie de mesure… Il convient donc de vérifier, en comparant les mesures réalisées à un poste à celles effectuées à des postes voisins, si des discontinuités existent dans la série de mesures. Si c’est le cas, on effectue une correction statistique de la série et on crée ainsi une série « homogénéisée », débarrassée des ruptures détectées et dont l’évolution ne représente plus que le signal du changement climatique. Météo-France a ainsi homogénéisé 230 séries de

températures et 1100 séries de précipitations en France métropolitaine. Ce jeu de données permet de poser un diagnostic précis sur les tendances observées depuis le milieu du 20e
siècle.

La variabilité climatique en question

Détecter une tendance sur un paramètre climatique présentant une variabilité importante n’est pas facile. L’évolution de fond est en effet masquée par les écarts d’une année à l’autre. Pour être plus explicite, faisons le parallèle avec les vagues déferlant sur une plage : la première vague
vient mourir à un certain niveau sur la plage, la suivante un peu moins haut, une autre beaucoup plus bas, puis la nouvelle dépasse les trois premières, et ainsi de suite. Si on observe dix vagues successives, on est incapable de dire si la marée monte ou descend. Au bout de cinq cents vagues, même si les vagues continuent de déferler de manière différente, le sens de la marée se dessine sans le moindre doute. Pour le climat, la logique est similaire. Et même si cela peut paraître paradoxal, il est plus difficile, en théorie, de déterminer le climat de la prochaine décennie que celui de la fin du siècle.

Ces tendances (Zoom 4) montrent que le changement climatique a débuté depuis les années 80 en France, notamment en ce qui concerne les températures. De plus, les années 2014 et 2015 sont les années les plus chaudes observées depuis les relevés disponibles. La tendance au réchauffement est perceptible et le changement climatique est une réalité à laquelle nous devons faire face en PACA.

Le signal du changement climatique est-il déjà observé en PACA ?

Pour témoigner de l’évolution récente du climat présent en Provence-Alpes-Côte d’Azur, des indicateurs relatifs à la température de l’air, aux précipitations et au vent sont commentés.

Températures de l’air

Les séries homogénéisées de températures en Provence-Alpes-Côte d’Azur (23 séries sur les températures minimales et 28 séries sur les températures maximales) permettent d’évaluer de façon précise les tendances au cours des cinquante dernières années.

La Figure 9 illustre l’évolution annuelle de l’écart de la température moyenne à la normale 1961-1990 (moyenne des températures moyennes sur la période de 30 ans) pour trois stations représentatives de la région.

Ces diagrammes montrent que la température moyenne annuelle est globalement en augmentation, même si une forte variabilité d’une année à l’autre est constatée. Pourtant, l’augmentation n’est pas uniformément répartie sur l’année. Certaines saisons ont une hausse moindre :

  • la tendance observée des températures moyennes hivernales est de l’ordre de +0,2°C par décennie ;
  • la saison d’été est celle qui présente le réchauffement le plus fort sur les cinquante dernières années. Sur la période 1959-2009, la tendance observée des températures moyennes estivales est d’environ +0,5°C par décennie. Les trois étés les plus frais depuis 1959 ont été observés avant les années 1980. Les plus chauds se sont produits après l’année 2000. Le caractère hors-norme de l’été 2003 est bien visible.

La hausse globale observée sur les températures en PACA a des répercussions sur le nombre de jours de gel et le nombre de journées chaudes :

  • le nombre annuel de jours de gel est très variable d’une année à l’autre, mais aussi selon les territoires : les gelées sont rares sur le littoral et plus fréquentes à l’intérieur des terres. En cohérence avec l’augmentation des températures moyennes, le nombre annuel de jours de gel est plutôt en diminution, mais celui-ci varie fortement d’un point de mesure à l’autre. Les années 2014 et 2015 sont parmi les moins gélives en PACA. A Cannes, le nombre de jours de gel moyen par année est de 14. Il a gelé 3 jours en 2014 et 4 jours en 2015. A Saint-Auban-sur-Durance, au lieu de 59 jours de gel en moyenne, on en a observé seulement 27 en 2014 et 38 en 2015 ;
  • le nombre annuel de journées chaudes (températures maximales supérieures à 25°C) est également très variable d’une année à l’autre et selon la localisation géographique : les journées chaudes sont plus fréquentes lorsqu’on s’éloigne du relief et de la mer Méditerranée. Sur la période 1959-2009, on observe une augmentation forte du nombre de journées chaudes, entre 6 à 7 jours par décennie. 2003, 2009 et 2011 sont les années qui ont connu le plus grand nombre de journées chaudes.

A l’instar du niveau national, la température minimale en PACA augmente plus vite que la température maximale.

Figure 9. Ecart des températures moyennes annuelles par rapport à la référence 1961-1990 (Météo-France/ClimatHD, www.meteofrance.fr/climat-passe-et-futur/climathd)

Précipitations

Les précipitations annuelles présentent une grande variabilité interannuelle comme le montrent les diagrammes de la Figure 10 qui représentent les anomalies des cumuls annuels de 1959 à 2014 par rapport à la moyenne des précipitations sur 30 ans (1961-1990). Ainsi, une année positive (en vert) sera plus pluvieuse que la normale, alors qu’une année négative (en marron) sera plus sèche que la normale.

Figure 10. Anomalies des cumuls annuels de précipitations par rapport à la moyenne des précipitations sur 30 ans (période de référence : 1961-1990). La courbe représente la moyenne glissante des cumuls annuels sur 11 ans (Météo-France/ClimatHD)

Les Figures 11 et 12 présentent la répartition spatiale des tendances des cumuls annuels ou saisonniers de précipitations. Sur ces cartes, les pastilles sont en vert lorsque la tendance montre une augmentation des précipitations, en rouge lorsque la tendance montre une diminution. La taille du symbole représente le niveau de confiance de la tendance estimée, basé sur un test statistique.

Sur la période 1959-2009, les tendances sont très peu marquées sur l’ouest et le nord de la région. Sur le Var et les Alpes-Maritimes, il existe un signal plus cohérent avec une diminution faible des cumuls annuels, mais ce signal n’est pas toujours statistiquement significatif.

Comme pour les températures de l’air, de forts écarts sont constatés selon les saisons. La baisse est plus importante et significative en hiver et en été, mais le signal est beaucoup plus faible au printemps et surtout à l’automne. En hiver et pour la majeure partie du Var et de l’ouest des Alpes-Maritimes, la diminution des pluies est à la fois plus importante (en pourcentage) et plus significative statistiquement que pour l’année entière (Figure 12). A contrario, en automne, le signal vers une diminution ou une augmentation n’est pas univoque et aucune des tendances calculées n’est robuste au sens statistique.

Figure 12. Evolution relative des cumuls de précipitations en hiver (en haut) et en automne (en bas) par point de mesure en PACA et départements limitrophes (source : Météo-France/ClimatHD, http://www.meteofrance.fr/climat-passe-et-futur/climathd)

En région PACA, l’analyse de la fréquence des événements pluvieux intenses méditerranéens (seuils journaliers de 100, 150 ou 190 mm) depuis 1958 ne met pas en évidence de tendance d’évolution du nombre d’épisodes (Figure 13). La principale caractéristique des événements extrêmes reste la forte variabilité interannuelle. Ainsi, en région PACA, selon les années, on peut enregistrer 1 à 16 journées avec des pluies supérieures ou égales à 100 mm, 0 à 5 journées supérieures ou égales à 150 mm et 0 à 3 journées supérieures ou égales 190 mm.

Figure 13. Nombre annuel de jours de précipitations intenses en 24 heures dans les départements de la région Provence-Alpes-Côte d’Azur (source : Météo-France)

Force du vent

Les tendances sur le vent sont plus difficiles à apprécier, d’une part, parce que ce paramètre n’a pas été homogénéisé et ensuite du fait d’un changement global de la méthode de mesure du vent par Météo France dans les années 1990. Cette modification a introduit une rupture dans les séries de mesures et rend difficilement comparables les valeurs avant et après ce changement.

Une analyse de la fréquence des vents forts est néanmoins possible. La Figure 14 montre l’évolution du nombre moyen annuel de jours de Mistral (vent de secteur nord-ouest supérieur à 10 mètres/seconde) mesuré par quatre
stations de la région. Cette évolution de la fréquence des vents forts n’est pas significative sur la période 1974-2014. En moyenne, par an, depuis le déploiement des nouveaux capteurs, on enregistre 90 jours de vent fort (plus ou moins 15%).

Figure 14. Evolution du nombre moyen annuel de jours de Mistral (supérieur à 10 mètres/seconde) à Orange, Istres, Marignane et Toulon (source : Météo-France)
Rechercher
Newsletter