[Temps de lecture moyen 7 min]

C’est la saison : certains matins on commence à gratter les pare-brises de nos voitures couverts de givre. Mais avez-vous remarqué un truc bizarre ? Même si la température ambiante minimale atteinte au moment le plus froid de la nuit (juste avant le lever du soleil) n’est pas négative, par exemple +3 degrés, il y a quand même du givre.
C’est étrange, non, quand on sait que l’eau gèle seulement en dessous de 0 degrés ?

Roses couvertes de givre

Voilà l’explication : le givre peut se former car, la nuit, les objets (sol, végétation, voitures….) sont plus froids que l’air, et la différence peut être de plusieurs degrés. Ainsi même si la température ambiante – c’est à dire celle de l’air à environ 1,5 m du sol – est de 2 degrés, il est tout à fait possible que la surface d’un objet comme une voiture soit par exemple à -1 degrés. Dans ce cas, la vapeur d’eau contenue dans l’air(*) va pouvoir se condenser sur la surface froide de l’objet et former du givre.
Ce phénomène de différence de température entre les objets et l’air se produit en réalité toutes les nuits : s’il fait un peu moins froid c’est juste de la rosée qui se forme, au lieu du givre, toujours par condensation de la vapeur d’eau contenue dans l’air. De fait, nous avons tous constaté que, le soir dès que la nuit tombe, de la rosée commence à se former dans l’herbe, non ?
Il n’y a que lorsqu’il y a du vent que le phénomène est perturbé et peut ne pas se produire. Dans tout cet article nous faisons d’ailleurs l’hypothèse de l’absence de vent : dès l’instant où il y a du vent tous les phénomènes évoqués sont perturbés par le mouvement de ce fluide qu’est l’air.

Bon tout cela est bien joli, mais comment se fait-il que, la nuit, sans vent, les objets sont plus froids que l’air ?? Pourquoi les objets ne sont-ils pas tout simplement à la même température que l’air dans lequel ils baignent ?

Pour le comprendre, il faut répondre à la question suivante : comment un objet se refroidit-il ?
En fait il n’y a pas 36000 façon pour un objet de se refroidir (sans vent), il y en a deux :

  1. refroidissement par contact avec un objet plus froid (refroidissement par « conduction ») : si vous mettez en contact un objet froid et un objet chaud alors un transfert de chaleur(**) va se produire du chaud vers le froid et l’objet le plus chaud va se refroidir.
    Ce n’est toutefois pas le phénomène qui est en cause ici car la nuit les objets qui nous intéressent (voiture, végétation) ne sont pas en contact avec un autre objet qui serait plus froid…
  2. refroidissement par rayonnement : nous y voilà, on arrive au cœur du sujet. Qu’est-ce que c’est que cette histoire de rayonnement ?

Il faut savoir que la matière a une propriété intrinsèque et universelle : les objets et les corps, quels qu’ils soient, émettent tous en permanence une lumière invisible à nos yeux : des rayonnements infrarouges. Plus ils sont chauds, plus ils en émettent, et plus ils sont froids, moins ils en émettent.

En mesurant les infrarouges émis par les objets, les caméras infrarouges permettent (par exemple) de voir les hommes et les animaux la nuit car ils sont plus chauds que leur environnement.

Et du coup que se passe-t-il quand la nuit tombe ? La lumière du soleil, qui baignait tout l’environnement et réchauffait le sol et les objets, disparaît mais les émissions d’infrarouges, elles, restent car elles sont permanentes. Il y a donc un déséquilibre qui s’installe et le sol et les objets perdent leur chaleur par rayonnement (infrarouge). Conséquence : ils se refroidissent. On appelle cela le « refroidissement radiatif »(***).

Voilà donc l’explication principale : la nuit, les objets et le sol se refroidissent par rayonnement, deviennent plus froid que l’air, qui se refroidit aussi à son tour progressivement à leur contact. C’est la raison pour laquelle il y a jusqu’à 5 degrés d’écart en la température de l’air à 1,5 m du sol et la surface du sol.
En quelque sorte, la nuit, tout se refroidit à partir du bas, à cause des infrarouges émis par le sol et les objets. D’où le fait que ceux-ci se couvrent de rosée – ou de givre s’il fait suffisamment frais – par condensation de la vapeur d’eau présente dans l’air.
[J’ajoute encore une fois que tout cela n’est vrai qu’en l’absence de vent : si le vent souffle à plus de 5km/h, alors le brassage de l’air qui en résulte homogénéise les températures partout]

Refroidissement radiatif par le sol

Pour aller un petit peu plus loin, vous avez peut-être remarqué que le givre ne se forme pas de la même façon partout : certains objets sont plus givrés que d’autres non ?
En effet, il se trouve que les objets petits et fins vont plus rapidement perdre leur chaleur et descendre en température à cause de leur petit volume, en comparaison des objets plus massifs qui possèdent en quelque sorte une « réserve » de chaleur du fait de leur volume important. Ainsi les brins d’herbe, les fleurs, les feuilles, la tôle fine d’une carrosserie de voiture, un pare-brise de quelques millimètres d’épaisseur, une ardoise sur le toit d’une maison, vont givrer plus vite que, par exemple, un mur ou un tronc d’arbre.
Autre observation : la baisse de température est plus importante les nuits sans nuages, vous aviez remarqué. En effet quand il y a des nuages ceux-ci vont absorber les infrarouges émis par le sol & les objets et les réémettre, en partie vers le sol, ce qui va limiter le refroidissement de celui-ci. Il est bien plus rare d’avoir à gratter sa voiture le matin quand la nuit était nuageuse…

Refroidissement par le sol par temps nuageux

Voilà, c’est tout pour aujourd’hui, vous pouvez me remercier d’avoir répondu à une question qui, j’en suis sûr, vous taraudait depuis longtemps ! ;-)

(*) Pour avoir quelques compléments d’explication à propos de la vapeur d’eau, vous pouvez lire mon précédent article concernant l’influence de la vapeur d’eau sur l’intensité de certains phénomènes climatiques.
[retour]

(**) Une petite digression : c’est quoi exactement la « chaleur » ? C’est vrai ça, on en parle couramment mais le savez-vous précisément ?
Si je voulais l’exprimer de façon provocante, je dirais que la chaleur… ça n’existe pas ! En effet, la chaleur n’est pas un fluide, ce n’est pas quelque chose qui aurait une existence propre que l’on pourrait isoler, manipuler, stocker ou transmettre en tant que tel.
Alors qu’est-ce que c’est ? Bon, vous savez que la matière – solide, liquide ou gazeuse – est constituée d’atomes et/ou de molécules, n’est-ce pas ? Et bien il se trouve que ces atomes & molécules ne sont jamais immobiles, ils bougent et/ou vibrent en permanence et c’est cette agitation permanente qu’on appelle la chaleur. Plus les atomes/molécules s’agitent et plus l’objet qu’ils/constituent est chaud. Et vice versa, plus les atomes/molécules sont « calmes », plus il est froid.
Lorsque les atomes & molécules sont totalement immobiles alors on atteint la température la plus basse qui puisse exister : -273,15 degrés Celsius. On l’appelle le « zéro absolu ». NB : en réalité on ne l’atteint jamais complètement car il est extrêmement difficile d’empêcher totalement les atomes et molécules de bouger (c’est comme pour les jeunes enfants à table !). On arrive seulement, dans des expériences scientifiques poussées et avec de gros moyens, à s’en approcher à quelques fractions de degré près.

Du coup (oui oui, je sais, il y en a que ça énerve mais j’aime bien dire « du coup » !), quand on parle de « transfert de chaleur » par conduction d’un objet chaud à un objet froid, ce qui se passe en réalité c’est que les atomes/molécules de l’objet chaud transmettent leur agitation aux atomes/molécules de l’objet froid.
[retour]

(***) Et comment s’explique le refroidissement radiatif si on raisonne en termes d’agitation thermique des atomes/molécules ? Et bien c’est simple : quand un atome émet un rayon infrarouge, ça lui demande un peu d’énergie => ça le calme et après il s’agite moins => il est donc plus froid ! Voilà pourquoi l’émission des infrarouges refroidit les objets…
[retour]

[Temps de lecture moyen 10 min]

Pour une fois je vais sortir de mon registre habituel avec cet article, suite à un événement d’actualité qui m’a fait vivement réagir. Je veux parler de la sortie d’un film « documentaire » dont vous avez dû entendre parler, nommé « Hold-Up ».
Ceci est donc un billet d’humeur !

L’affiche du film

Ce film entend nous dire « la vérité sur l’épidémie de Covid-19 », que voici : le virus a été créé volontairement et la pandémie est le résultat d’un complot mené par des élites mondiales corrompues (je résume).

Peut-être avez vous vu ce film, peut-être êtes vous séduit par ses arguments convaincants, peut-être êtes-vous tenté d’adhérer à la thèse qu’il défend ?

Je l’ai regardé et je suis atterré : il est vraiment grave qu’un film de ce genre connaisse un telle diffusion. Il est truffé d’affirmations fausses, de nombreuses soi-disant informations sont des insinuations sans fondement, les « experts » qui interviennent n’en sont pas ou sont totalement en marge de la communauté scientifique : tout cela est fondamentalement malhonnête.

A côté de cela, certaines choses sont vraies, certains réels problèmes sont mis en lumière et de vraies questions sont posées. Qui plus est, grâce aux moyens dont a disposé le réalisateur (plusieurs centaines de milliers d’euros récoltés, contre 20 000 euros initialement espérés), le film est, sur la forme, redoutablement bien fait.
En cela ce film est particulièrement pervers : il utilise certaines vérités, y ajoute une part de mensonges, dissémine des insinuations sans preuves (ah ces regards silencieux qui en disent long, ces questions laissées sans réponse en laissant au spectateur le soin de conclure), fait appel à nos émotions, surfe sur nos peurs et formule des déductions sans fondement pour établir une thèse qui, en réalité, ne repose sur rien.

Je ne vais pas lister et commenter tout ce qui est dit dans ce film, ce serait un travail colossal, mais voilà quelques points majeurs sur lesquels je souhaite insister.

NON la COVID-19 n’est pas une « gripette » globalement à peine plus dangereuse que la grippe saisonnière. Certes, et heureusement, sa létalité n’est pas celle des virus qui ont causé par le passé des hécatombes dans la population humaine (peste noire de 1347-1252, grippe dite « espagnole » en 1918 par exemple) mais les chiffres sont là : en France par exemple la période comprise entre le 1er mars et le 30 avril établit un record, avec 129 678 morts enregistrés par l’Insee, contre 97 023 en moyenne pour les années 2000 à 2019 pour la même période.

NON l’hydroxychloroquine (HCQ) n’est, hélas, pas un traitement efficace contre la COVID-19. A la suite du battage médiatique qu’en a fait un certain professeur marseillais au printemps dernier et malgré l’extrême faiblesse méthodologique de ses études sur le sujet, de nombreuses études ont été lancées dans le monde pour tester ce produit. Leurs résultats, que l’on connaît maintenant, sont solides et clairs. Lire par exemple ici sur le site de la Haute Autorité de Santé (HAS) un compte-rendu de la veille régulière sur l’avancement des recherches sur les différents traitements possibles. Extraits :
« L’hydroxychloroquine seule n’a pas été associée à un impact significatif sur la mortalité chez les patients COVID-19 hospitalisés« .
« L’association de l’hydroxychloroquine et de l’azithromycine a été associée à une augmentation de la mortalité« .
« Le groupe hydroxychloroquine des études RECOVERY32, SOLIDARITY33 et DisCoVeRy34 chez les adultes hospitalisés pour COVID-19 sévère [a été] interrompu car les données n'[ont] montré aucun effet bénéfique« .
Et enfin : « A ce jour, la preuve d’efficacité de l’hydroxychloroquine +/-azithromycine dans le traitement de la COVID-19 n’est pas établie dans des études de phase III contrôlées, randomisées. Aucune recommandation internationale ou nationale ne préconise son utilisation en dehors d’un encadrement dans un essai clinique.« 

OUI la fameuse étude publiée dans The Lancet, prestigieuse revue scientifique médicale britannique, qui montrait que l’HCQ n’est pas efficace est invalide car elle s’appuie sur des données dont l’origine s’est finalement avérée douteuse (données fournies par une entreprise américaine soi-disant à partir de la collecte de cas Covid observés dans des hôpitaux du monde entier) . Elle a été rétractée par The Lancet. C’est vraiment dommageable car les résultats de cette étude étaient très attendus par toute la communauté scientifique et cette rétractation a été de l’or en barre pour tous les partisans de l’HCQ.
Mais cela relève d’un fonctionnement sain et normal de la science : si une étude scientifique publiée s’avère incorrecte ou est réfutée, alors elle est rétractée. Cela arrive de temps en temps, y compris dans les revues les plus prestigieuses comme The Lancet. Mais ça ne veut pas dire que sa conclusion était forcement fausse : on peut avoir raison, mais pour de mauvaises raisons ! En l’occurrence cela était le cas, car d’autres études valables et solides ont ultérieurement montré que effectivement, l’HCQ n’est hélas pas efficace (cf ci-dessus).

OUI la gestion de la problématique des masques par notre gouvernement a été calamiteuse, sur beaucoup d’aspects : incapacité à gérer correctement le stock stratégique qui avait été constitué il y a plusieurs années et qui a dû être détruit, incapacité à communiquer honnêtement sur la pénurie au mois de mars, incapacité à communiquer des consignes claires sur l’utilité du port du masque dans la population…

OUI les laboratoires pharmaceutiques (« BigPharma ») sont des entreprises privées qui font du business et qui cherchent à maximiser leur profit et celui de leurs actionnaires. Ce n’est un scoop pour personne. A mon sens cela soulève de vraies questions s’agissant d’entreprises qui ont une activité dans le domaine de la santé car les objectifs de santé publique peuvent être contradictoire avec une logique de profit.
Mais cela ne veut pas dire qu’il existe un complot de BigPharma pour discréditer un traitement efficace, l’HCQ, afin de pouvoir vendre d’autres traitements alternatifs. Un sketch des Guignols , aussi bien vu soit-il, ne prouve rien (oui oui, pour ceux qui n’ont pas vu le film : il utilise un sketch des Guignols pour appuyer ses thèses) !

OUI Google est une entreprise qui collecte massivement les données personnelles des populations, comme de nombreuses autres entreprise du numérique. Oui à mon sens cela pose de vraies questions éthiques et sociétales. Mais quel rapport avec la pandémie ?

OUI la presse en France est en majorité détenue par quelques grandes fortunes. Cela pose des questions fondamentales sur le fonctionnement de notre démocratie et cela devrait tous nous interpeller. Mais encore une fois quel rapport avec la pandémie ?

NOOON le SARS-COV2 n’a pas été inventé par l’Institut Pasteur !! Personne n’a jamais démontré que ce virus était une création de laboratoire.

OUI pour l’instant on ne connaît pas l’origine exacte de ce virus, c’est vrai. Il s’est peut être transmis à l’homme à partir d’un animal sur un marché chinois, mais ce n’est pas sûr. Il s’est peut être échappé par accident d’un laboratoire, par exemple celui de Wuhan en Chine qui travaille, comme de nombreux laboratoires dans le monde, sur des virus d’origine animale, mais ce n’est pas sûr. Pour l’instant on ne sait pas. La recherche de l’origine de ce virus est un travail d’une complexité redoutable. Lire par exemple un point de cette recherche sur le site du CNRS (attention article de bon niveau).

OUI les propos de Laurent Alexandre à des étudiants sur « les dieux et les inutiles » sont glaçants et flippants. Mais quel rapport entre les délires de quelques « transhumanistes » en quête – vaine, vous pouvez être tranquille – de l’immortalité, et cette pandémie ?

NOOON un consensus scientifique n’est pas un dogme, une religion, qui serait à côté de la réalité, comme le dit un des interviewés vers la fin. Ce genre d’affirmation me fait bondir, au secours ! C’est hélas un point de vue relativement répandu, « la science ne sait pas tout », n’est-ce pas ? Bien sûr que la science ne sait pas tout, ça ne fait aucun doute : la somme de tout ce que l’on sait n’est pas grand chose par rapport à tout ce qu’on ne sait pas. La science a précisément pour but de chercher sans relâche à décrire la réalité du monde et à en agrandir notre compréhension, de la manière la plus objective possible, en s’appuyant sur l’observation, les faits, les expériences. Elle produit des études scientifiques qui sont publiées, consultables par tous, et réfutables si nécessaire. Un consensus scientifique se construit grâce à la somme de toutes les études faites et les connaissances accumulées, corrigées, améliorées, consolidées sur un sujet. C’est grâce à tous les consensus scientifiques acquis depuis plusieurs siècles dans tous les domaines de la science qu’on sait que la Terre est ronde, qu’on sait que la matière est faite d’atomes, qu’on sait que les espèces vivantes évoluent, qu’on a des smartphones et des ordinateurs qui vous permettent de lire ces mots, que la médecine a fait des progrès colossaux depuis 150 ans, que des vaccins ont permis d’éradiquer ou juguler des maladies gravissimes, que notre espérance de vie a plus que doublé, etc… Tout le patrimoine de connaissances de l’humanité s’est construit comme cela : avec des consensus scientifiques.
Les consensus scientifiques ne sont pas « hors sol » et déconnectés de la réalité, c’est le contraire : ils sont ancrés dans la réalité qu’ils ont pour but de décrire.
Et non, aucun consensus scientifique n’est un dogme irréfutable, encore moins une religion : quiconque présente des arguments valables (fondés sur des faits observés, des mesures, des expériences reproductibles, des études méthodologiquement solides) peut remettre en cause un consensus scientifique. C’est d’ailleurs arrivé régulièrement dans l’histoire de la science, et c’est comme cela que ce construit progressivement le patrimoine de nos connaissance et de notre compréhension du monde.
Qu’un documentaire autant diffusé mette ainsi en avant une telle négation des apports et de la démarche scientifiques est gravissime. C’est la porte ouverte à toutes les dérives et à la possibilité de dire littéralement n’importe quoi.

J’arrête là avec cette petite liste, pour aller plus loin vous pouvez lire cet article du Monde qui pointe sept contre-vérité du film.

Nous vivons une époque où l’espace médiatique et numérique (réseaux sociaux) regorge de mensonges et de fausses informations, les fameuses « fake news ». Un certain D Trump s’en est fait une spécialité, dans une version particulièrement outrancière et grossière… Nous le savons tous et cela a des effets tout à fait pervers en insinuant progressivement en nous une défiance généralisée vis à vis de l’information, et notamment de l’information « officielle » : tout ce qu’on nous raconte pourrait-bien être faux, n’est-ce pas ? Tous pourris, non ? Ce « documentaire » surfe sur cette tendance pour soi-disant nous « révéler » la vérité derrière tous ces mensonges. Mais en réalité il est lui-même un mensonge !

Je ne veux pas vous dire quoi penser : nous sommes tous libres de croire ce que nous voulons. Mais je veux vous encourager à réfléchir et à être sceptiques : pensez en vous méfiant des affirmations sans preuve, pensez en vous méfiant de ceux qui parlent le plus fort dans les médias, pensez en allant vous renseigner par vous-même , pensez en cherchant des sources d’informations fiables, pensez en y consacrant le temps nécessaire (facile à dire), pensez en vous méfiant de vous même et de vos propres erreurs de raisonnement, pensez en vous remettant en cause, pensez en allant écouter des points de vue différents des vôtres, pensez en vous méfiant des réseaux sociaux et de leur redoutable « effet bulle » (qui conduit à ce qu’ils vous présentent ce que vous aimez, et donc vous enferment dans vos croyances même fausses parce que notre cerveau aime se voir confirmer ce qu’il pense).
Soyez sceptique, mais attention aux excès : le scepticisme, le doute, qui sont une des pierres angulaires de la démarche scientifique, sont une posture indispensable en première approche face à une information ou affirmation nouvelle pour vous. Mais dans un deuxième temps, après avoir pris le temps de vous renseigner (cf ci-dessus), il faut adapter votre point de vue :
– renforcez votre doute si vous vous apercevez du manque de solidité de l’information ou de l’affirmation,
– ou abandonnez votre doute si vous vous apercevez que l’information ou l’affirmation fait l’objet d’un consensus solide : douter de tout sans distinction conduit à la défiance généralisée et ne vous fera guère avancer.

Pour finir, vous l’avez compris, je suis consterné de voir ce genre de « documentaire » rencontrer un tel écho, de le voir recommandé par des personnalités connues (Sophie Marceau, Juliette Binoche…), d’en entendre parler par de si nombreux canaux et de si nombreuses personnes.

En faisant cet article je contribue d’ailleurs à ce buzz, si ça se trouve certains d’entre vous ignoraient son existence et ce n’est donc plus le cas maintenant… Mais, en tant que vulgarisateur scientifique je ne pouvais pas ne pas pousser ce coup de gueule.

Je termine en vous parlant d’un des personnalités scientifiques que j’admire, le physicien et philosophe Étienne Klein, qui a publié cet été, en réaction à tout ce cirque médiatique autour de la pandémie et de l’ « affaire » de l’hydroxychloroquine, un petit fascicule d’une cinquantaine de pages intitulé « Le goût du vrai ». Je vous recommande de le lire, c’est d’une justesse et d’une acuité remarquable, pour ma part je m’y retrouve à 200%.
Si vous n’avez pas le temps ou l’envie de le lire, vous pouvez visionner la conférence qu’il a donné le 2 octobre 2020 à des lycéens sur ce thème précis (ici sur YouTube, la conférence dure un peu plus d’une heure et ensuite ce sont des questions/réponses).
Pour ceux qui l’auront regardé : dites moi ce que vous en avez pensé en m’envoyant un petit message, cela m’intéresse !

Vous pouvez maintenant reprendre le cours normal de vos activités, merci d’avoir lu jusqu’ici ! ;-)

Philippe

PS Ajout ce dimanche 22/11 à 18 h 50 :
Voici une excellente petite vidéo de 9 min de Clément Viktorovitch (de l’émission Clique sur Canal+) qui démonte les procédés rhétoriques utilisés dans ce film :

[Temps de lecture moyen 7 min]

Vous avez, bien sûr, lu mon article « Une vague… de CO2« . Vous vous êtes alors peut-être dit : OK la quantité de CO2 augmente dans l’atmosphère, du fait des activités humaines, et alors ?
Effectivement, ces histoires de CO2 sont bien théoriques, et concrètement il est difficile d’imaginer réellement ce qu’elles signifient et l’impact qu’elles peuvent avoir.

Dans cet article je vais tenter de mettre un peu de concret dans tout ça, à l’aide du graphique suivant :

Évolution du taux de CO2 dans l'atmosphère depuis 800 000 ans
Évolution du taux de CO2 dans l’atmosphère depuis 800 000 ans.

Grâce à l’étude de la composition de l’air contenu dans les minuscules bulles d’air emprisonnées dans les couches de glaces de l’Antarctique, les scientifiques ont pu reconstituer avec précision l’historique de la composition de l’atmosphère, et notamment le taux de CO2.

Ce graphique permet de voir que, depuis 800 000 ans le taux de CO2 a évolué sans cesse(*), entre 180 et 290 ppm. Or, la température moyenne sur Terre est fortement influencée par le taux de CO2 : plus le taux de CO2 est élevé plus la température est élevée. Cela est dû à l’effet de serre provoqué par ce gaz, qui amplifie le réchauffement.

Pour mieux percevoir ces évolutions, j’ai ajouté les points A et B sur le graphique : A est positionné il y a 20 000 ans et B est positionné il y a 10 000 ans. Voyons maintenant ce qui s’est passé entre ces deux points (attention concentrez-vous, c’est maintenant que commence le cœur de cet article !).

Quand la Terre était en A, il y a 20 000 ans, nous étions encore au cœur de la dernière glaciation. Le nord du continent américain était sous la glace jusqu’à New-York, idem pour toute la Scandinavie et les Iles Britanniques jusqu’à environ la moitié de l’Angleterre, ainsi que la Sibérie. Dans les Alpes, les glaciers descendaient presque jusqu’à Lyon. Les océans étaient bien plus bas qu’aujourd’hui : il était possible d’aller à pieds en Angleterre, ou de traverser le détroit de Béring sans se mouiller les pieds. En France, le climat n’autorisait qu’une végétation de type toundra, sur laquelle des troupeaux de rennes se baladaient tranquillement.

La Terre il y a 20 000 ans

Que s’est il passé entre A et B, en 10 000 ans ?
La température moyenne de la Terre a augmenté d’environ 5 degrés. Cela a bouleversé la physionomie de la planète : les zones climatiques ont migré vers le nord dans l’hémisphère nord et vers le sud dans l’hémisphère sud , le niveau de la mer est monté de 120 mètres (!), les espèces végétales ont migré, les espèces animales aussi, dont l’homme (**).
Tout cela avec seulement 100 ppm de CO2 en plus (le taux de CO2 est passé de 180 à 280 ppm). Maintenant remontez un peu voir le graphique et regardez à combien en est le taux de CO2 aujourd’hui, et quels sont les taux projetés en 2100 en fonction des scénarios futurs d’émissions.
[pause : prenez le temps de remonter au graphique et de revenir ici, je vous attends ;-) ]

Que voit-on sur le graphique ? A date d’aujourd’hui, le taux de CO2 a déjà augmenté de plus de 100ppm, et en 2100 il aura gagné plusieurs centaines de ppm, même dans le scénario le plus favorable. Est-ce que vous sentez intuitivement ce qui va se passer ? Est-ce que vous percevez que, vu l’ampleur des changements climatiques associés à une centaine de ppm de CO2 supplémentaire (une sortie de glaciation modifiant fortement tout le climat terrestre), les conséquences d’un ajout de plusieurs centaines de ppm supplémentaires seront très importantes ?

Les impacts sur le climat de la Terre d’une telle hausse de CO2 seront (liste non exhaustive) :
– plusieurs mètres de hausse de niveau de la mer dans les siècles à venir (en commençant par 80 cm à 1m dès 2100, et ensuite ça continue)
– des zones climatiques qui se déplacent vers les pôles
– des espèces végétales et animales qui tentent de suivre en migrant (mais de nombreuses espèces végétales ne pourront pas suivre car elles seront trop lentes, et il en sera de même pour les animaux qui s’en nourrissent)
– des zones entières de la Terre devenues invivables pour l’Homme, autour des zones tropicales, pour cause d’une combinaison température + humidité trop élevées
(***)

Au delà de l’impact sur la planète qui, elle, s’en remettra quoi qu’il arrive, ce qui est important ce sont les conséquences que cette évolution climatique aura sur l’Humanité : récoltes agricoles impactées, pénuries alimentaires dans certains régions, régions côtières progressivement submergées, déplacements de populations, conflits…

Epilogue
Loin de moi, avec cet article, l’idée de tomber dans le catastrophisme sur les conséquences du réchauffement climatique. En effet une telle posture peut-être anxiogène, démobilisante et/ou conduire à tomber dans le déni, telle l’autruche qui se met la tête dans le sable en cas de danger. Toutefois lorsque l’évolution future d’une situation qui peut nous affecter est objectivement défavorable, alors il est indispensable de la connaître et la comprendre pour pouvoir se mettre en action et faire changer les choses. Il est donc important d’en être informé le plus complètement et objectivement possible… pour pouvoir faire le contraire de l’autruche : ouvrir les yeux, être conscient de ce qui est en train de se passer et agir.
Il n’est pas trop tard et il ne sera jamais trop tard ! Même si certains impacts futurs du réchauffement sont inévitables car ce seront les conséquences mécaniques des quantités de CO2 déjà émises, l’ampleur des effets du réchauffement climatique à venir dépend directement des quantité de CO2 que nous allons émettre dans le futur. Toute baisse de ces émissions que nous parviendrons à réaliser permettra directement d’atténuer les conséquences néfastes du réchauffement.

(*) Quelle est l’origine de ces variations naturelles du taux de CO2 et de la température moyenne (à cette échelle temporelle) ?
Elles sont provoquées par des petites variations cycliques de l’orbite terrestre. Celles-ci sont causées, notamment, par l’influence des deux grosses planètes du système solaire, Jupiter et Saturne, qui font que la course de la Terre autour du soleil et sa rotation sur elle-même ne sont pas parfaitement régulières. Ces variations s’appellent le « cycle de Milanković« .
Ces variations orbitales entraînent des variations de l’ensoleillement reçu par la terre, d’où des variations de température et des variations de taux de CO2. Le mécanisme de l’influence de la température sur le taux de CO2, et vice versa, est un petit peu complexe : il nécessite de parler de la notion de « boucle de rétroaction ». Je ferai un prochain article sur le sujet, promis !

[retour]

(**) Notez que, à cause des cycles de Milanković, ces évènements sont tout à fait fréquents et banals dans l’histoire des climats de la Terre : depuis 800 000 ans, le climat enchaîne les cycles glaciation, réchauffement, période chaude interglaciaire, de nouveau glaciation, etc… tous les 100 000 ans environ. A chaque fois, on observe une variation de température d’environ 5 degrés et une variation du niveau des océans d’environ 100 à 120m, ajustement normal, conséquence des lois de la physique.
NB : Si l’Humanité n’était pas venue perturber les cycles naturels en émettant massivement du CO2, les variations normales de l’orbite terrestre auraient dû conduire à ce que :
– pendant encore 10 000 à 15 000 ans, le climat reste stable (période « chaude » interglaciaire)
– puis pendant les quelques dizaines de milliers d’années suivant, le climat se refroidit lentement pour replonger dans une nouvelle période glaciaire
[retour]

(***) Vous vous dites sûrement : mais pourquoi ces conséquences ne sont elles pas déjà là, vu qu’une forte augmentation de CO2 s’est déjà produite ? Et bien c’est parce que les phénomènes climatiques terrestres ont une inertie extrêmement importante : ils mettent des milliers d’années à évoluer. Cette inertie est due à la présence des océans (70% de la surface de la Terre) et des calottes glaciaires qui absorbent des quantités colossales de chaleur, tout en ne se réchauffant que très, très doucement. Ils agissent comme un gigantesque « retardateur » de l’évolution du climat, exactement comme le tonneau d’eau que les anciens mettaient dans leur cave pour empêcher – ou plutôt ralentir – l’arrivée du gel, l’hiver, dans la cave et retarder la montée en température l’été.
Du fait de cette inertie, le climat est « pris de vitesse » par l’augmentation du CO2. Il n’arrive pas à suivre, car il ne peut évoluer qu’à sa propre vitesse, bien plus faible.
Cette vitesse est très lente à l’échelle humaine mais extrêmement rapide comparée aux évolutions habituelles du climat sur Terre. Songez que dans toute l’histoire de la Terre (4,5 milliards d’années quand même), les plus rapides variations climatiques naturelles constatées ont été de l’ordre de 1 degré en 2000 ans. Or l’évolution déjà observée à cause de l’augmentation de CO2 d’origine humaine est de 1 degré en 100 ans seulement, 20 fois plus rapide !
[retour]

[Temps de lecture moyen 8 min]

Nous entendons tous en ce moment, dans les médias, parler de l’incidence du coronavirus qui suit une « courbe exponentielle » depuis le mois de juillet. Mais de quoi parle-t’on exactement en disant cela ?
Dans cet article je vais tâcher de vous faire comprendre ce qu’est une exponentielle. Pas de panique hein, si vous êtes un fidèle lecteur vous commencez à me connaître : cet article ne sera pas du tout un cours de maths : je m’engage sur le fait qu’il ne contient aucune formule mathématique et que vous allez tout comprendre !

Dans l’expression « courbe exponentielle » il y a le mot « courbe » et il y a le mot  » exponentielle ».

Qu’est-ce qu’une « courbe » ?

On utilise ce mot pour parler d’un graphique qui comporte :
– un axe horizontal gradué avec une unité représentant une grandeur,
– un axe vertical gradué avec une autre unité représentant une autre grandeur,
– une ligne ( la « courbe ») qui matérialise les valeurs que peut prendre la grandeur de l’axe vertical en fonction de celles de l’axe horizontal.

Pour beaucoup de courbes – c’est notamment le cas pour les courbes qui nous sont présentées pour parler de l’évolution du virus – la grandeur de l’axe horizontal est le temps, gradué en jours, ou semaines, ou mois…
(Dans toute la suite de l’article nous parlerons uniquement des cas où l’axe horizontal est le temps.)
Sur l’axe vertical on peut trouver des grandeurs extrêmement diverses : taux d’incidence du virus, nombre de décès, nombre de personnes en réanimation, etc…

Qu’est ce qu’une « exponentielle » ?

Ce mot désigne une forme particulière que peut prendre la courbe.
Il existe de nombreuses typologies de formes de courbes ; pour ne pas avoir à rentrer dans des notions mathématiques (ouf), on va seulement évoquer deux grandes typologies que l’on va comparer :


1- les courbes linéaires :
elles sont représentées par une ligne droite. Ce type de courbe est obtenu quand une quantité évolue de la façon suivante : à chaque unité de temps, on ajoute une quantité fixe : la ligne monte, toujours eu même rythme, c’est une ligne droite :

Évolution linéaire

Exemple
Si tous les jours j’achète 12 œufs, la quantité d’œufs que je possède va suivre une évolution linéaire jour après jour : 12, 24, 36, 48, 60… comme sur la courbe ci-dessus.

2- les courbes exponentielles :
elles sont représentées par une ligne concave. Ce type de courbe est obtenu quand, à chaque unité de temps, on multiplie la quantité par un facteur fixe : la ligne monte de plus en plus vite.

Évolution exponentielle

Exemple
Si tous les jours j’achète 2 fois plus d’œufs que la veille, la quantité d’œufs que j’achète va suivre une évolution exponentielle jour après jour : 12, 24, 48, 96, 192… comme sur la courbe ci-dessus.

Une courbe exponentielle est une courbe dont la vitesse de croissance augmente sans arrêt : elle ne cesse d’accélèrer ! En général, les phénomènes représentés par de type de courbe sont des phénomènes explosifs, non maîtrisés, de type réaction en chaine incontrôlée, comme par exemple le nombre de personnes contaminées par un virus dans une population, ou le nombre de descendants d’un couple de lapins qui se reproduisent, puis les petits lapinous se reproduisent à leur tour, etc…

Ces phénomènes sont redoutables car ils peuvent démarrer très progressivement, puis accélérer doucement sans qu’on se rende compte de leur caractère exponentiel, puis nous surprendre lorsque l’accélération devient plus forte.

La mare aux nénuphars
Pour illustrer ce qu’est un phénomène exponentiel et aider à comprendre sa dynamique, la petite devinette suivante est très éclairante.
Imaginez un lac, dans lequel il y a des nénuphars. Ceux-ci se multiplient de sorte que chaque jour, chaque feuille de nénuphar produit une autre feuille de nénuphar. Au bout de trente jours, la totalité du lac est couverte et l’espèce meurt étouffée, privée d’espace et de nourriture. Au bout de combien de jours les nénuphars ont-ils couvert la moitié du lac ?
[prenez 20 secondes pour réfléchir avant de lire la suite…]
Notre cerveau a tendance a répondre instinctivement en suivant une règle de proportionnalité : la moitié du lac, donc la moitié de 30 jours, donc 15 jours. Or c’est faux, la réponse est 29 jours ! En effet, étant donné que le surface des nénuphars double chaque jour, si le 29è jour la moitié du lac est remplie, alors le lendemain c’est tout le lac qui sera rempli.

Le cerveau humain n’est pas fait pour bien appréhender ces phénomènes : naturellement, notre cerveau raisonne de façon proportionnelle et il est adapté aux phénomènes linéaires (représentés par les courbes linéaires cf ci-dessus). Il pense instinctivement que la variation d’une cause va engendrer une variation proportionnelle de la conséquence, or ce n’est pas ce qui se produit lorsqu’un phénomène évolue exponentiellement : la conséquence d’une variation de la cause est beaucoup plus importante que ce à quoi l’on s’attend instinctivement. Nous sommes donc, nous, humains, très mal armés pour ressentir, comprendre et anticiper le comportement des phénomènes exponentiels.
C’est certainement la raison pour laquelle nous avons pu entendre ces jours-ci dans la bouche de nos responsables nationaux, que l’évolution récente du virus a « surpris » tout le monde. En fait non, elle n’est hélas pas surprenante et les spécialistes ne l’ont pas été (surpris), c’est juste que l’évolution du virus est exponentielle (tant qu’un facteur externe ne permet pas de la juguler : vaccin, mesures de confinement, barrières sanitaires,…) et elle prend donc notre cerveau au dépourvu…

Je vais vous donner un exemple de courbe que l’on ne pense pas être exponentielle… et pourtant c’est le cas.
Le voici : lorsqu’une quantité augmente de x% par unité de temps, c’est une variation exponentielle ! Même si x n’est pas grand, par exemple quelques pourcents, inéluctablement la quantité va augmenter de plus en plus vite jusqu’à atteindre des valeurs et une vitesse de croissance très importante.

Illustrons cela par le cas de la croissance économique d’un pays : partout dans le monde, elle est exprimée en pourcentage annuel d’augmentation du PIB. Prenons l’hypothèse d’une croissance de 2% par an (hypothèse optimiste, par les temps qui courent) et traçons la courbe de l’évolution du PIB de la France dans les prochaines décennies :

Projection de l’évolution du PIB de la France dans les 200 prochaines années, dans l’hypothèse d’une croissance de 2% par an

Le PIB annuel actuel (2019) de la France est de 2 322 milliards d’euros. En 2120, au rythme de 2% par an il serait de plus de 17 000 milliards d’euros annuels… et en 2220 de 124 000 milliards d’euros !! Soit une multiplication par… 7 en 100 ans, et par plus de 50 en 200 ans (vérifiez, faites le calcul). Énooorme, non ?

Nota Pour ceux qui doutent sur le caractère exponentiel d’une augmentation régulière de 2%, songez que cela revient à multiplier chaque année le PIB de l’année précédente par 1,02. C’est bien la définition d’une exponentielle comme indiqué ci-dessus : on multiplie à chaque unité de temps par un facteur fixe (supérieur à 1 bien sûr).

Appliquez cela par exemple au marché de l’automobile : il y a aujourd’hui environ 1,5 milliards de voiture sur Terre, si la croissance économique est de 2% pendant encore 100 ans et si on fait l’hypothèse que le marché de l’automobile croîtra au même rythme, alors dans un siècle il y aura 10,5 milliards de voitures sur Terre, puis si ça continue encore 100 ans nous aurons 78 milliards de voiture dans 200 ans, soit plusieurs voitures pour chaque personne sur Terre y compris les enfants ! Vous allez me rétorquer que j’exagère, que le taux de croissance pour le marché de l’automobile est plutôt celui du chiffre d’affaire des constructeurs et non celui du nombre d’automobiles, OK. Ceci étant, le principe reste : une croissance économique basée sur une augmentation annuelle de x% du PIB est une croissance exponentielle, c’est mathématique.

Épilogue

En mathématiques, une exponentielle ne s’arrête jamais et continue de plus en plus rapidement jusqu’à l’infini. Dans le monde réel, c’est bien sûr impossible. Au bout d’un moment, il survient toujours un phénomène externe qui fait que l’évolution s’arrête ou se stabilise, il ne peut en être autrement :
– la propagation d’un virus finit par être limitée par la population des individus à contaminer,
– les lapins qui se reproduisent sans cesse finissent par être limités pas l’espace et la quantité de nourriture à leur disposition.
Dans la vraie vie, l’infini n’existe pas ! (*)

Pour aller plus loin
Rapprochons le constat du caractère exponentiel de la croissance économique du fait que :
– la Terre et ses ressources minières et énergétiques non renouvelables sont parfaitement finies et limitées (la Terre ne fait que 6300 km de rayon),
– ces ressources sont, respectivement, les matières premières et les carburants de la croissance économique,
et réfléchissons deux secondes à la conclusion que l’on peut en tirer.
Il viendra nécessairement un jour où les ressources ne seront pas suffisantes pour soutenir une croissance économique exponentielle. Qu’on le veuille ou non, une croissance économique perpétuelle à x% par an est une impasse, à cause du manque de ressources qui, elles, sont fixées une fois pour toutes. La seule question qui subsiste est quand ? Quand atteindrons nous les limites physiques liées à la finitude des ressources non renouvelables de la Terre ? Cette question est redoutablement complexe, et pour chacune des ressources que nous utilisons (pétrole, charbon, gaz, aluminium, platine, argent, lithium, cobalt, cuivre, etc…), il serait possible d’écrire des livres entiers pour en débattre.
Dans un prochain article je me risquerai à l’exercice pour l’une de ces ressources, une des plus importantes : le pétrole.

Quelques liens


(*) « Dans la vraie vie, l’infini n’existe pas. »
Mmmh, est-ce bien sûr ? Qu’en pensez-vous ? Vous avez deux heures !

[Temps de lecture moyen 8 min]

Nous avons tous assisté, impuissants, à l’épisode de violentes précipitations qui a touché les Alpes-Maritimes les 2 et 3 octobre dernier. Il a ravagé certains villages de la région, par exemple Saint-Martin Vésubie, causant plusieurs morts. « L’intensité inédite de cet évènement est à mettre en relation avec le réchauffement climatique » a-t-on entendu. Est-ce vrai ? Oui.
L’augmentation de la température moyenne due au réchauffement climatique entraîne globalement une augmentation de l’intensité des phénomènes climatiques extrêmes et des précipitations, notamment lors des épisodes méditerranéens. Je vais vous expliquer pourquoi dans cet article, vous allez voir que c’est assez facile à comprendre et c’est – hélas – logique et inévitable.
[Les pressés peuvent sauter directement à la synthèse dans le cadre bleu tout en bas, à vous de choisir !]

Vapeur d’eau

On va commencer par une histoire d’eau. De vapeur d’eau, plus précisément.

Savez-vous précisément ce qu’est la vapeur d’eau ? Par exemple la petite fumée fugace que l’on voit au dessus d’une casserole d’eau bouillante, est-ce de la vapeur d’eau ? Et bien non : ce qui se voit au dessus de la casserole sont en fait de minuscules gouttes d’eau liquide qui sont en suspension dans l’air, les mêmes que celles qui forment un nuage, ou du brouillard.

La vapeur d’eau, elle, est un gaz invisible. Elle est présente en permanence dans l’air, en quantité plus ou moins importante : c’est cette quantité que mesure l’hygromètre de votre station météo et qui vous dit par exemple que l’humidité de l’air est de 80%.

Retenez :

  • La vapeur d’eau ne se voit pas.
  • Si ça se voit, par exemple un nuage, du brouillard, un panache de tour de refroidissement(*), …. alors ce n’est pas de la vapeur d’eau, c’est de l’eau tout court, sous forme de petites gouttelettes liquides en suspension dans l’air. (NB : je ne parle pas ici bien sûr des fumées d’usines, ou de pot d’échappement, qui se voient mais ne sont pas de l’eau…)
Photo montrant de l’air (invisible), contenant de la vapeur d’eau (invisible) et des nuages (visibles). Accessoirement, un paysage des Alpes Suisses avec le mont Eiger au fond ;-)

Pour finir cette première partie sur la vapeur d’eau, revenons sur ce fameux taux d’humidité mesuré par les hygromètres : vous avez remarqué que ce taux ne peut pas être supérieur à 100 % (si c’est le cas sur votre station météo personnelle alors ramenez-là au SAV, elle a un bug !).
En effet, l’air ne peut pas contenir plus qu’une certaine quantité de vapeur d’eau, sinon il y a saturation et la vapeur se condense en eau liquide sous forme de petites gouttelettes visibles… comme au dessus de votre casserole d’eau bouillante. La valeur 100% du taux d’humidité correspond à ce maximum de saturation de l’air en vapeur d’eau.

Précision pour éviter toute confusion :
Lorsque votre hygromètre indique 100% d’humidité ça ne veut pas dire que l’air est constitué à 100% de vapeur d’eau ! Heureusement, sinon on aurait quelques difficultés à respirer… Dans tous les cas l’air reste constitué majoritairement d’azote, d’oxygène, etc… et même dans les atmosphères les plus chaudes et humides comme dans les régions tropicales, la proportion globale de vapeur d’eau dans l’air ne dépasse jamais quelques pourcents.

La formation des nuages et des précipitations

Les précipitations (pluie, grêle, neige…) tombent des nuages, ça c’est facile, on le sait tous.
Elles se forment au sein des nuages lorsque les minuscules gouttelettes d’eau en suspension qui les constituent s’accumulent entre elles, grossissent et deviennent trop lourdes pour se maintenir en l’air : elles tombent alors vers le sol. En fonction de la température ambiante et des conditions de formation dans le nuage, on obtient de la pluie, ou de la grêle, ou de la neige, ou du grésil…

Mais comment se forment les nuages ? De manière générale, les nuages se forment lorsque de l’air contenant de la vapeur d’eau se refroidit.

La quantité maximale de vapeur d’eau que peut contenir l’air (c’est le 100% de votre hygromètre, cf ci-dessus) est variable en fonction de la température : plus l’air est chaud et plus il peut contenir de vapeur d’eau ; plus il est froid et moins il peut en contenir. C’est la raison pour laquelle les temps très froids sont secs, et les temps lourds – i.e. avec une forte humidité dans l’air – sont des temps chauds.

Quantité maximale de vapeur d’eau que peut contenir l’air
en fonction de sa température, en grammes par m3

En conséquence, si de l’air contenant beaucoup de vapeur d’eau se refroidit, alors il ne peut plus contenir toute cette vapeur d’eau et un nuage se forme. C’est notamment le cas lorsque une masse d’air monte en altitude : les lois de la physique font que, du fait de la pression atmosphérique inférieure en altitude, alors l’air se refroidit en montant.
C’est cette montée d’air en altitude qui est le mécanisme principal de formation des nuages. Elle se produit notamment dans deux grands types de situations (en simplifiant) :
1) lorsque le vent souffle sur un relief (chaîne de montagnes), alors il doit s’élever pour le franchir => des nuages se forment sur les flancs et les sommets des montagnes.
2) dans une dépression atmosphérique – simple dépression ou alors tempête, cyclone(**) – l’air est aspiré vers le haut => l’air monte, en tourbillonnant, et forme ces impressionnantes formations nuageuses en spirale que l’on voit sur les photos satellites des bulletins météos.

Pourquoi des précipitations plus intenses à cause de réchauffement climatique ?

Il manque encore une petite chose pour tout comprendre, que je vous explique maintenant :
les lois de la physique (toujours elles…) font que, lorsque la vapeur d’eau se condense pour former un nuage, et bien elle produit de la chaleur ! C’est logique :
– pour évaporer de l’eau et la transformer en vapeur il faut lui apporter de la chaleur, par exemple en mettant le feu sous une casserole,
– en sens inverse, quand la vapeur se refroidit et se condense en eau, alors de la chaleur est restituée.
(pour ceux à qui ça parle, c’est la notion de « chaleur latente » )

La conséquence de cette production de chaleur au moment de la formation du nuage est que cela renforce le phénomène : l’air réchauffé par la condensation de la vapeur a tendance à monter encore plus (l’air chaud monte, hein, vous le savez ça) et à aspirer l’air du dessous qui va monter aussi, produire de la condensation, donc de la chaleur, etc…
Voilà le truc : la vapeur d’eau contenue dans l’air est un carburant accélérateur de la formation des nuages, à cause de la chaleur produite quand elle condense !

Nous pouvons maintenant comprendre le phénomène dans son ensemble.
Si la température moyenne de l’air augmente (lentement, mais inexorablement) à cause du réchauffement climatique, alors :
– la quantité de vapeur d’eau que l’air peut contenir augmente aussi en moyenne,
– la quantité de carburant disponible pour alimenter les nuages augmente aussi,
– et l’intensité des précipitations causées par ces nuages augmente en conséquence.
Cette explication peut être généralisée : elle est à l’origine de l’augmentation de la puissance et des quantités de précipitations générées par les tempêtes, ouragans, cyclones(**), dans le monde entier. Les modèles de simulation des conséquences du réchauffement climatique le montrent, et les climatologues en font le constat dans le monde entier sur les dernières décennies.

Pour finir, revenons sur le phénomène des épisodes méditerranéens illustré par l’exemple dramatique de début octobre dans les Alpes-Maritimes. Les « épisodes cévenols » n’en sont qu’un cas particulier, touchant les reliefs des Cévennes ; l’appellation désigne en fait un phénomène pouvant se produire, en automne, dans l’ouest de la Méditerranée, sur tout l’arc situé entre l’est de l’Espagne et de le sud-ouest de l’Italie, en passant par le sud de la France (il peut même affecter une partie du nord du Maghreb).
S’agissant du sud de la France, le phénomène se produit quand la configuration météo générale conduit à ce qu’un flux d’air circulant du sud vers le nord traverse la Méditerranée encore chaude, se charge d’humidité (de vapeur d’eau, vous avez compris) et vient buter sur les reliefs du sud de la France, en essayant de s’élever pour les franchir.

Cette élévation de l’air entraîne sur le sud des reliefs les phénomènes décrits plus haut : condensation de la vapeur, formation de nuages, libération de chaleur, renforcement du phénomène, les nuages en grossissant deviennent des nuages d’orages, agglomération des gouttelettes d’eau dans les nuages, précipitations.

Les épisodes méditerranéens ne sont pas nouveaux : ils ont toujours existé et en automne en France c’est un phénomène connu depuis longtemps. Toutefois, malheureusement, le réchauffement climatique va conduire, dans les décennies à venir, à leur intensification(***), dans la suite logique de ce que nous commençons à constater depuis plusieurs années (lire par exemple ici sur le site de Météo-France). Dans les décennies – et siècles – à venir, ils frapperont de manière aléatoire et de plus en plus intense dans les régions concernées, sans qu’il soit possible d’être précis sur leur localisation. Il faut s’attendre à un accroissement de ces épisodes à la suite desquels mêmes les plus anciens vivant sur place diront « on ne comprend pas, on n’avait jamais vu ça ».

(*) Au passage, si vous pensez que la présence d’une tour de refroidissement est forcément associée à une centrale nucléaire, et bien vous vous trompez : une centrale au charbon, par exemple, peut tout à fait posséder aussi une ou des tours de refroidissement. En réalité, toute centrale électrique, quelle que soit sa source d’énergie (charbon, nucléaire, fuel, gaz), a besoin d’une(de) tour(s) de refroidissement si elle n’a pas à côté d’elle une mer, ou un fleuve avec un débit suffisant, pour permettre le refroidissement de l’eau utilisée dans ses circuits sans trop augmenter la température de l’eau environnante.

(**) cyclone, ouragan, typhon, quelles différences entre ces termes ? En fait la différence est uniquement géographique : le terme « cyclone » ou « cyclone tropical » est réservé à l’océan Indien et au Pacifique sud. On parle en revanche d’ « ouragan » en Atlantique nord et dans le Pacifique nord-est et enfin de « typhon » dans le Pacifique nord-ouest.

(***) Les modèles de simulation du réchauffement climatique prédisent une augmentation de l’intensité des épisodes méditerranéens mais en même temps, de manière paradoxale, une diminution de la quantité totale moyenne des précipitations sur l’année sur ces mêmes régions. Ce n’est pas une bonne nouvelle pour les habitants de ces régions, car cela signifie plus de sécheresse globalement sur l’année ET plus d’évènements dévastateurs en automne…

Cliquer ici pour s’abonner

[Temps de lecture moyen 12 min]

Vous vous soignez régulièrement avec des traitements homéopathiques ? Ou a contrario vous n’en prenez jamais ? OK, mais connaissez vous au moins les grands principes de l’homéopathie ? Qui l’a inventée, quand ? Comment fabrique-t-on les préparations homéopathiques ?
Je vous embarque dans cet article pour vous expliquer tout ça ; normalement, vous allez apprendre des trucs !

Un peu d’histoire pour commencer

L’homéopathie est beaucoup plus ancienne qu’on ne le pense généralement : son fondateur est un médecin allemand, Samuel Hahnemann (1755-1843).

A son époque, la médecine n’était pas encore entrée dans l’ère de la médecine moderne : la théorie des « humeurs » avait encore cours et les saignées – qui ont dû à l’époque achever plus d’un patient au lieu de le guérir – étaient toujours pratiquées… S. Hahnemann, déçu par le manque de résultats de la médecine de son époque qu’il a pratiquée quelques années après ses études de médecine, a cessé de l’exercer vers 1790 pour se consacrer à des études de chimie et à l’analyse des substances médicamenteuses. C’est dans ce cadre qu’il a commencé à étudier l’effet des plantes sur les patients et a expérimenter le « principe de similitude », formulé au 3ème siècle avant JC par Hippocrate.

Samuel Hahnemann

Fondement premier de l’homéopathie : le principe de similitude

Qu’est-ce que ce principe ? S. H., constatant (sur lui-même !) que le quinquina, utilisé à petites doses pour soigner la malaria, provoquait à haute dose de fortes fièvres similaires à celles de la malaria, en déduisit qu’une petite dose de poison pouvait avoir un effet soignant sur une pathologie aux mêmes symptômes. Dit autrement, une substance peut guérir, à faible dose, les symptômes qu’elle provoquerait à des doses plus importantes : c’est cela le principe de similitude.

Convaincu d’avoir révélé une loi de la nature et de pouvoir ainsi, enfin, faire avancer la médecine, il publia en 1810 un ouvrage, « Organon de l’art de guérir« , qui fonde l’ « homéopathie » (« soigner par le même » en grec ancien) sur la base de ce principe de similitude.

Deuxième principe de l’homéopathie : la dilution

Pour ne pas faire subir au malade les effets nocifs de la substance administrée, il faut en diminuer fortement la concentration sinon il y a un risque d’empoisonner le malade. S.H. pose donc le « principe de dilution » consistant à diminuer très fortement les concentrations en substance active des préparations homéopathiques.
Toutefois, en diminuant beaucoup la concentration des substances, leur effet diminue aussi fortement. Pour éviter ce phénomène, la préparation des traitements homéopathiques comprend un procédé spécifique : à chaque étape du processus de dilution, la préparation subit des secousses répétées. Ce procédé, appelé « dynamisation », a pour objectif d’ « activer » la substance.

La préparation des substances homéopathiques

Revenons sur le principe de dilution, que vous connaissez certainement car il se traduit par ce chiffre qui apparaît sur les préparations homéopathiques : 6CH, 9CH, 12CH par exemple. Que veulent dire ces chiffres ?
C’est simple, pour diluer une substance afin de préparer un remède homéopathique, le procédé est le suivant :
– à partir d’une substance initiale contenant le produit actif, en prélever une goutte.
– diluer cette goutte de substance dans 99 gouttes de solvant (eau alcoolisée).
– on obtient une substance diluée 100 fois (i.e. contenant 100 fois moins de produit qu’initialement). C’est une substance à 1CH : CH signifie « Centésimale Hahnemannienne ».
– secouer de manière répétée (vous vous souvenez, c’est la dynamisation)
– recommencer en prélevant une goutte de la substance diluée 100 fois et suivre toutes les étapes pour obtenir une nouvelle substance encore plus diluée : 100×100=10 000 fois, soit 2CH.
– recommencer encore jusqu’à la dilution désirée : 3CH (1 millions de fois), 4CH (100 millions de fois), 5 CH, etc… jusqu’à 30CH au maximum pour certaines préparations spécifiques.
– pour terminer, arroser des granules de sucre avec la préparation diluée finale et laisser sécher.

A noter qu’il existe deux autres modalités de dilution des préparations homéopathiques :
– la Décimale Hahnemannienne (DH), identique à la CH sauf qu’on ne dilue que 10 fois à chaque étape et non 100 fois. On obtient des dilutions à 1DH, 2DH, 3DH, etc… en fonction du nombre de fois où sont répétées les étapes.
– la dilution Korsakovienne : ce procédé consiste non pas à prélever une certaine quantité de substance (1/10e ou 1/100e) pour la diluer dans de l’eau, mais à vider entièrement le flacon de la substance initiale pour le remplir d’eau, considérant que les gouttelettes restées sur la parois du flacon contiennent une quantité de substance active suffisante. On obtient des dilutions à 1K, 2K, 3K, etc… en fonction là aussi du nombre de fois où sont répétées les étapes.

Ces principes fondateurs sont toujours rigoureusement respectés aujourd’hui, à ceci près que leur mise en application s’effectue de manière industrielle dans les laboratoires pharmaceutiques (en France, le plus connu est bien sûr les laboratoires Boiron) et non plus artisanalement.

Est-ce que les traitements homéopathiques sont efficaces ?

Voilà une question à l’origine de nombreux débats passionnés jusque dans les repas de famille !
A ma gauche : « L’homéopathie n’est qu’un placebo, voyons, c’est prouvé scientifiquement ! »
A ma droite : « Bien sûr que les traitements homéopathiques sont efficaces, j’en prend moi même régulièrement, j’en donne à mes enfants, et ça marche je le constate réellement ! »

Points de vues irréconciliables : en effet, pour quelqu’un qui se soigne régulièrement avec des traitements homéopathiques et qui constate réellement, dans sa chair, une efficacité de ces traitements sur ses symptômes, l’avis du scientifique de la famille qui assène « ce n’est qu’un placebo » (notez le « qu’  » dans la phrase, mortel !) est parfaitement contradictoire avec son ressenti, heurte sa conviction profonde et est très difficilement entendable. Dialogue de sourds assuré à suivre.

Bon, que dit effectivement la science à propos de l’homéopathie ?
Depuis que l’homéopathie existe, des milliers d’études ont été menées à son sujet et le consensus scientifique très clair qui en ressort est le suivant : « On n’observe pas d’effet des traitements homéopathiques qui soit supérieur à celui d’un traitement placebo« . Le constat est sans appel, insensé diront les partisans de l’homéopathie, MAIS il y a un détail, un gros détail, qui change tout : c’est l’efficacité de l’effet placebo lui-même ! Celui-ci est en effet bien réel et peut être puissant et efficace, et c’est là que réside la clé pour réconcilier tout le monde : oui, l’homéopathie n’est pas plus qu’un placebo mais oui, l’homéopathie peut être efficace, grâce à l’effet placebo ! Retenez-bien : la science ne dit pas que l’homéopathie « ne marche pas » ou « est sans effets ».
[Et c’est là que normalement vous vous dites « Caramba, je commence à comprendre, l’efficacité de l’homéopathie vient de la puissance de l’effet placebo ! » Ah non, pas encore ?? Poursuivons alors.]

L’effet placebo

Rappelons tout d’abord qu’un placebo est « une substance ou un procédé thérapeutique n’ayant aucune efficacité propre ou spécifique sur l’organisme [une gélule de sucre par exemple] mais agissant sur le patient par des mécanismes psychologique et physiologiques. »
Longtemps déconsidéré et peu étudié, l’effet placebo (du latin placere : plaire) a été – jusqu’à il y a une quinzaine d’années – totalement sous-estimé. Pourtant, des études récentes ont montré la réalité et l’importance de ses effets sur l’organisme, particulièrement pour lutter contre la douleur. Jugez-en plutôt :
– un placebo absorbé par un patient dans l’objectif de lutter contre la douleur va induire dans son organisme la sécrétion bien réelle de substances opiacées, qui vont effectivement combattre la douleur et améliorer la condition du malade.
– des personnes souffrant d’angine de poitrine à qui l’on fait croire qu’elles ont été opérées – anesthésie, incisions de la peau identiques aux personnes réellement opérées – vont se remettre aussi bien qu’une personne réellement opérée, simplement par effet placebo.
– l’effet placebo fonctionne tout aussi bien – et même mieux – sur les enfants,
– l’effet placebo fonctionne aussi sur les animaux
– l’effet placebo fonctionne aussi sur une personne qui sait que le traitement qu’on lui donne est un placebo (mais il est alors moins efficace).

Dans le cas des traitements homéopathiques, il existe un facteur qui renforce fortement l’efficience de l’effet placebo. Il s’agit du troisième principe de l’homéopathie, dont je n’ai pas encore parlé, nommé le principe de globalité. Il consiste, pour le médecin homéopathe, à prendre en compte chaque personne dans sa globalité (physique et psychique) et dans ses spécificités individuelles. Pour mettre en application ce principe, un médecin homéopathe prendra systématiquement le temps de questionner son patient, de discuter avec lui pour mieux le comprendre : son mode de vie, son travail, ses habitudes, son alimentation, ses petits tracas de santé, etc… Or, il a été démontré que lorsqu’un médecin – qu’il soit homéopathe ou non – se comporte de la sorte lors d’une consultation avec un patient, alors cela augmente très fortement l’efficience de l’effet placebo qui sera déclenché chez le patient, quel que soit le traitement ou l’action thérapeutique prescrite par ce médecin ! Même en médecine classique (les homéopathes parlent de médecine « allopathique »), l’effet placebo joue ainsi un rôle très important : il s’ajoute à l’effet des médicaments et aidera à lutter contre les symptômes. Un patient se sentira bien mieux soigné par un médecin qui l’aura reçu, questionné, écouté, que par un médecin qui l’aura expédié en 5 minutes, même s’ils ont prescrit rigoureusement le même traitement !

Pour finir

Les traitements homéopathiques, s’ils permettent d’aider à lutter contre certains symptômes, notamment la douleur, ne peuvent malheureusement pas guérir. En effet, l’effet placebo, bien que réellement efficace sur certains symptômes :
– ne peut pas détruire les virus,
– ne peut pas tuer les bactéries,
– ne peut pas s’attaquer à des cellules cancéreuses,
– ne peut pas corriger une anomalie génétique,
– ne peut pas déclencher la production d’anticorps comme un vaccin.
De ce fait, toute pathologie ou affection nécessite une véritable prise en charge médicale et un traitement adéquat pour sa guérison, d’autant plus si elle présente un caractère de gravité.

Nota, de saison :
Des préparations homéopathiques vont bientôt être proposées comme alternative au vaccin contre la grippe. Elles n’ont absolument pas démontré leur efficacité. Pour obtenir une protection réelle – bien que non absolue, hélas – contre la grippe, seul un véritable vaccin est efficace (cf l’avis de l’ANSM ou du Conseil Supérieur d »Hygiène Publique de France).

Voilà, j’ai passé du temps à préparer et rédiger cet article que vous avez dû lire en 10 min, j’espère qu’il vous aura permis de mieux comprendre l’homéopathie, sur quoi elle est efficace, sur quoi elle ne l’est pas, et pourquoi !

Pour les lecteurs motivés, quelques compléments :

Comment sont menées les études scientifiques qui ont pour objet l’étude de l’effet des traitements homéopathiques ?
Comme pour les essais thérapeutiques réalisés sur n ‘importe quel médicament, le principe général est assez simple :
– recruter un échantillon de personnes pour participer à l’étude. Plus l’échantillon sera important (en nombre de personnes) et plus le résultat sera significatif.
– s’assurer de sa représentativité par rapport à la population générale, selon différents critères (âge, poids, antécédents médicaux, fumeur/non fumeur, etc…) (*)
– séparer aléatoirement l’échantillon en deux groupes : l’un qui recevra le traitement à tester et l’autre un placebo.
– procéder à l’administration du traitement en « double aveugle », c’est à dire que :
1. les personnes qui reçoivent le traitement ne savent pas si on leur donne le traitement à tester ou un traitement placebo
2. les soignants qui administrent le traitement ne savent pas si elles donnent le traitement à tester ou le traitement placebo.
Cela est nécessaire pour éliminer tout effet d’influence sur le soigné qui pourrait fausser le résultat.
– suivre les membres de l’échantillon et recueillir le maximum d’informations sur leur état et son évolution : amélioration, détérioration, effets secondaires, …
– interpréter ces résultats pour conclure (si possible !). Pour cela, on fait appel à des traitements mathématiques statistiques pour produire les résultats, permettant notamment de s’assurer qu’ils sont bien significatifs.

Dans le cas des traitements homéopathiques, les études de ce type donnent, de manière constante (sur plusieurs milliers d’études réalisées partout dans le monde, comme indiqué plus haut), le résultat suivant :
on ne constate pas de différence d’effet significative entre le groupe qui reçoit un placebo et le groupe qui reçoit le traitement homéopathique. Les personnes qui reçoivent le traitement homéopathique n’ont pas plus d’amélioration de leurs symptômes que celles ayant reçu le placebo !
Face à ce constat factuel, les laboratoires pharmaceutiques qui produisent des traitements homéopathiques ont fini par quasiment cesser de mener ce genre de recherche : le budget Recherche & Développement de Boiron, par exemple, est bien inférieur à celui d’autres laboratoires pharmaceutiques : 0,5% de son chiffre d’affaires contre par exemple 15% pour Sanofi (lire ici) …

D’un point de vue scientifique, comment explique t-on cette absence d’effet spécifique ?
L’explication est à chercher du côté de la dilution extrême des préparations homéopathiques. En effet, il se trouve qu’il existe une quantité minimale qu’un être humain doit absorber pour que n’importe quelle substance puisse avoir un effet observable. En dessous de cette quantité minimale, vous pouvez absorber n’importe quelle substance, même le plus violent des poisons, cela n’aura aucun effet. Cette quantité minimale est autour de 1 milliardième de gramme (1 nanogramme). Or, vu la très forte dilution atteinte, la quantité de substance active présente dans un traitement homéopathique est très vite en dessous du nanogramme (pire : à partir de 12CH, il n’existe plus aucune molécule de produit actif dans la préparation !). D’où l’absence d’effet.
Pour s’opposer à cet explication les homéopathes argumentent que le procédé de « dynamisation » (en secouant fortement la préparation à chaque étape de la dilution) permet de « réactiver » la substance malgré la forte dilution. Toutefois nous ne connaissons aucun mécanisme physico-chimique capable d’expliquer cette « réactivation ». Dans les années 80, l’affaire de la « mémoire de l’eau » a défrayé la chronique : c’était un candidat potentiel pour expliquer la persistance d’un effet malgré la dilution mais il a été clairement montré que cet effet « mémoire de l’eau » n’existe pas.
Ajoutons que le « principe de similitude », sur lequel S Hahnemann a construit empiriquement l’homéopathie, n’a purement et simplement aucun fondement réel.

Post-scriptum

J’ai hésité avant de me lancer dans la rédaction de cet article. La raison de mon hésitation est la suivante : si l’effet placebo est moins efficace lorsque le patient sait qu’il prend un placebo, pourquoi dévoiler le pot aux roses concernant l’homéopathie ? Pourquoi ne pas laisser mes lecteurs qui prennent des traitements homéopathiques dans la croyance en l’efficacité de ces traitements, puisque cela améliore l’efficience de l’effet placebo ?

Voici deux raisons qui m’ont incité à le rédiger et le publier malgré cela :

1- la perte de chance.
Certaines personnes, atteintes de maladies graves, se tournent vers l’homéopathie pour traiter leur pathologie au lieu de la médecine classique. C’est dramatique car pour elles cela constitue une perte de chance grave. Connaître la réalité de l’homéopathie me semble important pour éviter ces comportements dus à de fausses croyances.
Ces cas restent, en France, heureusement rares mais dans certains pays sous développés, les traitements homéopathiques sont utilisés à la place des traitements classiques trop chers pour être proposés dans ces pays. Des gens meurent ainsi faute d’être correctement soignés ! Au nom de quoi les plus pauvres devraient-ils se passer de vrais médicaments ??!

2- la vérité.
Un de mes buts dans la vie, et sur ce blog, est la quête de la vérité. Peu de choses me semblent plus importantes que de tenter d’approcher et de comprendre, de la manière la plus objective possible, la réalité du monde. Le monde tel qu’il est, réellement.
L’homéopathie est un des sujets sur lequel je suis navré de voir des idées fausses circuler, et de nombreuses personnes être induites en erreur par ces idées. Il me semble fondamental de tenter de rétablir la vérité.

Quelques liens pour aller plus loin :
Les principes de l’homéopathie, sur le site Doctissimo
Intéressant article de synthèse sur l’effet placebo notamment chez l’enfant, sur le site Pediadol
Article de synthèse sur l’homéopathie, sur le site de l’AFIS (Association Française pour l’Information Scientifique)
Ce que dit la science sur l’homéopathie, sur le site du Monde
Le parcours surprenant de Nathalie Grams, médecin homéopathe, sur le site de l’AFIS

(*) Petite anecdote en passant, hors sujet : jusqu’à très récemment, le critère homme/femme n’était pas pris en compte et la plupart des tests de médicaments effectués par les laboratoires n’étaient réalisés que sur des hommes ! Ce n’est que très récemment que des chercheurs ont relevé, dans certains cas, de petites différences d’effet entre les hommes et les femmes, ce qui pourrait (devrait) remettre en cause le fait de ne sélectionner que des hommes pour réaliser des essais thérapeutiques…

[Temps de lecture moyen 5 min]

Bien peu de gens ont entendu parler de l’« effet rebond ». Pourtant la compréhension de ce phénomène est fondamentale pour qui s’intéresse à la question des économies d’énergie et, plus largement, à celle de la consommation de ressources de l’Humanité.

Alors je vous propose, dans cet article, de procéder comme suit : je vous donne une définition « brute » de ce phénomène, ensuite j’explique avec des exemples, et je termine avec un petit conseil d’auto-défense intellectuelle pour vous aider à vous faire votre opinion sur certaines annonces que l’on voit régulièrement passer dans les médias. C’est parti !

L’effet rebond peut se définir comme suit :

On appelle « effet rebond » la façon dont certains gains environnementaux obtenus grâce à l’amélioration de l’efficacité énergétique (isolation, chauffage plus performant, diminution des consommations des véhicules, etc.) vont être réduits ou annulés par une augmentation des usages.

Comment se fait-ce ?
Pour comprendre, prenons l’exemple de la consommation des véhicules. Les constructeurs automobiles fabriquent des voitures depuis des décennies, quasiment un siècle en fait : les débuts de la production en masse des automobiles, c’est la Ford T aux USA et c’était dans les années 1920. Pendant tout ce temps, les ingénieurs du monde entier n’ont pas cessé d’améliorer les moteurs pour en optimiser le fonctionnement, la puissance délivrée et la consommation de carburant.

Le graphique ci-après montre l’évolution, pour différents pays et pour le monde, de la consommation moyenne des véhicules légers depuis 2005 :

On voit bien la diminution de la consommation moyenne des véhicules, résultat des efforts de tous les constructeurs pour améliorer l’efficacité énergétique de leurs moteurs. C’est le cas dans tous les pays de ce graphique, et notamment de la France.
En toute logique, cette amélioration de l’efficacité énergétique devrait se traduire par une diminution globale de la quantité de carburant consommé, permettant ainsi de diminuer les émission de CO2, diminuer notre dépendance au pétrole importé, diminuer notre facture énergétique, etc…
Et bien en fait… non.

Voici l’évolution de la quantité totale de carburant consommé en France depuis 2004 :

Que voit-on ? La consommation de carburant est quasi-stable, autour de 50 millions de mètres cube par an.

Pourquoi ne baisse-t-elle pas ? L’explication est la suivante : plus les voitures s’améliorent en termes de consommation de carburant moyenne et plus elles sont attractives : elles coûtent moins cher aux propriétaires lors de leur utilisation, par conséquent ceux-ci vont pouvoir parcourir plus de km avec leur voiture pour le même prix… Ou alors, avec les économies réalisées, ils vont pouvoir s’acheter la deuxième voiture dont ils rêvent… Et bien sûr les constructeurs, de leur côté, ne vont pas manquer de vanter dans leurs publicités cette faible consommation de leurs voitures : ils vont donc en vendre en plus grande quantité.

Résultat : la consommation totale de carburant ne baisse pas.
Il est possible d’aller plus loin dans l’explication : en effet, depuis le temps que les ingénieurs travaillent sur le sujet, les voitures devraient aujourd’hui consommer beaucoup moins que environ 6l/100 km (en France) en moyenne. Pourquoi n’est-ce pas le cas ? Et bien c’est parce que, depuis des décennies nos voitures s’alourdissent du fait des équipements et des amélioration de confort et de sécurité qu’on y ajoute : direction assistée, climatisation, isolation phonique, ABS, résistance aux crash-test, accessoires et assistance électroniques… et ce surpoids consomme une partie des gains d’efficacité énergétique chèrement grappillés année après année !
C’est ça l’effet rebond : on améliore l’efficacité énergétique d’un produit, ce qui devrait diminuer la consommation d’énergie, mais en réalité, la consommation totale d’énergie ne baisse pas car l’utilisation du produit s’accroît en parallèle.

L’automobile est un des exemples les plus parlants mais on peut les multiplier :
– transport aérien : la baisse de la consommation de kérosène des avions par passager est compensée par la hausse du trafic aérien
– secteur du numérique : depuis les premiers ordinateurs, la consommation d’énergie par appareil des appareils numériques a fait des progrès colossaux. Pourtant, chaque année, la consommation totale d’énergie des appareils numériques augmente sans cesse (plus de 5% par an)
– isolation des logements : les économies d’énergie réalisées sur le chauffage d’une maison peuvent permettre aux propriétaires d’acheter une deuxième voiture, consommatrice d’énergie
– …

Alors voilà, un petit conseil lorsque vous entendez une annonce médiatique informant que tel ou tel produit ou machine va désormais consommer moins d’énergie par kilomètre, ou par passager ou par produit, méfiez-vous : l’effet rebond risque probablement de réduire fortement ou annuler les progrès attendus, voire même de faire empirer la situation, car ce qui compte c’est la consommation totale.

Exemple : Air-France a annoncé en octobre 2019 se fixer pour objectif, d’ici 2030 , de réduire de 50% ses émissions de CO2 au passager/km par rapport à 2005 (lire ici). Fort bien. Mais dans le même temps, les prévisions d’augmentation du trafic aérien sont de l’ordre de 5 à 6% par an (lire ici). Faites le calcul : en 2030 l’augmentation du trafic sera de bien plus de 50% et aura totalement compensé la réduction des émissions au passager/km. Résultat : les émissions de CO2 des avions d’Air-France n’auront absolument pas diminué d’ici 2030(*).
[Vous allez me dire que Air-France fait maintenant des vols « neutres en carbone »… c’est hélas mensonger, j’en parlerai peut-être dans un autre article : ce n’est pas parce qu’on donne de l’argent à des organismes œuvrant pour la protection des forêts que les émissions de CO2 des avions s’évanouissent comme par magie…]
NB : je n’ai rien contre Air-France spécifiquement, ce n’est qu’un exemple !

Les objectifs environnementaux que l’on se fixe n’ont de sens qu’en valeur absolue : baisse de la consommation d’énergie totale, baisse des émissions de CO2 totale, baisse globale des consommations de matière première. Les baisses relatives i.e. par produit, par passager, par kilomètre…, seules, sont insuffisantes à cause de l’effet rebond.

Pour finir, une précision : entendons-nous bien, je ne suis pas en train de dire que les actions d’amélioration de l’efficacité énergétique sont inutiles ; toutefois pour qu’elles soient efficientes, il est indispensable, en sus, de mettre en œuvre des mesures de sobriété limitant au maximum l’effet rebond.

Pour aller plus loin :

https://fr.wikipedia.org/wiki/Effet_rebond_(%C3%A9conomie)

https://www.alternatives-economiques.fr/leffet-rebond-lefficacite-energetique-accroit-demande/00066786

https://jancovici.com/transition-energetique/l-energie-et-nous/les-economies-denergie-cest-juste-des-ampoules-basse-consommation/

(*) S’agissant du secteur de l’aéronautique, il ne vous aura pas échappé que la crise sanitaire liée au coronavirus est survenue après ces annonces, ce qui – pour l’instant – change complètement la donne dans ce secteur. Mais vous avez compris le principe !

[Temps de lecture moyen 5 min]

Début mai je vous ai parlé dans un précédent article de la baisse historique des émissions de CO2 mondiales en 2020, du fait de la récession économique provoquée par le Coronavirus. « C’est toujours ça de gagné », « bonne nouvelle pour la lutte contre le réchauffement climatique », vous-êtes-vous peut-être dit.
Vraiment ? Voyons cela.

Depuis la fin des années 50, l’observatoire de Mauna Loa situé à Hawaï mesure chaque jour le taux de CO2 dans l’atmosphère. D’autres stations de mesure ont été créées ensuite ailleurs dans le monde mais celle-ci est remarquable car c’est la seule à fonctionner sans discontinuer depuis aussi longtemps.
Etant donné que le CO2 se dilue très rapidement (en quelques jours) dans l’atmosphère après avoir été émis, les mesures de longue durée faites à Mauna Loa donnent une bonne représentation de l’évolution du taux de CO2 dans l’ensemble de l’atmosphère.
Voici l’intégralité des mesures que l’observatoire a réalisées depuis 1957 :

Mesure du taux de CO2 dans l’atmosphère à Mauna Loa
En abscisse : années de 1957 à nos jours ; en ordonnée : taux de CO2 en ppm (parties par millions : 400ppm = 0,04%)
[en rouge les taux réellement mesurés ; en noir l’évolution du taux corrigée des variations saisonnières]

[CURIOSITÉ] Pourquoi le taux de CO2 varie-t-il annuellement ?
On remarque que la courbe rouge, montrant les valeurs réellement mesurées jour après jour, oscille annuellement : à partir de juin le taux de CO2 chute jusqu’en septembre, puis remonte à partir d’octobre jusqu’en mai, et ainsi de suite.
Pourquoi cette variation ? Elle est due à la végétation terrestre qui, du printemps à l’été connait un fort développement et donc une activité photosynthétique – consommatrice de CO2 – accrue, suffisante pour faire baisser le taux de CO2. A partir de l’automne et en hiver, les feuilles tombent et la photosynthèse s’arrête, ce qui fait que le taux de CO2 remonte.
Vous allez me dire que cette explication est valable pour un hémisphère seulement, et que si on prend en compte les deux hémisphères nord et sud les phénomènes doivent se compenser… Et bien non : la surface de terres émergées est beaucoup plus importante dans l’hémisphère nord (vérifiez sur un planisphère…), du coup le phénomène prend le pas sur celui de l’hémisphère sud et n’est pas compensé.
Voici, pour finir ce petit zoom, une vidéo réalisée par la Nasa montrant sur un an comment évoluent les concentrations de C02. On voit très bien les émissions de gaz se diluer dans toute l’atmosphère, avec cette oscillation annuelle bien marquée :

Que voit-on sur la courbe de l’observatoire de Mauna Loa ? Imperturbablement, le taux de CO2 augmente de façon exponentielle. Rien n’a perturbé cette évolution depuis plus de 60 ans : aucun évènement, aucune crise économique ou sanitaire, aucune réglementation, rien.
Depuis 800 000 ans il variait entre 180 et 290 ppm, et il atteint aujourd’hui des valeurs supérieures à 400 ppm que la Terre n’a pas connu depuis plusieurs millions d’années.

Fin mai / début juin est, chaque année, la période pendant laquelle le taux de C02 dans l’atmosphère bat un nouveau record à la hausse. Qu’en est-il en cette année 2020 que le coronavirus a rendu si particulière ? Zoomons sur les dernières mesures :

Évolution du taux de CO2 dans l’atmosphère mesurée à l’observatoire de Mauna Loa à Hawaï.
Vous voyez un changement en 2020 ?

Malgré la crise et la récession économique, 2020 ne fait pas exception :
418,32 ppm ont été mesurés le 1er juin à l’observatoire de Mauna Loa : un nouveau record. Il bat celui de l’année dernière (415 ppm), qui battait celui de l’année précédente (411 ppm)… Pas de changement.

Pourquoi ? Comment se fait-il qu’on ne voit aucune amélioration alors que cette année les émissions ont historiquement diminué (prévision d’environ -8% sur toute l’année 2020) ?
Pour le comprendre, il faut avoir en tête que quand on évoque une « diminution des émissions de CO2 », cela signifie une diminution de la quantité de CO2 que l’on va ajouter cette année à l’atmosphère. Concrètement, au lieu d’ajouter cette année environ 40 milliards de tonnes de CO2 à l’atmosphère, on ne va en ajouter que… peut-être 37. Ou 36. Voilà, c’est tout. La belle affaire ! C’est une toute petite différence et c’est pourquoi l’effet est quasi invisible au niveau global.

L’ampleur du réchauffement climatique en cours et à venir dépend directement de la quantité absolue de CO2 dans l’atmosphère : en effet c’est de cette quantité dont dépend le niveau du bien connu « effet de serre », dont l’augmentation est responsable du changement climatique.
Pour contenir le réchauffement climatique il est indispensable de stopper cette hausse et stabiliser la quantité de CO2 présente dans l’atmosphère. Pour y arriver un jour, il est nécessaire de diminuer effectivement nos émissions dans des proportions similaires à la diminution observée en 2020, et cela chaque année pendant des années et même pendant des décennies ! Voilà l’ampleur de la tâche qui nous attend.

Ce petit article avait pour but de vous faire comprendre l’ordre de grandeur des efforts qui doivent être accomplis au niveau mondial chaque année dans le sens d’une décarbonation de nos activités.
Ceux-ci et les changements à mettre en œuvre pour y parvenir (autrement qu’avec une crise sanitaire chaque année pendant des décennies, s’entend !) sont LE défi que l’Humanité a collectivement à relever.

Pour finir sur une note… artistique, avec un clin d’œil à mon précédent article relatif à une vague « cartographique », voici un dernier graphique :

C’est une autre représentation de l’évolution du taux de CO2 dans l’atmosphère mesuré à Mauna Loa : en ordonnée figure le taux de CO2 en ppm et en abscisse les mois de janvier à décembre. Il y a une courbe par année.
Si vous connaissez(*) la fameuse estampe « La vague » (son vrai titre est « La Grande Vague de Kanagawa« ) de l’artiste japonais Hokusaï, vous aurez tout de suite tilté que cette représentation lui fait une très belle (à mon goût) référence !

Philippe

(*) Si vous ne la connaissez pas, cliquer ici !

[Temps de lecture moyen 4 min]

Parlons un peu d’un sujet qui me préoccupe : le changement climatique. Voici un graphique (comme toujours, vous avez compris le principe de ce blog !) représentant l’évolution de la température moyenne à la surface de la Terre depuis 22 000 ans.

L’axe horizontal est la température, le 0 correspondant à la moyenne de la période récente 1961-1990.

L’axe vertical est le temps en années : il débute à -20 000 ans avant JC et se termine en 2100.

De -20 000 av JC jusqu’à 1850 environ, les températures ont été reconstituées par les scientifiques par différentes méthodes ; de 1850 à nos jours (2016, date du graphique) les températures sont des mesures directes ; de 2016 à 2100 les températures sont les scénarios possibles diffusés par le GIEC.

Il faut suivre la courbe en pointillés. Au fur et à mesure que le temps avance, le graphique donne des indications sur ce qui se passe sur Terre.

C’est parti, imaginez : il y a 22 000 ans, la dernière glaciation est encore en cours, une bonne partie de l’Amérique du Nord, la Scandinavie, tout le nord de la Russie sont recouverts de glace, le niveau des océans est 120 m plus bas qu’actuellement, en France les glaciers des Alpes vont jusqu’à Lyon et des troupeaux de rennes se baladent dans tout le pays, la température moyenne est entre 4 et 5 °C en dessous de la moyenne actuelle…

Descendez tranquillement le graphique et prenez le temps de lire. Ne loupez pas les petits dessins humoristiques ;-) On se retrouve tout en bas !
(désolé le graphique est en anglais, je n’ai pas trouvé de traduction en français ; il suffit toutefois de quelques notions d’anglais pour comprendre le principal)

C’est long n’est-ce pas ? Environ 10 000 ans pour sortir de la dernière glaciation et atteindre une température très proche de l’actuelle, puis 10 000 ans de quasi-stabilité climatique globale pendant laquelle l’Humanité a connu le développement et l’expansion que nous connaissons.

Et pourtant, à l’échelle des changements climatiques que la Terre a connu dans sa longue histoire de plus de 4 milliards d’années, ces durées sont très courtes. De tous les bouleversements climatiques que la Terre a connu, une sortie de glaciation en 10 000 ans, faisant gagner 4 à 5 degrés, fait partie des évènements climatiques naturels les plus rapides et les plus violents que l’on connaisse (hors évènement cataclysmique type chute de météorite)…
…mais ce n’est rien comparé au changement climatique actuel, que l’on voit très bien à la toute fin du graphique et qui a déjà fait augmenter la température de 1°C en 100 ans (sans parler de la hausse future qui sera bien plus importante si on ne change rien). Celui-là est d’une rapidité absolument sans précédent, jugez plutôt :

  • 10 000 pour gagner 5°C, c’est 1°C gagné en 2 000 ans
  • 100 ans pour gagner 1°C c’est 20 fois plus rapide.
    Le changement climatique actuel est 20 fois plus rapide que les plus rapides des changements climatiques que la Terre ait jamais connu par le passé.

Nous sommes en train d’éparpiller par petits bouts, façon puzzle(*), la stabilité du climat qui a permis le développement de l’Humanité depuis 10 000 ans. Cela va bouleverser notre agriculture, élever de plusieurs mètres le niveau de la mer et des océans, rendre inhabitable des régions entière de la terre une bonne partie de l’année, déplacer ou détruire les habitats de nombreuses espèces terrestres et marine : liste non exhaustive. La vitesse de ces effets est totalement inédite dans l’histoire de la Terre. Il est très difficile de prédire les conséquences exactes qu’ils auront sur les conditions de vie de l’Humanité sur Terre mais le risque est fort que celles-ci en soient significativement et négativement impactées.

Sommes-nous prêts à prendre ce risque en continuant à ne quasi rien changer ? Ou n’est-il pas infiniment plus raisonnable de réagir rapidement et vigoureusement pour atténuer ces effets ?
Pour ma part, je connais la réponse que j’apporte à cette question.

Source : Le créateur de ce graphique est Randall Munroe, scientifique et dessinateur. Les références des données scientifiques qu’il a utilisées sont en vertical, à droite, en haut sur le graphique.

Bibliographie : si vous voulez en savoir plus sur le passé climatique de la Terre, je vous renvoie vers le passionnant livre de Gilles Ramstein : « Voyage à travers les climats de la Terre » – Editions Odile Jacob Sciences – 2015

(*) référence cinématographique bien peu scientifique, j’en conviens, mais si parlante

[Temps de lecture moyen 3 min]

Voici une superbe dataviz vidéo (merci à Simon Kuestenmacher, un géographe allemand, qui l’a diffusée sur Twitter) de tous les séismes qui se sont produits sur Terre entre juillet 2017 et juillet 2018 :

Chaque point lumineux est un séisme ; l’intérêt de cette dataviz est d’introduire la 3D dans la localisation des séismes, que l’on représente d’habitude à plat sur une carte. Du coup on se rend compte que les tremblements de terre, que l’on imagine se produire à la surface du globe, se produise en réalité sous la surface, souvent à seulement quelques kilomètres de profondeur mais parfois beaucoup, beaucoup plus profondément, jusqu’à 700 km(*) !

Nombre de ces séismes très profonds ne sont que peu perceptibles en surface, mais ils n’échappent pas aux très sensibles sismomètres installés un peu partout sur le globe par les sismologues et qui permettent de les localiser très précisément. Le mécanisme qui les provoque est très particulier, c’est l’objet de ce petit article.

Quelle est l’origine des séismes ? La tectonique des plaques nous apprend que la partie la plus externe du globe terrestre, la lithosphère, est constituée de différentes « plaques » d’environ 100 km d’épaisseur en moyenne qui se déplacent en permanence à la surface du globe, à une vitesse de quelques centimètres par an. Certaines plaques convergent l’une vers l’autre et glissent l’une sous l’autre, tandis que d’autres divergent. Étant composées en surface de roches solides et rigides, ces mouvements de plaques ne sont pas fluides : les plaques se coincent, se bloquent facilement l’une contre l’autre, mais la tension s’accumule au cours du temps et les plaques finissent par se décoincer brutalement et par coulisser d’un coup, ce qui produit un séisme (ou tremblement de terre).

L’étude des séismes montre que leur profondeur dépend du type de mouvement relatif des plaques qui les provoquent :

  • les séismes superficiels de quelques dizaines de km maximum de profondeur se produisent aux endroits où les plaques divergent, par exemple à la jonction des plaques américaines et européennes qui passe au milieu de l’océan atlantique,
  • les séismes intermédiaires de quelques dizaines à une centaine de km de profondeur se produisent aux endroits où les plaques convergent, par exemple le long de la côte est de l’Amérique du Sud,
  • les séismes profonds, jusqu’à environ 700 km, se produisent de même à proximité des plaques convergente, à l’endroit où une plaque glisse sous l’autre et s’enfonce loin dans les profondeurs de la Terre, par exemple sous l’Indonésie
Mouvements des plaques tectoniques

Jusqu’à il y a peu, le mécanisme à l’origine des séismes très profonds restait une énigme pour les sismologues. En effet, à plusieurs centaines de kilomètre de profondeur, la température et la pression sont telles (plusieurs dizaines de milliers de bars, environ 1000°C) que la roche devient globalement visqueuse et n’est plus sujette au mécanisme de blocage-relâchement qui explique les séismes superficiels et intermédiaires.

Ce n’est que depuis quelques années qu’un mécanismes explicatif a été proposé (voir ici) : en s’enfonçant profondément, le principal minéral constituant le manteau terrestre, l’olivine, devient autour de 1000°C de plus en plus compact et en même temps moins résistant, et il finit par se fracturer à cause de la pression, ce qui cause ces séismes…

Pour en savoir plus sur les séismes, allez donc faire un tour sur le site de l’Université de Laval au Québec, ça change de wikipedia ;-)

(*) sur la vidéo, connaissant le rayon de la Terre d’environ 6370 km, les séismes semblent se produire bien plus profond que seulement 700 km. Cela est dû au fait que, lors de la fabrication de la vidéo, la profondeur a été volontairement exagérée (x8) pour être bien visible. Exactement comme sur les cartes géographiques en relief : l’altitude des montagnes est exagérée pour être mieux visible.