[Temps de lecture moyen 57 min]

… en 11 questions.

C’est parti pour un tour d’horizon du fonctionnement des centrales nucléaires et des caractéristiques de l’exploitation de cette énergie.
Comme d’habitude, je me suis attaché à vulgariser le plus possible : pas de mots compliqués ni de concepts trop techniques, ou alors il y a l’explication qui va avec.

Voilà le programme :
Comment fonctionnent les centrales électriques ?
Qu’est-ce que la radioactivité ?
Qu’est-ce que la fission ?
Une centrale nucléaire, comment ça marche ?
Le nucléaire, c’est dangereux ?
Le nucléaire, c’est risqué ?
L’accident nucléaire : possible ?
Séismes, tsunamis et inondations : quels sont les risques ?
Quid du vieillissement des centrales ?
Le démantèlement des centrales : on sait faire ?
Que faire avec les déchets nucléaires ?

Si vous voulez parcourir le panorama complet alors installez vous confortablement, prévoyez un peu de temps devant vous et lisez tout tranquillement dans l’ordre. Sinon faites votre marché et allez directement lire les points qui vous intéressent : les 11 questions ci-dessus sont cliquables pour aller lire directement le paragraphe concerné ;-)

Bonne lecture !

Comment fonctionnent les centrales électriques ?

Commençons par le grand principe fondamental : quasiment toutes les centrales électriques thermiques(1), qu’elles soient au charbon, au gaz, au fuel ou nucléaires, fonctionnent sur le même principe. Ce sont des turbines à vapeur. Mode d’emploi :
– chauffer de l’eau,
– produire de la vapeur,
– envoyer cette vapeur sous pression dans une turbine pour la faire tourner, entraîner un alternateur et produire de l’électricité,
– refroidir la vapeur (avec un circuit d’eau froide distinct) pour la condenser et la retransformer en eau,
– renvoyer l’eau au début du circuit avec une pompe et recommencer.
On utilise la force de la vapeur depuis la révolution industrielle, rien de bien nouveau, finalement !

Schéma ultra-simplifié du fonctionnement d’une centrale électrique

Simple, non ? Vous pouvez le faire chez vous en branchant un tuyau sur une cocotte-minute contenant de l’eau, en la mettant sur le feu, en envoyant la vapeur sur les pales d’une petite hélice que vous aurez relié à une dynamo de vélo et voilà, vous produisez de l’électricité. Une centrale électrique c’est pareil, c’est juste plus grand et un tout petit peu plus compliqué ;-)

La différence entre les types de centrales c’est la source de chaleur pour chauffer l’eau. Celle-ci est obtenue :
– soit en brûlant des combustibles (charbon, gaz, pétrole, …) ,
– soit en utilisant l’énergie nucléaire.

Qu’est-ce que la radioactivité ?

Nous savons que toute la matière qui nous entoure, et dont nous sommes faits, est constituée d’atomes. Il en existe de multiples sortes, vous en connaissez un certain nombre : le carbone, l’hydrogène, l’oxygène, le fer, le lithium, l’uranium, l’argon, le chlore, etc… On les classe dans un tableau qui s’appelle la table de Mendeleiev (souvenir de cours de votre jeunesse, peut-être ?).
Tous les atomes sont constitués d’un noyau contenant des protons et des neutrons, avec des électrons qui tournent autour. C’est le nombre de protons qui détermine de quelle sorte d’atome il s’agit : 1 proton, c’est de l’hydrogène, 2 protons c’est de l’hélium, etc…

La radioactivité, c’est dans les noyaux que ça se passe (le terme nucléaire provient d’ailleurs du latin nucleus qui signifie noyau). Il se trouve que, de manière naturelle, certaines sortes d’atomes ont un noyau qui est instable : au bout d’un certain temps(2) ils se désintègrent tous seuls, spontanément et sans prévenir, et se transforment en une autre sorte d’atome, tout en émettant des rayonnements et des particules : c’est ça la radioactivité, découverte par Henri Becquerel et confirmée par Marie Curie au début du XXe siècle avec la découverte du radium. Ce phénomène existe depuis que les atomes existent dans l’univers : la radioactivité est un phénomène naturel.
Des atomes radioactifs existent naturellement dans l’environnement terrestre, y compris dans notre propre corps : dans un être humain adulte, il se produit à chaque seconde plusieurs milliers de désintégrations radioactive spontanées, dues à la présence d’atomes naturellement radioactifs qui proviennent des aliments que nous mangeons. Nous sommes tous naturellement radioactifs !

En plus des atomes radioactifs existants depuis toujours sur Terre, nous créons aussi artificiellement d’autres atomes radioactifs qui ne sont pas (ou plus) présents naturellement. C’est le cas dans les réacteurs des centrales nucléaires.

La radioactivité, c’est dangereux ?

La radioactivité peut-être dangereuse : si vous allez faire un câlin de quelques minutes à un assemblage de combustible usagé radioactif qui sort d’un réacteur nucléaire, vous mourrez à brève échéance !

MAIS… la dangerosité de la radioactivité dépend de la dose que vous recevez. On ne peut pas raisonner de manière binaire :
– pas de radioactivité = pas de danger,
– radioactivité = danger.
En réalité il n’y a jamais aucune radioactivité : nous baignons en permanence dans un peu de radioactivité due à l’environnement naturel… mais ce n’est pas dangereux.

On utilise une unité spécifique pour mesurer les doses de radioactivité et leur impact sur l’être humain : le millisievert (prononcer « milisiverte », son abréviation est mSv). Voici quelques chiffres pour mieux comprendre les ordres de grandeur de doses de radioactivité, en mSv, et leur dangerosité.

  • 2 à 5 mSv par an : c’est la dose de radioactivité à laquelle nous sommes tous soumis naturellement à cause de l’environnement. Cette radioactivité est notamment due au fait que les roches (particulièrement les roches granitiques ) qui constituent les sols émettent, partout, en permanence, un gaz radioactif, le radon. Nous baignons tous, naturellement et en permanence, dans un peu de radioactivité, variable selon les régions. Si vous êtes breton – région granitique – et que votre maison a une cave pas trop bien ventilée, alors vous prendrez une dose de radioactivité plus importante en allant chercher une bouteille de vin qu’en allant visiter une centrale nucléaire…
  • 20 mSv par an : c’est le seuil réglementaire, en France pour les travailleurs. Aucun travailleur ne doit être exposé, du fait de son activité professionnelle, à plus de 20mSv par an. Pour l’anecdote, sachez que les travailleurs les plus exposés ne sont pas ceux du secteur du nucléaire… Les plus exposés à la radioactivité sont les pilotes de lignes et les stewards et hôtesses de l’air ! Cela est dû aux rayonnements qui proviennent du soleil et qui les atteignent plus que nous, les personnes au sol, car la couche d’atmosphère qui les protège est moins épaisse.
  • 100 mSV par an : c’est le seuil en dessous duquel on ne constate aucun effet sanitaire dû à la radioactivité : aucune maladie ou affection directe, aucune augmentation de probabilité de cancer, rien.
    Retenez ce seuil, il est important : en dessous de 100 mSv par an il n’y a aucun effet décelable sur l’être humain, à court, moyen ou long terme, d’une exposition à la radioactivité. Pas d’augmentation de probabilité de cancer même longtemps après, rien. Pour ceux qui doutent de cela, songez que l’on étudie la radioactivité et ses effets depuis plus d’un siècle (Marie Curie, souvenez-vous, début du XXe) et que ce seuil est solidement établi par des décennies d’études et d’observations des effets de la radioactivité. D’ailleurs heureusement que ce seuil d’innocuité existe : si par exemple vous allez passer un scanner c’est 10 mSv que vous allez recevoir en une seule fois… et qui s’ajoutent aux quelques mSv naturels… mais votre total annuel reste en dessous de 100, ouf ! Les examens médicaux de type scanner, radiographie… sont une source importante de radioactivité pour l’être humain.
  • au dessus de 100 mSv, plus on monte et plus on commence à voir augmenter progressivement les probabilités de cancer à long terme
  • 1000 mSv est le seuil au dessus duquel apparaissent des effets immédiats sur la santé, avec risque vital pour les semaines ou mois qui suivent.
  • Plus on monte en dose au delà de 1000 mSv et plus l’effet est grave et rapidement mortel.

En résumé pour les doses en dessous de 100 mSv :

Doses efficaces et limites réglementaires (source)

Qu’est-ce que la fission ?

Nous avons vu plus haut que les atomes sont constitués de noyaux (neutrons + protons) et d’électrons. Or, il se trouve que certains noyaux d’atomes, notamment l’uranium(3), ont une particularité : quand on envoie un neutron sur ces noyaux, ils se cassent en deux en libérant de l’énergie et d’autres neutrons : c’est la fission. C’est ce phénomène qui est utilisé dans les centrales nucléaires.

La fission est doublement intéressante :
1) l’énergie récupérée, sous forme de chaleur, est ce qui est recherché comme indiqué plus haut : c’est elle que l’on veut pour chauffer l’eau et produire de la vapeur.
2) les neutrons émis vont pouvoir aller fissionner d’autres atomes, produire de l’énergie à leur tour, et encore d’autres neutrons, etc.. C’est la réaction en chaîne(4). En la contrôlant à l’aide de dispositifs absorbeurs de neutrons, nous avons un réacteur nucléaire, qui chauffe notre eau et que l’on peut piloter.

Les deux morceaux issus du noyau d’uranium coupé en deux sont des atomes radioactifs : se sont des sous-produits de la réaction, qui vont eu-mêmes se désintégrer en d’autre atomes radioactifs. Tous ces sous-produits vont constituer les déchets qui seront ensuite retraités (voir paragraphe sur les déchets).

Voilà, vous connaissez maintenant le principe de la fission nucléaire !

Un atome qui a cette capacité à se couper en deux en recevant un neutron est un atome dit « fissile ». L’uranium est le seul atome fissile à être présent naturellement dans la croûte terrestre. C’est LE combustible de base de toutes les centrales nucléaires du monde.

Comment fonctionne une centrale nucléaire ?

Voici les points essentiels à avoir en tête pour comprendre les grands principes du fonctionnement d’une centrale nucléaire. Je ne parlerai que des réacteurs français, les REP (Réacteurs à Eau Pressurisée) : déjà que c’est compliqué de tout faire rentrer dans un seul article, si je pars sur tous les types de réacteurs dans le monde on est pas arrivés ;-)

Une « centrale nucléaire  » est un site industriel sur lequel on trouve des « tranches » : une tranche est une entité autonome, comprenant un réacteur nucléaire avec tout les équipements nécessaires à son fonctionnement et à la production d’électricité. Chaque tranche peut fonctionner seule, indépendamment des autres. Dans toutes les centrales nucléaires françaises actuellement en exploitation, il y a au moins 2 tranches (i.e. au moins 2 réacteurs).

Les centrales nucléaires françaises avec le détail du nombre de réacteurs – ou « tranches » – par centrale

Commençons par le combustible nucléaire : l’uranium (sous forme d’oxyde d’uranium, en fait, mais peu importe) est conditionné en pastilles de quelques grammes, cylindriques d’environ 1 cm de hauteur et de diamètre. Contrairement aux idées reçues, ces pastilles sont très peu radioactives, on peut les manipuler sans précautions particulières.

Pastilles d’uranium avant assemblage

Les pastilles sont empilées dans des longues gaines métalliques étanches d’environ 4 mètres de haut (appelées « crayons »), elles mêmes rassemblées dans des « assemblages ».
Ces gaines étanches sont la première des trois barrières de protection entre le combustible et l’environnement externe.

Il faut charger environ 150 assemblages identiques dans la cuve d’un réacteur nucléaire pour qu’il puisse fonctionner et délivrer la puissance prévue (environ 1000 mégawatts : 1000 millions de watts).

Par rapport au schéma de fonctionnement général des centrales électriques, il y a un circuit en plus dans les centrales nucléaires, entre la source de chaleur (le réacteur) et la « chaudière » (appelée générateur de vapeur dans les centrales nucléaires) : c’est le circuit primaire.

En fonctionnement, la cuve du réacteur contenant les assemblages d’uranium est parcourue par de l’eau : c’est le circuit primaire (orange sur le schéma ci-dessus). Étanche et maintenu sous pression (d’où le nom de Réacteur à Eau Pressurisée, « REP ») par un pressuriseur pour que l’eau reste liquide et ne se vaporise pas, ce circuit est la deuxième des trois barrières entre le combustible et l’environnement extérieur.
L’eau du circuit primaire tourne en circuit fermé : après avoir été réchauffée par le combustible dans la cuve, elle va donner sa chaleur à l’eau du circuit secondaire (gris et bleu) avant de retourner dans la cuve. Ce transfert de chaleur s’effectue dans un « générateur de vapeur » (il y en a en fait 3 ou 4 par réacteur) , sans qu’il n’y ait communication entre les deux circuits d’eau. L’eau chauffée du circuit secondaire – en bleu sur le schéma – se transforme en vapeur – en gris sur le schéma – à cause de la chaleur : cela est possible car ce circuit est beaucoup moins sous pression que le circuit primaire. Ensuite vous vous souvenez du principe de fonctionnement expliqué au début de l’article : la vapeur actionne une turbine…. alternateur… production d’électricité !
Après avoir actionné la turbine, la vapeur est refroidie dans un condenseur et ainsi re-transformée en eau. Ce refroidissement, dans le condenseur, est obtenu par un échange de chaleur avec un troisième circuit d’eau froide (vert), là aussi sans communication entre les circuits. Ce troisième circuit est de l’eau prélevée froide dans un fleuve ou en mer, puis rendue tiédie à la rivière ou la mer.
A noter que si le débit moyen du fleuve est insuffisant, on aura construit une tour de refroidissement, dans laquelle passe ce circuit pour diminuer la température de l’eau avant de la rejeter, pour ne pas qu’elle soit trop chaude ce qui serait nuisible à l’environnement. Cette dernière caractéristique n’est pas propre aux centrales nucléaire : une centrale a charbon peut aussi avoir une tour de refroidissement pour la même raison. Ainsi, qui dit tour de refroidissement ne dit pas nécessairement centrale nucléaire !

Le circuit primaire est entièrement situé dans le « bâtiment réacteur », étanche et construit en béton armé de plus d’1m d’épaisseur, doublé d’acier, qui constitue la troisième et dernière barrière entre le combustible et l’environnement externe.

Notons au passage une caractéristique essentielle du fonctionnement d’une centrale nucléaire : elle n’émet pas de CO2 lors de son fonctionnement. En effet la fission de l’uranium n’est pas une combustion d’un hydrocarbure !
En fonctionnement, une centrale rejette(5) :
– de l’eau tiédie dans le fleuve (ou la mer) situé(e) nécessairement à proximité,
– de l’eau liquide (gouttelettes sous forme de nuage) et de l’eau sous forme de vapeur dans l’atmosphère via la tour de refroidissement (s’il y en a une).

Et pour ceux qui se posent la question :
non les tours de refroidissement ne réchauffent pas l’atmosphère : la quantité de chaleur rejetée est infinitésimale par rapport au volume de l’atmosphère
– oui la vapeur d’eau est un gaz à effet de serre… mais, non, les, panaches des tours de refroidissement des centrales (nucléaires ou pas nucléaires) ne contribue pas au réchauffement climatique car tout excès de vapeur d’eau atmosphérique se retransforme immédiatement en précipitations et en eau dans les océans : il y a un équilibre permanent entre la vapeur d’eau de l’atmosphère et l’eau liquide des océans.

Je le répète et je le mets en gras car c’est une idée fausse : NON les centrales nucléaires ne contribuent pas au réchauffement climatique. Non(6). Au contraire, l’électricité produites par les centrales nucléaires est décarbonée.
J’insiste lourdement sur ce point à cause de ce sondage IPSOS :

Extrait d’un étude sociologique réalisée par IPSOS pour le compte d’EDF depuis 2012 chaque année

Cette étude montre que de plus en plus de personnes pensent que les centrales nucléaires contribuent « beaucoup » au réchauffement climatique ce qui est totalement faux… Sur ce sujet, lire cet article de Sylvestre Huet (Le Monde) sur son blog {Sciences²}.

Le nucléaire, c’est dangereux ?

Commençons avant toute chose par rejeter une idée fausse (une autre) :
une centrale nucléaire ne peut pas exploser comme le ferait une bombe nucléaire. C’est matériellement, physiquement, rigoureusement impossible.
En effet, une bombe nucléaire est constituée d’une masse dite « critique » d’uranium 235 (ou de plutonium 239) ultra-pur, séparée en deux parties que l’on rassemble d’un coup pour provoquer l’explosion. Or, l’uranium d’une centrale nucléaire est :
– séparé en millions de pastilles distinctes et réparties dans les gaines et les assemblages,
– surtout très, très loin du degré de pureté nécessaire(7).
Donc non, une centrale nucléaire ne peut absolument pas devenir une bombe nucléaire.

Ceci étant, la réponse à la question de ce paragraphe est que oui, bien sûr, utiliser l’énergie nucléaire est dangereux. Comme de nombreuses autres substances naturelle (amiante, métaux lourds, monoxyde de carbone, etc…) ou artificielles (benzène, formaldéhydes, composés organiques volatiles, polluants organiques persistants, phtalates, retardateurs de flamme, etc…), les substances radioactives sont des matières dangereuses.
A des doses suffisantes, les matières radioactives peuvent nuire à la santé des êtres humains ou avoir des effets négatifs sur l’environnement et les animaux. C’est la définition même d’une matière dangereuse. Pour les humains elles entraînent à partir d’une certaine dose une augmentation du risque de cancer, voire des maladies, brûlures et conséquences gravissimes à des doses plus élevées, puis mortelles en cas de dose très importante (lire ci-dessus). En cas de dissémination dans l’environnement, les êtres vivants sont affectés comme l’être humain, à des degrés variables en fonction des espèces et croissant en fonction des doses.

Il faut noter une particularité des substances radioactives que n’ont pas les autres matières dangereuses : leur dangerosité diminue avec le temps, plus ou moins vite en fonction du type d’atome considéré. Pour qualifier cette décroissance de la radioactivité, on utilise la notion de « demi-vie » : c’est la durée au bout de laquelle la radioactivité d’une substance a diminué de moitié. Voici quelques demi-vies de différentes sortes d’atomes radioactifs :
– iode 131 : 8 jours
– cobalt 60 : 5 ans
– radium 226 : 1 600 ans
– plutonium 239 : 24 000 ans.
Ainsi, pour certaines substances il suffit d’attendre quelques semaines pour que la radioactivité ait disparu. Pour d’autres quelques années et pour d’autres encore quelques milliers, voire des dizaines de milliers d’années pour le plutonium.

Oui, un réacteur nucléaire fabrique des substances radioactives qui sont dangereuses, c’est un fait. Cela nécessite de prendre des mesures importantes pour s’en protéger et en protéger l’environnement.

Le nucléaire c’est risqué ?

Commençons pas clarifier la différence entre « danger » et « risque », ce n’est pas la même chose :
– un danger est ce qui peut causer un dommage,
– un risque est la probabilité de subir ce dommage à cause de l’exposition au danger.
Vous voyez la différence ? Prenons l’exemple du feu : c’est un danger car il peut causer des brûlures, légères, graves ou mortelles. Si vous n’y êtes pas exposé, alors il n’y a pas de risque. Mais si vous y êtes exposé, alors il y a un risque, dont la probabilité dépend de l’ampleur, de la durée, de la fréquence de l’exposition :
– si vous passez très rapidement le doigt dans la flamme d’une bougie : vous ne subirez normalement aucun dommage : le risque est faible.
– si vous prenez à la main des bûches bien enflammées dans votre cheminées pour arranger votre feu, il est possible que vous vous brûliez : le risque est nettement plus important
– si vous vous loupez en voulant suivre la tradition du saut au dessus du feu de la Saint-Jean et que vous atterrissez au milieu des flammes, alors des brûlures graves, ou pire, sont à la clé : le risque de dommages est très fort.
L’enjeu pour nous, les être humains, face aux dangers multiples de notre environnement, est de maîtriser les risques par différents moyens en diminuant la probabilité d’exposition : ne pas s’approcher du feu, l’enfermer dans un poêle, porter des vêtements ignifugés, l’éteindre s’il y a un incendie, etc…

De nombreuses substances sont dangereuses et certaines sont à l’origine d’accidents gravissimes : le nitrate d’ammonium (explosions AZF-Toulouse, Beyrouth), l’isocyanate de méthyle (catastrophe de Bhopal en Inde), le « 2,3,7,8-tétrachlorodibenzo-p-dioxine » (catastrophe de Seveso en Italie).
Les barrages hydrauliques sont dangereux. L’orage est dangereux. Une raffinerie est dangereuse. Certains animaux sont dangereux. Certaines plantes sont dangereuses. Les volcans sont dangereux. Les séismes sont dangereux, etc, etc… Vous avez compris.

Appliquons cela au nucléaire :
– les substances nucléaires sont un danger, oui, c’est un fait.
– exploiter des centrales nucléaires présente-t-il des risques ? Et bien ça dépend : si on ne s’en protège pas suffisamment alors oui, mais si on applique des mesures suffisantes pour avoir l’assurance de ne pas y être exposés, nous ou l’environnement, alors non.
Et bien qu’en est-il ?

Soyons clair tout de suite : le risque zéro n’existe pas. Jamais. Nulle part. Toutes les activités humaines ont leur part de risque : prendre l’avion, faire fonctionner une raffinerie ou une usine chimique, rouler en voiture, creuser une mine pour extraire des matériaux, être enceinte, envoyer des hommes dans l’espace, construire un barrage hydraulique, manger de la viande rouge au barbecue, stocker du nitrate d’ammonium, déguster du fugu, exploiter une centrale électrique au charbon…. etc… etc… Toutes ces activités comportent des risques et font de nombreux morts tous les ans.
Exploiter l’énergie nucléaire ne fait pas exception : le risque de dommage à l’homme et/ou l’environnement n’est pas nul même s’il est extrêmement faible(8).

Mais peut-on considérer que l’exploitation de l’énergie nucléaire est trop risquée pour l’Humanité ?
Ou a contrario, peut-on considérer que le risque est suffisamment maîtrisé, au regard de l’enjeu du besoin de l’Humanité de disposer de sources d’énergie décarbonées ??
Je vous invite à poursuivre la lecture pour vous faire votre idée sur cette question.

L’accident nucléaire : possible ?

Dans l’histoire du nucléaire civil, il y eu deux accidents majeurs : Tchernobyl en 1986 et Fukushima en 2011.
(je laisse de côté Three Mile Island en 1979 qui n’a fait aucune victime et engendré très peu de rejets dans l’environnement).

L’accident de Tchernobyl

L’explosion du réacteur n°4 de la centrale de Tchernobyl est classé au 7e et dernier rang de l’échelle de gravité des incidents et accidents nucléaires.

Utilisée au plan international depuis 1991, l’échelle INES (International Nuclear Event Scale) comporte 8 niveaux

Il a conduit à l’explosion du cœur du réacteur qui, éventré et exposé à l’air libre, a déversé dans l’atmosphère d’importantes quantités de radionucléides, pendant une dizaine de jours. Le fameux « nuages de Tchernobyl » a survolé une grande partie de l’Europe y compris la France. Il ne s’est bien sûr pas arrêté à la frontière (mais il est faux de dire que l’état Français aurait menti à ce sujet : lire à ce propos ce très bon article de Libération). Il a conduit a disséminer des matières radioactives dans de nombreuses régions européennes, y compris en France, sans conséquences sanitaires mesurables (9) sauf pour les régions autour de la centrale.
Une zone de 2800 km2 (cercle de 30km de rayon centré sur la centrale) est toujours classée inhabitable à ce jour car considérée comme encore trop contaminée.

Le nombre de morts causé par l’accident de Tchernobyl est très délicat à évaluer : les évaluations vont de quelques dizaines de personnes décédées jusqu’à un million de morts, en fonction des sources.
Il est possible que l’on ne le sache jamais vraiment car il est extrêmement complexe de faire le lien entre un décès par cancer, et son origine : le cancer est-il causé par l’accident ou par une cause naturelle ? Il n’est jamais possible de l’affirmer de manière certaine. Ce qui semble relativement fiable c’est :
– le nb de morts d’irradiation aigüe causées directement par l’accident (pompiers, liquidateurs) : 50 personnes environ
– le nb de cancers de la thyroïde attribué à l’accident parmi la population ukrainienne : 6000 cancers (mais toutes les personnes atteintes – surtout des enfants – ne sont pas décédées, loin de là).
[lire à ce sujet le rapport de l’UNSCEAR de 2008. L’UNSCEAR est une agence des nations unies qui depuis 1955 a pour mission d' »évaluer les niveaux et les effets de la radioexposition »]

Dans tous les cas, quelque soit la façon de voir les choses, l’accident de Tchernobyl est une tragédie qui a fait vraisemblablement plusieurs milliers de morts et rendu inhabitable pour les humains pendant des décennies une zone de 30 km de rayon (qui est étonnamment aujourd’hui un réservoir de biodiversité : beaucoup d’espèces animales et végétales y vivent et s’y sont adaptées) .

Les causes de l’accident sont connues (je conseille l’excellente série Chernobyl, très réaliste, pour ceux qui veulent les comprendre dans les détails) : sous la pression bureaucratique, les opérateurs de la centrale ont été conduits à désactiver les systèmes de sécurité pour réaliser, sous la contrainte, une séries d’opérations qu’ils savaient dangereuses. Ajoutez à cela le fait que les réacteurs russes de Tchernobyl, de type « RBMK », ont un défaut de conception(10) connu des autorités – mais non communiqué aux opérateurs – et vous avez la conjonction de facteurs qui ont conduit à la catastrophe.

L’accident de Fukushima

L’évènement qui s’est produit au Japon le 11 mars 2011 à 14h46 heure locale est d’abord un séisme, le plus violent de toute l’histoire du Japon et un des plus violents connus à la surface de la Terre. De magnitude 9,1 (le maximum connu est 9,5 au Chili en 1960), le séisme de Tohoku – du nom de la région japonaise qui a été touchée – s’est produit à environ 130 km en mer à l’est de la ville de Sendaï. Il a provoqué un tsunami qui, un peu moins d’une heure après, a ravagé plus de 600 km de la côte est du Japon avec une vague atteignant 30 mètres par endroits.
Le bilan est tragique et s’élève à près de 19 000 morts, principalement dus au tsunami et très peu au séisme lui-même.

La centrale nucléaire de Fukusima Daïchi située sur la côte à une centaine de km au sud de Sendaï, n’a pas directement souffert du séisme : quelques secondes après que les capteurs l’aient détecté, la centrale s’est arrêtée et mise en sécurité automatiquement et n’a souffert que de peu de dégâts, bien qu’ayant été privée d’alimentation électrique externe par le séisme.
L’accident nucléaire s’est produit un peu plus tard, après que la centrale ait été frappée par la vague du tsunami, d’une hauteur de 15 mètres à cet endroit de la côte.

Le tsunami a envahi la centrale et noyé les groupes électrogènes de secours qui alimentaient la centrale en électricité (après que le séisme ait entraîné la perte de l’alimentation électrique principale). De ce fait, les 4 réacteurs se retrouvent totalement privés d’électricité (plus d’alimentation : ni interne ni externe) et, du coup, sans aucun moyen de refroidir par circulation d’eau – impossible sans pompes électriques – le cœur des réacteurs et les piscines de combustible usé. Or ceux-ci produisent en permanence un peu de chaleur qui doit absolument être évacuée sinon :
– elle s’accumule progressivement,
– la température monte, monte,
– le cœur radioactif commence à fondre,
– la fusion du cœur induit des réactions chimiques produisant de l’hydrogène,
– l’hydrogène s’accumule et finit par exploser, détruisant le toit du réacteur et une partie des installations,
– des gaz radioactifs s’échappent dans l’atmosphère et les retombées contaminent les régions alentour.

C’est cela qui s’est passé à Fukushima, sur plusieurs réacteurs. Cet accident a été classé lui aussi au 7e niveau de gravité, le plus élevé, même si contrairement à Tchernobyl le combustible n’a pas été exposé à l’air libre. Lors de cet accident, les rejets radioactifs dans l’atmosphère ont eu lieu de manière discontinue pendant environ deux semaines.

En termes de bilan humain lié à l’accident nucléaire, on déplore parmi les travailleurs de la centrale, selon les données officielles :
– un mort et cinq malades qui ont été associés aux rayonnements,
– 10 morts ne sont pas associées aux rayonnements
– 16 blessés en raison des explosions.

Dans la population, cela va peut-être vous surprendre mais aujourd’hui on ne déplore, heureusement, aucun décès et aucune conséquence sanitaire dans la population, due aux effets de la radioactivité. Il subsiste un doute sur une éventuelle petite augmentation des cas de cancers de la thyroïde mais cela est controversé donc aucune certitude sur ce point.

Par contre on estime à environ 2200 les décès liés plus ou moins directement aux évacuations (zone des 20 km autour de la centrale puis quelques autres zones d’évacuation ciblées complémentaires) : personnes fragilisées, personnes évacuées issus de maisons de retraites ou d’hôpitaux, suicides.
[Vous pouvez lire à ce sujet le rapport de l’UNSCEAR de 2014]

A ce jour, il reste une zone de 370 km² (surface équivalente à une cercle de 11km de rayon) où la réinstallation de la population reste encore officiellement interdite (source ici sur le site de l’IRSN).
A noter que l’accident a aussi contraint les exploitants de la centrale à rejeter à la mer de l’eau contenant des radionucléides, mais la dilution rapide dans l’océan n’a pas entraîné de conséquences environnementales.

La cause de l’accident de Fukushima est bien sûr le tsunami, faisant suite au très puissant séisme (magnitude supérieure à 9). Mais il faut ajouter à cela le fait que l’exploitant TEPCO a reconnu avoir volontairement sous-estimé le risque de tsunami pour éviter d’avoir à arrêter la centrale et réaliser les travaux nécessaires de mise en sécurité (lire ici)… Plusieurs années avant l’accident, le fait que les groupes électrogènes de secours étaient situés trop bas et pouvaient être noyés en cas de tsunami avait été pointé, sans que TEPCO n’en tienne compte…

Un futur accident « certain » en France ?

Certaines voix se font entendre pour dire qu’il est « statistiquement certain » qu’un accident majeur va se produire en France, le « pays du nucléaire ». Surtout après Fukushima : que les Russes avec leur bureaucratie et leur ancienne technologie de réacteur ait eu un accident, passe encore, mais que le Japon, nation « avancée », ait eu aussi un accident majeur montre bien que nous ne sommes pas à l’abri nous non plus, n’est-ce pas ?

Première chose à savoir : les technologies de réacteur en cause sont différentes. Les RBMK (réacteur au graphite) russes et les REB (réacteurs à eau bouillante) japonais sont différents des REP (réacteurs à eau pressurisée) utilisés en France. Par exemple, les RBMK n’ont pas d’enceinte de confinement. Ou encore, les REB n’ont que deux circuits et non trois. Pour approfondir si vous le souhaitez, lire ici sur le site de la SFEN un descriptif & comparatif des technologies de réacteurs.
De ce fait, un accident à l’identique de Tchernobyl ou de Fukushima n’est pas possible en France.

Ensuite, il faut avoir en tête qu’un réacteur nucléaire n’est pas un « truc instable prêt à exploser au moindre évènement imprévu », contrairement à ce que l’expression réaction en chaîne (cf plus haut le paragraphe sur la fission) peut laisser penser du fait de sa connotation « évènement incontrôlable ».
Chaque réacteur est en effet muni d’un dispositif de barres de contrôle permettant de piloter finement la réaction de fission, en montant ou descendant ces barres constituées d’un matériau absorbeur de neutrons :

Les barres de contrôle sont aussi un dispositif d’arrêt d’urgence de la réaction : elles sont suspendues à des électro-aimants qui permettent de les lâcher et de les laisser tomber dans le réacteur pour arrêter totalement le réacteur en 5 secondes si nécessaire. Cette chute des barres peut être déclenchée :
– soit manuellement depuis la salle de commande,
– soit automatiquement, via les capteurs qui surveillent le réacteur et qui ont pour rôle de réagir dès qu’un paramètre ou un évènement sort de la normale,
– soit, au pire, en cas de perte de l’alimentation électrique (coupure des électro-aimants).

Pour aller jusqu’à ce qu’un accident majeur se produise (hors cataclysme externe : séisme, tsunami, inondation, dont nous parlerons plus loin), il faut imaginer un enchaînement de défaillances et de circonstances défavorables successives. Lesquelles ? Depuis des décennies l’exploitant EDF et les autorités de sûreté étudient la question, imaginent les scénarios possibles et conçoivent ou modifient les centrales en conséquence. En suivant une double règle :
– tout faire pour éviter un accident,
et en même temps imaginer qu’il puisse se produire pour en minimiser les conséquences.

Le scénario d’accident principal qui est redouté est celui d’un perte durable du refroidissement du cœur, qui finirait par conduire à une fusion de celui-ci du fait de l’accumulation de la petite quantité de chaleur résiduelle qu’il continue à produire même arrêté. Voilà ce qui pourrait se passer.

  • Un réacteur a besoin d’un peu d’électricité pour fonctionner. En effet, il faut alimenter les pompes et tous les systèmes électriques qu’il comporte.
    Chaque réacteur dispose de deux alimentations électriques externes distinctes, une principale et une auxiliaire. Dans l’hypothèse d’une perte des deux alimentations électriques externes, un réacteur peut s’alimenter lui-même. On appelle cela l’ « ilotage », que l’on obtient en baissant la puissance pour produire juste l’électricité nécessaire.
  • S’il s’avère que l’ilotage n’est pas possible ou ne fonctionne pas, chaque réacteur comporte deux groupes électrogènes diesel distincts ; chacun d’eux peut, seul, alimenter le réacteur. Si le premier ne fonctionne pas, on utilise le deuxième.
  • Si le deuxième diesel ne fonctionne pas, on utilise un groupe de secours (soit un groupe électrogène du réacteur de la tranche d’à côté – car toutes les centrales nucléaires en fonctionnement en France ont au moins deux tranches – soit la turbine à combustion de la centrale s’il y en a une)
  • Si le groupe de secours ne fonctionne pas ou n’est pas disponible, les réacteurs français sont désormais équipés – pas encore tous, mais c’est en cours – de diesels d’ultime secours (DUS), situés en hauteur afin d’être protégés des inondations, pour prendre le relais et assurer l’alimentation électrique.
  • Enfin, dans le cas ultime ou même le DUS ne fonctionne pas, EDF s’est doté d’une FARN (Force d’Action Rapide du Nucléaire) mobilisable en moins de 24h n’importe où en France, capable d’acheminer – entre autres – des moyens externes de production électrique (groupes électrogènes), y compris en conditions extrêmes par exemple après un séisme ou une inondation qui aurait endommagé l’infrastructure routière.

Je résume :
– si l’alimentation électrique principale est perdue,
– et si l’alimentation électrique auxiliaire est perdue,
– et si l’ilotage n’est pas possible,
– et si le premier groupe électrogène ne fonctionne pas,
– et si le deuxième groupe électrogène ne fonctionne pas non plus,
– et si le groupe de secours ne fonctionne pas,
– et si le diesel d’ultime secours ne fonctionne pas,
– et s’il n’est pas possible d’obtenir de l’aide extérieure (FARN ou autre),
alors la situation est problématique et il est possible que l’on arrive in fine à une fusion du cœur et des rejets radioactifs dans l’environnement (lire cet article de blog d’un ingénieur d’études en sureté nucléaire pour une description de la suite du scénario).

Cette liste de « et si » est je pense la meilleure réponse que l’on puisse faire à la question : quelle est la probabilité qu’un accident nucléaire majeur se produise en France ? Réponse : très, très faible.
Pas rigoureusement nulle, car le risque zéro n’existe pas, mais vraiment faible.

Séismes, tsunamis & inondations : quels sont les risques ?

Séismes

Si on la compare à des pays tels que l’Italie ou la Grèce, ou à plus fortes raisons à d’autres régions du monde notamment le Japon, la France métropolitaine est une région à sismicité faible à modérée.

Carte de la sismicité mondiale pour la période 1904-2014 et pour les séismes de magnitude supérieure à 5,5

Bonus : Pour visualiser en 3D et en vidéo la répartition des séismes dans le monde dont cette carte est une représentation, vous pouvez (re)voir la vidéo présentée dans mon article une année de tremblements de Terre.

Pour toute installation industrielle, quelle qu’elle soit, un séisme est une agression d’origine externe que subit l’installation. Il provoque des mouvements et des vibrations dans les bâtiments et les installations, qui peuvent être endommagés s’ils ne sont pas conçus pour cela. Cela est particulièrement critique pour une centrale nucléaire, pour laquelle il est bien sûr primordial qu’aucun séisme ne puisse l’endommager.
Les centrales nucléaires sont donc des « constructions parasismiques », conçues et dimensionnées pour résister aux séismes qui peuvent survenir là où elles sont implantées. Comment procède-t-on pour concevoir ce dimensionnement ?
Les études de conception prennent en compte la sismicité de la région d’implantation, en prenant pour base le « séisme maximum historiquement vraisemblable » (SMHV), le plus violent ressenti dans une zone autour d’un site depuis 1 000 ans.
Sur ce séisme, les ingénieurs appliquent une marge de sécurité (+0,5 sur la magnitude ce qui correspond à une multiplication par 5 de l’énergie du séisme car l’échelle des magnitudes est logarithmique(11)) pour définir ce qu’on appelle le « séisme majoré de sécurité » (SMS)
Les centrales sont dimensionnées pour pouvoir résister sans dommages à un SMS qui se produirait pile sur l’emplacement de la centrale.

Certaines centrales nucléaires françaises ont déjà eu à subir – sans dommages – des séismes. Par exemple, le séisme du Teil du 11 novembre 2019, un des plus forts séismes enregistrés sur les centrales nucléaires françaises, s’est produit à une dizaine de kilomètres de la centrale nucléaire de Cruas-Meysse (Ardèche) et à une trentaine de kilomètres du site du Tricastin (Drôme). Notez que contrairement aux informations relayées par certains médias en 2019, la magnitude de ce séisme n’a pas dépassé les valeurs du SMHV prévues lors de la conception des centrales concernées. Après avoir décidé l’arrêt de la centrale de Cruas – la plus proche du séisme – pour vérifications approfondies, il a été confirmé qu’il n’a entraîné aucun dommage (lire à ce sujet cet article sur le site de l’ASN).
L’analyse des enseignements à tirer de ce séisme se poursuit encore à ce jour. En effet, la stratégie retenue en France est de toujours remettre en question les savoirs et les hypothèses précédemment faites pour sans cesse rechercher si des améliorations peuvent être apportées dans le sens de plus de sûreté. Le cas échéant l’ASN impose à l’exploitant EDF les travaux nécessaires. Par exemple l’installation des Diesel d’Ultime Secours (DUS) sur le toit des bâtiments dans les centrales française (cf paragraphe sur les accidents) est une leçon tirée de l’accident de Fukushima.
La culture de la sûreté nucléaire en France est fortement ancrée et l’organisation mise en place, avec une indépendance de l’ASN et de l’IRSN vis à vis des industriels du nucléaire et de l’exploitant des centrales, est un levier efficace pour faire constamment progresser la sûreté.

En conclusion sur le risque lié aux séismes : il est maîtrisé. Les centrales sont conçues pour résister aux séismes qui peuvent se produire en France, avec des marges de sécurité importantes.
En ce qui me concerne, si on me donnait le choix de vivre un séisme dans ma maison ou dans une centrale nucléaire, je choisis la centrale sans hésiter : c’est du béton et de l’acier et elle est conçue pour y résister !


Tsunamis

Comme nous l’avons vu plus haut, une centrale nucléaire nécessite une source d’eau froide pour fonctionner. Toutes les centrales sont donc soit proche d’une rivière (ou fleuve), soit proche du bord de mer, avec le risque d’inondation potentielle que cela comporte.

En France métropolitaine, le risque de tsunami se situe principalement sur le côte méditerranéenne (cf carte ci-dessous), du fait du risque sismique dans la région du Maghreb. Des vagues jusqu’à 4 mètres pourraient survenir en cas de séisme important. Il n’existe toutefois pas de centrale nucléaire française sur les bords de la Méditerranée.

Risque de tsunami en France métropolitaine (source)

La côte atlantique pourrait également être touchée, de manière moindre, en cas de tsunami qui proviendrait des Caraïbes, mais il n’y a pas de centrales nucléaires française sur cette côte.

Reste la Manche, au bord de laquelle se trouve plusieurs centrales nucléaires. Toutefois, du fait de la faible profondeur de de l’eau en Manche, le risque de tsunami est fortement atténué. Dans tous les cas ce risque est sans commune mesure avec celui du Japon, dont la côte Est est proche et parallèle à la faille tectonique à l’origine des violents séismes qui se produisent là-bas, dont celui de Tohoku ayant affecté Fukushima.

Le risque lié aux impacts d’un éventuel tsunami en France sur une centrale nucléaire est extrêmement faible.

En dehors du nucléaire, il y aurait par contre des impacts potentiellement très important sur la population et les installations côtières (ports, bâtiments, maisons,…) de la côte d’Azur si un tsunami avec des vagues de 4m venait à se produire en Méditerranée… Le sujet est surtout là et je ne suis pas sûr que ce risque soit bien pris en compte localement.

Inondations

La problématique des inondations est importante à prendre en compte, notamment dans le contexte du réchauffement climatique. En effet celui-ci aura pour effet :
1) d’augmenter le niveau des mers : déjà plus de 20 cm de hausse constatée et en cible d’ici la fin du siècle possiblement 1 mètre de hausse.
2) d’augmenter l’humidité de l’air et donc les précipitations (lire mon précédent article sur ce sujet). Cette augmentation ne sera pas uniforme : globalement les régions sèches s’assècheront encore plus et les régions humides le deviendront encore plus. En France cela pourrait possiblement se traduire :
– au nord par des cumuls annuels de précipitations plus importants,
– au sud par une baisse des cumuls annuels (assèchement) mais, de manière contre-intuitive, aussi par des précipitations plus violentes et intenses comme par exemple celles déjà constatées lors des épisodes méditerranéens, dont le dernier est hélas encore frais dans les mémoires : il a touché les Alpes Maritimes les 2 et 3 octobre dernier, (re)lisez à ce propos mon article à ce sujet.

L’ASN n’a pas attendu que j’en parle pour ce préoccuper de cette question (je blague !) : elle a publié en 2013 une série de nouvelles recommandations plus strictes relatives à la protection contre les inondations (guide de l’ASN n°13) applicables aux « installations nucléaires de base » (INB) que sont les centrales nucléaires. Ces recommandations sont actuellement en cours de mise en œuvre par l’exploitant EDF.

Cette publication est la conclusion du long travail d’expertise qui a été réalisé suite à l’inondation partielle qui s’est produit à la centrale nucléaire du Blayais, sur la Gironde, le 27 décembre 1999, lors du passage des tempêtes Lothar et Martin (incident classé 2 sur l’échelle à 7 niveaux de l’INES).
Que s’est il passé ce soir là ? La conjonction d’un niveau d’eau élevé dans l’estuaire de la Gironde avec une forte houle due à des vents extrêmement violents a conduit à ce que des vagues passent par dessus les digues de la centrale, inondant une partie des installations.
Deux des quatre pompes d’un circuit de sécurité de la centrale (circuit dit « SEC », différent des trois circuits mentionnés dans le paragraphe ci-dessus sur le fonctionnement des centrales. Mais je ne rentrerai pas plus dans les détails des différents circuits d’une centrale sinon on n’est pas couchés…) ont été noyées ainsi que certaines autres pompes électrique, tout cela dans un contexte où la centrale a subit des coupures de l’alimentation électrique extérieure à cause de la tempête.
Si on rapproche cela de la liste des « et si » dans le paragraphe sur le risque d’accident, cela revient à dire que plusieurs « si » se sont réalisés (plusieurs lignes de défense enfoncées), mais pas tous loin de là (les autres lignes de défense ont joué leur rôle) ce qui fait que l’incident n’est pas allé plus loin : les réacteurs, arrêtés dès le début de l’épisode, ont continué à être normalement refroidis grâce aux groupes électrogènes diesel.

Centrale nucléaire du Blayais

J’en profite pour parler du concept de « défense en profondeur » qui est le grand principe retenu pour assurer la sureté des centrales nucléaires françaises. L’idée est d’additionner les lignes de défense successives, de sorte que si une défense tombe, alors il y en a une autre derrière, et puis encore une autre, etc…

Exemple des lignes de défense successives pour éviter le contact entre les matières radioactives et l’environnement (cf paragraphe sur le fonctionnement des centrales) :
– première ligne = la gaine étanche du crayon entourant les pastilles d’uranium,
– deuxième ligne = le circuit primaire étanche contenant l’eau qui circule autour des gaines,
– troisième ligne = l’enceinte de confinement étanche contenant entièrement le circuit primaire.

Citadelle de Neuf-Brisach, par Vauban, exemple de défense en profondeur (source Wikipédia)

Ce concept de « défense en profondeur » est hérité des techniques militaires (les multiples murailles des forteresses Vauban étaient déjà de la défense en profondeur). Il est utilisé aussi dans le domaine de la sécurité informatique.

Pour finir sur les inondations, c’est un risque qui est pris très au sérieux par l’ASN et par l’exploitant EDF ; en application des nouvelles règles édictées en 2013, une série de travaux sont actuellement réalisés sur les centrales pour assurer qu’il restera maîtrisé et que les centrales resterons sûres malgré les aléas dus au réchauffement climatique (lire par exemple ici sur le site de l’IRSN les travaux réalisés à la centrale du Blayais).

Quid du vieillissement des centrales ?

Dans le cadre de tous les débats qui ont eu lieu autour de la fermeture récente de la centrale de Fessenheim, vous l’avez sûrement entendu : « Les centrales nucléaires ont une durée de vie de 40 ans, au delà elles sont trop vieilles et dangereuses et il faut les fermer ».
Et bien c’est faux. Il n’existe pas de durée limite fixée à l’avance au delà de laquelle une centrale serait en fin de vie.

Cette durée de 40 ans existe bel et bien mais c’est une durée administrative et financière, pas une limite technique. Lorsqu’on construit une centrale nucléaire, compte tenu du coût élevé de construction, l’exploitant (EDF, en France) effectue des calculs de rentabilité financière pour que l’opération soit bien évidemment viable financièrement. Et compte tenu de la quantité d’électricité produite par la centrale et qui sera vendue aux clients, l’entreprise table sur un fonctionnement d’au moins 40 ans.
Par ailleurs, d’un point de vue comptable, les principaux composants de la centrales sont amortis sur 40 ans (voire 50).
Enfin, cette durée est aussi celle de la licence d’utilisation de la technologie des réacteurs qui a été achetée à une entreprise américaine, Westinghouse (et oui les réacteurs français REP sont au départ une technologie américaine…). En effet, en 1974, EDF a conclu un contrat de licence avec l’entreprise Westinghouse et cet accord commercial était au départ valable 40 ans. Par la suite, EDF a totalement racheté la licence de manière à se libérer de cette durée maximale commerciale.

D’un point de vue technique, les éléments à considérer sont tout autres. Il faut savoir que toutes les installations industrielles, sans exception, que ce soit une raffinerie, une usine électrique, un barrage hydro-électrique, une usine chimique, une usine d’embouteillage, de construction de voiture, un haut-fourneau, etc… sont logées à la même enseigne : à partir du jour où elles entrent en service, elles s’usent et vieillissent avec le temps qui passe. Pas moyen de faire autrement car ce sont les lois de la physique qui régissent notre monde et qui imposent que toutes les « machines » du monde (prendre le mot machine dans son sens le plus large : une usine est une machine) ne peuvent pas durer éternellement. Elles s’usent, c’est inexorable.
Du coup comment fait on pour gérer cela ? Et bien dans toutes les installations industrielles du monde c’est pareil : on surveille, on contrôle les différents composants et, quand cela devient nécessaire, on change et/ou on répare les composants. Comme ce que vous faites avec votre voiture pour la faire durer.

Et dans une centrale nucléaire, idem : on change régulièrement les différents composants et on les remplace par des neufs, soit identiques soit améliorés. Cela est vrai depuis le moindre petit bout de câble ou de tuyau, jusqu’àux générateurs de vapeurs ou à l’alternateur entier, en passant par les capteurs, les systèmes électriques, les systèmes électroniques,… A deux exceptions près (lire ci-dessous), tout peut se changer. C’est ainsi que les centrales sont maintenues en bon état de fonctionnement, et peuvent l’être bien au delà de 40 ans.

En France la réglementation impose que l’état des centrales nucléaires soit contrôlé par une autorité administrative indépendante de l’exploitant. C’est l’Autorité de Sécurité Nucléaire (ASN) qui joue ce rôle, en s’appuyant sur l’expertise technique d’une autre entité indépendante, l’Institut de Radioprotection et de Sûreté Nucléaire (IRSN).
L’ASN a tout pouvoir pour imposer à l’exploitant de fermer un réacteur, ou imposer des travaux de maintenance même très coûteux si cela est nécessaire à la sûreté de fonctionnement. Et elle ne s’en prive pas.
Tous les 10 ans, l’ASN contrôle chaque réacteur et donne, ou pas, l’autorisation de continuer 10 ans de plus. Et le contrôle aux 40 ans n’est pas différent des autres contrôles décennaux : si la centrale est dans un état de fonctionnement qui satisfaisait les critères de l’ASN (il y en a beaucoup et ils sont sévères, la réputation de l’ASN dans le monde n’est plus à faire) alors elle peut continuer son exploitation. C’était d’ailleurs le cas de Fessenheim : l’avis de l’ASN était que cette centrale était dans un parfait état de fonctionnement malgré ses 40 ans.

Dans les centrales nucléaires il existe deux exceptions au remplacement possible des composants : la cuve du réacteur et le bâtiment réacteur. Ceux-ci ne peuvent pas être remplacés.
– Le bâtiment réacteur (BR) est l’enceinte de confinement étanche en béton, de plus d’un mètre d’épaisseur, qui entoure la partie nucléaire du réacteur (le circuit primaire et les générateurs de vapeur). Compte tenu de son caractère massif, on considère qu’il n’est pas viable économiquement et techniquement de le détruire et de le reconstruire (sans toucher au reste !). Il n’est donc pas remplaçable : s’il est endommagé, le réacteur doit être fermé.
– la cuve du réacteur est en acier de plusieurs centimètres d’épaisseur ; c’est le cœur du réacteur et contient les assemblage radioactifs : c’est en son sein qu’a lieu la réaction de fission. Elle est scellée dans le béton et comme pour le BR on considère qu’il n’est pas envisageable de la changer. Si elle est endommagée, c’est la fermeture du réacteur là aussi.
Ces deux éléments sont particulièrement contrôlés et surveillés par des batteries de capteurs et ils font l’objet de toutes les attentions de l’ASN lors des visites décennales.
De ces deux composants, le plus critique est bien sûr la cuve. Le BR peut durer longtemps sans souci particulier s’il est bien entretenu : le béton est un matériau que l’on maîtrise parfaitement et qui peut durer 100 ans largement (c’est la durée prévue des ouvrages d’art en béton comme les ponts, par exemple). L’acier aussi peut durer très longtemps – pensez à la tour Eiffel qui a 120 ans – mais dans une cuve de réacteur nucléaire son comportement est lentement modifié par les radiations au fil du temps. Il est donc extrêmement surveillé et l’état de la cuve est LE critère majeur regardé à la loupe par l’ASN à chaque visite.

La MIS (Machine d’Inspection en Service) : robot piloté à distance utilisé pour les inspections des cuves

En France, jusqu’à aujourd’hui, tous les réacteurs ont toujours passé leurs visites décennales avec succès.

Aucune raison technique de principe n’empêche de poursuivre l’exploitation des réacteurs pendant 50 voire 60 ans (aux Etats-Unis, la possibilité d’aller jusqu’à 80 ans est même en cours d’évaluation). Certains réacteurs français ont déjà obtenu de l’ASN l’autorisation d’aller à 50 ans. Par exemple, le réacteur 1 de Tricastin, en 2019, a inauguré la série des quatrièmes visites décennales (« VD4 », petit nom donné à l’examen des 40 ans).

Le démantèlement des centrales : on sait faire ?

Peut-être avez-vous en tête que « le démantèlement des centrales, c’est un casse-tête, on ne sait pas faire » ? Pourtant si, cela a déjà été fait plusieurs fois et c’est actuellement en cours sur de nombreuses centrales dans le monde.

Par exemple, voici la centrale nucléaire de Yankee Rowe, aux Etats-Unis, lorsqu’elle était en opérations (réacteur de technologie REP comme les réacteurs français) :

Centrale de Yankee Rowe en exploitation (jusqu’en 1992)

Et voici le site de Yankee Rowe après 20 ans de démantèlement (fin de démantèlement en 2002) :

Site de Yankee Rowe de nos jours

Cette centrale a subit un démantèlement à l’issue duquel aucun bâtiment ou installation ne subsiste : c’est un retour à l’herbe (« green field »). Ce n’est pas toujours le cas : souvent les sites des centrales sont reconvertis en nouveau site industriel, nucléaire ou non (« brown field »).
Aux Etats-Unis, 6 réacteurs nucléaires REP ont déjà été totalement démantelés : Rancho Seco, ​Yankee Rowe, ​Trojan, ​San Onofre 1, ​Connecticut Yankee ​et Maine Yankee.

Ceci étant, les opérations de démantèlement d’un réacteur nucléaire sont :
– complexes et fastidieuses : nécessité d’œuvrer avec la présence de matériaux contaminés par la radioactivité, tout en protégeant les personnes qui travaillent,
– longues : 20 ans est un minimum,
– coûteuses : prévision entre 300 et 500 millions d’euros par réacteur français [source], à comparer avec le coût de construction d’un réacteur de environ 1,5 milliards d’euros pièce en moyenne [source]. A noter que ces coûts sont intégrés dans le prix de l’électricité, ce qui n’empêche pas la France d’avoir depuis des décennies un prix de l’électricité inférieur à la moyenne européenne, à environ 0,19 € par kWh [source]

Voici quelques informations à connaître concernant le démantèlement des centrales :

  • il existe deux stratégies de démantèlement :
    – le démantèlement différé, consistant à attendre quelques décennies pour laisser descendre le niveau de radioactivité avant d’intervenir, ce qui facilite les travaux
    – le démantèlement immédiat, consistant à intervenir sans attendre, ce qui rend les travaux plus complexes car il faut gérer des niveaux de radioactivité encore élevés.
    (il en existe une troisième, marginale et peu utilisée sauf aux Etats-Unis sur certaines installations militaires : le « confinement sûr », consistant en gros à sceller l’installation dans du béton après avoir enlevé les combustibles et fluides)
    En France, EDF à changé de stratégie au début des années 2000 : après avoir initialement choisi le confinement différé, ce qui explique que certaines centrales comme celle de Brennilis sont toujours en démantèlement depuis des décennies, EDF a finalement opté pour une stratégie de démantèlement immédiat, conformément aux recommandations de l’AIEA (Agence Internationale de l’Énergie Atomique).
  • 99,9% de la radioactivité d’une centrale se trouve dans le combustible. Dès lors que celui-ci est retiré – ce que l’on réalise dans les premières années après l’arrêt définitif de la centrale – tout le travail du démantèlement se concentre sur les 0,1% restant : décontamination, assainissement, démontage & destruction des équipements et de génie civil.
  • Dans le monde, 15 réacteurs ont déjà été démantelés et une cinquantaine d’autres sont en cours.
  • Démanteler un réacteur génère des déchets (essentiellement des gravats et éléments métalliques contaminés). Dans leur immense majorité ils sont faiblement radioactifs. Ils doivent bien sûr être traités spécifiquement : voir paragraphe sur le traitement des déchets.
  • Actuellement en France, sont en cours de démantèlement :
    – 9 réacteurs nucléaires dits de « première génération » ,
    – plusieurs installations nucléaires (laboratoires, réacteurs de recherche, installations de retraitement…)
    – un réacteur REP (même type que ceux actuellement en exploitation). Ce dernier, situé à Chooz dans les Ardennes, est un chantier important : il s’agit en quelque sorte d’un précurseur sur lequel sont validées les techniques de démantèlement qui seront appliquées à tous les autres réacteurs. La fin de son démantèlement est prévue en 2024.

En synthèse, retenez que démanteler un réacteur REP c’est fastidieux, long, coûteux mais on sait faire. Il n’y a pas d’obstacle technique majeur au démantèlement de nos réacteurs.

Que faire avec les déchets nucléaires ?

Comme nous l’avons vu plus haut, la réaction de fission de l’uranium engendre des sous-produits radioactifs. Parmi ces sous-produits, ceux qui n’ont pas d’intérêt ou de ré-utilisation future possible sont des « déchets nucléaires« .
De plus, tous les équipements, matériels, gravats, ferrailles… qui sortent d’une centrale ou une installation nucléaire en activité ou en démantèlement et qui sont – même très faiblement – contaminés par la radioactivité sont aussi des « déchets nucléaires » (la règlementation française une des plus strictes du monde sur ce point).

Ces déchets sont de différentes catégories, dont le traitement ultérieur ne sera pas du tout le même. Pour distinguer ces différentes catégories, il faut regarder deux critères :
– leur niveau de radioactivité (on parle de « niveau d’activité »), qui détermine leur dangerosité,
– leur durée de vie (on parle aussi de « période » radioactive), qui détermine la durée pendant laquelle ils seront dangereux. Rappelons ici une des caractéristiques fondamentale de la radioactivité : elle disparait toute seule, avec la dangerosité qui l’accompagne, au bout d’un certain temps (parfois très court, mais parfois aussi très très long).

En fonction de son niveau d’activité et de sa durée de vie, un déchet sera donc dans telle ou telle catégorie. Nous allons y revenir mais avant cela il faut parler d’un « détail » embêtant : en général lorsqu’ils sortent d’une centrale nucléaire, les différentes catégories de déchets sont mélangées. Notamment, le combustible usagé (il s’agit des petites pastilles d’uranium, vous vous souvenez, que l’on décharge du cœur du réacteur après qu’elles aient consommé leur uranium 235) contient un mélange de tous les sous-produits de fission.
La France a fait le choix de retraitement de ses déchets nucléaire. Cela signifie que l’on en fait le tri : on sépare les différentes catégories de déchets et les différents produits qui sont potentiellement réutilisables.
Ainsi, la première étape que subit le combustible usagé est d’être envoyé à l’usine de La Hague pour être triés par catégorie (après quelques années de stockage en piscine sur le lieu de la centrale pour qu’il se refroidisse et qu’il perde une partie de sa radioactivité).

En fonction :
1) du niveau d’activité :
– TFA Très Faible Activité,
– FA Faible Activité,
– MA Moyenne Activité,
– HA Haute Activité,
2) et de la durée de vie :
– VTC Vie Très Courte,
– VC Vie Courte,
– VL Vie Longue,
on classe les déchets en 6 catégories. Celles-ci sont les 6 ronds de couleur du tableau ci-dessous, qui mentionne aussi le traitement qui leur est apporté :

Les différentes catégories de déchets nucléaires et leur traitement (source ANDRA)
(L’unité d’activité est le Becquerel (Bq) : 1 Bq = 1 désintégration radioactive par seconde)
  • les déchets à vie très courte (VTC) proviennent majoritairement du secteur médical ou de la recherche. Leur radioactivité baisse très rapidement, ainsi on les entrepose simplement sur place pendant quelques mois, avant de les traiter en filière conventionnelle.
  • les déchets de très faible activité (TFA) proviennent majoritairement du fonctionnement, de la maintenance et du démantèlement des centrales nucléaires. Leur radioactivité est à peine supérieure à la radioactivité naturelle. Ils se présentent généralement sous forme de déchets inertes (béton, gravats, terres), de déchets métalliques ou plastiques. Ils sont envoyés dans un centre de stockage en surface spécifique, le CIRES (Centre industriel de regroupement, d’entreposage et de stockage) situé dans le département de l’Aube.
  • les déchets à vie courte et faible ou moyenne activité (FMA-VC) sont principalement des déchets issus de la maintenance (vêtements, outils, filtres, etc.), du fonctionnement (effluents liquides ou résultats de filtration des effluents gazeux) ou du démantèlement des centres nucléaires, des installations du cycle du combustible et des centres de recherche. On les stocke dans un centre de stockage en surface spécifique, le CSA (Centre de stockage de l’Aube, pas très loin du CIRES). Ils nécessitent une surveillance pendant 300 ans, le temps que la radioactivité ait décru jusqu’à un niveau proche de la radioactivité naturelle.
  • les déchets de faible activité à vie longue (FA-VL) proviennent en majorité d’activités industrielles non nucléaires comme certains travaux de recherche et de traitement de minéraux contenant des terres rares. Ils peuvent également provenir de l’assainissement de sites historiquement pollués au radium (la découverte de Marie-Curie, vous vous souvenez ?). Par ailleurs les déchets issus du retraitement des réacteurs de première génération au graphite entrent dans cette catégorie.
    Ils sont faiblement radioactifs, mais ils le seront pendant longtemps, jusqu’à plusieurs dizaines de milliers d’années.
    Il sont pour l’instant conservés dans les centres de stockage de l’ANDRA. La solution de stockage définitive pour ces déchets n’est pas encore définitivement et officiellement validée ; elle consiste en un stockage enterré à faible profondeur, environ 20m, en couche d’argile, sur une site situé dans l’Aube (encore).
  • les deux dernières catégories de déchets sont les plus embêtantes : ce sont les déchets de haute activité (HA) à vie courte et longue et les déchets à vie longue de moyenne activité (MA-VL). Ils proviennent essentiellement du retraitement des combustibles usés et des activités de l’usine de La Hague. Ils sont fortement radioactifs et/ou resteront dangereux pendant plusieurs dizaines de milliers d’années.
    Stockés pour l’instant sur les sites d’entreposage de l’ANDRA, ils ont vocation à être stockés sur le site CIGEO à la limite entre la Meuse et la Haute-Marne (commune de Bure, dans la Meuse), à 500 mètres de profondeur. Ils concentrent 99% de la radioactivité de tous les déchets produits mais représentent un faible volume (4% du total).
Colis de déchets HA : emballage en acier inox contenant une matrice de verre dans laquelle sont enrobés les matériaux radioactifs. H = 1,3 m, D=45 cm, P=500kg

C’est le sort de ces deux dernières catégories de déchets (HA et MA-VL) qui pose le plus de questions et sur lequel se focalisent toutes les attentions.

En termes de volume, que représentent tous ces déchets ? Une « montagne » ? Voici une représentation graphique pour avoir une idée, avec les volumes des différentes catégories, à côté d’une vraie montagne (en l’occurrence la Sainte Victoire, en Provence ; pas de relation, c’est juste pour l’exemple) :

Volume de tous les déchets produits depuis le début nucléaire en France. Les deux dernières catégories les plus embêtantes sont les cubes rouges et violets. (graphique : @laydgeur)

Les volume correspondants à ces cubes sont les suivants (source):
– HA : 3 700 m3
– MA-VL : 46 000 m3
– FMA-VC : 900 000 m3
– FA-VL : 91 000 m3
– TFA : 460 000 m3
Ils peuvent paraître très importants mais c’est trompeur. Pour pouvoir comparer avec d’autres types de déchets, passons en tonnes annuelles et voyons ce que ça donne (source et source) :


Toutes catégorie de déchets nucléaires

57 000 tonnes / an
– dont HA et MA-VL (ceux qui nous embêtent)800 tonnes / an

Total déchets produits

800 millions de tonnes / an
– dont déchets industriels et urbains47 millions de tonnes / an
– dont déchets agricoles300 millions de tonnes / an
Tonnage des déchets produits en France chaque année
(je vous laisse chercher les chiffres à l’échelle du monde entier)


Alors, que penser du stockage des déchets à CIGEO à 500 mètres sous terre ?

Site CIGEO vu en coupe
Dans une galerie CIGEO
  • D’abord, il faut avoir conscience que, quoi qu’on dise ou qu’on fasse, les 50 000 m3 déchets HA et MA-VL destinés à CIGEO sont là. Certes, on peut éviter d’en produire d’autres en arrêtant le nucléaire, il n’en reste pas moins que ce stock accumulé depuis 50 ans existe et il faut décider quoi en faire, pas le choix.
  • Quelles solutions avons nous pour retraiter ces déchets ? Malheureusement il n’y en a aucune satisfaisante à ce jour, bien que la question soit étudiée depuis 30 ans (loi Bataille de 1991 ayant instauré les programmes de recherche dédiés à cette problématique). Des solutions de « transmutation », qui consiste à transformer ces déchets en substances moins dangereuses à l’aide d’un réacteur à neutrons rapides type Superphénix (ou à l’aide de lasers à haute puissance) ont été testées. Toutefois ces solutions complexes, lourdes à mettre en œuvre et dangereuses ont un rapport coût / bénéfices très défavorable et ne sont pas probantes (lire la conclusion de l’avis de l’IRSN sur ce sujet).
  • L’option qui reste et qui est actuellement testée à CIGEO est l’enfouissement profond (500m) en couche géologique stable (couche d’argile), avec un stockage accessible et réversible pendant 100 ans, avant de le refermer définitivement vers 2120-2130.
  • Un argument majeur souvent entendu contre le stockage souterrain à CIGEO est que « cela revient à se débarrasser du fardeau au détriment des générations futures ». Mais c’est précisément l’inverse : si on veut les garder en surface alors il faut être sûr que pendant des dizaines de milliers d’années nous serons capable de les garder sous surveillance, et de reconstruire encore et encore les bâtiments et installations qui les stockent. C’est plutôt ça qui est un fardeau… Alors qu’avec un stockage souterrain définitif (mais pas définitif avant 100 ans quand même, ça laisse pas mal de marge pour trouver une éventuelle – mais très improbable – solution de retraitement), il n’y a juste rien à faire.
  • Autre argument entendu : « Comment être sûr que sur des délais aussi longs les éléments radioactifs ne vont pas fuir dans l’environnement et remonter polluer la terre et les nappes phréatiques ? » Et bien c’est tout l’objet des études en cours à CIGEO depuis 15 ans.
    Rien n’est éternel on le sait : même un colis en verre entouré d’acier inoxydable, confiné dans le béton se dégrade très très lentement. Attention quand je dis lentement, c’est en dizaines de milliers d’années que l’on compte (lire ici).
    Dans l’hypothèse où la dégradation permet aux éléments radioactifs (enfin beaucoup moins radioactifs, après plusieurs dizaines de milliers d’années) d’attendre l’argile il leur faut encore migrer et surtout remonter de 500m, ce qui, dans l’argile – qui est dure comme de la roche à cette profondeur – est extrêmement lent : le confinement géologique est naturellement très efficace à cette profondeur. Exemple très parlant pour illustrer cela : il existe au Gabon, à Oklo, un réacteur nucléaire naturel qui a fonctionné dans la roche, à plusieurs centaines de mètres de profondeur, il y a 2 milliards d’années (lire ici pour plus de détails). Les analyses faites sur ce réacteur ont montré que les éléments radioactifs n’ont pas migré de plus de quelques mètres en 2 milliards d’années, sachant bien sûr qu’ils n’étaient pas noyés dans le verre, l’acier inoxydable et le béton.
    Le principe retenu pour CIGEO est le suivant : la qualité de la couche géologique choisie permettra d’assurer que l’éventuelle migration des éléments radioactifs mettra bien plus longtemps que le temps nécessaire à ce que leur radioactivité décroisse et devienne inférieure à la radioactivité naturelle, soit environ 100 000 ans.
  • Pour ceux qui sont choqués par le principe d’enterrer nos déchets nucléaires parce qu’on ne sait pas quoi en faire, voici une question : à votre avis que pensez-vous que deviennent les centaines de millions de tonnes annuelles des autres déchets (industriels, chimiques, ménagers, dangereux ou inertes) que nous produisons ? Est-ce qu’ils disparaissent par magie ? Hélas non : hormis une très (très) faible partie qui est recyclée et une faible partie qui est incinérée, la majorité est enterrée. Nous ne savons pas faire autre chose. Voilà une réalité qu’on a pas envie de voir, qui est même particulièrement dérangeante de mon point de vue quand on y réfléchit, mais c’est comme ça : l’Humanité consomme des matières premières et de l’énergie et elle rejette, en permanence, des centaines de millions de tonnes de déchets – dont certains dangereux et toxiques – que l’on enterre, partout en France et dans le monde, parce qu’on ne sait pas quoi en faire (sans parler de ceux qui finissent dans les océans).
    Sachant cela, quel sens cela a de refuser le stockage à CIGEO au motif que, peut-être, dans plusieurs milliers d’années, un peu de radioactivité pourrait avoir migré en dehors des fûts destinés à la contenir à 500m sous terre ?

Conclusion : contrairement aux idées reçues, on sait quoi faire des déchets nucléaires. S’agissant des plus dangereux, la synthèse de tout ce que j’ai pu lire sur le sujet du traitement des déchets nucléaires est que l’enfouissement en couche géologique profonde, à CIGEO, est une solution appropriée.

En termes de stockage massif et non maîtrisé de déchets polluants et nocifs, il y a tellement tellement plus dangereux et risqué en tellement d’endroits ailleurs sur la planète (mais ils ne sont en général pas directement sous nos yeux) que notre énergie de protestation est, de mon point de vue, bien plus utile ailleurs que sur CIGEO.

Conclusion

Beaucoup de personnes ont peur du nucléaire, peur de ses radiations invisibles, peur de l’accident. Je le comprends. J’ai tenté dans cet article de vous donner quelques informations factuelles à mettre en face de cette peur, j’espère avoir pu vous apprendre 2-3 trucs.
Un très très grand bravo à ceux qui auront tout lu, et aux autres aussi ! N’oubliez pas les petites notes complémentaires que la petite coccinelle de Gotlib vous présente ci-dessous.

Pour ma part, ceux qui me connaissent le savent, ce sont les conséquences du réchauffement climatique qui me préoccupent. La seule façon d’y faire face c’est de faire feu de tout bois avec tous les leviers d’actions possibles. Et parmi tous les scénarios futurs étudiés par le GIEC, se sont ceux avec un mix électrique incluant un développement du nucléaire qui permettent d’arriver un minimum à contenir le réchauffement climatique.
J’en reparlerai, directement ou indirectement, dans d’autres articles, faites moi confiance ! ;-)

J’ajoute, pour finir, quelques compléments suite à mon article « Nucléaire VS Energies renouvelables : le match ? » :

  • un article de Sylvestre Huet (un des – rares – journalistes à parfaitement maîtriser les sujets énergies & climat) sur son blog du Monde appelé « {Sciences²} », qui pose parfaitement les éléments du débat sur la complémentarité des sources d’énergie nucléaire et renouvelables dans le contexte de la lutte contre le réchauffement climatique.
  • un autre article de Sylvestre Huet sur le sujet : « le nucléaire, une énergie du passé en déclin dans le monde ? »
  • le rapport des experts de l’UE (en anglais, document assez peu digeste, je ne vous le conseille pas…) récemment rendu public à propos de la question de l’inclusion du nucléaire dans la liste des sources d’énergies finançables par l’UE pour lutter contre le réchauffement climatique qui défraie la chronique actuellement.
    Voici quelques extraits de ce rapport réalisé par un regroupement d’experts de différents instituts de recherche indépendants de différents pays européens, nommé JRC (Joint Research Center) :
    – « Il n’existe pas d’éléments scientifiques prouvant que le nucléaire est plus dommageable pour la santé humaine ou l’environnement que d’autres technologies de production d’électricité déjà incluse dans la liste »
    – « Il y a un consensus scientifique sur le fait que le stockage géologique en profondeur est une bonne solution pour que la radioactivité soit isolée de la biosphère pendant très longtemps. »
    – « L’impact du nucléaire sur la vie humaine (radiations et autres) est similaire à l’impact de l’éolien en mer. »
    – « Même en tenant compte des quelques rares accidents dramatiques, le nucléaire actuel est beaucoup plus favorable que les énergies fossiles, et comparable à l’éolien et à l’hydraulique, en terme de morts par GWh produit. »
    – « Avec le développement des réacteurs de génération 3 (comme l’EPR) , le risque est considérablement réduit, ce qui fait alors du nucléaire le mode de production d’énergie le moins risqué »

(1) En dehors des turbines à vapeur il existe aussi d’autres types de centrales moins courants (non nucléaires), comme les turbines à combustion dans lesquelles les gaz de combustion sont directement injectés dans la turbine pour la faire tourner.
Et pour la source de chaleur des turbines à vapeur, on peut aussi utiliser la combustion de biomasse (bois), du solaire thermique, une source géothermique si elle est suffisamment chaude, etc…
[retour]

(2) La « demi-vie » d’un élément radioactif, encore appelée « période radioactive », est la durée au bout de laquelle la radioactivité d’un échantillon diminue de moitié. Concrètement, au bout d’une période radioactive, exactement la moitié des atomes se sont désintégrés. Et si on attend le temps de la période suivante, la moitié des atomes restants se désintègrent, etc.
La diminution naturelle dans le temps de la radioactivité d’un échantillon de matière radioactive ressemble à cela :

Pour un type d’atome donné, la période radioactive est connue et fixe. Elle peut aller d’une fraction de seconde à … des millions d’années selon le type d’atome !
[retour]

(3) Il existe deux principaux « isotopes » naturels de l’uranium : l’uranium 235 et l’uranium 238. Seul le 235 est fissile et peut se casser en deux en recevant un neutron. C’est donc lui qui est intéressant pour les centrales nucléaires.
Mais dans la nature, l’uranium naturel (celui qu’on va chercher dans les mines), est constitué d’environ 0,7% d’uranium 235 seulement et 99,3% d’uranium 238. Or, pour qu’un réacteur fonctionne correctement, il est nécessaire d’avoir autour de 3 à 4% d’uranium 235. Ainsi, pour préparer l’uranium avant de l’utiliser comme combustible dans une centrale, il faut procéder à son enrichissement, qui s’effectue dans des usines spécialisées.

Mais au fait c’est quoi, un « isotope » ? Et bien nous avons vu que tous les noyaux d’atomes sont tous constitués d’un certain nombre de protons et d’un certain nombre de neutrons, et que le nombre de protons détermine le type d’atome : oxygène, carbone, uranium, etc…
Pour un nombre de protons donné, donc pour un type d’atome donné, le nombre de neutrons peut varier : ça ne change pas le type d’atome, mais cela fait que l’atome n’est pas tout à fait le même quand même. Ce sont tous ces atomes un peu différents – tout en restant du même type qu’on appelle les « isotopes ».
Exemples d’isotopes du carbone :
– carbone 12 : 6 protons et 6 neutrons
– carbone 14 : 6 protons et 8 neutrons
Exemples d’isotopes de l’uranium :
– uranium 235 : 92 protons et 143 neutrons
– uranium 238 : 92 protons et 146 neutrons
(il en existe d’autres, 26 en tout, mais je vous épargne la liste…)

[retour]

(4) Je vous vois venir avec votre question : « mais d’où vient le premier neutron pour démarrer la réaction en chaîne, tout au début ?? »
Effectivement, un réacteur nucléaire que l’on charge entièrement avec du combustible tout neuf ne démarre pas tout seul : il faut des neutrons pour démarrer la réaction en chaîne. On va donc faire appel à une source de neutrons, en injectant dans le réacteur un peu d’éléments naturellement émetteurs de neutrons, comme par exemple le californium.
[retour]

(5) Pour être complet sur les rejets, il faut savoir que toutes les centrales nucléaires possèdent une station d’épuration dans le but de filtrer les eaux usées de la centrale, par exemple les eaux servant au rinçage des différents circuits. Comme pour toutes les stations d’épuration, les eaux filtrées et épurées en sortie de station sont rejetées dans le rivière (ou la mer), et les gaz, filtrés, sont rejetés dans l’atmosphère. Ces eaux et gaz peuvent contenir de manière normale des traces d’éléments radioactifs. Ces rejets sont mesurés en permanence et strictement encadrés et ils sont sans aucun impact sur l’environnement.
Pour ceux qui se souviennent de l’épisode des taux de tritium « anormaux » mesurés dans la Loire durant l’été 2020 (le tritium peut en effet provenir des eaux sortant des stations d’épuration des centrales), c’est un non-sujet tellement les doses sont ridiculement faibles et très très très largement en dessous des seuils de non impact environnemental. Lire cet article, par exemple, sur ce sujet.

[retour]

(6) Pour être complet sur les émissions de CO2 liées à la production d’électricité d’origine nucléaire : oui bien sûr il faut construire, maintenir puis démanteler les centrales, et il faut aussi aller extraire l’uranium dans des mines, et tout cela nécessite d’émettre du CO2. Mais ramené au kilowattheure produit, le nucléaire est un des modes de production d’électricité les moins émetteur de CO2 :

La méthode ACV (Analyse Cycle de vie) permet de tout prendre en compte : extraction et transport des matières premières, construction des centrales ou installations, extraction et transport des combustibles, exploitation, démantèlement

[retour]

(7) Comme nous l’avons déjà vu, l’uranium utilisé dans une centrale nucléaire est enrichi à quelques pourcents d’isotope 235 par rapport au 238. Mais pour fabriquer une bombe il faut du 235 pur à plus de 90%.
Idem pour le plutonium : dans une centrale, le plutonium produit par la fission est disséminé en faibles quantités dans toutes les pastilles de combustible, alors qu’une bombe nécessite du plutonium 239 pur à plus de 90%.

[retour]

(8) Une des façons de mesurer le risque relatif à l’utilisation d’une source d’énergie est de… compter le nombre de morts qu’elle entraîne. Pas drôle comme exercice, mais c’est une façon (parmi d’autres) de les comparer, en rapportant le nombre de morts à la quantité d’énergie produite pour que la comparaison ait du sens (en Téra-Wh, TWh) :

Que voit-on ? L’énergie nucléaire est la source d’énergie qui engendre le moins de morts dans le monde, et de loin.
Celle qui en engendre le plus est le charbon : des centaines de milliers de personnes meurent chaque année dans le monde à cause de l’exploitation du charbon : principalement dans la population générale du fait de la population de l’air, mais aussi dans les mines, notamment en Chine mais aussi en Europe (lire par exemple cet article du Monde).
A côté de cela, le nombre total de morts attribués au nucléaire entre 1971 à 2009 (soit près de 40 ans) est d’un peu moins de 5000 personnes, soit un peu plus de 100 morts par an. Ces chiffres sont bien sûr à prendre avec des précautions, notamment du fait des incertitudes pesant sur la mortalité attribuée à l’accident de Tchernobyl). Ceci étant, même en prenant une fourchette (très) haute de quelques dizaines de milliers de morts à cause de Tchernobyl, l’ordre de grandeur n’a rien à voir avec les chiffres du charbon.
[retour]

(9) Quelles ont été les conséquences sanitaires du nuage de Tchernobyl en France ?
Ce sujet est est un exemple type des désaccords que l’on peut entendre sur le sujet du nucléaire. En gros :
– d’un côté, des instances officielles qui diffusent des informations rassurantes,
– de l’autre, des ONG, des associations et une part importante du grand public, qui estiment qu’une partie de la vérité est masquée et que les conséquences néfastes sont plus importantes qu’on le dit.
Il faut dépasser cette opposition de point de vue fortement polarisée (notamment dans les médias et sur les réseaux sociaux) entre « pour » et « contre » pour essayer d’approcher la réalité des choses qui comme toujours n’est pas simple, d’où la longueur du présent article ;-)
Il existe des institutions officielles dont la compétence et la rigueur des analyses depuis des décennies est reconnue. Par exemple l’UNSCEAR (United Nations Scientific Committee on the Effects of Atomic Radiations), a cumulé depuis plus de 60 ans des connaissances et une expertise scientifique qui en font une référence internationale. Dans le domaine de l’étude de l’effet de la radioactivité, l’UNSCEAR est l’équivalent du GIEC pour l’étude du climat ou de l’IPBES pour l’étude de la biodiversité et des écosystèmes. Mon point de vue scientifique est de considérer que l’on peut accorder une bonne confiance aux informations qu’elles diffusent, qui sont une compilation des meilleurs connaissances scientifiques connues publiées dans des revues scientifiques à comité de lecture. Ceux qui pensent que ces informations sont fausses ou tronquées doivent le démontrer de manière solide, c’est comme cela que fonctionne la science.

En France, on attribue au passage du nuage de Tchernobyl une augmentation de radioactivité moyenne au sol qui a conduit à une augmentation de dose reçue pour les humains de l’ordre de quelques centièmes ou dixièmes de mSv, très très largement inférieure à la radioactivité naturelle qui est de quelques mSv : voir le paragraphe sur le radioactivité. Cela avec des disparités régionales importantes (globalement la contamination a été moins importante dans l’ouest de la France) et des disparités locales (plus de contamination au sol là où il y a eu des précipitations : exemple de la Corse).
Pour ce qui est d’une éventuelle augmentation des cas de cancer en France, notamment de cancers de la thyroïde, qui serait due à cette contamination par les retombées du nuage de Tchernobyl, on ne le constate pas. Certes certains cancers augmentent mais depuis bien avant 1986 et sans changement après 1986. Cette absence d’incidence sur les cancers est cohérente avec les chiffres de quantité de rayonnement (en mSv) qui sont très largement en dessous des seuils à partir desquels les effets sur la santé sont effectifs
.
La conclusion est que l’on a pas observé d’effets sanitaires en France suite au passage du nuage de Thernobyl.
[pour en savoir plus]

[retour]

(10) Un des défauts de conception des centrales RBMK russes est le fait que l’extrémité basse des barres de contrôle destinées à contrôler le réacteur sont en graphite, un matériaux qui favorise la réaction de fission.
De ce fait, lors du début de la chute des barres dans le réacteur pour l’arrêter en urgence, la première chose qui se produit dans les premières secondes est une augmentation (temporaire) de la réaction !
A Tchernobyl, cela a été un facteur déclencheur de l’explosion du réacteur…
(lire ici pour plus de détails sur ces défauts de conception des RBMK)

[retour]

(11) Graphique avec une échelle logarithmique :
De même qu’un article dédié a été nécessaire pour expliquer les courbes exponentielles, il en faudrait un autre pour parler des échelles logarithmiques… Vite fait quand même, voilà l’idée :
Dans une graphique classique, les échelles de graduation (axes) sont dits « linéaires » : pour passer d’une graduation à l’autre on ajoute toujours la même quantité. Par exemple un axe gradué avec 10, 20, 30, 40, etc… est une échelle linéaire : +10 entre chaque graduation.
Dans une échelle logarithmique, entre chaque graduation on multiplie par une quantité fixe : 1, 10, 100, 1000, etc… (multiplié par 10 à chaque fois)
.
On utilise ces échelles pour représenter graphiquement des quantités qui varient énormément, sur plusieurs ordres de grandeurs. Elles sont trompeuses car elles modifient fortement la forme des courbes : il faut y faire attention quand on lit un graphique...
[retour]

Quelques sources d’information sur le nucléaire :

Le site de l’Autorité de Sûreté Nucléaire :
ASN

Le site de l’Institut de Radioprotection et de Sûreté Nucléaire :
IRSN

Le site de la Société Française d’Energie Nucléaire :
SFEN

Le blog de vulgarisation d’un ingénieur en sûreté nucléaire :
https://doseequivalentbanana.home.blog/

Un article sur le site de l’AFIS pour clarifier les éléments du débat sur le nucléaire :
https://www.afis.org/Nucleaire-un-debat-qui-doit-ecarter-les-mauvais-arguments

[Temps de lecture moyen 7 min]

Quand on pense réchauffement climatique on pense chaleur, assèchement, manque d’eau, désertification.
Mais en réalité le réchauffement climatique va se traduire par plus d’humidité, en moyenne, dans l’atmosphère et plus de précipitations, en moyenne, à la surface de la Terre.
C’est contre-intuitif, n’est-ce pas ? Voyons pourquoi c’est pourtant cela qui va se passer (est en train de se passer, devrais-je dire).

Première chose à avoir en tête : la Terre flotte dans l’espace, elle est entourée de vide, elle est donc matériellement isolée. De ce fait, la quantité de tout ce qu’elle contient comme matière ne change pas(*).
Notamment, la quantité d’eau à la surface de la Terre est stable, cela depuis plusieurs milliards d’années : l’eau ne s’évapore pas dans l’espace, les météorites ne nous en apportent pas et il n’existe pas de processus chimique connu qui en créerait ou en ferait disparaître de manière notable.

Le réchauffement climatique, aussi impactant soit-il, ne changera pas cela : il ne fera pas disparaître d’eau, il ne fera qu’influer sur la répartition de l’eau sur Terre, principalement en modifiant, globalement et localement, le cycle de l’eau.

Voilà où se trouve l’eau sur Terre : à 96,5% dans les océans.
L’eau présente dans l’atmosphère sous forme de vapeur d’eau, objet du présent article, n’est qu’une infime fraction de toute l’eau présente sur Terre.
Au total, la Terre contient 1,4 milliard de km3 d’eau.

Pourquoi plus de précipitations ?

Il existe une loi physique très importante en thermodynamique selon laquelle la quantité de vapeur d’eau que peut contenir l’air varie en fonction de la température : plus l’air est chaud et plus il peut contenir de vapeur d’eau.

Or, du fait du réchauffement climatique, la température moyenne de l’atmosphère augmente : déjà plus de 1°C d’augmentation depuis l’ère pré-industrielle, et plusieurs degrés de hausse à prévoir d’ici la fin du XXIème siècle. Cette augmentation de température va donc mécaniquement conduire à ce que la quantité de vapeur d’eau contenue dans l’air augmente aussi.
Et si l’humidité de l’air augmente, alors les précipitations augmentent aussi car celles-ci sont le résultat de la condensation de l’humidité de l’air.

Le réchauffement climatique va donc provoquer, en moyenne, une augmentation de l’humidité de l’air et de la quantité des précipitations sur Terre.


Attention toutefois : cette augmentation est une moyenne. Et il faut se méfier des moyennes car elles peuvent cacher de grandes disparités. Vous connaissez la fameuse blague « Quand Bill Gates entre dans un bar, en moyenne tous les occupants du bar sont milliardaires… » : elle illustre bien le fait qu’une moyenne est une image de la réalité souvent bien insuffisante pour décrire celle-ci.

Qu’est-ce qui va se passer, concrètement ?

L’augmentation des précipitations sur Terre va en fait se matérialiser globalement de la façon suivante :
– une augmentation des précipitations dans les régions déjà pluvieuses,
– une diminution des précipitations dans les régions déjà sèches.

Cette hétérogénéité en fonction des régions de l’évolution des précipitations est bien restituée par les modèles informatiques de simulation de l’évolution du climat. Voici ci-dessous une cartographie des évolutions prévues, avec le code couleur suivant :
– de vert à bleu : augmentation des précipitations,
– de jaune à rouge : diminution des précipitations.

Évolutions des précipitations sur l’ensemble de l’année, en mm/jour de différence entre la période 2080-2099 et la période 1980-1999 (scénario « intermédiaire plus » du 4è rapport du GIEC, nommé A1B)

Remarquez ce qui va se passer au niveau de la ceinture tropicale et de l’Asie du sud-est, déjà très arrosées : ces régions vont connaître une humidité et des précipitations accrues. Et cela va progressivement devenir de plus en plus problématique car ce sont des régions chaudes, or la combinaison température + humidité est particulièrement dangereuse pour l’être humain. En effet, les forts taux d’humidité empêchent la transpiration et l’évacuation de la chaleur par le corps humain.

Indice de chaleur en degrés celsius (source)
L’indice de chaleur qualifie l’effet sur le corps humain de la température de l’air en fonction de son humidité.

Le tableau ci-dessus de l’ « indice de chaleur » montre qu’avec un air sec (40% d’humidité) l’être humain peut vivre avec des températures au delà de 40°C sans trop de dommages, alors qu’avec 80% d’humidité, dès 35°C cela devient extrêmement dangereux et même mortel si l’exposition se prolonge plus que quelques heures.
[Pour l’anecdote, c’est la raison pour laquelle l’air des saunas peut être bien plus chaud (jusqu’à 100°C) que celui des hammams (maxi 50°C) : l’air y est sec et la transpiration s’évapore très rapidement, alors qu’il est saturé d’humidité dans les hammams ce qui entraîne une absence d’évaporation de la transpiration. Dans tous les cas le temps de station dans les saunas et hammams est limité, on comprend pourquoi…]

Voici des cartes du monde représentant le nombre de jours dans l’année au cours desquels la combinaison chaleur et humidité dépasse(ra) les seuils de dangerosité :
– carte a « Historical » = situation actuelle
– carte b « RCP 2.6 » = situation en 2100 (scénario GIEC optimiste)
– carte c « RCP 4.5 » = situation en 2100 (scénario GIEC intermédiaire)
– carte d « RCP 8.5 = situation en 2100 (scénario GIEC si on ne change rien)

Nombre de jours par an au delà du seuil mortel chaleur + humidité

A terme, si nous ne jugulons pas fortement le réchauffement climatique global, des régions entières deviendront inhabitables une grande partie de l’année…

Et en France ?

Pour ce qui est de nos régions, la carte des précipitations montre que l’ensemble du bassin méditerranéen connaîtra un assèchement, y compris la France.
D’ici la fin du siècle, c’est environ 50% de la France qui devrait passer en climat méditerranéen, jusque-là limité au sud-est de la France.

A noter que malgré l’assèchement général, le sud-est de la France devrait pourtant connaître des précipitations plus intenses au moment des épisodes méditerranéen. Toujours l’effet trompeur des moyennes : les précipitations annuelles vont diminuer en moyenne mais les pics de précipitations de l’automne vont augmenter. Au sujet des épisodes méditerranéens, vous pouvez (re)lire mon article dédié.

Voici, issu de cet article de Météo-France, les cartes de l’évolution future de la sécheresse des sols en France par rapport à aujourd’hui, à différents horizons de temps et pour différents scénarios GIEC d’évolution du climat (intermédiaire, pessimiste, optimiste) :

Évolution de la sécheresse des sols
– de gauche à droite, évolution dans le temps
– de haut en bas, trois scénarios GIEC différents

Cliquer sur l’image pour zoomer.

Très nettement, il apparaît que sur quasiment tout le territoire, les sols vont devenir bien plus secs. Cela aura bien sûr des conséquences importantes sur la végétation sauvage (dépérissement d’espèces) et sur l’agriculture (baisse des rendements).

Voilà, cet article vous donne une petite idée de ce qui nous attends si on ne fait rien pour lutter contre le réchauffement climatique.
Et soyons lucides, pour l’instant… on ne fait rien. Ou pas grand chose. Ou pas assez, vraiment pas assez.

Illustration de l’inefficacité, jusqu’à aujourd’hui, de nos actions : l’évolution du taux de CO2 dans l’atmosphère ressemble bigrement à une exponentielle.
Vous voyez ce que c’est une exponentielle ? Pour résumer, c’est un truc qui explose. Littéralement.

Pour finir, je vous conseille :

  1. Cet excellent article de vulgarisation sur le site BonPote, publié le 6 avril : « La sécheresse, enjeu majeur du changement climatique en France ?« 
  2. L’édition du 6 avril de l’émission La Tête au carré « Climat : les scientifiques confirment l’urgence » dans laquelle est notamment interviewé Christophe Cassou, climatologue, un des auteurs du dernier rapport du GIEC qui sera publié en juillet 2021.
    Cette émission fait le point de manière claire et simple sur les connaissances scientifiques actuelles relatives au changement climatique.

(*) La quantité de matière que contient la Terre est constante : environ 6 000 000 000 000 000 000 000 000 kg.
S’y ajoutent quelques dizaines de tonnes de météorites qui tombent chaque année sur Terre.
Hormis les fragments terrestres qui pourraient être projetés dans l’espace en cas de chute d’un très gros astéroïde sur Terre (mais on ne va pas y attarder, hein, et plutôt imaginer que ça n’arrivera pas avant longtemps) et une très très légère évaporation dans l’espace de certains atomes légers de l’atmosphère (hydrogène et hélium), la Terre ne perd pas de matière.

[retour]

[Temps de lecture moyen 5 min]

Les vidéos où l’on peut voir un iceberg se retourner sont impressionnantes. Ce phénomène est très dangereux pour ceux qui se trouvent à proximité : vagues, projections de glace, rupture possible de l’iceberg… pas top si par exemple vous étiez tranquillement à côté dans votre petit canoë en train d’admirer le paysage. Par exemple, voici une vidéo dans laquelle on voit l’explorateur Mike Horn grimper sur un iceberg… qui se retourne au bout de quelques secondes (chance : il s’en sort sans dommage, lui et son acolyte) :

Mais pourquoi certains icebergs décident-ils de se retourner d’un coup, sans prévenir ? Quelle mouche les pique brusquement ?

Il y a bien sûr une explication logique à ces retournements.

On trouve les icebergs autour des régions polaires : après s’être détachés de la banquise ou des glaciers, ils partent en mer en flottant et en fondant(*) lentement. Dans ces régions il fait froid, l’air est souvent à des températures négatives. L’eau de l’océan par contre est moins froide que l’air : autour de quelques degrés. Dans tous les cas, même si l’eau salée reste liquide un peu en dessous de zéro, la température de l’eau ne descends jamais en dessous de -2°C.

En conséquence de cette eau (relativement) plus chaude ainsi que de la conductivité thermique de l’eau plus importante que celle de l’air, un iceberg fond par en dessous, dans sa partie immergée. Ainsi, au fur et à mesure de sa fonte, l’iceberg perd sa masse par le bas et devient progressivement plus léger dans sa partie inférieure immergée(**). Ceci conduit à ce que son centre de gravité monte progressivement… jusqu’à atteindre un point de bascule lorsque le haut de l’iceberg devient trop lourd par rapport au bas : alors il tombe et se retourne, partiellement ou totalement !
Et ensuite ça recommence : il continue à fondre par en dessous et peut ainsi se retourner plusieurs fois avant de fondre complètement.


Pour compliquer l’affaire et rendre le retournement encore plus imprévisible, d’autres paramètres entrent en jeu :
– l’ensoleillement,
– la convection de l’eau,
– la convection de l’air,
– l’érosion par les vagues
(plus de détails sur le processus de fonte des icebergs sur ce site canadien).
Ces facteurs contribuent à modifier la forme de l’iceberg, et donc la position du centre de gravité, et influent sur le moment de basculement(***).

Iceberg laissant voir le bleuté de la glace par transparence :-)

Tous les icebergs ne se retournent pas : cela dépend de leur forme.
– Un iceberg en forme de plaque ne va pas se retourner : comme une planche en bois, il va flotter de manière très stable.
– Ceux qui se retournent facilement sont ceux qui possèdent une forme globalement ramassée et plutôt compacte.
– Les formes très verticales que l’on voit parfois dessinées sont incapables de flotter en vrai : un iceberg avec une telle forme se retournerait sur le côté immédiatement. Par exemple, une forme d’iceberg comme la vue d’artiste ci-dessous n’est pas possible physiquement car il ne tiendrait pas ainsi en équilibre verticalement :

Vue d’artiste d’un iceberg imaginaire qui serait instable en réalité

Pour se rendre compte de l’influence de la forme d’un iceberg sur sa capacité à se retourner, voici un site internet tout simple sur lequel vous pouvez expérimenter toutes les formes que vous souhaitez :
– dessinez un iceberg avec la souris,
– attendez quelques secondes et regardez comment il se comporte : il se retourne ou pas ??
– recommencez avec une autre forme : plus haute, plus large, carrée, triangulaire, biscornue,…
…expérimentez et amusez-vous !

PS
Pour ceux qui attendent l’article sur le nucléaire, c’est toujours en cours. Mais j’ai découvert ce site sur lequel on peut dessiner des icebergs et les regarder se retourner (j’ai joué avec un bon moment…), et j’ai immédiatement eu envie de faire un article dessus.
C’est comme cela que je fonctionne : j’ai souvent un ou plusieurs articles en cours, pour lesquels le travail de recherche et la rédaction sont un peu longs – plusieurs soirées – mais si j’ai un coup de cœur je rédige un article plus rapide comme celui-ci (rédaction en une grosse soirée), je le publie sans attendre d’avoir terminé les autres.
Il arrive aussi que certains d’entre vous me donnent des idées auxquelles je n’avais pas forcément pensé : par exemple l’article sur Oumuamua, en lien avec une actualité, que j’ai rédigé toutes affaires cessantes en laissant en plan le reste pendant ce temps…

(*) Normalement j’enfonce une porte ouverte mais je précise quand même on ne sait jamais : la fonte des icebergs ne fait pas monter le niveau des océans, on est bien d’accord ?
Tentez l’expérience si vous voulez avec le glaçon dans votre verre de pastis (ou de ti punch, ça marche aussi ;-) ) : notez le niveau de l’eau avec un petit trait, attendez la fonte du glaçon, et constatez que le niveau n’a pas bougé !
Cela est lié au fait que la glace est plus volumineuse que l’eau (les bouteilles d’eau en verre que vous congelez éclatent, vous le savez), la densité de la glace étant plus faible que celle de l’eau liquide : la glace flotte sur l’eau.
La différence de volume entre une quantité d’eau et cette même eau gelée est exactement identique au petit volume de glaçon qui est émergé au dessus du liquide. Quand le glaçon fond, l’eau reprend son volume initial et la hauteur d’eau ne bouge pas.
C’est pareil avec les icebergs, en plus grand…

[retour]

(**) La partie immergée de l’iceberg correspond à environ 90% du volume de l’iceberg. Seuls 10% de son volume est émergé au dessus de l’eau.
[retour]

(***) Pour en savoir plus sur les grands principes théoriques qui expliquent la stabilité / l’instabilité d’un objet flottant (notions de centre de gravité, centre de carène, métacentre, hauteur métacentrique), voici un document relatif à la stabilité des bateaux de pêche – mais valable pour tous les types de bateaux – que vous pouvez consulter. Allez lire le chapitre 2 « Définitions ».
[retour]

[Temps de lecture moyen 10 min]

Une petite pause avant de reparler d’énergie et de nucléaire ! ;-)

Télérama, France-Inter, France2, le New-York Times, Ouest-France, le Washington Post… qu’ont en commun ces grands médias ? Ils ont tous parlé de Oumuamua ces jours-ci !

Oumuamua, de son nom hawaïen(*) signifiant « le messager », est ce petit objet céleste – quelques centaines de mètres de longueur – qui a traversé notre système solaire en 2017.

Trajectoire suivie par Oumuamua en environ 3 ans (passage près de la Terre et du soleil en octobre 2017)

Pourquoi en parler maintenant, alors que ce passage date de trois ans ? Et bien parce que le directeur du département d’astronomie de l’Université de Harvard, Avi Loeb sort un livre à propos d’Oumuamua, dont le titre est « Le premier signe d’une vie intelligente extraterrestre« . Rien que ça ! D’après lui, cet objet céleste serait un objet artificiel conçu par une civilisation extra-terrestre… D’où l’emballement médiatique, car voilà un sujet qui fait fantasmer. Moi le premier : la question de l’existence ou non de la vie ailleurs que sur Terre est passionnante et fascinante.

Cette question est très difficile à trancher car la réponse est la résultante d’une opposition entre deux critères qui se compensent, sans que l’on sache – pour l’instant – lequel l’emporte. Les voici :

Premier critère : le nombre d’endroits dans l’univers susceptibles d’héberger la vie est très, très grand.

Depuis les années 90 les progrès des télescopes et des moyens d’observation ont permis de détecter la présence de planètes autour de plusieurs milliers d’étoiles (près de 5000) proches de nous, au sein de notre galaxie la Voie Lactée. On les appelle des « exoplanètes ». Et nous avons la quasi certitude aujourd’hui que presque toutes les étoiles dans l’univers ont des planètes qui gravitent autour d’elles. Rien que dans la Voie Lactée, il y a entre 100 et 200 milliards d’étoiles, alors si chacune a au moins une planète autour d’elle cela fait un bon paquet de candidates pour héberger la vie.
Sans parler du fait que les planètes ont elles-mêmes des satellites qui potentiellement peuvent aussi héberger des formes de vie. Dans notre système solaire même, nous n’avons pas perdu espoir de détecter des formes de vie sur certains satellites(**) des planètes géantes gazeuses : nous savons que sous la croute glacée de ces satellites, il existe des océans d’eau liquide, avec une activité géothermique sous-jacente source d’énergie. Pourquoi pas des formes de vie élémentaires dans ces océans ?

Deuxième critère : la probabilité d’apparition de la vie sur une planète est très très faible.

Pour que la vie puisse apparaître sur une planète (du moins sous une forme similaire à celle que l’on connaît sur Terre), de nombreuses conditions doivent être remplies :
– la planète doit être rocheuse pour avoir une surface solide (ce n’est pas le cas des planètes gazeuses comme Jupiter ou Saturne par exemple)
– elle doit être à la bonne distance de son étoile pour être à la bonne température afin de pouvoir héberger de l’eau liquide
– elle ne doit pas être trop petite sinon sa gravité est trop faible pour retenir une atmosphère
– son orbite doit être quasi circulaire pour assurer une stabilité suffisante du climat
– elle doit posséder un champ magnétique pour dévier le flot de particules en provenance de l’étoile sinon toute vie à sa surface serait irrémédiablement grillée.
Pour l’instant, aucune des presque 5000 exoplanètes que nous connaissons ne remplit ces conditions. Pas si simple d’avoir des conditions favorables à la vie sur une planète…
Actuellement, la tendance des dernières recherches va même dans le sens de rendre encore plus improbable le développement de la vie sur une planète : mieux on comprend l’enchaînement des circonstances qui a conduit à la vie sur Terre telle que nous la connaissons, et plus on se rend compte que celles-ci sont toutes aussi peu probables les unes que les autres, résultant d’évènements hasardeux. La vie sur Terre semble être le résultat d’une chance énorme (***).

Confrontation des deux critères

La difficulté de la question « Existe-t-il de la vie sur d’autres planètes ailleurs que sur la Terre ? » est là : pour répondre il faut multiplier le nombre de planètes existantes par la probabilité que la vie apparaisse sur une planète. Le résultat est le nombre de planètes hébergeant la vie. Or c’est une multiplication d’un truc très grand, qu’on ne connaît pas très précisément, par un truc très petit, qu’on ne connaît pas précisément non plus. Résultat ? On ne sait pas. Plus que 1 ? Moins que 1 ? Mystère.

Ce sujet interpelle l’humanité depuis des siècles et continue de le faire. Aujourd’hui, des chercheurs nommés « exobiologistes » y consacrent de nombreux travaux. Des moyens d’observation toujours plus puissants sont imaginés pour détecter d’autres exoplanètes et préciser leurs caractéristiques. Des programmes d’écoute des ondes en provenance de l’espace traquent tout ce qui pourrait s’apparenter à un signal artificiel provenant d’une forme de vie intelligente qui aurait découvert, comme nous, le moyen d’émettre des ondes. Des informaticiens tentent de modéliser les conditions d’apparitions de la vie et de simuler son développement. Des chimistes tentent de cerner quelles molécules, par quel enchaînement de réactions chimiques, peuvent constituer les premières briques du vivant. Un intense travail de recherche, mené dans le monde entier.

Des milliards d’étoiles dans la Voie Lactée…
(Nébuleuse d’Eta Carinae, dans la constellation de la Carène. Visible seulement depuis l’hémisphère sud)

Revenons-en au livre d’Avi Loeb : d’après celui-ci, il existe un « tabou » sur cette question de la vie extraterrestre, qu’il convient de briser, ce qu’il fait, lui, en publiant ce livre. L’existence de ce tabou serait la cause d’une stigmatisation dont il ferait l’objet du fait de la thèse soutenue dans le livre… En fait pas du tout : tous les travaux en cours listés si dessus sont tout à fait connus et reconnus, ils sont menés par des chercheurs tout à fait sérieux et respectables, qui ne font l’objet d’aucune restriction et communiquent librement sur leur travaux. Aucun tabou là-dedans, personne n’est stigmatisé à cause de ses travaux et/ou ses résultats dans ce domaine. D’ailleurs lui-même n’est-il pas, de fait, en train de s’exprimer largement et librement ?
Par contre il est vrai que les chercheurs dans ce domaine sont extrêmement prudents. Mais ils ont raison : il y a eu tellement, par le passé, de fausses annonces, de faux espoirs d’avoir découvert une trace de vie quelque part qu’ils se gardent bien de tout emballement et prennent soin de bétonner tous leurs travaux et d’éliminer toutes les hypothèses avant d’annoncer quoi que ce soit publiquement.

Vous avez sûrement deviné où je voulais en venir : la communauté scientifique est très sceptique vis à vis de la thèse de Avi Loeb. Celle-ci, d’ailleurs, n’est pas le résultat d’un travail de recherche avec publication dans une revue scientifique, non, c’est juste un livre, à destination du grand public, dans lequel il expose son idée.

Quelle est-elle, son idée ?
Il se trouve que Oumuamua a une trajectoire bizarre que l’on ne sait pas expliquer, en tout cas pas à l’aide des lois de la gravitation qui régissent le déplacement des objets dans l’espace. L’explication pourrait être un phénomène de réaction dû au dégazage de sa surface (comme le font les comètes), mais cela supposerait que l’astéroïde soit constitué d’une glace particulière dont la nature est incertaine. Pour l’instant on ne sait pas expliquer cette trajectoire.

Par ailleurs la forme de cette objet est inédite : il a semble-t-il une forme très allongée et aplatie, comme une sorte de pancake, assez éloignée des formes habituellement rencontrées. On sait de plus qu’il provient de l’extérieur du système solaire ; c’est d’ailleurs la première fois qu’on détecte un objet avec cette caractéristique.

Forme la plus vraisemblable de Oumuamua (vue d’artiste)

Selon Avi Loeb la seule manière d’expliquer ces caractéristiques serait qu’il s’agisse d’une sorte de « voile solaire », construite artificiellement, qui avancerait poussée par des rayons lumineux et qui proviendrait d’un autre système solaire. Il serait donc une preuve de vie extra-terrestre !

Sauf que… et bien ce n’est pas comme ça que ça marche ! On ne peut pas, sous prétexte qu’on ne sait pas encore expliquer quelque chose, affirmer  » la seule explication est que  » et débiter une théorie qui ne repose sur rien de sérieux. Aucune observation, aucune donnée. Aucun processus rigoureux d’élimination de toutes les autres hypothèses possibles. Juste une trajectoire bizarre, inexpliquée pour l’instant.
Alors si, on peut le faire, d’ailleurs il le fait et il a publié effectivement son bouquin. Mais cela n’a rien à voir avec un travail scientifique, une hypothèse sérieuse à laquelle on peut accorder du crédit. La réalité des choses c’est : pour l’instant on ne sait pas.
Au passage, j’ajoute que Avi Loeb est membre d’un projet de construction d’une… voile solaire, porté depuis 2016 par un milliardaire russe, Yuri Milner (lire ici) ! Il a tous les droits d’écrire un bouquin et d’y raconter ce qu’il veut, bien sûr, et y faire indirectement – ou directement – la promotion de l’idée de voile solaire, mais ce n’est qu’une opinion, ce n’est pas de la science.

Méfions-nous de ces coups médiatiques : un scientifique qui dit « on ne sait pas » c’est ennuyeux, aucun intérêt pour les médias ; par contre un scientifique « stigmatisé pour ses travaux », qui a une théorie extraordinaire, qui est peut-être comme un Galilée moderne, rejeté par la majorité mais seul contre tous à avoir raison, là c’est beaucoup plus intéressant pour les médias.
[Bon OK fustiger « les médias » en général sur ce point est simpliste et caricatural. Ceci étant, mon point de vue est que cet attrait pour les idées simples, frappantes et extra-ordinaires au détriment de la nuance, de l’incertitude, de la complexité, du temps long de l’explication et de la réflexion est une tendance lourde dans l’espace médiatique et, de manière encore plus forte, dans celui des réseaux sociaux. Et nous-mêmes devrions balayer devant notre porte car notre cerveau n’est pas innocent : les idées simples et fortes c’est ce qu’il aime car cela demande moins d’efforts et moins d’énergie à comprendre et à intégrer !]

C’est ainsi : sur certains sujets, la science n’a pas de réponse. Pas encore. Mais les scientifiques cherchent. Ils trouveront peut-être. Ou pas ! Quoiqu’il arrive, Oumuamua est parti et ne reviendra pas : plus possible de l’étudier…

Ceci étant dit, maintenant qu’on est au clair sur le fait que la science n’a pour l’instant pas de réponse sur l’existence de vie extraterrestre, et que le passage parmi nous de Oumuamua n’est probablement pas de nature à changer cela, il n’est tout de même pas interdit de rêver et d’avoir une petite opinion personnelle sur la question.
Il y a plusieurs centaines de milliards de galaxies dans l’univers observable, peut être même 2000 milliards, chacune contenant des dizaines de milliards d’étoiles (disons 100 milliards, comme pour la voie lactée). Cela fait au bas mot, en tout, plus de 10000 milliards de milliards d’étoiles dans l’univers. Ma conviction est qu’il serait incroyable que dans le lot il n’y ait pas d’autres formes de vie, éventuellement intelligente, qui se soit développées quelque part…

Qu’en pensez vous ??

(*) Oumuamua a été repéré le 19 octobre 2017 par le télescope Pan-STARRS 1 installé sur l’Observatoire du Haleakalā, à Hawaï.
[retour]

(**) Il y a trois satellites de planète géante gazeuse, dans le système solaire, pouvant peut-être héberger une forme de vie élémentaire (lire ici) dans de l’eau liquide présente sous d’épaisses couches de glace :
– Europe, satellite de Jupiter
– Titan et Encelade, satellites de Saturne

Plusieurs sondes doivent partir étudier ces satellites dans les années à venir, une européenne (départ en 2022) et deux américaines (départs en 2024 puis 2027).
[retour]

(***) Voici quelques facteurs ayant permis le développement de la vie sur Terre et tenant pour beaucoup à la chance :
– existence de la lune qui exerce une influence stabilisatrice sur la rotation de la terre, ce permet la stabilité du climat. La Lune est le résultat d’une collision de la Terre avec un autre astre impacteur de la taille de Mars, résultant du hasard, peu de temps après la formation de la Terre.
– absence d’impact majeur d’astéroïde (hormis il y a 66 millions d’années l’astéroïde de Chicxulub vraisemblablement à l’origine de l’extinction des dinosaures, mais il n’était pas si gros que ça : quelques dizaines de km)

– système de régulation du climat permettant de compenser les variations de luminosité du soleil (grâce au rôle du CO2 et de l’effet de serre qu’il créée dans l’atmosphère, agissant comme un gigantesque thermostat géophysique)
– contenu radioactif des roches constituantes de la Terre primitive (et oui il est possible que la vie ait été rendue possible grâce – entre autres – à la présence d’éléments radioactifs naturels dans les roches formant la Terre ! ;-) )

Conseil de lecture : le dernier numéro de La Recherche (nouvelle formule trimestrielle) consacre un dossier à l’origine du vivant et détaille ces différentes informations et bien d’autres. Un numéro absolument passionnant.

[retour]

[Temps de lecture moyen 12 min]

Vous avez peut-être lu dans la presse que RTE(1) et l’AIE(1) ont sorti le 27 janvier une étude très attendue sur le thème « un scénario 100% électricité renouvelable est-il plausible ? ». Si oui, vous avez peut-être retenu de votre lecture que, oui, un tel scénario est techniquement possible. Conclusion que vous en avez sûrement tiré : il n’y a plus d’obstacles, on va pouvoir produire toute notre électricité avec des sources renouvelables, c’est génial, bon débarras le nucléaire et les énergies fossiles !

Dans cet article je vais – hélas – doucher cet enthousiasme et aborder le sujet délicat du débat fréquemment mis en avant dans les médias : faut-il du nucléaire ou faut-il des énergies renouvelables ?? La réponse à cette question et les éléments du débat ne sont pas si simples. Qui plus est, ce n’est pas en ces termes que la question se pose, en fait…

Bon, quel est le problème ?

Commençons par le début : dans cette histoire, quel est le problème et quel est le but poursuivi ? Nous devrions tomber d’accord sur le fait que le problème essentiel, crucial, est celui posé par les énergies fossiles. Trois raisons fondamentales à cela :

  • les sources d’énergie sont absolument vitales pour l’Humanité. Tout notre mode de vie, toutes nos existences repose dessus : je ne vais pas redire ce que j’ai expliqué dans mon précédent article sur l’énergie, (re)lisez-le ;-) .
    Or, 85% de l’énergie consommée dans le monde a une origine fossile (pourcentage quasi constant depuis des décennies).
  • le réchauffement climatique. L’augmentation du taux de CO2, gaz à effet de serre émis par la combustion des énergie fossiles, dans l’atmosphère est en train de totalement bouleverser notre climat, dont la quasi stabilité depuis 10 000 ans a permis le développement de l’Humanité. Les conséquences présentes et surtout futures sont colossales : zones entières de la Terre devenant invivables une grande partie de l’année, hausse du niveau de la mer de plusieurs mètres, migrations massives de populations, insécurité alimentaire du fait de l’impact des évolutions climatiques, conflits inévitables, …
  • L’épuisement des ressources fossiles. J’y reviendrai dans un prochain article spécifique sur le pétrole [oui oui je sais je l’ai déjà promis depuis un moment cet article sur le pétrole, promis vous l’aurez !], mais retenez que, sur une planète finie, les quantités de ressources fossiles disponibles ne sont pas infinies. Déjà des tensions sur l’approvisionnement européen en pétrole et en gaz existent depuis quelques années, et elles ne vont pas s’arranger car les ressources commencent à être insuffisantes pour continuer encore la croissance de leur utilisation. Notez toutefois qu’il reste encore suffisamment de sources d’énergies fossiles sous terre (notamment du charbon, en quantités encore importantes) pour cramer notre climat plusieurs fois… Il est donc hélas inutile et dangereux de compter sur l’épuisement prochain des ressources fossiles pour régler le problème du réchauffement climatique.

Première conclusion : dans l’immédiat – je veux dire à l’échelle de temps de vos vies et de la mienne – le problème le plus urgent, le plus crucial, le plus impactant est celui du réchauffement climatique.
C’est lui qui est sur le haut de la pile, devant tous les autres(2).

Que faut-il faire ?

Comment fait-on pour lutter contre le réchauffement climatique ? « Facile », il suffit de diminuer nos émissions de CO2 pour les rendre nulles en 2050. C’est la trajectoire mentionné par le GIEC pour pouvoir rester sous les 2°C de hausse, qui est la limite en dessus de laquelle on considère que l’augmentation de température n’est plus gérable par l’Humanité sans dommages considérables.
Pour faire cela, c’est simple (du moins à comprendre) : il faut remplacer nos sources d’énergies fossiles par des sources d’énergie décarbonées. Voilà quelle est notre priorité.

En France, pour réaliser cette « transition écologique », notre stratégie consiste essentiellement à mettre le paquet (entre 5 et 7 milliards d’euros par an de subventions publiques entre 2018 et 2031, lire ici) sur la production d’électricité à partir des sources d’énergies renouvelables, principalement l’éolien et le solaire photovoltaïque(3), tout en diminuant la part du nucléaire : celui-ci devra représenter 50% du mix électrique d’ici 2035, selon la loi de Programmation Pluriannuelle de l’Énergie (PPE), avant de continuer à diminuer d’ici 2050, date à laquelle nous devons atteindre la cible de 100% renouvelables (ou du moins une très forte majorité) : c’est l’hypothèse étudiée dans le rapport, nous y voilà.

Qu’y a-t-il dans ce fameux rapport ?

Que dit le rapport de RTE et de l’AIE à ce propos ? L’idée générale est que le 100% renouvelable est techniquement possible en théorie, mais sous quatre conditions, explicitées dans le rapport, qui doivent être remplies. Et réussir à satisfaire ces conditions est, hélas, difficile. Regardons les toutes les quatre.

1) Stabilité du système électrique

Pour avoir une fourniture d’électricité qui réponde au besoin, le courant fourni doit être stable en permanence : 220V et 50Hz maintenus chaque seconde, chaque minute, 24/24 et 7/7. Actuellement cette stabilité est obtenue grâce à l’inertie des énormes alternateurs qui fabriquent l’électricité dans nos centrales thermiques (nucléaire ou charbon ou gaz) et qui, dans tout le pays et même dans toute l’Europe, sont synchronisés et tournent tous ensemble rigoureusement au même rythme. Avec une majorité d’énergies éoliennes et photovoltaïques, assurer cette stabilité est un défi technique extrêmement complexe. Et ce que nous dit le rapport à ce sujet c’est que aujourd’hui, il n’existe pas de solution technique validée à l’échelle de la France. Celles qui existent ne sont qu’expérimentales et à petite échelle.

2) Sécurité d’alimentation

Nous avons besoin d’électricité en permanence. Notre système de production électrique doit donc être capable de fonctionner tout le temps : jour, nuit, été, hiver, aucune pause possible. Pour fixer les idées, en France, cela représente une puissance entre 50 et 100 GW (les variations sont journalières et saisonnières). Or les éoliennes et le photovoltaïque posent un problème évident et absolument majeur : d’où vient l’électricité quand il n’y a pas de vent et pas de soleil ?? Et ce n’est pas rare : en hiver ce genre de situation météo peut durer plusieurs jours (temps couvert & sans vent) et couvrir en même temps une grande partie de l’Europe. La solution est double : il faut stocker l’énergie et il faut adapter la demande i.e. moins consommer quand on manque d’électricité.
– Pour le stockage, le rapport indique qu’aujourd’hui, il n’existe pas de solution mûre techniquement permettant de stocker à grande échelle. La seule solution viable aujourd’hui pour stocker l’énergie en quantité est le stockage d’eau dans des barrages d’altitude (installations STEP). Mais l’énergie hydraulique est déjà exploitée à un niveau proche de son plein potentiel en France.
– Et pour l’adaptation de la demande, le rapport souligne les sévères difficultés d’acceptation sociale que cela représente. En effet qui, où, quand, va accepter d’arrêter d’utiliser de l’électricité quand on en manque et qu’il faut baisser de 50% la consommation ? Quel train on arrête ? Qui est OK pour débrancher son frigo ? Qui va repousser son déplacement pour laisser sa voiture électrique au garage ? Qui va couper son chauffage ? Quelle entreprise va arrêter de produire ?

3) Réserves opérationnelles

Pour fonctionner, un réseau électrique doit avoir de la réserve pour produire de l’électricité très rapidement et en urgence en cas de coup dur (incident dans une centrale ou sur une ligne haute tension par exemple, ça arrive de temps en temps), cela pour éviter ce qu’on appelle le « Black Out », c’est à dire tout le réseau qui tombe parce qu’on ne produit pas assez par rapport à la demande : plus personne alors n’a d’électricité et il faut des heures pour le rétablir. C’est déjà arrivé.
Sur ce point, rien de vraiment problématique dans le rapport.

4) Réseau électrique

Pour pouvoir acheminer l’électricité produite en de multiples endroits (i.e. toutes les éoliennes et tous les panneaux solaire qui fonctionnent en même temps) et la distribuer partout sur le territoire, il faut un réseau électrique adapté : les lignes électriques doivent être partout suffisamment dimensionnées. Or, le réseau actuel est optimisé pour un petit nombre de lieux de production bien connus (les centrales électriques). Il faudrait le renforcer à de multiples endroits et cela nécessiterait des dizaines de milliards d’euros d’investissement (50 à 80 d’après le rapport).

Que conclure ?

Voilà ce que l’on peut conclure de ce rapport : réussir à remplir les quatre conditions est hypothétique, long, complexe et coûteux. Bon, supposons maintenant que nous finissions, dans quelques décennies, par y arriver : développement et déploiement sur tout le pays des solutions techniques nécessaires, acceptation par la population de contraintes fortes, réalisation des dépenses nécessaires. Supposons cela. Alors qu’aurons nous gagné ? Et bien rien. Quasi rien.

Pourquoi cela ? Souvenez-vous de l’objectif poursuivi, sur lequel nous étions d’accord (je le suppose) au début de l’article : la priorité est de réduire les émissions de CO2 pour lutter contre le réchauffement climatique. Or, aujourd’hui, en France, la production électricité est déjà décarbonée à plus de 90%, du fait de nos modes de production : essentiellement nucléaire(4) et hydraulique.

Ainsi, au regard de l’objectif de lutter contre le réchauffement climatique, développer l’éolien & le solaire photovoltaïque et sortir du nucléaire est inutile et ne nous fera quasi rien gagner : aucune baisse substantielle des émissions de CO2 malgré le coût et les efforts accomplis.

Émissions de CO2 par source d’énergie (en mode « analyse du cycle de vie » i.e. tout compris : construction des équipements de production, extraction du combustible (si besoin), production, démantèlement)

A moins de considérer que sortir du nucléaire est un objectif plus fort et plus important que lutter contre le réchauffement climatique – et on a le droit de le penser, cela relève du choix de société, mais alors il faut en assumer les conséquences – il n’y pas de raisons de prioriser une sortie du nucléaire.

En allant un plus loin, on peut même dire que ce débat « nucléaire contre renouvelables » qui occupe le devant de la scène en France est… hors sujet (j’ose !). En effet, la lutte contre le réchauffement est une course contre la montre où chaque jour compte. Or, pendant qu’on débat, on n’avance pas alors qu’il y a tellement d’autres choses à faire pour agir sur la fraction de notre consommation d’énergie qui n’est pas utilisée pour la production d’électricité : 80% de l’énergie que nous consommons est utilisée pour autre chose que fabriquer de l’électricité !
Par exemple, les deux plus importantes sources d’émission de CO2 en France sont les transports et le logement (cf schéma « empreinte carbone des français » ci-dessous). C’est là-dessus qu’il faudrait mettre le paquet de toute urgence : refaire l’isolation thermique de tous les bâtiments, repenser l’aménagement du territoire pour favoriser les « mobilités douces » non émettrice de carbone et les transports en commun, électrifier ce qui peut l’être pour ne plus dépendre des fossiles, etc… Tout cela dans une démarche de sobriété globale (j’ai utilisé le mot « dé-croissance » dans l’article sur l’énergie), indispensable pour, d’abord, stabiliser puis diminuer notre recours aux sources d’énergie.

Bien sûr vous allez me dire (si si je vous entends d’ici) : mais avec le nucléaire, quid du danger des matières radioactives ? quid du risque d’accident ? quid de la gestion des déchets ?
Vous avez raison, ces questions sont évidemment importantes. Et pas simples : elles nécessiteraient un autre article complet, est-ce que cela vous intéresserait ? Si oui, à vos commentaires en bas de cet article pour me le dire ! Bon vite fait, un petit résumé quand même : oui le nucléaire présente des dangers, bien sûr. Mais il est tout à fait possible d’en maîtriser les risques de manière acceptable (je reparlerai de la différence entre « danger » et « risque », ce n’est pas la même chose). C’est en termes de comparaison bénéfices / risques qu’il faut raisonner, en gardant en tête l’épée de Damoclès du réchauffement climatique.
Exemple de raisonnement en bénéfices / risques : l’utilisation de la voiture. Tous les ans en France il y a 3000 morts dans les accidents de la route. La voiture c’est donc un danger n’est-ce pas ? Pourtant vous la prenez quand même, alors que vous mettez votre propre vie en jeu. C’est parce que vous considérez que le risque est suffisamment maîtrisé et faible, au regard des bénéfices que vous retirez de l’usage de la voiture : vous raisonnez en bénéfices / risques.

Pour finir, entendons-nous bien : je ne suis pas en train de dire que le nucléaire est LA solution au réchauffement climatique.
Ce que je dis c’est que :
– Le nucléaire civil est un outil pour nous aider à lutter contre le réchauffement climatique. Nous ne pouvons pas nous permettre de nous en passer : toutes les solutions permettant de diminuer nos émissions de CO2 doivent être mises en œuvre pour avoir une petite chance d’arriver à gagner ce combat. Il faut taper tous azimuts partout où c’est possible pour réduire les émissions. Le défi est déjà extraordinairement difficile alors si en plus on se prive volontairement de certaines solutions, c’est sûr que c’est cuit (sans jeu de mot).
– En parallèle, il faut bien sûr développer les énergies renouvelables partout où c’est pertinent dans le monde. Mais en France aujourd’hui ce n’est pas une priorité car il y a bien d’autres actions à mener d’urgence, beaucoup plus efficientes pour décarboner nos activités (cf ci-dessus : transports, bâtiments, aménagement du territoire, sobriété…).

[clin d’œil] Il est possible d’être écolo sans être anti-nucléaire ! ;-)
Je vous invite à lire cet article qui explique la prise de position de Zion Lights, ancienne porte parole britannique du mouvement Extinction Rebellion, en faveur du nucléaire civil.

Voilà, avec cet article je sors quelque peu de mon rôle de vulgarisateur scientifique. Comme indiqué plus haut, choisir de sortir ou pas du nucléaire relève d’un choix de société et pas d’un choix objectif sur des critères purement scientifiques. Mais la complexité du sujet est telle que ce choix est difficile et complexe. Il faut se donner les moyens de comprendre les tenants et aboutissants pour pouvoir se forger son opinion. J’ai mis des années à me forger la mienne, j’espère vous avoir, un peu, aidé à vous forger le vôtre.

(1) RTE, Réseau de Transport d’Électricité, est l’entreprise qui, en France, a en charge la gestion du réseau de transport d’électricité (i.e. les lignes à haute tension). Historiquement, cette entreprise était une partie d’EDF avant d’en être séparée (filialisation) au début des années 2000, en conséquence de la réglementation européenne sur la concurrence dans le secteur de l’énergie (qui est une erreur monumentale à mon avis, mais c’est un autre débat).
L’AIE est l’Agence Internationale de l’Énergie.

[retour]

(2) Je ne veux pas éluder ou minimiser les autres problématiques environnementales auxquelles nous sommes confrontés : chute de la biodiversité, pollutions des océans, des sols, de l’air , épuisement des ressources… mais clairement le réchauffement climatique les dépasse toutes en terme de globalité de l’impact, d’irréversibilité absolue – à notre échelle de temps – des processus enclenchés et de conséquences négatives sur les populations, d’abord hélas les plus pauvres de la planète mais pas que, loin de là : on parle en centaines de millions, puis milliards, de personnes impactées.
[retour]

(3) Les autres sources de production d’électricité non carbonées sont intéressantes mais hélas non généralisables à suffisamment grande échelle : énergie marémotrice, houlomotrice, géothermie, solaire thermique à concentration, biomasse…
Seul l’hydraulique – avec notamment les STEP qui permettent de faire du stockage – a le potentiel suffisant pour produire en masse de l’électricité décarbonée. Mais en France les sites encore exploitables aisément se font rares hélas. Je vous signale tout de même l’idée de cet étudiant ingénieur en hydraulique de faire une gigantesque STEP en utilisant le lac Léman comme réservoir inférieur et en noyant, à l’aide d’un nouveau barrage, la vallée d’Abondance pour faire le réservoir supérieur (personne n’habite dans la vallée d’Abondance ? … Ah si, en fait !). Une idée qui interpelle.
Et pour ceux qui pensent à l’hydrogène, ce n’est pas une source d’énergie. Ce n’est « que » un vecteur, qu’il faut fabriquer à partir d’une autre source (majoritairement fossile actuellement, mais possible aussi par électrolyse)
Enfin il y a la fusion nucléaire (projet ITER) mais pour l’instant la faisabilité reste très hypothétique. Rendez-vous dans 50 ans pour savoir si c’est toujours le cas ou pas...
[retour]

(4) Ce qui sort d’une tour de refroidissement de centrale nucléaire c’est uniquement de l’eau : une centrale nucléaire produit de l’électricité sans émettre de CO2, contrairement aux idées reçues d’un grand nombre de personnes !
[retour]

[Temps de lecture moyen 6 min]

Nous avons pu observer hier soir samedi 23 janvier dans le ciel Nantais (mais aussi semble-t-il au moins dans une grande partie du ciel Breton) un phénomène spectaculaire prenant la forme d’un gigantesque halo circulaire autour de la lune.

Merci Anne-Laure, auteure de cette photo

Ce phénomène est un « photométéore ».
– Le mot météore signifie : « quelque chose qui se passe dans l’atmosphère ». Car oui, un météore n’est pas un caillou qui tombe du ciel (ça c’est une météorite), même si le langage commun a tendance à faire ce raccourci.
– Le préfixe photo signifie « lumineux », vous aviez deviné.

Les principaux photométéores sont les halos lunaires (celui d’hier soir en est un exemple) et les arcs en ciels. Il en existe toutefois d’autres, voir ici. Une caractéristique intéressante de ces phénomènes c’est que les arcs en ciels et les halos, en fait, et bien… ils n’existent pas ! Je veux dire qu’ils n’existent que dans l’œil de l’observateur. Chaque observateur voit un halo (ou un arc en ciel) qu’il est le seul à voir. Un observateur différent en voit un autre, pas au même endroit.
Intriguant, non ?
Voilà comment cela s’explique.

L’origine des arcs en ciels

Les arcs en ciel se produisent lorsque le soleil brille et que, ailleurs dans le ciel, il pleut. Pour voir un arc en ciel, vous avez noté qu’il faut avoir le soleil dans le dos, et un rideau de pluie devant vous (sans bien sûr être soi-même directement sous la pluie).

Dans ces situations, les rayons du soleil qui viennent de derrière vous rencontrent les gouttes de pluie et entrent dedans, puis se réfléchissent à l’intérieur et repartent en arrière, avec un certain angle fixe par rapport au rayon entrant, ce qui vous permet de les voir.
Nota : S’il n’y avait que cela, les arcs en ciels seraient blancs. Mais il se trouve, en plus, que la réflexion des rayons du soleil à l’intérieur de la goutte est un petit peu différente en fonction de la couleur(*) de la lumière. La lumière du soleil étant un mélange de toutes les couleurs, la conséquence de cela est que les rayons lumineux ressortent décomposés en toutes les couleurs (ce sont « les couleurs de l’arc en ciel » selon l’expression consacrée).

Pour comprendre pourquoi chaque observateur voit son arc en ciel personnel, différent de celui des autres, il faut imaginer que en réalité il y a une multitude de rayons du soleil, qui rencontrent une multitude de gouttes de pluie. Et chaque goutte renvoie en arrière tous les rayons qui lui arrivent dessus. Résultat : il y a plein de rayons renvoyés par toutes les gouttes, c’est le binz ! Seul facteur d’ordre dans tout ça : les rayons renvoyés en arrière ont tous le même angle :

L’observateur Dupond D ne verra que certains des rayons renvoyés en arrière : ceux qui le sont par les gouttes situées en A et B. Il verra un arc en ciel situé vers les gouttes A et B. De même l’observateur Dupont T ne verra que les rayons renvoyés par les gouttes situés en C et D, donc pas les mêmes que Dupond D. Il verra un autre arc en ciel, situé vers les gouttes C et D.
Ainsi, chaque observateur verra son arc en ciel, différent de celui vu par d’autres.

Un arc-en ciel n’a pas de réalité physique, on ne peut pas lui attribuer une localisation dans l’espace (genre « il part au niveau de tel arbre et arrive au niveau de tel maison », par exemple) car il n’existe que dans l’œil de l’observateur. Lorsque l’observateur se déplace, « son » arc-en ciel se déplace avec lui… D’où la vanité de votre quête si vous souhaitez, en suivant ce que dit la légende, partir en quête du trésor enfoui au pied de chaque arc-en-ciel…
[Ah ces scientifiques qui détruisent ainsi les rêves… rabats-joies ! ;-) ]

L’origine des halos lunaires

Les halos lunaires se produisent lorsque la lune est bien visible dans ciel (pas de nuages épais qui la cachent), et que le ciel est légèrement voilé par un fin nuage d’altitude contenant de minuscules cristaux de glaces. Condition supplémentaire, il faut que ces cristaux de glace soient un peu particuliers : le phénomène ne se produit que lorsque les cristaux sont de type hexagonaux. Dans ce cas, les rayons lumineux venant de la lune sont un peu déviés en traversant les cristaux, d’un certain angle fixe. Attention : contrairement aux gouttes de pluie, ils ne repartent pas en arrière. Ils sont seulement un peu déviés mais cela ne les empêche pas de continuer leur route. Il y a aussi un petit phénomène de décomposition de la lumière qui fait apparaître des couleurs, comme l’arc en ciel, mais il est très léger et quasi invisible.

Comme pour l’arc en ciel, chaque observateur voit son halo personnel, différent de celui des autres.
Pourquoi ? Et bien comme pour l’arc en ciel, il y a une multitude de rayons lunaires, qui rencontrent une multitude de cristaux de glace. Et chaque cristal dévie tous les rayons qui lui arrivent dessus. Résultat : il y a des rayons renvoyés dans tous les sens par tous les cristaux, c’est le binz aussi ! Mais il y a le même facteur d’ordre : le fait que tous les rayons sont déviés selon le même angle.

L’observateur Dupond D verra :
certains des rayons déviés par les cristaux : ceux qui le sont par les cristaux situés en A et B,
– certains rayons venant directement de la lune (ils sont passé à travers les cristaux, donc ils ne sont pas déviés,
cela formera donc un halo avec la lune au milieu.

De même l’observateur Dupont T verra les rayons déviés par les cristaux situés en C et D, donc pas les mêmes que Dupond D.

Ainsi, chaque observateur verra son halo, différent de celui vu par les autres.

Conclusion

Voilà cher lecteur, vous savez maintenant que chaque halo lunaire et chaque arc en ciel que vous voyez n’appartient qu’à vous, et à vous seul. C’est le vôtre et pas celui de quelqu’un d’autre !
Sympa non ?

NB : Cette propriété est particulière à certains photométéores tels que les arcs en ciels et les halo lunaires. Pour d’autres météores, par exemple les aurores polaires (boréales ou australes) c’est différent : quand il se produit une aurore quelque part, elle est située à un endroit bien précis dans l’atmosphère, et tous les observateurs voient la même !
Une aurore polaire appartient à tout le monde ;-)

(*) pour les puristes : on parle de « couleur » de la lumière mais on devrait plutôt parler de « longueur d’onde » : une couleur de l’arc en ciel correspond en fait à une longueur d’onde particulière de la lumière.
[retour]

[Temps de lecture moyen 15 min]

Je m’attaque, avec cet article, à un sujet qui m’intéresse depuis longtemps et qui me semble absolument fondamental. Il s’agit du lien intrinsèque qui existe entre consommation d’énergie, émissions de CO2 et croissance économique.

Qu’est ce que l’énergie ?

On utilise beaucoup le mot énergie dans le langage courant, dans de multiples sens : « source d’énergie », « énergie électrique », « énergie renouvelable », énergie fossile », « énergie nucléaire », « vecteur énergétique », « énergie positive », « flux d’énergie », … sont des expressions que l’on entend souvent. Mais au fond, c’est quoi l’ « énergie » ?

Question délicate, essayons d’y voir un peu plus clair.
D’un point de vue physique (nous sommes sur un blog de vulgarisation scientifique, rappelez-vous), on peut considérer que, dans l’univers, l’énergie est ce qui caractérise le changement, en prenant le mot changement au sens le plus large : un objet qui se met en mouvement ou qui s’immobilise, une lumière qui est émise ou absorbée, de la chaleur qui se diffuse, de l’électricité qui circule, des atomes ou des molécules qui interagissent lors d’une réaction chimique, etc… Dès lors qu’un changement se produit quelque part dans l’univers, que « quelque chose se passe » alors il y a de l’énergie qui est mobilisée. Pour que quelque chose se produise dans l’univers, cela nécessite de l’énergie sinon rien ne se produit. Un monde sans énergie serait un monde sans changement, un monde totalement figé. L’énergie est la source de tout.

Appliquons cette définition à notre quotidien terrestre pour mieux comprendre :

  • les être vivants utilisent de l’énergie pour subsister :
    – les plantes pratiquent la photosynthèse et, ce faisant, utilisent l’énergie des rayons du soleil,
    – les animaux – dont nous faisons partie – mangent et utilisent l’énergie chimique contenue dans les aliments (plantes ou autres animaux),
    – les champignons (qui ne font pas de photosynthèse) tirent leur énergie des molécules organiques qu’ils trouvent dans leur environnement,
    – les organismes qui vivent au fond de certains océans sur des sources thermales utilisent l’énergie chimique des sels dissous dans l’eau.
  • une voiture, un camion, un bulldozer, un bateau, un avion, un tracteur utilisent l’énergie chimique contenue dans le carburant issu du pétrole pour fonctionner
  • votre frigo, votre ordinateur, vos ampoules, un train électrique, une usine, un data-center, utilisent de l’énergie électrique apportée par le réseau électrique
  • les centrales électriques thermiques classiques utilisent l’énergie chimique contenue dans le charbon, le pétrole, le gaz pour fabriquer de l’électricité
  • les centrales électriques nucléaires utilisent l’énergie contenue dans les noyaux des atomes d’uranium 235 (exploitation de la fission de ces noyaux) pour fabriquer de l’électricité
  • certaines centrales géothermiques utilisent l’énergie thermique contenue dans de l’eau très chaude présente en profondeur pour fabriquer de l’électricité
  • les panneaux photovoltaïques utilisent l’énergie contenue dans la lumière du soleil pour fabriquer de l’électricité
  • les panneaux solaires thermiques utilisent l’énergie contenue dans la lumière du soleil pour chauffer de l’eau (ou un autre liquide) et produire de l’électricité ou pour d’autres usages
  • les éoliennes utilisent l’énergie mécanique de l’air en mouvement (le vent) pour fabriquer de l’électricité
  • …. etc, etc…

L’énergie est la source de tout.

Les lois de la physique nous apprennent que l’énergie une propriété absolument fondamentale et universelle : elle se conserve. Cela signifie qu’il est impossible de créer de l’énergie (de même qu’il est aussi impossible d’en faire disparaître). La seule chose qui est possible dans l’univers c’est de transformer de l’énergie existant déjà quelque part, c’est à dire de la convertir en une autre forme.
Quelques exemples :
– les animaux transforment l’énergie chimique des aliments qu’ils absorbent en énergie mécanique (le mouvement) et en énergie thermique (chaleur)(*)
– une éolienne transforme l’énergie mécanique du vent en énergie électrique
– une voiture transforme l’énergie chimique de son carburant en énergie mécanique (le mouvement du moteur)
– une usine hydroélectrique transforme l’énergie potentielle de pesanteur de l’eau d’un barrage (due au fait que l’eau est stockée en hauteur par rapport à l’usine) en énergie électrique
– une balle qui tombe sur le sol transforme son énergie potentielle de pesanteur en énergie mécanique (déformation de la balle, rebond) et en chaleur (léger échauffement de la balle et du sol)
– un rayon de soleil qui vous chauffe le visage transforme son énergie électromagnétique en énergie thermique (chaleur de votre peau)
– en tapant en ce moment sur mon clavier d’ordinateur, je transforme l’énergie chimique contenue dans ce que j’ai mangé précédemment en énergie mécanique : le mouvement des muscles de mes doigts.
– en réfléchissant à ce que je tape, mes neurones transforment l’énergie chimique de mes aliments en chaleur (le cerveau est, dans le corps humain, un gros consommateur d’énergie),
– un parachutiste en vol transforme son énergie potentielle de pesanteur- car il est parti de bien haut – en énergie mécanique (mouvement des molécules d’air que son aile déplace) et en chaleur (l’air déplacé s’échauffe très légèrement).
– … etc, etc…

L’énergie est la source de tout… et tout ce qui se passe dans l’univers – en général – et sur Terre – en particulier – est une histoire de transformation d’énergie.
Nous allons voir dans la suite de cet article ce que cela implique pour nous, les humains, et en quoi la question de l’énergie est absolument cruciale.

L’utilisation croissante des sources d’énergie par les hommes au fil des temps

En dehors de l’énergie qu’ils tirent de leur alimentation, les hommes ont commencé à utiliser d’autres sources d’énergie depuis fort longtemps.

C’est Homo Erectus qui a ouvert le bal il y a environ un million d’années, en apprenant à maîtriser le feu. Il a ainsi commencé à utiliser l’énergie chimique stockée dans le bois (en fait l’énergie solaire que l’arbre a exploité pour se constituer grâce à la photosynthèse) pour cuire les aliments et améliorer ainsi leur digestion, pour éloigner les prédateurs, pour s’éclairer, pour durcir la pointe des épieux…

Avec l’invention de l’agriculture il y a environ 8 000 ans au début du néolithique, l’homme se sédentarise et commence à utiliser l’énergie mécanique fournie par les animaux, pour le transport (traction animale) ou pour le labourage.

Pendant l’Antiquité, vers 300 ans av. J.-C., les hommes inventent les moulins à eau pour utiliser l’énergie hydraulique. Ils s’en servent d’abord notamment pour moudre le grain.

Les moulins à vent exploitant l’énergie éolienne sont inventés plus tard en Perse au VIIème siècle, d’abord pour l’irrigation puis aussi pour moudre le grain.

Plus tard, à partir du moyen-âge, les huiles animales et en particulier l’huile de baleine, sont utilisées comme combustible pour les lampes à huile et comme cire pour les bougies.

Au XVIIIème siècle, l’Humanité change de braquet et commence a utiliser le charbon de manière massive, après déjà quelques siècles d’utilisation ponctuelle dans différents endroits du monde pour se chauffer et cuire les aliments (premières traces d’utilisation comme combustible en Chine au XIIIème siècle). Les baleines et les forêts peuvent dire merci au charbon : grâce à cette nouvelle source d’énergie, la déforestation et la pêche massive des cétacés vont connaître un coup d’arrêt important !
Avec le charbon et l’invention de la machine à vapeur, l’Humanité – tout du moins une partie de l’Humanité – accélère son développement et la croissance économique décolle. L’énergie chimique contenue dans le charbon, convertie en énergie mécanique grâce aux machines à vapeur, permet de développer la métallurgie, le chemin de fer, les bateaux à vapeur : c’est la révolution industrielle.

A la fin du XIXème siècle, c’est au tour du pétrole d’entrer en scène : liquide, plus concentré en énergie que le charbon, c’est un carburant idéal, facile à embarquer dans un réservoir, qui va permettre un développement des transports sans précédent : voitures, bateaux, avions, camions, bulldozers, trains diesel… (sans parler de la production d’innombrables nouveaux produits grâce à la pétrochimie : matières plastiques, engrais, médicaments, cosmétiques, solvants, détergents, pesticides…). De nos jours, le pétrole est de loin la source d’énergie principale de la majorité des moyens de transports. Ce faisant, il est en quelque sorte le sang de la mondialisation économique : sans pétrole pour transporter en bateau, avion ou camion les produits fabriqués loin du lieu de leur utilisation, point de mondialisation.

A partir des années 50, le gaz naturel s’ajoute aux charbon et au pétrole. Son arrivée tardive dans le panel des sources d’énergie utilisées massivement par l’Humanité est due à son caractère gazeux qui en complique le transport et la manipulation.

A la même époque, enfin, le nucléaire (fission de l’uranium 235), en tant que source d’énergie permettant de fabriquer de l’électricité, commence à se développer dans certains pays, tout particulièrement en France.

Les sources d’énergie
J’aurais souhaité représenter des pastilles de tailles proportionnelles à l’utilisation actuelle de l’énergie… mais certaines auraient été minuscules donc invisibles…
Retenez que pétrole, gaz et charbon sont les principales, suivi par le bois (encore de nos jours), l’uranium puis l’eau. Les autres sont beaucoup plus faiblement utilisées.

Voici, rassemblée sur un seul graphique, l’histoire de l’émergence des principales sources d’énergie :

Evolution constatée de la consommation totale d’énergie commerciale (c’est à dire hors bois, dont une large part échappe aux circuits commerciaux), depuis 1860, dans le monde, en millions de tonnes équivalent pétrole (Mtep)(une tonne équivalent pétrole = 11600 kWh)
[les autres source d’énergie, non citées, sont dans l’épaisseur du trait…]

Que voit-on sur ce graphique ?
– que les nouvelles sources d’énergie ne remplacent pas les anciennes, elles s’ajoutent,
– que nous sommes encore massivement dépendants des énergies fossiles : elles représentent 85% de l’approvisionnement mondial (proportion stable depuis des décennies).

« Dépendants », vraiment ? Oui, il s’agit bien d’une dépendance : nous, les humains, sommes littéralement accros à l’énergie. Pour comprendre cela, regardons un peu à quoi correspond la quantité d’énergie que nous consommons et ce qu’elle nous permet de faire.

L’énergie, à quoi ça sert ?

Pour cela il faut commencer par avoir quelques ordres de grandeur en tête sur les quantités d’énergies que nous mobilisons dans nos vies quotidiennes.
Pour mesurer les quantités d’énergie(**) l’unité utilisée est le kilowatt-heure (kWh), avec ses dérivés le mégawatt-heure(MWh), le gigawatt-heure (GWh), etc… Comme il est difficile d’imaginer ce que représente un kWh, prenons des exemples :
– monter 2000 m de dénivelé en randonnée = 0,5 kWh environ
– pelleter de la terre pendant 8h depuis un trou d’1m de profondeur : 0,05 kWh environ (les bras d’un homme ou d’une femme sont moins puissantes que ses jambes)
– un an de travail manuel = de 10 à 100kWh environ.

Si on raisonne maintenant en termes de puissance(**), on considère qu’un homme ou une femme peut produire un travail représentant une puissance de 10 à 100 W.
Là où cela devient intéressant c’est quand on rapporte ce chiffre à celui de la puissance développée par les machines, tirée des énergie fossiles :
– un tracteur = la puissance de quelques centaines de personnes
– un camion = la puissance de 4000 jambes en fonctionnement
– un avion = la puissance d’1 million de jambes
– un laminoir industriel = la puissance d’un million de personnes… avec, aux commandes, un seul homme (ou une seule femme) !

Grâce à toutes les machines que nous mettons en œuvre et qui travaillent pour nous, en utilisant de l’énergie, nous décuplons notre puissance de simple homme ou femme et nous sommes capables d’abattre considérablement plus de travail. Pour illustrer cela, certains d’entre vous on peut être entendu leur grands-parents évoquer la révolution qu’a été l’arrivée des tracteurs dans nos campagnes dans les années 50/60 : il est alors devenu possible de faire beaucoup, beaucoup, plus de travail avec beaucoup, beaucoup, moins de bras.

A l’échelle de l’humanité, on peut calculer en utilisant les quantité totales d’énergie utilisées (voir graphique ci-dessus) que l’énergie dépensée par personne est d’environ 20 000 kWh par an. Soit 200 fois plus que l’énergie d’un seul homme (en prenant le chiffre haut de 100kWh par an pour un homme, cf plus haut).
NB : ce chiffre est une moyenne : pour un « occidental » moyen c’est plutôt 500 à 1000 fois et pour les plus riches c’est encore plus.
Dit autrement, chaque être humain a en quelque sorte plusieurs centaines d’ « esclaves énergétiques » qui travaillent pour lui, sous la forme de toutes les machines qui existent dans le monde et qui consomment de l’énergie. Grâce à ces « esclaves », nous pouvons construire des maisons, des routes, des usines, des infrastructures, nous pouvons fabriquer tous les produits manufacturés que nous utilisons au quotidien, nous pouvons nous déplacer en voiture, en train, en avion, nous pouvons bénéficier d’hôpitaux et de médicaments pour nous soigner, nous pouvons dégager du temps pour des loisirs, nous pouvons chauffer nos maisons, nous pouvons produire l’alimentation pour 8 milliards de personnes (sans ignorer que tout le monde hélas ne mange pas à sa faim, mais c’est un problème de répartition plus que de quantité totale de nourriture disponible), etc… etc….

Voilà pourquoi nous sommes accros à l’énergie : c’est grâce à elle qu’une grande part de l’Humanité a atteint le niveau de vie actuel qui, malgré la subsistance d’importantes inégalités, est absolument sans précédent. C’est à l’abondance de sources d’énergies facile à exploiter que nous devons le développement économique : en moyenne 3% par an d’augmentation du PIB depuis 100 ans.

Énergie, émissions de CO2 et croissance économique sont étroitement liés

Le hic, car il y a un hic, c’est que, cette utilisation croissante d’énergie, dont 85% d’origine fossile, s’accompagne d’émissions de gaz à effet de serre proportionnelles, notamment du CO2. Car les lois de la physique sont inflexibles : brûler des combustibles fossiles émet du CO2. Souvenez-vous de vos cours de collège et de celui sur la combustion des hydrocarbures (ah… vous avez oublié… bon c’est pas grave, allez, on peut vivre sans cela ! ;-) ) : pour chaque molécule d’hydrocarbure brulée, une ou plusieurs molécules de CO2 sont émises immanquablement.

Vous voyez le problème ? Les émissions de CO2 sont corrélées à la consommation d’énergie… qui est indispensable au développement économique de l’Humanité. Voici un graphique mettant en relation l’évolution du PIB mondial et l’évolution de la consommation d’énergie :

PIB mondial en milliards de dollars constants de 2018 (axe vertical) en fonction de la consommation d’énergie mondiale en millions de tonnes équivalent pétrole (axe horizontal), pour les années 1965 à 2018.

En bas à gauche le premier point correspond à 1965. En haut à droite le dernier point correspond à 2018. Ce graphique met en évidence le fait que la croissance économique est étroitement liée à la croissance de la consommation d’énergie.
Or, 85% de l’énergie consommée est fossile… la croissance économique entraîne donc mécaniquement la croissance des émissions de CO2.

Une autre façon de présenter cela est le graphique suivant qui montre l’évolution dans le temps (sur une base 1 en 1990) au niveau mondial :
– des émissions de gaz à effet de serre (GHG en anglais) en bleu,
– de l’empreinte matérielle (consommation de ressources et d’énergie) en rouge,
– du PIB (GDP en anglais) en vert.

Il est là le problème que nous avons à résoudre :
si nous voulons lutter contre le réchauffement climatique – et il le faut absolument compte tenu de ses graves et irréversibles conséquences présentes et surtout futures pour l’humanité entière – alors cela implique de questionner la croissance économique car celle-ci implique intrinsèquement la croissance des émissions de gaz à effet de serre (CO2 en principal).


D’aucuns diront que ce raisonnement ne tient pas, que nous pouvons « découpler » croissance économique et croissance des émissions de GES grâce au progrès technologique, grâce aux progrès de l’efficacité énergétique, et entrer bientôt dans l’ère de la « croissance verte ». Malheureusement, ces graphiques montrent que au cours des décennies passées pendant lesquelles l’efficacité énergétique n’a pas cessé de progresser et pendant lesquelles le progrès technologique a été considérable, ce découplage n’a pas eu lieu. Grâce à quel miracle cela serait-t-il possible demain ? De nombreuses voix estiment qu’un tel miracle n’est pas à l’ordre du jour car on en n’entrevoit aucun facteur majeur de rupture franche par rapport aux décennies passées qui le rendrait possible.
Je terminerai en citant une publication récente de l’Agence Européenne de l’Environnement qui va dans ce sens. Une telle lucidité sur ce sujet – bien qu’en des termes diplomatiques – est rare venant d’une instance européenne, connaissant les inclinaisons de la Commission Européenne totalement en faveur de la croissance économique.

« La croissance économique est étroitement liée à l’augmentation de la production, de la consommation et de l’utilisation des ressources et a des effets néfastes sur l’environnement naturel et la santé humaine. Il est peu probable qu’un découplage durable et absolu de la croissance économique et des pressions et impacts environnementaux puisse être réalisé à l’échelle mondiale ; par conséquent, les sociétés doivent repenser ce que l’on entend par croissance et progrès et leur signification pour la durabilité mondiale. »

Source : https://www.eea.europa.eu/themes/sustainability-transitions/drivers-of-change/growth-without-economic-growth (en anglais)

Voilà, cet article est nettement plus long que les précédents… Il faut que je fasse gaffe car j’ai l’impression qu’il y a une certaine inflation de la taille des articles sur ce blog ! ;-)
Mais ce sujet me semble tellement important qu’il méritait ce long article à mon avis. Si vous lisez ceci c’est que vous êtes allé au bout, bravo ! J’espère qu’il vous fera réfléchir. N’hésitez pas à faire part de vos commentaires ci-dessous.

Pour ceux qui veulent approfondir, voici le lien vers une conférence de Jean-Marc Jancovici, ingénieur et membre du Haut Conseil pour le Climat, dont est – notamment – inspiré cet article :
CO2 ou PIB, il faut choisir – « Décarboner, c’est décroître »
(2h25 en incluant les questions/réponses)

(*) La chaleur est une forme d’énergie un peu particulière : c’est la « dernière » des formes d’énergie, celle en laquelle finissent par se transformer toutes les autres formes d’énergie.
Au cours des processus de transformation d’énergie – dont certains sont évoqués dans l’article, mais pas tous car il y en a beaucoup – de la chaleur est produite, comme une sorte de sous-produit inévitable du processus. Ce sont les lois physiques de la thermodynamique qui l’imposent. Par exemple, tous les moteurs – et plus largement toutes les machines – chauffent, c’est inévitable. De ce fait, tous les processus de transformation d’énergie s’accompagnent d’une perte : une partie de l’énergie est transformée en chaleur qui, sauf exception, se perd dans l’environnement et n’est pas réutilisable.

[retour]


(**) Il est facile de s’emmêler les pinceaux entre les watt (unité de puissance) et les watt-heure (unité de quantité d’énergie dont le kilowatt-heure kWh utilisé dans l’article est un simple dérivé x1000). Ce n’est fondamentalement pas du tout la même chose car l’une est un « flux » (la puissance) et l’autre est un « stock » (la quantité d’énergie).
Pour le comprendre on peut faire l’analogie avec l’eau : le débit d’une rivière est un « flux », c’est un défilement permanent d’une certaine quantité d’eau par seconde, qui ne fait que passer et ne reste pas sur place. L’unité de mesure de ce flux est le m3/heure. L’eau d’un lac est par contre un « stock » : c’est une certaine quantité d’eau qui reste à la même place. L’unité de mesure de ce stock est le m3 (mètre cube).
C’est facile à comprendre, mais la subtilité de la comparaison réside dans le fait que dans l’écriture de l’unité, l’heure apparaît différemment pour l’eau et pour l’énergie :
– pour l’eau on parle d’un flux mesuré en mètres cube par heure. Ainsi, 1000 mètres cubes qui passent en 4 heures, c’est un flux de 1000 / 4 = 250 m3/h (on fait une division)
– pour l’énergie, on parle d’un stock mesuré en watt-heure. Ainsi, un flux de 1000 Watt pendant 4 heures représente au total un stock de 1000 x 4 = 4 000 watt-heure (on fait une multiplication).

EauÉnergie
Fluxm3/hW
Stockm3Wh


Retenez que :
– les W expriment une puissance, un flux
– les Wh expriment une quantité d’énergie, un stock


[retour]

[Temps de lecture moyen 3 min]

Comment ça ? Vous ne savez pas ce qu’est le périhélie ? OK alors une petite explication s’impose.

La Terre tourne autour de son étoile, le soleil, vous le savez. L’orbite de la Terre autour du soleil est un cercle, vous le savez aussi. Mais attention, petit détail, ce cercle n’est pas parfait : en réalité c’est une ellipse(*).
Du fait de cette orbite elliptique, la distance entre la Terre et le soleil varie tout au long de l’année : elle passe par un maximum quand la Terre est le plus loin du soleil, puis 6 mois plus tard elle passe par un minimum quand la Terre est au plus près, puis de nouveau 6 mois après par le maximum, etc…

L’endroit de l’orbite de la Terre qui est le plus près du soleil s’appelle… le périhélie, nous y voilà. Et l’endroit le plus loin du soleil s’appelle l’aphélie(**).

Représentation graphique de la position de l’aphélie et du périhélie de l’orbite de la Terre (source).
NB : ces deux termes sont valables aussi pour les autres planètes qui tournent autour du soleil. Elles ont toutes aussi une orbite elliptique.

Le périhélie, comme annoncé en titre, c’est aujourd’hui 2 janvier, à 13h50 UTC(***) : à ce moment précis nous ne sommes qu’à 147 098 291 km du soleil alors qu’à l’aphélie la distance terre-soleil est de 152 098 233 km.
C’est un petit peu contre-intuitif car c’est l’hiver, du moins pour nous habitants de l’hémisphère nord, mais c’est comme ça !


Voilà, il était important que vous sachiez que ce jour est un petit peu particulier, BONNE ANNÉE A TOUS ! :-)

(*) Nous devons la découverte de cette caractéristique des orbites célestes à Johannes Kepler (1571-1630). Il l’a énoncée ainsi :
« Les planètes décrivent autour du soleil des orbites en forme d’ellipse. Le soleil n’est pas au centre de l’ellipse mais sur le côté, en un point nommé «foyer» »

[retour]

(**) Pour ceux qui ont habité Poitiers vers la fin des années 80, vous souvenez-vous de la boîte de nuit qui s’appelait « l’Aphélie » ?? ;-)
[retour]

(***) UTC signifie en français « Temps Universel Coordonné« . C’est l’échelle de temps qui est la référence internationale adoptée par une majorité des pays du globe. Tous les fuseaux horaires du globe sont définis par rapport à cette échelle de temps.
Le fuseau horaire de la France est à + 1h par rapport à UTC (+ 2h en été). En heure française, l’heure exacte du périhélie est donc aujourd’hui 14h50.
NB : anciennement, on appelait « GMT » (Greenwich Mean Time) l’échelle de temps de référence. Elle ne doit plus être utilisée ; aujourd’hui seule la référence UTC basée sur un réseau mondial d’horloges atomiques est officiellement en vigueur.

[retour]

[Temps de lecture moyen 9 min]

Tout le monde le sait : il y a plus de naissances les soirs de pleine lune, n’est-ce pas ? Quasiment toutes les sage-femmes le disent : « les soirs de pleine lune, à la maternité c’est la folie ». D’ailleurs « cela s’explique : la lune peut soulever les océans et produire des marées, pourquoi ne pourrait-elle pas influencer les naissances ?? » dit-on.
Dans cet article, nous allons tâcher d’aiguiser notre esprit critique en essayant de savoir si cela est vrai et si la Lune est aussi influente qu’on le dit.

Commençons par le début : y a t-il effectivement plus de naissances les jours de pleine lune ? C’est facile à savoir : trouver des statistiques des naissances sur internet est simple. Notamment pour la France, toutes les statistiques de naissance depuis des décennies sont disponibles sur le site de l’INSEE. Il suffit de télécharger le tableau nommé « T79JNAIS – Répartition quotidienne des naissances vivantes – Séries  depuis 1968  pour  la  France  métropolitaine, 1998 pour la France entière« .

Connaissant les jours de pleine lune (facile : grâce à l’astronomie, on connait le jour et l’heure de toutes les pleines lunes à la seconde près), il est aisé de répartir toutes les naissances par jour de lunaison. Cela donne le résultat suivant pour les 37 millions de naissances enregistrés dans ces statistiques françaises :

Nombre de naissances par jour de lunaison : le jour 0 est le jour de la nouvelle lune, la pleine lune tombe le 14e ou 15e jour de lunaison (source du graphique)

Que voit-on ? Il n’y a aucune variation significative du nombre de naissance en fonction de la lunaison. Et notamment aucun pic de naissance les jours de plein lune.
Et ce n’est pas une spécificité française : de nombreuses études statistiques sur des millions de naissances ont été réalisées de par le monde, avec la même conclusion systématique et sans appel : aucune influence de la Lune sur les naissances(*).

Du coup… pas la peine de se fatiguer à chercher une explication sur comment la Lune pourrait influencer les grossesses car… il n’y a rien à expliquer ! Les grossesses ne sont pas influencées par la Lune. Voilà.
Toute recherche d’explication (attraction gravitationnelle, phénomène « ondulatoire », « vibratoire » ou autre) est inutile car il n’y a rien a expliquer.

Cet exemple illustre un principe fondamental à avoir en tête : « Assurons-nous du bien du fait avant de nous inquiéter de la cause ».
Ce principe a été énoncé à la fin du 17ème siècle par Bernard de Bovier de Fontenelle à propos d’un enfant, en Allemagne, à qui il aurait poussé une dent soi-disant en or (lire l’histoire ici). Il est très utile et devrait être pour chacun de nous un réflexe intellectuel face à toute affirmation que l’on entend, surtout si cette affirmation sort de l’ordinaire : avant de disserter sur l’explication de tel ou tel phénomène, il faut d’abord vérifier que le phénomène est bien réel ! Et si ce n’est pas le cas, pas la peine de dépenser de l’énergie à chercher des explications : il n’y a rien à expliquer.

Ce principe s’applique à de nombreux sujets, par exemple à celui de l’homéopathie que j’ai abordé dans un précédent article : étant donné que nul n’a jamais ne serait-ce que simplement constaté l’existence d’une efficacité spécifique de ces traitements supérieure celle d’un placebo, il est inutile de perdre du temps et de l’énergie à chercher des explications (« mémoire de l’eau », « effets quantiques », « phénomène vibratoire » ou autre…). Il n’y a juste rien de particulier à expliquer à part l’effet placebo.


Poursuivons avec la Lune et avec un autre exemple d’influence : la croissance des plantes.
De nombreux jardiniers amateurs tiennent compte de la Lune, notamment nos anciens, les revues de jardinage en parlent, des livres et des calendriers sont toujours publiés régulièrement, les principes de la biodynamie incluent l’influence de la Lune (entre autres principes d’influences cosmiques).
La Lune peut soulever les océans et produire des marées, cela explique qu’elle puisse influencer les végétaux, non ? Quand la Lune « monte » alors « son attraction augmente », du coup la sève des végétaux est attirée et la plante est influencée, c’est plutôt du bon sens(**), non ?

Alors, une influence de la Lune sur les plantes a-t-elle été effectivement mise en évidence ? Soyons clair : non, rien de probant.
De nombreuses études ont déjà été réalisées sur le sujet ; des scientifiques et des jardiniers ont, de multiples fois depuis longtemps, procédé minutieusement à des plantations à différentes dates, pendant des années, en prenant soin d’éliminer l’influence des autres facteurs, et la conclusion est claire : aucune influence probante de la Lune n’a été constatée(***). Lisez par exemple ce rapport de la Société Nationale d’Horticulture de France (SNHF) qui a compilé les études sur le sujet.
Si vous voulez jardiner et optimiser vos récoltes, je vous conseille de vous concentrer sur la météo, la bonne saison, le sol de votre jardin, le choix de vos graines et de vos plants, l’arrosage, la lutte contre les ravageurs, l’orientation par rapport au soleil, l’ombre, le voisinage d’autres plantes, etc… cela sera bien plus efficace.
Ceci étant, rien ni personne ne vous empêche de tenir compte de la Lune si ça vous amuse hein… c’est juste que maintenant vous savez que ça n’a très probablement aucune influence ;-)

Il y a de multiples autres exemple d’influence lunaire supposée mais jamais démontrée (liste non exhaustive) :

  • blanchiment du linge :
    dû en fait à la présence de peroxyde d’hydrogène dans la rosée.
  • cycle menstruel des femmes :
    la vague proximité de la période lunaire – 29,53 jours – et de la période du cycle menstruel – entre 28 et 30 jours, variable en fonction de chaque femme et variable en fonction des pays – n’est due qu’au hasard.
  • pousse des cheveux :
    une légende urbaine, rien de plus
  • accidents de la circulation, assassinats, enlèvements, dépressions, crises d’épilepsie :
    rien de plus que de vagues et partielles corrélations sans causalité. Relisez mon article sur Mac-Donald et le COVID-19.

Epilogue

Pour finir, je voudrais rhabiller un peu cette pauvre Lune que j’ai déshabillée sans vergogne dans cet article…

Bien qu’innocente de la plupart des influences qu’on lui prête, la Lune nous est néanmoins indispensable : des études ont montré que sans la Lune, il est probable que la vie n’existerait pas sur Terre ! En effet, la mécanique de l’attraction gravitationnelle qui s’exerce entre la Terre et la Lune a pour conséquence à long terme de stabiliser les mouvements de rotation de la Terre, et notamment l’inclinaison de son axe de rotation. Grâce à la Lune, cette inclinaison responsable du cycle des saisons est quasi stable – autour de 23° – depuis des milliards d’années ; sans la Lune cette inclinaison varierait naturellement fortement, engendrant des saisons extrêmement marquées : torrides en été et glacées en hiver, au point d’être incompatible avec la vie telle que nous la connaissons. Merci la Lune(****) !

Par ailleurs, le cycle des pleines lunes, si nettement visibles tous les 29,5 jours avec ses nuits claires régulières, influence et rythme l’activité de certaines espèces vivantes depuis toujours : certains requins attaquent les nuits de pleine lune (ici), les amphibiens ont une vie sexuelle synchronisée avec la pleine lune (ici), même les humains voient leur sommeil perturbé lors des pleine lunes(ici). Mais jusqu’à preuve du contraire il n’y a là derrière tout cela rien de plus que qu’une influence visuelle de la pleine Lune.

Il a aussi été montré que la Lune pouvait influencer certains volcans (au moins un : le Ruapehu en Nouvelle-Zélande) : la légère déformation de la croûte terrestre résultant de l’effet de marée, bien qu’infime, peut réussir à influencer le réservoir magmatique situé sous le volcan. Compte tenu de la masse considérable de ces réservoirs, l’attraction lunaire devient non négligeable et peut réussir dans certaines configurations très particulières (rarissimes), à influencer le volcan (ici).

Voilà cher lecteur : la Lune est bien une influenceuse… mais il faut faire le tri entre les véritables influences et celles qui sont des croyances populaires très bien ancrées… mais fausses.

(*) Comment se fait-il que beaucoup de sages-femmes soient autant convaincues de l’influence de la Lune sur les grossesses ? L’explication est à chercher du côté des biais cognitifs qui altèrent les raisonnements du cerveau humain.
Statistiquement, pour de multiples raisons qui n’ont rien à voir avec la Lune, le nombre de naissances varie d’un jour à l’autre : certains jours à la maternité c’est calme et d’autres jours « c’est la folie ». Instinctivement les personnes qui travaillent à la maternité vont beaucoup plus facilement se souvenir des jours « de folie » qui tombent sur un jour de pleine Lune (« c’était sûr, aujourd’hui c’était la pleine lune ») que de ceux qui tombent un autre jour (« et bien aujourd’hui quelle journée »… et puis on oublie). C’est ce qu’on appelle le « biais de confirmation » : nous nous souvenons beaucoup plus facilement des évènements ou arguments qui confirment notre croyance que des autres. Ce biais cognitif est extrêmement courant ; il a pour conséquence de nous enfermer dans nos croyances, y compris si elles sont fausses…

[retour]

(**) Il faut se méfier du « bon sens » : en sciences c’est un redoutable ennemi car nos sens ne sont pas du tout adaptés pour comprendre la réalité du monde.
Exemple : si vous sortez dehors et que vous observez le ciel, vous en déduisez immédiatement que le soleil tourne autour de la Terre. C’est du « bon sens » : on « sent » bien et on voit bien que la Terre est immobile et que c’est le Soleil qui bouge, non ? Et pourtant c’est faux, on le sait tous maintenant même si pendant des siècles cela a été controversé car, justement, très contre-intuitif.
Les exemples pullulent : le bon sens nous interdit de penser qu’une particule (un électron par exemple) peut passer en même temps par deux trous différents… et pourtant c’est le cas, cela a été démontré sans équivoque par de très nombreuses expériences.

Autre exemple, le bon sens nous fait penser que même dans le vide une plume toute légère va tomber moins vite qu’une lourde bille de plomb… et pourtant non : faire simplement l’expérience dans un tube dans lequel on a fait le vide
Etc, etc…
[retour]

(***) Un petit mot sur cette histoire d’attraction gravitationnelle qui pourrait « tirer » la sève des plantes vers le haut lors de la pleine lune. Cette idée est très fortement ancrée dans les esprits car elle est très intuitive. Pourtant elle est fausse.
Lorsqu’on regarde l’ordre de grandeur de l’intensité de cette attraction due à la pleine lune, on se rend compte qu’elle est très, très inférieure à l’attraction d’une personne qui passe à côté de la plante, ou celle d’une pierre à proximité, ou encore celle d’un arbre qui pousserait à côté. Elle est infinitésimale et parfaitement négligeable.
Pourtant l’attraction de la Lune peut soulever les marées, non ? Oui, mais il faut savoir que l’intensité de la force d’attraction gravitationnelle (pour les motivés : lire ici) est proportionnelle à la masse des DEUX objets qui s’attirent : la Lune, d’une part, et l’objet attiré, d’autre part. Si la masse de l’objet attiré est très importante, un océan par exemple, alors l’intensité de l’attraction est importante et il y a un effet : les marées. Si elle est très faible (une plante) alors l’effet est nul.

[retour]

(****) Au fait, d’où vient la Lune ? Comment s’est-elle formée ?
L’hypothèse qui aujourd’hui est la plus probable est que la Lune se serait formée il y a 4,5 milliards d’années, peu de temps (60 millions d’années) après la formation de la Terre et du système solaire. Elle serait le résultat d’une collision entre la jeune Terre et un astéroïde gigantesque (de la taille de la planète Mars, environ, d’ailleurs à ce stade on parle plutôt d’une « proto-planète » plutôt que d’un astéroïde). Suite à cette collision, des morceaux de Terre mélangés à des morceaux de l’impacteur ont été projetés en orbite et ont formé des anneaux. Ceux-si se sont progressivement agglomérés pour former la Lune.
[retour]

Illustrations : photos personnelles.

[Temps de lecture moyen 6 min]

Un petit peu « attrape-clic » ce titre, vous trouvez ? Mmoui j’admets ;-)

Je vais vous présenter une carte du monde, tirée du livre suivant, que je recommande au passage à tous ceux qui s’intéressent aux cartes originales et décalées (ceci n’est PAS un placement de produit hein, je n’en suis pas là, juste un conseil de lecture !) :

« Mad Maps » de Nicolas Lambert et Christine Zanin

Ceux qui connaissent un peu la cartographie savent qu’aucune carte n’est une description purement objective d’une réalité géographique. Toutes les cartes ont un parti pris, celui de leur créateur : un cartographe qui créée une carte a toujours une idée derrière la tête, un certain regard sur le monde, qu’il souhaite partager.

Quand, en 1942, l’océanographe et géophysicien d’origine sud-africaine Athelstan Frederick Spilhaus crée la carte ci-dessous, son parti pris est de mettre au centre du monde les régions marines. Symboliquement cette carte a pour but de nous faire prendre conscience de l’importance des mers et des océans sur notre planète. En effet :

  • les mers et océans couvrent 71% de la surface du globe
  • depuis sa formation il y environ 4,5 milliards d’année, la Terre est couverte d’océans
  • la vie sur Terre est née dans les océans il y a quelques 4 milliards d’année ; elle n’a colonisé les terres émergées que tardivement il y a environ 500 millions d’années
  • la majeure partie de l’oxygène que nous respirons a été produit par du plancton vivant dans les océans
  • les océans absorbent 90% de nos rejets de CO2 : nous pouvons leur dire merci, sans eux le taux de CO2 dans l’atmosphère aurait déjà atteint des sommets, avec des conséquences climatiques peu enviables
  • les océans absorbent 90% du surplus de chaleur produit par l’augmentation de l’effet de serre dû aux activités humaines – émissions de CO2, méthane et autres GES – : ils agissent ainsi comme un gigantesque temporisateur du climat (cf l’histoire du tonneau d’eau dans les caves, à la fin de mon article « Une vague de CO2, et alors ?« ) en ne se réchauffant que très lentement malgré ce flux de chaleur (*)

Voilà la carte qu’il a créée :

J’adore cette carte :-)

Mais comment est-elle construite ? Pour le comprendre, imaginez que la Terre est une orange et que sa surface est représentée par la peau de l’orange. Imaginez que vous pelez l’orange pour récupérer la peau et l’étaler sur la table : ce sera votre carte. Pour obtenir la carte de Spilhaus, il faut juste satisfaire les trois petites contraintes suivantes :
– la pelure devra être en un seul morceau (défi pas facile mais c’est faisable… peut-être un peu difficile avec une orange dont la peau épaisse va se casser mais disons avec une clémentine c’est OK, on a tous déjà fait ça, non ?)
– il faut s’arranger pour que la déchirure passe uniquement sur les continents et ne coupe jamais un océan.
– on suppose que la pelure est un peu déformable, sinon il sera impossible de l’étaler sur une table plate.

Observez bien la carte et vous verrez que la déchirure commence en gros en Scandinavie, part vers l’Est à travers la Russie et la Sibérie, traverse le détroit de Béring (petite entorse à la règle de ne pas passer sur l’océan… mais le détroit de Béring n’est pas large, environ 80km pour 50m de profondeur, c’est acceptable) puis redescend vers le sud à travers l’Amérique du Nord, l’Amérique Centrale et l’Amérique du Sud, jusqu’en Patagonie. Un sympathique voyage à faire un jour en vrai, non ? Concrètement, ce voyage reviendrait à faire le tour de cette carte, en fait, soit par un côté soit par l’autre :-))
En déchirant la pelure de la sorte, les continents Europe et surtout Afrique sont épargnés, par contre l’Asie et les Amériques sont littéralement écartelées, tandis que l’Antarctique trône en position centrale, intacte.

Voilà une façon inédite de voir notre monde non ?

Je termine avec un chiffre : 3,42.
Il s’agit, en mm/an, de la mesure actuelle par satellite de la vitesse moyenne(**) de montée du niveau des océans depuis 1993. Soit 3,42 cm en 10 ans, ou 34,2cm en 100 ans, si la vitesse reste constante (mais en fait elle augmente et la hausse accélère). Et cela va continuer ainsi pendant plusieurs siècles, quoi qu’on fasse, parce que nous avons déjà gagné un degré sur le température globale de l’atmosphère et que la conséquence de ce degré déjà gagné est une hausse des océans inexorable dans les siècles à venir. Un chiffre à avoir en tête.
[Source de ce chiffre]

(*) Pourquoi ce réchauffement des océans est-il aussi lent ? C’est à cause de la différence de « capacité thermique » entre l’air et l’eau, qui fait qu’il faut beaucoup plus de chaleur pour augmenter d’un degré la température d’un volume d’eau, que pour monter d’un degré la température d’un même volume d’air. Il est facile de prendre conscience de cela : on sait tous que lorsqu’on allume le feu d’une gazinière, l’air au dessus du feu se réchauffe en quelques secondes, il suffit d’y mettre la main pour le sentir tout de suite. Par contre l’eau d’une casserole mettra de longues minutes à se réchauffer : on peut laisser la main dans l’eau un bon moment avant de devoir la sortir parce que ça devient trop chaud.
Ainsi, malgré le flux de chaleur permanent en surplus causé par l’augmentation des gaz à effet de serre, celui-ci ne fait augmenter la température des océans que très lentement (à notre échelle humaine, du moins).

(**) Cette vitesse moyenne masque des disparités régionales : en fonction des régions du monde la hausse est plus ou moins importante.
Il existe même des endroits où le niveau des océans baisse par rapport au rivage, par exemple en Scandinavie ! Comment est-ce possible ? Et bien c’est parce que dans ces régions le sol monte, plus vite que la mer… La raison de cette hausse du sol est une conséquence de la fin de la période glaciaire, qui date pourtant d’il y a plus de 10000 ans. En période glaciaire, le poids des calottes de glace de plusieurs kilomètres qui recouvrent certaines région enfonce le sol dans le manteau terrestre. En fin de période glaciaire, le sol allégé remonte mais très lentement : il met des milliers d’années à retrouver un équilibre sans poids de glace au dessus de lui.

PS : vous avez remarqué la petite coccinelle, un peu au dessus d’ici, juste avant les notes de bas de page (*) et (**) ??
Clin d’œil à Gotlib : dans ses BD il faut lire les petites histoires de la coccinelle, sinon on loupe quelque chose ; et bien dans mes articles c’est pareil, il faut lire les petites étoiles sinon vous loupez des infos ! ;-)