Voici un petit article pour attirer votre attention sur une vidéo écrite pour le journal Le Monde par Rodolphe Meyer, vulgarisateur émérite et créateur de la chaîne YouTube de vulgarisation scientifique avancée « Le réveilleur ».
Elle permet de comprendre d’où viennent les émissions de Gaz à Effet de Serre (GES) de la France, secteur par secteur, et comment les réduire. Les graphiques animés sont très bien faits et extrêmement clairs, cette vidéo est très pédagogique.
Pour ceux qui ont assisté à ma conférence sur la transition énergétique c’est un bon complément, et pour les autres une découverte que je vous conseille.
https://connaissances.science/wp-content/uploads/2023/05/Trop-de-CO2.png538960Philippe Dazashttps://connaissances.science/wp-content/uploads/2021/12/ConnaissanceS-LOGO.pngPhilippe Dazas2023-05-03 15:11:382023-05-03 15:11:39La France émet trop de CO2
[Temps de lecture moyen 6min]Il semble qu’il fait plus frais lorsqu’on est à l’ombre d’un arbre que lorsqu’on est à l’ombre d’un parasol, d’un toit ou d’un mur, vous avez remarqué ? Est-ce seulement une impression ou bien fait-il effectivement plus frais sous les arbres ?
Vous avez vu ? Il y quelques mois sur les chaînes télé est passée une pub mettant en scène le célèbre paradoxe de l’œuf et de la poule. [Je suis infichu de me souvenir quelle marque ou produit est promu par cette pub ! Les publicitaires n’ont pas si bien travaillé ça… (1)]
La question est célèbre : « Entre l’œuf et la poule, qui est apparu le premier ? » Ça ne peut pas être l’œuf, car un œuf a nécessairement été pondu par une poule existant avant. Ça ne peut pas être la poule non plus, car toute poule est issue d’un œuf. Et pourtant, les œufs et les poules n’existent pas de toute éternité, on est d’accord. C’est un paradoxe, comment en sortir ?? Dans la pub ils éludent la réponse en disant « mystère »…
En réalité ce n’en est pas vraiment un (paradoxe). Et ce n’est pas un mystère non plus. C’est plutôt… une question mal posée, en fait ! En effet, la question est formulée avec des mots qui recouvrent des concepts qui, en réalité, n’existent pas. Ou pas tel qu’on l’imagine. Cette question pose en fait un problème… de langage.
Ce qui n’est pas clair, c’est le sens qu’on donne aux mots « l’œuf » et « la poule » (avec leur article défini devant). Prenons la poule : en réalité « lapoule » … ça n’existe pas ! Ce qui existe c’est des poules. Dans le monde il existe des milliards de poules (au bas mot quelques dizaines de milliards de poules sur toute la Terre). Et les poules, en tant qu’individus, sont toutes différentes : chacune a son capital génétique unique, qui n’appartient qu’à elle, et qui est un peu différent des autres poules. Qui plus est il y a une multitude d’espèces de poules dans le monde, certaines proches des poules que l’on connaît, d’autres relativement éloignées au point que de visu on ne dirait pas instinctivement « c’est une poule ».
A côté de cela il existe des oiseaux, qui pondent des œufs aussi, qui ressemblent à des poules, mais qui n’en sont pas stricto sensu. Et si, de surcroît, on se place d’un point de vue temporel et que l’on regarde l’évolution des espèces au cours des millions d’années, la confusion s’accroit. Au fil du temps qui passe en effet, à chaque fois qu’une poule donne naissance à un œuf, de petites mutations génétiques apparaissent naturellement (2), qui font que le capital génétique d’un œuf n’est pas le même que celui de la poule qui l’a engendré. Ainsi au fil du temps, pour chacune des milliards de poules et d’œufs, les caractéristiques des individus changent et évoluent lentement au fil des générations. En remontant le temps et les générations, les poules ressemblent de moins en moins aux poules actuelles. Il y quelques dizaines de millions d’années, les poules étaient… des dinosaures (3) !
Et si l’on remonte encore le temps, les dinosaures étaient auparavant des reptiles… qui étaient auparavant des batraciens… qui, avant de commencer à sortir de l’eau étaient des poissons… etc.. etc… jusqu’aux premières cellules vivantes capables de se reproduire, apparues dans les océans primitifs… il y a plus de 4 milliards d’années.
Ainsi, dans ce fouillis de milliards d’individus, tous différents, qui se transforment sans cesse au fil du temps et des millions de générations successives, formant un continuum d’évolution depuis les premières cellules vivantes jusqu’à nos oiseaux actuels, en passant par les dinosaures, bien malin celui qui peut définir précisément ce qu’est « la poule » !
Partant de là il est impossible de répondre à la question initiale « Entre l’œuf et la poule, qui est apparu le premier ? » car elle n’a tout simplement pas de sens tant qu’on ne sait de quoi on parle quand on écrit « la poule », ou « l’œuf ».
Pour apporter une forme de réponse, il faut se mettre d’accord sur le sens que l’on donne à « l’œuf » et « la poule » ; si on convient d’aborder cette question du point de vue des espèces et de leur évolution, alors il est clair que la Nature (4) a inventé l’œuf avant d’inventer la poule : il y a 100 millions d’années des dinosaures pondaient déjà des œufs, alors que les poules n’existaient pas encore à l’époque.
Dans ce cas la réponse à la question est que l’œufétait là en premier :
Dans l’histoire de l’évolution des espèces, il y a environ 310 millions d’années, est apparu l’œuf dit « amniotique » (un embryon protégé par une membrane, nommée « amnios »). Cela distingue les reptiles des premiers vertébrés terrestres, les amphibiens, en les rendant capables de pondre hors de l’eau. Puis, environ 10 millions d’années plus tard, est apparu l’œuf protégés par une coquille calcaire ouvrant aux reptiles la colonisation des continents, et la voie à leurs descendants : les dinosaures et les oiseaux.
L’ère des dinosaures s’est étendue de -230 à -65 millions d’années ; les paléontologues s’accordent à dire que c’est au cours de cette période que sont d’abord apparus de petits dinosaures à plumes (vers -150 millions d’années, à la fin du Jurassique), qui ont évolué petit à petit vers leurs formes d’oiseaux modernes : adaptation du squelette et allégement des os, passage du vol plané au vol battu, apparition du bec et disparition des dents (vers -80 millions d’années, à la fin du Crétacé)
Pour en apprendre encore plus sur le paradoxe de l’œuf et de la poule, et comprendre selon quels autres points de vue on peut se placer pour aborder cette question, vous pouvez consulter voici le lien vers la page wikipedia dédiée à ce sujet, très intéressante. Ou pour ceux qui préfèrent, vous pouvez retrouver le même contenu vulgarisé dans cette vidéo de 8 minutes : https://youtu.be/bgDEdevcQ_0
Pour aller un peu plus loin
Beaucoup de questions de sciences qui conduisent apparemment à des paradoxes ou à l’absence de réponse satisfaisante sont en fait… des questions mal posées révélant plus un problème de langage et de vocabulaire qu’un problème scientifique.
Voici un exemple avec la question suivante : « Quel est l’origine de l’univers ?«
Cette question est problématique : le souci vient en fait du sens que l’on donne au mot « origine ». En effet, dans le sens commun, l’origine d’une chose c’est « ce qu’il y a eu au début et qui a permis que cette chose existe, ou qu’un évènement se produise ». Mais en fait cette définition n’est pas satisfaisante… Prenons par exemple l’origine de la guerre 39-45 : c’est l’envahissement de la Pologne par l’Allemagne. Celui-ci est la suite logique de la politique menée par Hitler depuis son accession au pouvoir en 1933. Et son arrivée au pouvoir est une conséquence de l’évolution de la situation politique en Allemagne dans l’entre deux guerres… qui elle même est une conséquence de l’humiliation subie par l’Allemagne à la fin de la première guerre mondiale… etc… La guerre 39-45 est l’aboutissement de cet enchaînement de causes et de conséquences. Prenons l’exemple de l’origine de la vie sur Terre : c’est vraisemblablement la conséquence de l’arrivée d’une ou plusieurs météorites sur Terre, qui ont apporté des molécules de base indispensable à la vie, ou alors c’est la conséquence de processus physico-chimiques qui se sont produits dans les océans ou les flaques d’eau, stimulés par la foudre et les UV du soleil , ou alors les deux à la fois. En tout cas c’est une suite d’évènements qui a abouti à l’apparition de la vie.
Ainsi, quand on parle de l’ « origine » d’une chose ou d’un évènement, on parle en fait plutôt d’un aboutissement, d’une succession d’évènements qui conduisent à ce que la chose existe ou à ce que l’évènement se produise.
S’agissant de la question de l’origine de l’univers, prise dans le sens « que s’est-il passé au début » , si la réponse c’est « une succession d’évènements ayant conduit, in fine, à la naissance de l’univers » alors il y a un problème car la réponse ne décrit pas le début de l’univers, vu qu’il s’est passé des choses avant… Donc on ne répond pas à la question ! Il s’agit donc d’une question mal posée révélatrice d’un pb de langage…
Voilà de quoi vous retourner le cerveau… non non ne me remerciez pas ! ;-) Allez donc écouter ce qu’en dit Etienne Klein dans cette petite conférence (13 min) ou cette plus longue conférence (54 min) sur la notion d’ « origine de l’univers » qui échappe en réalité totalement à notre entendement. Il en parle bien entendu mille fois mieux que moi.
(1) Après vérification… il s’agit d’une pub pour une grande surface… [retour]
(2) C’est une caractéristique intrinsèque du vivant : le processus de transmission du patrimoine génétique n’est pas fiable à 100%. Systématiquement, à chaque génération, de petites mutations génétiques apparaissent spontanément. Cette caractéristique du vivant, fondée sur le hasard, est fondamentale et est à la base de la théorie de l’évolution. [retour]
(3) Les ancêtres des oiseaux sont, d’un point de vue évolutionniste… des dinosaures, cela a été clairement démontré. [retour]
(4) On pourra me reprocher de personnifier la Nature en la mettant avec une majuscule et en sujet d’une phrase dans laquelle le verbe est « inventer ». Avec raison : en effet, la Nature n’est pas une personne ou une entité pensante qui pourrait « inventer » des choses ou avoir une volonté, un dessein (cf les théories religieuses du « dessein intelligent »). Mais c’est pratique de s’exprimer ainsi car tout le monde comprend ! Au passage, nous avons là une autre redoutable problématique de vocabulaire : que recouvre le mot « la Nature » ? Est-ce quelque chose qui est à l’échelle de l’univers dans son ensemble ? Est-ce limité à la Terre ? Est-ce que cela désigne tout ce qui est vivant (en supposant que l’on puisse définir ce mot, c’est loin d’être évident) ? Si c’est cela, est-ce que les environnements dans lesquels vivent les être vivants ne doivent pas être inclus aussi : les rivières, les océans par exemple… ? Est-ce que cela désigne l’écosystème terrestre dans son ensemble ? … Est-ce qu’un caillou fait partie de la Nature ? Un atome d’uranium radioactif ? La lave qui sort d’un volcan ?Un caillou… sur mars ? Pas simple…. Je vous laisse y réfléchir ! [retour]
https://connaissances.science/wp-content/uploads/2022/01/IMG_0331.png359640Philippe Dazashttps://connaissances.science/wp-content/uploads/2021/12/ConnaissanceS-LOGO.pngPhilippe Dazas2022-01-27 20:38:002022-01-31 22:08:18L’œuf ou la poule ?
Le 25 décembre 2021 vers 13h20, le très (très) gros cadeau de Noël de tous les astronomes du monde s’est envolé de Kourou, en Guyane française, à bord d’une fusée Ariane 5 : il s’agit du « JWST » (James Webb Space Telescope), successeur attendu depuis des années du fameux télescope spatial Hubble aujourd’hui en fin de vie. Mais où va-t-il aller se positionner ? Va-t-il simplement tourner autour de la Terre comme Hubble et beaucoup d’autres satellites ? Point du tout : il va aller s’installer à un endroit très précis de l’espace nommé « point de Lagrange ». Mais pourquoi donc ?? Qu’est-ce qu’un point de Lagrange ? Explications !
Les satellites tournent, tournent…
Les satellites, comme Hubble ou le JWST, n’ont pas de moteurs (1). Ils sont lancés dans l’espace à l’aide d’une fusée qui leur donne la bonne vitesse et la bonne trajectoire et ensuite ils continuent leur orbite « sur leur lancée », tous seuls, en mode balistique.
Ils ne peuvent pas rester immobiles dans l’espace sinon ils retomberaient immédiatement : ils sont « condamnés » à tourner autour de la Terre. Pour comprendre cela, repensez au « puits gravitationnel » on fond duquel se trouve la Terre, que j’évoquais dans mon article sur les ricochets de l’espace :
Un satellite ne pourrait pas rester immobile en équilibre sur les parois du puits sans tomber irrémédiablement. Pour éviter la chute, il doit absolument avoir de la vitesse : grâce à l’élan que celle-ci lui procure, il peut tourner autour du puits en bénéficiant de la force centrifuge (2) qui compense la tendance à tomber dans le trou à cause de l’attraction de la Terre :
A la recherche de la meilleure place
Pour pouvoir faire des observations dans les meilleures conditions, le JWST qui emporte des instruments ultra-sensibles doit être le plus possible à l’écart des perturbations lumineuses (3). Or la lueur de la Terre, plus précisément la lueur de la moitié de Terre éclairée par le soleil est une perturbation lumineuse importante pour lui. Pour l’éviter, il faudrait que le JWST soit immobile, du bon côté de la Terre c’est à dire celui opposé au soleil, qui est dans l’ombre en permanence et donc très peu lumineux :
Mais positionner le JWST à cet emplacement et l’y faire rester n’est pas possible car, comme on l’a vu, les satellites sont obligés de tourner autour de la terre sinon ils retombent… Alors comment faire ?
Les points de Lagrange
Considérons la Terre tournant autour du Soleil et oublions tout le reste : les autres planètes, leurs satellites, la lune qui tourne autour de la terre, etc… Faisons comme s’ils n’existaient pas :
Il existe quelques endroits dans l’espace où il est possible d’être immobile par rapport à la Terre et au Soleil. C’est ce qu’on appelle les « Points de Lagrange », nommés en l’honneur du mathématicien Joseph-Louis Lagrange qui les étudia en 1772(4). Il y en a cinq au total.
Le premier est assez intuitif : en effet on imagine facilement qu’entre la Terre et le Soleil, il y a un endroit ou l’attraction du Soleil et celle de la Terre s’équilibrent et où un satellite pourrait se tenir sans bouger. Cet endroit existe en effet, c’est le premier point de Lagrange et il s’appelle « L1 » :
Les deux points de Lagrange suivants, L2 et L3, se trouvent de part et d’autre de la Terre et du Soleil, à la distance adéquate de la Terre (resp. du Soleil) qui permet à un satellite de rester immobile à cet endroit :
Les deux derniers points, L4 et L5, sont peu intuitifs. Les lois de la mécanique céleste (je vous épargne les explications un peu complexes) nous disent qu’ils sont situés sur les côtés, sur les sommets de deux triangles équilatéraux :
Maintenant vous avez peut-être déjà deviné où va aller le JWST : sa destination est le point de Lagrange L2 qui va lui permettre de rester immobile – ou quasiment(5) – par rapport au couple Terre + Soleil (6) et de rester du côté de la Terre opposé au Soleil où on ne voit que la face à l’ombre de celle-ci. CQFD !
Ce point de Lagrange L2 et situé à environ 1,5 millions de kilomètres de la Terre (pour fixer les idées : la distance Terre-Lune est d’environ 300 000 km et la distance Terre-Soleil est d’environ 150 millions de kilomètres)
Le JWST, 10 milliards de dollars pour quoi faire ?
Loin de toute perturbation lumineuse comme vous l’avez maintenant compris, les 4 instruments ultra-sensibles du JWST vont permettre aux astronomes de :
Bien mieux comprendre les premiers temps de l’univers grâce à l’observation de galaxies très anciennes et lointaines :
Améliorer notre connaissance de la formation et du cycle de vie des étoiles en allant voir ce qui se passe à l’intérieur les nuages de gaz et de poussières dans lesquels elle se forment :
Observer directement des planètes en orbite autour d’autres étoiles que le Soleil (les fameuses « exo-planètes ») et étudier la composition de leur atmosphère, avec en arrière-pensée la possibilité d’en trouver une abritant, peut-être, une forme de vie ?
Inutile de vous dire que tous les astronomes du monde attendent ce JWST avec une forte impatience, compte tenu des immenses progrès dans notre connaissance de l’Univers qu’il doit permettre. Il ne sera toutefois pas en place avant plusieurs semaines, le temps qu’il fasse le trajet tout en se déployant petit à petit : lire ici pour en savoir plus sur toutes les étapes de ce déploiement délicat.
JOYEUSES FÊTES ! [Petit challenge : essayez de placer les « points de Lagrange » dans la conversation lors d’un repas de fêtes : si certains d’entre y parviennent, dites-le moi en commentaires ;-) ]
(1) Les satellites n’ont pas de véritables moteurs. Ils ont seulement de petits propulseurs utilisés pour ajuster finement leur orientation dans l’espace ou corriger légèrement leur trajectoire. [retour]
(2) Pour les puristes : la force centrifuge n’existe pas réellement, en tous cas ce n’est pas une « force » au sens habituel. Elle trouve en fait son origine dans l’inertie des objets qui ont tendance à naturellement poursuivre leur mouvement en ligne droite ; quand ils sont « forcés » de prendre un virage, ils « résistent », en quelque sorte, et c’est cela la « force centrifuge » (on parle aussi de force « centripète », en fonction du sens choisi). [retour]
(3) Cette nécessité d’éviter les perturbations lumineuses est la raison initiale pour laquelle on va mettre un télescope dans l’espace. En effet les télescopes classiques subissent les perturbations lumineuses dues à l’atmosphère : nous savons tous que vu de la surface terrestre les étoiles « scintillent », à cause des perturbations dues à l’atmosphère. Cela empêche les observations précises, qui ne deviennent possibles que dans l’espace. On ne peut hélas pas mettre tous les télescopes dans l’espace car cela reviendrait un peu cher… mais on y en a quand même envoyé certains dont Hubble, puis maintenant le JWST. [retour]
(4) Le mathématicien Joseph-Louis Lagrange, en 1772, étudia comment se comporte un petit corps, de masse négligeable, soumis à l’attraction de deux plus gros : par exemple le Soleil et une planète. Il découvrit qu’il existait des positions d’équilibre pour le petit corps, des endroits où toutes les forces se compensent : ce sont les points de Lagrange. NB : cela fonctionne pour n’importe quel couple de corps célestes tournant l’un autour de l’autre. Par exemple il existe aussi des points de Lagrange du système Terre + Lune. [retour]
(5) En fait le JWST ne sera pas complètement immobile au point L2 : il va orbiter légèrement autour de celui-ci, à quelques centaines de milliers de km de distance. Ainsi, il sera sûr de ne pas passer dans l’ombre de la Terre (dans laquelle se trouve, si vous avez bien suivi, le point L2) ce qui garantira que ses panneaux solaires restent alimentés en permanence. A noter au passage qu’il ne sera pas seul là-bas : les satellites Herschel, Planck et Gaïa s’y trouvent déjà, orbitant eux aussi autour de L2. [retour]
(6) C’est là qu’est l’astuce : lorsque que le JWST est au point L2 il est immobile par rapport au couple Terre + Soleil. Mais il n’est pas immobile par rapport à la Terre seule : il tourne bien autour d’elle ! Bon OK il n’est pas facile de se représenter cela concrètement dans l’espace : il faut imaginer que le mouvement de JWST autour de la Terre ET le mouvement de la Terre autour du Soleil se combinent, de sorte que par rapport au couple Terre + Soleil, JWST est immobile. Ainsi il n’y a pas de contradiction avec le fait que les satellites doivent obligatoirement tourner autour de la Terre… [retour]
Sources des photos et articles à lire pour en savoir plus :
https://connaissances.science/wp-content/uploads/2021/12/JWST.jpg410750Philippe Dazashttps://connaissances.science/wp-content/uploads/2021/12/ConnaissanceS-LOGO.pngPhilippe Dazas2021-12-25 14:14:012022-01-26 16:09:19Où est parti le James Webb Space Telescope (JWST) ?
Réponse facile : la température. OK, mais encore : c’est quoi la « température », concrètement ? Si je chauffe un objet et que j’augmente sa température, en quoi cet objet est-il différent ? Qu’a-t-il « gagné » qui fait qu’il est maintenant « chaud » ? Questions saugrenues auxquelles vous n’aviez jamais pensé, n’est-ce pas ? Dans cet article je vais donc vous donner la réponse à des questions… que vous ne vous posiez pas ! Ce blog est décidément indispensable… ;-)
Bon. A votre avis, quelle est la différence physique entre un verre d’eau froide et un verre d’eau chaude ?
Vous aller me dire : l’un contient plus de chaleur que l’autre. D’accord, mais la question n’est que déplacée : c’est quoi la chaleur, concrètement ? On imagine instinctivement que la chaleur est une sorte de « fluide » présent dans la matière, qui peut se propager d’un objet à un autre, ou aussi à un liquide ou à un gaz. Mais en fait non, un tel fluide n’existe pas : si on analyse ce que contiennent les deux verres, le chaud et le froid, par toutes les méthodes possibles, on ne trouve pas de différence. Aucune trace d’un quelconque « fluide » qui serait plus présent dans le verre chaud que dans le verre froid. Les deux verres ne contiennent que… de l’eau. Mais alors c’est quoi la chaleur ??
Si vous avez lu mes articles précédent, vous savez que toute matière, qu’elle soit solide, liquide ou gazeuse est constituée d’atomes :
Les atomes ne sont pas fixes, ils peuvent bouger : – dans un gaz, les atomes sont loin les uns des autres, ils vibrent et se déplacent en permanence et dans tous les sens (et lorsqu’ils sont enfermés dans un récipient, ils se tapent sur les paroi : c’est cela qui crée la pression d’un gaz) – dans un liquide, les atomes sont plus rapprochés les uns des autres mais ils peuvent toujours vibrer et glisser les uns sur les autres (les liquides peuvent « couler ») – dans un solide, les atomes sont fixés les uns aux autres et ne peuvent se déplacer. Par contre ils peuvent toujours vibrer sur place.
La clé de l’énigme est ici, dans les vibrations et les mouvements des atomes au sein de la matière (solide, liquide ou gazeuse) : plus les atomes bougent et/ou vibrent, plus la matière est chaude. Et a contrario, moins les atomes bougent et/ou vibrent, plus la matière est froide.
La chaleur, c’est en fait l’agitation des atomes(*) de la matière. Et c’est cela que mesure un thermomètre : – plus d’agitation des atomes => plus chaud, – moins d’agitation des atomes => plus froid.
Ainsi, dans un verre d’eau chaude, les molécules d’eau simplement sont plus « agitées » que dans un verre d’eau froide. Il n’y a pas d’autre différence !
Le saviez-vous ? L’agitation des molécules plus importante dans l’eau chaude a pour conséquence que celle-ci est moins visqueuse que l’eau froide. Si, si ! Visuellement on ne voit pas la différence, d’accord. Mais il y un moyen simple de s’en rendre compte : à cause de la viscosité différente, l’eau chaude qui coule ne fait pas le même bruit que l’eau froide ! Et ce n’est pas une blague : si vous ne me croyez pas, aller voir cette vidéo…
Comment fonctionne un thermomètre ?
Concrètement, comment fonctionne un thermomètre classique, à alcool, comme nous avons tous à la maison où dans notre frigo ?
Thermomètres à alcool gradués en degrés Celsius et en degrés Fahrenheit (ces derniers sont utilisés presque uniquement aux Etats-Unis)
Les thermomètres de ce type sont constitué d’une tube en verre, muni d’un petit réservoir à l’extrémité inférieure, contenant de l’alcool à l’intérieur(**), coloré en rouge ou bleu pour être bien visible. Lorsque la température augmente, alors les molécules d’alcool s’agitent de manière plus importante ce qui a pour effet de dilater l’alcool car en s’agitant les molécules ont besoin de plus de place : celui-ci monte alors dans le tube. Et vice-versa quand la température diminue. Simple, non ? Ajoutons des graduations sur le côté du tube : – le 0 degrés Celsius en face du niveau d’alcool obtenu quand l’eau gèle, – le 100 degrés Celsius en face du niveau d’alcool obtenu à la température de l’eau qui bout, et voilà : on peut mesurer la température !
Températures minimales et maximale
Allons plus loin : si la température est l’expression de l’agitation des atomes et molécules, on imagine qu’à force de baisser la température d’un objet, on finit par arriver à un minimum quand les atomes et molécules ne bougent plus, non ? Et bien oui, en effet, il existe une température minimale en dessous de laquelle il est impossible de descendre. On appelle cette température limite le « zéro absolu » et elle vaut -273,15 °C. On peut s’en approcher très près en laboratoire, à l’aide d’installations sophistiquées, mais jamais l’atteindre exactement(***)
Par contre il n’existe pas de température maximale : plus les atomes et molécules s’agitent et plus la température monte, monte et peut atteindre des milliers, millions voire centaines de millions de degrés. Il n’y a pas de limitesupérieure théorique.
Attention, piège !
Poursuivons encore avec une petite subtilité qui a un impact concret sur notre quotidien : le principe du fonctionnement d’un thermomètre implique que celui-ci mesure en fait… sa propre température. En effet c’est la température de l’alcool lui-même qui détermine de combien il va se dilater dans le tube. Or, ce n’est pas tout à fait ce que nous attendons d’un thermomètre : ce qu’il nous intéresse en général de mesurer c’est la température du milieu dans lequel le thermomètre est plongé, par exemple celle de l’eau d’un bain avant de s’y immerger, d’un corps humain pour savoir s’il a de la fièvre ou de l’air extérieur pour savoir si on peut aller manger dehors.
Dans le cas général, si on est un peu patient (quelques minutes), un thermomètre finit toujours par atteindre la température du milieu dans lequel il est plongé. Mais dans le cas de la mesure de la température de l’air extérieur, il y a un piège possible car la température du thermomètre peut dans certaines circonstances être notablement différente de la température de l’air ! C’est ce qui se passe si le thermomètre est exposé au soleil : dans ce cas les rayons du soleil traversent l’air, frappent le thermomètre et le réchauffent lui, mais pas l’air environnant… La température mesurée par le thermomètre sera donc bien plus élevée que la température réelle de l’air. Il ne faut donc jamais mettre un thermomètre au soleil, sinon vous perdez tout espoir de mesurer la vraie température de l’air. C’est la raison pour laquelle dans toutes les stations météo dignes de ce nom, les thermomètres sont enfermés à l’ombre dans un abri, bien aéré et de couleur blanche pour refléter les rayons du soleil et ne pas lui-même s’échauffer.
Voilà : vous ne vous l’étiez jamais demandé, mais maintenant vous savez ce qu’est réellement la température. NB La prochaine fois que vous vous verserez de l’eau chaude pour préparer votre thé, écoutez bien le son qu’elle fait ;-) C’est tout pour aujourd’hui !
(*) Dans la matière, les atomes peuvent être rassemblés en molécules, comme par exemple H2O, molécule d’eau constituée d’un atome d’oxygène et deux atomes d’hydrogène. Les molécules vibrent et/ou bougent aussi, comme les atomes, plus ou moins en fonction de leur température. [retour]
(**) ou du mercure (rare, de nos jours : compte tenu de sa toxicité, on évite désormais d’utiliser du mercure). NB : Il existe aussi des thermomètres basés sur d’autres principes physiques que la dilation d’un liquide, mais c’est une autre histoire. [retour]
(***) La raison pour laquelle le zéro absolu ne peut jamais être réellement atteint est qu’il est physiquement impossible de complètement immobiliser un atome ou une molécule : une telle chose est interdite par la physique quantique (ouiiii j’ai réussi a placer l’expression « physique quantique » dans mon blog !). En effet, en physique quantique, la position et la vitesse d’un atome ne sont pas des grandeurs qui peuvent être définies avec une précision aussi grande que l’on veut. Il existe un seuil de précision au delà duquel on en peut pas aller : si on essaie, la matière devient « floue ». Et dans cette situation, on en peut plus connaître exactement la vitesse de l’atome donc il est impossible d’affirmer que celle-ci est nulle, ce qui serait le cas si un atome était rigoureusement immobile. [retour]
Vous avez sûrement entendu parler de la théorie du « pic pétrolier » selon laquelle la production mondiale de pétrole doit passer par un pic puis nécessairement décroître. Toutefois, ce fameux pic dont on parle depuis des décennies semble ne jamais arriver… Alors, qu’en penser ?
La théorie
Commençons par la théorie et allons directement au résultat : oui, un pic de la production de pétrole est totalement inévitable.
La raison fondamentale est que le pétrole est une ressource que l’on consomme en continu et qui n’est disponible que dans une quantité déterminée. En effet la Terre n’est clairement pas infinie (quoique si on demandait aux platistes… non je blague !), et comme le pétrole met plusieurs centaines de millions d’années à se former, il est donc totalement non renouvelable à notre échelle humaine.
Prenez une bouteille encore pleine de vin (expérience de pensée, ne foncez pas tout de suite à la cave), très bon exemple de ressource disponible en quantité déterminée : on est tous d’accord que, à force de se servir des verres de vin dans la bouteille, au bout d’un moment celle-ci sera – hélas – vide et la ressource sera épuisée, OK ? Et bien c’est pareil avec le pétrole, sauf que la bouteille est plus grande. Et que bien sûr l’exemple est trop simple : la bouteille va se finir brutalement avec le dernier verre servi alors que ce ne sera pas le cas avec le pétrole, ce sera beaucoup plus progressif.
Un autre exemple serait plus approprié : celui de la course aux œufs de Pâques, vous savez, quand on lâche une meute d’enfants – voire d’adultes – dans un jardin dans lequel ont été cachés, plus ou moins bien, une certaine quantité d’œufs de Pâques… Si on observe dans le temps, minute par minute, le nombre d’œufs de Pâques ramenés par les enfants, voici ce que l’on constate : – au début ils cherchent mais ne trouvent rien – puis ils commencent à trouver les premiers œufs, les plus gros et les plus faciles, la récolte décolle – en cherchant mieux ils en trouvent encore d’autres, le récolte s’accélère – au bout d’un moment la récolte plafonne car les recherches deviennent plus difficiles… – puis la récolte commence à chuter : ils ont beau chercher, ils n’arrivent plus à trouver beaucoup de nouveaux œufs malgré leurs efforts. Ceux qui restent sont bien sûr les mieux cachés et les plus petits… – après quelques temps ils abandonnent car ils n’arrivent plus à en trouver (alors pourtant qu’il en restait peut-être quelques uns bien planqués…)
Si on dessine un graphique pour visualiser l’évolution dans le temps de la récolte des enfants minute après minute alors on observe une courbe en « cloche » : la récolte part de zéro, décolle, s’accroît, plafonne en atteignant un maximum, puis redescend et finit par retomber à zéro. Quelque chose comme cela (exemple fictif) :
Le graphique de la récolte des œufs de Pâques au cours du temps est un exemple de la courbe théorique que l’on obtient quand on exploite une ressource qui existe quelque part en quantité finie et ne se renouvelle pas : elle s’appelle la courbe de Hubbert et elle a pour caractéristique de partir de zéro, passer par un maximum et retomber à zéro au bout d’un certain temps, inexorablement car la ressource s’épuise.
Notez que le sommet de la courbe peut ne pas avoir la forme « parfaite » d’un pic bien pointu. Elle peut tout à fait se présenter comme une sorte de plateau ondulant, avec des sommets secondaires et des petits creux qui durent un certain temps, avant la chute inexorable.
Le pétrole étant une ressource non renouvelable, son exploitation ne peut que se comporter de manière similaire(*). Le pic pétrolier est donc inéluctable. La question est : quand ? Quand aura-t-il lieu ?
D’où vient le pétrole ?
Avant de revenir sur le pic pétrolier, rafraichissons-nous la mémoire sur l’origine du pétrole.
Il s’est formé il y a plusieurs centaines de millions d’années, au fond des océans de l’époque, par accumulation d’organismes morts (plancton et algues) qui tombent au fond de l’eau. Sous le pression des sédiments et des autres organismes qui s’accumulent par dessus, en l’absence d’oxygène, aux endroits où les conditions sont favorables (climat chaud, proximité d’un grand fleuve charriant de nombreux débris organiques notamment) la matière organique s’échauffe et se transforme alors petit à petit en pétrole et en gaz.
Souvent, le pétrole migre, remonte et se trouve piégé par une couche géologique de roche imperméable qui forme une sorte de réservoir, dans lequel il est facile de pomper : on l’appelle alors du pétrole conventionnel. Il est en accompagné de gaz : pétrole et gaz se forment en effet ensemble dans les mêmes gisements. Lorsque la configuration géologique est telle que le pétrole : . ne migre pas et reste piégé dans la roche dans laquelle il s’est formé, appelée « roche-mère », . ou migre dans du sable au lieu d’un réservoir délimité par une couche géologique imperméable, on l’appelle du pétrole non-conventionnel (« pétrole de schiste », « sables bitumineux »). Il est alors beaucoup plus difficile à extraire, nous y reviendrons.
Au gré des mouvements des continents, conséquences de la tectonique des plaques, les gisements de pétrole (et de gaz) se trouvent aujourd’hui aux endroits de la planète qui, il y a plusieurs centaines de millions d’années, étaient propices à la formation d’hydrocarbures.
Notez que la formation du pétrole est un processus continu : il s’en forme toujours aujourd’hui, à certains endroits au fond des océans actuels, très très lentement. Dans quelques centaines de millions d’années, il sera formé et exploitable ! Mais le processus est tellement lent que, à l’échelle de l’humanité, le pétrole est clairement une ressource non renouvelable. (pour en savoir plus sur la formation des hydrocarbures : pétrole et gaz)
[NB : l’origine du charbon est différente : ce dernier se forme par un processus de décomposition de végétaux (arbres et plantes), dans des zones marécageuses (pour en savoir plus)]
En résumé : – formation du pétrole et du gaz = décomposition de plancton et autres débris organiques au fond des océans durant des centaines de millions d’années – pétrole conventionnel = pétrole qui a migré vers un réservoir et est « facile » à extraire – pétrole non-conventionnel = pétrole qui n’a pas migré sans un réservoir, difficile à extraire
Le pic pétrolier, c’est pour quand alors ?
Alors… ce n’est pas simple. Le sujet de la production pétrolière est même d’une complexité redoutable : il mêle des enjeux politiques, économiques, stratégiques, historiques, techniques, géologiques… à différentes échelles de temps et d’espace, enjeux qui s’intriquent et se perturbent mutuellement. De nombreux acteurs (entreprises du secteur pétrolier, états, organisations internationales, armées des grands pays…) dissimulent des informations voire mentent délibérément sur les chiffres quand il s’agit du pétrole. Pour s’y retrouver il faut accepter d’y passer beaucoup de temps. Dans cette quête, deux livres écrits par Mathieu Auzanneau, un des meilleurs spécialistes français du pétrole, m’ont beaucoup aidé :
« Or noir » , passionnante somme (plus de 800 pages) retraçant toute l’histoire du pétrole depuis les débuts de son exploitation jusqu’à nos jours. Ce livre permet de comprendre que la possession de cette fantastique matière première est un enjeu stratégique qui a profondément marqué l’Histoire depuis plus d’un siècle et est à l’origine de nombreuses crises et conflits dans le monde.
« Pétrole – Le déclin est proche » , écrit avec Hortense Chauvin, un complément à « Or noir » dont l’écriture a été rendue possible par le fait que les auteurs ont eu, de manière exceptionnelle, accès à une base de données pétrolières normalement confidentielle et payante, celle du cabinet de conseil indépendant norvégien Rystad Energy.
Alors ? La réponse à la question sur le pic ? Et bien il s’avère que, très vraisemblablement,le pic de pétrole a… déjà eu lieu !
Voyons cela. Le pétrole existant sur Terre peut être classé en deux catégories principales déjà évoquées ci-dessus :
Le pétrole « conventionnel » : on l’exploite depuis plus d’un siècle. C’est celui dont l’image nous vient à l’esprit naturellement quand on pense au pétrole, c’est à dire un fluide noir et visqueux (mais pas trop) que l’on récupère facilement et à moindre coût en creusant un puits et en pompant.
Le pétrole « non-conventionnel » : c’est un pétrole plus difficile et plus coûteux à extraire car il n’est pas sous une forme liquide facile à pomper. On l’exploite depuis une période plus récente – une petite vingtaine d’années – et il y en a en gros deux types : les pétroles de schistes (Etats-Unis notamment) que l’on extrait avec la méthode – très polluante – de la fracturation hydraulique et les sables bitumineux (Canada, Vénézuela notamment ; il s’agit de pétrole qui a migré dans du sable au lieu de migrer vers un réservoir imperméable : cf photo) que l’on extrait avec un procédé de séparation à l’aide d’eau chaude.
Le pétrole conventionnel
S’agissant du pétrole conventionnel, c’est peu connu mais le pic de production est déjà dépassé depuis plus de 10 ans ! En effet, nous n’avons pas découvert de nouveau gisement important depuis plus de 30 ans, malgré les intenses recherches de toutes les compagnies pétrolières mondiales et les investissements colossaux consentis par celles-ci. Les quantités extraites n’augmente plus et à l’avenir elles ne pourront que décroître, avec peut-être des à-coups, des irrégularités, des petites reprises, mais la tendance sera inexorable : la décroissance progressive, due au fait que l’on exploite – et épuise progressivement – des gisements déjà découverts.
Le pétrole non-conventionnel
La production mondiale totale de pétrole continue à croître année après année, grâce au pétrolenon conventionnel et principalement le pétrole de schiste américain, issu majoritairement du bassin texan nommé « Permien ». Seulement voilà, celui-ci s’essouffle : l’industrie du pétrole de schiste américain n’a quasiment jamais pu être rentable, la faible durée de vie des puits (la production d’un puits chute notablement au bout de seulement quelques mois) oblige à investir sans cesse pour en creuser inlassablement de nouveau et suivre la cadence de production : une folle course en avant. La crise du coronavirus de 2020-2021 pourrait siffler la fin de la partie : selon l’AIE (Agence Internationale de l’Énergie), la chute de la production de pétrole de schiste américain entamée en 2018 s’accélère à cause de l’effondrement des cours du pétrole brut, dû à la crise actuelle, qui dégrade encore plus la rentabilité du pétrole de schiste et a pour conséquence que les entreprises pétrolières n’ont plus les moyens d’investir pour creuser de nouveaux puits. Cette situation est symptomatique des pétroles non conventionnels : ils nécessitent des moyens techniques et donc financiers très importants pour être extraits, ce qui rend très hypothétique, voir irréaliste, l’espoir qu’ils puissent en masse et durablement compenser la chute du conventionnel.
Voilà à quoi ressemble l’évolution de la production de pétrole mondiale depuis les années 50 (scan du dernier livre de M Auzanneau ; désolé pour la piètre qualité de l’image, il est très difficile de trouver d’autres sources de données récentes) :
Le pic de 2008 du pétrole conventionnel est bien visible, suivi d’un « plateau ondulant » globalement décroissant : perte de 4% en environ 10 ans. Un pic global conventionnel + non conventionnel a été observé en 2018-2019, à plus de 95 millions de barils(**) produits par jour (record historique), avant la chute provoqué par la crise sanitaire. Dans les quelques années qui viennent, même si une reprise post-crise est à prévoir, il est très probable que ce record ne sera plus jamais battu (cf ci-dessus les problématiques intrinsèques des pétroles non conventionnels. Pour plus de détails, lisez le livre de M Auzanneau ;-) )
Mais je vous entends tout de même d’ici : qu’est-ce qui nous dit qu’il n’existe pas des gisements importants encore cachés, que nous n’avons pas découverts, conventionnel ou non conventionnel, qui si on les découvre feront repartir la production à la hausse encore une fois vers de nouveaux sommets ?
Et bien il s’avère que c’est extrêmement peu probable :
Les connaissances accumulées depuis plus d’un siècle par les géologues & ingénieurs du monde entier sur les processus de formation du pétrole et l’emplacement des anciens bassins sédimentaires pouvant en contenir sont maintenant fort complètes et la marge d’erreur faible.
S’il existait encore d’importants gisements de pétrole, faciles à exploiter, on les aurait déjà trouvés. Souvenez-vous des œufs de Pâques : on trouve d’abord les gros œufs les moins bien cachés, ceux qui restent non trouvés sont toujours les plus petits et les plus difficiles à trouver. Exemple de ce qu’on trouve aujourd’hui : on a découvert au Brésil en 2007/2009 un gisement exceptionnel de presque 10 milliards de baril (le gisement offshore de Tupi). Cela peut semble énorme mais en fait… non. Ce n’est qu’un petit gisement, comparé à l’âge d’or des découvertes de pétrole, les années 1945 à 1970, pendant lesquelles on découvrait autour de 40 milliards de baril… chaque année.
Il reste encore sous terre des gisements de pétrole non connus, c’est une certitude. Mais ce sont des petits gisements, difficiles à exploiter, coûteux à mettre en production : gisements sous la banquise arctique et/ou à très grande profondeur sous la mer, par exemple. Aucune chance que l’on trouve de nouveau un champ aussi important et prolifique que, par exemple, celui de Gawar en Arabie-Saoudite, exploité depuis les années 50 et pourvoyeur de quantités colossales de pétrole : encore exploité aujourd’hui, le total de sa production pourra in fine s’établir à plus de 100 milliards de barils.
Ces arguments ne sont pas que théoriques : si vous êtes attentifs à l’actualité, vous avez vu passer dans certains médias ces derniers mois des articles à propos des risques qui pèsent sur l’approvisionnement pétrolier européen dans les 10-20 ans à venir (exemple : article dans l’Usine Nouvelle ou Le monde), compte tenu de la baisse prévisible de la production de ses principaux fournisseur. Voici sur un graphique l’évolution prévisible de la production de ceux-ci :
Un pic pétrolier, OK, et alors ?
Première chose : on a donc très vraisemblablement déjà dépassé le pic, certes, mais ça ne veut absolument pas dire que « le pétrole c’est fini » du jour au lendemain. Comme vu plus haut, on entre vraisemblablement dans une période de plateau ondulant, avec des pics et des creux, globalement décroissant mais sans chute brutale (c’est toute la différence avec le bouteille de vin qui se termine d’un coup après le dernier verre bu). Cette période pourra durer pendant plusieurs décennies. On considère qu’il reste sous terre à peu près autant de pétrole « récupérable » que ce que l’Humanité a extrait depuis le début de l’exploitation du pétrole il y a plus d’un siècle. Il reste donc encore largement de quoi extraire (et exploser le taux de CO2 dans l’atmosphère…) mais :
Le pétrole qui reste est au fil du temps de plus en plus compliqué et coûteux à aller chercher, et cela va aller en empirant.
La consommation annuelle n’a cessé d’augmenter au fil du temps : on a mis un siècle pour en extraire environ la moitié mais au rythme actuel – dans l’hypothèse où on aurait la possibilité de le maintenir – il nous faudrait beaucoup beaucoup moins d’un siècle pour extraire l’autre moitié.
Dans tous les cas, nous n’irons jamais chercher tout le pétrole encore existant : il viendra un jour ou il sera beaucoup trop cher et complexe d’aller chercher ce qui reste. Comme des œufs de Pâques camouflés au sommet d’un arbre : jamais les enfants n’iront les chercher car trop hauts, trop compliqué, inaccessible en pratique.
Pour imaginer les conséquences du déclin futur et inexorable, bien que progressif, du pétrole, il faut se poser la question de ses utilisations. On les connaît tous plus ou moins, mais faisons tout de même un tour d’horizon.
L’utilisation du pétrole la plus importante est dans le domaine des transports : 98% des modes de transport sur Terre fonctionnent grâce au pétrole : voitures, camions, avions, bateaux, tracteurs, bulldozers… tous ces modes utilisent très majoritairement le pétrole comme source d’énergie. C’est notamment le cas des bateaux (porte-containers) et camions qui transportent tous les produits manufacturés fabriqués de part le monde. Comment par exemple est arrivé entre vos mains l’objet (téléphone, tablette, ordinateur) qui vous permet de lire ces lignes ? Par bateau et par camion. Et regardez autour de vous les objets situés dans la pièce où vous êtes en ce moment : pour la majorité d’entre eux, bateau et camion… C’est vrai aussi pour une grande part de ce que nous mangeons : les aliments que vous êtes allés acheter dans un magasin, comment y sont ils arrivés ? Camion bien sûr. Et si en plus vous y êtes allés en voiture… Le pétrole est le vecteur grâce auquel circulent quasiment tous les flux de marchandises et d’aliments dont nous dépendons. En ce sens, il est véritablement le sang de notre monde moderne
De plus, le pétrole sert aussi à fabriquer d’innombrables produits et objets de la vie courante, issus de la pétrochimie. On pense tout de suite au plastique, bien sûr, mais sans savoir forcement tout ce que cela recouvre. Voici donc une « petite » revue :
tuyaux rigides (gouttières, etc.), gaines électriques, profilés, huisseries (fenêtres), disques 33 et 45 tours… sont fabriqués avec du polychlorure de vinyle (PVC)
objets pour l’industrie automobile, sacs d’emballage de supermarché, films (travaux publics), tuyaux et profilés, sacs poubelles, articles injectés (ménagers et jouets), sacs congélation sont fabriqués avec du Polyéthylène basse densité (PEBD)
bouteilles et corps creux, tuyaux, fibres, objets moulés par injection sont fabriqués avec du Polyéthylène haute densité (PEHD)
les revêtement des poêles Tefal sont fabriqués avec du Polytetrafluoroéthylène (PTFE)
articles moulés par injection pour les industries automobile, électroménager, ameublement, jouet, électricité, boîtes et bouteilles diverses pour l’alimentation, fils, cordages, films, sacs d’emballage, boîtiers de phare sont fabriqués en Polypropylène
emballages (barquettes blanches), isolation en polystyrène expansé, Bic Cristal (transparent), ameublement (bureau et jardin), jouets, bagages, emballages pour cosmétiques, médicaments et produits alimentaires, contreportes de frigo sont fabriqués avec du Polystyrène (et copolymères associés (ABS) )
les chambres à air sont fabriqués avec du Poly-isobutène (encore appelé caoutchouc butyl)
les pneus contiennent du Polybutadiène (BR)
pneus et joints, amortisseurs, tapis transporteurs, semelles, garnitures de pompes sont fabriqués avec du Styrène butadiène (SBR) ou caoutchouc synthétique
peintures, revêtement de surface, fibres, adhésifs, encres, verrières (vitrages caravanes, avions, bateaux), verres de lunettes, lavabos, baignoires cabines de douches sont fabriqués avec des Acrylates et méthacrylates
fibres d’habillement, pièces mécaniques de frottements, réservoir à essence, seringues sont fabriqués avec des Polyamides (famille des nylons)
les bouteilles de soda sont fabriquées avec du polyéthylène téréphtalate(PET)
mousses rigides (isolation thermique et phonique) et semi-rigides (rembourrage ameublement, garnissage des fauteuils), revêtements et adhésifs, vernis, peintures, enduction pour rideaux, tentures, bâches et stores sont fabriqués avec du Polyuréthane
casques de motos, bidons, bouteilles, biberons, moulinets de canne à pêche, verres de sécurité, boîtiers photos, feux clignotants sont fabriqués avec du Polycarbonate
les routes goudronnées sont construites avec du bitume (liant pour le gravier, issu de la fraction la plus lourde du pétrole)
les lubrifiants, huiles, graisse, paraffine sont fabriqués à partir de la fraction la plus lourde du pétrole
l’aspirine, certains antibiotiques, la « moutarde azotée » (traitement de cancers), mais aussi de nombreux antihistaminiques, antibiotiques, médicaments psychotropes, sans parler des liants de comprimés, revêtements de pilules, bouchons et autres emballages sont fabriqués avec du benzène.
…. (liste non exhaustive)
Cette liste est éloquente : le pétrole est une matière première extraordinaire, sur laquelle a reposé massivement le développement de nos sociétés depuis plus d’un siècle. D’une part il est un concentré d’énergie facile à emporter (il suffit d’un simple réservoir) ce qui explique qu’il soit la source d’énergie de quasiment tous nos modes de transport, d’autre part les longues chaînes carbonées de ses molécules sont une matière première idéale pour fabriquer de très nombreux objets, produits, médicaments… utilisés au quotidien. C’est tout cela qui est remis en question par le déclin progressif du pétrole que nous allons vivre dans les prochaines années et décennies. Cela va impacter nos sociétés de manière considérable même s’il est difficile de prévoir précisément qui, où, quand, comment.
Afin de limiter les conséquences négatives de ce déclin pétrolier inexorable, il est hautement souhaitable de l’anticiper activement et de s’y préparer, sachant de plus que, pour lutter contre le réchauffement climatique, nous savons qu’il faut de toutes façons sortir des sources d’énergies fossiles, dont le pétrole, le plus rapidement possible.
Epilogue
L’économiste Jean-Baptiste Say écrivait en 1803 dans son Traité d’économie politique : « Les ressources naturelles sont inépuisables, car sans cela nous ne les obtiendrions pas gratuitement. Ne pouvant être ni multipliées ni épuisées, elles ne sont pas l’objet des sciences économiques. » L’exemple du pétrole(***) montre que ce postulat sur lequel est construit tout notre système économique est évidemment faux car il ne tient pas compte de la réalité physique de notre monde fini.
(*) Nota : vous savez peut-être que des procédés de fabrication de pétrole synthétique existent. Leur mise en œuvre à grande échelle pourrait changer la donne, non ? En réalité, cela ne ferait que reporter la question sur les autres matières premières (charbon, gaz, biomasse) nécessaires à leur mise en œuvre, sans parler de la très grande quantité d’énergie nécessaire pour ces procédés. En l’état actuel des technologies et des connaissances, ces alternatives ne représentent pas une solution viable à grande échelle. Rappelons que la quantité de pétrole consommée par l’ Humanité est de l’ordre de 90 millions de barilschaque jour. ce qui représente une quantité absolument colossale. Qui plus est, ces alternatives sont au moins autant émettrices de CO2 que le pétrole, ce qui est à remettre dans le contexte de la lutte contre le réchauffement climatique qui nécessite une baisse drastique et massive des émissions de GES pour en maîtriser les effets indésirables (le mot est faible). [retour]
(**) Un baril = environ 159,99 litres de pétrole (merci les anglo-saxons pour leur unités tarabiscotées…) [retour]
(***) Le pétrole n’est qu’un exemple : de nombreuses autres ressources terrestres sont non renouvelables et connaîtront aussi leur « pic ». C’est le cas de tous les minerais que nous extrayons du sol : aluminium, cuivre, zinc, terres rares (qui ne sont en fait pas « rares » !), uranium, platine, lithium, cobalt…. Chacun de ces minerais nécessiterait à lui tout seul un article entier tant les situations sont diverses et complexes. Pour certains les quantités disponibles sont encore considérables, pour d’autres le pic est proche. [retour]
Bibliographie / webographie
Livres : Mathieu Auzanneau avec Hortense Chauvin « Pétrole – Le déclin est proche » (Ed° Seuil) Mathieu Auzanneau / « Or Noir » (Ed° La Découverte)
Dans le nuit du vendredi 1er au samedi 2 octobre, la sonde spatiale nommée BepiColombo(*), destinée à l’étude de Mercure (planète de notre système solaire la plus proche du soleil), est passée tout prêt de sa planète de destination, à environ 200 km de distance. Mais… elle ne s’est pas arrêtée ! Elle a continué sa route à toute vitesse et est partie faire un tour dans l’espace… jusqu’en 2024/2025, date à laquelle elle reviendra se mettre progressivement, enfin, en orbite autour de Mercure. Mais pourquoi donc passer sans s’arrêter ? Panne de freins ? Envie soudaine de liberté et de continuer à voyager ? Rien de tout cela : poursuivez la lecture et vous saurez tout !
Voyager dans l’espace
Dans les films, les voyages dans l’espace c’est simple : on décolle d’une planète, on allume les moteurs et hop, destination une autre planète où on arrive en quelques minutes (grâce aux « passages en vitesse lumière » comme dans Starwars) avant de s’y poser tranquillement…
Dans le monde réel c’est un plus compliqué. Outre le fait que les « passages en vitesse lumière » ça n’existe pas (dommage !), il faut composer avec les lois de la gravitation qui sont redoutablement enquiquinantes…
La force de gravité, on l’expérimente tous dans notre vie sur Terre : la gravitation a pour conséquence, on le sait, que la Terre attire tous les objets qui tombent irrémédiablement à sa surface. Et quand on veut s’élever, cela nécessite de l’énergie : – sauter en l’air à 1m de hauteur demande une bonne dose d’énergie musculaire, – monter à quelques kilomètres de hauteur nécessite un avion et une bonne quantité de kérosène, – aller dans l’espace nécessite une fusée et des centaines de tonnes de carburant… Tout se passe comme si la Terre était au fond d’une sorte de « puits gravitationnel » : – tous les objets sont attirés vers le fond, – plus on veut monter pour s’éloigner du fond voire sortir du puits, plus il faut faire des efforts et dépenser de l’énergie.
Tous les corps célestes sans exception ont leur puits gravitationnel, notamment le soleil : celui-ci est au fond d’un puits gravitationnel bien plus grand et profond que celui de la Terre compte tenu de la masse considérable du soleil. Le puits gravitationnel du soleil est grand comme le système solaire entier !
Faisons un petit résumé avant de continuer : – pour s’éloignerd’un objet céleste (Terre, Soleil…), il faut de l’énergie. Concrètement, il faut accélérer le plus possible pour augmenter sa vitesse et sortir du puits gravitationnel. – a contrario, si on veut se rapprocher d’un corps céleste, alors cela revient à « tomber » vers le fond du puits… il faut alors freiner pour éviter de prendre de la vitesse, sinon l’abordage avec la planète va mal se passer…
Voilà le problème des voyages spatiaux : ces fichus puits gravitationnels dont il faut sortir ou dans lesquels il faut rentrer !
A l’échelle du système solaire, quand on veut envoyer des sondes vers d’autres planètes depuis la Terre, il faut donc :
1) D’abord sortir du puits gravitationnel de la Terre, facile, c’est la fusée qui fait le boulot en acquérant une vitesse suffisante (environ 40 000 km/h) grâce à son carburant.
2) Ensuite ça se complique, il faut tenir compte de l’énorme puits gravitationnel du soleil et il y a deux cas : A – pour atteindre les planètes plus loin du soleil que la Terre (Mars, Jupiter, Saturne, Uranus ou Neptune), il faut s’éloigner du soleil et donc accélérer pour remonter le puits B – pour atteindre les planètes plus proches du soleil que la Terre (Vénus ou Mercure), il faut se rapprocher du soleil : la vitesse va naturellement augmenter car on tombe dans le puits et il va falloir freiner
Comment fait-on pour accélérer ou freiner ? On pourrait utiliser les moteurs de la sonde, mais cela consommerait beaucoup de carburant et cela serait embêtant car plus il faudrait alors en emporter bien plus dans la sonde et donc utiliser une fusée plus lourde, et donc plus chère, pour s’extraire du puits gravitationnel de la Terre. Donc non, pas les moteurs. On utilise en fait une autre solution très astucieuse que l’on va voir maintenant. Et vous allez ainsi comprendre le titre « les ricochets de l’espace » ;-)
Fronde et freinage gravitationnel
Dans les années soixante, les spécialistes en mécanique céleste ont proposé d’utiliser, pour accélérer ou freiner une sonde spatiale, le fait de la faire volontairement passer à proximité d’une planète. Qu’est-ce à dire ?
Lorsqu’une sonde en cours de voyage, déjà bien lancée avec une bonne vitesse, passe à proximité d’une planète, alors elle tombe un peu dans son puits gravitationnel avant d’en ressortir, sur une trajectoire déviée par rapport à sa trajectoire initiale.
L’astuce est que si on se débrouille pour aborder la planète sous le bon angle et du bon côté, alors il est possible de modifier non seulement la trajectoire de la sonde, mais aussi la vitesse : on peut ainsi accélérer ou freiner !
Comment ça marche ? Et bien sachant que les planètes se déplacent (en tournant autour du soleil) et ont donc une vitesse propre, le principe est le suivant :
Accélérationgravitationnelle (ou « fronde » gravitationnelle) Si la sonde aborde la planète en passant derrière elle (dans son « sillage » en quelque sorte) par rapport au déplacement de la planète, alors la sonde sera accélérée. En effet, en passant derrière la planète tandis que celle-ci s’éloigne en avançant, l’attraction de la planète va attirer la sonde vers l’avant : cela va l’accélérer, comme le fait une fronde qui lance une pierre, d’où le nom de « fronde gravitationnelle ».
Freinage Si la sonde aborde la planète en passant devant elle par rapport au déplacement de la planète, alors la sonde sera freinée. En effet, pendant que la sonde passe devant la planète tandis que celle-ci continue d’avancer, l’attraction de la planète va l’attirer vers l’arrière : cela va la freiner.
Et voilà l’histoire. Toutes les agences spatiales utilisent cette astuce pour envoyer leurs sondes vers des planètes éloignées : pour les atteindre, les sondes « ricochent » sur les planètes rencontrées en chemin, souvent plusieurs fois de suite, pour freiner ou accélérer suffisamment.
Cette méthode a commencé d’être utilisée dans les années 70 avec les sondes Pioneer 10 et 11, lancées respectivement en 1972 et 1973, puis systématiquement sur quasi toutes les sondes lancées ensuite.
Encore plus fort : fréquemment, le premier ricochet est sur la Terre elle-même peu de temps après le départ de la sonde ! C’est à dire qu’on lance la sonde, elle commence son voyage sans trop s’éloigner de l’orbite de la Terre, puis quelques mois après la sonde repasse à proximité de la Terre et là, paf, ricochet ! De même en arrivant à destination : la sonde passe une première fois à proximité de la planète de destination, un ricochet en passant pour freiner, ensuite encore un petit tour dans l’espace avant de repasser près de la planète quelques mois plus tard pour se mettre en orbite. C’est précisément ce qu’a fait Bepi-Colombo, sauf qu’il lui faudra en fait plusieurs passages de freinage près de Mercure pour réduire suffisamment sa vitesse.
Voici une vidéo montrant tout le parcours suivi par Bepi-Colombo depuis son départ de la Terre. Chaque ricochet est visible par un petit rond qui apparaît fugacement à chaque passage à proximité d’une planète. Sur la vidéo on voit le soleil au milieu, ensuite Mercure et son orbite, puis Vénus et son orbite et enfin la Terre et son orbite (le plus grand cercle), d’où part la sonde (en blanc). Vous verrez que la sonde fait en réalité 9(!) ricochets de freinage en tout, – 1 sur la Terre, – 2 sur Vénus, – 6 sur Mercure, avant de se mettre définitivement en orbite ! C’est dire que pour arriver sur Mercure, très proche du soleil, quasiment au fond du puits gravitationnel de celui-ci, il faut sacrément freiner. Pour les amateurs de ski, imaginez une piste noire que vous descendez : il vous faut enchaîner de nombreux virages pour freiner et arriver en bas sans trop de vitesse…
(mettez la vidéo en pleine écran et essayez de compter les ricochets ;-) )
C’est tout pour cette fois, j’espère que cette histoire de ricochets de l’espace vous aura intéressé !
(*) Seulement deux sondes ont exploré Mercure jusqu’à aujourd’hui : Mariner 10 dans les années 1970 et Messenger dans les années 2010-2015. La mission BepiColombo a pour objectif d’étudier la surface et l’intérieur de Mercure, planète assez mal connue du fait de la difficulté de l’observer avec des télescopes depuis la Terre (Mercure est trop proche du soleil et donc noyée dans la lumière de celui-ci) et d’y envoyer & d’y faire fonctionner des sondes : éloignement, températures élevées (350°C) dues à la proximité du soleil. La mission Bepi-Colombo a été nommée en l’honneur du professeur Giuseppe (Bepi) Colombo (1920-1984) de l’Université de Padoue (Italie), mathématicien et ingénieur, qui a contribué à la mission Mariner 10.
Appuyer sur un bouton et allumer la lumière. Facile. Banal. Quotidien. Mais nous avons en fait oublié, ou simplement nous ignorons, tout ce qui rend ce simple geste possible… C’est l’objet de cet article, dans lequel nous parlerons aussi de transition énergétique et de sources d’énergies électriques. C’est parti !
[message à mes abonnés : désolé pour la coquille dans le mail que vous avez reçu (« comme ça marche ») ! ;-) ]
Qu’est ce que l’électricité, au juste ?
Si vous avez lu mon article sur le nucléaire, vous avez retenu que les atomes, constituants de la matière, sont constitués d’un noyau et d’électrons qui tournent autour :
Il se trouve que dans certains matériaux dits « conducteurs », comme les métaux, certains électrons ont la particularité de pouvoir « sauter » d’un noyau à l’autre, puis au suivant, etc… et ainsi de se déplacer de manière continue, formant un « fleuve » d’électrons dans la matière.
L’électricité est un flux d’électrons qui se déplacent dans un matériau conducteur, comme un torrent coulant entre les rochers...
Fabriquer de l’électricité
Et qu’est-ce qui pousse les électrons à se déplacer ? Nous devons au physicien britannique Michael Faraday d’avoir découvert, en 1831, qu’un aimant peut « pousser » les électrons et les forcer à avancer dans un fil conducteur. Voilà la clé : déplacez un aimant à proximité d’un fil conducteur et ainsi, en poussant les électrons avec le champ magnétique de l’aimant, vous allez créer un courant électrique dans le fil ! C’est sur la base de ce principe que fonctionnent les alternateurs (on verra plus loin pourquoi on les appelle ainsi) situés dans les centrales électriques, les nacelles d’éoliennes ou les dynamos de vélo…
Ce qui rend l’électricité si extraordinaire et pratique c’est le fait que, à l’intérieur d’un fil conducteur, les électrons sont guidés dans le métal et sont « poussés » par le champ magnétique des aimants de l’alternateur sur une très grande distance, loin de celui-ci : des dizaines voire des centaines de kilomètres ! Il y a par contre une condition indispensable pour que cela fonctionne : les électrons doivent revenir à leur point de départ pour boucler la boucle. C’est pour cela que l’on parle de circuit électrique et c’est la raison pour laquelle dans vos prises électriques il y a toujours au moins deux fils : un pour l’aller des électrons et un pour leur retour… Tous les réseaux électriques du monde sont faits ainsi : en partant des alternateurs, dans les centrales électriques (1), et jusqu’à tous les équipements électriques (prises de courant, moteurs, lampes, …), il y a toujours au moins deux fils.
Pourquoi le courant est-il dit « alternatif » ? Les propriétés d’un aimant sont telles que celui-ci comporte nécessairement deux « pôles » appelés Nord et Sud, qui se comportent différemment : l’un « pousse » les électrons dans la bobine comme je l’ai indiqué ci-dessus, mais l’autre « attire » les électrons… Vous comprenez ainsi que lorsque l’aimant fait un tour complet, les électrons sont successivement – je devrais dire alternativement – repoussés puis attirés. Le courant électrique généré dans le fil ne va donc pas tout le temps dans le même sens : il va la moitié du temps dans un sens et l’autre moitié du temps dans l’autre sens. D’où l’appellation « courant alternatif », « alternateur »… Le courant que vous délivre votre fournisseur d’électricité est du courant alternatif, qui fait un aller-retour 50 fois par seconde. On dit qu’il a une « fréquence » de 50 Hertz (Hz). C’est le cas de tous les fournisseurs d’électricité du monde entier, avec toutefois une fréquence qui peut être différente : 60 Hz en Amérique du Nord, par exemple (en savoir plus).
L’électricité : un formidable vecteur pour transporter de l’énergie
L’énergie produite (2) dans les centrales électriques (énergie d’origine fossile, ou nucléaire, ou hydraulique, ou solaire, ou éolienne…) est transportée via le réseau électrique jusqu’aux appareils électriques qui vont l’utiliser : vos ampoules, votre machine à laver, un train électrique, un moteur, une usine…. Simple et pratique, il faut « juste » des fils électriques.
L’électricité, c’est le « circuit court » de l’énergie : directement du producteur au consommateur !
Peut-on stocker l’électricité ?
Sur le lit d’une rivière, on peut créer un barrage pour stocker de l’eau et la relâcher à volonté en ouvrant les vannes. Sur un circuit électrique, c’est impossible : les lois de la physique imposent que les électrons doivent s’écouler car il n’existe pas de « réservoir » d’électrons que l’on pourrait remplir et vider à volonté. Un stock d’électrons pleins d’énergie et prêts à se ruer dans les fils pour générer de l’électricité, hélas ça n’existe pas ! (3).
Pratiquement, il n’est pas possible de stocker de l’électricité.
Le réseau électrique : un fonctionnement « tiré par la demande »
Chez vous, quand vous appuyez sur un bouton pour allumer une lampe, ou quand vous lancez une lessive sur votre machine à laver, qu’est-ce qui se passe ? Concrètement, cela revient à raccorder un nouvel appareil (lampe, machine à laver) au réseau électrique, dans le but que le flux d’électrons du réseau traverse votre appareil et le fasse fonctionner. Cela constitue une demande d’électricité sur le réseau. Pour que cela fonctionne il faut que, dans le réseau, au niveau des centrales électriques, la production électrique augmente en proportion, pour pousser ces nouveaux électrons dont vous avez besoin. Sinon, il n’y a pas assez d’électrons pour tout le monde !
Une demande d’électricité entraîne donc instantanément la nécessité d’une production équivalente dans les centrales électriques (4). Dit autrement, le fonctionnement du réseau électrique est « tiré par la demande ». Le contraire est difficilement concevable : peut-on imaginer qu’il faille attendre que les centrales décident de produire de l’électricité pour avoir de la lumière, faire tourner une lessive, faire avancer un train, faire tourner une usine, etc… ?? (5)
Bien sûr, par rapport à la capacité de production de toutes les centrales électriques françaises, votre lampe ou votre machine à laver représentent une toute petite demande d’électricité qui va en fait passer inaperçue. Mais ce n’est pas le cas si on cumule toutes les ampoules et toutes les machines à laver de tous les français ! Ainsi par exemple, chaque jour en semaine vers 19h quand globalement la majorité des gens rentrent chez eux et allument la lumière, montent un peu le chauffage électrique, allument la plaque à induction… alors il y a un surplus de demande d’électricité et la production des centrales électriques doivent s’adapter pour produire plus. En réalité, c’est même tout au long de la journée que les centrales doivent s’adapter, en fonction des usages… Pour illustrer cela, voici un graphique qui montre l’évolution de la puissance électrique en France sur un jour ouvrable moyen :
Vous le voyez, le pic de 19h-20h ? On peut remarquer aussi que :
le pic est moins prononcé en été (moins besoin d’éclairage),
la consommation est moins importante au milieu de la nuit (les fameuses « heures creuses » de moindre activité dans les foyers et les lieux de travail, pendant lesquelles l’électricité est moins chère)
la consommation augmente fortement le matin (démarrage de l’activité sur les lieux de travail)
la consommation est globalement bien moins importante en été (moins besoin de chauffage),
En France, c’est RTE et son Centre National d’Exploitation du Système (CNES) qui est chargé de l’adaptation, seconde par seconde, de la production électrique nationale à la demande, en liaison permanente avec toutes les centrales de production électrique.
Le fonctionnement du réseau électrique : un équilibre constant et une synchronisation permanente
[NB Ce paragraphe est un petit peu technique. Vous pouvez zapper si vous voulez ! C’est dommage, mais vous pouvez sauter au paragraphe suivant directement sans que cela ne nuise à la compréhension de la suite ;-) ]
Nous l’avons vu ci-dessus : la quantité d’électricité produite par toutes les centrales doit s’adapter en permanence pour équilibrer la demande et répondre à celle-ci.
Allons un petit plus loin.
Saviez-vous que toutes les centrales fonctionnent toutes ensemble de manière parfaitement synchronisées (en France et même dans toute l’Europe vu que les différents réseaux nationaux européens sont interconnectés) ? Concrètement, tous les alternateurs tournent tous exactement à la même vitesse et ils sont tous en phase : dans toutes les centrales, au même instant précis, tous les aimants des alternateurs (6) poussent les électrons en même temps, puis tirent les électrons en même temps ! Et cela 50 fois par seconde. Lorsqu’une centrale démarre, son alternateur doit d’abord se mettre pile à la bonne vitesse, en phase avec le réseau, et ensuite il se raccorde au réseau pour fournir son électricité. C’est ouf, non ?
Cette synchronisation de tous les alternateurs est fondamentale, elle est au cœur du fonctionnement du réseau. Elle est intrinsèquement liée au bon fonctionnement de celui-ci. C’est comme si tous les alternateurs étaient liés ensembles, ils ne peuvent pas faire autrement que de tourner de concert.
Maintenant que se passe-t-il si la demande d’électricité augmente et que rien n’est fait pour la compenser par une augmentation de production suffisante ? Alors les alternateurs n’arrivent pas à suivre et tous ensemble ils ralentissent : la fréquence électrique sur le réseau diminue alors à 49,9 Hz, puis 49,8 Hz, etc… Si on ne fait toujours rien alors la fréquence continuera de diminuer et le réseau finira par s’effondrer complètement et totalement ! Ce scénario est le cauchemar de RTE… Fort heureusement, en France ce n’est pas arrivé depuis fort longtemps (précisément depuis le 19 décembre 1978, voici le journal Antenne 2 de ce jour-là, en vidéo) mais cela se produit de temps en temps dans certains pays du monde. C’est donc comme cela que fonctionne le réseau : l’équilibre entre l’offre et la demande d’électricité s’effectue grâce à la fréquence : si elle chute, il faut augmenter la puissance produite, a contrario si elle augmente alors il faut diminuer la puissance produite. Simple, non ? Et la tension, me direz vous ? Et bien elle importe peu : en France la tension du courant délivré est de 230 Volts (avant c’était 220V ; depuis 1996, pour des raisons d’harmonisation européenne, on est passés à 230V), mais elle peut varier de 10% en plus ou en moins, ce n’est pas gênant et cela n’a pas d’impact particulier. Comme indiqué ci-dessus, c’est la fréquence qui est importante.
Voilà pour cette petite partie un peu technique, vous vous coucherez ce soir en sachant un truc de plus ! ;-)
Production d’énergie électrique « pilotable » : quésako ?
J’en arrive au point le plus important que je voulais aborder dans cet article.
Afin d’être en capacité d’augmenter et diminuer à volonté la production électrique pour s’adapter seconde par seconde à la demande, on a besoin de sources d’énergie dites pilotables. Cela signifie en gros qu’il faut pouvoir « tourner le bouton » pour ajuster la puissance produite, comme on le fait à la maison pour pousser ou réduire le chauffage. Mais toutes les sources d’énergie ne sont pas pilotables… faisons un tour d’horizon :
Sources d’énergie pilotables (les principales) :
Charbon, gaz, pétrole : on module facilement la puissance produite par les centrales en injectant plus ou moins de carburant dans la chaudière (voir ici dans mon article sur le nucléaire le rappel du fonctionnement d’une centrale électrique). 66% de l’électricité mondiale est produite avec du charbon (39%), du gaz (23%) ou du pétrole (4%) (source).
Hydroélectricité : il suffit d’ouvrir et de fermer les vannes des barrages pour turbiner plus ou moins d’eau. 16% de l’électricité mondiale est produite grâce à l’hydroélectricité (source)
Nucléaire : on module la puissance d’un réacteur à l’aide des barres de contrôles que l’on descend plus ou moins dans le cœur (voir ici dans mon article sur le nucléaire) 10% de l’électricité mondiale est produite à partir de l’énergie nucléaire (source)
Sources d’énergie NON pilotables (les principales) :
Eolien : la puissance produite par les éoliennes dépend du vent. C’est une source d’énergie dite « intermittente ». Il n’est pas possible d’augmenter la puissance produite à la demande. 5% de l’électricité mondiale est produite à partir de l’énergie éolienne (source)
Solaire photovoltaïque : la puissance produite par les panneaux solaires PV dépend de l’ensoleillement. C’est donc aussi une source d’énergie intermittente que l’on ne peut pas moduler à la demande. 2% de l’électricité mondiale est produite à partir de l’énergie éolienne (source)
Comme on le voit, au niveau mondial, ce sont les sources fossiles (charbon, pétrole, gaz) qui sont la principale source d’énergie pilotable…
Le cas de la France
Pour la France, il existe un site internet permettant de voir en temps réel quelles sont les différentes sources d’énergie, pilotables et non pilotables, qui contribuent à notre production électrique à chaque instant. En voici une copie d’écran à l’heure où j’écris ces lignes, le 6 septembre 2021 (pour les curieux, le site est ici, mis en ligne par RTE) :
Que peut-on remarquer ?
la journée a été chaude et ensoleillée : le solaire, non pilotable, a « beaucoup » produit, avec une évolution qui suit l’ensoleillement : démarrage le matin, maximum autour de 13% vers 14h, puis déclin et fin le soir
la journée a été peu ventée : l’éolien, non pilotable, a été très faible avec un maximum à 4% en tout début de journée peu après minuit, avant de stagner à environ 2% toute la journée
la majorité de la production a été assurée par le nucléaire pilotable : évolution entre 86% la nuit (pas de solaire) et 71% en milieu de journée quand le solaire est au max
l’hydraulique pilotable a assuré entre 6% et 13%
les fossiles pilotables, gaz essentiellement et un peu de charbon (à la centrale de Cordemais pour alimenter la Bretagne, comme on peut le vérifier ici ; j’en reparle plus loin) : 6 à 8%.
la bande grise tout en bas représente l’électricité que l’on exporte vers nos voisins : principalement vers l’Allemagne pour environ 3000 MW (chiffre trouvé grâce à https://www.electricitymap.org/map, site fort intéressant dont je vous ai déjà parlé), l’Allemagne qui manque d’électricité bas-carbone du fait de la quasi absence de vent ces jours-ci sur une large part de l’Europe de l’Ouest.
la petite bande bleue sombre au dessus de la grise, vers 4 / 5h du matin correspond à du pompage dans nos STEP : j’en reparle un peu plus loin.
Ces chiffres permettent de comprendre comment les productions électriques « s’empilent » : – d’abord les non pilotables qui « font ce qu’elles veulent », en quelque sorte, – puis les pilotables qui s’ajoutent et que l’on ajuste à la demande pour suivre celle-ci
Vous voyez aussi pourquoi on dit que la production électrique française est décarbonée à plus de 90 % : la part des fossiles reste largement en dessous de 10%.
Transition énergétique et sources d’énergie pilotables : une question fondamentale… et épineuse
Nous le savons, le défi de la transition énergétique que nous devons mener à bien au niveau mondial est de réussir à nous passer des sources d’énergie fossiles charbon, pétrole et gaz (relisez mon article sur le sujet).
SI vous avez bien lu le paragraphe ci-dessus avec les % des sources d’énergie utilisées mondialement, vous la voyez venir, la question qui pose souci… La voici : Sachant que le fonctionnement des réseaux électriques nécessite des sources d’énergie pilotables, lesquelles allons nous pouvoir utiliser s’il ne faut plus avoir recours aux source d’énergies fossiles (66% des sources d’énergies actuelle) ?? Essayons de chercher la réponse en balayant les solutions possibles.
L’hydroélectricité : dans certains pays (Norvège, Islande), le potentiel hydraulique est colossal et offre à ces pays une source d’énergie bas carbone importante et pilotable. Mais dans la majorité des pays, dont la France, ce n’est pas le cas. On considère qu’en France le potentiel hydraulique existant est déjà presque totalement exploité et qu’il est extrêmement difficile de développer encore l’exploitation de l’hydroélectricité.
Le nucléaire : l’énergie nucléaire permet de produire de l’électricité bas carbone de manière pilotable. En France, c’est cette source d’énergie qui nous permet d’avoir une production d’électricité parmi les moins carbonées du monde. De nombreuses personnes la considèrent trop risquée et souhaitent une sortie du nucléaire. D’ailleurs les pouvoirs publics, en France : – ont inscrit dans la loi la réduction de sa part à 50% de la production électrique en prévoyant de fermer d’autres réacteurs nucléaires après ceux de Fessenheim l’an dernier, – diffèrent pour l’instant la décision ferme de construction de nouveaux réacteurs nucléaires (après l’EPR de Flamanville), – ont arrêté ASTRID, le projet de réacteur nucléaire de nouvelle génération (celle d’après l’EPR). D’autres nombreuses personnes – dont je fais partie – considèrent que le nucléaire, en tant que source d’énergie pilotable et bas carbone ne doit pas être exclu de l’arsenal des moyens à mettre en œuvre pour lutter contre le réchauffement climatique en diminuant les émissions de CO2. Ce défi est déjà extrêmement difficile alors si on se prive volontairement de certains moyens d’y arriver, il le sera considérablement plus.
Le stockage « Maiiiis il y a écrit plus haut qu’on ne pouvait pas stocker l’électricité ! » : voilà ce que vous vous dites si vous avez bien suivi. C’est vrai… mais on peut ruser : il est possible de transformer l’énergie électrique en une autre forme d’énergie qui, elle, peut se stocker. Ensuite quand on en a besoin on retransforme cette énergie en électricité et le tour est joué !
Le stockage par batteries (stockage d’énergie sous forme chimique) est celui auquel on pense tout de suite. D’intenses recherches ont lieu dans le monde entier pour développer de nouveaux types de batteries toujours plus performantes. Toutefois aujourd’hui le stockage par batteries n’est pas une solution suffisante, de loin, compte tenu de la quantité colossale d’énergie – et donc de batteries – qui est en jeu. Pour fixer les idées : en mobilisant toutes les batteries existantes actuellement en France, chargées à 100%, combien de temps pourrait-on assurer la production électrique du pays ? Quelques dizaines de secondes… alors qu’il faudrait être capable de tenir des heures voire des jours (j’y reviens ci-après)…
Une autre technologie de stockage fonctionne par contre très bien : le stockage sous forme d’énergie de pesanteur. Concrètement il s’agit des installations hydrauliques appelées STEP (Stations de Transfert d’Énergie par Pompage) : on pompe de l’eau pour la remonter dans un lac de barrage en altitude pour être ensuite capable de la turbiner à la demande pour produire de l’électricité. C’est de loin la technologie de stockage la plus pertinente et la plus performante. En France hélas on ne peut que difficilement la développer du fait du manque de sites adéquats qui pourraient être équipés aisément (il y a déjà 6 STEP en fonctionnement en France actuellement ; la plus importante est celle de Grand’maison en Isère). Dans le monde, 99% (source de ce chiffre) du stockage d’énergie s’effectue avec des STEP : en savoir plus sur les STEP.
D’autres technologie de stockage existent toutefois en recherche et développement : – « power to gas » & hydrogène (rappel en passant : l’hydrogène n’est PAS une source d’énergie, seulement un vecteur pouvant être stocké….) : fabrication de gaz à partir d’électricité, stockage du gaz, puis re-fabrication d’électricité. Ces technologies sont encore embryonnaires et sont handicapées par des rendements faibles. – volants d’inertie : mise en rotation à haute vitesse de lourds volants, dont l’inertie en rotation permet ensuite de re-fabriquer de l’électricité… mais pendant seulement quelques minutes (15 maxi). – air comprimé : stockage d’air comprimé dans de grands volumes (typiquement des cavités souterraines) pour ensuite l’utiliser pour faire tourner des turbines de production d’électricité. Les capacités de stockage d’énergie de cette technologie, et les rendements associés, sont assez faibles.
Le stockage est un enjeu majeur de la transition énergétique. Pour l’instant, hormis les STEP, les technologies actuelle ne sont pas matures. Mais de nombreuses recherches sont en cours de part le monde dans ce domaine.
Le charbon, le pétrole, le gaz : Du fait du manque de sources d’énergies bas carbone pilotables disponibles et du manque de capacités de stockage, aujourd’hui on ne sait pas faire autrement hélas que de recourir aux sources d’énergie fossiles. Même si cela est en contradiction totale avec les objectifs de transition énergétique, il existe malheureusement de nombreux exemples qui illustrent cela. En voici quelques-uns : – la Belgique a pris récemment la décision d’arrêter ses centrales nucléaires. Sur quelle source d’énergie pilotable va-t-elle s’appuyer en remplacement ? Du gaz ! La Belgique va ainsi augmenter ses émissions de CO2 dans les années et décennies à venir, on marche sur la tête… (lire ici) – l’Allemagne a décidé de sortir du nucléaire depuis 20 ans et a beaucoup développé l’éolien, notamment. Mais elle continue de s’appuyer sur ses centrales à charbon comme source d’énergie pilotable… Résultat : malgré d’énormes investissement dans les énergies renouvelables essentiellement éoliennes, ses émissions de CO2 n’ont qu’assez peu baissé et son électricité reste très carbonée, huit fois plus que la France… (lire ici et ici) – en France, en Bretagne, aucune centrale nucléaire n’a jamais été construite. De ce fait, l’alimentation électrique de la Bretagne est dépendante de centrales électriques qui ne sont pas sur son territoire, notamment la centrale au charbon de Cordemais, proche de Nantes. Or celle-ci va bientôt fermer (et c’est heureux pour nos émissions de GES). Mais que va-t-on faire pour compenser sa fermeture ? Et bien une centrale à gaz est en construction à Landivisau, dans le Finistère… Une centrale à gaz ! (lire ici) – en Asie : plus de 600 centrales à charbon sont en projet actuellement. 600, vous avez bien lu ! Ca se passe de commentaires… (lire ici)
Vous voyez quel problème épineux nous devons résoudre ? Nous avons besoin de sources d’énergie bas carbone ET pilotables. Tel est notre défi.
Un exemple pour comprendre
On peut illustrer cette question épineuse de la manière suivante, qui permet de la comprendre par l’exemple :
Peut-être certains d’entre vous pensent que la transition énergétique c’est facile : « il suffit de développer l’éolien et le solaire et le tour est joué ». Mais ce n’est pas si simple : il existe très régulièrement en hiver des périodes où il n’y a ni vent, ni soleil, pendant des jours entiers, et ce dans de larges régions de l’Europe de l’Ouest. Du coup sachant qu’il faut malgré cela, pendant ce temps, que les trains roulent, que les chauffages chauffent, que les lumières s’allument… comment produit-on notre électricité (sachant qu’on ne sait pas stocker l’énergie en quantités suffisantes, cf § ci-dessus) ?? C’est LA question épineuse à laquelle, aujourd’hui, on ne sait pas répondre de manière satisfaisante : comment fait-on quand il n’y a ni vent ni soleil ? Sur quelle source d’énergie pilotable et bas carbone pouvons nous « tourner le bouton » pour nous alimenter en électricité ?
D’aucuns diront que selon certaines études, des scénarios 100% ENRi (EnNergies Renouvelables Intermittentes) sont théoriquement possibles. Par exemple l’étude de RTE que j’ai déjà évoquée dans cet article. Mais malheureusement les conditions nécessaires pour que ces scénarios tiennent un minimum la route font qu’ils sont extrêmement incertains : – hypothèse que la demande en électricité va baisser alors que nous avons au contraire besoin de l’augmenter pour reporter nos consommations d’énergie fossile non électrique vers de l’électricité bas carbone (cf mon article sur la transition énergétique : développement de la mobilité électrique, pompes à chaleur, etc….) (7), – hypothèse d’une forte flexibilité de la demande qui pose de manière aigüe la question de l’acceptabilité sociale des importantes contraintes que cela implique pour la population, – hypothèse de l’existence d’importantes capacité de stockage d’énergie, inexistantes aujourd’hui et dont le développement est incertain (cf ci-dessus), – hypothèse d’une évolution (renforcement) considérable du réseau électrique qui nécessite des investissements colossaux. Pour illustrer l’extrême difficulté de ces scénarios, remontez au graphique ci-dessus montrant la production par filière, enlevez le nucléaire et les fossiles et imaginez que c’est tout cela qu’il faut compenser…
Conclusion
L’objectif de cet article était de vous faire comprendre quelques points clé relatifs à l’utilisation de l’énergie sous forme électrique et au colossal défi que nous devons relever pour réussir la transition énergétique. C’est un sujet extrêmement vaste et complexe, que je n’ai fait que résumer et effleurer dans cet article. Si vous souhaitez que j’en creuse certains aspects dans d’autres articles à venir, dites-le moi en commentaire :-)
(1) Il est possible de fabriquer de l’électricité sans alternateur, en utilisant l’effet photovoltaïque qui est le principe de fonctionnement des panneaux du même nom. Dans ce cas, ce sont les rayons lumineux qui mettent en mouvement les électrons dans le matériau, en les arrachant à leur orbite autour des noyaux. Le photovoltaïque représente un peu plus de 2% de la production électrique en France ; le reste est produit avec des alternateurs, en utilisant différentes sources d’énergie pour les mettre en mouvement. [retour]
(2) Dans une centrale électrique, il est plus correct de parler d’énergie « convertie » que d’énergie « produite ». En effet, le célèbre principe « Rien ne se perd, rien ne se crée, tout se transforme » que le chimiste Lavoisier a énoncé à propos de la matière, s’applique à l’énergie : celle-ci ne peut – hélas – être créée, elle ne peut être que transformée, convertie. Ainsi, une centrale produit de l’énergie sous forme électrique en convertissant de l’énergie existant préalablement sous une autre forme : énergie chimique présente dans les combustibles fossiles, énergie nucléaire présente dans les noyaux des atomes d’uranium… [retour]
(3) Les électroniciens diront que ce n’est pas tout à fait vrai : il existe des composants électroniques appelés « condensateurs » qui permettent de stocker de petites quantités d’électricité. Ils sont très utilisés en électronique. Mais les quantités d’électricité stockées sont ridiculement faibles au regard de celles véhiculées dans le réseau électrique : impossible d’espérer les utiliser pour du stockage en masse d’électricité. Par ailleurs, certains laboratoires réussissent à envoyer tourner des courants continus d’électrons dans des anneaux réalisés en métal supraconducteur. Les métaux dits « supraconducteurs » ont la capacité de n’opposer aucune résistance au passage du courant : l’effet Joule est nul. Dans ce cas l’électricité peut y tourner quasiment indéfiniment. Mais là encore les quantités d’électricité en jeu sont très faibles et ne permettent pas d’utiliser ce procédé pour du stockage, sans parler du fait que tous les matériaux supraconducteurs connus ne le sont qu’à des températures très basses (proches de -200°C…) nécessitant un refroidissement par exemple à l’azote liquide… pas pratique ! [retour]
(4) La production d’électricité doit être égale à la consommation… oui, mais pas tout à fait : la production doit être en fait un peu supérieure. En effet, une petite partie de l’électricité est perdue en chemin du fait de la « résistance » que les fils opposent au passage du courant et qui font que les fils s’échauffent. On appelle cela l’effet Joule. Un partie de l’électricité produite est donc perdue sous forme de chaleur dans les fils, chaleur qui se dissipe dans la nature. En France, en moyenne, la différence entre production et consommation à cause – entre autres – de l’effet Joule est d’environ 10% (en savoir plus). [retour]
(5) Il existe malheureusement dans le monde des régions ou pays où cela fonctionne comme cela : c’est la disponibilité de la production électrique qui conditionne la possibilité ou non d’allumer la lumière. C’est le cas lorsque les infrastructures et/ou la production électrique sont défaillantes : la population bénéficie lors de l’électricité seulement sur certaines périodes de temps (lire ici par exemple, la situation à Gaza : quelques heures d’électricité par jour seulement possibles…). [retour]
(6) Précisons pour être complet qu’il n’y pas forcément des aimants dans tous les alternateurs. Il est possible de remplacer les aimants par des bobinages de fil de cuivre enroulés autour de noyaux de fer et alimentés en courant continu. Un tel dispositif génère un champ magnétique similaire à celui d’un aimant. On appelle cela un « électro-aimant ». [retour]
(7) Et si on fait l’hypothèse que l’on va réussir prochainement à basculer vers une société de dé-croissance, basée sur la sobriété, cela ne nous permettra-t-il pas de diminuer notre consommation d’électricité ? Hélas non : 85% de l’énergie consommée dans le monde est d’origine fossile et est consommée à 80% sous une forme non électrique. S’en passer est irréaliste sans un report massif vers des usages électriques bas carbone, impliquant une augmentation de l’utilisation de l’électricité. [retour]
En novembre dernier est paru mon article « Une vague de CO2 et alors ? » . Il a pour but de faire comprendre la nature inédite et les graves conséquences de l’augmentation du taux de CO2 dans notre atmosphère.
Pour illustrer cela de manière visuelle et pédagogique, voici une courte vidéo, extrêmement bien réalisée, sur les conséquences du réchauffement climatique. Publiée par Le Monde, son auteur principal est Rodolphe Meyer, scientifique et vulgarisateur talentueux, créateur de la chaîne YouTube « Le Réveilleur » .
Il n’est pas dans mes habitudes d’écrire un article juste pour poster un lien vers une vidéo mais je fais une exception car celle-ci est remarquablement bien faite. N’hésitez pas à prendre 15 min de votre temps pour la regarder. Bon visionnage !
https://connaissances.science/wp-content/uploads/2021/07/Rechauffement.png6761169Philippe Dazashttps://connaissances.science/wp-content/uploads/2021/12/ConnaissanceS-LOGO.pngPhilippe Dazas2021-07-13 12:03:062022-01-26 21:53:09« Une vague de CO2 et alors ? » : illustration
Vous avez remarqué : dehors il y a toujours du vent. Et lorsque, rarement, il n’y a pas de vent là où nous sommes, nous savons qu’ailleurs, il souffle. Pourquoi ? Pourquoi est-ce que l’air, dans l’atmosphère, ne reste pas tranquille, peinard, sans bouger ? Pourquoi l’air est-il toujours en mouvement ? Pour le savoir, dans cet article nous allons remonter aux origines des climats de la Terre ! Et nous parlerons aussi un peu de météorologie(*).
Nota : pour ceux qui ont assisté à une de mes conférences sur le réchauffement climatique, vous avez peut-être déjà entendu ces explications(**)… mais j’apporterai ici quelques compléments d’info inédits ;-)
Un petit rappel avant de commencer : les latitudes
Si vous êtes comme moi, vous avez tendance à confondre la latitude et la longitude… Révisons donc ensemble :
les lignes des longitudes (les « méridiens ») sont des lignes verticales, perpendiculaires à l’équateur et qui se croisent aux pôles. Le 0° est le méridien de Greenwich (choix historique totalement arbitraire), qui traverse notamment la France. On compte les longitudes d’un part vers l’est, de 0 à 180°, et d’autre part vers l’ouest, de 0 à 180° également.
les ligne des latitudes sont des lignes horizontales, parallèles à l’équateur. Celui-ci est à 0° de latitude et en montant vers le nord on atteint 90° de latitude au pôle. Idem dans l’hémisphère sud en allant vers le pôle sud.
Petit moyen mnémotechnique : pour les distinguer, je pense à l’expression « sous nos latitudes » qui désigne nos régions par opposition à d’autres régions plus chaudes au sud d’ici, ou plus froides au nord d’ici . Du coup je sais que la latitude c’est le truc qui varie quand on se déplace du nord au sud… Ça vaut ce que ça vaut ;-)
Dans cet article nous allons parler à plusieurs reprises des latitudes, donc les lignes… horizontales, on est d’accord !
Le soleil réchauffe la Terre
Pensez à ce qu’est la Terre : une sphère rocheuse d’un peu plus de 6000 km de rayon, recouverte d’eau en grande partie (71% de la surface couverte d’océans) et entourée d’une fine couche d’atmosphère. Flottant dans le vide de l’espace, elle orbite en tournant sur elle-même autour du soleil, qui la réchauffe de ses rayons lumineux.
La Terre étant une sphère, les régions de la surface de la Terre située au niveau de l’équateur sont perpendiculaires aux rayons lumineux provenant du soleil. Les rayons du soleil réchauffent donc fortement ces régions, beaucoup plus que les autres parties de la Terre. Plus on monte vers les pôles, moins les surfaces terrestres reçoivent de chaleur : aux pôles, la lumière du soleil est tellement rasante que ceux-ci reçoive très très peu de chaleur.
Les régions équatoriales de la Terre reçoivent donc un excédent de chaleur en provenance du soleil. Et c’est cette caractéristique qui est à l’origine de tout le système climatique de la Terre, comme nous allons le voir dans ce qui suit.
L’excédent de chaleur équatorial engendre un phénomène de circulation d’air
Que se passe-t-il lorsque les rayons du soleil chauffent le sol et la surface des océans au niveau de l’équateur ? Par conduction, la surface (du sol ou des océans) chauffe la couche d’air qui est au dessus, et celui-ci s’échauffe à son tour. Or, nous savons que l’air chaud est plus léger que l’air froid. Il va donc avoir tendance à monter dans l’atmosphère, remplacé à sa base par de l’air frais venant du nord et de sud, qui se réchauffe à son tour puis monte. Dans l’atmosphère, l’air chaud ne peut pas monter indéfiniment : les caractéristique de l’atmosphère font qu’il ne peut pas monter à plus de 10 kilomètres (grand maximum 15 km). C’est comme s’il se heurtait à une sorte de plafond de verre, qui fait qu’il va partir sur les côtés, au nord et au sud, tout en se refroidissant et en retombant lentement vers le sol. La boucle est bouclée : l’air refroidi peut ensuite retourner vers l’équateur en formant un vent orienté globalement du nord vers le sud (du sud vers le nord dans l’hémisphère sud), se réchauffer, et ainsi de suite !
Étant donné que la Terre tourne, l’excès de chaleur existe sur toute la ceinture équatoriale ; ainsi ce système de circulation et de vent se met en place tout autour de la Terre :
A l’équateur, l’air chaud montant créée au sol une zone de dépression atmosphérique ; en effet, la « fuite » d’air vers le haut entraîne une raréfaction de celui-ci au sol : la pression atmosphérique baisse. En se condensant (car l’air se refroidit en montant) l’humidité qu’il contient forme des nuages – visibles sur l’infographie – et de la pluie : c’est pourquoi les zones équatoriales sont si luxuriantes, chaudes et humides. On distingue d’ailleurs sur la photo de la Terre (pas celle juste ci-dessus, celle d’avant !) la bande de nuages qui entoure la Terre au niveau de l’équateur. Au niveau des tropiques du Cancer et du Capricorne (un peu au dessus en fait, vers 30° de latitude), l’air descendant et sec – car débarrassé de son humidité qui est retombée en pluie sur l’équateur – créée une zone d’anticyclones (pression atmosphérique plus élevée). Ces régions sont donc sèches ; c’est à ces latitudes que l’on trouve beaucoup de zones désertiques comme le Sahara par exemple.
Il existe plusieurs circuits de circulation d’air jusqu’aux pôles
Si on remonte encore en latitude, que se passe-t-il ? Intéressons-nous à l’hémisphère nord (mais c’est identique dans l’hémisphère sud) : en remontant vers le pôle, on observe qu’il existe deux circuits similaires supplémentaires (cf infographie ci-dessous).
l’un entre 30° et 60° de latitude, engendrant une zone dépressionnaire autour de 60°. Ces dépressions sont celles que l’on voit souvent, dans les bulletins météo, défiler d’ouest en est sur l’Irlande et l’Angleterre et qui peuvent descendre en latitude – en hiver surtout – pour venir nous embêter en France. Ce deuxième circuit s’appelle la « cellule de Ferrel » et il engendre des vents au sol globalement orientés du sud vers le nord (***).
l’autre entre 60° et le pôle, engendrant une zone anticyclonique au niveau du pôle. Paradoxalement, les régions polaires sont plutôt sèches et les quantités de précipitations (sous forme de neige) y sont assez faibles. Ce troisième circuit s’appelle la « cellule polaire » et il engendre des vents au sol globalement orientés du nord vers le sud (***).
Voilà, on sait d’où vient le vent !
Vous comprenez maintenant pourquoi il y a du vent en permanence : la thermodynamique de l’atmosphère que nous venons de décrire fait que la chaleur équatoriale excédentaire va naturellement se répartir dans toute l’atmosphère. Au niveau de la surface de la Terre, le vent est le déplacement de l’air dû à ce phénomène, structuré en 3 cellules de circulation par hémisphère. [Vous pouvez observer le même phénomène dans une pièce de votre maison : si vous mettez le chauffage à un bout de la pièce alors des courants d’air se formeront naturellement pour répartir progressivement la chaleur dans toute la pièce… Un petit vent imperceptible se forme dans votre pièce !]
Le grand responsable du vent est donc le soleil ! C’est lui le « moteur » de tout notre système climatique : vents, tempêtes, cyclones, nuages, ciel bleu, pluie, neige, grêle…
Connaissant l’existence des cellules de circulation, on comprend aussi comment s’organisent les zones climatiques sur la Terre : en bandes horizontales : – climats équatoriaux chauds et humides, – climats chauds et secs aux latitudes des tropiques, – climats tempérés et perturbés aux latitudes moyennes, – climats polaires froids et secs (hautes latitudes).
J’ajoute que ce principe de répartition de chaleur dans l’atmosphère depuis l’équateur vers les pôles est aussi valable dans les océans : comme l’air, l’eau est un fluide présent à la surface de la Terre et la circulation de celle-ci via les courants océaniques permet aussi de répartir la chaleur de l’équateur vers les pôles… J’en reparlerai dans un autre article dédié car les océans influent beaucoup sur le climat.
Bien sûr dans la réalité le climat réel n’est pas aussi simple et parfait que ce que je viens d’expliquer. De nombreuses perturbations de l’écoulement de ce fluide capricieux qu’est l’air viennent bousculer et complexifier cette belle organisation moyenne. Le contour des continents ou encore la forme sphérique de la Terre ainsi que sa rotation jouent un rôle perturbateur important.
Pour aller un peu plus loin : les ondes de Rossby
Voici un exemple de phénomène qui vient perturber la belle et relativement simple explication que je vous ai donnée ci-dessus : les ondes de Rossby. Ces ondes, je pense que vous n’en avez pas encore entendu parler car elles sont peu connues. Pourtant, elles influencent directement la météorologie sous nos latitudes tempérées, et elles sont totalement d’actualité : la vague de chaleur que connait en ce moment l’ouest des États-Unis et du Canada leur est directement liée. Lisez-donc attentivement ce qui suit, vous pourrez ensuite briller en soirée en épatant tout le monde par vos connaissances ! ;-)
Si vous avez suivi ce qui précède, vous avez compris que les climats de la Terre s’organisent globalement horizontalement en fonction de la latitude. OK. On imagine donc que les séparations entre ces zones sont des lignes horizontales qui font le tour de la Terre. Sauf que, en fait, non : ce n’est pas le cas pour la séparation entre la deuxième cellule (de Ferrel) et la troisième cellule (polaire), situé aux environ de 60° de latitude : cette séparation est en fait une ligne ondulante sans cesse en mouvement ! Au fil des jours et des semaines qui passent, la ligne, qui fait le tour de la Terre, ondule plus ou moins : entre 3 et 7 ondulations au total sur le tour complet, cela varie en permanence. Ces ondulations qui se déplacent sont appelées les ondes de Rossby :
Au nord de cette ligne se trouve de l’air polaire et froid, tandis qu’au sud se trouve de l’air plus chaud. Sous nos latitudes, la météo que l’on subit est – entre autres – le résultat des mouvements de cette ligne : par exemple quand une ondulation de la ligne descend et passe sur la France (schéma (c) ci-dessus), alors nous avons un temps plus froid. C’est une situation qui peut durer (plusieurs jours voire semaines) si l’ondulation se bloque un temps au même endroit. La ligne peut aussi onduler vers le nord et former une poussée d’air (très) chaud qui monte du sud. C’est ce qui se passe dans l’ouest des États-Unis et du Canada, où se produit actuellement une poussée d’air chaud dite « en Oméga » (Ω) :
Au passage, notez que l’intensité de cette poussée chaude est absolument inédite dans toute l’histoire de la météo nord-américaine. Des records absolus de chaleur ont été battus au Canada : à Lytton, au nord-est de Vancouver, le mercure a grimpé mardi 29 juin jusqu’à 49,6 degrés. Aux dernières nouvelles (30/06), le bilan provisoire est dramatique : 200 morts.
Pour en savoir plus sur cet épisode record, cliquer sur l’image ci-contre à droite (lien vers un « fil » Twitter de l’excellent @BonPote)
Et pour en savoir encore plus et voir une animation de cette poche d’air chaud en train de se créer, cliquer sur l’image à gauche (lien vers un « fil » Twitter du non moins excellent @Laydgeur)
Scoop Il est possible d’affirmer, sur des bases scientifiques solides, que ce record n’aurait pas été battu s’il n’y avait pas le réchauffement climatique. Il y a bien sûr toujours eu des canicules, au Canada ou ailleurs, ce n’est pas nouveau ; ce qui est nouveau et qui est dû au réchauffement climatique c’est l’augmentation de l’intensité et de la durée des canicules, ainsi que de leur fréquence. Du fait du réchauffement nous savons que, en France, nous connaîtrons nous aussi inéluctablement, dans les décennies qui viennent, des canicules avec des températures atteignant les 50°C. Pour l’instant notre record actuel est de 46°C, fin juin 2019 à Vérargues dans l’Hérault…
[Mise à jour du 2 juillet 2021 : Lytton est aujourd’hui quasiment rayé de la carte par les incendies (lire ici). Voilà ce que ça fait, une canicule à (quasi) 50°C.]
Vous aurez remarqué sur la carte ci-dessus les mots « jet-stream », inscrits sur la ligne de séparation ondulante. Le jet-stream est ce fameux courant d’air d’altitude (10 km environ), formant comme un tuyau de section ronde ou ovale, emprunté par les avions sur certaines traversées de l’Atlantique sens Ouest>Est, profitant ainsi du vent fort pour économiser de carburant et gagner en vitesse. Il se trouve que ce jet-stream dit « polaire » fait le tour de la Terre en suivant la ligne de séparation entre les deux cellules (la fameuse ligne des ondes de Rossby, vous suivez ?) ! Pour le visualiser, re-voici l’infographie présentant les trois cellules Hadley, Ferrel, polaire, sur laquelle j’ai ajouté en rouge l’emplacement du jet-stream :
That’s all folks ! C’est tout pour cette fois, vous en savez maintenant un petit peu plus sur le fonctionnement du climat et sur la nature du moteur de notre système climatique, à l’origine du vent sur toute la Terre : c’est le soleil qui nous envoie trop de chaleur à l’équateur !
(*) Attention à bien distinguer « climatologie » (climat) et « météorologie » (météo), ce n’est pas la même chose. La météorologie c’est le temps qu’il fait à un endroit donné, jour après jour, semaine après semaine. Par nature, la météo évolue de façon chaotique : un jour il fait frais , le lendemain plus chaud, en hiver il y parfois des vagues de froid, en été il y a parfois des canicules, certaines années l’hiver est doux, d’autres années il est plus rude, certaines années l’été est caniculaire, d’autres années l’été est pourri, etc, etc… Par essence, la météorologie est imprévisible au delà d’une dizaine de jours. La climatologie s’intéresse aux évolutions à long terme, typiquement au moins 30 ans, des moyennes météorologique à un endroit donné (ces moyennes constituent ce qu’on appelle le « climat » d’une région). Lorsqu’on s’intéresse au changement climatique, on regarde donc l’évolution des paramètres (température, précipitations, etc…) par rapport à la moyenne sur plusieurs décennies passées. Méfiance donc avec les raisonnements du genre : « Ouhlala cet hiver on a une vague de froid intense, vous voyez bien que le changement climatique c’est des c… » ou encore « Cet été est caniculaire, c’est la faute au réchauffement climatique ! » Ces deux raisonnements sont erronés car ils extrapolent à la climatologie des observations météorologiques de court terme… Par contre, dire « Quand j’étais petit, il y a 30 ans, l’hiver on allait souvent glisser sur les mares gelées ; de nos jours c’est beaucoup plus rare. C’est à cause du réchauffement climatique », oui, cela a un sens : c’est une observation d’une tendance de très long terme, on est bien dans le domaine de la climatologie. Enfin cela sous réserve de la fiabilité de ses souvenirs d’enfance… [retour]
(**) En fonction du public et du temps qui m’est imparti, je ne raconte pas toujours les mêmes choses dans mes conférences. Il arrive que je n’aie pas le temps de parler de l’origine du vent. [retour]
(***) En fait les vents ne vont pas vraiment orientés pile nord-sud (ou sud- nord). En effet, vous avez dû remarquer sur les infographies que les flèches représentant le sens du vent tournent à droite (dans l’hémisphère nord) et à gauche (dans l’hémisphère sud). Cela est dû à un phénomène perturbateur appelé « force de Coriolis ». Pour la comprendre il faut s’imaginer marchant sur un objet tournant, par exemple un manège : on a du mal a marcher droit car on a toujours tendance à tomber d’un côté, droit ou gauche, toujours le même en fonction du sens de rotation du manège. Sur la Terre en rotation c’est pareil : tous les objets qui se déplacent à sa surface ont tendance à tourner d’un côté : droit dans l’hémisphère nord et gauche dans l’hémisphère sud. A notre échelle humaine c’est imperceptible, heureusement, mais aux très grandes échelles des masses d’air la perturbation est importante... [retour]