- Géoingénierie
-
Géo-ingénierie
Le concept actuel de géo-ingénierie concerne la manipulation délibérée du climat terrestre pour contrecarrer les effets du réchauffement climatique dû à l'émission de gaz à effet de serre. Ce concept est basé sur la croyance que les changements climatiques ont tellement augmenté que des effets graves sont dorénavant inévitables, ou que des mécanismes d'émulation pourraient accélerer les changements climatiques même si les émissions sont drastiquement réduites. Il y a également un corps d'opinion qui encourage la géo-ingénierie car elle pourrait éviter ou retarder les difficultés et le prix d'une transition vers une économie à basses émissions de carbone. Cependant, la plupart des scientifiques, des environnementalistes et des ingénieurs qui prennent parti pour la géo-ingénierie le voient comme une mesure additionnelle requise pour stabiliser le climat, et non comme une alternative à une économie à basses émissions de carbone.[1]
Sommaire
Introduction
Alors que le climat et ses dérives font partie de plus en plus de débats et que l’on cherche par tous les moyens à lutter contre le réchauffement climatique, des chercheurs envisagent de plus en plus de contrer ce réchauffement par des moyens industriels assez extrêmes. La planète est en train de se réchauffer ? Ils veulent la refroidir. L’atmosphère ne renvoie ou ne dévie plus suffisamment de rayons du soleil ? Ils parlent d’envoyer des cohortes de miroirs dans l’espace pour l’aider à jouer son rôle. Il n’y a plus assez d’arbres sur terre pour absorber le CO2 que nous rejetons ? Ils envisagent d’en planter des artificiels plus performants… autant de projets plus fous les uns que les autres. Et pourtant, "Ils" ne sont pas Monsieur tout le monde. Parmi les partisans de la géoingénierie se trouvent d’illustres savants, certains mêmes ayant reçu un Prix Nobel.
Cependant, si le but actuel de la géoingénierie est aujourd’hui plus que louable, il n’en fut pas toujours ainsi. A l’instar de la conquête spatiale, cette idée puise ses origines dans un contexte militaire. A l’origine, les projets de modification du climat avaient pour but d’être des armes de "guerre climatique". Cela remonte à 1945. Au sortir de la seconde guerre mondiale, pendant que les tensions entre Russes et Américains s’exacerbaient, les deux camps commencèrent à réfléchir à utiliser le climat comme une arme. Car ils supposaient –à raison d’ailleurs– qu’une telle arme pouvait être potentiellement plus dangereuse que l’arme atomique. C’est ainsi que de chaque côté les savants imaginèrent des procédés allant de l’aide à la navigation (en dérivant les eaux de fleuves de Sibérie dans l’Océan Arctique pour le rendre plus salé) à la fonte de la banquise pour les Russes, et de la possibilité de faire pleuvoir sur commande ou au contraire de provoquer des sécheresses pour les Américains. Il fallut attendre l’an 1976 pour que l’ONU adopte une convention interdisant "les techniques de modification environnementale à caractère hostile".
C’est à la même époque que plusieurs savants, comme Mihail Budyko (l’initiateur du projet de fonte de la banquise) et Edward Teller, un des pères de la bombe thermonucléaire, parlèrent d’utiliser des techniques de modifications du climat pour contrer un possible réchauffement climatique. Toutefois, les problèmes climatiques des années 70 n’étaient pas ce qu’ils sont aujourd’hui, et la réputation des défenseurs de la géoingénierie jouait en sa défaveur. Imaginez un peu le créateur d’une bombe 1000 fois plus puissante encore que les bombes d’Hiroshima qui propose de bidouiller le climat pour protéger la planète… cela n’a rien de très enthousiasmant, n’est-ce pas ?
Encore maintenant, la géoingénierie provoque des tensions au sein de la communauté scientifique. En effet, il s’agit d’une discipline qui n’en est qu’à ses balbutiements. En théorie, les méthodes employées devraient avoir l’effet escompté, mais rien n’est moins sûr. De plus, la météorologie ne peut déjà pas prévoir avec exactitude l’action de tel ou tel facteur mineur (comme un anticyclone) sur le temps qu’il fera dans une semaine. Alors tenter de prédire ce qui pourrait se passer à long terme si, par exemple, on injecte des tonnes de dioxyde de soufre dans l’atmosphère… c’est totalement impossible. C’est d’ailleurs l’un des arguments principaux des savants qui sont contre la géoingénierie.
Les moyens
Il existe un nombre assez impressionnant de méthodes de géoingénierie. En conséquence, il est impossible de toutes les présenter. Dans cette section, quatre méthodes seront tout de même évoquées.
Du soufre pour refroidir l’atmosphère
Un évènement qui s’est déroulé en 1991 a permis a Paul Crutzen de développer son plan de sauvetage de la Terre du réchauffement global : il s’agit de l’éruption du volcan Pinatubo. Celle-ci a projeté dix millions de tonnes de soufre dans la stratosphère, provoquant ainsi une baisse de la température moyenne de la planète de 1,5 °C l’année qui a suivi. Le Prix Nobel de chimie propose donc d’injecter, en cas d’urgence, un million de tonne de soufre dans l’atmosphère chaque année en envoyant des ballons bourrés de soufre ou de sulfate d’hydrogène à une vingtaine de kilomètres au dessus du niveau de la mer. Une réaction chimique se produirait alors entre la cargaison des ballons et l’oxygène pour former du dioxyde de soufre, puis des aérosols sulfatés par réaction avec l’eau. Ces gouttelettes micrométriques devraient ainsi réduire la quantité d’énergie solaire qui parvient jusqu’au sol en absorbant ou en réfléchissant la lumière du soleil, impliquant ainsi une baisse des températures de surface. Cette idée fut aussi émise en 1997 par Edward Teller.
Une étude scientifique menée aux États-Unis a montré qu’une diminution de 1,8% de la luminosité solaire peut suffire à compenser le réchauffement climatique qui est dû à un doublement de la quantité de dioxyde de carbone atmosphérique. En revanche, le projet se heurte à un réel obstacle au niveau logistique puisqu’un ballon stratosphérique gonflé à l’hélium peut emporter plus ou moins une tonne de fret. Il faudrait donc envoyer un million de ballons chaque année et ce, pendant dix ans pour atteindre les objectifs. De plus, le coût de cette opération a été estimé par Paul Crutzen à 25 milliards de dollars.
Un autre frein majeur à ce projet est le fait qu’aucune étude n’a réellement évalué les conséquences physiques, chimiques ou climatiques qui pourraient découler de ce dopage de la quantité de soufre dans l’atmosphère. En effet, suite à l’éruption du Pinatubo, l’ozone stratosphérique a fortement diminué.
A court terme, il est impensable d’injecter à grande échelle ce soufre dans l’atmosphère mais il est plutôt conseillé de mettre en place des protocoles de décision permettant d’effectuer des tests atmosphériques au besoin.
Du sulfate de fer pour développer le plancton
Vingt pourcents de l’océan sont recouverts de déserts planctoniques, principalement autour de l’Antarctique, qui constituent des zones pauvres en chlorophylle et riches en nutriments. De là est parti Victor Smetacek pour développer son projet de fertilisation de l’océan Austral. Selon lui, il suffirait d’ajouter ces nutriments – en déversant du sulfate de fer dans le sillage d’un tanker- pour permettre le développement d’algues planctoniques capables de stocker d’impressionnantes quantités de carbone provenant de la dissolution du CO2 dissous dans l’eau de l’atmosphère. Du nuage de plancton formé à la suite de cet apport nutritif, s’échappent des excréments ainsi que des cadavres qui se déposent au fond de l’océan, formant ainsi une couche de sédiments. Le carbone de ces organismes est alors piégé pour des millions d’années. Il faudrait plus ou moins un millier de tonnes de sulfate de carbone, composé abondant et bon marché pour réaliser cette fertilisation à grande échelle. D’après les calculs de M. Smetacek, cette technique permettrait de faire disparaître un milliard de tonnes de carbone par an, dès aujourd’hui, ce qui représente 15% des émissions de gaz carbonique actuelles. De plus la fertilisation de l’océan ne provoquera pas de catastrophes écologiques, avance le scientifique.
Cependant, le projet ne rencontre pas l’unanimité. En effet, ce qui importe, ce n’est pas la quantité de plancton en surface qui est générée, mais bien celle du plancton qui coule. On peut aisément comparer le plancton de surface avec l’herbe des jardin : elle stocke du carbone au printemps, mais l’automne arrivé, elle meurt et le restitue à l’atmosphère. Le plancton qui coule vers les grands fonds est capable de continuer à stocker ce carbone durant des siècles... mais après ? Il y a aussi un autre problème : des chiffres indiquent que la proportion de planton qui coule varie de 1 à 50% de la masse produite. De plus, le fait de stimuler la productivité de l’océan Austral peut finir par réduire celle de l’océan tropical étant donné que les masses d’eau passent de l’un à l’autre. On en reviendrait donc au point de départ.
La plupart des chercheurs pensent que le résultat obtenu sera minime étant donné l’imprévisible perturbation des écosystèmes que ce projet représente. De plus, grâce à certains modèles, on a pu estimer que le fait de fertiliser chaque année les zones favorables, on pourrait extraire 10 à 30ppm (parties par million) de la concentration atmosphérique en dioxyde de carbone d’ici à 2100. Cependant, il faudrait, à cette date, extraire 200ppm pour se stabiliser à des niveaux acceptables.
Un parasol spatial pour mettre la terre à l’ombre
Pour contrer le réchauffement climatique, on pourrait envoyer dans l’espace, à 1,5 millions de kilomètres de la Terre, 1600 milliards d’écrans de 60cm de diamètre, pesant chacun 1g. Ceux-ci ne dévieraient alors qu’une partie des rayons solaires avant qu’ils n’atteignent la Terre. L’instigateur de ce projet est le professeur Roger Angel, soutenu par la NASA. Ce bouclier spatial permettrait d’atténuer les rayons du soleil et donc de diminuer la température de la Terre. Pour le professeur, il n’est pas question de construire une structure complexe dans l’espace ou d’utiliser la Lune comme base d’assemblage et de lancement. En effet, l’idée consiste à déployer dans l’espace une multitude de petits écrans indépendants les uns des autres, très légers et munis d’un système de positionnement.
Ces écrans devront impérativement se trouver au point de Lagrange L1, situé à 1,5 million de kilomètres de la Terre et à 148 millions de kilomètres du Soleil où les forces d’attraction de notre planète et du Soleil se compensent. Tout objet placé à cet endroit reste donc fixe par rapport à la Terre et au Soleil si sa position est contrôlée pour éviter que la moindre perturbation ne le fasse dériver. En effet, le Soleil émet des radiations qui exerceraient alors une pression sur les écrans, les poussant ainsi hors de leur orbite idéale. Pour parer à cette éventualité, Roger Angel compte envoyer dans l’espace des écrans non pas réfléchissants mais bien transparents. Le principe sur lequel sont basés ceux-ci est la diffraction, c’est-à-dire que les rayons solaires sont inclinés de quelques degrés par rapport à leur direction incidente. De cette manière, ils éviteraient notre planète en réduisant ainsi de 1,8% la quantité d’énergie solaire reçue par la Terre. D’après le chercheur, cela permettrait de compenser l’augmentation de la température qui est liée au doublement du taux de dioxyde de carbone.
Le seul problème dans ce projet réside dans la mise en orbite de ces milliards d’écrans (16000 milliards en tout qui correspondent à 20 millions de tonnes de matière). Pour cela, M. Angel utiliserait un lanceur électromagnétique (sorte de canon propulsant une charge grâce à un champ électromagnétique intense) qui permettrait d’envoyer des charges de une tonne chacune, soit 800.000 écrans. Ce lancement serait ensuite relayé par une propulsion ionique grâce à un moteur ionique. Ce type de moteur est basé sur l’accélération de particules chargées que sont les ions par un champ électrostatique. Ce type de propulsion a déjà fait ses preuves, mais la technologie du canon électromagnétique n’est pas encore tout à fait au point. De plus, ce genre de technologie coûte excessivement cher mais pourrait être intéressant pour de telles quantités de lancement. Le montant du projet s’élèverait alors à quelques milliers de milliards de dollars (0,5% du PIB mondial) et pourrait être mis en service d’ici 25 ans.
Relancer le Gulf Stream en créant une banquise artificielle
Avant d’expliquer ce projet, il faut d’abord parler de ce qu’est le Gulf Stream : il s’agit d’un courant océanique prenant sa source entre les Bahamas et la Floride, dû à la différence de surface entre les eaux du Golfe du Mexique et celle de l’Atlantique. Ce courant circule partout à la surface du globe, et permet notamment chez nous de garder notre statut de pays tempérés. En effet, la circulation thermohaline (due aux différences de densité entre les eaux arctiques et les eaux de l’Atlantique) permet de ramener à proximité de nos côtes des courants d’eau tropicale et d’ainsi atténuer les basses températures dues à la relative proximité de l’Arctique.
Cependant, à cause du dérèglement climatique, le Gulf Stream risque de s’arrêter. Dans ce cas, plutôt que de devoir faire face à un réchauffement du climat, nous devrions au contraire nous préparer à vivre dans des températures beaucoup plus froides que celles auxquelles nous sommes habitués. C’est là qu’interviennent Peter Flynn et Songjian Zhou, deux chercheurs canadiens. Leur idée est de donner un coup de pouce au Gulf Stream en créant des banquises artificielles au large du Groenland. En effet, puisqu’un des moteurs de ce courant est la plongée des eaux froides due à leur densité et leur teneur en sels, pourquoi ne pas créer une armée de stations de pompage qui "largueraient" aussi ce type d’eau en profondeur ?
Le mécanisme semble assez simple. En plein hiver, les stations de pompage (au nombre d’à peu près 8100) extraient de l’eau dans l’océan et la vaporisent en micro gouttelettes à la surface de ce dernier. La température avoisinant les -10°C, ces gouttelettes gèlent très vite et forment un premier tapis neigeux qui se met à durcir. Au fur et à mesure, la station continue de pomper et de déverser de l’eau de mer sur ce tapis, ce qui a pour effet de l’alourdir et d’augmenter son épaisseur, jusqu’à atteindre plus ou moins 7,5 mètres. Ensuite, au printemps, l’air ambiant se réchauffe, et la banquise commence à fondre, bien que la station continue à déverser de l’eau de mer. L’eau fraîchement dégelée et par conséquent particulièrement froide descend dans les profondeurs de l’océan, vu que sa densité est plus élevée. De plus, elle est aussi plus salée que les eaux aux alentours, ce qui favorise sa descente. Cela crée un courant du même type que le Gulf Stream. Cependant, le but n’est pas de remplacer celui-ci : le courant artificiel n’a pour but que de le renforcer. Coût de l’opération : 50 milliards de dollars. Une bagatelle au regard de ceux qui pourraient en profiter. Cependant, rien ne permet de savoir si ce dispositif permettrait vraiment de booster notre pompe océanique. Car on ne peut prévoir l’efficacité des mini banquises qu’en suivant le parcours de l’eau envoyée dans les profondeurs de l’océan. Bémol d'importance : comme la période de circulation océanique se compte en milliers d’années, les effets ne peuvent être escomptés à court terme.
Notes et références
S&V hors série n°240 pages 158 à 162 S&V n° 1071, pages 56 à 67 [1] [2] [3] [4] Géoingénierie [5] [6] [7] [8]
Catégorie : Changement climatique
Wikimedia Foundation. 2010.