lundi 3 décembre 2007

Le Portugal va devenir le premier producteur mondial d’énergie des mers

Pour ce faire, le Portugal est en train de se doter de machines Pelamis semi émergées, nom d’origine latine qui signifie serpent de mer, conçues par une entreprise écossaise, Pelamis Wave Power (PWP). Cette machine est composée de plusieurs cylindres de 3,5 mètres de circonférence, chacun de la longueur d’un wagon de train et reliés entre eux dans la direction des vagues sur une longueur totale d’environ 150 mètres. Les vagues provoquent la montée et la descente du Pelamis dans une séquence de mouvements ressemblants à ceux d’un serpent. Au niveau des charnières, des marteaux hydrauliques pompent une huile à haute pression et fournissent une énergie qui est convertie en électricité par un générateur.

Le projet Pelamis fournira à ses débuts 2,25 megawatts (MW) d’énergie propre au large d’Aguçadoura, dans le Nord du Portugal, de quoi fournir l’équivalent énergétique de 1 500 foyers.

A terme, le projet sera capable de générer l’énergie de 15 000 maisons, économisant ainsi l’émission de 60 000 tonnes de CO2 par an.Disposant de trois appareils au départ, Enersis espèe porter la ferme à vagues à 30 machines dès l’année prochaine pour atteindre en quelques années une centaine de machines pour une production de 500 MW qui rendrait le projet rentable. Ce projet s’inscrit bien dans la politique volontariste du Portugal pour développer les énergies renouvelables. Le premier ministre portugais José Sócrates a récemment relevé le taux des énergies renouvelables que le pays devra produire d’ici 2010 en passant de 39 % à 45 %. Centré sur l’énergie éolienne, le manque de place sera à terme un problème pour le Portugal qui doit alors trouver d’autres sources d’énergies renouvelables.

Source : http://www.enerzine.com/7/3452+Le-Portugal-futur-leader-dans-l-energie-des-vagues+.html

Le Sahara générateur d’électricité ?

L’avenir de l’énergie dans les pays du sud de la Méditerranée n’est pas l’atome, mais le soleil. Un groupe d’ingénieurs allemands en a convaincu le gouvernement de Berlin et des partenaires du pourtour de la mer. Leurs arguments progressent aussi à Bruxelles, où deux parlementaires européens, Rebecca Harms et Anders Wikjman, ont organisé un colloque le 28 novembre sur un des projets technologiques les plus ambitieux de l’époque.

L’idée est forte et simple : l’énergie solaire illuminant le Sahara est très abondante. Si l’on pouvait en récupérer une fraction, celle-ci couvrirait une part notable des besoins en énergie des pays méditerranéens, mais aussi de l’Europe. Or les technologies solaires ont suffisamment progressé pour que cette perspective devienne réaliste.

Sur le papier, le raisonnement est imparable : "Les déserts chauds couvrent environ 36 millions de km2 sur les 149 millions de km2 de terres émergées de la planète, explique le physicien Gerhard Knies, inspirateur du projet TREC (Trans-Mediterranean Revewable Energy Cooperation). L’énergie solaire frappant chaque année 1 km2 de désert est en moyenne de 2,2 térawattheures (TWh), soit 80 millions de TWh par an. Cela représente une quantité d’énergie si considérable que 1 % de la surface des déserts suffirait pour produire l’électricité nécessaire à l’ensemble de l’humanité." Dès lors, il devrait être possible, en multipliant les centrales solaires dans le désert, d’alimenter les pays riverains, voire les pays européens.

L’idée, dans l’air depuis longtemps, commence à se formaliser en 2002, lorsque Gerhard Knies, convaincu de la première heure, contacte la section allemande du Club de Rome. Une réunion d’experts a lieu début 2003 : le gouvernement, séduit, accepte de financer une étude approfondie. Celle-ci, menée par le Centre aéronautique et spatial allemand (DLR, l’équivalent du CNES français) et rédigée par l’ingénieur Franz Trieb, est publiée en 2005 et 2006. Elle conclut à la faisabilité du projet avec les technologies existantes.

Concrètement, quelles infrastructures cela impliquerait-il ? La production d’énergie serait assurée par des centrales thermiques à concentration, dans lesquelles des miroirs font converger la lumière du soleil. La chaleur de celle-ci peut échauffer de la vapeur (employée pour faire tourner des turbines), mais elle peut aussi être stockée dans des réservoirs de sels fondus qui la restituent pendant la nuit. L’énergie résiduelle de la production d’électricité pourrait également servir, par le procédé dit de cogénération, à dessaler l’eau de mer - une préoccupation importante pour les pays du sud de la Méditerranée. Les experts estiment par ailleurs que le transport de l’électricité vers les pays du Nord, malgré d’inévitables pertes en ligne, resterait avantageux, dans la mesure où l’irradiation est deux fois supérieure dans le désert à ce que l’on observe en Europe.

Le point-clé du projet, bien évidemment, reste sa rentabilité économique. D’après ses défenseurs, celle-ci serait au rendez-vous. "Aujourd’hui, une centrale solaire thermique produit l’électricité à un coût situé entre 0,14 et 0,18 euro par kilowattheure (kWh). Si une capacité de 5 000 mégawatts (MW) était installée dans le monde, le prix pourrait se situer entre 0,08 et 0,12 euro par kWh, et pour 100 GW, entre 0,04 et 0,06 euro par kWh", précise Franz Trieb.
"L’idée de TREC tient la route, renchérit Alain Ferrière, spécialiste de l’énergie solaire au CNRS. Elle table sur le fait que l’on a besoin de développer la technologie pour en faire baisser le coût."

Pour l’instant, en effet, les centrales solaires se comptent sur les doigts de la main, en Espagne, aux Etats-Unis, ou en Allemagne. De plus, elles s’installent souvent sur des zones agricoles ou végétales, ce qui, d’un point de vue environnemental, n’est guère satisfaisant. La centrale de 40 MW de Brandis, en Allemagne, couvrira ainsi de panneaux solaires 110 hectares de bonne terre. Dans le désert, ce gaspillage d’espace est moins préoccupant. D’où l’intérêt croissant porté au concept de TREC par plusieurs compagnies d’électricité en Egypte et au Maroc. Et, plus encore, en Algérie.

Détenteur d’un des potentiels solaires les plus importants de tout le bassin méditerranéen, ce pays a annoncé, en juin, un plan de développement assorti d’un calendrier, qui devrait être mis en oeuvre par la compagnie NEAL (New Energy Algeria). Le 3 novembre, l’acte fondateur du projet a été effectué par le ministre de l’énergie Chakib Khalil, qui a posé la première pierre d’une installation hybride, comprenant une centrale à gaz de 150 MW et une centrale solaire de 30 MW, dans la zone gazière de Hassi R’mel (Sahara). Son ouverture est prévue pour 2010. Une première étape vers ce qui pourrait, une fois réduits les coûts de production, devenir à terme une installation majoritairement solaire.

Le 13 novembre, une autre étape a été franchie : le PDG de NEAL, Toufik Hasni, a annoncé le lancement du projet d’une connexion électrique de 3 000 km entre Adrar, en Algérie, et Aix-la-Chapelle, en Allemagne. "C’est le début du réseau entre l’Europe et le Maghreb. Il transportera de l’électricité qui, à terme, sera solaire à 80 %", affirme M. Hasni, interrogé par Le Monde. L’Europe s’étant fixé un objectif de 20 % d’électricité d’origine renouvelable d’ici à 2020, cette perspective pourrait intervenir à point nommé. Plus globalement, le développement de l’énergie solaire, soulignent ses promoteurs, pourrait servir la cause de la paix en devenant un substitut crédible à l’énergie nucléaire.

Source : http://www.lemonde.fr/web/article/0,1-0@2-3244,36-979564,0.html?xtor=RSS-3244

lundi 26 novembre 2007

Le sel, nouvelle piste pour les énergies renouvelables

"Nous cherchons la source d’énergie du futur depuis des années. Peut-être la réponse a-t-elle toujours été sous notre nez", proclame Statkraft, qui a décidé de construire la première mini-centrale à eau de mer au monde. Sur les rives du fjord d’Oslo, le groupe public norvégien aménagera l’an prochain un projet-pilote de centrale "osmotique", une forme d’énergie propre qui, selon ses promoteurs, pourrait en théorie produire 1.600 TWh à l’échelle mondiale, soit la moitié de la consommation énergétique actuelle en Europe.

"C’est totalement neutre en émissions de CO2", explique Jon Dugstad, un haut-responsable de Statkraft. "Tout ce qu’on fait, c’est mélanger eau douce et eau de mer, sans rien ajouter dans un processus qui est parfaitement naturel" puisqu’il se produit partout où les rivières se jettent dans la mer. L’énergie osmotique exploite la différence de concentration entre liquides : si l’on sépare deux masses d’eau filtrée, l’une salée l’autre douce, par une membrane semi-perméable, la seconde —moins concentrée— migre naturellement vers la première. Le surcroît de pression généré sur l’eau salée, elle-même préalablement pressurisée, peut alors être transformé en énergie via une turbine.

Dans une usine de Hurum, dans le sud de la Norvège, Statkraft va donc construire une minuscule centrale osmotique capable de produire de 2 à 4 KWh, de quoi alimenter quelques ampoules. "Le prototype ne vise qu’à valider la technologie", précise M. Dugstad. En cas de succès, une centrale à plus grande échelle, capable celle-là de produire de 160 à 170 GWh —assez pour alimenter environ 15.000 foyers en électricité—, pourrait suivre dans les années qui viennent. Selon Statkraft, l’énergie osmotique pourrait être compétitive aux alentours de 2015. Avec l’Europe, l’Amérique du Nord, l’Afrique du Sud et certaines régions d’Amérique latine parmi les marchés considérés comme les plus prometteurs.

"Ce n’est pas une lubie de chercheurs. A l’avenir, on sera de toutes façons amenés à exploiter toutes les sources d’énergie propres", commente Gérald Pourcelly, directeur de l’Institut européen des membranes affilié au CNRS. Le principal défi technologique se situe au niveau de la membrane, dont l’étendue et la perméabilité —permettant à l’eau douce de migrer vers l’eau salée sans que les particules de sel ne puissent faire le parcours en sens inverse— déterminent le niveau d’énergie produite. "Le problème, c’est qu’il faut que les surfaces d’échange, c’est-à-dire la membrane, soient extrêmement grandes pour recueillir suffisamment d’énergie. Cela va nécessiter de grandes quantités de membranes pour une énergie au m2 relativement faible", estime M. Pourcelly.

Au fil des ans, Statkraft dit être parvenu, en laboratoire, à un flux (la quantité d’énergie rapportée à la surface) de 3 Watt/m2. "Nous pensons qu’il nous faut 5 Watt/m2", indique-t-on chez Statkraft. D’une exploitation peu coûteuse une fois installée, l’énergie osmotique aurait aussi le mérite d’assurer une production constante, un gros avantage par rapport au solaire ou à l’éolien. L’inconvénient est d’ordre géographique dans la mesure où de telles centrales nécessitent une certaine emprise au sol dans des zones souvent déjà fortement urbanisées, au point de jonction entre rivières et océans.

Source : AFP

L’énergie éolienne a le vent en poupe en Chine

Les vents balayant les régions arides du nord de la Chine peuvent être une des réponses au défi écologique posé par l’immense besoin en énergie de la croissance du géant asiatique qui a les moyens de devenir un des leaders mondiaux de l’éolien. La Chine sera à la fin de l’année le premier émetteur de gaz à effet de serre. Elle devrait aussi dépasser les Etats-Unis comme premier consommateur mondial d’énergie, un peu après 2010. Si elle continue à avoir recours majoritairement au charbon, elle a fortement développé ces dernières années les énergies alternatives, plus propres, comme l’éolien.

"Il y a deux ans, les gens pensaient que l’éolien était une plaisanterie", dit Li Junfeng, un spécialiste des énergies alternatives. "Personne ne pensait qu’il était possible d’atteindre l’objectif de 30 millions de kilowatts en 2020", ajoute-t-il.

Du 10e rang mondial il y a deux ans en terme d’installations annuelles d’éoliennes, elle est passée au cinquième, derrière les Etats-Unis, l’Allemagne, l’Inde et l’Espagne. En 2007, le géant asiatique a accru sa capacité d’énergie éolienne de 1.300 mégawatts, soit l’équivalent d’une centrale nucléaire française. Mais, malgré une capacité de production de 2,6 gigawatts l’année dernière, l’éolien ne représente encore que 1 % dans la production de son énergie, contre 70 % pour le charbon.

"Accélérer le développement de l’énergie éolienne devrait faire partie de la stratégie chinoise pour réduire sa dépendance au charbon tout en lui permettant de répondre à sa demande d’énergie", juge Yang Ailun de Greenpace Chine. Dans le monde entier, l’éolien est en plein boom, nourri par la volonté de réduire la consommation d’énergies fossiles et d’avoir recours à des énergies plus propres pour combattre le réchauffement climatique.

L’année dernière, selon des statistiques du secteur, la capacité a été augmenté d’un quart à plus de 74 gigawatts avec l’installation de nouvelles éoliennes pour l’équivalent de 23 milliards de dollars. Pour la seule Chine, la croissance annuelle de l’éolien a été de 46 % ces dix dernières années et en 2007 la capacité installée sera de cinq gigawatts, soit une avance de trois ans par rapport aux objectifs de Pékin. "D’une certaine manière, la Chine mène la danse", affirme Steve Sawyer, secrétaire du Conseil mondial de l’énergie éolienne, une organisation basée à Bruxelles chargée de promouvoir ce type d’énergie.

En 2006, les parlementaires chinois ont adopté une loi sur les énergies renouvelables, qui a créé un fonds nourri par des versements publiques obligatoires afin de couvrir les frais supplémentaires induits par l’éolien. Cependant, pour le Conseil mondial de l’énergie éolienne, une politique plus active du gouvernement pourrait permettre d’atteindre 120 gigawatts en 2020, soit 10 % de la capacité de production énergétique. "Avec un plus grand soutien, la Chine pourrait devenir un des trois principaux marché de l’éolien dans le monde en 2020", estime Li Junfeng. "Le combat mondial contre le changement climatique ne sera pas gagné sans un rôle majeur de la Chine", estime pour sa part M. Sawyer.

Source : AFP

Les biocarburants de deuxième génération issus de la biomasse et de la mer pourraient changer la donne énergétique

Après la Banque mondiale, c’est au tour de l’Organisation de coopération et de développement économiques (OCDE) de s’inquiéter de la vogue des agrocarburants destinés à limiter les émissions de gaz à effet de serre dans le domaine des transports.

Faire passer de 1 % à 11 % la part d’agrocarburants dans la consommation totale de carburants d’ici à 2050 n’ira pas sans bouleversements majeurs. "En théorie, écrivent les auteurs, il y a assez de terres sur le globe pour nourrir une population en expansion tout en produisant suffisamment de biomasse." Mais "la transformation des terres pour la production d’énergie à partir de la biomasse poussera les prix alimentaires vers le haut". L’OCDE s’attend à une progression de 20 % à 50 % au cours de la prochaine décade. Le bilan n’est pas fameux non plus en termes environnementaux, souligne le rapport, car la tentation sera grande "de remplacer les écosystèmes comme les forêts, les zones humides et les pâturages par des cultures destinées aux agrocarburants".

A ceux qui font valoir que les réductions de gaz à effet de serre peuvent être réduites de 40 % par l’emploi d’agrocarburants à la place de l’essence classique, il est répondu que l’éthanol et le biodiesel peuvent se révéler plus dommageables, si l’on prend en compte l’acidification des sols qui en résultera, l’usage des engrais et des pesticides et les atteintes à la biodiversité. Le rapport conclut que "la capacité des agrocarburants à couvrir une part importante des besoins énergétiques des transports sans nuire aux prix alimentaires ou à l’environnement est très limitée".

L’avenir de l’éthanol au Québec serait dans les résidus forestiers et les matières résiduelles plutôt que dans le maïs. " Le secteur forestier est mal en point, c’est le bon moment pour reconfigurer et revitaliser cette industrie", estime Esteban Chornet, qui travaille sur cette question depuis plus de vingt ans à l’Université de Sherbrooke. La production d’éthanol, à partir de matières ligneuses comme les copeaux de bois, les résidus de coupe ou de procédés industriels, permettrait de générer des revenus intéressants pour le secteur forestier tout en représentant un gain appréciable sur le plan environnemental. Les matières résiduelles pourraient également être transformées en éthanol, ce qui éviterait notamment la production de méthane lors de leur décomposition, ce gaz ayant un impact important sur l’effet de serre.

Le gouvernement provincial vient d’annoncer, en partenariat avec le secteur privé, le lancement d’une chaire de recherche sur l’éthanol cellulosique à l’Université de Sherbrooke. Deux usines pilotes seront également implantées dans les Cantons de l’Est. L’une des usines témoins utilisera les matières résiduelles pour fabriquer l’éthanol, tandis que l’autre se servira de résidus forestiers. La décision de bâtir une usine commerciale, qui produirait de 40 à 80 millions de litres d’éthanol par année, devrait être prise au premier trimestre de 2009, affirme le professeur Esteban, également actif au sein de l’entreprise Enerkem.

L’éthanol cellulosique, ou éthanol de seconde génération, offre des bénéfices environnementaux supérieurs à ceux du carburant fabriqué grâce au maïs. Les rejets de gaz à effet de serre pourraient s’avérer de 80 % moins importants que ceux générés par l’essence. Le pourcentage est proche de 15 % avec l’emploi d’éthanol de maïs, selon un article publié par le magazine scientifique Science. "L’éthanol cellulosique est plus énergétique que l’éthanol de maïs et il fait appel à des matières abondantes non utilisées dans la production alimentaire", précise un rapport de l’ONG américaine Union of Concerned Scientists. Malheureusement, la technologie n’en est pas encore à la phase commerciale.

"Cette étape approche toutefois à grands pas. L’entreprise Iogen est à l’origine depuis 2004 d’installations témoins à Ottawa - les seules au monde", soutient la porte-parole Mandy Chepeka. Ces installations ont une capacité de 2,5 millions de litres par année, et l’entreprise se prépare maintenant à passer à la production commerciale. Le Département américain de l’Énergie a d’ailleurs annoncé en mars dernier l’octroi de subventions de 385 M$ afin de construire six usines commerciales d’éthanol cellulosique. À plein régime, ces usines produiraient 500 millions de litres d’éthanol par année.

En Allemagne, le centre de recherche de Karlsruhe a présenté son procédé "bioliq" : il permet de transformer des résidus forestiers et agricoles en carburants synthétiques. Sa qualité serait supérieure à celle des autres biocarburants et même des hydrocarbures. Afin de produire des carburants de synthèse de haute qualité et des matières premières chimiques, la biomasse est l’unique source renouvelable. Ces carburants de synthèse (baptisés aussi BtL, "Biomass to Liquid") évitent une hausse de la teneur en CO2 de l’atmosphère, diminuent la quantité de résidus de combustion nuisant à la santé et au climat et réduisent la dépendance en matières premières fossiles. Les carburants BtL satisferaient aux exigences actuelles et futures des techniques de moteurs et des normes d’émissions polluantes.

Au sein du centre de recherches de Karlsruhe, ce procédé développé en 2 étapes, permet d’utiliser différents constituants de la biomasse, à teneur énergétique le plus souvent faible. Il répond de même aux exigences de la production à grande échelle et à sa viabilité économique. La biomasse est transformée en un produit intermédiaire fluide, facilement transportable et à haute valeur énergétique via une rapide pyrolyse : elle satisfait aux exigences économiques pour être amenée sur de longues distances jusqu’à des installations importantes pour la production de gaz de synthèse ou de carburant.

Les principaux résidus utilisables dans ce procédé sont la biomasse sèche (pailles, foin, diverses chutes de bois, découpe d’arbre, écorce), le papier et le carton. Le procédé "bioliq" constitue un grand potentiel dépassant de loin les biocarburants de la première génération (le biodiesel et le bioéthanol) grâce à cette vaste palette de résidus agricoles et forestiers. L’autre atout : la totalité d’un végétal peut être utilisé. Selon les indications de l’agence des matières premières renouvelables (FNR), les résidus de la biomasse pourraient couvrir 15 % des besoins en carburant en Allemagne en 2015 : point important, la production alimentaire ne serait pas menacée.

Mais, à côté de nos forêts, la mer pourrait devenir une source importante de biomasse et de biocarburant. Le programme Rotterdam Climate Initiative, dont font partie la municipalité et le port de Rotterdam notamment, a réuni récemment des spécialistes de l’énergie et de l’industrie des algues à Rotterdam, pour discuter du rôle des algues dans la production d’énergie durable.
Les algues n’ont besoin que de lumière du soleil, de CO2 et d’eau avec des oligo-éléments, du phosphate et de l’azote, pour se développer. Les variétés d’algues les plus adaptées pour la production de biocarburant sont les algues vertes unicellulaires, micro-organismes primitifs situés en dessous des plantes. On peut utiliser 99 % de leur masse pour fabriquer des médicaments, des matières colorantes, des plastiques biologiques ou des biocarburants. Environ 40.000 litres de biocarburant par hectare peuvent être produits chaque année, ce qui représente un rendement important.

Les algues sont surtout cultivées dans des systèmes d’étangs ouverts. Un photobioréacteur qui permettra de contrôler précisément certains paramètres est actuellement expérimenté pour une culture en système fermé. Mais la grande quantité de verre nécessaire pour une culture en batch empêche la production à l’échelle industrielle. La culture des algues à l’avantage de produire de l’énergie durable sans concurrencer l’agriculture. En effet, les bassins ou les réacteurs sont placés en mer ou dans les villes.

En France, les chercheurs du Laboratoire océanographique de Villefranche-sur-Mer (LOV) travaillent sur un produit énergétique étonnant. Capable de faire tourner un moteur, il est fabriqué à partir d’organismes microscopiques poussant dans l’eau douce ou l’eau de mer : des microalgues. Produites par photosynthèse, elles peuvent contenir jusqu’à 60 % de leur masse en lipides. Avec cent grammes d’huile extraits d’un litre de microalgues, la promotion de ces cellules permet donc d’espérer un rendement à l’hectare trente fois supérieur à celui du colza ou du tournesol !

Ces recherches et ces avancées viennent à point nommé car les biocarburants actuels suscitent de plus en plus d’interrogations et de scepticisme quant à leur impact réel sur l’environnement. Au-delà de la déforestation et de la consommation d’énergie que leur culture implique, ils peuvent mener dans certains pays une rude concurrence aux produits destinés à l’alimentation. Selon des experts, il faudrait en effet planter l’équivalent de la surface de la France en oléagineux pour faire rouler toutes les voitures du pays. D’où la nécessité d’inventer un nouveau carburant à bas prix, non polluant, économe en énergie et qui ne prenne pas la place des cultures terrestres.

Les microalgues pourraient satisfaire à tous ces critères. Le Programme National pour la Recherche en Biotechnologies (PNRB), via l’Agence Nationale de la Recherche (ANR), a donc décidé de financer sur trois ans ce projet qui s’élève à 2,8 millions d’euros. Le nom de code du programme : Shamash. La mission des chercheurs, venus de sept équipes universitaires françaises est désormais de trouver la microalgue capable de produire le plus de biocarburant et de rendre cette production rentable.

Les chercheurs ont déjà institué un processus de fabrication non polluant. L’élaboration d’algues en bassin permet la récupération et le recyclage de substances minérales néfastes pour l’environnement. Qui plus est, les stations de production d’algues seront couplées avec des stations de production de carbone afin de recycler les émissions de CO2 grâce à l’énergie solaire.
À l’heure actuelle, le litre de carburant d’algue coûte plus cher que le pétrole. Mais plusieurs éléments permettent d’espérer, à terme, une bien meilleure rentabilité. Certaines microalgues contiennent des molécules à haute valeur ajoutée, comme les oméga 3 et les antioxydants, très recherchées dans le domaine de l’agroalimentaire ou de la cosmétique. « En améliorant les procédés de séparation des différentes molécules et en stimulant les microalgues selon certains procédés, on pourrait faire de la coproduction et diviser les coûts », estime Antoine Sciandra, directeur de recherche au CNRS.

Au Danemark, la laitue de mer (Ulva lactuca), une belle et grande algue d’un vert cru, pousse vite et bien, nettement mieux que le blé, qui sert justement à fabriquer du bioéthanol. Pour les Danois, l’intérêt est évident. Les surfaces agricoles manquent un peu d’espace (le pays produit environ 5 millions de tonnes de blé contre, bon an mal an, 35 millions pour la France). Si on la compare au blé, la laitue de mer gagne sur la plupart des terrains.

Non seulement sa croissance est plus rapide (l’algue double son poids tous les trois à quatre jours) mais, à surface égale, la production de biomasse (sans eau, donc) est considérable. Alors que, poussée au maximum, la production de céréales ne dépasse pas dix tonnes à l’hectare, il serait possible, d’après les chercheurs, d’atteindre entre 200 à 500 tonnes avec la laitue de mer ! Pour le Danemark, la potentialité serait de 80 à 100 tonnes. En outre, cette algue est plus riche que le blé en sucres, la matière première pour la synthèse de l’éthanol.

Facile à cultiver, la laitue de mer a même tendance à proliférer naturellement sur les milieux côtiers pollués par des rejets organiques (elle adore les composés soufrés et nitrés résultant de leur décomposition). Sa simple récolte pourrait donc servir à atténuer ses mauvaises odeurs, relancer l’oxygénation des zones polluées et fournir du biocarburant.

Au rythme d’augmentation du prix des carburants fossiles, et compte tenu de l’impact environnemental de plus en plus contesté des biocarburants de première génération et de leur effet négatifs sur la hausse des prix des céréales, ces biocarburants de deuxième génération, issus de nos forêts et de nos océans pourraient s’avérer rentables d’ici 5 ans à condition de poursuivre au niveau européen notre effort de recherche dans ce domaine. Sans constituer une panacée, ces biocarburants véritablement écologiques, et n’entrant pas en concurrence avec les cultures vivrières, pourraient permettre d’accélérer sensiblement la mutation des transports vers l’ère de l’après-pétrole et contribuer ainsi à lutter encore plus efficacement contre le réchauffement du climat dont la réalité et l’ampleur viennent encore d’être confirmées par le dernier sommet du GIEC à Valence.

René Trégouët
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat

vendredi 9 novembre 2007

L’hôpital de Limoges se chauffera à partir d’une centrale biomasse

Pour la première fois en France, l’hôpital de Limoges va être équipé d’une chaufferie alimentée par de la biomasse (déchets végétaux) qui produira 66 % des besoins énergétiques du CHU dès la fin 2008, a annoncé Philippe Vigouroux, directeur de l’établissement. Le bâtiment abritant la future chaufferie de 9 mégawatts sera équipé de matériel photovoltaïque et de récupération d’eau pluviale, afin de répondre aussi à des préoccupations environnementales. Ce projet s’appuie sur la filière bois en Limousin. La chaufferie consommera annuellement 20.000 tonnes d’un mélange écorce-plaquette forestière (résidus d’exploitation forestière) et créera une dizaine d’emplois en amont.

Le projet, d’un montant chiffré par le CHU à "plus de 8 millions d’euros", a été confié à la société Dalkia (filiale de Veolia Environnement et d’EDF), leader européen des services énergétiques. Il comprend la construction de la nouvelle chaufferie, la rénovation du réseau existant et l’exploitation des sites. Selon Philippe Frugier, directeur de la communication au CHU Dupuytren de Limoges, "l’établissement devrait diminuer considérablement sa consommation de ressources fossiles et ses rejets de C02 tout en réduisant sa facture énergétique de 500.000 euros par an". Le réseau de chaleur actuel, fonctionnant à 96 % avec du gaz et complété en fuel lourd, sera entièrement rénové. Lors de la mise en service de la centrale biomasse, il ne produira plus que 34 % de l’énergie nécessaire au chauffage du site.

Source : http://www.lemoniteur-expert.com/actualite/energie/l_hopital_limoges_chauffera_partir/D801372B2.htm

L’éolien, une énergie d’avenir à l’échelle mondiale

L’éolien se développe de manière importante en France et dans le monde. Ainsi la puissance installée a augmenté en France de 42 % (de 1450 MW à 2100 MW) entre le début de l’année et le mois d’octobre 2007. Le développement de l’éolien nécessite en France un investissement de 1,3 million d’euros par MW installé. L’éolien représentera donc des investissements de plus d’un milliard d’euros chaque année en France lorsque le seuil des 1000 MW installés annuellement sera dépassé ces prochaines années.

Selon le cabinet Danois BTM Consult, d’ici 2016, le parc mondial opérationnel serait de 455 GW, de quoi couvrir 4 % de la consommation mondiale d’électricité et le marché annuel à cet horizon serait de 64 GW par an, soit plus de 60 milliards d’euros annuellement. La banque d’affaires HSBC Holding retient des estimations d’un marché mondial de 270 milliards d’euros pour l’éolien d’ici à 2020. En effet, à quelques exceptions près, les parcs éoliens à travers le monde en sont encore à leurs débuts (le parc français en est d’ailleurs un bon exemple). Il n’est donc pas trop tard pour tirer parti du marché de l’éolien afin de créer des emplois en France.

En 2006 en Allemagne, l’éolien représentait 82 100 emplois directs et indirects, avec une progression de 28,5 % en 2 ans (+ 18 200 emplois de 2004 à 2006 - chiffres du ministère de l’environnement allemand). Le secteur des énergies renouvelables représente quant à lui un total de 231 300 emplois. Il est possible d’extrapoler ces résultats à la France. Ainsi, d’après les professionnels de l’éolien, la filière représente actuellement 4000 emplois temps plein en France, et on peut espérer jusqu’à 60 000 emplois à l’horizon 2020 si l’éolien se développe conformément aux objectifs fixés au niveau européen.

Source : http://www.btm.dk/

L’ampoule à incandescence en fin de vie

Le temps des ampoules à incandescence est désormais compté. Le 26 septembre, le parlement finlandais examinait une résolution visant à leur interdiction pure et simple d’ici 2011. Le lendemain, le ministre britannique de l’environnement annonçait le lancement d’une initiative visant au bannissement de l’ampoule d’ici 2012, cette fois. Londres, pas plus que les autres capitales européennes, ne peut, en effet, interdire ces sources gaspilleuses ; une telle décision entraînerait immédiatement les foudres de Bruxelles, pour infraction aux règles de la libre concurrence. Ce qui n’empêche pourtant pas la Commission, dans son livre vert sur l’efficacité énergétique de 2005 de militer pour la disparition de l’ampoule énergivore.

Et d’ailleurs, les envies sont fortes. Les membres du groupe 1 du Grenelle de l’environnement préconisent d’en finir au plus vite avec cette ampoule. Comme l’ont déjà fait l’Australie et la Californie, au cours du premier semestre. La mesure peut paraître anecdotique à certains. Elle ne l’est pas. En Finlande, selon les calculs d’Helsingin Sanomat, la victoire des lampes à basse consommation permettrait de réduire de 200.000 tonnes les émissions nationales de CO2. Mieux, au Royaume-Uni, a estimé le ministre de l’environnement Hilary Benn, cela éviterait l’émission de 5 millions de tonnes de gaz carbonique. Autant que ce que rejette annuellement une tranche de 1.000 mégawatts (MW) au charbon.

Au total, nous rappelle une étude publiée l’an passé par l’Agence internationale de l’énergie, l’éclairage contribue à l’émission de 1,9 milliard de tonnes de dioxyde de carbone, soit 3,6 fois les émissions françaises. Il y a donc bien lieu de réduire désormais notre équipement en ampoules à incandescence qui, si elles émettent souvent une lumière plus agréable à l’œil, consomment 80 % d’électrons de plus que les fameuses fluo-compactes. Quoi qu’il en soit, les fabricants devraient mettre tout le monde d’accord. Début juin, Philips, Osram et consorts ont décidé d’arrêter la production de l’ampoule à incandescence en 2015.

La Chine, à l’origine de 70 % des ampoules de la planète, a déjà accepté d’abandonner progressivement la production de lampes à incandescence au profit d’ampoules à l’efficacité énergétique accrue. Elle se place, avec l’Australie, en pays leader dans ce domaine. Le programme de la Chine sera formellement annoncé en décembre lors de la rencontre dédiée au climat à Bali, en Indonésie », a-t-elle ajouté. Orienter la production vers des ampoules plus efficaces pourrait supprimer l’émission de 500 millions de tonnes de gaz à effet de serre.

Source : http://www.journaldelenvironnement.net/fr

Dans un futur proche, l'énergie viendra de l'espace

On pourrait croire à de la Science-fiction, et pourtant : selon un rapport du Pentagone, la possibilité de générer de l'électricité solaire dans l'espace pour la transmettre ensuite sur Terre pourrait devenir réalité d'ici quelques années à peine.

L'Office national de sécurité spatiale (NSSO) avait lancé une étude en avril dernier, afin d'évaluer le potentiel de l'exploitation de l'énergie solaire à partir de l'espace. Une perspective qui pourrait se révéler économiquement viable entre 2017 et 2020.
Le rapport démontre en effet que la transmission de l'énergie par micro-onde ou rayons laser pourrait permettre d'approvisionner en énergie les lieux isolés, là où importer de l'électricité par voie terrestre ou la produire sur place coûte très cher. L'étude privilégie la solution d'une transmission par micro-ondes, moins sensible aux variations atmosphériques que le laser.

Les panneaux solaires placés en orbite captent un rayonnement 4 fois plus puissant que sur Terre. Il faudrait néanmoins une surface de 2,4 km² pour générer 1 gigawatt en continu.

L'armée américaine est particulièrement intéressée par un système qui permettrait d'alimenter ses troupes directement sur le terrain. Mais alors que le Pentagone parle en dizaines d'années, certaines sociétés privées se disent d'ores et déjà prêtes à relever le défi d'une commercialisation.

L'une d'elles, Space Island Group, prétend lancer le premier prototype dans 18 mois. Elle affirme avoir quasiment finalisé son financement, pour un montant de 200 millions d'euros.

"Le satellite délivrera entre 10 et 25 mégawatts", avance Meyers, dirigeant de Space Island Group.

La compagnie prédit qu'elle sera dès lors capable de fournir le marché britannique en électricité à des prix compétitifs dès 2012.

Source : http://www.enerzine.com/603/3369+Dans-un-futur-proche-l-energie-viendra-de-l-espace+.html

Les forêts tropicales : un bien inestimable qui appartient à l’humanité

Depuis quelques années, plusieurs études scientifiques très sérieuses sont venues remettre en cause le rôle des forêts en matière d’émissions et de fixation de CO2. Selon ces études, les forêts boréales et tempérées fixeraient beaucoup moins de CO2 que prévu tandis que les régions tropicales ne seraient pas autant émettrices que pourrait le laisser penser l’intense déforestation dont elles sont victimes. Sur les 25 milliards de tonnes de gaz à effet de serre émis actuellement (selon l’Environnemental World Resources Institute), 40 % restent dans l’atmosphère, 30 % sont absorbés par les océans et 30 % par les plantes.

Les modèles informatiques chargés d’évaluer le captage du carbone des forêts utilisent principalement des données d’émissions constatées au sol, c’est-à-dire le montant du captage du CO2 par photosynthèse dont on soustrait les émissions dues à la décomposition de la matière organique. Mais ces mesures ne tiennent pas compte des mouvements de l’atmosphère et notamment des vents. L’équipe menée par le Centre national pour la recherche atmosphérique de Boulder (Etats-Unis) a eu l’idée d’utiliser les mesures faites dans la colonne d’air au-dessus des arbres et non au sol. Les chercheurs ont pour cela compilé les analyses de troposphère provenant de vols de recherche réalisés partout sur la planète ces 27 dernières années.

Leurs résultats publiés dans Science du 22 juin révèlent que les forêts de l’hémisphère Nord n’absorberaient « que » 1,5 milliard de tonnes de CO2 contre 2,4 milliards calculés par les modèles. Ce qui signifie que les concentrations de CO2 dans l’hémisphère Nord seraient plus importantes que prévu. En revanche, malgré les brûlis agricoles, les forêts tropicales ne relargueraient pas dans l’atmosphère 1,8 milliard de tonnes de CO2, mais seulement 100 millions. Dans ce cas, le tort des modèles serait de minorer l’efficacité de la forêt tropicale pour capter les gaz à effet de serre et surtout de ne pas tenir compte des vents qui amèneraient le CO2 émis par les feux sur d’autres zones forestières susceptibles de l’absorber.

Cette découverte ne permet pas seulement de mieux comprendre le système Terre. Elle pèse sur la capacité à calculer « les effets climatiques futurs de nos émissions de CO2. Pour un même scénario économique, exprimé en tonnes de CO2 émis, il peut y avoir une différence de 100 à 200 ppm de CO2 à la fin du siècle, soit environ un degré d’écart en termes de température moyenne à la surface de la planète, selon le rôle que jouent les forêts boréales et tropicales dans les modèles climatiques ». Or, un degré, c’est plus que le réchauffement mesuré depuis un siècle ! Les modèles actuels parient sur des forêts boréales gourmandes en CO2 et sur des forêts tropicales à l’équilibre, hors les effets de la déforestation due à l’homme. Si les auteurs de l’étude ont raison, il va falloir modifier les modèles afin de simuler correctement le futur climatique. Cette découverte suppose aussi de repenser la gestion des forêts tropicales en tenant compte de leur rôle dans le cycle du CO2.

Autre facteur déterminant à prendre en compte : la latitude. Pour que les forêts parviennent à limiter le réchauffement, on pensait alors qu’il suffisait que les entrées (les plantations) dépassent les sorties (la déforestation). Mais cette vision comptable est aujourd’hui remise en cause par une étude de l’Académie américaine des sciences. Une équipe américaine, regroupée autour de chercheurs du Lawrence Livermore National Laboratory (LLNL), vient de publier une étude où elle montre que l’installation de forêts dans les régions de haute latitude pourrait au contraire contribuer au réchauffement de la planète.

« Planter de nouveaux arbres à des moyennes latitudes comme aux États-Unis ou dans la plus grande partie de l’Europe n’aurait que des effets marginaux sur le climat. Mais des arbres supplémentaires dans les forêts des hautes latitudes comme au Canada, en Scandinavie ou en Sibérie seraient actuellement contre-productifs », explique Govindasamy Bala, du LLNL, qui a piloté l’étude.

Les chercheurs ont intégré dans leurs modèles les trois impacts majeurs des forêts sur le climat : leur capacité de stockage du carbone, qui contribue à limiter le réchauffement ; l’évapotranspiration et la forte nébulosité qu’elles produisent et qui contribuent aussi à limiter le réchauffement ; et, enfin, l’énergie solaire qu’elles absorbent en raison de leur couleur noire et qui contribue au contraire à augmenter le réchauffement.

En faisant tourner ces trois paramètres, ils parviennent à montrer que l’impact climatique des forêts varie considérablement selon les latitudes. Seules les forêts tropicales ont des effets très bénéfiques contre le réchauffement grâce à la forte nébulosité qu’elles entretiennent et grâce à leur capacité de stockage du carbone. La déforestation dans cette région du monde contribuerait donc à une élévation des températures. « Les forêts tropicales agissent comme un véritable climatiseur de la Terre », souligne Ken Caldeira, un des auteurs de l’étude et climatologue de renom.

L’impact positif des forêts a tendance à s’estomper au fur et à mesure que l’on avance vers les hautes latitudes. Plus on monte vers le nord, plus l’absorption de chaleur par le couvert forestier annule ou dépasse la contribution des forêts tempérées ou boréales contre le réchauffement. Il faut bien reconnaître, en effet, que ces dernières produisent moins d’humidité et séquestrent moins de carbone que les forêts tropicales, à la végétation luxuriante.

A la lumière de ces nouvelles connaissances scientifiques, l’enjeu écologique lié à la destruction accélérée des forêts tropicales (plus de 150 000 km2 de forêts tropicales détruites chaque année) prend une dimension nouvelle car ces forêts joueraient un rôle tout à fait déterminant dans l’absorption du CO2 et la régulation thermique de la Terre. Rappelons en outre que ces forêts constituent un réservoir irremplaçable de biodiversité : elles peuvent parfois contenir jusqu’à 300 espèces d’arbres différents par hectare et contiennent des milliers d’espèces végétales et animales qui sont autant de molécules et de médicament potentiels dont l’humanité a besoin. Certaines grenouilles africaines ou amazoniennes contiennent dans leur peau des dizaines de peptides aux propriétés antibactériens, ou anticancéreuses encore mal connues.
Pour toutes ces raisons, sauvegarder les forêts tropicales est dons une nécessité absolue pour notre planète et il est capital que les pays développés imaginent, en coopération avec les pays concernés, de nouveaux mécanismes économiques qui permettent d’évaluer à leur juste prix la valeur écologique de ces forêts irremplaçables afin de substituer à une exploitation sauvage à court terme une exploitation durable à long terme qui assure aux habitants de ces pays des revenus suffisants pour les convaincre de s’associer à cette gestion raisonnée de leur patrimoine vert. Peut être faudra-t-il, pour atteindre ce résultat, que les pays riches acceptent de rétribuer à un juste niveau, sous condition de reversement équitable aux populations, les pays concernés du Sud, pour qu’il devienne pour eux plus intéressant de préserver leurs forêts que de les exploiter de manière destructrice et inconsidérée. Nous devons inventer de nouveaux modèles et mécanismes de coopération et d’échanges économiques si nous voulons préserver des richesses comme les forêts tropicales qui appartiennent au patrimoine de l’humanité et dont le destin est lié à celui de l’homme sur cette Terre.

René Trégouët

vendredi 26 octobre 2007

Générateur électrique utilisant l'énergie des vagues

L'équipe du professeur Hiroshi KANKI de l'université de Kobe a mis au point un nouveau mécanisme permettant de générer de l'électricité à partir du mouvement des vagues. Le dispositif qui a été présenté est composé d'une plate-forme de 6x9 m2, surmontée d'un gyroscope, relié à un générateur électrique. Un gyroscope consiste en une roue tournant sur un axe qui, une fois lancée, tend à résister aux changements de son orientation. Lorsque que le plancher du générateur s'incline avec le mouvement des vagues, le gyroscope résiste donc à ce changement d'orientation. Cette force de résistance est alors transférée par un axe au générateur, qui la transforme en électricité.

Avec cette méthode, entre 40 et 80% de l'énergie des vagues est directement transformée en électricité, permettant ainsi d'atteindre une puissance fournie maximale de 22 kW. Les méthodes plus traditionnelles ont, pour comparaison, un rendement de 10 à 40% seulement.

L'équipe de recherche va maintenant passer à la phase d'essai en pleine mer avec le soutien de la préfecture de Tottori et d'entreprises locales. L'application la plus probable sera de fournir de l'électricité aux îles éloignées de la côte et de remplacer les générateurs actuels fonctionnant au diesel. L'objectif du groupe est d'atteindre un coût d'exploitation équivalant à celui de l'éolien.

Parmi les énergies renouvelables, l'énergie des vagues est la plus stable en termes de fourniture, donc à priori la plus prometteuse, mais les technologies l'exploitant sont encore rares et trop coûteuses pour pouvoir se diffuser.

Source : http://www.bulletins-electroniques.com/actualites/51482.htm

Une nouvelle génération de cellules photovoltaïques

L'énergie solaire, aujourd'hui, représente 0,04 % de la consommation mondiale d'énergie. Il en faudrait beaucoup plus pour qu'elle occupe, en 2050, une place significative. Problème : les cellules photovoltaïques souffrent du coût élevé de leur capteur en silicium. D'où la double innovation proposée par Gary D. Conley et Steve Horne, créateurs en novembre 2005 de l'entreprise SolFocus : remplacer, d'une part, le silicium par un matériau dix fois plus coûteux mais au rendement supérieur, composé de germanium, d'arséniure de galium et d'indium, et concentrer la lumière, d'autre part, grâce à un système optique. L'énergie lumineuse, multipliée par un facteur 500, est ainsi focalisée sur une surface très réduite du matériau photosensible. Ce qui pourrait abaisser le coût du watt solaire plus rapidement qu'avec le silicium.

L'idée a séduit le Palo Alto Research Centre, le célèbre PARC de Xerox en Californie, qui héberge SolFocus depuis janvier 2006. Du coup, la Startup a levé 50 millions de dollars (38 millions d'euros) et conclu un accord de fabrication et de distribution avec l'indien Moser Baer, spécialisé dans l'électronique. La commercialisation a été lancée début 2007, et tests et démonstrations sont en cours avec les centrales pilotes installées à Palo Alto (13,4 kW), en Arizona (12,3 kW) et à Hawaï.

Ces nouveaux capteurs, certes, ne sont pas sans contraintes : la concentration impose un suivi précis du soleil (+/- 1°), et ne supporte pas les nuages, ce qui la confine dans les pays du Sud. Mais les enjeux sont d'importance. Pour Scott Elrod, directeur de laboratoire au PARC, l'électricité solaire doit atteindre le seuil de 1 dollar par watt (le coût de production de l'électricité conventionnelle). Or, avec les cellules en silicium, elle revient aujourd'hui à 3,50 dollars par watt.

"Il faudra dix ans pour atteindre 1 dollar par watt avec ces cellules si la puissance installée dans le monde est de 100 GW. Les capteurs de SolFocus pourraient, eux, franchir ce seuil d'ici quatre ou cinq ans avec une puissance installée de seulement 1 GW", affirme-t-il. La Startup a implanté son siège européen à Madrid, où elle participe au programme de l'Institut des systèmes de concentration photovoltaïque (Isfoc). Celui-ci prévoit de construire dans la région de Castilla La Mancha une centrale solaire de 2,7 MW, à laquelle SolFocus contribuera pour 500 kW.

Source : http://www.lemonde.fr/web/article/0,1-0@2-3238,36-969274@51-966673,0.html

vendredi 19 octobre 2007

La question du stockage de l'énergie éolienne aurait-elle trouvé sa solution dans le sous-sol de l'Iowa ?


Près de Dallas, une centaine d'entreprises contribuent à un projet de recherche en vue de stocker l'énergie éolienne. Leur solution : stocker de l'air en sous-sol.
Un compresseur d'air gigantesque propulse en effet de l'air comprimé dans le sous-sol, composé de sable poreux. Le système fonctionne comme un ballon géant, qui permet de restituer en surface l'air conservé sous pression.
Celui-ci actionne ensuite les turbines d'une centrale à gaz, augmentant de 60% sa capacité.
Le stockage de l'air comprimé permettrait de réguler ainsi la production éolienne.
Le sous-sol étudié dans l'Iowa devrait contenir l'équivalent de 20 semaines de production, suffisament pour assurer la production énergétique suffisante en cas d'absence de vent prolongée.
Le projet devrait être finalisé pour 2011. Une centrale de l'Iowa, productrice de 268 Mw, devrait être la première à intégrer ce système de stockage propre.
L'institut national de recherche en énergie électrique estime que 85% du territoire américain possède un sous-sol compatible avec ce type de stockage.

Des câbles pour utiliser l'énergie solaire dans les nanotechnologies

Des scientifiques ont mis au point des nanocâbles plus fins qu'un cheveu pour capter l'énergie solaire, qui pourraient équiper demain toute une série d'appareils miniaturisés, selon une étude à paraître jeudi dans la revue Nature.

Dans moins d'une dizaine d'années, ces minuscules capteurs de lumière, pratiquement invisibles à l'oeil nu, pourraient notamment servir dans la lutte contre le bioterrorisme ou aider la médecine à mieux observer ce qui se passe à l'intérieur du corps.
Charles Lieber et ses collègues de l'université de Harvard sont parvenus à créer un câble de silicone capable de convertir la lumière en courant électrique.
La quantité d'électricité produite par câble ne s'élève qu'à 20 milliardièmes de watt mais elle est devrait permettre d'alimenter des appareils eux-mêmes d'une échelle microscopique.
L'épaisseur de chaque câble n'est que de 100 nanomètres, soit un dix-millième de millimètre, ce qui leur permettra d'être implanté sur, voire à l'intérieur du corps.
Comme un câble coaxial, le nanocâble de silicone développé à Harvard est formé d'un noyau entouré de deux couches. La lumière génère des électrons sur la couche la plus extérieure, qui sont tranmis à la couche intérieure et au noyau à travers des micropores.
«Électriquement connectés, le noyau et l'enveloppe jouent le même rôle que les pôles + et - d'une batterie», explique M. Lieber.
Les avantages de cette source d'énergie sont qu'elle est propre, très efficace et renouvelable.
Et si un seul nano-appareil consomme très peu, «pour une application intéressante il faudra de nombreux équipements interconnectés et la question de leur alimentation - même pour des systèmes nano - peut constituer un défi», selon M. Lieber.
Il donne l'exemple de la surveillance des menaces bioterroristes qui «exigera toute une série de capteurs et de processeurs pour analyser les signaux reçus, ainsi que des nanotransmetteurs pour relayer l'information à une installation centralisée».
En comparaison de ce que peuvent offrir ces nanocâbles, les sources d'énergie traditionnelles sont «encombrantes, non-renouvelables et chères», estime encore le chercheur.
Source : http://www.cyberpresse.ca/article/20071017/CPSCIENCES/710171183/1020/CPSCIENCES

L’avenir de notre planète va se jouer à Bali

En décernant conjointement le prestigieux prix Nobel de la Paix à Al Gore, pour son action médiatique très efficace en faveur de la prise de conscience par l’opinion publique mondiale du réchauffement climatique et Au GIEC (Panel intergouvernemental de recherche sur le climat) pour son travail scientifique remarquable, les sages du Comité Nobel viennent de conférer à cette personnalité et à cet organisme encore mal connu du grand public, une autorité morale et un impact médiatique qui vont rendre encore plus efficaces leurs avertissements et leurs publications.
Coïncidence du calendrier, quelques jours avant l’annonce de ce prix Nobel, un chercheur australien de renom, Tim Flannery, a révélé à la télévision australienne que la concentration de gaz à effet de serre (GES) avait déjà dépassé les 455 parties par million (ppm) en 2005, soit dix ans plus tôt que prévu.
On mesure mieux l’ampleur de cette hausse quand on sait qu’entre le début de l’ère industrielle et les années 90, la concentration en CO2 dans l’atmosphère est passée de 270 à 380 ppm (parties par million), soit une hausse de 40 %.
Mais il a ensuite fallu moins de 20 ans pour que cette concentration en CO2 passe de 380 ppm à 455 ppm, soit une augmentation de 20 %. M. Flannery a précisé que ces nouvelles données seraient publiées le 7 novembre, dans le nouveau rapport très attendu du GIEC.
La barre des 455 ppm est considérée comme un seuil dangereux par de nombreux scientifiques. A ce niveau de concentration atmosphérique de GES, la température mondiale moyenne augmentera probablement de 2 degrés Celsius, entraînant une hausse du niveau des mers potentiellement désastreuse et d’autres catastrophes liées au climat.
Limiter le réchauffement de la planète à 2 degrés Celsius est l’objectif majeur de la politique intégrée de l’UE en matière d’énergie et de changement climatique, adoptée précédemment dans l’année. D’après M. Flannery, le rapport établit que la quantité de gaz à effet de serre dans l’atmosphère est déjà supérieure au seuil à partir duquel de dangereux changements climatiques peuvent être provoqués.
Cette hausse sans précédent de la concentration de CO2 vient pleinement confirmer les résultats d’une étude publiée cet été par l’académie des sciences américaines ( Pnas) mais malheureusement peu médiatisée. Ces travaux conduits par l’Australien Michael Raupach dans le cadre du « Global Carbon Project », chargé d’établir le cycle du carbone à l’échelle planétaire, ont constaté l’accélération foudroyante des émissions de C02 lors des cinq premières années de ce siècle. « La croissance, note cette étude à laquelle six laboratoires ont participé, a été plus grande que les scénarios liés aux énergies fossiles les plus intensifs développés par le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). »
En 2005, le total mondial de ces émissions était sans précédent : soit, 7,9 gigatonnes de carbone liés aux combustibles fossiles (gaz, pétrole, charbon) et 1,5 gigatonne lié à la déforestation. Alors que l’augmentation du CO2 était de 1 % par an auparavant, elle est passée à plus de 3 % par an depuis le début de ce siècle. Selon Raupach « Il est clair que nous sommes dans la fourchette la plus haute des scénarios du Giec. Soit entre quatre et six degrés d’augmentation de température moyenne".
Autre observation concordante et très inquiétante, celle faite il y a quelques semaines par le Dr Scott Lamoureux, dans le cadre d’une expédition polaire. Cette expédition, qui fait partie d’une des 44 initiatives canadiennes de recherches prévues pour une durée de quatre ans, est conduite par le Dr Lamoureux sur l’île de Melville, dans le nord-ouest de l’Arctique, et rassemble des scientifiques de trois universités canadiennes ainsi que du Nunavut. Un de leurs objectifs est d’évaluer la modification de la qualité de l’eau sous l’effet du réchauffement, et d’en déterminer l’impact sur l’écosystème sachant que l’ensemble de la population et des industries en dépendent étroitement.
Alors que la température moyenne d’un mois de juillet au camp de Melville est de 5° C, ce sont des pics dépassant nettement les 20° C qui ont été enregistrés cette année durant la même période. Les membres de l’équipe ont aussi observé avec stupéfaction que l’eau contenue dans le pergélisol se mettait à fondre, lubrifiant la couverture végétale qui se mettait à glisser en bas des pentes, balayant tout sur son passage.
D’autres recherches menées par une équipe de chercheurs gallois et norvégiens montrent que l’épaisseur des glaciers de l’archipel norvégien du Svalbard diminue de plus en plus vite. Les résultats de cette étude sont publiés dans la revue Geophysical Research Letters. L’archipel du Svalbard se situe dans l’océan Arctique, à mi-chemin entre le nord de la Norvège et le pôle Nord. Environ 60 % de la surface de l’archipel est recouverte par les glaces. Dans le cadre de l’étude considérée, les chercheurs ont utilisé des données de scanners laser aéroportés et fait appel à la photogrammétrie numérique pour étudier les glaciers de la région.
Ils ont constaté, à l’ouest de l’archipel du Svalbard, une accélération de la fonte de plusieurs glaciers de tailles variant entre 5 et 1 000 kilomètres. « Cette accélération dramatique de la fonte des glaciers est due au réchauffement climatique, lequel s’est traduit par une augmentation des températures et une baisse des chutes de neige », a expliqué la professeur Tavi Murray, chef du groupe de glaciologie de l’université Swansea. Les taux d’amincissement du glacier Midtre Lovénbreen, le mieux documenté en données, ne cessent de croître depuis 1936.
Pour la période 2003-2005, ils sont plus de quatre fois supérieurs au taux d’amincissement moyen pour la période 1936-1962. De 1990 à 2003, le Slakbreen affichait pour sa part des taux d’amincissement quatre fois supérieurs à ceux enregistrés pour la période de 1961 à 1977. « Les petits glaciers comme ceux-ci ne couvrent qu’une surface minuscule de la Terre », a déclaré la professeur Murray. « Toutefois, beaucoup fondent à un rythme accéléré, ce qui en fait un des principaux contributeurs de l’élévation du niveau des mers.
A la lumière de ces récentes observations, il ne fait plus doute que le réchauffement climatique planétaire est non seulement une réalité incontestable mais qu’il progresse plus vite que les prévisions les plus pessimistes. Sans entrer dans les détails du cycle du carbone, les raisons de ce réchauffement peuvent s’expliquer assez simplement. L’homme, du fait de ses activités, envoie à présent chaque année 8 gigatonnes de CO2 dans l’atmosphère ; or la Terre (océans et biomasse réunis) ne peut au maximum en absorber que la moitié (environ 4 gigatonnes pas an).
Le surplus va donc grossir le stock de carbone atmosphérique (CTA), évalué à environ 750 gigatonnes, et aggraver de plus en plus vite l’effet de serre qui, à son tour, accélère le réchauffement de notre planète. L’équation climatique à résoudre est donc assez simple. Si nous ne prenons pas des mesures radicales tout de suite, et que nous continuons sur notre lancée (+ 3 % par an de CO2), nous multiplierons par quatre nos émissions de CO2 d’ici 2050 et le réchauffement climatique, ainsi que toutes ses conséquences désastreuses, deviendront incontrôlables.
La seule façon, non pas de stopper ce réchauffement mais d’avoir une chance de le limiter à 2 degrés, ce qui est déjà considérable dans l’intervalle de temps qui nous sépare de 2050, est de diviser par deux nos émissions de CO2 au niveau mondial, pour les ramener à ce que la Terre est capable de supporter.
L’Humanité est donc confrontée, n’en déplaisent aux esprits irresponsables ou mal informés qui continuent à nier l’évidence, au plus grand défi de son histoire car si nous ne prenons pas tout de suite toute la mesure de cette menace, nous serons confrontés, avant la fin de ce siècle, à une série de catastrophes et de cataclysmes climatiques que nous pouvons à peine imaginer.
Face à cette situation, il faut bien comprendre que, ni la technologie, ni les énergies renouvelables ne parviendront à résoudre le gigantesque problème qui nous attend. Seule une réduction massive "à la source" de notre consommation d’énergie dans tous les domaines d’activités parviendra peut être à limiter les dommages qui nous attendent.
Cela suppose un changement de civilisation en deux générations et une réinvention complète des concepts d’urbanisme, de production et de transports qui fondent nos sociétés.
Certains diront peut-être que je pêche par excès de pessimisme ou que je cultive le catastrophisme. il n’en n’est rien et mes convictions s’appuient sur les meilleures études scientifiques mondiales publiées depuis 20 ans. William Arthur Ward a écrit "Le pessimiste se plaint du vent, l’optimiste espère qu’il va changer, le réaliste ajuste ses voiles." L’heure est venue pour l’espèce humaine "d’ajuster ses voiles" et de prendre enfin les mesures difficiles mais indispensables à sa survie qu’impose la situation de la planète.
Le sommet extraordinaire de l’ONU sur le climat, qui s’est tenu à New York il y a quelques semaines a marqué un tournant dans la prise de conscience de nos dirigeants que le temps des mesures draconiennes était venu. Espérons que le sommet décisif qui se tiendra en décembre à Bali et doit définir les objectifs de réduction des émissions de gaz à effet de serre pour après Kyoto (2012) sera à la hauteur des enjeux qui nous attendent car ce sommet sera sans doute celui de la dernière chance si nous voulons laisser un monde vivable aux futures générations.
René Trégouët
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat

vendredi 12 octobre 2007

560 km avec un plein d'hydrogène

Le constructeur automobile japonais Toyota a réussi à faire rouler pendant 560 km une voiture à batterie à combustible avec un seul plein d'hydrogène, grâce à un nouveau réservoir qui permet de stocker davantage de gaz à haute pression.



Ce voyage sans arrêt entre Osaka et Tokyo a été effectué, avec la climatisation branchée en permanence, par une nouvelle version du véhicule à batterie à combustible FCHV, a indiqué Toyota dans un communiqué.Cette nouvelle version dispose d'un réservoir à hydrogène pressurisé capable de contenir deux fois plus de gaz que celui du modèle précédent (la pression à laquelle ce gaz est stocké étant doublée).Ce nouveau réservoir porte l'autonomie maximale du véhicule à 750 km, a affirmé le groupe ce week-end. Toyota est un pionnier des voitures à batterie à combustible.


Il a conçu son premier prototype fonctionnel en 1996 et commercialise des voitures particulières de ce type en nombre très limité depuis fin 2002.Les batteries à combustible ont pour particularité de ne pas rejeter de substances nocives dans l'atmosphère, se contentant de produire de l'électricité, d'émettre de la chaleur et de déverser de l'eau.Le principal obstacle à la commercialisation de masse de ce type de moteur «propre» reste pour l'instant la difficulté de stocker de l'hydrogène à haute pression dans une voiture pour obtenir une autonomie acceptable. Les chercheurs japonais prévoient que la commercialisation à grande échelle des voitures à batterie à combustible n'interviendra que vers 2020, une fois tous les obstacles techniques et de coût surmontés.
Source : http://lapresseaffaires.cyberpresse.ca/article/20071001/LAINFORMER/710010504/5891/LAINFORMER01

Le carburant vert jaillira-t-il des océans?

Les océans et les mers constituent le second grenier alimentaire de l'humanité, sans doute la source ultime de protéines. Mais ce sont peut-être aussi notre future source de carburants liquides, neutres en CO2, le nouveau gisement duquel on va extraire les biomatériaux, bioplastiques et autres fibres qui prendront le relais des hydrocarbures d'origine fossile, au fur et à mesure de leur épuisement. Il y a un peu plus de dix ans, de nombreuses équipes de recherches se sont lancées dans l'étude des algues. Si leur usage dans l'alimentation et la cosmétique est bien connu, l'intérêt des algues pour produire de l'essence ou du diesel était tombé en désuétude dès l'effondrement des prix du pétrole. Depuis deux ans, tout a changé: en Europe comme aux Etats-Unis, les chercheurs multiplient les communications scientifiques. Pour plusieurs équipes, l'avenir de la production de biocarburants ne se jouera en réalité plus dans les champs car les besoins alimentaires limiteront de facto l'utilisation de la biomasse à des fins énergétiques. A l'inverse, la production d'algues n'est a priori pas limitée par la contrainte des surfaces. Des travaux planchent sur la création d'étangs géants qui seraient dédiés à la production d'algues, certaines produisant naturellement de l'huile, donc une source de diesel, et d'autres livrant des sucres et donc une source de bioéthanol. Des étangs qui pourraient également servir de bioréacteur naturel pour absorber des déchets et épurer des eaux souillées.

Selon les chercheurs danois de l'Institut national de recherche environnementale (NERI-DMU), l'algue très connue, la laitue de mer (Ulva lactuca) serait une bonne candidate pour la production de bioénergie. Selon leurs estimations préliminaires, il est possible de produire (théoriquement) 700 fois plus de biomasse par hectare avec des algues en comparaison d'un champ de blé. De plus, la laitue de mer a une croissance très rapide et contient un pourcentage élevé d'hydrates de carbone. L'Ulva et les espèces proches sont largement répandues dans le monde et constituent même un problème environnemental en raison de leur prolifération (eutrophisation). Autre avantage des algues: elles poussent aussi dans les eaux salées, polluées et pas uniquement dans les aquifères d'eau douce qui se font rares. Dans le cas de la laitue de mer, sa prolifération pourrait même être stimulée par l'injection de CO2 excédentaire produit par les centrales électriques à gaz ou au charbon; les algues transformeraient indirectement le CO2 en diesel ou bioéthanol. Le laboratoire américain NREL (National Renewable Energy Laboratory), qui avait passé au crible le potentiel des macro et micro-algues, vient tout juste de relancer des recherches. Selon l'un de ses directeurs, Eric Jarvis, cité par la Technology Review du MIT, «l'envolée des prix du pétrole change la donne. L'intérêt pour les algues est immense en ce moment car ce sont sans doute de très bons candidats pour produire des biocarburants.»

A priori, le procédé le plus économique consisterait à «cultiver» des algues dans des étangs. En pleine mer, les algues risquent en effet d'être à tout moment dispersées par le ressac des vagues. Les ingénieurs imaginent des étangs clos ou de véritables plates-formes marines utilisant des tubes immergés afin de protéger les cultures et de faciliter la récolte. Des ingénieurs allemands, spécialisés dans l'aquaculture, proposent d'associer de telles fermes à des parcs éoliens en pleine mer et de production de moules et autres fruits de mer, histoire de rentabiliser d'autant les investissements offshore. Reste que la culture à l'air libre comporte un gros inconvénient: la croissance des algues que l'on cherche à favoriser entre rapidement en compétition avec d'autres organismes, qui finissent parfois par les détruire. Des projets sophistiqués prévoient de cultiver les algues dans des bioréacteurs spécifiques afin de les isoler et de développer des organismes dédiés à production de pétrole brut mais certifié «bio».

Dans une étude récente, Epobio, la plate-forme scientifique financée par l'Union européenne pour évaluer le potentiel des ressources renouvelables d'origine végétale non alimentaire (valorisation des déchets, biomatériaux, etc.), passe en revue la quasi-totalité des études consacrées aux végétaux des mers et étangs. A la lire, on constate que lepotentiel des macro et micro-algues des mers, des océans et des étangs est considérable mais se heurte à de sérieuses difficultés techniques ou économiques. Selon les auteurs du rapport, la valorisation des algues n'aura de sens que si elle s'opère dans une chaîne industrielle qui ne se limite pas à l'énergie mais englobe également les besoins de la chimie (médicaments, cosmétiques, etc.) et les processus de dépollution des sols et des eaux. Et, surtout, une meilleure connaissance des algues et des micro-organismes qui y sont associés plaide pour des mesures qui sauvegardent la biodiversité marine qui héberge 80% des espèces vivantes mais que nous connaissons encore assez mal. Ainsi, la spiruline, une algue aux multiples vertus alimentaires et thérapeutiques, fait l'objet de recherches nouvelles très intenses. Des chercheurs pensent qu'elle serait le catalyseur idéal pour produire naturellement l'hydrogène, le vecteur de l'énergie de demain dont rêve Nicolas Hayek.
Source : http://www.letemps.ch/template/economie.asp?page=9&article=216278

vendredi 28 septembre 2007

Demain le corps humain fournira de l’énergie utilisable par nos systèmes électroniques !

Pourra-t-on demain faire marcher nos portables, mobiles, PDA et autres terminaux électroniques grâce à notre température corporelle ? Peut-être, si l’on en croit les recherches actives et prometteuses menées par l’institut de recherche Fraunhofer en Allemagne.
Ils viennent de reprendre le principe des générateurs thermoélectriques - ou thermocouples, qui produisent de l’énergie à partir de chaleur - pour l’adapter à des petites différences de température. Selon le groupe de travail, un générateur de ce type fournit 200 millivolts (mV), alors que les appareils électroniques consomment plus volontiers un à deux volts.
Pour produire plus d’électricité, il faudrait plusieurs dizaines de degrés de différence entre la température corporelle et celle du milieu. Mais comme la différence moyenne est plutôt de l’ordre de quelques degrés, les chercheurs ont modifié les circuits électriques pour qu’ils soient activés avec seulement 50 mV. A terme, un des chercheurs estime que seul un demi degré de différence thermique suffira à générer un courant suffisant.
De leur côté, des chercheurs américains ont créé une nouvelle pile électrique capable de fonctionner avec du sang ou de la sueur humaine et ressemblant à une simple feuille de papier noir dont les propriétés offrent un important potentiel d’applications. Recourant à la nanotechnologie, ces scientifiques ont produit une structure moléculaire composite formée à 90 % de cellulose et à 10 % de nanotubes de carbone agissant comme des électrodes et permettant de conduire le courant. (Voir article du Devoir).
Cette nouvelle pile est ultra légère, extrêmement fine et totalement souple, expliquent les inventeurs du Rensselaer Polytechnic Institute, le plus ancien institut de technologie aux États-Unis. La pile peut fonctionner dans des températures allant de moins 37,8°C à plus 148,9°C. Cela s’explique par le fait qu’elle utilise comme électrolyte un liquide ionisé, à savoir du sel sans eau. Outre le fait qu’elle peut être imprimée comme du papier, elle peut aussi fonctionner à la fois comme une pile ordinaire au lithium et comme un super-condensateur stockant de l’électricité, des éléments séparés dans la plupart des systèmes électriques.
« Cette pile est avant tout un morceau de papier ordinaire dont la structure moléculaire a été réorganisée très judicieusement », souligne Robert Linhardt, un des auteurs de ces travaux qui paraissent dans les Annales de l’Académie nationale américaine des sciences (PNAS) datées du 13 août. La pile peut être roulée, pliée, tordue ou découpée en plusieurs morceaux sans perdre ses propriétés ou ses capacités techniques. Il est aussi possible d’empiler ces piles les unes sur les autres comme une liasse de papier afin d’en accroître les capacités.
Cette pile est également très écologique puisqu’à l’instar du papier elle est aisément biodégradable et ne contient aucune substance chimique toxique. Elle peut ainsi être utilisée comme source électrique pour des équipements implantés dans le corps humain, comme des pace-makers ou des défibrillateurs. Les chercheurs ont imprimé ces piles comme des feuilles de papier et montré que les copies pouvaient utiliser des électrolytes naturels dans la sueur, l’urine et le sang humain, pour être activées et produire de l’électricité.
Grâce à ces avancées de la recherche dans les domaines des matériaux, de la chimie et des nanotechnologies, dans quelques années, la différence de température entre la surface du corps d’un animal et celle de son milieu (air, eau) dégagera suffisamment d’énergie pour faire fonctionner des appareils électroniques. Il s’agit là d’une avancée majeure dans le domaine de l’autonomie énergétique car notre corps pourra directement alimenter en énergie les vêtements communicants truffés de capteurs et de circuits électroniques que nous porterons d’ici une décennie pour surveiller notre santé mais aussi recevoir et visualiser nos mails ou nos appels visiophoniques directement sur la surface de nos vêtements. Un fois de plus, on voit que c’est bien grâce à une approche transdisciplinaire, associant physique, chimie et électronique que ces innovations de rupture ont pu voir le jour.
René Trégouët
Sénateur honoraire

Carburant au Salon de Francfort : présentation du procédé bioliq

Au Salon automobile de Francfort, le centre de recherche de Karlsruhe a présenté son procédé "bioliq" : il permet de transformer des résidus forestiers et agricoles en carburants synthétiques. Sa qualité serait supérieure à celle des autres biocarburants et même des hydrocarbures.
Afin de produire des carburants de synthèse de haute qualité et des matières premières chimiques, la biomasse est l'unique source renouvelable. Ces carburants de synthèse (baptisés aussi BtL, "Biomass to Liquid") évitent une hausse de la teneur en CO2 de l'atmosphère, diminuent la quantité de résidus de combustion nuisant à la santé et au climat et réduisent la dépendance en matières premières fossiles. Les carburants BtL satisferaient aux exigences actuelles et futures des techniques de moteurs et des normes d'émissions polluantes.
Au sein du centre de recherche de Karlsruhe, ce procédé développé en 2 étapes, permet d'utiliser différents constituants de la biomasse, à teneur énergétique le plus souvent faible. Il répond de même aux exigences de la production à grande échelle et à sa viabilité économique. La biomasse est transformée en un produit intermédiaire fluide, facilement transportable et à haute valeur énergétique via une rapide pyrolyse : elle satisfait aux exigences économiques pour être amenée sur de longues distances jusqu'à des installations importantes pour la production de gaz de synthèse ou de carburant.
Les principaux résidus utilisables dans ce procédé : biomasse sèche (pailles, foin, diverses chutes de bois, découpe d'arbre, écorce), papier et carton. Le procédé "bioliq" constitue un grand potentiel dépassant de loin les biocarburants de la première génération (le biodiesel et le bioéthanol) grâce à cette vaste palette de résidus agricoles et forestiers. L'autre atout : la totalité d'un végétal peut être utilisé. Selon les indications de l'agence des matières premières renouvelables (FNR), les résidus de la biomasse pourraient couvrir 15% des besoins en carburant en Allemagne en 2015 : point important, la production alimentaire ne serait pas menacée.
Source : http://ecologie.caradisiac.com/Carburant-au-Salon-de-Francfort-presentation-du-procede-bioliq-741

vendredi 14 septembre 2007

La plus grande centrale solaire de France prévue à Narbonne

L’agglomération Narbonnaise a décidé d’installer sur 23 hectares "la plus importante centrale de production d’électricité solaire photovoltaïque de France, et la troisième d’Europe", indique Michel Moynier. Elle devrait produire huit fois plus d’électricité que la centrale de Saint-Denis de la Réunion, actuellement la plus puissante de France, inaugurée en 2006.
Le 5 septembre, le maire de Narbonne, également président de la communauté d’agglomération, a signé avec le président d’EDF Energies nouvelles France, Pâris Mouratoglou, une promesse de bail emphytéotique de vingt ans sur ce terrain. Michel Moynier avance des chiffres impressionnants : "80 000 m2 de panneaux solaires, et une production d’environ 10 mégawatts, soit l’équivalent de la consommation des bâtiments publics de la ville."
"On ne peut pas encore donner les caractéristiques techniques de cette ferme photovoltaïque ni son délai de réalisation", dit-on prudemment du côté d’EDF Energies nouvelles France, où l’on souligne que le photovoltaïque en production de masse est "un marché très nouveau", boosté par la revalorisation du prix de rachat par EDF. Le prix du kilowattheure solaire est passé, en 2006, de 15 à 30 centimes d’euro. "Notre démarche vient de loin", assure le maire de Narbonne, qui rappelle que sa commune a lancé, dès 2003, "une vaste réflexion sur les quatre thèmes du développement durable : l’eau et l’assainissement, les déchets, les transports et les énergies renouvelables".
Des expériences sur les économies d’énergie dans les bâtiments publics et les logements sociaux ont été lancées en partenariat avec des grandes entreprises comme EDF, Veolia, Suez ou Areva : chauffage solaire des piscines, refroidissement de la patinoire, chauffage au bois des HLM du quartier le plus défavorisé de Narbonne. "Nous avons aidé les particuliers en rajoutant une aide municipale pour les économies d’énergie à celles de la Région et de l’Agence de l’environnement et de la maîtrise de l’énergie", rappelle Michel Moynier.
Depuis quelques mois, le rythme s’est accéléré : lundi 10 septembre, Narbonne a inauguré une crèche à très faibles besoins énergétiques, fonctionnant avec des sondes géothermiques et des panneaux solaires. Le même principe devrait être appliqué à un "quartier renouvelable" actuellement en projet : 650 logements sur 13 hectares, avec chauffage par gazéification des ordures ménagères, système pneumatique d’évacuation des déchets et panneaux solaires. "Il y a des éléments extrêmement positifs dans toutes ces initiatives, mais il y a aussi des choses avec lesquelles nous ne sommes pas forcément d’accord, déclare Maryse Arditi, conseillère régionale et porte-parole des Verts de l’Aude. Le photovoltaïque coûte ainsi quatre fois plus cher que l’éolien, sur lequel pleuvent actuellement beaucoup de critiques." L’élue pointe également la question de l’épuisement des ressources naturelles en silicium, le matériau qui sert à la fabrication des panneaux solaires.
Source : http://www.lemonde.fr/web/article/0,1-0@2-3244,36-955177,0.html

Des éoliennes silencieuses pour le centre-ville de Londres

Les architectes David Marks et Julia Barfield connus pour la construction de London Eye (grande roue de 135 m de haut installée en 2000 en face de Westminster) proposent la mise en place de plusieurs milliers de groupes d'éoliennes dans la capitale britannique d'ici les Jeux Olympiques de 2012. Ils ont présenté un nouveau concept d'éoliennes à axe vertical avec trois pales de forme hélicoïdale disposées par groupes de cinq en haut d'un mat, le Beacon. Cette configuration pourrait permettre de maximiser la puissance électrique générée par les éoliennes malgré les conditions de fonctionnement particulièrement contraignantes des zones urbaines. Un tel projet s'inscrirait idéalement dans la politique de décentralisation partielle de la production d'énergie du gouvernement britannique (cf. les Actualités scientifiques au Royaume-Uni de juin 2007).


L'installation d'éoliennes en milieu urbain pose deux problèmes principaux qui constituent encore un frein à une plus grande généralisation de l'éolien en ville :- la faible efficacité des turbines : premièrement, les vitesses des vents mesurées en ville sont relativement basses, avec, par instants, de fortes rafales ; de même, ces vents sont particulièrement turbulents avec de violents changements de direction, ce qui rend impossible l'utilisation de turbines à axe horizontal ;- les nuisances sonores provoquées par la rotation des éoliennes : les bruits et vibrations générés par la rotation des pales d'une turbine à axe horizontal sont ingérables en ville pour les riverains immédiats (risques sanitaires et possibilité de dégâts matériels).Le design des éoliennes proposées par Marks et Barfield permet de contourner ces deux problèmes. Ces turbines, développées par l'entreprise XCO2 spécialisée dans le conseil en ingénierie et baptisées " Quiet-Revolution Turbines " (les turbines de la révolution calme), permettent de résoudre chacun des deux problèmes. Les pales hélicoïdales de la turbine QuietRevolution pourraient être entraînées par des vents soufflant dans n'importe quelle direction, avec à la clé un taux de production d'énergie électrique 30% plus élevé qu'avec une turbine classique à axe horizontal et de taille équivalente. Ainsi, un groupe de cinq turbines pourrait fournir à la population londonienne 50 MWh d'énergie électrique par an pour une vitesse de vent moyenne de 5,9 m / s. En ce qui concerne le phénomène de vibration lié à la forte vélocité des pâles, il est très limité sur les turbines QuietRevolution en raison de la configuration particulière de l'éolienne qui, pour une forte vitesse de rotation, conserve une vitesse en bout de pales relativement faible. Enfin, les matériaux constituant les pales ont volontairement été choisis ultralégers, ce qui réduit considérablement la force centrifuge agissant sur la structure, pour assurer une meilleure stabilité de l'édifice : les pales sont conçues en Prepreg de fibre de carbone (Pre-impregnated carbon fibres : les fibres de carbone sont enduites d'une résine spéciale avant façonnage des pales) et pèsent environ 4 kg.La structure portante du groupe d'éoliennes envisagée (un mat de 40 m de haut en forme de Y) a été conçue pour être installée dans les endroits du centre-ville de Londres les plus exposés au vent, comme les grands boulevards, les rives de la Tamise, les ronds-points...L'objectif affiché par Marks et Barfield est d'en implanter 6 650 sur la métropole londonienne pour fournir la moitié des 665 GWh / an d'énergie électrique que Ken Livingstone, le maire de Londres, propose de produire à partir de sources renouvelables d'ici 2012. En comparaison, ces 6 650 tours Beacon fourniraient autant d'énergie que 600.000 micro-éoliennes à axe horizontal installées sur des maisons ou bâtiments administratifs. Cela représenterait tout de même un investissement de 100.000 à 150.000 livres par turbine (de 150.000 à 225.000 euros), soit 10% du budget total des Jeux Olympiques de 2012. Si aucune décision n'a encore été prise par la mairie de Londres, les architectes s'annoncent prêts à déployer ce gigantesque projet qui pourrait permettre de revaloriser l'image peu attractive des éoliennes en milieu urbain.

Stocker l’énergie des éoliennes pour produire de l’électricité sans vent

La découverte promet d’aider les éoliennes ou les centrales solaires à s’affranchir des caprices de la météo. Une équipe d’ingénieurs australiens de l’université de Nouvelle-Galles du Sud, à Sydney, a trouvé le moyen de stocker l’électricité dans des cuves, sous forme liquide. La centrale éolienne de King Island, une île du sud de l’Australie, expérimente ainsi depuis 2003 un accumulateur à circulation qui emmagasine l’excédent d’électricité produit lorsque le vent souffle fort pour le restituer lorsqu’il faiblit.
Ce système pourrait lever l’un des obstacles qui freinent le développement des énergies renouvelables, en leur permettant d’alimenter le réseau en l’absence de vent ou de soleil. A King Island, le générateur thermique qui prend le relais des éoliennes quand il n’y a pas de vent a vu sa consommation de fioul diminuer de moitié. "Le principe de ces batteries est connu depuis longtemps, mais personne n’était parvenu à le mener au stade de la commercialisation", dit Maria Skyllas-Kazacos, l’ingénieur chimiste qui dirige depuis vingt ans les recherches de l’université de Nouvelle-Galles du Sud sur ces accumulateurs.
Contrairement aux batteries classiques au plomb, ces derniers utilisent des électrolytes (liquides dans lesquels baignent les plaques de l’accumulateur) qui ne sont pas stockés à l’intérieur, mais dans deux réservoirs externes. C’est leur mise en contact, dans une cuve centrale, qui produit de l’électricité. Pour la recharge, l’apport de courant provenant des éoliennes assure la séparation des deux électrolytes, qui sont à nouveau stockés dans leurs réservoirs. L’avantage du système à circulation sur les batteries classiques réside dans sa capacité à fournir aussi bien un kilowattheure que plusieurs centaines de mégawattheures.
L’accumulateur de King Island peut ainsi restituer 200 kilowatts d’électricité pendant quatre heures. "Théoriquement, les capacités de stockage sont illimitées : il suffit d’augmenter la capacité des cuves d’électrolytes", confirme Mme Skyllas-Kazacos. Les quatre réservoirs de King Island contiennent 55 000 litres. Pour gagner de la place, il est possible de les entreposer sous terre. Une poignée de centrales éoliennes testent déjà le système, sur l’île japonaise d’Hokkaido ou encore aux Etats-Unis.
http://www.lemonde.fr/web/article/0,1-0@2-3244,36-952842@51-953043,0.html

Premier coup de pioche pour une tour solaire expérimentale unique au monde

Le lancement des travaux de construction d'une tour solaire thermoélectrique de recherche unique en son genre a été inauguré à Jülich le 31 août 2007 par le secrétaire d'Etat parlementaire au Ministère de l'environnement, Michael Müller (SPD). Elément clef de cette centrale électrique innovante, le récepteur solaire a été développé et breveté par le centre de recherche aérospatiale allemand (DLR). Cette installation de recherche et de démonstration doit servir de base pour le développement d'une technologie d'avenir : "La technologie innovante qui doit être testée ici à Jülich, est unique au monde. Son développement doit servir à des applications dans les pays du sud à fort ensoleillement. C'est ainsi que l'on consolidera l'avance allemande dans la production thermoélectrique solaire", a déclaré le secrétaire d'Etat.


Couvrant une surface au sol d'environ 16 ha (l'équivalent de 3 terrains de football) et totalisant une surface réfléchissante de près de 20.000 mètres carrés, l'installation expérimentale se présente sous la forme de 2.500 héliostats qui renvoient et concentrent le rayonnement solaire sur un récepteur de 22 mètres carrés placé au sommet d'une tour de 50 mètres de haut. Ce récepteur est constitué d'éléments céramiques poreux. En circulant à travers ces éléments céramiques, l'air environnant se réchauffe jusqu'à atteindre une température d'environ 700°C. Cette chaleur est ensuite transférée à une chaudière de récupération, où l'eau qu'elle contient est alors transformée en vapeur. Cette vapeur actionne une turbine, convertissant ainsi l'énergie thermique en courant électrique. En fonctionnement nominal, la centrale fournira une puissance de 1,5MWe. Un accumulateur de chaleur servira à palier aux aléas du rayonnement solaire (lors du passage de nuages) pour assurer une production d'électricité moins fluctuante. Au total, 1.000MWhe devraient ainsi être produits chaque année et injectés sur le réseau électrique.





La tour expérimentale sera l'occasion inédite de tester, démontrer et optimiser une nouvelle technologie allemande. Les résultats de cette expérimentation doivent servir de référence aux futurs projets commerciaux sur les marchés du sud de l'Europe et de l'Afrique du Nord, zones géographiques où réside le plus gros potentiel des centrales solaires thermiques.La mise en service est prévue pour la fin 2008, suivie de deux ans de fonctionnement expérimental. A la fin du projet, la tour continuera à être exploitée pour la production d'électricité solaire. En vue d'améliorer continuellement la compétitivité de cette technologie, le projet s'accompagnera d'un programme de recherche de plusieurs années au cours desquelles seront développées diverses méthodes d'optimisation (exemple : modèle informatique dynamique de l'installation pour une optimisation en temps réel).Le projet, d'un coût total de 23 millions d'euros, est cofinancé par le Ministère fédéral de l'environnement (BMU) à hauteur de 4,1 millions d'euros. Depuis 2001, 36 millions d'euros ont été alloués par le BMU pour le financement de projets dans le domaine de l'énergie solaire.

http://www.bulletins-electroniques.com/actualites/50814.htm

Les algues comme source de biocarburant

Les algues pourraient devenir une source importante de biomasse et de biocarburant. Le programme Rotterdam Climate Initiative, dont font partie la municipalité et le port de Rotterdam notamment, a réuni récemment des spécialistes de l’énergie et de l’industrie des algues à Rotterdam, pour discuter du rôle des algues dans la production d’énergie durable.
Les algues n’ont besoin que de lumière du soleil, de CO2 et d’eau avec des oligo-éléments, du phosphate et de l’azote, pour se développer. Les variétés d’algues les plus adaptées pour la production de biocarburant sont les algues vertes unicellulaires, micro-organismes primitifs situés en dessous des plantes. On peut utiliser 99 % de leur masse pour fabriquer des médicaments, des matières colorantes, des plastiques biologiques ou des biocarburants. Environ 40.000 litres de biocarburant par hectare peuvent être produits chaque année, ce qui représente un rendement important. Les algues sont surtout cultivées dans des systèmes d’étangs ouverts. Un photobioréacteur qui permettra de contrôler précisément certains paramètres est actuellement expérimenté pour une culture en système fermé. Mais la grande quantité de verre nécessaire pour une culture en batch empêche la production à l’échelle industrielle. La culture des algues a l’avantage de produire de l’énergie durable sans concurrencer l’agriculture. En effet, les bassins ou les réacteurs sont placés en mer ou dans les villes .
http://www.bulletins-electroniques.com/actualites/50782.htm

: Conférence de Vienne sur le réchauffement climatique : un tournant dans la lutte contre les émissions de gaz à effet ?

Les pays industrialisés ont décidé, non sans mal, le 31-08-2007, d’envisager une réduction drastique des émissions de gaz à effet de serre d’ici à 2020, afin de progresser vers la définition d’un pacte de lutte à long terme contre le réchauffement climatique. Un millier de délégués des 158 pays représentés aux discussions organisées à Vienne sous l’égide de l’Onu du 27 au 31 août ont évoqué pour 2020 une réduction des émissions d’entre 25 % et 40 % par rapport à leurs niveaux de 1990.
Cet objectif, bien que pour l’instant non contraignant, constitue un tournant dans la volonté de la communauté internationale de prendre à bras le corps le défi du réchauffement climatique. Il servira de base de départ aux travaux devant aboutir à un nouveau pacte sur le climat à l’expiration du protocole de Kyoto en 2012. Les délégués ont déclaré en conclusion de leurs travaux que cette fourchette de 25-40 % "fournit des critères préliminaires utiles pour le degré général d’ambition en ce qui concerne des réductions supplémentaires des émissions".
L’accord de principe trouvé à Vienne a été conclu en toute fin de conférence alors que, quelques heures auparavant, le Canada, le Japon, la Nouvelle-Zélande, la Russie et la Suisse semblaient encore s’opposer aux objectifs proposés. "Nous sommes parvenus à un large accord sur les principaux sujets", a souligné le négociateur de la Grenade, Leon Charles, l’un des organisateurs de la conférence de Vienne. Les objectifs définis pour 2020 ne sont pas contraignants, mais ils sont destinés à montrer la bonne volonté des pays industrialisés dans le domaine de la réduction des émissions et à lancer un signal fort en direction des pays en voie de développement.
Yvo de Boer, secrétaire exécutif de la CCNUCC, a d’ailleurs souligné que cet accord devait également montrer la voie aux pays en développement. "Même si les pays industrialisés font cela (se conforment à ces objectifs, NDLR), ce ne sera qu’une contribution à l’effort global", a déclaré le responsable onusien aux journalistes après l’annonce de l’accord. Lors des négociations, l’Union européenne avait fait pression en faveur de l’objectif envisagé de baisse des GES d’ici 2020.
Les Vingt-Sept se sont déjà engagés à réduire leurs émissions de 20 % à cette date. L’Union européenne et les pays en développement souhaitaient une formulation plus ambitieuse. Les ministres de l’Ecologie des pays concernés doivent se retrouver en décembre à Bali (Indonésie) pour lancer officiellement des négociations sur un nouveau traité de lutte contre le réchauffement climatique, attendu avant fin 2009.
Cette année, le Groupe intergouvernemental d’experts sur l’évolution du climat, constitué de plusieurs centaines de scientifiques réunis sous l’égide de l’ONU, a publié trois rapports pour souligner la nécessité pour l’humanité d’agir rapidement contre le réchauffement climatique et a esquissé des solutions. Selon les travaux synthétisés par le Groupe international d’experts sur le climat (GIEC), 89 % des changements climatiques observés corroborent la thèse d’un réchauffement mondial, notamment le blanchiment des récifs coralliens, les inondations de régions côtières, l’alourdissement du traitement de certaines maladies, les décès liés à la chaleur et les risques d’extinction d’espèces animales et végétales.
Le niveau des mers devrait quant à lui s’élever de 18 à 59 centimètres mais continuera vraisemblablement à augmenter durant plusieurs siècles, même si les émissions de gaz à effet de serre se stabilisent. En effet, la chaleur des eaux proches de la surface continuera à se diffuser aux couches profondes, qui se dilateront à mesure que leur température augmentera. À cause de ce seul phénomène, le niveau des mers pourrait monter de 40 centimètres à 3,70 mètres au cours des prochains siècles, cette estimation ne tenant pas compte de la fonte des glaciers et des banquises polaires.
Le GIEC souligne que le dépassement du seuil des 550 ppm de CO2 dans l’atmosphère terrestre risque de précipiter un « changement climatique catastrophique ». De nouvelles études indiquent même qu’au-delà de ce seuil, le contrôle du climat planétaire pourrait s’avérer impossible en raison d’un phénomène d’emballement des grands facteurs qui stabilisent actuellement le climat. La proposition de limiter les émissions terrestres à 450 ppm fait partie de celles qui atterriront sur la table des délégués de la conférence de Bali, en Indonésie, en décembre. Ces pourparlers lanceront les négociations sur les réductions de GES applicables à la deuxième phase du protocole de Kyoto (2012-20).
L’UNCC a estimé dans un rapport qu’environ 150 milliards d’euros d’investissements (de 03 à 05 % du produit mondial brut) seront nécessaires d’ici à 2030 pour maintenir à leur niveau actuel les émissions de gaz à effet de serre. « L’efficacité énergétique est le moyen le plus prometteur pour réduire les émissions de gaz à effet de serre à court terme » et ralentir le réchauffement climatique a déclaré Yvo de Boer, le directeur du Secrétariat des Nations Unies pour le Réchauffement Climatique, en présentant le rapport lors du meeting de Vienne. L’efficacité énergétique impliquerait des standards plus durs en terme d’utilisation d’énergies fossiles pour les voitures, les usines, les centrales électriques au charbon ou les bâtiments.
Ces investissements devraient permettre de stabiliser les émissions de gaz à effet de serre, sans pour autant parvenir à les réduire. Selon l’UNFCCC, il faudrait non seulement accélérer les investissements réalisés dans les énergies renouvelables, mais également améliorer l’efficacité énergétique des transports, de l’industrie et de la construction, et développer l’exploitation durable des forêts.
En France, une enquête très révélatrice sur l’énergie a été réalisée en janvier 2007 par le Credoc (Centre de recherche pour l’étude et l’observation des conditions de vie), à la demande de l’Observatoire de l’énergie (OE). Parmi les 2.009 personnes interrogées, 56 % des Français pensent qu’il faudrait changer nos modes de vie pour limiter l’effet de serre. Un programme d’actions couvrant les transports, les activités industrielles et les choix énergétiques leur paraît indispensable.
On voit donc que l’opinion publique a pris conscience de la nécessité d’une véritable mutation de société intégrant non seulement de nouveaux choix énergétiques mais également de nouveaux modes de production et de consommation des biens et services intrinsèquement respectueux de l’environnement. Il reste à présent aux responsables politiques à entendre le message qu’expriment avec force et clarté les citoyens et à prendre des initiatives fortes et audacieuses qui soient enfin à la hauteur du défi de civilisation qui nous attend.

René Trégouët
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat