vendredi 26 octobre 2007

Générateur électrique utilisant l'énergie des vagues

L'équipe du professeur Hiroshi KANKI de l'université de Kobe a mis au point un nouveau mécanisme permettant de générer de l'électricité à partir du mouvement des vagues. Le dispositif qui a été présenté est composé d'une plate-forme de 6x9 m2, surmontée d'un gyroscope, relié à un générateur électrique. Un gyroscope consiste en une roue tournant sur un axe qui, une fois lancée, tend à résister aux changements de son orientation. Lorsque que le plancher du générateur s'incline avec le mouvement des vagues, le gyroscope résiste donc à ce changement d'orientation. Cette force de résistance est alors transférée par un axe au générateur, qui la transforme en électricité.

Avec cette méthode, entre 40 et 80% de l'énergie des vagues est directement transformée en électricité, permettant ainsi d'atteindre une puissance fournie maximale de 22 kW. Les méthodes plus traditionnelles ont, pour comparaison, un rendement de 10 à 40% seulement.

L'équipe de recherche va maintenant passer à la phase d'essai en pleine mer avec le soutien de la préfecture de Tottori et d'entreprises locales. L'application la plus probable sera de fournir de l'électricité aux îles éloignées de la côte et de remplacer les générateurs actuels fonctionnant au diesel. L'objectif du groupe est d'atteindre un coût d'exploitation équivalant à celui de l'éolien.

Parmi les énergies renouvelables, l'énergie des vagues est la plus stable en termes de fourniture, donc à priori la plus prometteuse, mais les technologies l'exploitant sont encore rares et trop coûteuses pour pouvoir se diffuser.

Source : http://www.bulletins-electroniques.com/actualites/51482.htm

Une nouvelle génération de cellules photovoltaïques

L'énergie solaire, aujourd'hui, représente 0,04 % de la consommation mondiale d'énergie. Il en faudrait beaucoup plus pour qu'elle occupe, en 2050, une place significative. Problème : les cellules photovoltaïques souffrent du coût élevé de leur capteur en silicium. D'où la double innovation proposée par Gary D. Conley et Steve Horne, créateurs en novembre 2005 de l'entreprise SolFocus : remplacer, d'une part, le silicium par un matériau dix fois plus coûteux mais au rendement supérieur, composé de germanium, d'arséniure de galium et d'indium, et concentrer la lumière, d'autre part, grâce à un système optique. L'énergie lumineuse, multipliée par un facteur 500, est ainsi focalisée sur une surface très réduite du matériau photosensible. Ce qui pourrait abaisser le coût du watt solaire plus rapidement qu'avec le silicium.

L'idée a séduit le Palo Alto Research Centre, le célèbre PARC de Xerox en Californie, qui héberge SolFocus depuis janvier 2006. Du coup, la Startup a levé 50 millions de dollars (38 millions d'euros) et conclu un accord de fabrication et de distribution avec l'indien Moser Baer, spécialisé dans l'électronique. La commercialisation a été lancée début 2007, et tests et démonstrations sont en cours avec les centrales pilotes installées à Palo Alto (13,4 kW), en Arizona (12,3 kW) et à Hawaï.

Ces nouveaux capteurs, certes, ne sont pas sans contraintes : la concentration impose un suivi précis du soleil (+/- 1°), et ne supporte pas les nuages, ce qui la confine dans les pays du Sud. Mais les enjeux sont d'importance. Pour Scott Elrod, directeur de laboratoire au PARC, l'électricité solaire doit atteindre le seuil de 1 dollar par watt (le coût de production de l'électricité conventionnelle). Or, avec les cellules en silicium, elle revient aujourd'hui à 3,50 dollars par watt.

"Il faudra dix ans pour atteindre 1 dollar par watt avec ces cellules si la puissance installée dans le monde est de 100 GW. Les capteurs de SolFocus pourraient, eux, franchir ce seuil d'ici quatre ou cinq ans avec une puissance installée de seulement 1 GW", affirme-t-il. La Startup a implanté son siège européen à Madrid, où elle participe au programme de l'Institut des systèmes de concentration photovoltaïque (Isfoc). Celui-ci prévoit de construire dans la région de Castilla La Mancha une centrale solaire de 2,7 MW, à laquelle SolFocus contribuera pour 500 kW.

Source : http://www.lemonde.fr/web/article/0,1-0@2-3238,36-969274@51-966673,0.html

vendredi 19 octobre 2007

La question du stockage de l'énergie éolienne aurait-elle trouvé sa solution dans le sous-sol de l'Iowa ?


Près de Dallas, une centaine d'entreprises contribuent à un projet de recherche en vue de stocker l'énergie éolienne. Leur solution : stocker de l'air en sous-sol.
Un compresseur d'air gigantesque propulse en effet de l'air comprimé dans le sous-sol, composé de sable poreux. Le système fonctionne comme un ballon géant, qui permet de restituer en surface l'air conservé sous pression.
Celui-ci actionne ensuite les turbines d'une centrale à gaz, augmentant de 60% sa capacité.
Le stockage de l'air comprimé permettrait de réguler ainsi la production éolienne.
Le sous-sol étudié dans l'Iowa devrait contenir l'équivalent de 20 semaines de production, suffisament pour assurer la production énergétique suffisante en cas d'absence de vent prolongée.
Le projet devrait être finalisé pour 2011. Une centrale de l'Iowa, productrice de 268 Mw, devrait être la première à intégrer ce système de stockage propre.
L'institut national de recherche en énergie électrique estime que 85% du territoire américain possède un sous-sol compatible avec ce type de stockage.

Des câbles pour utiliser l'énergie solaire dans les nanotechnologies

Des scientifiques ont mis au point des nanocâbles plus fins qu'un cheveu pour capter l'énergie solaire, qui pourraient équiper demain toute une série d'appareils miniaturisés, selon une étude à paraître jeudi dans la revue Nature.

Dans moins d'une dizaine d'années, ces minuscules capteurs de lumière, pratiquement invisibles à l'oeil nu, pourraient notamment servir dans la lutte contre le bioterrorisme ou aider la médecine à mieux observer ce qui se passe à l'intérieur du corps.
Charles Lieber et ses collègues de l'université de Harvard sont parvenus à créer un câble de silicone capable de convertir la lumière en courant électrique.
La quantité d'électricité produite par câble ne s'élève qu'à 20 milliardièmes de watt mais elle est devrait permettre d'alimenter des appareils eux-mêmes d'une échelle microscopique.
L'épaisseur de chaque câble n'est que de 100 nanomètres, soit un dix-millième de millimètre, ce qui leur permettra d'être implanté sur, voire à l'intérieur du corps.
Comme un câble coaxial, le nanocâble de silicone développé à Harvard est formé d'un noyau entouré de deux couches. La lumière génère des électrons sur la couche la plus extérieure, qui sont tranmis à la couche intérieure et au noyau à travers des micropores.
«Électriquement connectés, le noyau et l'enveloppe jouent le même rôle que les pôles + et - d'une batterie», explique M. Lieber.
Les avantages de cette source d'énergie sont qu'elle est propre, très efficace et renouvelable.
Et si un seul nano-appareil consomme très peu, «pour une application intéressante il faudra de nombreux équipements interconnectés et la question de leur alimentation - même pour des systèmes nano - peut constituer un défi», selon M. Lieber.
Il donne l'exemple de la surveillance des menaces bioterroristes qui «exigera toute une série de capteurs et de processeurs pour analyser les signaux reçus, ainsi que des nanotransmetteurs pour relayer l'information à une installation centralisée».
En comparaison de ce que peuvent offrir ces nanocâbles, les sources d'énergie traditionnelles sont «encombrantes, non-renouvelables et chères», estime encore le chercheur.
Source : http://www.cyberpresse.ca/article/20071017/CPSCIENCES/710171183/1020/CPSCIENCES

L’avenir de notre planète va se jouer à Bali

En décernant conjointement le prestigieux prix Nobel de la Paix à Al Gore, pour son action médiatique très efficace en faveur de la prise de conscience par l’opinion publique mondiale du réchauffement climatique et Au GIEC (Panel intergouvernemental de recherche sur le climat) pour son travail scientifique remarquable, les sages du Comité Nobel viennent de conférer à cette personnalité et à cet organisme encore mal connu du grand public, une autorité morale et un impact médiatique qui vont rendre encore plus efficaces leurs avertissements et leurs publications.
Coïncidence du calendrier, quelques jours avant l’annonce de ce prix Nobel, un chercheur australien de renom, Tim Flannery, a révélé à la télévision australienne que la concentration de gaz à effet de serre (GES) avait déjà dépassé les 455 parties par million (ppm) en 2005, soit dix ans plus tôt que prévu.
On mesure mieux l’ampleur de cette hausse quand on sait qu’entre le début de l’ère industrielle et les années 90, la concentration en CO2 dans l’atmosphère est passée de 270 à 380 ppm (parties par million), soit une hausse de 40 %.
Mais il a ensuite fallu moins de 20 ans pour que cette concentration en CO2 passe de 380 ppm à 455 ppm, soit une augmentation de 20 %. M. Flannery a précisé que ces nouvelles données seraient publiées le 7 novembre, dans le nouveau rapport très attendu du GIEC.
La barre des 455 ppm est considérée comme un seuil dangereux par de nombreux scientifiques. A ce niveau de concentration atmosphérique de GES, la température mondiale moyenne augmentera probablement de 2 degrés Celsius, entraînant une hausse du niveau des mers potentiellement désastreuse et d’autres catastrophes liées au climat.
Limiter le réchauffement de la planète à 2 degrés Celsius est l’objectif majeur de la politique intégrée de l’UE en matière d’énergie et de changement climatique, adoptée précédemment dans l’année. D’après M. Flannery, le rapport établit que la quantité de gaz à effet de serre dans l’atmosphère est déjà supérieure au seuil à partir duquel de dangereux changements climatiques peuvent être provoqués.
Cette hausse sans précédent de la concentration de CO2 vient pleinement confirmer les résultats d’une étude publiée cet été par l’académie des sciences américaines ( Pnas) mais malheureusement peu médiatisée. Ces travaux conduits par l’Australien Michael Raupach dans le cadre du « Global Carbon Project », chargé d’établir le cycle du carbone à l’échelle planétaire, ont constaté l’accélération foudroyante des émissions de C02 lors des cinq premières années de ce siècle. « La croissance, note cette étude à laquelle six laboratoires ont participé, a été plus grande que les scénarios liés aux énergies fossiles les plus intensifs développés par le Groupe d’experts intergouvernemental sur l’évolution du climat (Giec). »
En 2005, le total mondial de ces émissions était sans précédent : soit, 7,9 gigatonnes de carbone liés aux combustibles fossiles (gaz, pétrole, charbon) et 1,5 gigatonne lié à la déforestation. Alors que l’augmentation du CO2 était de 1 % par an auparavant, elle est passée à plus de 3 % par an depuis le début de ce siècle. Selon Raupach « Il est clair que nous sommes dans la fourchette la plus haute des scénarios du Giec. Soit entre quatre et six degrés d’augmentation de température moyenne".
Autre observation concordante et très inquiétante, celle faite il y a quelques semaines par le Dr Scott Lamoureux, dans le cadre d’une expédition polaire. Cette expédition, qui fait partie d’une des 44 initiatives canadiennes de recherches prévues pour une durée de quatre ans, est conduite par le Dr Lamoureux sur l’île de Melville, dans le nord-ouest de l’Arctique, et rassemble des scientifiques de trois universités canadiennes ainsi que du Nunavut. Un de leurs objectifs est d’évaluer la modification de la qualité de l’eau sous l’effet du réchauffement, et d’en déterminer l’impact sur l’écosystème sachant que l’ensemble de la population et des industries en dépendent étroitement.
Alors que la température moyenne d’un mois de juillet au camp de Melville est de 5° C, ce sont des pics dépassant nettement les 20° C qui ont été enregistrés cette année durant la même période. Les membres de l’équipe ont aussi observé avec stupéfaction que l’eau contenue dans le pergélisol se mettait à fondre, lubrifiant la couverture végétale qui se mettait à glisser en bas des pentes, balayant tout sur son passage.
D’autres recherches menées par une équipe de chercheurs gallois et norvégiens montrent que l’épaisseur des glaciers de l’archipel norvégien du Svalbard diminue de plus en plus vite. Les résultats de cette étude sont publiés dans la revue Geophysical Research Letters. L’archipel du Svalbard se situe dans l’océan Arctique, à mi-chemin entre le nord de la Norvège et le pôle Nord. Environ 60 % de la surface de l’archipel est recouverte par les glaces. Dans le cadre de l’étude considérée, les chercheurs ont utilisé des données de scanners laser aéroportés et fait appel à la photogrammétrie numérique pour étudier les glaciers de la région.
Ils ont constaté, à l’ouest de l’archipel du Svalbard, une accélération de la fonte de plusieurs glaciers de tailles variant entre 5 et 1 000 kilomètres. « Cette accélération dramatique de la fonte des glaciers est due au réchauffement climatique, lequel s’est traduit par une augmentation des températures et une baisse des chutes de neige », a expliqué la professeur Tavi Murray, chef du groupe de glaciologie de l’université Swansea. Les taux d’amincissement du glacier Midtre Lovénbreen, le mieux documenté en données, ne cessent de croître depuis 1936.
Pour la période 2003-2005, ils sont plus de quatre fois supérieurs au taux d’amincissement moyen pour la période 1936-1962. De 1990 à 2003, le Slakbreen affichait pour sa part des taux d’amincissement quatre fois supérieurs à ceux enregistrés pour la période de 1961 à 1977. « Les petits glaciers comme ceux-ci ne couvrent qu’une surface minuscule de la Terre », a déclaré la professeur Murray. « Toutefois, beaucoup fondent à un rythme accéléré, ce qui en fait un des principaux contributeurs de l’élévation du niveau des mers.
A la lumière de ces récentes observations, il ne fait plus doute que le réchauffement climatique planétaire est non seulement une réalité incontestable mais qu’il progresse plus vite que les prévisions les plus pessimistes. Sans entrer dans les détails du cycle du carbone, les raisons de ce réchauffement peuvent s’expliquer assez simplement. L’homme, du fait de ses activités, envoie à présent chaque année 8 gigatonnes de CO2 dans l’atmosphère ; or la Terre (océans et biomasse réunis) ne peut au maximum en absorber que la moitié (environ 4 gigatonnes pas an).
Le surplus va donc grossir le stock de carbone atmosphérique (CTA), évalué à environ 750 gigatonnes, et aggraver de plus en plus vite l’effet de serre qui, à son tour, accélère le réchauffement de notre planète. L’équation climatique à résoudre est donc assez simple. Si nous ne prenons pas des mesures radicales tout de suite, et que nous continuons sur notre lancée (+ 3 % par an de CO2), nous multiplierons par quatre nos émissions de CO2 d’ici 2050 et le réchauffement climatique, ainsi que toutes ses conséquences désastreuses, deviendront incontrôlables.
La seule façon, non pas de stopper ce réchauffement mais d’avoir une chance de le limiter à 2 degrés, ce qui est déjà considérable dans l’intervalle de temps qui nous sépare de 2050, est de diviser par deux nos émissions de CO2 au niveau mondial, pour les ramener à ce que la Terre est capable de supporter.
L’Humanité est donc confrontée, n’en déplaisent aux esprits irresponsables ou mal informés qui continuent à nier l’évidence, au plus grand défi de son histoire car si nous ne prenons pas tout de suite toute la mesure de cette menace, nous serons confrontés, avant la fin de ce siècle, à une série de catastrophes et de cataclysmes climatiques que nous pouvons à peine imaginer.
Face à cette situation, il faut bien comprendre que, ni la technologie, ni les énergies renouvelables ne parviendront à résoudre le gigantesque problème qui nous attend. Seule une réduction massive "à la source" de notre consommation d’énergie dans tous les domaines d’activités parviendra peut être à limiter les dommages qui nous attendent.
Cela suppose un changement de civilisation en deux générations et une réinvention complète des concepts d’urbanisme, de production et de transports qui fondent nos sociétés.
Certains diront peut-être que je pêche par excès de pessimisme ou que je cultive le catastrophisme. il n’en n’est rien et mes convictions s’appuient sur les meilleures études scientifiques mondiales publiées depuis 20 ans. William Arthur Ward a écrit "Le pessimiste se plaint du vent, l’optimiste espère qu’il va changer, le réaliste ajuste ses voiles." L’heure est venue pour l’espèce humaine "d’ajuster ses voiles" et de prendre enfin les mesures difficiles mais indispensables à sa survie qu’impose la situation de la planète.
Le sommet extraordinaire de l’ONU sur le climat, qui s’est tenu à New York il y a quelques semaines a marqué un tournant dans la prise de conscience de nos dirigeants que le temps des mesures draconiennes était venu. Espérons que le sommet décisif qui se tiendra en décembre à Bali et doit définir les objectifs de réduction des émissions de gaz à effet de serre pour après Kyoto (2012) sera à la hauteur des enjeux qui nous attendent car ce sommet sera sans doute celui de la dernière chance si nous voulons laisser un monde vivable aux futures générations.
René Trégouët
Sénateur honoraire
Fondateur du Groupe de Prospective du Sénat

vendredi 12 octobre 2007

560 km avec un plein d'hydrogène

Le constructeur automobile japonais Toyota a réussi à faire rouler pendant 560 km une voiture à batterie à combustible avec un seul plein d'hydrogène, grâce à un nouveau réservoir qui permet de stocker davantage de gaz à haute pression.



Ce voyage sans arrêt entre Osaka et Tokyo a été effectué, avec la climatisation branchée en permanence, par une nouvelle version du véhicule à batterie à combustible FCHV, a indiqué Toyota dans un communiqué.Cette nouvelle version dispose d'un réservoir à hydrogène pressurisé capable de contenir deux fois plus de gaz que celui du modèle précédent (la pression à laquelle ce gaz est stocké étant doublée).Ce nouveau réservoir porte l'autonomie maximale du véhicule à 750 km, a affirmé le groupe ce week-end. Toyota est un pionnier des voitures à batterie à combustible.


Il a conçu son premier prototype fonctionnel en 1996 et commercialise des voitures particulières de ce type en nombre très limité depuis fin 2002.Les batteries à combustible ont pour particularité de ne pas rejeter de substances nocives dans l'atmosphère, se contentant de produire de l'électricité, d'émettre de la chaleur et de déverser de l'eau.Le principal obstacle à la commercialisation de masse de ce type de moteur «propre» reste pour l'instant la difficulté de stocker de l'hydrogène à haute pression dans une voiture pour obtenir une autonomie acceptable. Les chercheurs japonais prévoient que la commercialisation à grande échelle des voitures à batterie à combustible n'interviendra que vers 2020, une fois tous les obstacles techniques et de coût surmontés.
Source : http://lapresseaffaires.cyberpresse.ca/article/20071001/LAINFORMER/710010504/5891/LAINFORMER01

Le carburant vert jaillira-t-il des océans?

Les océans et les mers constituent le second grenier alimentaire de l'humanité, sans doute la source ultime de protéines. Mais ce sont peut-être aussi notre future source de carburants liquides, neutres en CO2, le nouveau gisement duquel on va extraire les biomatériaux, bioplastiques et autres fibres qui prendront le relais des hydrocarbures d'origine fossile, au fur et à mesure de leur épuisement. Il y a un peu plus de dix ans, de nombreuses équipes de recherches se sont lancées dans l'étude des algues. Si leur usage dans l'alimentation et la cosmétique est bien connu, l'intérêt des algues pour produire de l'essence ou du diesel était tombé en désuétude dès l'effondrement des prix du pétrole. Depuis deux ans, tout a changé: en Europe comme aux Etats-Unis, les chercheurs multiplient les communications scientifiques. Pour plusieurs équipes, l'avenir de la production de biocarburants ne se jouera en réalité plus dans les champs car les besoins alimentaires limiteront de facto l'utilisation de la biomasse à des fins énergétiques. A l'inverse, la production d'algues n'est a priori pas limitée par la contrainte des surfaces. Des travaux planchent sur la création d'étangs géants qui seraient dédiés à la production d'algues, certaines produisant naturellement de l'huile, donc une source de diesel, et d'autres livrant des sucres et donc une source de bioéthanol. Des étangs qui pourraient également servir de bioréacteur naturel pour absorber des déchets et épurer des eaux souillées.

Selon les chercheurs danois de l'Institut national de recherche environnementale (NERI-DMU), l'algue très connue, la laitue de mer (Ulva lactuca) serait une bonne candidate pour la production de bioénergie. Selon leurs estimations préliminaires, il est possible de produire (théoriquement) 700 fois plus de biomasse par hectare avec des algues en comparaison d'un champ de blé. De plus, la laitue de mer a une croissance très rapide et contient un pourcentage élevé d'hydrates de carbone. L'Ulva et les espèces proches sont largement répandues dans le monde et constituent même un problème environnemental en raison de leur prolifération (eutrophisation). Autre avantage des algues: elles poussent aussi dans les eaux salées, polluées et pas uniquement dans les aquifères d'eau douce qui se font rares. Dans le cas de la laitue de mer, sa prolifération pourrait même être stimulée par l'injection de CO2 excédentaire produit par les centrales électriques à gaz ou au charbon; les algues transformeraient indirectement le CO2 en diesel ou bioéthanol. Le laboratoire américain NREL (National Renewable Energy Laboratory), qui avait passé au crible le potentiel des macro et micro-algues, vient tout juste de relancer des recherches. Selon l'un de ses directeurs, Eric Jarvis, cité par la Technology Review du MIT, «l'envolée des prix du pétrole change la donne. L'intérêt pour les algues est immense en ce moment car ce sont sans doute de très bons candidats pour produire des biocarburants.»

A priori, le procédé le plus économique consisterait à «cultiver» des algues dans des étangs. En pleine mer, les algues risquent en effet d'être à tout moment dispersées par le ressac des vagues. Les ingénieurs imaginent des étangs clos ou de véritables plates-formes marines utilisant des tubes immergés afin de protéger les cultures et de faciliter la récolte. Des ingénieurs allemands, spécialisés dans l'aquaculture, proposent d'associer de telles fermes à des parcs éoliens en pleine mer et de production de moules et autres fruits de mer, histoire de rentabiliser d'autant les investissements offshore. Reste que la culture à l'air libre comporte un gros inconvénient: la croissance des algues que l'on cherche à favoriser entre rapidement en compétition avec d'autres organismes, qui finissent parfois par les détruire. Des projets sophistiqués prévoient de cultiver les algues dans des bioréacteurs spécifiques afin de les isoler et de développer des organismes dédiés à production de pétrole brut mais certifié «bio».

Dans une étude récente, Epobio, la plate-forme scientifique financée par l'Union européenne pour évaluer le potentiel des ressources renouvelables d'origine végétale non alimentaire (valorisation des déchets, biomatériaux, etc.), passe en revue la quasi-totalité des études consacrées aux végétaux des mers et étangs. A la lire, on constate que lepotentiel des macro et micro-algues des mers, des océans et des étangs est considérable mais se heurte à de sérieuses difficultés techniques ou économiques. Selon les auteurs du rapport, la valorisation des algues n'aura de sens que si elle s'opère dans une chaîne industrielle qui ne se limite pas à l'énergie mais englobe également les besoins de la chimie (médicaments, cosmétiques, etc.) et les processus de dépollution des sols et des eaux. Et, surtout, une meilleure connaissance des algues et des micro-organismes qui y sont associés plaide pour des mesures qui sauvegardent la biodiversité marine qui héberge 80% des espèces vivantes mais que nous connaissons encore assez mal. Ainsi, la spiruline, une algue aux multiples vertus alimentaires et thérapeutiques, fait l'objet de recherches nouvelles très intenses. Des chercheurs pensent qu'elle serait le catalyseur idéal pour produire naturellement l'hydrogène, le vecteur de l'énergie de demain dont rêve Nicolas Hayek.
Source : http://www.letemps.ch/template/economie.asp?page=9&article=216278