samedi 25 octobre 2008

Les hydroliennes : prometteuses !

Après 133 jours d’immersion à l’embouchure de l’Odet (sud Finistère), la Française Sabella DO3 réalisée dans les ateliers du groupe public de construction navale militaire DCNS (ex-DCN) de Brest, n’a subi aucun dommage

Un des concepteurs de ce modèle réduit au tiers, Jacques Suer, a fait le choix de la simplicité pour son hydrolienne qui a très bien fonctionné "à marée montante comme descendante" sans nuire à l’environnement, se félicite le chercheur. Le pari semble gagné pour cette machine entièrement sous-marine à un détail près : l’hydrolienne n’a pas été raccordée au réseau électrique. "Trop compliqué", a regretté l’ingénieur qui s’est résolu pour cet essai à disperser la production électrique (4 kW) dans le flot.

Outre-Manche, les concepteurs ont une longueur d’avance. Le branchement au réseau, pourtant délicat, n’a pas été un problème pour l’entreprise irlandaise OpenHydro lors de ses essais d’une hydrolienne d’une puissance de 25O kW, la première du genre dans le nord de l’Ecosse. En revanche, trouver sur le marché les moyens de levage adapté, en dehors de ceux dédiés aux plateformes pétrolières, a été le principal obstacle. "L’implantation offshore dans l’environnement réel est un défi", reconnaît James Ives PDG de OpenHydro qui a préféré créer de toute pièce le matériel dont elle avait besoin.

OpenHydro qui prévoit la mise en production en 2009 d’une hydrolienne de 20 mètres de diamètre capable de délivrer 1 mW a aussi besoin d’étoffer ses équipes d’ingénieurs hydrauliciens. "Nous recrutons beaucoup ! ", a ainsi déclaré M. Ives profitant de la conférence pour lancer un appel à candidatures. Dans le tableau des concepteurs d’hydroliennes, Marine Current Turbines fait figure de doyen tant ses premiers essais en mer (1994) sont anciens. Depuis, l’entreprise a mis sur le marché SeaGen, la "première hydrolienne de dimension commerciale", selon Peter Frenkel, le directeur technique qui souligne la difficulté de construction dans des courants forts.

Seagen ressemble à une éolienne terrestre mais équipée de chaque côté de son mat de deux grandes hélices de 16 m de diamètre délivrant quelque 600 kW. Cette société qui envisage de vendre des turbines de 3 jusqu’à 20 m de diamètre sera un concurrent sérieux dans l’équipement de la ferme hydrolienne qu’EDF va implanter à partir de 2011 entre Paimpol et l’île de Bréhat (Côtes d’Armor). Quatre à dix hydroliennes d’une capacité de 4 à 6 MW, soit l’équivalent de la consommation de 5.000 foyers, seront immergées et progressivement raccordées au réseau d’électricité entre fin 2011 et fin 2012 dans un secteur où l’intensité des courants atteint des niveaux parmi les plus élevés d’Europe.

Source : http://www.liberennes.fr/libe/2008/10/les-hydrolienne.html

Coproduire l’eau et l’électricité grâce aux énergies renouvelables : un défi mondial

Le volume d’eau sur terre est d’environ 1.4 Milliards de km³. Mais il s’agit essentiellement d’eau salée : les mers représentent 97 % de l’eau disponible sur terre (360 millions de km2, soit 71 % de la surface du globe), au total : 1320 millions de km3 d’eau de mer + 24 millions de km3 de glace.

Les ressources en eau douce ne sont que de 35 millions de km³, soit 2.5 % du total. De plus, 68.9 % de cette eau douce, soit 24 millions de km³ sont stockées sous forme de glace et de neiges éternelles, dans les montagnes et aux deux pôles - ce qui les rend difficilement exploitable pour des usages humains. La majeure partie des ressources restantes, soit 8 millions de km³ (30.8 % des ressources en eau douce) se trouve emprisonnée dans les sols (sous forme de nappes phréatiques, de marais, de permafrost...).

Au total le stock d’eau disponible pour les humains, mais aussi pour le reste de l’écosystème, n’est donc que d’environ 200 000 km³, ce qui représente moins de 1 % du volume total d’eau douce sur terre. Et la quantité effectivement utilisable se situe entre 12500km³ et 14000km³ si l’on ne veut pas compromettre le renouvellement des ressources. Le monde arabe, de l’Afrique du Nord au Moyen-Orient, ne dispose que de 0.67 % des ressources en eau douce renouvelable de la planète. La disponibilité moyenne y frise les 1000 m³ par personne à peine.

L’eau est une ressource renouvelable, disponible en permanence grâce à l’énergie solaire. Sous l’effet du soleil, l’eau s’évapore des océans et de la terre et se retrouve dispersée de nouveau tout autour de la Terre. Cette eau s’écoule dans les rivières, pénètre dans la terre et alimente les nappes souterraines. Sur les continents, les précipitations sont annuellement supérieures de 44 000 km3 à l’évaporation. Les continents vont donc renvoyer ce volume d’eau aux océans, à mesure que l’eau des rivières et des nappes souterraines s’écoule. C’est ce qu’on appelle le cycle de l’eau.

La ressource en eau renouvelable et potentiellement disponible est estimée à 12 000 km3 par an. Sur cette quantité, les prélèvements d’eau représentent 35 %, soit environ 4 500 km3, et la part d’eau consommée 20 %, autrement dit 2 500 km3. A l’échelle planétaire la situation de l’eau n’est pas alarmante, mais certains pays souffrent de pénurie d’eau en raison de l’inégale répartition des ressources. Si le ruissellement mondial de l’eau était réparti de manière régulière dans l’espace et dans le temps, les ressources en eau douce seraient largement suffisantes pour approvisionner l’ensemble de la planète. Un rapide calcul montre que l’eau disponible pour la consommation humaine représente 15 000 litres par personne et par jour. Ce chiffre ne reflète cependant pas la réalité, étant donné que les ressources en eau douce sont inégalement réparties.

Les usages de l’eau sont multiples. L’eau est essentielle à la survie de l’homme mais sa consommation domestique (pour la boisson, la cuisine et l’hygiène personnelle) ne représente que 8 à 10 % de la consommation totale sur la planète. L’industrie est responsable d’environ 20 % de la consommation mondiale d’eau douce, et cette consommation industrielle augmente beaucoup depuis les années 1950. L’eau est en effet essentielle pour beaucoup de processus industriels.

Mais c’est l’agriculture qui est la plus gourmande en eau, occasionnant environ 70 % de toute la consommation d’eau douce sur la planète. Cette consommation est essentiellement le fait de l’agriculture irriguée, qui n’occupe qu’environ 17 % des terres cultivées, mais qui assure 40 % de la production agricole mondiale (le reste étant assuré par l’agriculture dite pluviale). Les surfaces irriguées ont environ doublé dans le monde depuis 1960.

Depuis le début du XXème siècle, la consommation d’eau douce a été à peu près multipliée par sept sur la planète. Or d’ici à 2025, les besoins en eau de l’agriculture devraient augmenter encore de 20 %. 4 millions de personnes meurent de maladies liées au manque d’eau, ou à la qualité de l’eau. Plus de 25 pays sont dans une situation de stress hydrique important, et subissent de grave pénuries. 1.5 Milliard de personnes n’ont pas accès à l’eau potable et d’ici 2050 2,3 milliards de personnes -4 terriens sur 10- devraient souffrir de stress hydrique et 1,7 milliard se retrouveront dans un contexte de pénurie hydrique.

La pénurie d’eau touche déjà tous les continents et plus de 40 pour cent de la population de la planète. D’ici 2025, 1,8 milliard de personnes, sur les 8 milliards de terriens (22 %) vivront dans des pays ou des régions victimes de pénuries d’eau absolues, soit environ 450 millions de foyers. Si l’on considère que le niveau de confort domestique correspond à une consommation moyenne d’eau par foyer de 150 m³ par an, cela veut dire que les besoins domestiques de cette population en situation de stress hydrique seront de l’ordre de 68 km³ en 2025.

Face à cette situation, le dessalement de l’eau de mer à grande échelle est devenu une nécessité au niveau mondial. Près de 50 millions de m3 d’eau douce sont produits chaque jour par 12 000 installations, à partir des mers et des océans, soit 0,5 % de l’eau consommée sur la planète. Au rythme actuel, qui enregistre un doublement de la production tous les 10 ans, les spécialistes estiment que cette production grimpera à 60 millions de m3 par jour en 2010. Et pourrait à nouveau doubler d’ici à 2025 pour atteindre 120 de m3 par jour, soit 44 km3 par an (contre 18 km3 par an en 2008), ce qui correspond aux deux tiers des besoins domestiques en eau des 450 millions de foyers qui seront sous le seuil minimum d’accès à l’eau en 2025.

Ce prélèvement de 44 millions de km3 par an d’eau de mer peut sembler important mais il ne représente que 2 % de la totalité de l’eau consommée sur terre (environ 2500 km3 par an). Ramené à la surface totale des océans (360 millions de km2), il ferait baisser le niveau global des océans d’à peine plus d’un 10eme de mm, une valeur très faible comparée à l’élévation moyenne annuelle du niveau des mers provoquée par le réchauffement climatique et la dilatation thermique, qui est de 2 à 3 mm par an, selon les méthodes de mesures.

Si l’on voulait fournir à ces 450 millions de foyers l’eau domestique nécessaire à l’aide d’usines de dessalement au monde utilisant la technologie membranaire d’osmose inverse, il faudrait environ 620 usines, sachant que la plus grande usine de dessalement au monde utilisant la technologie membranaire d’osmose inverse produit 110 millions de m3 par an. Sachant que la consommation d’énergie de cette technologie est de l’ordre de 4 kWh/m³, une telle production d’eau potable représenterait une consommation totale d’énergie de l’ordre de 272 milliards de kWh (272 TWh), soit environ la moitié de la consommation électrique totale prévue en France en 2025.

Cette quantité d’énergie représente la production annuelle de 49 réacteurs nucléaires de 900 MW ou encore la production annuelle de 11 000 éoliennes géantes maritimes ou encore la production annuelle de 210 Km2 de panneaux photovoltaïques (deux fois la surface de Paris). Cette consommation mondiale d’énergie serait tout à fait modeste par rapport à la consommation mondiale d’énergie prévue en 2025 (de l’ordre de 16 GTEP par an) et ne représenterait qu’environ 1 % des 25 000 TWh d’électricité que consommera la planète en 2025.

Sur le plan financier, sachant que le coût actuel de dessalinisation par osmose inverse est de l’ordre de 0,50 € le m3, il faudrait investir 34 milliards d’euros au niveau mondial pour permettre à l’humanité de ne plus connaître le manque absolu d’eau, soit seulement 0,1 % du produit mondial brut. On voit donc ce défi de l’eau pour tous n’est nullement hors de notre portée à condition que nous en ayons la volonté politique.

Dans cette perspective il faut évoquer le remarquable concept « DESERTEC » qui pourrait permettre aux pays d’Afrique et du Moyen Orient de coproduire énergie et eau douce grâce à l’énergie solaire. Selon le Centre Aéronautique et Spatial Allemand (DLR), des centrales thermiques solaires installées dans le désert du Sahara pourraient générer autant d’électricité qu’il en est consommé respectivement par la région Moyen-Orient et Afrique du Nord (MENA) et par l’Europe (UE-25) aujourd’hui.

A partir d’études satellites réalisées par le Centre Aéronautique et Spatial Allemand (DLR), il a été démontré qu’en occupant moins de 0.3 % de la surface entière désertique de la région Moyen-Orient et de l’Afrique du Nord (MENA) par des centrales thermiques solaires, il serait possible de produire assez d’électricité pour satisfaire aux demandes actuelles en énergie de l’Europe (UE des 25) et de la région MENA. L’électricité d’origine solaire et éolienne issue de Desertec serait acheminée vers l’Europe au moyen de lignes CCHT (Courant Continu à Haute Tension ou HVDC pour High Voltage Direct Current) avec des pertes n’excédant pas 10 à 15 %.

Les centrales thermiques solaires (appelées aussi Concentrating Solar Power - CSP) constituent la meilleure technologie pour assurer un rendement énergétique sûr et important. Elles utilisent des miroirs pour concentrer la lumière du soleil créant ainsi suffisamment de chaleur pour générer de la vapeur et actionner les turbines produisant l’électricité. L’excès de chaleur produit le jour peut être stocké, sous forme de gaz ou d’air comprimé et servir à actionner les turbines pendant la nuit ou bien lors de pics de consommation.

Afin de garantir une production électrique ininterrompue en cas de longues périodes de mauvais temps, on peut coupler aisément les turbines avec des chaudières classiques utilisant le pétrole, le gaz ou la biomasse (cela rend ainsi inutile le maintien en état de coûteuses centrales électriques de substitution). La chaleur résiduelle ayant servi à générer l’électricité peut permettre (par cogénération) de dessaler l’eau de mer et de produire du froid, ceci au profit de la population locale.

D’ici 2050, entre 10 et 25 % des besoins en électricité de l’Europe pourraient être importés des déserts. Une dépendance trop large vis à vis d’un pays ou d’un petit nombre de centrales électriques pourra être évitée grâce à l’installation et la mise en réseau d’une multitude de centrales thermiques solaires (puissance moyenne 200 MW) et de fermes éoliennes dans de nombreux pays. De plus, l’utilisation de plusieurs lignes de transport CCHT à destination de l’Europe et d’installations appartenant à un grand nombre de propriétaires (publics et privés) permettra d’accroître la sécurité de l’approvisionnement de l’Europe.

La construction de nouvelles centrales thermiques solaires a déjà commencé en Espagne et aux Etats-Unis (Andasol 1 et 2, Solar Tres, PS 10, Nevada Solar One). Il y a de plus des projets en cours en Algérie, en Egypte, au Maroc et d’autres sont planifiés en Jordanie et en Libye. Dans les pays de l’Europe du Sud tels que l’Espagne et l’Italie, l’énergie solaire venant d’Afrique du Nord sera moins chère dès 2020 que celle produite par les nouvelles centrales utilisant les combustibles fossiles ou nucléaires.

La construction d’un réseau EU-MENA exigera certes un investissement de 45 milliards d’Euros d’ici à 2050, mais elle permettra des économies annuelles de 10 milliards d’euros sur le coût de l’électricité. L’énergie propre des déserts deviendra alors l’option la moins chère et la connexion EU-MENA apparaîtra comme une nécessité pour les économies européennes.

Vers le milieu du 21ème siècle, les pays du MENA pourraient, grâce au projet DESERTEC, avoir valorisé leurs déserts comme sources d’énergie propre et inépuisable, faisant d’une pierre quatre coups : ils produiraient de manière propre leur énergie et une bonne partie de celle de l’Europe, ils pourraient, grâce à cette énergie propre et abondante, dessaler l’eau de mer et résoudre leur problème d’accès à l’eau potable, ils trouveraient les moyens de développer sur le plan économique et agricole des régions arides ou désertiques et ils contribueraient ainsi à réduire considérablement les émissions de gaz à effet de serre au niveau européen et mondial. Il est donc dans l’intérêt de l’Europe à long terme de nouer un nouveau et ambitieux partenariat énergétique avec l’Afrique et le Moyen Orient et d’aider massivement ces régions à pouvoir exploiter leur immense potentiel énergétique.

Source : René Trégouët - Sénateur honoraire - Fondateur du Groupe de Prospective du Sénat
http://www.tregouet.org/article.php3?id_article=552

dimanche 19 octobre 2008

Ouverture de la première centrale à "suiveurs solaires"

Une centrale solaire inédite, dont les panneaux photovoltaïques suivent la course du soleil, vient d’ouvrir à Martillac, près de Bordeaux

Elle permet un gain de 30 % en moyenne de la capacité de production d’énergie. Conçue pour EDF Energies nouvelles par Exosun, jeune société née dans la pépinière d’entreprises de la Technopole Bordeaux-Montesquieu à Martillac, la centrale pilote compte 126 suiveurs solaires ou "trackers". Ils sont implantés sur un terrain de 3.500 m2 de telle manière qu’à aucun moment ils ne puissent se faire de l’ombre entre eux. Ces "trackers", qui portent chacun un module photovoltaïque de 6 m2, ont pour fonction de suivre le soleil de l’aube à la tombée de la nuit afin d’optimiser le rendement. "Cela permet d’augmenter les performances de 20 à 40 % par rapport aux panneaux fixes", a déclaré à Reuters Daphné de Baritault, chef de produit marketing d’Exosun.

Connectée au réseau EDF, la centrale a une capacité de production de 100kW, soit l’équivalent de la consommation d’une trentaine de foyers mais sans émettre de CO2. Un autre projet de centrale de ce type est en cours d’élaboration avec la Communauté de communes de Gabardan, dans les Landes. Exosun se tourne également vers le marché mondial de l’énergie solaire qui connaît une croissance de 40 % par an depuis trois ans.

Source : http://fr.news.yahoo.com/4/20081002/tts-france-environnement-solaire-ca02f96.html

dimanche 12 octobre 2008

Solaire thermodynamique : le béton, une solution avantageuse pour le stockage thermique de l’énergie solaire

Le Centre allemand de recherche aérospatial (DLR) et son partenaire industriel Züblin AG ont présenté le 16 septembre 2008 un nouveau système pilote de stockage de chaleur pour centrales solaires thermiques à concentration (centrales CSP)

Installé dans la zone de tests de l’Université de Stuttgart, le démonstrateur stocke la chaleur dans du béton et représente une solution performante et à bas coût en vue d’une application commerciale. L’objectif du projet, soutenu par le Ministère fédéral de l’environnement (BMU), était de démontrer la faisabilité technique du système, après une phase de calculs et d’expériences menée en laboratoire. Les nombreux tests effectués ont maintenant confirmé la performance du système : "Les essais effectués sur l’installation pilote représentent un pas en avant vers un accumulateur commercial combinable avec une centrale", a déclaré Dr. Thomas Voigt, Directeur technique chez Züblin AG.

Par rapport aux systèmes de stockage thermique par sel fondu actuellement disponibles sur le marché, l’accumulateur testé représente une solution très économique. Ceci a déjà été démontré avec succès en Espagne, sur la Plataforma Solar de Almerìa, où le DLR exploite des installations solaires expérimentales. Dr. Rainer Tamme, Directeur du département "génie des processus thermiques" de l’Institut de thermodynamique technique du DLR, insiste également sur les avantages de la conception modulaire : "Grâce au principe de montage du système de stockage à partir de modules élémentaires, l’accumulateur en béton peut être adapté à n’importe quelle puissance. Il est non seulement approprié pour des applications dans des centrales CSP, mais il trouve également sa place pour le stockage de la chaleur d’échappement dans l’industrie par exemple ou encore dans le domaine de la cogénération".

Le stockage de l’énergie est un facteur clef pour le succès des technologies solaires thermiques haute température. La combinaison d’une centrale CSP avec un accumulateur de chaleur permet d’augmenter la durée de fonctionnement de la turbine (fonctionnement pendant la nuit ou plus généralement dans les moments de plus faible ensoleillement) et donc la disponibilité de l’installation de production d’électricité solaire.

Source : http://www.bulletins-electroniques.com/actualites/56064.htm

Les promesses du photovoltaïque

Cet été, l’énergie solaire a frappé très fort. Le laboratoire américain des énergies renouvelables (NLREL) a annoncé avoir conçu une cellule photovoltaïque de 41 % de rendement


Autrement dit, les chercheurs ne sont plus très loin de savoir transformer la moitié de l’énergie solaire qui arrive sur Terre en électricité. A Valence, il y a une semaine, lors de la Conférence européenne sur l’énergie solaire réunissant 4.000 chercheurs, d’autres records sont tombés. Pratiquement toutes les technologies photovoltaïques sont concernées. Ces bêtes de course ne sont pas uniquement des prouesses de laboratoires, elles laissent entrevoir dans leur sillage une évolution rapide de ces technologies. « C’est un grand cru scientifique, estime Daniel Lincot, directeur du Laboratoire d’électrochimie et de chimie analytique et président du congrès de Valence. On voit sortir des laboratoires de nouveaux concepts avancés, en parallèle des efforts de recherche pour diminuer les prix des technologies au silicium. »

Tous les chercheurs ont aujourd’hui le regard vissé sur le rendement maximum théorique : 84 % de l’énergie des photons pourraient être convertibles en électricité. Dans cette course de fond, les stratégies divergent. Certaines technologies produisent des performances élevées mais d’un coût prohibitif. D’autres laboratoires partent au contraire de procédés économiques pour en faire des technologies à meilleur rendement. L’optimum est actuellement détenu par la technologie à silicium cristallin, qui truste 94 % du marché. Les meilleurs laboratoires, comme celui de Sanyo ou de Sunpower, dépassent les 20 % de rendement, et les usines sortent des produits à peine moins performants. Mais cette filière utilise les galettes de silicium de l’industrie microélectronique de 200 microns d’épaisseur. Elles sont donc coûteuses à fabriquer, et leur disponibilité est limitée.

Les cellules à couches minces pourraient prendre le relais de la filière classique, car elles s’approchent de l’industrialisation. Elles consistent en un substrat de type verre recouvert d’une couche de quelques microns de silicium amorphe. L’économie de matière offre des coûts de production trois fois inférieurs, mais leurs rendements tombent autour de la dizaine de pourcents. Certains laboratoires et industriels veulent maintenant désaccoutumer le photovoltaïque de son addiction au silicium. Ils reprennent le concept des couches minces mais avec des revêtements de matériaux alternatifs. Deux substances ont émergé parmi les centaines déjà testées : le CdTe et le CIGS (cuivre-indium-gallium-sélénium). Le laboratoire de Daniel Lincot travaille sur cette dernière piste et frôle actuellement les 20 % de rendement.

Cette technologie de déposition a pour autre intérêt de pouvoir produire des surfaces importantes de capteurs, alors que le silicium reste cantonné aux petites galettes. Plusieurs fabricants d’écrans plats, maîtres dans l’art de la déposition de couches, se reconvertissent actuellement dans cette filière. D’autres secteurs comme les industriels du revêtement d’étain cherchent également à exploiter leurs savoir-faire. Le californien Nanosolar utilise, lui, des procédés d’imprimerie pour sortir ses premières cellules flexibles. L’investissement de telles capacités de production promet des réductions importantes de coûts. Les premiers exemplaires de cellules de 30 cm de large plafonnent toutefois à 7 % de rendement.

Pour parcourir les dizaines de pourcents qui les séparent du rendement théorique, les chercheurs explorent des voies plus radicales. Les cellules actuelles ne savent transformer en électricité qu’une petite partie du spectre de la lumière entre l’infrarouge et le proche ultraviolet. Cela vient du fait qu’un matériau photovoltaïque ne sait récupérer qu’un sursaut précis des électrons quand ils sont excités par la lumière. Tous les photons qui ont une longueur d’onde inférieure ne permettent pas aux électrons du matériau d’aboutir à un courant : ils retombent dans leur trou. Ceux qui ont une énergie supérieure ne livrent que le sursaut absorbable par le matériau.

Pour élargir le spectre des cellules, les chercheurs redoublent d’inventivité. La première voie consiste à empiler plusieurs couches photovoltaïques ; chacune spécialisée dans un spectre. C’est grâce à trois empilements que le NREL a atteint son record de 41 % de rendement. D’autres laboratoires misent sur un filtre en amont de la cellule pour compresser les longueurs d’onde des photons incidents pour les faire rentrer au « chausse-pied » dans le spectre du matériau photovoltaïque. Mais le congrès de Valence a couronné une démarche plus prometteuse encore, celle du chercheur australien Martin Green. Il intègre dans le silicium des nanoparticules de dioxyde de silicium au comportement quantique. Ce matériau ouvre la bande infrarouge à l’effet photovoltaïque.

Reste enfin la stratégie des cellules organiques (en plastique). Cette voie vise des coûts très bas mais ses rendements restent faibles. L’école polytechnique fédérale de Lausanne vient toutefois de dévoiler un prototype de cellule à colorant qui dépasse les 11 %, prouesse inimaginable il y a quelques années. Cette technologie est la plus proche de la photosynthèse végétale, le processus parfait de conversion d’énergie solaire. Les plantes transforment les photons grâce à des molécules de colorant comme la chlorophylle qui savent stocker l’énergie dans leurs électrons.

Les cellules organiques sont des films poreux recouverts d’une très fine couche de particules de pigments en contact avec une solution électrolyte. Quand un photon frappe la cellule, il produit une charge négative dans le pigment et une charge positive dans l’électrolyte, menant à un courant. Pour doper cet effet photovoltaïque assez faible, les scientifiques ont eu l’idée d’augmenter les interfaces entre le colorant et l’électrolyte. Les prototypes comportent ainsi des surfaces actives dont la géométrie rappelle les poumons ou les arbres. Ces organisations vivantes savent maximiser les surfaces de contact, à la manière des fractales. Ce sont du coup les chimistes, et non les physiciens qui sont les plus en pointe dans ce domaine.

Il est actuellement impossible de savoir laquelle de ces technologies couvrira à terme les toits et les champs du XXIe siècle. « Il ne faut pas les opposer, la compétition reste ouverte », promet, optimiste, Daniel Lincot.

Source : http://www.lesechos.fr/info/metiers/4774594.htm

samedi 4 octobre 2008

La Green Box : le plein d’énergie à domicile

Les coûts de l’essence et des factures énergétiques atteignant des sommets, un système qui produit et stocke de l’hydrogène de façon écologique et à un prix abordable, risque de révolutionner le marché énergétique mondial

La société ITM Power, basée à Saffron Walden (Essex), estime qu’une partie de la solution réside dans son électrolyseur de taille domestique qui rappelle un réfrigérateur-congélateur. Cette station à hydrogène, la Green Box, qui va bientôt entrer en phase d’industrialisation, fonctionne via un électrolyseur utilisant de l’eau et de l’électricité produite en amont grâce à l’énergie solaire ou éolienne. Par ailleurs, un générateur à combustion interne convertit le gaz (ici l’hydrogène) en électricité, alimentant ainsi la maison en énergie.

Jim Heathcote, directeur général d’ITM Power, affirme que ce nouveau système résout l’un des problèmes fondamentaux du stockage de l’énergie produite par les récupérateurs et convertisseurs d’énergies renouvelables (panneaux solaires, éoliennes, etc). Ce système permet donc de produire et de stocker un combustible utile. En effet, selon lui, la bataille pour la sécurité énergétique consiste à fabriquer de l’hydrogène à un coût compétitif face aux combustibles concurrents.

La force de la technologie inventée par ITM Power se trouve dans la membrane de polymère de l’électrolyseur. En règle générale, l’électrolyse reste un procédé difficile, en raison de l’environnement chimique agressif qu’il entraîne. D’une façon générale, les électrolyses alcalines utilisent un électrolyte liquide qui peut absorber les gaz produits, rendant le système potentiellement explosif et nécessitant des coûts supplémentaires de dégazéification en usine. Les électrolyseurs acides utilisent, eux, une membrane de polymère fluorée afin de séparer efficacement l’oxygène de l’hydrogène. Cependant l’utilisation d’un catalyseur de platine rend ce procédé extrêmement coûteux. La production d’une membrane de polymère coûte environ 250 livres/m2 (environ 319 euros/m2).

Celle conçue par ITM Power ne reviendrait qu’à seulement 2,50 livres/m2 (environ 3,19 euros/m2). Afin d’arriver à un tel coût de production, ITM Power a développé une nouvelle classe de polymères, dits réticulés hydrophiles à haute conductivité ionique. Au départ, les réactifs, sous forme liquide, sont versés dans un moule et subissent une réticulation par rayonnement ultraviolet ou gamma. Cette réticulation, permet de lier de façon permanente, par polymérisation, les macromolécules constitutives de la substance initiale.

Les molécules se rassemblent alors en 3D afin d’éviter toute dégradation en bouts de chaînes, ce qui rend inutile l’utilisation de fluor. ITM Power, affirme être capable d’ajouter un composant alcalin avant la phase de polymérisation, ce qui permet d’éviter l’étape de dégazéification nécessaire lors d’électrolyses alcalines traditionnelles. Cela permet également de se débarrasser du platine dans le cas d’une électrolyse acide. En termes de production d’hydrogène la Green Box peut assurer à une voiture une autonomie d’environ 40 km. Les différentes recherches actuellement en cours dans les laboratoires d’ITM Power visent à atteindre 160 km d’autonomie.

David Hart, chercheur à Imperial College London, commentant l’efficacité et les failles d’un tel système, explique que la Green Box est un système tout à fait plausible. Cependant, le fait qu’elle utilise l’électricité pour assurer son fonctionnement risque de contrecarrer l’objectif zéro émission, à moins que les futurs acheteurs n’utilisent qu’une électricité "verte" d’origine éolienne ou solaire. L’autre barrière qui reste à franchir, est selon lui, l’acceptation par le public d’un tel système dans une maison.

Source : http://www.bulletins-electroniques.com/actualites/55988.htm