Hello visiteur mon site utilise des cookies pour les statistiques de fréquentation!
Accueil sur les sources d'énergie
Des chercheurs de l'Université du Texas, à Dallas, ont mis au point de nouveaux fils en nanotubes de carbone capables de convertir le mouvement mécanique en électricité avec un rendement sans précédent ! Ces fils, appelés twistrons, affichent une efficacité de conversion énergétique de 17,4% dans le cas de l'étirement et de 22,4% pour la torsion.
Les twistrons ont été décrits pour la première fois en 2017 par une équipe de chercheurs de l'UT Dallas. C'est l'essor de l'électronique et des appareils portables qui a motivé leur développement : des fils capables de récolter l'énergie de mouvement apparaissaient comme une solution idéale pour disposer d'une alimentation sans batterie, et de faible encombrement. Ils ont donc mis au point des collecteurs d'énergie, fabriqués à partir de fils de nanotubes de carbone dont le diamètre est 10 000 fois inférieur à celui d'un cheveu humain capables de fournir de l'énergie électrique à partir de mouvements de torsion et de traction.
Pour fabriquer ces twistrons, les nanotubes sont filés par torsion pour former des fibres, légères et très résistantes, dans lesquelles des électrolytes peuvent être incorporés. Comme n'importe quelle autre fibre, ils peuvent être incorporés dans les textiles et ainsi, capter les mouvements humains. Ils peuvent même être utilisés dans l'océan pour recueillir l'énergie du mouvement des vagues. Pour générer de l'électricité, les fils doivent être recouverts d'un matériau conducteur ionique, ou d'un électrolyte. Lorsqu'un fil est tordu ou étiré, son volume diminue, ce qui rapproche les charges électriques du fil, cela augmente la tension associée à la charge stockée dans le fil.
Dans leurs précédents travaux, les chercheurs ont réussi à générer une puissance électrique de pointe de 250 watts par kilogramme, en étirant des twistrons 30 fois par seconde. Les twistrons mis au point étaient très élastiques ; pour ce faire, les chercheurs avaient introduit tellement de torsion que les fils s'enroulaient comme un élastique trop torsadé.
Dans une nouvelle étude, la même équipe montre comment elle a réussi à améliorer considérablement l'efficacité de ses twistrons : au lieu d'enrouler une fibre de nanotubes de carbone sur elle-même, les chercheurs ont entrelacé trois brins individuels pour en faire un fil unique d'une manière quasi similaire à celle utilisée pour les fils de laine ou de coton dans l'industrie textile.
Ainsi tressés, entre 2 et 120 Hz, ces nouveaux fils affichent une puissance de pointe gravimétrique et une puissance moyenne plus élevées que tout autre collecteur d'énergie mécanique basé sur des matériaux, rapporte l'équipe.
Les chercheurs ont mené plusieurs expériences pour évaluer les performances de leurs twistrons à trois brins. Ils ont tout d'abord attaché un de leurs twistrons entre un ballon et le fond d'un aquarium rempli d'eau salée, afin de simuler la production d'électricité à partir des vagues de l'océan.
Ils ont également utilisé plusieurs twistrons pour former un réseau de seulement 3,2 milligrammes et les ont étirés à plusieurs reprises pour charger un supercondensateur : celui-ci disposait alors de suffisamment d'énergie pour alimenter cinq petites diodes électroluminescentes, une montre numérique et un capteur numérique d'humidité et de température.
Enfin, l'équipe a également intégré des twistrons dans un patch en coton, qui a ensuite été positionné au niveau du coude d'une personne : des signaux électriques étaient générés dès que celle-ci pliait son coude de manière répétée, suggérant que ces fils de haute technologie pourraient tout à fait être utilisés pour exploiter l'énergie des mouvements humains.
Un générateur bêtavoltaïque est un générateur électrique encore expérimental, en 2011, qui tire son énergie d'une émission radioactive de particules β-, c'est-à-dire des électrons. Un isotope radioactif de l'hydrogène, le tritium, est une des sources principalement étudiée. Contrairement à la plupart des sources nucléaires, qui utilisent une réaction nucléaire pour générer l'énergie qui sera transformée en électricité, les bêtavoltaïques reposent sur un processus de transformation non-thermique.
Les générateurs bêtavoltaïques ont été imaginés au milieu du siècle dernier. En 2005, un nouveau matériau utilisant des diodes à base de silicium poreux a été proposé pour augmenter leur efficacité. Cette augmentation serait principalement due à l'augmentation de la surface du matériau de capture.
Description générale
Ce sont des dispositifs expérimentaux produisant très peu d'énergie à des coûts de revient encore très élevés et qui n'ont actuellement aucune application. Leur force électromotrice provient des électrons produits par les réactions de désintégration β-, la puissance électrique fournie étant directement fonction de l'intensité de la désintégration radioactive et de l'énergie de désintégration à l'oeuvre dans ces composants : cette force électromotrice est structurellement limitée par la taille réduite de ces composants, qui l'empêche de pouvoir devenir significative.
L'idée, popularisée il y a quelques années par certaines revues et sites Web, que ces générateurs soient principalement destinés aux appareils portatifs, tels que les téléphones mobiles, les ordinateurs portables, voire les pacemakers, demeure prématurée et semble pour l'instant fort peu réaliste : ces appareils utilisent aujourd'hui des batteries ayant une autonomie de l'ordre du jour ou de la semaine au maximum, et qui nécessitent donc d'être rechargées très fréquemment, ce qui limite leur portabilité, l'utilisation d'une pile bêtavoltaïque a été présentée par les promoteurs de cette technologie comme permettant de démultiplier la durée d'utilisation sans rechargement, qui pourrait alors, selon eux, atteindre 30 ans dans le cadre d'une utilisation domestique. Plusieurs avantages potentiels sont mis en avant pour justifier les recherches dans cette direction.
- Détail
- La transformation nucléaire n'est pas exothermique, contrairement aux réactions chimiques des piles classiques.
- Une pile bêtavoltaïque en fin de vie ne contient aucun élément nocif, contrairement aux métaux lourds ou non-recyclable contenu dans les piles ordinaires.
- Les particules β- utilisées libèrent une faible quantité d'énergie et sont facilement isolées, par rapport aux rayons γ générés par des appareils plus radioactifs, de sorte que ces générateurs ne devraient pas émettre d'onde ni de particule dangereuse.
Cependant, les générateurs bêtavoltaïques tendent à subir des dégradations internes dues au rayonnement β- qui en diminuent progressivement le rendement, tandis que la source d'énergie elle-même se tarit au fur et à mesure de la désintégration du tritium.
SF-CIHT
La société BlackLight Power a annoncé mercredi avoir produit plusieurs millions de watts d'électricité dans ses laboratoires grâce à une technologie révolutionnaire, en instance de brevet, appelée "Solid Fuel-Catalyst-Induced-Hydrino-Transition (SF-CIHT)".
L'utilisation d'un carburant solide spécifique, à base d'eau, confiné par les deux électrodes d'une pile SF-CIHT, et auquel est appliquée une intensité de 12.000 ampères, enflamme l'eau en produisant un extraordinaire éclair électrique.
Le carburant est ainsi en mesure d'être continuellement fourni aux électrodes pour continuellement produire de l'électricité.
BlackLight a produit des millions de watts d'électricité dans un volume représentant un dix-millième de litre, ce qui représente une stupéfiante puissance volumique dépassant 10 milliards de watts par litre.
A titre de comparaison, un litre de source d'électricité BlackLight pourrait produire autant d'électricité qu'une centrale électrique dotée d'une puissance supérieure à celle des 4 anciens réacteurs de la centrale nucléaire de Fukushima Daiichi, théâtre d'un des plus grands désastres nucléaires de l'histoire
Sûr et non polluant, le système de production d'électricité convertit par catalyse l'hydrogène présent dans le carburant solide à base d'eau (H2O) en un produit non polluant, une particule d'hydrogène à faible énergie appelée hydrino en permettant aux électrons d'atteindre une orbite plus basse autour du noyau de l'atome.
L'énergie libérée par le carburant à base d'eau (H2O), librement disponible sous forme d'humidité dans l'air, serait 100 fois supérieure à celui d'une quantité équivalente d'essence à indice d'octane élevé.
L'électricité est produite sous forme de plasma, un état physique gazeux ionisé du carburant, en expansion supersonique, essentiellement constitué d'ions positifs et d'électrons libres pouvant être convertis directement en électricité grâce à des convertisseurs magnétohydrodynamiques à rendement élevé.
En utilisant des composants facilement disponibles, BlackLight a conçu un modèle technique de générateur électrique fermé, à l'exception de l'ajout de carburant à base d'eau (H2O), capable de générer 10 millions de watts d'électricité, assez pour alimenter dix mille foyers.
La source d'électricité SF-CIHT serait une innovation révolutionnaire pour toutes les formes de transport automobile, transports routier, ferroviaire et maritime, aviation et aérospatiale, puisque sa puissance volumique est un million de fois supérieure à celle du moteur d'une Formule 1 et dix millions de fois supérieure à celle d'un moteur à réaction.
Les carburants solides et la pile électrochimique CIHT de BlackLight utilisent le même agent catalytique que les nouvelles piles SF-CIHT et ont servi de modèle au docteur Mills lors de l'invention de la pile SF-CIHT productrice de plasma.
Les résultats obtenus par BlackLight, plusieurs fois supérieurs au dégagement maximal théorique d'énergie pour les carburants solides représentatifs, ont été répliqués dans le laboratoire d'applications de Perkin Elmer, sur le site de l'entreprise, avec son instrument commercial. En outre, la pile électrochimique CIHT a également été répliquée de manière indépendante, hors de ces locaux.
Les hydrinos
Les hydrinos sont une forme précédemment inconnue de l'hydrogène, à des états d'énergie inférieurs, produits par le BlackLight Process lors de la libération d'énergie latente contenue dans les atomes d'hydrogène.
L'énergie libérée par la formation d'un hydrino est plus de 200 fois supérieure à celle qui est nécessaire pour extraire l'hydrogène de l'eau par électrolyse. Il apparaît que les piles de la technologie CIHT extraient cette énergie directement en tant qu'électricité. Avec le détournement d'une fraction du pourcentage de puissance électrique, le combustible d'hydrogène peut être créé à partir de l'eau avec la production nette d'énergie sur place. En conséquence, cette énergie peut être produite partout, y compris dans les unités d'habitation, dans les entreprises et dans les automobiles, sans infrastructure de soutien à la génération ou à la distribution de combustible. Les sources d'énergie thermique de BlackLight sont également indépendantes d'une infrastructure de combustible et présentent des avantages supplémentaires par rapport à la production traditionnelle centralisée d'électricité dans les applications d'énergie électrique distribuée autant que dans les opérations de réhabilitation thermique.
La technologie CIHT a un coût nominal par unité de puissance prévisible par rapport aux systèmes thermiques et elle permet de produire de l'électricité sans nécessiter d'énormes générateurs mécaniques alimentés par une source d'énergie thermique. Aussi, une diffusion plus rapide est-elle possible, en déployant un grand nombre d'unités réparties de manière autonome, qui permettent de contourner les énormes obstacles qui compliquent l'entrée sur les marchés de l'énergie, tels que le développement et la construction de centrales électriques gigantesques de l'ordre du milliard de dollars avec l'infrastructure de distribution de l'énergie qui y est associée.
La source d'énergie peut être transportée et raccordée à votre tableau électrique de façon à alimenter votre maison en suffisance et à produire en outre un surplus d'électricité permettant d'alimenter aussi votre voisinage, a ajouté le Dr Mills. Akridge Energy, un détenteur de licence, compte d'une part déployer des unités de puissance électrique basées sur la technologie CIHT, selon un système de distribution décentralisé, dans des propriétés immobilières commerciales, et d'autre part vendre l'électricité à ses locataires et ultérieurement aux réseaux électriques locaux.
BLP a également annoncé la reproduction d'une émission de lumière à énergie exceptionnellement élevée, inférieure à 80 nanomètres, à partir de l'hydrogène au Harvard Smithsonian Center for Astrophysics. Ces résultats, estimés auparavant impossibles sur la base des théories antérieures, seraient explicables par la formation des hydrinos. L'observation spectrale directe des transitions de l'hydrogène pour former les hydrinos ainsi que leur présence astrophysique généralisée en tant qu'identité de la matière noire de l'univers ont donné lieu à la publication d'un article intitulé Hydrino Continuum Transitions with Cutoffs at 22.8 nm and 10.1 nm (Int. J. Hydrogen Energy) rédigé par le Dr Randell Mills et le Dr Ying Lu.
Générateur thermoélectrique à radioisotope
Un générateur thermoélectrique à radioisotope est un générateur électrique nucléaire de conception simple, produisant de l'électricité à partir de la chaleur résultant de la désintégration radioactive de matériaux riches en un ou plusieurs radioisotopes, généralement du plutonium 238 sous forme de dioxyde de plutonium 238PuO2. Aujourd'hui, la chaleur est convertie en électricité par effet Seebeck à travers des couples thermoélectriques : les générateurs produits au siècle dernier utilisaient des matériaux silicium-germanium, ceux produits actuellement mettent en oeuvre plutôt des jonctions PbTe / TAGS, avec une efficacité énergétique n'atteignant jamais 10%. Pour améliorer ces performances, les recherches actuelles s'orientent vers des convertisseurs thermoïoniques et des générateurs Stirling à radioisotope, susceptibles de multiplier le rendement global par quatre.
De tels générateurs sont mis en oeuvre en astronautique pour l'alimentation électrique des sondes spatiales et plus généralement pour alimenter en électricité des équipements requérant une source d'énergie stable et fiable capable de fonctionner de façon continue sur plusieurs années sans maintenance directe — par exemple pour des applications militaires, sous-marines, ou en milieu inaccessible, on avait ainsi conçu des générateurs miniatures pour stimulateurs cardiaques au 238Pu, aujourd'hui remplacés par des technologies plus vertes reposant sur des batteries lithium-ion et de tels générateurs de conception plus simple fonctionnant au strontium 90 ont été utilisés par le passé pour l'éclairage de certains phares isolés sur les côtes de l'URSS.
Source de chaleur
En comparaison d'autres équipements nucléaires, le principe de fonctionnement d'un générateur à radioisotope est simple. Il est composé d'une source de chaleur constituée d'un conteneur blindé rempli de matière radioactive, percé de trous où sont disposés des thermocouples, l'autre extrémité des thermocouples étant reliée à un radiateur. L'énergie thermique traversant les thermocouples est transformée en énergie électrique. Un module thermoélectrique est un dispositif constitué de deux sortes de métaux conducteurs, qui sont connectés en boucle fermée. Si les deux jonctions sont à des températures différentes, un courant électrique est généré dans la boucle.
Le radioisotope retenu doit avoir une demi-vie assez courte, afin de fournir une puissance suffisante. On choisit des demi-vies de l'ordre de quelques dizaines d'années. Il s'agit le plus souvent de plutonium 238, sous forme de dioxyde de plutonium 238PuO2, un puissant émetteur de particules α dont la période radioactive est de 87, 74 ans. Cet isotope est de loin le plus utilisé parce que, outre sa demi-vie particulièrement bien adaptée, il émet tout son rayonnement sous forme de particules α, plus efficacement converties en chaleur que les particules β- et a fortiori que les rayons γ.
Le premier radioisotope utilisé a été le polonium 210 en raison de sa période plus courte de seulement 138, 38 jours et donc de sa très grande puissance de rayonnement, tandis que l'américium 241 offre une alternative moins puissante mais cinq fois plus pérenne en raison de sa période de 432, 2 années :
Décroissance calculée de trois radioisotopes pour GTR
Radioisotope
241Am
238Pu
210Po
Période radioactive
432, 2 ans
87, 74 ans
138, 38 jours
Puissance spécifique
106 W / kg
567 W / kg
140 000 W / kg
Matériau radioactif
241AmO2
PuO2 à 75% de 238Pu
Po à 95% de 210Po
Puissance initiale
97, 0 W / kg
390, 0 W / kg
133 000 W / kg
Après 1 mois
97, 0 W / kg
389, 7 W / kg
114 190 W / kg
Après 2 mois
97, 0 W / kg
389, 5 W / kg
98 050 W / kg
Après 6 mois
96, 9 W / kg
388, 5 W / kg
53 280 W / kg
Après 1 an
96, 8 W / kg
386, 9 W / kg
21 340 W / kg
Après 2 ans
96, 7 W / kg
383, 9 W / kg
3 430 W / kg
Après 5 ans
96, 2 W / kg
374, 9 W / kg
14 W / kg
Après 10 ans
95, 5 W / kg
360, 4 W / kg
0W / kg
Après 20 ans
93, 2W / kg
333, 0W / kg
0W / kg
Après 50 ans
89, 5W / kg
262, 7W / kg
0W / kg
Les isotopes 242Cm et 244Cm ont également été proposés sous forme cm2O3 en raison de leurs propriétés particulières :
Curium 242 donne du plutonium 238 par désintégration α avec une période radioactive de 162, 79 jours, ce qui en fait potentiellement un radioisotope à double détente puisque son produit de désintégration est à son tour utilisable comme source d'énergie pour générateur à radioisotope.
Le curium 244 donne du plutonium 240 par désintégration α avec une période de 18, 10 ans.
Avec une puissance spécifique respectivement de 98 kW / kg pour le 242Cm2O3 et de kW / kg pour le 244Cm2O3, ces céramiques présentent néanmoins l'inconvénient d'émettre un flux important de neutrons en raison d'un taux de fission spontanée respectivement de 6, 2×10-6 et 1, 4×10-6 par désintégration α, ce qui nécessite un blindage plusieurs dizaines de fois plus lourd qu'avec le 238PuO2.
Conversion en électricité
Les éléments thermoélectriques actuellement utilisés pour convertir en électricité le gradient de température généré par la désintégration des radioisotopes sont particulièrement peu efficaces : entre 3 et 7% seulement, n'atteignant jamais 10%. Dans le domaine astronautique, ces thermocouples ont longtemps été réalisés en matériaux silicium-germanium, notamment dans les GPHS-RTG des sondes Ulysses, Galileo, Cassini-Huygens et New Horizons. La nouvelle génération, introduite par le MMRTG pour la mission Mars Science Laboratory, fonctionne avec une jonction dite PbTe/TAGS, c'est-à-dire tellurure de plomb PbTe / tellurures d'antimoine Sb2Te3, de germanium GeTe et d'argent Ag2Te.
Des technologies plus novatrices reposant sur les convertisseurs thermoïoniques permettraient d'atteindre une efficacité énergétique comprise entre 10 et 20%, tandis que des expériences recourant à des cellules thermophotovoltaïques, disposées à l'extérieur du générateur à radioisotope classique équipé d'éléments thermoélectriques, pourraient théoriquement permettre d'atteindre des rendements proches de 30%.
Les générateurs Stirling à radioisotope, utilisant un moteur Stirling pour générer le courant électrique, permettraient d'atteindre une efficacité de 23%, voire davantage en amplifiant le gradient thermique. Le principal inconvénient de ce dispositif est cependant d'avoir des pièces mécaniques en mouvement, ce qui implique de devoir gérer l'usure et les vibrations de ce système.
Utilisation
Un générateur thermoélectrique à radioisotope est particulièrement bien adapté à la production d'une alimentation électrique stable, sur une longue durée et pour maintenir opérationnels pendant plusieurs années les instruments embarqués dans les sondes interplanétaires. Ainsi, le générateur embarqué sur la sonde New Horizons est capable de fournir une alimentation électrique stable de 200 W sur plus de 50 ans. Au bout de deux siècles, la puissance tombe à 100 W. Cependant, en raison du plutonium 238 présent dans un GTR spatial, tout échec au décollage des lanceurs utilisés pour propulser la sonde présente un risque environnemental.
Les générateurs à isotope ont été principalement conçus pour l'exploration spatiale, mais l'Union soviétique les a utilisés pour alimenter des phares isolés à l'aide de générateurs au strontium 90. Ce dernier est sensiblement moins cher que les autres radioisotopes traditionnels, mais émet presque exclusivement des radiations β, à l'origine d'un fort rayonnement X par Bremsstrahlung. Cela ne posait pas de problème majeur compte tenu du fait que ces installations étaient destinées aux endroits isolés et peu accessibles, où elles fournissaient une source d'énergie très fiable, mais présentait tout de même des risques potentiels en cas d'incident ou de dégradation de ces matériels sans surveillance rapprochée. Du millier de générateurs de ce type, utilisant du fluorure de strontium SrF2, voire de titanate de strontium SrTiO3, plus aucun n'est aujourd'hui en état de fonctionner à une puissance acceptable suite à l'épuisement du radioisotope.
Le strontium 90 a une période radioactive de 28, 8 ans (ce qui signifie que la moitié du 90Sr subsiste après 28, 8 ans, le quart après 57, 6 ans etc.), en se désintégrant par désintégration β- pour donner de l'yttrium 90, qui se désintègre à son tour par émission β- avec une demie-vie de 64 heures pour finalement donner du zirconium 90 qui, lui, est stable.
Sécurité
Les générateurs à isotope ne fonctionnent pas comme les centrales nucléaires.
Les centrales nucléaires créent l'énergie à partir d'une réaction en chaîne dans laquelle la fission nucléaire d'un atome libère des neutrons, qui à leur tour entraînent la fission d'autres atomes. Cette réaction, si elle n'est pas contrôlée, peut rapidement croître de façon exponentielle et causer de graves accidents, notamment par la fonte du éacteur.
à l'intérieur d'un générateur à isotope, on utilise seulement le rayonnement naturel du matériau radioactif, c'est-à-dire sans réaction en chaîne, ce qui exclut a priori tout scénario catastrophe. Le carburant est de fait consommé de façon lente, cela produit moins d'énergie mais cette production se fait sur une longue période.
Même si le risque de catastrophe majeure est quasi nul, on n'est cependant pas à l'abri d'une contamination radioactive et chimique car tous les isotopes de plutonium et des autres transuraniens sont aussi chimiquement toxiques : si le lancement d'une sonde spatiale échoue à basse altitude, il y a un risque de contamination localisée, tout comme dans la haute atmosphère, une désintégration de la sonde pourrait engendrer une dissémination de particules radioactives. On dénombre plusieurs accidents de ce type, dont trois, le satellite américain Transit 5BN-3 et 2 sondes russes dont la mission Cosmos 305, ayant conduit à la libération de particules radioactives dans l'atmosphère. Dans les autres cas, aucune contamination n'a pu être détectée et certains générateurs à isotopes ont été récupérés intacts, ayant résisté à la retombée dans l'atmosphère.
Les scientifiques du Lawrence Berkeley National Laboratory aux Etats-Unis ont développé une méthode pour produire de l'électricité en utilisant des virus inoffensifs capables de convertir l'énergie mécanique en électricité.
Les chercheurs ont développé la technologie par le virus bactériophage M13, un virus qui ne s'attaque qu'aux bactéries et est donc sans danger pour les personnes. Un projet qui pourrait permettre selon les gadgets un avenir proche comme les smartphones qui peuvent être chargés à partir de nos propres mouvements comme la marche.
C'est un générateur qui peut produire la puissance nécessaire pour éclairer un écran à cristaux liquides. Son fonctionnement est produit par la pression de petite électrode, le commutateur serait recouverte par une couche mince de virus conçu, capable de produire une charge électrique.
Il s'agit d'une première étape vers le développement de groupes électrogènes personnelles pour une utilisation dans des nano-dispositifs et autres appareils électroniques basés sur des mécanismes de virus.
Les protéines ont par la suite reçu, grâce à de l'ingénierie génétique, quatre groupements aminés à leur extrémité négative, l'objectif étant d'augmenter la différence de charge entre les deux pôles de chaque chaîne polypeptidique hélicoïdale. Les chercheurs ont poursuivi leurs efforts et sont arrivés à déposer jusqu'à vingt couches de virus les unes sur les autres, dopant ainsi la puissance du générateur. Des électrodes recouvertes d'or et mises au contact des bactériophages se chargent de transférer le courant généré. Une simple pression permet alors de produire de l'électricité.
Les scientifiques testé leur approche en créant un générateur de papier mince qui produit suffisamment de courant pour exploiter une petite affichage à cristaux liquides.
Un film de virus, observé grâce à un microscope, a été soumis à un courant électrique. Les quelque 2.700 protéines de surface recouvrant chaque entité biologique ont alors changé de forme, répondant ainsi aux attentes des chercheurs. En effet, un matériau piézoélectrique se déforme lorsqu'il est traversé par de l'électricité.
Le bactériophage M13 mesure 880 nanomètres de long et présente un diamètre de 6, 6 nanomètres. Il est recouvert de 2.700 protéines chargées. Leur déformation grâce à un procédé mécanique permet de générer du courant. Vu ses dimensions, ce matériel d'origine biologique pourrait être utilisé pour concevoir des nanogénérateurs.
un générateur d'un centimètre carré produit un courant d'une tension de 400 mV, soit le quart d'une pile AAA et d'une intensité de 6 nanoampères.
Grâce à la silicone, le corps peut produire de l'électricité
Marcher pour recharger son portable et respirer pour alimenter son pacemaker. Souple et piézo-électrique, l'invention convertit l'énergie mécanique, donc le mouvement, en électricité.
Les chercheurs de l'Université de Princeton ont réussi à créer une lamelle alliant la flexibilité d'un silicone et le puissant effet piézo-électrique du titano-zirconate de plomb, ou plus simplement PZT.
Ce PZT est une céramique qui convertit 80% de l'énergie mécanique qu'elle reçoit lorsqu'elle est déformée en énergie électrique, un rendement exceptionnel pour un matériau piézo-électrique. Comme le corps dégage peu d'énergie lors des ses mouvements, il est important que ce taux de conversion soit élevé. Le PZT est 100 fois plus efficace que le quartz, un autre matériau piézo-électrique souligne Michael McAlpine, ingénieur en mécanique de Princeton.
Le silicone a également l'avantage d'être souple.
Après production à haute température de céramiques PZT, ils en ont extrait chimiquement par microgravure des nanorubans. Ils les ont ensuite incorporés dans des feuilles de silicone.
Autres avantages de leur création, elle est biocompatible et adaptable en dimensions tout en étant productible à l'aide des techniques d'impression microélectronique.
Sa biocompatibilité, c'est-à-dire son absence d'effet nocif pour l'organisme et l'absence de réaction de rejet, permettrait par exemple d'implanter ce générateur près des poumons pour alimenter un pacemaker. Le simple mouvement de la cage thoracique lors de la respiration pourrait alors suffire à générer le courant électrique nécessaire.
Selon ses concepteurs, l'excellente performance de l'assemblage de piézo-rubans couplée avec la souplesse et la biocompatibilité de ce silicone pourrait ouvrir un boulevard dans la recherche fondamentale et appliquée .
Avec la multiplication des textiles intelligents, des cellules solaires et des batteries imprimables, ce type de matériau pourrait en effet promettre des associations intéressantes.
Innowattech, une start-up israélienne va tester prochainement sa technologie piézo-électrique sur 100 mètres de bitume.
La technologie du nom d'IPEG pour Piezo Electric Generator va se servir de milliers de cristaux piézo-électriques intégrés à la route afin de récupérer une certaine quantité d'énergie. Non seulement, ces cristaux sont en mesure d'exploiter l'énergie mécanique issue du poids et du mouvement du véhicule, mais ils peuvent aussi récupérer l'énergie des vibrations et des changements de température.
Selon un savant calcul, 500 camions passant sur un kilomètre de route, à une vitesse moyenne de 72 kilomètres à l'heure peuvent produire 200 kWh par heure. C'est assez d'électricité pour assurer la consommation moyenne de 300 familles
On estime aujourd'hui que les hydrates de méthane des fonds océaniques contiennent deux fois plus en équivalent carbone que la totalité des gisements de gaz naturel, de pétrole et de charbon connus mondialememt. Le long de la seule côte sud-est des USA, une zone de 26 000 kilomètres carrés contient 35 Gt (gigatonnes = milliards de tonnes) de carbone, soit 105 fois la consommation de gaz naturel des USA en 1996! La carte qui suit, extraite de Sues, Bohrmann, Greinert et Lausch, montre la répartition des gisements connus d'hydrates de méthane dans le monde.
Les points jaunes indiquent les gisements sur les plateaux ou les talus continentaux, les losanges rouges, les gisements dans le pergélisol (sol gelé en permanence).
Sous des conditions de température et de pression particulières, la glace (H2O) peut piéger des molécules de gaz, formant une sorte de cage emprisonnant les molécules de gaz. On appelle les composés résultants des hydrates de gaz ou encore des clathrates. Les gaz piégés sont variés, dont le dioxyde de carbone (CO2), le sulfure d'hydrogène (H2S) et le méthane (CH4).
Ces cages cristallines peuvent stocker de très grandes quantité de gaz. Le cas qui nous intéresse ici est celui de l'hydrate de méthane, une glace qui contient une quantité énorme de gaz: la fonte de 1 centimètre cube de cette glace libère jusqu'à 164 centimètre cubes de méthane!
Origine et stabilité des hydrates de méthane
Une importante quantité de matière organique qui se dépose sur les fonds océaniques est incorporée dans les sédiments. Sous l'action des bactéries anaérobies, ces matières organiques se transforment en méthane dans les premières centaines de mètres de la pile sédimentaire.
Un volume très important de méthane est ainsi produit. Une partie de ce méthane se combine au molécules d'eau pour former l'hydrate de méthane, dans une fourchette bien définie de température et de pression. Vous trouverez des diagrammes plus complets aux liens internet conseillés à la fin de cette page.
Dans la zone en gris, eau et méthane se combinent pour former un hydrate à l'état de glace, alors qu'à l'extérieur de cette zone, les deux composés sont séparés et se trouvent sous leur propre état, liquide et gaz. C'est dire que l'hydrate de méthane est stable sous les conditions de température et de pression exprimées par la zone en gris et instable sous les conditions à l'extérieur de cette zone. Par exemple, un hydrate de méthane qui se trouve dans les sédiments océaniques par 600 mètres de fond à 7°C est stable; il deviendra instable avec une augmentation de température de moins de 1°C. Devenir instable signifie que la glace fond et libère son gaz méthane à raison de 164 centimètres cubes de gaz par centimètre de glace.
On retrouve les hydrates de méthane en milieu océanique, principalement à la marge des plateaux et sur les talus continentaux, mais aussi à plus faible profondeur dans les régions très froides, comme dans l'Arctique.
La marge des plateaux continentaux et les talus constituent une zone privilégiée pour accumuler les hydrates de méthane parce que c'est là que se dépose la plus grande quantité de matières organiques océaniques.
On retrouve aussi des hydrates de méthane dans les pergelisols, c'est-à-dire dans cette couche du sol gelée en permanence, même durant les périodes de dégel en surface. Le grand volume de matières organiques terrestres accumulées dans les sols est transformé en méthane biogénique qui, au contact de l'eau est piégé dans des hydrates. Les pressions y sont faibles, mais la température très froide, bien au-dessous de 0°C.
à mesure que les réserves conventionnelles d'hydrocarbure s'épuisent, on devra se rabattre sur les réserves dites non-conventionnelles, comme les gisements des régions éloignées et d'exploitation onéreuse, les sables bitumineux et peut-être un jour, les hydrates de méthane. Comme mentionné plus haut, les hydrates de méthane des fonds océaniques constituent une réserve énergétique énorme, mais pour l'instant inaccessible. Cette glace méthanique se trouve, soit dans les interstices du sédiment entre les particules de sable ou d'argile cimentant ces derniers ou sous forme de vésicules dans les sédiments, soit en couches de plusieurs millimètres ou centimètres d'épaisseur parallèles aux strates ou en veines les recoupant.
Les hydrates de méthane sont donc dispersés dans les sédiments et ne peuvent être exploités par des forages conventionnels; il faudrait plutôt penser à une exploitation massive du sédiment à l'aide de dragues comme on le fait par exemple pour nettoyer les chenaux de navigation des sables et des boues, ou encore d'un système sophistiqué de pompage du sédiment. Mais voilà un énorme risque de déstabiliser rapidement les hydrates et de libérer des quantités considérables de méthane dans l'atmosphère, sans compter les accidents probables associés à ce genre d'exploitation. Il n'en demeure pas moins que l'industrie pétrolière salive à la pensée d'avoir peut-être un jour accès à de telles réserves.
Une déstabilisation massive des hydrates de méthane causée par exemple par une augmentation de 1 ou 2°C de la température des océans, ce qui est tout à fait compatible avec les modèles climatiques actuels, risque de produire une augmentation catastrophique des gaz atmosphériques à effet de serre. Une telle déstabilisation pourrait aussi causer d'immenses glissements de terrain sous-marins sur le talus continental, entraînant des tsunamis très importants qui affecteraient les populations riveraines. Ce pourrait être là deux des effets catastrophiques du réchauffement climatique actuel causé par une augmentation des gaz atmosphériques à effet de serre. Le méthane eat 21 fois plus efficace que le CO2 comme gaz à effet de serre !
Energie inépuisable : eau salée, de l'eau douce, de la matière organique et des bactéries bien choisies : et voilà un dispositif capable de produire de l'hydrogène gazeux. Pour l'instant expérimental et coûteux, le procédé pourrait être amélioré
Ce système peut produire de l'hydrogène partout où il y a de l'eau sale à proximité d'eau de mer : c'est ainsi que Bruce Logan, de l'université de Pennsylvanie résume les possibilités de ses MREC, traduisible par cellule d'électrolyse par électrodialyse inverse microbienne. L'idée est de réaliser une hydrolyse pour produire de l'hydrogène gazeux, lequel est un bon vecteur d'énergie, en utilisant une double source d'électricité produite gratuitement : l'électrodialyse inverse et des bactéries.
Il existe effectivement des bactéries qui rejettent des électrons quand elles mangent. Bruce Logan s'intéresse à l'utilisation des eaux usées depuis 2004 et avait décrit en 2005 une version biologique de la pile à combustible, dans laquelle de la matière organique est dégradée dans un compartiment peuplé de bactéries et capable de produire, un peu, d'électricité.Mais la production d'une MFC est trop faible pour une hydrolyse. L'idée existe de produire de l'hydrogène par ce moyen, mais il faut une source d'électricité complémentaire, donc externe. Les travaux précédents montrent que de tels systèmes peuvent générer 0, 3 volt par cellule alors qu'il en faut 0, 414 pour une hydrolyse.
Quant à l'électrodialyse, c'est un procédé connu pour extraire les ions d'un liquide à l'aide d'un courant électrique. Avec un jeu de membranes ne laissant passer que les ions positifs pour les unes et les négatifs pour les autres. Peu efficace, la méthode n'est guère prisée. La réaction inverse est possible : avec deux sources d'eau de salinités différentes traversant des membranes alternativement positives et négatives, on peut produire de l'électricité. De l'eau douce et de l'eau de mer peuvent ainsi devenir un générateur d'électricité. Mais là encore, le résultat est médiocre et insuffisant pour une hydrolyse. Il faudrait 25 paires de membranes pour obtenir la tension de 1, 8 volt nécessaire pour y parvenir, expliquent les chercheurs, ce qui ruinerait la rentabilité de l'appareil à cause de la puissance consommée par le pompage de l'eau.
L'idée du professeur Logan a été d'additionner ces deux méthodes. Des bactéries nourries de matières organiques, produisent du courant électrique, lequel est complété par celui issu de l'électrodialyse inverse. Il suffit d'ajouter de l'eau douce, de l'eau salée et quelques membranes
Dans la description du dispositif exposé dans la revue Pnas, l'équipe annonce des résultats modestes mais réels. Leur appareil produit 0, 8 à 1, 6 mètre cube d'hydrogène gazeux par jour pour 1 mètre cube d'eau utilisé. Le rendement est compris entre 58 et 64% avec les systèmes testés. Ils utilisent des électrodes en platine, ce qui grève considérablement le coût du procédé. Mais les chercheurs américains sont persuadés qu'un matériau moins onéreux pourrait convenir. Ils citent le sulfure de molybdène, qui ne descendrait le rendement que jusqu'à 50%.
Le procédé, de plus, reste complexe et est loin d'être au point. Mais il semble astucieux et même prometteur. Produire localement de l'hydrogène à partir d'eaux usées ou de déchets organiques pour charger des piles à combustibles pourrait à terme d'une phse de recherche et développement devenir prometteuse
Des chercheurs du CNRS sont parvenus à mettre au point une biopile fonctionnant à partir de la photosynthèse des plantes. Ce dispositif, qui convertit l'énergie solaire et chimique en énergie électrique, pourrait avoir des applications médicales.
Les chercheurs du Centre de recherche Paul Pascal du CNRS, à Bordeaux, ont mis au point une biopile qui fonctionne à partir du glucose et du dioxygène (O2), deux produits issus du processus de la photosynthèse par lequel les plantes convertissent l'énergie solaire en énergie chimique. Durant ce processus, en présence de lumière visible, le dioxyde de carbone (CO2) et l'eau (H20) sont transformés en glucose et en dioxygène (O2) dans une série complexe de réactions chimiques.
Cette biopile est composée de deux électrodes modifiées avec des enzymes : la glucose oxydase (GOx) à l'anode et l'enzyme bilirubine oxydase (BOD) à la cathode. Techniquement, à l'anode, les électrons sont transférés du glucose vers la glucose oxydase (GOx), de la GOx vers le polymère I puis du polymère I, vers l'électrode. à la cathode, les électrons sont transférés vers le polymère II, puis du polymère II vers la bilirubine oxydase (BOD) et enfin de BOD vers l'O2.
Convertir l'énergie solaire en énergie électrique Après avoir, implanté cette pile dans un cactus, les chercheurs du CNRS ont pu suivre l'évolution de la photosynthèse in vivo en temps réel. Ils ont pu observer l'augmentation du courant électrique lorsque qu'une lampe est allumée et une diminution lorsque celle-ci est éteinte. Les chercheurs ont ainsi montré qu'une biopile implantée dans un cactus pouvait générer une puissance de 9µW (microwatt) par cm2.Le rendement étant proportionnel à l'intensité de l'éclairage, une illumination plus intense accélère la production de glucose et d'O2 (photosynthèse), il y a donc plus de combustible pour faire fonctionner la biopile, explique le CNRS.
Un dispositif à vocation médicale si à très long terme, un tel dispositif pourrait contribuer à produire de l'énergie électrique ''d'une façon écologique et renouvelable, l'objectif de ces travaux est avant tout médical. Dans ce cas, la biopile fonctionnerait alors sous la peau de façon autonome (in vivo) en puisant l'énergie chimique du couple oxygène-glucose naturellement présent dans les fluides physiologiques, explique le CNRS. Elle pourrait ainsi alimenter des dispositifs médicaux implantés, tels que, par exemple, des capteurs autonomes sous-cutanés mesurant le taux de glucose chez les patients diabétiques.
Les panneaux solaires peuvent désormais produire de l'électricité la nuit, sans lumière du soleil. C'est une nouvelle technologie de panneau solaire qui produit de l'hydrogène gazeux en même temps que l'électricité pendant la journée et la nuit cet hydrogène alimente les piles à combustible.
Le Dr Mikhail Zamkov de l'université de Bowling Green à l'Ohio et son équipe ont utilisé deux nanocristaux synthétiques inorganiques pour la fabrication des panneaux solaires plus durables et capables de produire de l'hydrogène gazeux. La tige en nanocristal produit de l'hydrogène par photo catalyse. Les nanocristaux synthétiques produisent quant à eux de l'électricité à partir de la lumière du soleil et comme ils sont inorganiques, ils sont plus faciles à recharger et moins sensibles à la chaleur que leurs homologues organiques.
Le premier nanocristal est en forme de tige, ce qui permet la séparation de charge nécessaire pour produire de l'hydrogène gazeux, une réaction connue sous le nom de photo catalyse. Le deuxième nanocristal est composé de couches empilées et génère de l'électricité car il est photovoltaïque. Le principal avantage de cette technique est qu'elle permet de coupler l'absorption de lumière et la photo catalyse.
Les deux nouveaux types de nanocristaux ont la capacité de remplacer les molécules organiques traditionnelles dans la construction des panneaux solaires. A l'heure actuelle, la nouvelle technologie solaire est à l'étape de la recherche. Les chercheurs pensent que cette nouvelle technologie pourra être produite en masse. Ils pensent aussi que la technologie pourrait être une excellente alternative aux actuelles méthodes de collecte de l'énergie solaire.
D'après les statistiques, les zones humides recouvrent environ 6% de la surface terrestre. Une nouvelle technologie de piles à combustible microbiennes pour plantes développée à l'Université de recherche de Wageningen aux Pays-Bas pourrait transformer ces zones en une source viable d'énergie renouvelable. Plus que cela, les développeurs estiment que leur technologie pourrait être utilisée pour fournir de l'électricité aux communautés éloignées et utiliser les toits verts pour fournir de l'électricité aux ménages.
Les piles à combustible microbiennes produisent de l'électricité pendant que les plantes continuent de croître.
Il fonctionne en utilisant les 70% de la matière organique produite par photosynthèse, non utilisée par la plante et qui est excrétée par les racines. Comme des bactéries d'origine naturelles se trouvent autour des racines pour absorber ces résidus organiques, des électrons sont libérés en tant que déchet. En plaçant une électrode à proximité de la bactérie pour absorber ces électrons, l'équipe de recherche de Wageningen UR, dirigé par Marjolein Helder, a réussi à produire de l'électricité.
Bien que les piles à combustible microbiennes ne génèrent actuellement que 0, 4 W / m² de la croissance des plantes, les chercheurs disent aussi que les futurs systèmes pourrait générer jusqu'à 3, 2 W / m², ce qui permettrait à un toit de 100 m² d'alimenter en électricité une maison avec une consommation moyenne de 2.800 kWh par an.
Les chercheurs pensent que ces toits producteurs d'énergie verte pourraient devenir une réalité dans les prochaines années, avec une production d'électricité à grande échelle dans les marais autour du monde à partir de 2015. La technologie fonctionne avec divers types de plantes y compris les graminées.
La cellule Spin V3 est le premier d'une série de technologies solaires basés sur notre technologie en instance de brevet. Environ un mètre de haut et un mètre de large et de produisant 1Kw d'électricité, la sentinelle peut être utilisé dans une variété de configurations pour répondre à des déploiements de batteries solaires, supports de toit ou des installations industrielles à domicile.
Pour les zones qui nécessitent une plus grande densité de puissance, le pôle de puissance est la réponse. Il s'agit d'un pôle qui contient 10 cellules Spin ou 10KWp, dans un encombrement de 13 m². Les cellules de spin sont placés avec une précision mathématique pour s'assurer qu'il n'y ait ombrage minimal. Non seulement cela crée une densité de puissance de manière significative grande, mais supprime également la préoccupation des inondations, tout en atténuant l'impact sur l'environnement.
La lumière est transférée à l'électricité en nanosecondes. La chaleur est transférée en millisecondes (1.000.000 X plus). La PV sur le cône intérieur de la cellule de filage capte la lumière, génère l'énergie électrique et tourne alors loin avant que la chaleur puisse être transférée au PV.
La conception de brevet en instance V3solar offre également un haut niveau d'efficacité de PV. Tests à ce jour ont montré des améliorations dans les conditions de laboratoire d'environ 20%, ce qui soulève effectivement l'efficacité du PV de 20% à 24%.
Une cellule photovoltaïque est un composant électronique qui, exposé à la lumière (photons), produit de l'électricité. C'est l'effet photovoltaïque qui est à l'origine du phénomène. La tension obtenue est fonction de la lumière incidente. La cellule photovoltaïque délivre une tension continue.
Les cellules photovoltaïques les plus répandues sont constituées de semi-conducteurs, principalement à base de silicium (Si) et plus rarement d'autre semi-conducteurs : séléniure de cuivre et d'indium (CuIn(Se)2 ou CuInGa(Se)2), tellurure de cadmium (CdTe) etc. Elles se présentent généralement sous la forme de fines plaques d'une dizaine de centimètres de côté, prises en sandwich entre deux contacts métalliques, pour une épaisseur de l'ordre du millimètre.
Les cellules sont souvent réunies dans des modules solaires photovoltaïques ou panneaux solaires, en fonction de la puissance recherchée.
Histoire
Le principe de l'effet photoélectrique (transformation directe d'énergie portée par la lumière en électricité) a été appliqué dès 1839 par Antoine Becquerel qui a noté qu'une chaîne d'éléments conducteurs d'électricité donnait naissance à un courant électrique spontané quand elle était éclairée. Plus tard, le sélénium puis le silicium (qui a finalement pour des raisons de coût supplanté le cadmium-tellure ou le cadmium-indium-sélénium également testés) se sont montrés aptes à la production des premières cellules photovoltaïques (posemètres pour la photographie dès 1914, puis 40 ans plus tard (en 1954) pour une production électrique. La recherche porte également aujourd'hui sur des polymères et matériaux organiques susceptibles (éventuellement souples) qui pourraient remplacer le silicium.
Principe de fonctionnement
Dans un semi-conducteur exposé à la lumière, un photon d'énergie suffisante arrache un électron, créant au passage un trou. Normalement, l'électron trouve rapidement un trou pour se replacer et l'énergie apportée par le photon est ainsi dissipée. Le principe d'une cellule photovoltaïque est de forcer les électrons et les trous à se diriger chacun vers une face opposée du matériau au lieu de se recombiner simplement en son sein : ainsi, il apparaîtra une différence de potentiel et donc une tension entre les deux faces, comme dans une pile.
Pour cela, on s'arrange pour créer un champ électrique permanent au moyen d'une jonction PN, entre deux couches dopées respectivement P et N :
- Détail
- La couche supérieure de la cellule est composée de silicium dopé N. Dans cette couche, il existe une quantité d'électrons libres supérieure à une couche de silicium pur, d'où l'appellation de dopage N, comme négatif (charge de l'électron). Le matériau reste électriquement neutre : c'est le réseau cristallin qui supporte globalement une charge positive.
- La couche inférieure de la cellule est composée de silicium dopé P. Cette couche possèdera donc en moyenne une quantité d'électrons libres inférieure à une couche de silicium pur, les électrons sont liés au réseau cristallin qui, en conséquence, est chargé positivement. La conduction électrique est assurée par des trous, positifs (P).
Au moment de la création de la jonction P-N, les électrons libres de la région N rentrent dans la couche P et vont se recombiner avec les trous de la région P. Il existera ainsi, pendant toute la vie de la jonction, une charge positive de la région N au bord de la jonction (parce que les électrons en sont partis) et une charge négative dans la région P au bord de la jonction (parce que les trous en ont disparu), l'ensemble forme la Zone de charge d'espace (ZCE) et il existe un champ électrique entre les deux, de N vers P. Ce champ électrique fait de la ZCE une diode, qui ne permet le passage du courant que dans un sens : les électrons peuvent passer de la région P vers la région N, mais pas en sens inverse, inversement les trous ne passent que de N vers P.
En fonctionnement, quand un photon arrache un électron à la matrice, créant un électron libre et un trou, sous l'effet de ce champ électrique ils partent chacun à l'opposé : les électrons s'accumulent dans la région N (qui devient le pôle négatif ), tandis que les trous s'accumulent dans la couche dopée P (qui devient le pôle positif ). Ce phénomène est plus efficace dans la ZCE, où il n'y a pratiquement plus de porteurs de charges (électrons ou trous) puisqu'ils se sont annihilés, ou à proximité immédiate de la ZCE : lorsqu'un photon y crée une paire électron-trou, ils se séparent et ont peu de chance de rencontrer leur opposé, alors que si la création a lieu plus loin de la jonction, l'électron (resp. le trou) nouveau conserve une grande chance de se recombiner avant d'atteindre la zone N (resp. la zone P). Mais la ZCE est forcément très mince, aussi n'est-il pas utile de donner une grande épaisseur à la cellule.
En somme, une cellule photovoltaïque est l'équivalent d'un générateur de courant auquel on a adjoint une diode.
Il faut ajouter des contacts électriques (qui laissent passer la lumière en face éclairée : en pratique, on utilise un contact par une grille), une couche antireflet pour assurer une bonne absorption des photons etc.
Pour que la cellule fonctionne et produise le maximum de courant, on ajuste le gap du semi-conducteur au niveau d'énergie des photons. On peut éventuellement empiler les jonctions, de façon à exploiter au mieux le spectre d'énergie des photons, ce qui donne les cellules multi-jonctions.
Technique de fabrication
Le silicium est actuellement le matériau le plus utilisé pour fabriquer les cellules photovoltaïques. On l'obtient par réduction à partir de silice, composé le plus abondant dans la croûte terrestre et notamment dans le sable ou le quartz. La première étape est la production de silicium dit métallurgique, pur à 98% seulement, obtenu à partir de morceaux de quartz provenant de galets ou d'un gisement filonien (la technique de production industrielle ne permet pas de partir du sable). Le silicium de qualité photovoltaïque doit être purifié jusqu'à plus de 99, 999%, ce qui s'obtient en transformant le silicium en un composé chimique qui sera distillé puis retransformé en silicium. Le silicium est produit sous forme de barres nommées lingots de section ronde ou carrée. Ces lingots sont ensuite sciés en fines plaques mises au carré (si nécessaire) de 200 micromètres d'épaisseur qui sont appelées wafers. Après un traitement pour enrichir en éléments dopants (P, As, Sb ou B) et ainsi obtenir du silicium semi-conducteur de type P ou N, les wafers sont métallisés : des rubans de métal sont incrustés en surface et reliés à des contacts électriques. Une fois métallisés les wafers sont devenus des cellules photovoltaïques.
La production des cellules photovoltaïques nécessite de l'énergie et on estime qu'un module photovoltaïque doit fonctionner environ deux à trois ans suivant sa technique de fabrication pour produire l'énergie qui a été nécessaire à sa fabrication (retour énergétique du module).
Les techniques de fabrication et les caractéristiques des principaux types de cellules sont décrits dans les trois paragraphes suivants. Il existe d'autres types de cellules actuellement à l'étude, mais leur utilisation est pratiquement négligeable.
Les matériaux et procédés de fabrication font l'objet de programmes de recherches ambitieux pour réduire les coûts de possession et de recyclage des cellules photovoltaïques. Les techniques couches minces sur substrats banalisés semblent recueillir les suffrages de l'industrie naissante. En 2006 et 2007, la croissance de la production mondiale de panneaux solaires a été freinée par manque de silicium et les prix des cellules n'ont pas baissé autant qu'espéré. L'industrie cherche à faire baisser la quantité de silicium utilisé. Les cellules monocristallines sont passées de 300 microns d'épaisseur à 200 et on pense maintenant atteindre rapidement les 180 puis 150 microns, diminuant la quantité de silicium et d'énergie nécessaire, mais aussi les prix.
Cellule en silicium amorphe
Le silicium lors de sa transformation, produit un gaz, qui est projeté sur une feuille de verre. La cellule est gris très foncé. C'est la cellule des calculatrices et des montres dites solaires.
- Détail
- Avantages :
- fonctionne avec un éclairement faible ou diffus (même par temps couvert, y compris sous éclairage artificiel de 20 à 3000 lux)
- un peu moins chère que les autres techniques
- intégration sur supports souples ou rigides.
- Inconvénients :
- rendement faible en plein soleil, de 5% à 7%
- nécessité de couvrir des surfaces plus importantes que lors de l'utilisation de silicium cristallin (ratio Wc / m² plus faible, environ 60 Wc / m²)
- performances qui diminuent avec le temps dans les premiers temps d'exposition à la lumière naturelle (3-6 mois), pour se stabiliser ensuite (-10 à 20% selon la structure de la jonction).
Egalement appelées cellules à pigment photosensible, les cellules Grätzel ont été nommées ainsi en référence à leur concepteur, Michael Grätzel, de l'Ecole polytechnique fédérale de Lausanne.
Il s'agit d'un système photoélectrochimique inspiré de la photosynthèse végétale constitué d'un électrolyte donneur d'électron sous l'effet d'un pigment excité par le rayonnement solaire. La force électromotrice de ce système vient de la rapidité avec laquelle l'électrolyte compense l'électron perdu par le pigment excité avant que ce dernier ne se recombine : le pigment photosensible est imprégné dans un matériau semiconducteur fixé à la paroi transparente et conductrice située face au soleil, de sorte que l'électron libéré par le pigment diffuse jusqu'à la paroi conductrice à travers le matériau semiconducteur pour venir s'accumuler dans la paroi supérieure de la cellule et générer une différence de potentiel avec la paroi inférieure.
Fonctionnement d'une cellule Grätzel.
Ces dispositifs sont prometteurs car ils font intervenir des matériaux bon marché mis en oeuvre avec des technologies relativement simples. La première cellule à pigment photosensible démontrée à l'EPFL en 1991 par M. Grätzel et B. O'Regan utilisait :
- Détail
- Une paroi supérieure en oxyde d'étain dopé au fluor SnO2•F, qui est un matériau à la fois transparent et conducteur d'électricité
- Sur la face intérieure de cette paroi, de l'oxyde de titane TiO2 pulvérulent semiconducteur dont la surface était imprégnée de polypyridine au ruthénium comme pigment photosensible
- Un électrolyte iodure / triiodure (I–/I3–) baignant l'ensemble en assurant la conduction avec la paroi inférieure de la cellule, qui fermait le circuit.
- Elles pourraient être améliorées par des technologies Plasmoniques
Ces cellules ont atteint en laboratoire des rendements de 11% mais sont produites commercialement avec des rendements de 3 à 5%, pour un coût d'environ 2 400 € / kWc.
Lors du refroidissement, le silicium fondu se solidifie en ne formant qu'un seul cristal de grande dimension. On découpe ensuite le cristal en fines tranches qui donneront les cellules. Ces cellules sont en général d'un bleu uniforme.
- Détail
- Avantages :
- bon rendement, de 14% à 16%
- bon ratio Wc / m2 (˜150 Wc / m²)ce qui permet un gain de place si nécessaire
- nombre de fabricants élevé.
- Inconvénients :
- coût élevé.
Une cellule photovoltaïque à base de silicium multicristallin
Pendant le refroidissement du silicium dans une lingotière, il se forme plusieurs cristaux. La cellule photovoltaïque est d'aspect bleuté, mais pas uniforme, on distingue des motifs créés par les différents cristaux.
- Détail
- Avantages :
- cellule carrée (à coins arrondis dans le cas du Si monocristallin) permettant un meilleur foisonnement dans un module
- bon rendement de conversion, environ 100 Wc / m², mais cependant un peu moins bon que pour le monocristallin
- lingot moins cher à produire que le monocristallin.
- Inconvénient :
- rendement faible sous un faible éclairement.
Polycristallin ou multicristallin, On parlera ici de silicium multicristallin .Le terme polycristallin est utilisé pour les couches déposées sur un substrat (petits grains).
Cellule Tandem
Empilement monolithique de deux cellules simples. En combinant deux cellules (couche mince de silicium amorphe sur silicium cristallin par exemple) absorbant dans des domaines spectraux se chevauchant, on améliore le rendement théorique par rapport à des cellules simples distinctes, qu'elles soient amorphes, cristallines ou microcristallines.
- Détail
- Avantage :
- sensibilité élevée sur une large plage de longueur d'onde. Excellent rendement.
- Inconvénient :
- coût élevé dû à la superposition de deux cellules.
Il ne suffisait pas d'y penser. Au fil de la journée ou des mouvements de son support, une surface courbe récupère mieux l'énergie solaire qu'un plan. Encore faut-il trouver un moyen de créer des structures de petites tailles aux formes idéales.Une équipe américaine vient de le réussir en s'aidant de gouttes d'eau. Pour l'instant, la trouvaille ne sort pas du labo mais elle est prometteuse.
Pour obtenir le rendement maximum d'une cellule photovoltaïque, il faut l'orienter perpendiculairement aux rayons lumineux. Mais le Soleil bouge (les astronomes prétendent depuis quelques siècles que c'est en fait la Terre qui tourne) et les panneaux solaires ne sont pas toujours posés sur une structure fixe. Certains en installent sur des sacs à dos, des voiliers, des voitures, des planeurs, des ULM et l'équipe du projet Solar Impulse veut même en faire la seule source d'énergie d'un avion tandis que d'autres veulent rendre ces cellules solaires imprimables
Sur le plan théorique, un capteur courbe devrait atteindre un meilleur rendement. C'est aussi une manière d'augmenter la surface. Si on réalise une demi-sphère par exemple, au lieu d'un plan, on double la surface. Mais les cellules photovoltaïques sont de petites tailles et constituées de matériaux semi-conducteurs qui se prêtent bien la réalisation de surfaces planes. Obtenir des structures courbées n'est pas aisé surtout si l'on se donne des contraintes de coûts.
Menée par Ralph Nuzzo, une équipe de l'Université de l'Illinois à Urbana-Champaign propose une méthode de fabrication originale et élégante par auto-assemblage, publiée dans les Pnas. Ces chercheurs se servent de minuscules films de silicium qui se plient tout seuls autour de gouttes d'eau pour donner différentes formes.
Les étapes de l'auto-assemblage d'une cellule solaire 3D (cliquer sur l'image pour l'agrandir). Le circuit (un semi-conducteur avec une partie dopée positivement, p+ et une partie dopée négativement, n+) est gravé sur une galette de silicium (SOI wafer), par les techniques classiques de lithogravure, avec ses contacts électriques (Cr/Au, chrome et or). Très fin (ici 2 microns), le composant obtenu est dégagé par une attaque chimique (Etch undercuts), un procédé classique lui aussi et on dépose une goutte d'eau. L'origami se referme alors comme prévu, en une sphère. En bas, le résultat. Des électrodes sont soudées et les courbes montrent l'intensité obtenue (milliampères/cm²) en fonction de la tension (voltage). Le résultat est amélioré par la présence d'un réflecteur, sorte de cuvette réfléchissante dans laquelle on dépose cette sphère.
L'équipe est partie d'une galette de silicium et a utilisé les techniques classiques de lithogravure pour graver les composants d'une cellule photovoltaïque. Reste alors à plier cet origami minuscule, de quelques millimètres de côté pour une épaisseur de 1, 25 à 2 microns. L'idée est d'utiliser les forces de tension superficielle apparaissant entre ce film et une goutte d'eau, la mince feuille ayant tendance à s'enrouler autour.Pour obtenir une certaine forme tridimensionnelle, les chercheurs ont, au moment même de la gravure, dessiné le composant selon une géométrie complexe, à la manière d'un cartonnage prédécoupé qui permettra d'obtenir un objet, une boîte par exemple.
Une fois le composant réalisé sur la galette, une goutte d'eau est posée au centre... et le miracle s'accomplit. A mesure que l'eau s'évapore, le film de silicium, comme une fleur qui se refermerait, se replie pour adopter une certaine forme.
En fait de miracle, une grande partie de l'astuce consiste à déterminer précisément quel découpage réaliser sur la galette pour obtenir la forme voulue. Le terme d'origami n'est pas usurpé et l'équipe a su mettre au point un modèle mathématique pour prédire cet auto-pliage en tenant compte de l'épaisseur du film, des caractéristiques du silicium et des forces induites par la tension superficielle pendant l'évaporation de l'eau.
Cet outil leur permet désormais, comme en témoignent les photographies publiées dans l'article, d'obtenir une gamme de formes variées. Pour stabiliser leurs minuscules structures, les chercheurs déposent un morceau de verre en leurs centres, fixé par un adésif.
Cellule photovoltaïque organique
Les cellules photovoltaïques organiques sont des cellules photovoltaïques dont au moins la couche active est constituée de molécules organiques.
Elles constituent une tentative de réduction du coût de l'électricité photovoltaïque, sans conteste la principale barrière de cette technologie, mais on espère aussi qu'elles seront plus fines, flexibles, facile et moins chères à produire, tout étant résistante.Les cellules photovoltaïques organiques bénéficient en effet du faible coût des semi-conducteurs organiques ainsi que de nombreuses simplifications potentielles dans le processus de fabrication.
Typologie
- Détail
- Il en existe principalement de trois type :
- Les cellules photovoltaïques organiques moléculaires
- Les cellules photovoltaïques organiques en polymères
- Les cellules photovoltaïques hybrides
On distingue dans les semi conducteurs organiques les polymères, qui se déposent par centrifugation, des matériaux de petites molécules déposés eux par thermo-évaporation.
Utilisant comme substrat du plastique (PEN, PMMA ...), ces cellules offrent la perspective d'une production en continu (roll-to-roll) qui permettrait enfin l'accès à des panneaux solaires à un prix raisonnable.
Encore au stade de la recherche expérimentale, le record de rendement avec des cellules solaires en polymère était en 2008 compris entre 4 et 5%. En 2008, en laboratoire, un record mondial de 5, 9% a été atteint en juillet 2008 à l'Institut de photovoltaïque appliquée de l'Université technique de Dresde.
Les cellules photovoltaïques à base de molécules organiques offrent un rendement moins élevé encore que les cellules en polymère, mais leur performance a été améliorée récemment. En 2009, des chercheurs des universités françaises d'Angers et de Strasbourg ont réussi à augmenter leur rendement en le faisant passer de 0, 2% à 1, 7%. En 2010, une équipe de chercheurs américaine a de nouveau amélioré ce rendement en le portant à 2, 5%.
Les cellules polymères photovoltaïques désignent une technique de cellules solaires organiques produisant de l'électricité à partir de la lumière à l'aide de polymères semiconducteurs. Il s'agit d'une technique relativement récente étudiée en laboratoire par des groupes industriels et des universités à travers le monde.
Encore largement au stade expérimental, les cellules polymères photovoltaïques offrent néanmoins d'intéressantes perspectives. Elles reposent sur des macromolécules organiques dérivées de la pétrochimie, dont les procédés de fabrication sont bien moins consommateurs d'énergie que ceux mis en oeuvre pour les cellules à base de semiconducteurs minéraux. Leur coût de revient est bien plus faible et elles sont plus légères et moins fragiles. Leur nature flexible les rend même aptes à s'intégrer à des matériaux souples en polymères organiques ou en silicones, voire à des fibres textiles. Leur développement peut tirer parti des progrès du génie chimique, par exemple dans l'auto-assemblage de ces molécules. Leur principale faiblesse réside dans leur durée de vie encore limitée induite par la dégradation des polymères lorsqu'ils sont exposés au soleil.
Principe de fonctionnement
La physique sous-jacente à l'effet photovoltaïque dans les semiconducteurs organiques est plus complexe à décrire que celle des cellules à semiconducteurs minéraux. Elle fait intervenir les différentes orbitales moléculaires, certaines jouant le rôle de bande de valence, d'autres de bande de conduction, entre deux espèces moléculaires distinctes, l'une servant de donneur d'électrons et l'autre d'accepteur, organisées autour d'une hétérojonction comme dans le cas des semiconducteurs minéraux :
- Détail
- Les molécules servant de donneurs d'électrons (par génération d'excitons, c'est-à-dire de paires électron-trou) sont caractérisées par la présence d'électrons p, généralement dans un polymère conjugué dit de type p
- Ces électrons peuvent être excités par des photons visibles ou proches du spectre visible, les faisant passer de l'orbitale moléculaire haute occupée (jouant ici un rôle similaire à celui de la bande de valence dans un semiconducteur inorganique) à l'orbitale moléculaire basse vacante (jouant un rôle similaire à celui de la bande de conduction) : c'est ce qu'on appelle la transition p-p* (qui correspond, en poursuivant l'analogie avec les semiconducteurs minéraux, à l'injection des porteurs dans la bande de conduction à travers la bande interdite).L'énergie requise pour cette transition détermine la longueur d'onde maximale qui peut être convertie en énergie électrique par le polymère conjugué.
- Contrairement à ce qui se passe dans un semiconducteur inorganique, les paires électron-trou, dans un matériau organique, demeurent étroitement localisées, avec un couplage fort (et une énergie de liaison comprise entre 0, 1 et 1, 6 eV), la dissociation des excitons est réalisée à l'interface avec un matériau accepteur d'électrons sous l'effet d'un gradient de potentiel chimique à l'origine de la force électromotrice du dispositif. Ces accepteurs d'électrons sont dits de type n.
Structure de polymères conducteurs : polyacétylène, poly(para-phénylène-vinylène) (PPV), polyaniline (X = N, NH), sulfure de polyphénylène (X = S), polypyrrole (X = NH) et polythiophène (X = S).
Les cellules photovoltaïques organiques utilisent souvent des films en poly(éthylène naphtalate) (PEN) comme revêtements protecteurs en surface, dont le rôle essentiel est de prévenir l'oxydation des matériaux constituant les cellules photovoltaïques organiques : O2 est en effet une impureté qui agit comme un centre de recombinaison électron-trou, dégradant les performances électroniques des composants. Sous ces revêtements protecteurs, on trouve une ou plusieurs jonctions p-n entre matériaux donneurs et accepteurs d'électrons, comme dans une cellule photovoltaïque classique à semiconducteurs minéraux.
Un exemple de réalisation consiste à insérer des molécules de fullerène C60 comme accepteurs d'électrons (type n) entre des chaînes de polymères conjugués (telles que le PEDOT:PSS, formé de poly(3, 4-éthylènedioxythiophène)(PEDOT) comme donneur d'électrons (type p) mélangé au poly(styrène sulfonate) (PSS) assurant sa solubilité).
D'une manière générale, les recherches actuelles se portent par exemple sur des dérivés de polythiophènes comme polymères de type p, notamment le poly(3-hexylthiophène) (P3HT) avec des dérivés de fullerène comme accepteurs (type n) tels que le [6, 6]-phényl-C61-butyrate de méthyle (PCBM).
D'autres couples p / n sont investigués, notamment à base de para-phénylène-vinylène (PPV) comme donneurs, tels que MEH-PPV / PCBM ou MDMO-PPV / PCBM, ou à la fois comme donneurs et comme accepteurs, tels que MDMO-PPV / PCNEPV
Cellule multi-jonction
Des cellules ayant une grande efficacité ont été développées pour des applications spatiales. Les cellules multi-jonctions sont constituées de plusieurs couches minces qui utilisent l'épitaxie par jet moléculaire.
Une cellule triple jonction, par exemple, est constituée des semi-conducteurs GaAs, Ge et GaInP2. Chaque type de semi-conducteur est caractérisé par une longueur d'onde maximale au-delà de laquelle il est incapable de convertir le photon en énergie électrique. D'un autre côté, en deçà de cette longueur d'onde, le surplus d'énergie véhiculé par le photon est perdu. D'où l'interêt de choisir des matériaux avec des longueurs aussi proches les unes des autres que possible (en multipliant leur nombre d'autant) de manière à ce qu'une majorité du spectre solaire soit absorbé, ce qui génère un maximum d'électricité à partir du flux solaire. Le coût de ces cellules est de l'ordre de USD 40 $ / cm².
Semi conducteur cis
La technique consiste à déposer un matériau semi-conducteur à base de cuivre, de gallium, d'indium et sélénium sur un support.
Une inquiétude cependant : les ressources en matières premières. Ces nouvelles techniques utilisent des métaux rares comme l'indium dont la production mondiale est de 25 tonnes par an et le prix d'avril 2007 de 1000 dollars le kg, le tellure dont la production mondiale est de 250 tonnes par an, le gallium d'une production de 55 tonnes par an, le germanium d'une production de 90 tonnes l'an. Bien que les quantités de ces matières premières nécessaires à la fabrication des cellules solaires soient infinitésimales, un développement massif mondial des panneaux solaires photovoltaïques en couches minces sans silicium ne manquerait pas de se heurter à cette disponibilité physique limitée.
cellule photovoltaïque nouvelle génération
Une nouvelle technologie de cellules photovoltaïques permettrait d'augmenter considérablement le rendement de l'énergie solaire. Un projet national de recherche sur les cellules photovoltaïques devrait donner lieu à la production d'une troisième génération de cellules photovoltaïques.
Ces cellules se basent sur une nouvelle technologie, mise en place notamment par des chercheurs de NTNU (université de Trondheim), de l'université d'Oslo, de SINTEF et de l'IFE (institut de technologies pour l'énergie).
C'est le résultat d'une collaboration plus vaste entre ces instituts de recherches et universités et des partenaires privés (Elkem Solar, Fesil Sunergy, Hydro, Norsun, Prediktor, REC, Scatec, Solar Cell Repower, Umoe Solar) regroupés au sein du Centre norvégien pour la recherche sur la technologie de cellule photovoltaïque (un des centres de recherche pour des énergies durables mis en place par le Conseil Norvégien pour la Recherche).
Les cellules photovoltaïques actuelles ont un rendement de 16 à 18%. Au maximum elles pourraient atteindre un rendement de 29% (limite dite de Shockley-Queisser). Les nouvelles cellules que les chercheurs norvégiens développent pourraient atteindre un rendement de 60 à 80%. Cela passe à la fois par l'utilisation optimale des propriétés énergétiques de la lumière du soleil (en utilisant tout le spectre de cette lumière et non pas une seule partie de celui-ci) et par l'amélioration de certaines propriétés des cellules photovoltaïque actuelles.
La technologie actuelle
Lorsque la lumière du soleil arrive sur un solide, de la silice pour les cellules photovoltaïques, l'énergie portée par les photons, particules de la lumière est transmise aux électrons de ce solide. Les électrons augmentent ainsi leur propre énergie.
La théorie des bandes veut que dans un solide, les différents électrons présents dans les atomes aient des états d'énergie différents les uns des autres. Cependant, ces états d'énergie ne sont pas aléatoires : ils sont compris à l'intérieur de bandes de niveaux d'énergie (voir illustration) et ne peuvent pas avoir des niveaux d'énergie en dehors de ces intervalles.
Deux bandes sont particulièrement importantes: la bande de valence et la bande de conduction. La bande de valence correspond à la dernière bande complètement remplie en électrons (on ne peut pas rajouter d'autres électrons dans cette bande), la bande de conduction est celle qui suit (incomplète en électrons).
Pour passer de l'une à l'autre, un électron a besoin de recevoir une quantité d'énergie supérieure à l'intervalle entre les deux bandes. Dans le cas présent, cette énergie est apportée par les photons de la lumière. Cette différence d'énergie entre les deux bandes est appelée "band gap". Une fois qu'il a dépassé ce "band gap", l'électron de la bande de conduction est libre de circuler dans le solide (il n'est plus lié à son atome) : c'est l'effet photovoltaïque (ou photoélectrique).
La lumière solaire est composée de plusieurs longueurs d'ondes : cela signifie que les photons ne portent pas tous la même quantité d'énergie. Certains en auront suffisamment pour faire passer le "band gap" à un électron, d'autres non. C'est une des raisons qui limite le rendement des cellules photovoltaïques classiques : beaucoup de photons qui arrivent ne servent à rien.
Pour obtenir un maximum d'électricité au final, il faut qu'un maximum d'électrons puisse passer de la bande de valence à la bande de conduction. D'autre part, certains photons apportent une énergie supérieure à celle nécessaire pour passer la band gap, le reste est donc de l'énergie perdue (sous forme de chaleur).
Ce que les chercheurs norvégiens ont fait de nouveau : changer la structure de la cellule photovoltaïque pour rajouter des structures en nanocristaux à la structure en Silice, permettant ainsi de :
- Détail
- Convertir les photons trop énergiques en deux photons moins énergiques (mais d'énergie toujours suffisante pour passer la band gap): c'est la down-conversion. Cela permet de faire passer plus d'un électron sur la bande de conduction avec un seul photon incident.
- Combiner deux photons d'énergie trop faible pour en créer un de niveau suffisant pour dépasser la Gap Band : c'est l'up-conversion.
En produisant également des cellules qui peuvent avoir différents band gap, on peut penser que cela permettrait de convertir l'ensemble du spectre solaire.
D'autre part, lorsque l'électron passe de la bande de valence à la bande de conduction, il laisse un "trou" dans la bande de valence (elle n'est pas complètement remplie en électrons). Dans le cas de l'effet photovoltaïque naturel, l'électron, arrivé sur la bande de conductance, trouve rapidement un autre "trou" et revient sur la bande de valence. L'énergie apportée initialement par le photon est alors perdue. Dans les cellules photovoltaïques, la structure force les électrons libres à aller à l'opposé des "trous", afin de créer une différence de potentiel, entre le pôle + (le trou) et le pôle -(l'électron), comme dans une pile.
Plus on maintient longtemps cette différence de potentiel plus on récupère d'électricité. Il faut donc que l'électron de la bande de conduction reste longtemps sans retrouver un "trou". Avec la technologie actuelle, ce temps est de l'ordre de la nano- ou de la microseconde. Les matériaux que les norvégiens sont en train élaborer permettraient de prolonger cette durée jusqu'à un millième de seconde.
Centrale solaire thermodynamique
Une centrale solaire thermique (ou centrale solaire thermodynamique ou encore heliothermodynamique) est une centrale qui concentre les rayons du soleil à l'aide de miroirs afin de chauffer un fluide caloporteur qui permet en général de produire de l'électricité.
Types et filières
- Détail
- On distingue :
- centrale à tour
- centrale constituée de capteurs cylindro paraboliques
- centrale constituée de capteurs paraboliques
- centrale constituée de capteurs de fresnel
Une centrale à tour est constituée d'un champ de capteurs solaires spéciaux appelés héliostats qui concentrent les rayons du soleil. Les miroirs sont concentrés sur des tubes où un liquide caloporteur est porté à haute température. Ce liquide caloporteur envoyé dans une chaudière transforme de l'eau en vapeur. La vapeur fait tourner des turbines qui entrainent des alternateurs produisant de l'électricité.
Tour solaire
Dans ce concept, les rayons solaires ne sont pas concentrés. L'air est chauffé par une grande surface de collecteurs (une sorte de gigantesque serre) avant de s'échapper par une grande cheminée centrale, en passant par des turbines situées à son pied. Dans le projet de Buronga (Australie), la cheminée atteindrait 1000 m de hauteur et la surface de collecteur, 7 km de diamètre.
Ce type de centrale se compose d'alignements parallèles de longs miroirs hémicylindriques, qui tournent autour d'un axe horizontal pour suivre la course du soleil.
Les rayons solaires sont concentrés sur un tube horizontal, où circule un fluide caloporteur qui servira à transporter la chaleur vers la centrale elle-même.
La température du fluide peut monter jusqu'à 500° C. Cette énergie est transfèrée à un circuit d'eau, la vapeur alors produite actionne une turbine qui produit de l'électricité.
Certaines centrales sont désormais capable de produire de l'électricité en continu, nuit et jour, grace à un système de stockage de la chaleur.
Le miroir parabolique réfléchit les rayons du soleil vers un point de convergence, le rayonnement solaire est alors concentré sur le récepteur qui monte en température.
Le récepteur en question est un moteur Stirling qui fonctionne grâce à la montée en température et en pression d'un gaz contenu dans une enceinte fermée.
Ce moteur convertit l'énergie solaire thermique en énergie mécanique et ensuite en électricité.
Tout au long de la journée, le socle de la parabole s'oriente automatiquement face au soleil pour suivre sa course et ainsi profiter d'un ensoleillement maximum.
Les systèmes à réflecteur parabolique peuvent atteindre 1 000 °C sur le récepteur et parvenir à des rendements optimaux de conversion de l'énergie solaire en électricité en utilisant une faible quantité d'énergie.
La performance de l'ensemble du système est étroitement liée à la qualité optique de la parabole et au rendement du moteur Stirling.
Le principe d'un concentrateur de Fresnel réside dans ses miroirs plans (plats) dits "réflecteurs compacts linéaires". Chacun de ces miroirs peut pivoter en suivant la course du soleil pour rediriger et concentrer en permanence les rayons solaires vers un tube absorbeur.
Un fluide caloporteur est chauffé jusqu'à 500° en circulant dans ce tube horizontal. Cette énergie est transférée à un circuit d'eau, la vapeur alors produite actionne une turbine qui produit de l'électricité.
Principal avantage de cette technologie, les miroirs plats sont bien meilleur marché que les miroirs paraboliques .
- Détail
- Eolienne moderne classique à 3 pales
- Axe horizontal
- Nombre de pales : 3
- Détail
- Eolienne moderne classique à 2 pales
- Axe horizontal
- Nombre de pales : 2
- Détail
- Eolienne monopale
- Axe horizontal
- Nombre de pales : 1
- Détail
- Eolienne de Savonius
- Axe vertical
- Nombre de pales : 2
- Détail
- Eolienne de Darrieus
- Axe vertical
- Nombre de pales : 2-3
- Détail
- Eolienne en hélice
- Axe vertical
- Nombre de pales : 3
- Détail
- Eolienne à rotor vertical
- Axe vertical
- Nombre de pales : 2-3
- Détail
- Eolienne Windside
- Axe vertical
- Nombre de pales : 2
- Détail
- Eolienne de Darrieus horizontale
- Axe horizontal transversal
- Nombre de pales : 6
- Détail
- Eolienne à voilure
- Axe vertical
- Nombre de pales : ˜ 10
- Détail
- Eolienne aeolta
- Axe vertical
- Nombre de pales : hélicoïdale
- Détail
- Eolienne windspire
- Axe vertical
- Nombre de pales : 3
- Détail
- Eolienne caphorn
- Axe horizontale
- Nombre de pales : 3
- Détail
- Eolienne spherique
- Axe horizontale
- Nombre de pales : 5
- Détail
- Eolienne multirotor
- Axe horizontale
- Nombre de pales : 21
- Détail
- Eolienne statoeolienne
- Axe vertical
- Nombre de pales : 16
- Détail
- Eolienne aerocap
- Axe vertical
- Nombre de pales : tour
- Détail
- Eolienne stormblade
- Axe vertical
- Nombre de pales : turbine (similaire a un réacteur d'avion)
- Détail
- kit wind generator
- projet futuriste
- une éolienne en forme de manège
- plusieur bras pivotant auquel sont
attaché des cables au bout des quelles
ce trouve des cerfs volant dont la hauteur
est controlée éléctroniquement
et ce trouvant à une hauteur entre
150 et 700 mètres
- Détail
- hovering wind turbine
- projet futuriste
- La structure volante est sustentée par des rangées
de petits dirigeables, portant chacun un
groupe de quatre pales horizontales
et une turbine (soit 100 kg).
Chacun de ces éléments produirait 30 kW: - Chaque dirigeable mesure 5 mètres de diamètre
pour 8 mètres de long. Il porte une éolienne
de type Darrieus mais horizontale.
- Détail
- magenn air power rotor
- projet futuriste
- Au bout d'un câble, à 300 mètres d'altitude
ce ballon captif gonflé à l'hélium est muni
de quatre ou cinq grosses pales. Il se comporte
comme un rotor horizontal tournant avec le vent.
Cette rotation induit de plus une force
de sustentation supplémentaire, c'est l'effet Magnus - Porté par son hélium et son effet Magnus
le Mars, rigidifié par une armature en aluminium
tourne sur lui-même et flotte entre 150 et 300 mètres - Un générateur fixé sur l'axe fabrique
de l'électricité.D'après ses concepteurs
Mars commencerait à fonctionner à partir d'un vent
de seulement 1 mètre par seconde (3, 6 km / h)
- Détail
- windstalk, éolienne sans pales
- le concept Windstalk se compose de poteau de résine
en fibre de carbone renforcée, qui se tiennent
à 55 mètres de haut et sont ancrés dans le sol dans
des bases de béton qui font entre 10 et 20 mètres de diamètre
Les pôles, qui mesurent 30 cm de diamètre à la base
s'effilant jusqu'à un diamètre de 5 cm au sommet
sont emballés avec une pile de disques en céramique
piézoélectrique. Entre les disques se trouvent
des électrodes qui sont reliées par des câbles
qui courent le long de chaque pôle - lorsque cette tige se balance dans le vent
les piles des disques piézoélectriques sont compressées
générant un courant dans les électrodes.Pour rendre - De plus pour accroitre sa production d'énergie
ils ont également prévu un générateur de couple qui
se situe dans le béton à la base des poteaux
qui, lorsque ces mats se balancent, force un liquide
a traversé un réseau de cylindres. Lorsque le vent souffle
une partie de l'électricité produite est utilisée pour
alimenter un ensemble de pompes qui déplace l'eau d'un
compartiment inférieure à une chambre supérieure.
Puis, quand le vent tombe, l'eau redescend en
effectuant le chemin inverse, transformant ainsi
les pompes en générateurs d'électricité
On appelle Eolienne classique, les éoliennes à hélices qui composent les parcs, les fermes ou champs d'eoliennes.
Fonctionnement des éoliennes à axe horizontal à hélices
l'éolienne monopale
les éoliennes monopale sont tres rares, car son de conception moins chère, elles ont le défaut d'avoir un déséquilibre du au contrepoid installé pour contrebalancé la pale unique, par ailleur ce déséquilibre entraine une usure prématuré de l'éolienne
eolienne bipale ou tripale
Une éolienne à axe horizontal à hélices a en général à 2 ou 3 pales.
Elle permet de produire de l'électricité grâce aux éléments suivants qui la composent:
- Détail
- le mât, qui permet de placer l'éolienne à une hauteur où la vitesse du vent est plus élevée, plus régulière et plus linéaire qu'au sol
- les pales, montées sur l'axe du rotor de l'alternateur sont généralement au nombre de trois. Elles sont l'élément de prise au vent de la machine
- une nacelle montée au sommet du mât et abritant les composants électriques, pneumatiques et électroniques travaillant à la conversion du mouvement de rotation du rotor en énergie électrique selon le principe de la dynamo ou de l'alternateur
- un poste de transformation à proximité des éoliennes. Ce poste permet de compter la production électrique du parc et de relever la tension pour se connecter au réseau publique d'électricité existant, afin de pouvoir y injecter l'énergie produite et non consommée directement.
Le rendement et le choix de l'emplacement
L'efficacité d'une éolienne dépend principalement de son emplacement. En effet, la puissance fournie augmente avec le cube de la vitesse du vent. Un site avec des vents d'environ 30 km / h produira 8 fois plus qu'un autre où les vents n'atteindront que 15 km / h. En règle générale, les éoliennes ne tournent qu'avec des vitesses de vents supérieures à 11 km / h. Par mesure de sécurité, lorsque le vent dépasse 90 km / h, l'éolienne est mise à l'arrêt.
Le potentiel éolien d'un site est généralement pré-évalué avec l'utilisation de données météo à proximité. Néanmoins, pour des sites très ventés, des indices tels que la végétation peuvent également confirmer l'importance du vent (arbres courbés par les vents). L'étude du vent reste indispensable à l'évaluation de l'électricité pouvant être produite et un mât de mesure de plus de 40m est souvent installé pour évaluer finement le potentiel du site (étude réalisée dans le cadre de projets soumis à permis de construire)
Le rendement varie selon la vitesse du vent et reste soumis à la loi de Betz. Le terme taux de charge évalue le rapport entre la production réelle d'électricité et la production maximale possible (Puissance de la machine multipliée par le nombre d'heures comprises dans une année). Ce rapport est généralement compris entre 20% et 30% et la moyenne nationale se situe autour des 25%.
Techniques de constructions
Les Eoliennes classiques se trouvent soit dans sur terre dans des parcs ou des zones industrielles, voir des fermes. Elle peuvent se trouver aussi en mer.
Ferme d'éolienne sur terre
Les champs d'éoliennes peuvent s'intégrer sur un site agricole et / ou industriel, ou sur un site spécifique.
Ferme d'éolienne Offshore
Ce principe permet d'installer les éoliennes en mer peu profonde, souvent proche d'un port. Il est ainsi possible de les exposer à des vents plus forts et presque constants.
Avantages et Inconvénients
Avantages
- Détail
- Energie propre et non polluante
- Energie renouvelable et non fossile, participant à notre indépendance énergétique et disponible pour l'éternité, contrairement au gaz ou à l'uranium qui sont en cours d'épuisement et totalement importé. Les énergies renouvelables ne favorisent pas les conflits militaires pour l'accession aux ressources naturelles restantes.
- Le prix des énergies renouvelables est en constante augmentation, contrairement aux énergies fossiles ou nucléaires, dont le prix augmente suite à l'épuisement des ressources telle que l'uranium (dont le prix a été multiplié par 15 en 3 ans). Le coût des énergies renouvelables est fixe et prévisible.
- Les coûts externes des énergies renouvelables sont très faibles.
- Lorsque de grands parcs d'éoliennes sont installés sur des terres agricoles, seulement 2 p. 100 du sol environ est requis pour les éoliennes. La surface restante est disponible pour l'exploitation agricole, l'élevage et d'autres utilisations.
- La taxe professionnelle reversée par l'exploitant du parc éolien à la commune est une ressource financière supplémentaire, parfois indispensable à la survie financière de communes souvent rurales et pauvres.
Inconvénients
- Détail
- les riverains n'acceptent pas toujours l'impact visuel des éoliennes. Le bruit perceptible à proximité modifie l'environnement proche des machines. Des interférences électromagnétiques causent parfois des problèmes de réceptions qui sont pris en charge par les exploitants du parc éolien.
- la réception des ondes hertziennes peut parfois être perturbée, ce qui provoque une image bruitée sur les récepteurs de télévision
- le balisage est obligatoire comme pour toute autre construction de grande hauteur. Ce balisage est visible à plusieurs kilomètres de distance, afin de signaler la position des éoliennes et assurer la sécurité aéronautique
- il peut arriver que certains oiseaux entrent en collision avec des pales, cependant, ce risque est à relativiser car toutes les études réalisées sur ce sujet montrent que ces collisions sont très rares (de l'ordre de 1 à 5 oiseaux / éolienne / an) et les éoliennes très bien repérées par les oiseaux. Des études avifaunes sont obligatoires avant la construction et la LPO travaille sur de nombreux projets éoliens afin d'étudier l'impact du parc avant sa réalisation
- les éoliennes peuvent interférer avec les radars météorologiques ou militaires, en constituant un obstacle à la propagation de l'onde à basse altitude donnant une zone d'ombre dans les données. De plus, comme les pales sont en rotation, le radar note leur vitesse de déplacement qui est indifférentiable d'une cible en mouvement comme la pluie. Cet aspect est actuellement en cours d'études dans divers pays européens afin de résoudre echniquement ces difficultés. Afin de ne causer aucune perte aux opérateurs radars, l'accord de Météofrance ainsi que de l'aviation civile et l'armée de l'air est pour cette raison obligatoire afin d'obtenir le permis de construire d'un parc éolien
- Selon les militants anti-éoliens, l'énergie intermittente produite par l'éolienne nécessite souvent la complémentarité d'une production d'énergie thermique. En réalité, c'est l'inverse qui se passe, la production éolienne se substitue en quasi-totalité à l'énergie thermique. De plus, si la production d'un parc est intermittente, le foisonnement de l'ensemble des parcs français crée une production relativement stable, de part la dispersion des parcs et les différents gisements décorrélés des vents français présents sur le sol français.
eolienne de savonius
Le rotor de Savonius est une éolienne à axe vertical. Elle a été inventée par l'ingénieur finnois Sigurd Savonius en 1924 et a été brevetée en 1929.
Le fonctionnement du rotor de Savonius est basé sur un couple aérodynamique induit par la déflexion de l'écoulement sur les pales.
Le type Savonius, constitué schématiquement de deux ou plusieurs godets demi-cylindriques légèrement désaxés présente un grand nombre d'avantages. Outre son faible encombrement, qui permet d'intégrer l'éolienne aux bâtiments sans en dénaturer l'esthétique, il est peu bruyant. Il démarre à de faibles vitesses de vent et présente un couple élevé quoique variant de façon sinusoïdale au cours de la rotation. L'accroissement important de la masse en fonction de la dimension rend l'éolienne de type Savonius peu adaptée à la production de masse dans un parc à éoliennes.
Principe du rotor de Savonius
Le modèle original a été conçu avec un espacement entre les pales tel que e / D = 1 / 3
Où D représente le diamètre du rotor. Mais il présente de meilleures performances pour une géométrie telle que e / D = 1 / 6
utilisation
On utilise l'éolienne Savonius pour des applications où l'on accorde plus d'importance au coût ou à la fiabilité qu'au rendement. Par exemple, la plupart des anémomètres sont des Savonius, car le rendement ne joue aucun rôle.
L'application la plus commune est le ventilateur Flettner, développé par l'ingénieur aéronautique allemand Anton Flettner dans les années 1920. Placé sur les toits des bus et des fourgonnettes, il en assure la ventilation et le refroidissement. Ce ventilateur utilise un rotor Savonius. Il est encore fabriqué par la société Flettner Ventilator Limited.
De petits rotors Savonius sont parfois utilisés à des fins publicitaires, la rotation attirant l'attention sur l'objet de la publicité. Les pales sont parfois décorées d'une animation à deux images.
caractéristique
- Détail
- Les avantages et inconvénients de l'éolienne Savonius
- Avantages
- Peu encombrante
- Peu bruyante
- Démarre à de faibles vitesses de vent
- Couple élevé au démarrage
- Pas de contraintes sur la direction du vent
- Inconvénient
- Faible rendement
- Masse non négligeable
- Couple non constant
- Pas de contraintes sur la direction du vent
- Esthétique
eolienne de darrius verticale
Ce type de solution réduit considérablement le bruit tout en autorisant le fonctionnement avec des vents supérieurs à 220 km / h et quelle que soit leur direction
Le principal défaut de ce type d'éolienne est leur démarrage difficile, en effet le poids du rotor pèse sur son socle, générant des frottements
On distingue plusieurs déclinaisons autour de ce principe, depuis le simple rotor cylindrique - deux profils disposés de part et d'autre de l'axe - jusqu'au rotor parabolique où les profils sont recourbés en troposkine et fixés au sommet et à la base de l'axe vertical
- Détail
- Avantages
- Génératrice pouvant placée au sol (selon les modèles)
- Moins d'encombrement qu'une éolienne "conventionnelle"
- Intégrable au bâtiment
- Inconvenients
- Démarrage difficile
- Faible rendement
eolienne helice
eolienne Turby avec une puissance de 2, 5kW. Elle mesure 3m de haut et 2m de large. Elle peut être positionné à 5m de haut sur le toit d'un immeuble et sa forme fait qu'elle peut utiliser des vents venant de nombreuses direction, de 4m / s à 55m / s - sa puissance nominale se situant à 14m / s
eolienne rotor vertical
autre modele d'éolienne exploitant le rotor de type darrieus
eolienne windside
L'éolienne à axe verticale est issue de l'ingénierie navale, le rotor est mis en rotation par 2 aubes en forme de spirale. Les premiers essais ont fait dans le sud de la Finlande sur terre comme sur mer et en soufflerie de laboratoire, Durant ces 19 ans de travaux de recherche et de développement, windside a testé des systèmes de chargeur de batteries de différents types et poursuit efficacement les travaux de développement de sa propre palette de produits en direction de plus grands modèles.
Les structures des éoliennes Windside sont variables. Ces variations sont mentionnées par l'indice alphabétique en fin de dénomination du modèle, par exemple A, B, C. Ces indices indiques pour quelle application et sous quelles circonstances le modèle en question à été conçu. Les turbines avec - A - résistent à un vent de tempête constant de 60 m / s, B à un vent de 40 m / s et c'est à 30 m / s; tout en produisant de l'énergie.
Toutes les éoliennes Windside ont été construites pour résister aux tempêtes, au gel, à la glace, à la chaleur et à l'humidité.Les turbines Windside démarre la charge de batteries à des vents très faibles. Plus grand la machine, plus tôt démarre la charge de batteries. La vitesse de démarrage de charge pour la WS-0, 15 est de 4 m / s, pour la WS-0, 30 de 3 m / s et pour les plus grandes de 2 m / s. Le chargement continuera même à des vitesses plus basses avec les modèles plus grands et ce jusqu'à une vitesse de 1 m / s.
Les plus grandes pales d'éoliennes Windside en production de série ont un diamètre de 1 mètre et une hauteur de 4 m. Se basant sur les études de l'Université Technique, la turbine peut être dimensionnée sur l'effet de modèle sans en changer la géométrie. De cette manière l'éolienne Windside peut atteindre 200 m de hauteur et un diamètre de 70 m, ce qui correspondrait à une installation de plusieurs MW.
Efficacité Les éoliennes WS ont été testées et récompensées. Des mesures effectuées dans l'Archipel de Finlande on prouvé que l'éolienne WS produit 50% plus d'électricité par an qu'une éolienne conventionnelle à hélice ayant une surface balayée identique. Mondialement, le vent moyen prévalent est d'environ 3 m / s. La construction spéciale des aubes WS permet d'utiliser des vents de 1-3 m / s, vitesses insuffisante pour les autres. L'éolienne WS fonctionne aussi par tempête, testée à 60 m / s, une vitesse fatale pour d'autres. Ces 2 hauts-faits WS sont des records mondiaux.
En plus de la vitesse du vent, les turbulences et la direction du vent affectent la production d'électricité des éoliennes. L'éolienne WS utilise les vents de toute direction, même turbulent, au contraire des modèles conventionnels. Les aubes spiralées WS captent toujours le vent à l'angle propice. Harmonie L'éolienne WS est en harmonie avec la nature et l'environnement humain. La coupe en spirale ainsi que la vitesse de rotation ne dépassant pas la vitesse du vent, la rend totalement silencieuse.
Il n'y a pas de blocs de glace éjectés, de fuites d'huile ou de pales tranchantes. Cette installation est sûre pour les gens, les animaux et la nature. Le dessin magnifique et la rotation lente de l'éolienne WS ressemblent à une oeuvre d'art. Plusieurs artistes tout comme des architectes et urbanistes l'ont relevé et le résultat peut déjà être admiré sur des bâtiments écologiques.
eolienne darrieus horizontale
Ce type d'eolienne n'est rien d'autre qu'une eolienne de darrieus sur un plan horizontale, ces avantages sont la facilité d'installation, le peu d'encombrement et la légèreté de l'infrastructure ainsi que le peu d'impacte visuel, les inconvénients c'est la non possibilité de l'orienté dans le sens du vent ce qui selon les endroits offre un faible rendement
eolienne a voilure
Les éoliennes à voilure tournant sont caractérisées par l'optimisation dynamique du calage des pales en temps réel, celles-ci se comportent de la même manière que la voile d'un voilier qui ferait un cercle dans l'eau avec un vent déterminé.
Les pales reproduisent ainsi fidèlement toutes les allures d'un voilier suivant leur cap tangentiel (angle) par rapport à la direction du vent. Il en résulte que la poussée tangentielle sur les bras du rotor supportant les pales est toujours optimisée.
eolienne aerocube
AeroCube utilise un rotor adapté à son utilisation en milieu urbain, bien que placé horizontalement sur la faîtière du toit, son rotor est à axe vertical et lui permet d'obtenir des performances élevées même lorsque la vitesse de rotation est faible.
L'extrémité des pales du rotor se déplaçant à une vitesse très proche de celle du vent, le fonctionnement d'AeroCube reste silencieux et n'entraîne pas de vibration.
Enfin, le rotor étant disposé à l'intérieur du caisson d'AeroCube, totalement abrité du rayonnement solaire, il ne crée aucun effet stroboscopique ni aucune ombre portée.
eolienne windspire
La Windspire est une éolienne à axe vertical de petites dimensions conçue pour fournir de l'énergie aux particuliers et aux entreprises.
D'une hauteur de 9, 1 m seulement, Windspire comprend un dispositif qui permet un raccordement direct à l'alimentation du bâtiment, compensant la consommation électrique et réduisant les coûts en énergie.
Sa conception élancée, son fonctionnement silencieux et sa capacité à utiliser les turbulences pour générer de l'énergie lui permettent de s'intégrer parfaitement dans des environnements urbains et suburbains.
L'éolienne Windspire générera environ 2 000 kWh par an avec des vents moyens de 5, 4 m / s, soit l'équivalent de plus de la moitié de la consommation électrique du foyer européen moyen.
L'éolienne Windspire est un appareil éolien économique, silencieux et esthétique pouvant être utilisé dans des environnements urbains, suburbains, ruraux ou isolés. Fabriquées aux Etats-Unis par Mariah Power dans une ancienne usine automobile, les éoliennes Windspire reposent sur une conception à axe vertical et sans hélice qui intègre une technologie brevetée maximisant la conversion d'énergie éolienne en énergie électrique, indépendamment des changements de vitesse et de direction du vent.
Le portefeuille de Windspire comprend une version de 1, 2 kW, une version spéciale grand vent conçue pour résister à des vents allant jusqu'à 270 km / h (168 mph) et enfin un convertisseur de 230 V pour les marchés internationaux.
eolienne caphorn
Le carénage, c'est l'originalité de cet aérogénérateur d'un type nouveau, fruit de quatre années de développement. Le profil de cette structure circulaire, calculé avec soin, permet d'augmenter le flux d'air qui met les pales en rotation. Selon ses concepteurs, l'intérèt est triple.
Tout d'abord, la Cap Horn 10 se contente d'un rotor de 4, 4 m de diamètre - 5, 3 m avec le carénage - pour atteindre une puissance de 12 kW, quand il faut un rotor de 7 m de diamètre à une éolienne classique, explique Jean-Charles Poullain, dirigeant de Cita.
Deuxième point fort, la réduction du bruit. En supprimant les sifflements en bout de pales, le carénage abaisse considérablement le niveau sonore, de l'avis de plusieurs témoins avertis. Enfin, troisième avantage, les oiseaux cernent mieux l'éolienne et la contournent systématiquement:des mouettes venaient meme se percher sur le carénage de notre machine d'essais, à Cancale! De nombreux essais dans la soufflerie de l'école nationale supérieure des Arts et Métiers ont permis d'atteindre un coefficient de puissance de 0, 72 [1] quand une éolienne classique affiche 0, 42.
Cette performance très intéressante résulte de la bonne adéquation entre la forme des pales et celle du carénage
Cita a d'autres projets en vue: outre une déclinaison vers des petits modèles de 2 kW et 500 W, le constructeur cherche à financer le développement d'un aérogénérateur caréné de 600 kW. Diamètre du rotor: 25 m, 30 m avec le carénage, contre 43 à 45 m pour une éolienne classique de cette puissance.
eolienne spherique
l'Energy Ball canalise l'air au travers de ses six lames et alimente ainsi le générateur. Cette éolienne sphérique possèderait des propriétés capables d'augmenter ses performances de rotation tout en abaissant le niveau sonore, ce qui la rendrait idéale pour la production d'énergie à petite échelle.
L'éolienne sphérique peut être installée sur le toit des habitats individuels, des entreprises rurales et pourquoi pas des établissements publics. D'après les concepteurs, l'appareil peut atteindre jusqu'à six fois la vitesse du vent.
elle devient productive avec une vitesse de vent comprise entre 3 m / s et 40 m / s.
eolienne multirotor
L'entreprise SELSAM, à conçu une éolienne comportant 7 rotors de 3 pales, d'un diamètre de 2, 1m fournissant une puissance de 6 kW.
L'arbre (la tige sur laquelle sont placés les rotors) n'est pas parallèle au sol, mais penchée, afin d'éviter les perturbations du flux d'air d'un rotor sur un autre
eolienne eliogir
Particulièrement adaptée aux zones à vents turbulents. Idéale pour les milieux urbains. Facile à intégrer dans votre environnement architectural.
Diamètre de 8 m, Une hauteur de pales de 3 m. Un diamètre pour allier une vitesse de rotation réduite et un couple très important.
Transmission directe et sans perte du couple vers le générateur.Une production allant jusqu'à 175 Méga watts heure par année
eolienne aerocap
Le concept Aerocap est issu d'un principe innovant de récupération d'énergie utilisant l'amplification de la vitesse ambiante du vent(effet Venturi) et un module propriétaire de conversion d'énergie (développé par Windcap).Le facteur d'amplification de la vitesse du vent est de 1, 5 à 1, 7
Cette application permet, à énergie produite égale, d'avoir des hélices plus petites et plus robustes, travaillant sur une plage de vitesses plus étendue. L'assemblage de plusieurs modules superposés et / ou de tours en parallèles permet d'atteindre les objectifs de puissances souhaitées.
eolienne stormblade
La Stormblade Turbine, créée par Victor Jovanovic, fondateur de la compagnie, a un design semblable à celui d'un réacteur (Un réacteur peut désigner :) d'avion (Un avion, selon la définition officielle de l'Organisation de l'aviation civile internationale (OACI), est un aéronef...): les pales sont protégées par un carénage qui dirige le flux (Le mot flux (du latin fluxus, écoulement) désigne en général un ensemble d'éléments (informations / données, énergie, ...) d'air à l'intérieur de cette turbine comme une buse d'admission. Cependant ce carénage est exposé au vent et aux vitesses de rotation élevées du flux d'air la traversant et peut développer ainsi un effet "parachute". Le mât (Le mât est un espar vertical (mis à part le beaupré) servant à soutenir les voiles sur un bateau à voiles. De manière...) de l'éolienne subit alors des contraintes extrêmes. Le mât doit alors être soutenu par un échafaudage renforcé, ce qui va nécessiter davantage de surface (Il existe de nombreuses acceptions au mot surface, parfois objet géométrique, parfois frontière physique, souvent...) au sol et augmenter le coût du système
L'innovation principale du système concerne donc la partie rotor qui est fondée sur la turbine d'un moteur à réaction. D'après M. Jovanovic: "les moteur à réaction ont évolué au cours des 50 dernières années afin de produire moins de traînée, permettant aux aubages de tourner plus rapidement". L'aérodynamique (L'aérodynamique est une branche de la dynamique des fluides qui porte sur la compréhension et l'analyse des écoulements...) du système est donc améliorée ce qui permet de diminuer et d'augmenter la vitesse de rotation du rotor sans avoir à subir de phénomène de précession gyroscopique. L'efficacité de la Stormblade Turbine devrait être de 70% contre 30-40% pour les modèles actuels à trois pales, ce qui signifie que ce design dépasse la limite de Beltz (59%) d'efficacité maximale pour les éoliennes. Jonanovic estime que son éolienne pourra produire de l'électricité pour une vitesse du vent comprise entre 3 m / s (11 km / h) et 54 m / s (193 km / h), doublant ainsi la plage (La géomorphologie définit une plage comme une « accumulation sur le bord de mer de matériaux d'une taille allant...) de vitesse utilisable.
L'éolienne à axe vertical MAGLEV, pour Lévitation Magnétique ou substentation magnétique, a été développée et produit par l'Institut Guangzhou de la Convertion de l'Energie et sous la supervision de l'Académie Chinoises des sciences.
La société REGENEDYNE a décidé d'approfondir les travaux chinois en coopération avec ces derniers et les dernières innovations allemandes.
Les premiers produits de la société offriront des éoliennes flottant sur un coussin de champ magnétique d'une puissance de 10 mégawatts à 100 mégawatts.
Ce système comprendra la dernière technologie de substentation magnétique qui est actuellement utilisé dans les transports ferroviaires à grande vitesse à Shanghai, en Chine et Lathen en Allemagne.
La technologie REGENEDYNE se compose d'une petite unité éolienne qui produit assez de puissance pour alimenter 1000 maisons à un coût inférieur à 0, 01 $ par kilowatt-heure (KWh). Cette éolienne intègre des surfaces profilées réglables qui captent plus de vent contrastant avec les lames des éoliennes horizontales qui dévient le vent. L'unité MagLev est aidée par un moteur synchrone linéaire (LSM) et de la proximité des turbines en rotation sans friction. Cette technologie délivre une quantité maximale d'énergie bien supérieure à l'énergie éolienne traditionnelle- pouvant fournir directement des producteurs d'électricité.
Les turbines éoliennes de 10 MW à 2000 MW établiront la norme sur le marché et l'unité la plus puissante alimentera seule plus de 750000 foyers. La turbine REGENEDYNE est la première à offrir les bénéfices de l'éolien MagLev utilisant des aimants permanents éliminants ainsi la friction par le flottement du rotor au-dessus de sa base.
Ce produit améliore considérablement la capacité d'énergie éolienne de plus de 80% par rapport aux moulins à vent traditionnels et peut réduire les dépenses d'une ferme éolienne de près de 50%.
D'autres avantages, l'utilisation de moins d'espace pour une puissance équivalente, démarre avec un vent de 1, 5 m / s et de par sa conception à moins d'impact sur les oiseaux et les chauve-souris.
Pour passer de la théorie à la pratique, la société off Grid Technologies lance un projet de ferme éolienne à axe vertical, sur le lac Michigan près de la ville d'Evanston qui devrait se réaliser courant 2012. Le lien avec le dossier
Le projet d'une puissance de 200 Mw, fourni par l'installation de 20 turbines à axe vertical, sur des stations offshore permettra de s'assurer que cette technique fonctionne bien et qu'elle est rentable financièrement. Des groupes industriels comme Siemens serait sur les rangs pour utiliser cette technologie en Europe.
Classification des éoliennes
inspirée du livre de Guy CUNTY (1)
Orientation de l'axe de rotation
Déplacement des pales
Désignation courante
Dispositif d'orientation
U / V (2)
réalisation ou en projet(en kw)
Observation
horizontal
Perpendiculaire au vent
moulin américain MULTIPALES
oui
1 à 2
0, 5 à 50
simple couple de démarrage élevé très répandu (pompage)
Tripale ou bipale
selon si au vent ou sous le vent
2 à 12
0, 05 à 1200
relativement simple meilleur rendement par rapport à la limite de Betz bien connue
horizontal ou vertical
barrage éolien ou tapis roulant (3)
oui
0, 5 à 1
2 à 3
très compliqué
profil oscillant (3)
oui
2
0, 5
mécanisme compliqué mais bon rendement
vertical
parallèle au vent
rotor de DARRIEUS (5)
non
5 à 8
5 à 5000
ne démarre pas seul, bon rendement relativement simple, devrait se développer
rotor de SAVONIUS
non
0, 5 à 1, 7
0, 02 à 1, 7
système très ancien, très simple
moulinet(anémomètre)
non
0, 3 à 0, 6
0, 001 à 0, 05
très simple ne fournit aucune puissance
à clapets la chinoise (4)
non
0, 2 à 0, 6
0, 05 à 3
système très ancien, simple, remonte le vent nombreux chocs, bruit, balourd
rotor à flux transversal turbine multipale (3)
non
0, 3 à 0, 4
0, 5 à 5
assez simple prise au vent élevée
à orientation cyclique des pales (3)
oui
0, 3 à 0, 5
0, 5 à 8
mécanisme compliqué
à écran (3)
oui
0, 2 à 0, 6
0, 5 à 5
lourd, prise au vent élevée
Daryoush Allaei, ancien chercheur pour le département de la défense et de l'énergie américain et fondateur de Sheerwind en a pris l'exact contrepied. Son idée : placer les turbine dans des tunnels sous-terrain. Capturé en surface, l'air accélère dans un goulot d'étranglement. Il entraine alors une turbine générant le courant électrique. Un courant stable : des évents intelligents, qui s'ouvrent et se ferment le long de la tuyauterie permettent en effet de contrôler l'aspiration d'air.
D'après Sheerwind, Invelox présente deux atouts. Le premier réside dans son architecture. Plus simple, présentant moins de pièces mobiles, elle nécessite peu de maintenance là où la turbulence des vents extérieurs, qui malmène pâles et rotors, constitue la cause principale de dérive des coûts dans l'exploitation des parcs éoliens. Deuxième avantage : la stabilité et la modularité de la production électrique en font une source plus facile à injecter dans le réseau.
A puissance égale à celle d'une éolienne classique, Sheerwood espère ainsi diviser la hauteur de son installation par deux et la taille de sa turbine par quatre… Pour un coût au kW inférieur entre 19 et 36%
INVELOX technologie a été examiné et validé par un comité consultatif technique, une équipe d'experts de grandes universités de recherche et organismes. Des prototypes ont été testés dans des conditions de laboratoire contrôlées et les résultats des tests ont été utilisés pour construire et valider l'échelle de calcul de dynamique des fluides.
La première petite unité a été installée dans un champ près installation SheerWind dans Chaska, Minnesota. L'unité comprend les instruments pour la vitesse et la puissance de collecte de données. Données de vitesse préliminaires ont permis de valider les prédictions du modèle de calcul de dynamique des fluides.
les énergies marines font l'objet de nombreuses recherches. La mer est en effet un milieu riche en flux énergétiques qui peuvent être exploités sous formes d'énergie osmotique. Cette dernière se base sur le phénomène naturel d'osmose qui désigne le flux d'un liquide peu concentré vers un liquide plus concentré à travers une membrane semi-perméable.
Appliqué à l'eau de mer sous pression, ce principe peut permettre de produire de l'énergie. En effet, lorsque de l'eau douce est séparée de l'eau de mer sous pression par une membrane semi-perméable, elle va naturellement passer dans le compartiment d'eau de mer et augmenter la pression qui peut ensuite être utilisée pour faire tourner une turbine et produire de l'électricité.
Après plus de 20 ans de recherche sur les membranes et un premier site pilote en Norvège, la technologie baptisée Pressure Retarded Osmosis (PRO) va enfin être testée grandeur nature dans une prochaine usine de production d'électricité.
Située au niveau d'un estuaire, l'usine pourra s'alimenter à la fois en eau de mer et en eau douce. Deux flux d'eau, un d'eau de mer filtrée et pressurisée (11-15 bars) et un d'eau douce prélevée dans le fleuve et filtrée, seront introduits dans les modules contenant la membrane.
80 à 90% de l'eau douce passera dans le compartiment d'eau salée et augmentera la pression et le débit de l'eau de mer. Environ un tiers de cette eau ira alimenter la turbine, les deux tiers restant retourneront à l'échangeur de pression pour pressuriser l'eau de mer entrante. Les eaux saumâtres seront réinjectées dans l'estuaire.
La société a développé une technologie d'hydroliennes qui tire sa puissance de la houle des vagues. Chaque élément est composé d'une boule flottante et d'un actionneur de type vérin double action.
Les éléments sont assemblés par file pour augmenter la pression et la multiplication des files augmente le débit global de production.
Carnegie Wave Energy Limited (ASX:CWE) s'est concentré sur le développement et la commercialisation de sa technologie de production d'énergie à partir des vagues CETO, capable de produire une énergie à émission zéro de gaz à effet de serre ainsi que de l'eau désalée.
CETO diffère globalement des autres technologies à partir des vagues en cours de développement par le fait qu'il est complétement submergé et qu'il génère de l'énergie Onshore plutôt que Offshore
Une équipe de scientifiques du MIT a découvert un phénomène précédemment inconnu qui permet de transporter de puissantes vagues d'énergie le long des nanotubes de carbone. Cette découverte pourrait conduire à une nouvelle façon de produire de l'électricité, disent les chercheurs.
Le phénomène, décrit comme une onde thermoélectrique, ouvre un nouveau domaine de recherche sur l'énergie, ce qui est rare, dit Michael Strano, auteur principal d'un article décrivant cette nouvelle découverte dans la revue Nature Materials. L'auteur principal est Wonjoon Choi, étudiant au doctorat en génie mécanique.
Un nanotube de carbone peut produire très rapidement une vague de puissance quand il est recouvert par une couche de carburant et allumé, de sorte que la chaleur se déplace le long du tube. Comme une collection d'épaves propulsé sur la surface de l'océan par des ondes progressives, il s'avère qu'une onde thermique voyageant le long d'un fil microscopique peut transporter les électrons, créant ainsi un courant électrique.
L'ingrédient clé de la recette est le nanotube de carbone, un tube creux submicroscopique constitué d'un grillage en treillis d'atomes de carbone. Ces tubes de quelques nanomètres de diamètre font partie d'une nouvelle famille de molécules de carbone incluant entre autre les buckminsterfullerène et les feuilles de graphène.
Au cours des expériences, les nanotubes électriquement et thermiquement conducteurs ont été recouverts d'une couche de combustible réactif pouvant produire de la chaleur en se décomposant. Ce carburant fût ensuite enflammé à une extrémité du nanotube en utilisant un rayon laser ou une éclair à haute tension. Le résultat fût une onde thermique se propageant rapidement le long de la longueur du nanotube de carbone. La chaleur libérée par la décomposition du carburant entre dans le nanotube, où elle se déplace des milliers de fois plus rapidement que dans le combustible lui-même.
Comme la chaleur est transmise au revêtement combustible, une onde thermique est créé et est guidée le long du nanotube. Avec une température de 3000 kelvins, cet anneau chaleur se déplace le long du nanotube 10 000 fois plus rapidement que la propagation normale d'une telle réaction chimique. Il se trouve que le chauffage produit par cette combustion pousse également les électrons le long du tube, créant ainsi un important courant électrique.
Les ondes de combustion - comme ces impulsions de chaleur dévalant le long des nanotubes ont été étudiées mathématiquement depuis plus de 100 ans, explique Strano, mais il a été le premier à prédire que ces ondes pouvaient être guidés par un nanotube ou nanofil et que cette vague de la chaleur pourrait pousser un courant électrique le long de ce fil. Dans les expériences initiales du groupe, ceux-ci ont vraiment été surpris par la taille du pic de tension résultant qui se propageait le long du fil.
La quantité d'énergie libérée dans ce processus est beaucoup plus grande que la prévue par les calculs traditionnels dans le domaine des ondes thermo-électriques. Cela a été déjà remarqué par les experts en expériences initiales. Après avoir allumé le revêtement de combustible dans les nanotubes de carbone, les ingénieurs, étonnés de grandeur du bec de tension électrique résultante ont redoublé ses efforts pour connaître au détail et pour optimaliser ce nouveau phénomène.
Une hydrolienne est une turbine sous-marine (ou subaquatique, ou posée sur l'eau et à demi-immergée) qui utilise l'énergie cinétique des courants marins ou de cours d'eau, comme une éolienne utilise l'énergie cinétique de l'air.
La turbine de l'hydrolienne permet la transformation de l'énergie hydraulique en énergie mécanique, qui est alors transformée en énergie électrique par un alternateur.
Principe de départ
- La puissance cinétique d'un fluide traversant un disque de section est :
- Pcin = 1 / 2 * (p*S*V³) en W, avec :
- p : masse volumique du fluide (eau douce 1000 kg par m³, eau de mer 1025 kg par m³)
- V : vitesse du fluide en m / s.
Encore plus strictement que pour une éolienne, l'incompressibilité du fluide impose que le produit de la vitesse V par la section S de la veine de fluide qui traversera ou a traversé le disque soit constant. Devant le disque de l'hydrolienne, le fluide est ralenti et la veine s'élargit. Au niveau de l'hydrolienne, le changement de section est négligeable et donc (paradoxalement) la vitesse du fluide est constante. Après le disque, le fluide est encore ralenti et la veine s'élargit encore.
Un modèle élémentaire de fonctionnement des hélices, dû à Rankine et Froude permet d'évaluer la fraction de la puissance cinétique récupérable au moyen d'un disque perpendiculaire à un fluide en mouvement. C'est la limite de Betz, égale à 16background-color:#33000027 = 59%. Cette limite peut être dépassée si le courant de fluide est forcé dans une veine de section variable au lieu de circuler librement autour de l'hélice.
Par rapport à une éolienne, les hydroliennes tirent profit de la masse volumique de l'eau, 832 fois plus élevée que celle de l'air (environ 1, 23 kg par m³ à 15°C. Malgré une vitesse de fluide en général plus faible, la puissance récupérable par unité de surface d'hélice est beaucoup plus grande pour une hydrolienne que pour une éolienne.
Avantages
- Détail
- Les hydroliennes sont beaucoup plus petites que les éoliennes pour une même puissance, cela étant dû à la masse volumique de l'eau environ 800 fois supérieure à celle de l'air.
- Les courants marins sont prévisibles (notamment en consultant les éphémérides), on peut donc estimer avec précision la production d'électricité.
- Les potentiels des courants marins sont très importants.
- L'hydrolienne utilise une énergie renouvelable (le courant marin) et elle ne pollue pas, en termes de déchets issus de combustion tels que CO²ou de déchets radioactifs.
- De nouveaux modèles d'hydroliennes semi-immergés peuvent être adaptés aux rivières, même modestes, sans avoir les impacts écologiques des turbines classiques dont les pêcheurs craignent qu'elles aient des impacts sous-estimés sur les poissons. Ces hydroliennes produisent moins d'électricité que les turbines classiques, mais pourraient être beaucoup plus légères et demander bien moins d'investissement.
Inconvénients
- Détail
- Les hydroliennes créent des zones de turbulences, qui modifient la sédimentation et le courant, avec de possibles effets sur la flore et faune juste en aval de leur positionnement. Ces aspects sont analysés par les études d'impacts.
- Des poissons ou mammifères marins peuvent heurter les hélices. Ces dernières peuvent néanmoins tourner très lentement (cela dépend de la résistance opposée par l'alternateur et donc du modèle d'hydrolienne).
- Dans les eaux turbides, du fait de la présence de sable en suspension, l'érosion des pales d'hélice ou des pièces mobiles par le sable est très forte. Ainsi l'entretien doit être très fréquent, mais il est plus difficile qu'à l'air libre puisqu'on ne peut pas l'ouvrir sans que l'eau ne pénètre à l'intérieur et n'endommage tous les systèmes (mécanique et électrique). Pour cette raison, certaines hydroliennes ont une structure émergeant de l'eau, qui peut être gênante pour la navigation. Des systèmes à ballast pourraient permettre de faire monter ou descendre les unités de production.
- Pour éviter le développement des algues et organismes encroutants sur l'hydrolienne, il faut utiliser un antifouling. Cet antifouling doit être refait régulièrement, ce qui induit un coût d'entretien important (intervention en mer, ...).
- Elles coûtent très cher à l'entretien et à l'installation.
Impacts possibles
Les impacts potentiels de ces capteurs sont encore mal connus et préoccupent notamment les pêcheurs qui travaillent dans les zones d'intérêt, selon certaines hypothèses, les turbines créeraient des zones de turbulence, empêchant les dépôts de sédiment et donc le développement de la flore et créant ainsi à long terme une zone morte. Ces turbulences pourraient aussi remettre en suspension plus de nutriments et favoriser le plancton qui nourrit certains poissons. Les hydroliennes pourraient aussi perturber quelques animaux marins qui, trop curieux, se seraient trop approchés.
Le captage de l'énergie des courants ralentit la vitesse du fluide dans l'axe de la turbine ce qui provoque une légère accélération des courants de contournement, ce phénomène se rencontre quand l'eau passe le long d'une roche : les poissons évitent les obstacles en suivant les lignes de plus fortes vitesses ou utilisent les contre-courants des turbulences.
D'autre part, le régime de rotation du rotor est limité par la vitesse en bout de pale à cause du phénomène de cavitation.
Ainsi, les grandes hydroliennes ne tourneront qu'au rythme de 10 à 20 tours par minute et leurs effets se limiteraient aux turbulences en aval de l'hydrolienne. Les sédiments ne se déposeraient pas autour de l'hydrolienne, ce qui éviterait l'envasement
De plus, une vitesse de rotation suffisamment faible ne perturberait pas les poissons.
Il faut aussi considérer que les sites préférentiels pour l'installation d'hydroliennes sont des sites de courants forts à très forts (plus de 3 m / s), où les conditions sont peu favorables au développement d'une faune et d'une flore sédentaire et fixée.
Potentiel
Le potentiel européen de l'énergie hydrolienne est, selon plusieurs études menées il y a quelques années axées sur ce projet d'envergure mondiale, à environ 12, 5 GW qui pourraient produire 48 TWh annuels, ce qui représente la capacité de trois centrales électriques récentes.
Les courants marins pourraient être exploitables partout dans le monde, les courants de marée constituent toutefois pour l'instant le domaine préférentiel de ce type de technologie : les courants de marée présentent en effet, par rapport aux courants généraux (comme le Gulf Stream), des caractéristiques particulièrement favorables :
- Détail
- intensité importante (dans certaines zones les courants de marée peuvent atteindre ou dépasser 10 noeuds, soit 5 m / s, alors que les courants généraux dépassent rarement 2 noeuds)
- proximité de la côte : les veines de courant intense apparaissent dans des zones de faibles profondeurs situées à proximité de la côte, ce qui en facilite l'exploitation
- direction stable : les courants de marée sont généralement alternatifs, ce qui simplifie le dispositif de captage
- enfin, prédictibilité : les courants de marée sont parfaitement prévisibles, puisqu'ils ne dépendent que de la position relative des astres générateurs - Lune et Soleil - et de la topographie locale.
Présentation
Le Searev sert à produire de l'électricité grâce aux vagues mais il n'est encore qu'un projet du CNRS et de l'école centrale de Nantes et est né du cerveau de l'ingénieur Alain Clément. Son nom Searev signifie : système électrique autonome de récupération de l'énergie des vagues.
Searev ne laissera dépasser hors de l'eau qu'un tiers de ses 15m de hauteur, l'équivalent d'un petit immeuble de cinq étages. Long de 25m il devrait peser au bas mot 1000 tonnes, dont la moitié pour l'énorme roue pendulaire logée au bas du système. C'est grâce à elle que le Searev produira environ 500 kW de quoi alimenter en électricité 200 foyers.1km² de Searev alimenteront plus de 8 000 foyers en électricité, l'équivalent d'une ville de 20 000 habitants.
Fonctionnement
Réservoir d'azote :
Le gaz qu'il contient maintient en permanence sous haute pression l'huile contenue dans les réservoirs de stockage situés juste en dessous. Ainsi, le moteur hydraulique est alimenté continuellement par de l'huile sous pression, ce qui assure son bon fonctionnement.
Frein à disque :
Son fonctionnement est piloté par ordinateur. Relié à des capteurs de mouvements répartis sur le Searev, l'ordinateur détecte toute oscillation du flotteur et de la roue pendulaire. Il actionne le frein à disque quand la roue pendulaire atteint son point le plus haut à chaque rotation. La roue est alors bloquée une fraction de seconde avant de repartir en sens inverse. But de la manoeuvre : accroître au maximum le mouvement de rotation relatif entre le flotteur et la roue pendulaire afin de tirer le maximum d'énergie des ondulations des vagues.
Deux éléments du Searev, le flotteur et la roue pendulaire, sont à l'origine de l'électricité produite par la machine. C'est en effet le déplacement relatif de l'un par rapport à l'autre, sous la poussée des vagues, qui permet de faire tourner un alternateur.
la force houlomotrie pour produire de l'éléctricité est relativement simple, le pélamis est installer en haute mer, il est composer de 4 éléments lier les uns aux autres, il peut ce mouvoir horiontalement et verticalement, a chaque oscillation de l'huile est mis sous pression dans des accumulateurs qui entraine un moteur hydraulique qui entraine à sont tour la génératrice
Une nouvelle technologie, baptisée VIVACE permettrait de générer de l'énergie renouvelable à partir des rivières et des faibles courants océanographiques. Cette nouvelle technique a pour but de reproduire le comportement du poisson, en utilisant les turbulences générées par un obstacle.
VIVACE, dont le prototype expérimental consiste en un tuyau disposé horizontalement dans le lit d'une rivière et fixé au sol au moyen de deux trépieds verticaux, a pour objectifs de tirer profit des turbulences naturellement créé le long des berges ou en aval de ponts.
Tout mouvement du tuyau induit par la rencontre d'un obstacle produit de l'énergie mécanique qui peut être convertie en électricité. Si le rendement de cette conversion a été estimé à 22 pour cent, il semblerait cependant que les chercheurs n'aient pas poussé l'expérience jusqu'à la production d'électricité.
VIVACE est ainsi le premier système technique permettant de générer de l'énergie à partir de courants dont la vitesse avoisine 3, 2 kmbackground-color:#330000h. Alors que la plupart des courants marins ont des vitesses inférieures à 4, 8 km / h, les turbines actuellement utilisées pour la production d'énergie hydraulique nécessitent une vitesse supérieure à 8 km / h.
Si les précédentes recherches en hydraulique menées à l'université du Michigan avaient pour but d'empêcher la formation de tourbillons, les ingénieurs du département d'architecture navale et d'ingénierie marine s'orientent maintenant sur la compréhension et l'amplification de tels phénomènes hydrauliques.
Michael Bernitsas, à l'origine de la création de VIVACE prétend ainsi avoir trouvé une énergie hydraulique renouvelable dont l'impact sur l'environnement serait minime étant donné que le système ne génère pas de mouvements rapides.
Une utilisation industrielle de cette technologie est par ailleurs envisagée sur la rivière de Detroit. Ce projet pilote, appelé à se dérouler dans les 18 mois prochains, consistera à mettre en place de nombreux cylindres repartis à intervalle régulier sur le fond de la rivière. Selon les travaux des chercheurs, l'espacement des différents prototypes devra être équivalent à quatre fois leur diamètre pour maximiser la formation de turbulences.
Le BioWave : Inspiré des plantes marines
Inspiré du mouvement des plantes marines sous l'action des vagues, le BioWave permet de récupérer jusqu'à 250kW d'électricité.
Premièrement, il est conçu pour générer de l'électricité compatible avec le réseau et peut donc être connecté à la côte uniquement par le biais d'un câble sous-marin. Cela offre une certaine flexibilité en termes d'emplacement de la centrale, ainsi que l'accès à davantage de ressources énergétiques, tout en la transmettant de manière optimale vers le réseau terrestre haute tension.
Deuxièmement, en cas de vagues extrêmes, le dispositif va automatiquement adopter une position sécuritaire en se couchant sur le fond de l'océan, ce qui réduit les exigences de design structural et par la suite les coûts sans pour autant sacrifier la partie fiabilité.
Troisièmement, le design, qui utilise une structure multi-lame brevetée, devrait capturer une plus grande proportion de l'énergie disponible par rapport aux autres modèles.
Nous pensons que le BioWave, lorsqu'il sera commercialisé, générera de l'électricité à des prix très compétitifs comparés à l'énergie éolienne. Il sera plus proche des caractéristiques du prix base que ceux de l'énergie solaire et éolienne, a expliqué le Dr Finnigan, PDG de BioPower Systems
Douze autres organismes se sont engagés à contribuer au développement du BioWave afin d'appuyer le projet pilote sur une période de 4 ans prévu.
Le BioStream : Inspiré de la forme des queues de requins
Le BioStream permet de produire de l'électricité à partir des courants de la marée. S'inspirant des poissons, sa forme lui permet de rester continuellement aligner dans la direction du courant. C'est en oscillant que le BioStream extrait l'énergie provenant du déplacement de l'eau.
Le WaveRoller est un appareil qui transforme les vagues marines en énergie et en électricité. La machine fonctionne dans les zones proches du littoral à environ 0,3-2 km du rivage à des profondeurs entre 8 et 20 mètres. Elle est complètement submergée et ancrée au fond marin. Une seule unité du WaveRoller est évaluée entre 500 et 1000 kW, avec un facteur de capacité de 25 à 50 % en fonction des conditions de vagues sur le site.
L'idée simple mais très forte de la conception du WaveRoller est venue comme une prise de conscience quand le plongeur professionnel finlandais Rauno Koivusaari explorait une épave. Il a remarqué qu'une très lourde partie plate du navire bougeait en avant et en arrière, conduite par l'énergie de la poussée de l'eau sous la surface, les vagues marines. Depuis cette première idée, le concept du WaveRoller a connu différents cycles de construction de prototypes, testés en laboratoires, de réalisations de simulations extrêmement sophistiquées et de modélisations numériques avant de déployer finalement les appareils-tests en conditions réelles dans l'environnement marin, d'ajuster l'échelle et de réitérer le cycle de développement.
Le WaveRoller fonctionne fondamentalement de la même manière que la partie plate de l'épave que Rauno a observée. Le mouvement de va-et-vient de l'eau conduit par le déplacement de la vague initie la marche du panneau composite. Afin de maximiser l'énergie que le panneau WaveRoller peut absorber des vagues, l'appareil est installé sous la surface à une profondeur d'environ 8 à 20 mètres, là où le déplacement de la vague est le plus puissant. Le panneau couvre quasiment la totalité de la colonne d'eau depuis le fond sans briser la surface. Cela permet au panneau de ne pas saillir du paysage marin et d'éviter la création de matière qui alourdirait la structure.
Quand le panneau WaveRoller bouge et absorbe l'énergie des vagues marines, les pompes à piston hydraulique attachées au panneau pompent le fluide hydraulique à l'intérieur d'un circuit hydraulique fermé. Tous les éléments du circuit hydraulique sont enfermés dans une structure hermétique à l'intérieur de l'appareil et ne sont pas en contact avec l'environnement marin. Par conséquent, il n'y a pas de risque de fuite dans l'océan. Les fluides à haute pression sont introduits dans un moteur hydraulique qui alimente un générateur électrique. La production électrique de cette centrale à énergie houlomotrice renouvelable est ensuite acheminée au réseau de distribution électrique via un câble sous-marin.
La production d'énergie d'un seul WaveRoller, autrement dit le rendement d'un seul panneau, varie entre 500 et 1000 kW. Les différences de rendement sont dues à la puissance des vagues localement.
Une des caractéristiques unique du WaveRoller qui garantit son efficacité coût tout en délivrant un rendement énergétique fiable est son concept de fonctionnement et de maintenance particulier. Les unités de WaveRoller consistent en de larges citernes de ballast remplies d'air et pouvant donc être submergées sur leur lieu de fonctionnement. Ces citernes peuvent être remplies d'eau pour submerger la base. Bien que le convertisseur d'énergie houlomotrice demeure entièrement submergé pendant le fonctionnement régulier, il peut être facilement renvoyé à la surface pour maintenance en vidant les citernes de ballast. Nul n'est donc besoin de d'opérations de plongée complexes, couteuses et potentiellement dangereuses pour l'entretien du WaveRoller. De plus, l'appareil peut être installé ou mis en service sans équipement au coût supplémentaire tels que de grandes grues ou des plates-formes auto-élévatrices.
Le système Wavestar est une centrale houlomotrice qui permet de récupérer l'énergie des vagues. Constitué de flotteurs reliés à une plateforme par des bras mécaniques, le dispositif fait un peu penser à un mille-pattes. L'oscillation de bas en haut produite par la houle de la mer est transformée en énergie électrique. Le mouvement des flotteurs est transféré via un système hydraulique qui actionne la rotation d'un générateur, produisant l'électricité. Les flotteurs en fibre de verre et les bras en métal sont rétractables lors de grosses tempêtes. L'ensemble des connections électriques et de la machinerie se trouvent au sec à l'intérieur de la plateforme.
L'énergie thermique des mers (ETM) ou énergie maréthermique est produite en exploitant la différence de température entre les eaux superficielles et les eaux profondes des océans. Un acronyme souvent rencontré est OTEC, pour Ocean thermal energy conversion.
Principe
En raison de la surface qu'ils occupent, les mers et les océans de la Terre se comportent comme un gigantesque capteur pour:
- Détail
- le rayonnement solaire (direct: flux solaire absorbé par l'océan ou indirect: rayonnement de la Terre réfléchi par l'atmosphère terrestre)
- l'énergie du vent (elle-même dérivée de l'énergie solaire).
Bien qu'une partie de cette énergie soit dissipée (courants, houle, frottements etc.), une grande partie réchauffe les couches supérieures de l'océan. C'est ainsi qu'à la surface, grâce à l'énergie solaire, la température de l'eau est élevée (elle peut dépasser les 25°C en zone intertropicale) et en profondeur privée du rayonnement solaire, l'eau est froide (aux alentours de 2 à 4°C, sauf dans les mers fermées, comme la Méditerranée, dont le plancher ne peut être "tapissé" par les "bouffées" d'eaux froides polaires qui "plongent", au nord et au sud de l'océan Atlantique, avec un débit total moyen de 25 millions de m³/seconde
Cette différence de température peut être exploitée par une machine thermique. Cette dernière ayant besoin d'une source froide et d'une source chaude pour produire de l'énergie, utilise respectivement l'eau venant des profondeurs et l'eau de surface comme sources.
Les techniques de l'E.T.M.
L'E.T.M. produit de l'énergie grâce à un fluide de travail (eau de mer, ammoniac [NH3]ou un autre fluide qui dont le point de condensation est proche de 4°C). Ce fluide passe de l'état liquide à l'état vapeur dans l'évaporateur, au contact de l'eau chaude puisée en surface. La pression produite par la vapeur passe dans un turbogénérateur pour faire tourner une turbine et produire de l'électricité, après que le gaz ait perdu de la pression, il passe dans un condenseur pour retourner à l'état liquide, au contact de l'eau froide puisée en profondeur.
L'E.T.M. a besoin de beaucoup d'eau: il faut un très grand débit d'eau de mer pour compenser la faible efficacité due au faible gradient de température et de très grands diamètres de canalisations pour limiter les pertes de charges. Actuellement, il est possible d'utiliser des tuyaux en PEHD (Polyéthylène Haute Densité) de 1, 5 mètres diamètre, mais dans le futur s'il se construit des centrales de grosses puissances, il faudra des canalisations de 15 mètres de diamètre.
L'E.T.M. fonctionne avec un différentiel de températures de l'ordre de 20°C. Plus le différentiel de température est élevé, plus la production est élevée. En descendant en profondeur on puise de l'eau plus froide et la production à iso-volume augmente.
A ce jour, il existe trois types de centrales E.T.M.:
- Détail
- cycle ouvert
- cycle fermé
- cycle hybride
Cycle ouvert
Le cycle commence par le pompage de l'eau de mer de surface qui se trouve dans les environs de 26°C. On l'introduit dans un évaporateur qui sera mis sous vide, pour favoriser l'effet d'évaporation, car sous pression relative négative, l'évaporation se produit à plus faible température et la vapeur est débarrassée du sel, mais sur le débit d'eau qui traverse l'évaporateur, seulement 0, 5% de vapeur d'eau est produite, le reste de l'eau est rendu à la mer à 21°C. La faible pression générée par la vapeur suffit à entraîner un turbogénérateur qui produira de l'électricité. Puis, la vapeur est transférée dans le condenseur à double paroi, qui avec l'eau froide pompée en profondeur vers les 5°C, va faire condenser la vapeur en eau douce qui pourra être utilisée à la consommation.
Cycle fermé
Le cycle fermé utilise le même matériel qu'une pompe à chaleur (évaporateur, condenseur), mais tandis qu'une pompe à chaleur produit une énergie thermique à partir d'une énergie électrique, le cycle fermé d'une centrale E.T.M. utilise le procédé inverse. Cela veut dire qu'à partir d'une énergie thermique, on va produire une énergie électrique. On utilise donc toujours l'eau chaude de surface qui se trouve à 26°C, qu'on met dans l'évaporateur à double paroi. D'un côté, il y aura l'eau et de l'autre de l'ammoniac NH3 et donc l'eau va donner ses calories à l'ammoniac pour lui permettre de s'évaporer, car l'ammoniac a une température d'évaporation inférieure à celle de l'eau. L'eau passée dans l'évaporateur retourne à la mer, à la température de 23°C. L'ammoniac évaporé passe dans un turbogénérateur pour produire de l'électricité. Puis l'ammoniac passe dans un condenseur à double paroi pour se condenser, car l'ammoniac passe ses calories à l'eau froide puisée en profondeur à 5°C, pour y retourner à 9°C. Une fois condensé, l'ammoniac revient dans l'évaporateur, grâce à un circulateur, pour refaire le cycle.
Le cycle thermodynamique de l'ammoniac [NH3]
Le cycle thermodynamique fonctionne avec plusieurs transformations à la suite, ce qui en fait donc un cycle. En tout, il y a quatre transformations:
- Détail
- Entre 1 et 2 une compression adiabatique avec la pompe
- Entre 2 et 3 un échauffement isobare avec l'évaporateur
- Entre 3 et 4 une détente adiabatique avec le turbogénérateur
- Entre 4 et 1 un refroidissement isobare avec le condenseur
Cycle hybride
Ce cycle utilise les deux précédentes techniques, car nous retrouvons le cycle fermé en premier lieu, avec toujours le cycle de l'ammoniac qui traverse l'évaporateur, le turbogénérateur et le condenseur, c'est-à-dire un cycle thermodynamique qui produit de l'électricité. La nouvelle technique est d'installer un deuxième étage qui va produire de l'eau potable, grâce à un cycle ouvert en utilisant le différentiel d'eau après le cycle fermé.
Points positifs et négatifs des cycles
Remarques sur le cycle ouvert:
- Détail
- Production d'eau potable en plus de l'électricité
- Moins de paroi dans l'évaporateur donc moins de problèmes de bio salissure
- Grande turbine à cause de la faible pression donc procédé très coûteux
- Problème pour faire le vide d'air
Remarques sur le cycle fermé:
- Détail
- Petit turbogénérateur grâce à la forte pression, donc moins coûteux
- Evaporateur volumineux et à double paroi, donc plus de problèmes de bio salissure
- L'utilisation de l'ammoniac est un problème pour les matériaux
Remarques sur le cycle hybride:
- Détail
- Produit deux énergies en grande quantité
- Plus gros coût d'investissement, car deux fois plus de matériel
- Plus grand phénomène de refroidissement des eaux de surfaces
Fonctionnement
Définition
Définition
Une pile à combustible est un générateur électrochimique d'énergie permettant de transformer directement l'énergie chimique d'un combustible (hydrogène, hydrocarbures, alcools, ...) en énergie électrique sans passer par l?'énergie thermique.
Principe de fonctionnement
La pile à combustible fonctionne sur le monde inverse de l'électrolyse de l'eau. Ici, on supprime la source de tension, on alimente en hydrogène et oxygène et on constate l'apparition d'une tension électrique entre les deux électrodes : le dispositif est devenu un générateur électrique qui fonctionnera aussi longtemps qu'il sera alimenté. Pour cela elle est constituée de deux électrodes (anode et cathode) séparées par un électrolyte, matériau qui bloque le passage des électrons mais laisse circuler les ions. Le combustible à base d'hydrogène H2 est amené sur l'anode. H2 va se transformer en ions H+ et libérer des électrons qui sont captés par l'anode. Les ions H+ arrivent sur la cathode où ils se combinent aux ions O2 constitués à partir de l'oxygène de l'air, pour former de l'eau. C'est le transfert des ions H+ et des électrons vers la cathode qui va produire un courant électrique continu à partir de l'hydrogène. Cependant cette tension ne dépasse pas 0, 7 V par cellule, il faut donc utiliser un grand nombre de cellules en série pour obtenir la tension requise. Le courant électrique produit par la pile est continu, il est donc souvent nécessaire de placer en aval de la pile un onduleur permettant la transformation du courant continu en un courant alternatif, notamment lorsque l'installation est utilisée pour fournir du courant domestique. La réaction est déclanchée à l'aide d'un catalyseur. Il s'agit en général d'une fine couche de platine disposée sur les électrodes (anode et cathode) Un des points critique, relatif à la construction de la pile, est de pouvoir contrôler de manière optimale l'approvisionnement et l'évacuation des composés alimentant chaque cellule, généralement de l'hydrogène et de l'air, ou devant être évacués, généralement de l'eau.
- Détail
- Une pile à combustible a besoin d'être entourée de composants et de sous-systèmes pour se transformer en générateur d'électricité. Il lui faut :
- un réservoir
- un compresseur d'air
- un sous-système de refroidissement
- un convertisseur
- un contrôle commande avec ses capteurs, vannes etc
Le combustible et son stockage
Le combustible le plus simple à utiliser est l'hydrogène. C'est également lui qui permet d'obtenir les densités de courant les plus élevées. Sa combustion ne produit que de l'eau sous forme liquide ou de vapeur. C'est un carburant réactif et il est abondant. Cependant il est inflammable dans l'air ou en présence d'oxygène. De plus, incolore et inodore, c'est un gaz a manipuler avec précaution. Autre inconvénient: il occupe beaucoup de place, ce qui s'avère problématique dans le cas de piles équipant des véhicules. Les recherches sur la pile portent donc également sur les réservoirs de stockage d'hydrogène que l'on veut plus sûrs, plus légers et plus compacts. Une des solutions consiste donc à utiliser un hydrocarbure ou un alcool comme le méthanol.
Le rendement
Le rendement d'une pile à combustible varie selon le type de pile et peut être supérieur à 50%. A titre de comparaison, le rendement d'un moteur à combustion interne est en moyenne de 15%. De plus, l'énergie non convertie en énergie électrique est émise sous forme de vapeur d'eau donc de chaleur qui est utilisée à des fins de cogénération.
Les centrales à géothermie exploite les sources chaude naturel comme en islande, la vapeur naturelement produite dans les profondeurs de la terre à une température de 150° voir plus est canaliser dans des tuyaux pour etre acheminer vers des turbines qui entraine des génératrices
Le principe est simple, une chaudière pouvant fonctionner au bois;charbon;gaz;mazout;petrole;chauffe un réservoir d'eau qui ce transforme en vapeur qui une fois sous pression entraine la rotation de la turbine qui via un arbre de transmission entraine la génératrice
Génération de réacteur nucléaire
Les technologies de réacteur nucléaire sont classées en termes de génération. Cette classification a été créée en 2001, lors du lancement du Forum International Génération IV. La chronologie des différentes générations correspond à la date de maturité des technologies associées, permettant un déploiement à l'échelle industrielle.
On distingue de cette façon quatre générations de réacteurs :
- Détail
- La première regroupe les réacteurs construits avant 1970.
- La deuxième désigne les réacteurs construits entre 1970 et 1998.
- La troisième est celle des réacteurs dérivés des précédents et conçus pour les remplacer à partir de 2010 / 2020.
- La quatrième désigne les autres réacteurs en cours de conception appartenant aux 6 filières définies par le Forum International Génération IV et qui pourraient entrer en service à l'horizon 2030.
- Il existe une catégorie spéciale de réacteurs nucléaires de quatrième génération, simplifiés par rapport à ceux décrits dans le traité GIF, susceptibles de transmuter les déchets d'usines électro-nucléaires. En accélérant d'importance les travaux de développements de cette catégorie spéciale, l'industrie devrait être capable de les mettre au point pour 2020 au plus tard.
- Détail
- Génération I
- La génération I désigne les premiers réacteurs construits avant 1970
- Magnox (Grande-Bretagne)
- UNGG, HWGCR, ChoozA, PWR
- Détail
- Génération II
- La génération II désigne les réacteurs industriels construits entre 1970 et 1998 et actuellement en service
- essentiellement de la filière réacteur à eau pressurisée
- Les principaux types de réacteurs nucléaires actuellement construits dans le monde sont des réacteurs de 2e génération
- AGR : Réacteur avancé au gaz
- RBMK : Réacteur à eau bouillante, modéré au graphite, de conception soviétique.
- REB : Réacteur à eau bouillante (REB)
- PHWR : Réacteur à eau lourde pressurisée
- REP ou PWR : Réacteur à eau pressurisée (REP)
- WWER : Réacteur à eau pressurisée de conception soviétique
- CANDU : Réacteur nucléaire à l'uranium naturel à eau lourde conçu au Canada
- Détail
- Génération III : améliorations de la deuxième génération
- la génération III désigne les réacteurs conçus à partir des années 1990 et qui prennent donc en compte le retour d'expérience des précédentes générations.
- Génération III+ : Les réacteurs dits de génération III+ constituent une évolution de la 3e génération, ce sont les réacteurs qui seraient mis en exploitation à partir des années 2010 avant l'arrivée potentielle de ceux étudiés pour la Génération 4.
- Détail
- Génération IV : fermer le cycle technologique
- La génération IV désigne les six filières à l'étude, début 2011, au sein du Forum International Génération IV et dont les réacteurs pourraient entrer en service à l'horizon 2030
- Les réacteurs nucléaires en projet de la Génération IV sont :
- réacteur à haute température (VHTR)
- réacteur à eau supercritique (SCWR)
- réacteur rapide à caloporteur gaz (GFR)
- réacteur à neutrons rapides à caloporteur sodium (SFR)
- réacteur rapide à caloporteur plomb (LFR)
- réacteur à sels fondus (MSR).
En outre, il existe des projets de réacteurs sous-critiques (hybrides réacteur nucléaire piloté par accélérateur ou Rubbiatron), éventuellement dédiés à la transmutation.
A posteriori, on peut classer les réacteurs Phénix et superphénix comme prototypes de réacteurs de génération IV. ASTRID, leur successeur et nouveau prototype de 600MWe du CEA devrait être mis en service avant fin 2020
Une centrale nucléaire est un site industriel qui utilise la fission de noyaux atomiques pour produire de la chaleur, dont une partie est transformée en électricité (entre 30% et 40% en fonction de la différence de température entre la source froide et chaude). C'est la principale mise en oeuvre de l'énergie nucléaire dans le domaine civil.
Une centrale nucléaire est constituée d'un ou plusieurs réacteurs nucléaires dont la puissance électrique varie de quelques mégawatts à plus de 1500 mégawatts.
Histoire
Dès 1951, la première centrale nucléaire entre en service aux Etats-Unis. Le 27 juin 1954, une centrale nucléaire civile est connectée au réseau électrique à Obninsk en Union soviétique, avec une puissance de production d'électricité de cinq mégawatts. Les centrales nucléaires suivantes furent celles de Marcoule en Provence le 7 janvier 1956, de Sellafield au Royaume-Uni, connectée au réseau en 1956 et le réacteur nucléaire de Shippingport aux Etats-Unis, connecté en 1957. Cette même année, les travaux de construction du premier réacteur à usage civil en France (EDF1) démarrèrent à la centrale nucléaire de Chinon.
La puissance nucléaire mondiale a augmenté rapidement, s'élevant de plus de 1 gigawatt (GW) en 1960 jusqu'à 100 GW à la fin des années 1970 et 300 GW à la fin des années 1980. Depuis, la capacité mondiale a augmenté beaucoup plus lentement, atteignant 366 GW en 2005, en raison du programme nucléaire chinois. Entre 1970 et 1990 étaient construits plus de 5 GW par an (avec un pic de 33 GW en 1984). Plus des deux tiers des centrales nucléaires commandées après janvier 1970 ont été annulées.
Les coûts économiques croissants, dus aux durées de construction de plus en plus longues et le faible coût des combustibles fossiles, ont rendu le nucléaire moins compétitif dans les années 1980 et 1990. Par ailleurs, dans certains pays, l'opinion publique, inquiète des risques d'accidents nucléaires et du problème des déchets radioactifs, a conduit à renoncer à l'énergie nucléaire.
Description
Le coeur du réacteur contient les assemblages de combustible étanches et les barres de contrôle, dans de l'eau à l'état liquide (type REP).
Une centrale nucléaire regroupe l'ensemble des installations permettant la production d'électricité sur un site donné. Elle comprend fréquemment plusieurs tranches, identiques ou non ; chaque tranche correspond à un groupe d'installations conçues pour fournir une puissance électrique donnée (par exemple 900 MWe, 300 MWe ou 1 450 MWe). En France, une tranche comprend généralement :
- Détail
- le bâtiment réacteur, généralement double enceinte étanche qui contient le réacteur nucléaire, le pressuriseur qui a pour fonction de maintenir l'eau (traitée) du circuit primaire à l'état liquide, les générateurs de vapeur (trois ou quatre selon la génération), le groupe motopompe primaire servant à faire circuler le fluide caloporteur (eau), le circuit d'eau primaire, dont le rôle principal est d'assurer le transfert thermique entre le coeur du réacteur et les générateurs de vapeur et une partie du circuit d'eau secondaire
- le bâtiment combustible : collé au bâtiment réacteur, il sert de stockage des assemblages du combustible nucléaire avant, pendant les arrêts de tranche et pour le refroidissement du combustible déchargé (un tiers du combustible est remplacé tous les 12 à 18 mois). Le combustible est maintenu immergé dans des piscines dont l'eau sert d'écran radiologique
- le bâtiment salle des machines, qui contient principalement :
- une ligne d'arbre comprenant les différents étages de la turbine à vapeur et l'alternateur (groupe turbo-alternateur)
- le condenseur, suivi de turbopompes alimentaires (fonctionnement normal, de secours)
- les locaux périphériques d'exploitation (salle de commande)
- des bâtiments annexes qui contiennent notamment des installations diverses de circuits auxiliaires nécessaires au fonctionnement du réacteur nucléaire et à la maintenance, les tableaux électriques alimentant tous les auxiliaires et générateurs Diesel de secours
- une station de pompage pour les tranches dont le refroidissement utilise l'eau de mer, de fleuve ou de rivière et éventuellement une tour aéroréfrigérante (la partie la plus visible d'une centrale nucléaire, hauteur de 28 m pour la CNPE de Chinon, jusqu'à 178 m pour la CNPE de Civaux.
Les autres installations de la centrale électrique comprennent :
- Détail
- un ou plusieurs postes électriques permettant la connexion au réseau électrique par l'intermédiaire d'une ou plusieurs lignes à haute tension, ainsi qu'une interconnexion limitée entre tranches
- les bâtiments technique et administratif, un magasin général
Fonctionnement technique
Une centrale nucléaire a le même fonctionnement qu'une chaudière. Un combustible (en l'occurrence nucléaire) permet de créer de la chaleur. Cette chaleur permet au travers d'un échangeur de transformer de l'eau en vapeur, qui accélérée entraînera mécaniquement une turbine. Cette turbine entraînera à son tour un alternateur qui produira l'électricité. La production de chaleur est obtenu dans le réacteur. L'échangeur porte le nom de GV (générateur de vapeur).
Dans une tranche nucléaire, le réacteur nucléaire est en amont d'une installation thermique qui produit de la vapeur transformée en énergie mécanique au moyen d'une turbine à vapeur, l'alternateur utilise ensuite cette énergie mécanique pour produire de l'électricité.
La différence essentielle entre une centrale nucléaire et une centrale thermique classique est matérialisée par le remplacement d'un ensemble de chaudières consommant des combustibles fossiles par des réacteurs nucléaires.
Pour récupérer de l'énergie mécanique à partir de chaleur, il est nécessaire de disposer d'un circuit thermodynamique : une source chaude, une circulation et une source froide. Dans une centrale nucléaire, ce circuit est forcé (car utilisation de pompes). Pour simplifier :
- Détail
- pour un réacteur de type REP, Réacteur à eau pressurisée), la source chaude est fournie par l'eau du circuit primaire, à la température moyenne de 306 °C, (286 °C en entrée et 323 °C en sortie de réacteur), cette dernière variant selon la puissance de la tranche)
- la source froide du circuit de refroidissement peut être fournie par pompage d'eau de mer ou de fleuve (le système est parfois complété d'une tour aéroréfrigérante).
Ainsi, une tranche nucléaire de type REP comporte trois circuits d'eau importants indépendants, détaillés ci-après.
Circuit primaire fermé
Le circuit primaire se situe dans une enceinte de confinement. Il est constitué d'un réacteur intégrant des grappes de contrôle et le combustible et suivant le type de tranche, de 3 ou 4 générateurs de vapeur (GV) associés respectivement à une pompe primaire centrifuge (une par GV ; masse de 90 t environ), un pressuriseur (comprenant des gaines chauffantes) assurant le maintien de la pression du circuit à 155 bar. Il véhicule, en circuit fermé, de l'eau liquide sous pression qui extrait les calories du combustible pour les transporter aux générateurs de vapeur (rôle de fluide caloporteur). L'eau du circuit primaire a aussi comme utilité la modération des neutrons (rôle de modérateur) issus de la fission nucléaire.
La thermalisation des neutrons les ralentit pour leur permettre d'interagir avec les atomes d'uranium 235 et déclencher la fission de leur noyau. Par ailleurs, l'eau procure un effet stabilisateur au réacteur : si la réaction s'emballait, la température du combustible et de l'eau augmenteraient. Cela provoquerait d'une part, une absorption des neutrons par le combustible (effet combustible) et d'autre part une modération moindre de l'eau (effet modérateur). Le cumul de ces deux effets est dit effet puissance : l'augmentation de ce terme provoquerait l'étouffement de la réaction d'elle-même, c'est un effet auto-stabilisant.
Circuit secondaire fermé
Le circuit d'eau secondaire se décompose en deux parties :
- Détail
- entre le condenseur et les générateurs de vapeur, l'eau reste sous forme liquide : c'est l'alimentation des générateurs de vapeur, des turbopompes alimentaires permettent d'élever la pression de cette eau et des échangeurs de chaleur en élèvent la température (60 bar et 220 °C)
- cette eau se vaporise dans 3 ou 4 générateurs de vapeur (suivant le type de tranche, 900 ou 1300 / 1450 MW) et les tuyauteries de vapeur alimentent successivement les étages de la turbine disposés sur une même ligne d'arbre. La vapeur acquiert une grande vitesse lors de sa détente permettant ainsi d'entraîner les roues à aubages de la turbine.
Celle-ci est composée de plusieurs étages séparés et comportant chacun de nombreuses roues de diamètre différent. Dans un premier temps, la vapeur subit une première détente dans un corps haute pression (HP, de 55 à 11 bar), puis elle est récupérée, séchée et surchauffée pour subir une seconde détente dans les trois corps basse pression (BP, de 11 à 0, 05 bar).
On utilise les corps BP dans le but d'augmenter le rendement du cycle thermohydraulique.La sortie du dernier étage de la turbine donne directement sur le condenseur, un échangeur de chaleur dont la pression est maintenue à environ 50 mbar absolu (vide) par la température de l'eau du circuit de refroidissement (selon la courbe de saturation eau / vapeur). Des pompes à vide extraient les gaz incondensables en phase gaz du mélange (principalement l'oxygène moléculaire et le diazote). L'eau condensée dans cet appareil est réutilisée pour réalimenter les générateurs de vapeur.
Circuit de refroidissement semi-ouvert
Ce circuit assure le refroidissement du condenseur. L'eau de refroidissement est échangée directement avec la mer, un fleuve ou une rivière, par l'intermédiaire de pompes de circulation. Pour ces deux derniers cas, l'eau peut être refroidie par un courant d'air dans une tour aéroréfrigérante d'où une petite partie (1, 5%, soit 0, 5 m³ / s pour une tranche de 900 MW) de l'eau s'échappe en vapeur sous forme de panache blanc.
L'énergie mécanique produite par la turbine sert à entraîner l'alternateur (rotor d'une masse d'environ 150 t) qui la convertit en énergie électrique, celle-ci étant véhiculée par le réseau électrique.
Lorsque la tranche nucléaire débite de la puissance électrique sur le réseau, on dit qu'elle est couplée au réseau.La déconnexion intempestive de l'alternateur au réseau (appelée un déclenchement) nécessite une réduction immédiate de l'alimentation en vapeur de la turbine par des vannes de réglage disposées sur les tuyauteries de vapeur, faute de quoi sa vitesse de rotation augmenterait jusqu'à sa destruction en raison du couple générateur excessif s'exerçant alors sur les aubages. Néanmoins, dans ce cas-ci, la tranche reste en service à faible puissance : la turbine est en rotation et reste prête au recouplage immédiat sur le réseau (la tranche est alors pilotée : elle alimente elle-même ses auxiliaires).
Le fonctionnement normal d'une centrale nucléaire est qualifié de critique (par opposition à sous-critique et sur-critique).
Fiabilité d'une centrale nucléaire
L'accident majeur examiné par les études de sûreté est la fusion du coeur.
Pour les centrales nucléaires françaises de première génération, l'objectif était d'avoir une probabilité de fusion du coeur inférieure à 5 sur 100 000 par réacteur et par an. Cette sûreté a été améliorée dans la deuxième génération. Les chiffres pour les centrales allemandes sont comparables. Ce niveau de sûreté était un peu supérieur à celui constaté dans le reste du monde : début 2009, l'industrie nucléaire avait accumulé une expérience totale de 13 000 années x réacteur de fonctionnement.
Une catastrophe majeure s'est produite sur l'une de ces centrales de première génération de type RBMK (la seule ayant atteint le niveau 7 sur l'échelle INES), l'explosion de la centrale de Tchernobyl en 1986 et deux autres accidents ayant conduit à la destruction du coeur : l'incendie de Sellafield de 1957 et l'accident de Three Mile Island en 1979.
Les études de sûreté nucléaire ont été systématisées à la suite de ces accidents et sont contrôlées en France par l'autorité de sûreté nucléaire (ASN), à présent indépendante du pouvoir exécutif, assistée d'un organisme technique, IRSN. Les centrales de deuxième génération ont en France un objectif de sûreté cinquante fois plus élevé, de l'ordre d'un accident par million d'années de fonctionnement.
Pour ce niveau de sûreté, avec un parc mondial vingt fois plus important qu'actuellement (de l'ordre de 500 réacteurs), le niveau de risque serait inférieur à un accident par millénaire. De plus, la conception de ces centrales modernes doit démontrer qu'un accident de fusion du coeur (s'il survient) reste confiné dans la centrale elle-même et ne conduit pas à une contamination de la population.
La conception des centrales nucléaires de quatrième génération fait l'objet d'une coordination internationale, qui inclut des études de sûreté et doit s'appuyer sur des conceptions intrinsèquement sûres.
Risque d'exposition au rayonnement ionisant
En décembre 2007, les résultats de l'étude du Registre national allemand des cancers de l'enfant ont été rendus publics par sa directrice Maria Blettner : l'étude indique que l'on observe en Allemagne une relation entre la proximité d'une habitation par rapport à la centrale nucléaire la plus proche et le risque pour les enfants d'être atteints, avant l'âge de 5 ans, d'un cancer ou d'une leucémie. Pour autant, le rayonnement ionisant ne peut en principe pas être interprété comme une cause, l'exposition au rayonnement ionisant n'ayant été ni mesurée ni modélisée.
Rendement d'une centrale nucléaire
Le rendement théorique de conversion des installations d'une centrale nucléaire est égal à 33% auquel il faut ajouter les pertes en ligne sur le réseau Très Haute Tension.
Un réacteur nucléaire électrogène ne peut être utilisé pour faire de la cogénération. Ceci reviendrait à augmenter la température de la source froide et donc diminuer la différence de température entre les sources ayant pour conséquence une baisse du rendement de production d'électricité. Dans une centrale thermique à cogénération, ce sont les gaz d'échappement qui sont utilisés pour produire de la vapeur qui sert au chauffage urbain.
Les différents types de réacteurs
Une centrale nucléaire est équipée d'un ou plusieurs réacteurs nucléaires. Un réacteur nucléaire peut appartenir à diverses filières :
- Détail
- réacteur à eau bouillante, modéré au graphite de conception soviétique (RBMK)
- réacteur à uranium naturel, modéré par du graphite, refroidi par du dioxyde de carbone (filière uranium naturel graphite gaz ou UNGG), dont le premier réacteur à usage civil en France (EDF1). Cette filière fut abandonnée pour la filière REP pour des raisons économiques. Les centrales françaises de ce type sont actuellement toutes à l'arrêt, par contre, certaines centrales britanniques du même type (Magnox) sont encore en service
- réacteur utilisant de l'uranium naturel modéré par de l'eau lourde (filière canadienne CANDU)
- réacteur à eau pressurisée (REP) (PWR en anglais), ce type de réacteur utilise de l'oxyde d'uranium enrichi comme combustible et est modéré et refroidi par de l'eau ordinaire sous pression. Les REP constituent l'essentiel du parc actuel : 60% dans le monde et 80% en Europe. Une variante en est le réacteur à eau pressurisée de conception soviétique (WWER)
- réacteur à eau bouillante (REB) (BWR en anglais), ce type de réacteur est assez semblable à un réacteur à eau pressurisée, à la différence importante que l'eau primaire se vaporise dans le coeur du réacteur, ceci en fonctionnement normal
- réacteur à eau lourde pressurisée (PHWR)
- réacteur avancé à gaz (AGR)
- réacteur nucléaire à neutrons rapides et à caloporteur sodium, comme le Superphénix européen ou le BN-600 russe
- réacteur à sels fondus
- réacteur liquide au nitrate d'uranyle
Une centrale à fusion inertielle est destinée à produire industriellement de l'électricité à partir de l'énergie de fusion par des techniques de confinement inertiel. Ce type de centrale en est encore au stade de la recherche.
On considère souvent que le seul procédé de fusion qui ait des chances d'aboutir à moyen terme (d'ici quelques décennies) à la production civile d'énergie est la filière tokamak utilisant la technique du confinement magnétique, représentée par le projet ITER. Cependant, des études récentes permettent d'envisager, parallèlement à la filière tokamak, la mise en place d'une seconde filière de production utilisant de telles centrales à fusion inertielle.
La fusion nucléaire du deutérium et du tritium.
Contrairement à la fission dans laquelle des noyaux d'atomes lourds se scindent de façon à former des noyaux plus légers, la fusion se produit lorsque deux noyaux d'atomes légers se réunissent pour former un noyau plus lourd. Dans les deux cas, la masse totale des noyaux produits étant inférieure à la masse d'origine, la différence est transformée en énergie selon la célèbre formule d'Einstein E=mc² (où E est l'énergie produite, m la masse disparue et c la vitesse de la lumière dans le vide).
La fission utilise comme combustible l'uranium ou le plutonium, l'uranium est un élément disponible naturellement (bien qu'en quantités limitées) et le plutonium est un élément artificiel produit grâce à des réactions nucléaires.
La fusion civile utilise des isotopes de l'hydrogène : le deutérium (constituant de l'eau lourde), en quantités quasi illimitées dans les océans et le tritium, existant naturellement en petites quantités dans l'atmosphère, mais surtout produit artificiellement d'autres éléments, comme le lithium, sont utilisés dans les bombes H.
Les techniques de production civile d'énergie de fusion
Deux techniques concurrentes sont candidates à la production civile d'énergie de fusion :
la fusion par confinement magnétique : c'est celle qui est mise en oeuvre dans le projet ITER, les réacteurs utilisant cette technique sont constitués d'une vaste enceinte en forme de tore, à l'intérieur de laquelle un plasma constitué d'un combustible de fusion (mélange de deutérium et de tritium dans le projet actuel), confiné par des champs magnétiques intenses, est porté à très haute température (plus de 100 millions de degrés) pour permettre aux réactions de fusion de prendre naissance, ce type de réacteur est destiné à fonctionner en régime quasi continu
la fusion par confinement inertiel : c'est celle qui serait mise en oeuvre dans les réacteurs à fusion inertielle en projet; l'énergie proviendrait, non pas d'un plasma fusionnant de façon continue, mais de la fusion de microcapsules de combustible, répétée de façon cyclique, selon un principe analogue à celui du moteur à explosion, la fusion étant obtenue grâce à la densité et à la température atteintes dans la microcapsule lorsqu'elle est soumise à un rayonnement laser (confinement inertiel par laser), à un faisceau de particules (confinement inertiel par faisceau d'ions) ou à un processus de striction magnétique (confinement inertiel par striction magnétique).
Historique des énergies de fusion
La fission comme la fusion ont d'abord été utilisées dans le domaine militaire, pour la réalisation de bombes de très forte puissance : bombes A pour la fission et bombes H pour la fusion. C'est d'ailleurs une petite bombe A qui sert d'allumette à la bombe H en produisant l'énergie nécessaire à la détonation de celle-ci.
Les applications civiles, pour lesquelles la production d'énergie ne se fait plus de façon explosive, mais sous une forme contrôlée, ne sont apparues que par la suite. Si, pour la fission, il s'est écoulé moins de 10 ans entre les applications militaires et la production civile d'énergie, il n'en a pas été de même pour la fusion, plus de 50 ans s'étant déjà écoulés sans qu'aucune centrale de production n'ait encore été mise en service.
Le premier brevet de réacteur à fusion a été déposé en 1946 par l'Autorité de l'Energie Atomique du Royaume Uni, l'invention étant due à Sir George Paget Thomson et Moses Blackman. On y trouve déjà certains principes de base utilisés dans le projet ITER : la chambre à vide en forme de tore, le confinement magnétique et le chauffage du plasma par ondes radio-fréquence.
Dans le domaine du confinement magnétique, ce sont les travaux théoriques réalisés en 1950-1951 en Union soviétique par I.E. Tamm et A.D. Sakharov qui ont jeté les bases de ce qui deviendra le tokamak, les recherches et développements réalisés ensuite au sein de l'Institut Kurchatov de Moscou ayant conduit à la concrétisation de ces idées. Des équipements de recherche de ce type ont par la suite été développés dans de nombreux pays et, bien que le stellarator l'ait un moment concurrencé, c'est le principe du tokamak qui a été retenu pour le projet international ITER.
Une cage à fils utilisée dans le confinement par striction magnétique
Le phénomène de la striction magnétique est connu depuis la fin du XVIIIe siècle. Son utilisation dans le domaine de la fusion est issue de recherches effectuées sur des dispositifs toroïdaux, d'abord au Laboratoire de Los Alamos dès 1952 (Perhapsatron) et en Grande-Bretagne à partir de 1954 (ZETA), mais les principes physiques restèrent longtemps mal compris et mal maitrisés. Cette technique ne fut efficacement mise en oeuvre qu'avec l'apparition du principe de la cage à fils dans les années 1980.
Bien que l'utilisation de lasers pour déclencher des réactions de fusion ait été envisagée auparavant, les premières expériences sérieuses n'eurent lieu qu'après la conception de lasers d'une puissance suffisante, au milieu des années 1970. La technique d'implosion ablative d'une microcapsule irradiée par des faisceaux laser, base du confinement inertiel par laser, fut proposée en 1972 par le Lawrence Livermore National Laboratory.
Avantages de la fusion
Les partisans de l'énergie de fusion mettent en avant de nombreux avantages potentiels par rapport aux autres sources d'énergie électrique :
- Détail
- aucun gaz à effet de serre, comme le gaz carbonique, n'est dégagé
- le combustible, constitué de deutérium ou de tritium (isotopes de l'hydrogène) dans la plupart des projets actuels, ne présente aucun risque de pénurie : le deutérium existe en quantité quasi illimitée dans les océans et le tritium est un sous-produit de la production d'énergie nucléaire, aussi bien de fission que de fusion
- la quantité de déchets radioactifs est beaucoup plus faible que celle produite par les réacteurs nucléaires à fission actuellement utilisés mais surtout, la période radioactive des déchets est beaucoup plus courte, de l'ordre de quelques dizaines d'années, contre des centaines de milliers d'années, voire des millions d'années, pour les déchets des réacteurs à fission.
Un réacteur nucléaire à sels fondus (RSF) est un type de réacteur nucléaire dans lequel le combustible nucléaire se présente sous forme de sel à bas point de fusion. Le sel fondu joue à la fois le rôle de combustible et de caloporteur. Le réacteur est modéré par du graphite.
Le concept a été évalué et retenu au sein du Forum International Génération IV. Il fait l'objet d'études et de recherches en vue d'un déploiement comme réacteur de quatrième génération avec cependant une date prévisionnelle d'industrialisation plus éloignée que les autres concepts étudiés. De nombreuses propositions de conception de centrale nucléaire sont fondées sur ce type de réacteur, mais il y a eu peu de prototypes construits.
Théorie
Les réacteurs à sels fondus ont, en configuration neutron thermique, un coeur en graphite percé de canaux dans lesquels circule un sel de matières fissiles et fertiles, par exemple tétrafluorure d'uranium (UF4). Le liquide devient critique quand il passe dans le coeur graphite qui sert de modérateur. Il est aussi possible de fonctionner sans modérateur en neutron rapide, cette configuration élimine le problème du recyclage du graphite et améliore le taux de régénération mais nécessite plus de combustible fissile pour démarrer.
Le concept associe au réacteur une usine de traitement du combustible usé en ligne, chargée de séparer les produits de fission au fur et à mesure de leur production en réacteur.
Historique
Le réacteur nucléaire de Shippingport a, au cours d'une irradiation expérimentale, démontré la faisabilité de la surrégénération en spectre épithermique, avec un combustible uranium 233 sur support thorium.
Dans les années 1960, la recherche sur les réacteurs à sels fondus a été essentiellement conduite par le Laboratoire national d'Oak Ridge, une grande partie de leurs travaux aboutissant au réacteur expérimental à sel fondu. Le MSRE a été un réacteur d'essai de 7, 4 MWth, destiné à simuler la neutronique (en neutrons épithermiques) du coeur d'un réacteur surgénérateur au thorium intrinsèquement sûr. Le MSRE a été critique en 1965 et a fonctionné quatre ans. Son carburant était un sel lif-BeF2-ZrF4-UF4 (65-30-5-0.1), modéré au graphite pyrolytique et son liquide de refroidissement secondaire était du FliBe (2liF-BeF2). Il a atteint 650°C et fut exploité à pleine puissance pendant à peu près un an et demi. Des essais furent également faits avec des sels de plutonium.
Le carburant liquide 233UF4 qui a été testé a démontré la faisabilité et le caractère très attractif d'un cycle du combustible nucléaire fondé sur le thorium, qui minimise les déchets, des déchets radioactifs produits ayant une demi-vie de moins de 50 ans. D'autre part, la température de fonctionnement du réacteur à 650°C permet un bon rendement thermique des moteurs alimentés, par exemple des turbines à gaz.
Ces recherches ont abouti dans la période 1970-76 à une conception MSR qui utiliserait le sel lif BeF2-ThF4-UF4 (72-16-12-0.4) comme carburant, modéré par du graphite remplacé tous les quatre ans et utilisant du NaF-NaBF4 comme liquide de refroidissement secondaire, avec une température de coeur de 705°C. Toutefois, à ce jour, ce réacteur à sels fondus reste à l'état d'étude.
Les réacteurs à sels fondus constituent l'une des options de recherche retenues dans le cadre du Forum International Génération IV.
Avantages liés aux sels fondus
- Détail
- C'est un fonctionnement sûr et d'entretien facile. Les sels de fluor sont chimiquement et mécaniquement stables, à la pression atmosphérique, malgré une forte température et une radioactivité intense. Le fluor se combine ioniquement avec pratiquement tous les produits de fission, ce qui permet de les évacuer facilement. Même des gaz rares - notamment le xénon-135, un important poison neutronique - sort de manière prévisible et maîtrisable au niveau de la pompe, où le carburant est à plus faible température. Même en cas d'accident, la dispersion dans la biosphère est peu probable. Les sels ne brûlent pas dans l'air ou l'eau et les sels de fluorure ne se dissolvent pas dans l'eau.
- Il n'y a pas de vapeur à haute pression dans le coeur, mais simplement des sels fondus à basse pression. Cela signifie que cette filière ne peut pas conduire à une explosion due à la vapeur et n'exige donc pas une cuve de réacteur résistant à la haute pression, la partie la plus chère d'un réacteur à eau pressurisée. à la place, une cuve résistante à faible pression suffit pour contenir les sels fondus. Pour résister à la chaleur et à la corrosion, le métal de la cuve est un alliage exotique (Hastelloy-N) à base de nickel, mais il y en a beaucoup moins que pour une cuve de réacteur à eau pressurisée et ce métal est moins coûteux à mettre en forme et à souder.
- Le réacteur fonctionne en spectre neutronique thermique ou épithermique. Ce régime de fonctionnement permet de réduire drastiquement les fuites neutroniques par rapport à un spectre rapide. Le coeur est ainsi beaucoup plus compact que ceux des réacteurs à neutrons rapides avec une masse de métaux lourds réduite d'un facteur 10 environ. Le pilotage du coeur est également facilité.
- Il permet d'utiliser facilement le cycle de combustible nucléaire fondé sur le thorium, qui n'est guère pratique dans d'autres filières.
- La forme de sel fondu permet le traitement en ligne.
- Le réacteur à sel fondu fonctionne à une température beaucoup plus élevée que les réacteurs à eau légère, de l'ordre de 650°C dans des conceptions conservatrices, jusqu'à 950°C dans les réacteurs à très haute température. Ils sont donc des générateurs très efficaces pour le cycle de Brayton. Ce grand rendement thermique est un des objectifs de réacteurs de génération IV.
- Un SPTD peut fonctionner aussi bien en petites tailles qu'en grandes, de sorte qu'une installation pourrait facilement construire plusieurs petits réacteurs (par exemple de 100 MWe), réduisant les risques opérationnels et financiers.
- Comme toutes les centrales nucléaires, un tel réacteur a peu d'effet sur la biosphère. Il ne requiert qu'une faible surface (si on ne tient pas compte des exploitations minières liées à l'obtention des produits de base), des constructions relativement peu importantes et les déchets sont gérés de manière séparée.
Avantages liés au retraitement en ligne
Le combustible nucléaire d'un réacteur à sels fondus peut être retraité par une petite installation chimique annexe. Weinberg a pu constater qu'une installation réduite peut assurer le retraitement nécessaire pour un réacteur de grande puissance de 1 GW : Tout le sel doit être retraité, mais seulement tous les dix jours. Le bilan en déchets d'un tel réacteur est donc beaucoup moins lourd que dans un réacteur conventionnel à eau légère, qui transfère les coeurs entiers aux usines de recyclage. En outre, tout, sauf le carburant et les déchets, reste sur place dans l'usine.
- Détail
- Le processus de retraitement utilisé est le suivant:
- Un traitement au fluor pour éliminer l'uranium-233 du sel. Cela doit être fait avant l'étape suivante.
- Une colonne de séparation de 4 mètres de haut au bismuth fondu sépare le protactinium du sel combustible.
- Une cuve de stockage intermédiaire permet de laisser reposer le protactinium provenant de la colonne, le temps qu'il se transforme en uranium-233. Avec une demi-vie de 27 jours, dix mois de stockage assurent une transformation à 99, 9% en uranium.
- Une petite installation de distillation en phase vapeur des sels de fluorure. Chaque sel a une température d'évaporation. Les sels légers s'évaporent à basse température et forment la plus grande partie du sel. Les sels de thorium doivent être séparés des déchets de fission à des températures plus élevées.
Les quantités en jeu sont d'environ 800 kg de déchets par an et par GW généré, ce qui implique un équipement assez faible. Les sels de transuraniens à longue durée peuvent être séparés, ou revenir dans le réacteur et servir de combustible.
Avantages liés au cycle du thorium
Quand on le combine avec le retraitement du combustible, le cycle du thorium ne produit que 0, 1% des déchets hautement radioactifs à vie longue que produit sans retraitement un réacteur à eau légère (filière de tous les réacteurs modernes aux Etats-Unis ou en France).
Lorsque le thorium-232 capture un neutron, il se transforme en Th233, qui se désintègre rapidement en protactinium (Pa233). Pa233 se désintègre à son tour en U233 avec une demi-vie de 27 jours. L'uranium-233 est un isotope fortement radioactif de l'uranium (demi-vie de 159 200 ans), mais il ne sort pas du réacteur. Cet uranium 233, qui n'existe pas dans la nature, est un excellent isotope fissile. C'est le combustible nucléaire essentiellement exploité par ce cycle. Quand U233 est bombardé par des neutrons thermiques, les neutrons conduisent le plus souvent à une fission.
Un atome d'uranium-233 peut aussi absorber le neutron (avec une probabilité d'environ 1 / 7 ou moins) pour produire de l'uranium-234 (deux fois moins radioactif que l'U-233). Ce produit d'activation va généralement finir par absorber un autre neutron pour devenir de l'uranium 235, fissible, qui fissionne dans des conditions similaires à celles de l'U233 et contribue donc au fonctionnement du réacteur comme combustible nucléaire. Il peut également (avec une probabilité d'environ 1 / 6) se transformer en uranium-236, très faiblement radioactif (demi-vie de 23 millions d'années), qui circulera avec le reste de l'uranium et finira par absorber un neutron supplémentaire le transformant en uranium-237 (demi-vie de 6, 75 jours) puis en neptunium-237 relativement stable (demi-vie de 2, 2 millions d'années).
Le neptunium peut être séparé chimiquement du sel fondu par retraitement et éliminé comme déchet. Ce neptunium-237 est normalement le seul déchet radioactif transuranien de haute radioactivité à vie longue, il représente environ 2 à 3% de la quantité initialement produite d'uranium-233.
Si le neptunium reste dans la circulation du réacteur, il subit une troisième capture neutronique qui le transforme en neptunium 238, instable de demi-vie 2, 1 jours, qui se transforme en plutonium 238, fortement radioactif (une demi-vie de 86, 41 ans). De même que le neptunium, le plutonium peut être séparé chimiquement et forme cette fois-ci un déchet radioactif à haute activité et vie courte. Ce plutonium-238 est spécifique à la filière du thorium: n'étant pas fissible il n'est pas proliférant et sa vie relativement courte permet une gestion des déchets à échelle historique.
Si le plutonium est à son tour laissé dans le flux du réacteur, il continuera à absorber les neutrons, créant successivement tous les isotopes du plutonium entre 238 et 242 (suivant les mêmes réactions que celles rencontrées dans la filière uranium-plutonium, qui passe directement de l'U-238 au Pu-239). Dans cette progression, une majorité d'atomes disparaîtra lors des étapes fissibles, le plutonium-239 et le plutonium-241. Le reste finira avec une encore plus faible probabilité comme isotopes de la série des actinides mineurs, américium et le curium.
Le cycle du combustible thorium combine donc à la fois les avantages d'une sécurité intrinsèque des réacteurs, une source de combustible abondante à long terme et l'absence de coûteuses installations d'enrichissement isotopique du carburant nucléaire.
Le retraitement continu permet à un réacteur à sel fondu d'utiliser plus de 97% de son carburant nucléaire. C'est beaucoup plus efficace que ce qui est obtenu par n'importe quelle autre filière. A titre de comparaison, les réacteurs à eau légère ne consomment qu'environ 2% de leur carburant dans le cycle ouvert. De plus, avec le sel de distillation, un MSFR peut brûler du plutonium, ou même des déchets nucléaires fluorés provenant de réacteurs à eau légère.
Cycle du combustible
Comme pour les réacteurs rapides, des cycles uranium 238 / plutonium ou thorium / uranium 233 sont envisageables. Considérant les bonnes propriétés neutroniques de l'uranium 233 en spectre thermique et épithermique, le cycle au thorium est privilégié.
Un scénario de transition du parc REP vers un parc de RSF surrégénérateurs thorium / uranium 233 consisterait ainsi à brûler le plutonium existant en REP sur matrice thorium de sorte à constituer un stock d'uranium 233 pour le démarrage de RSF. L'avantage d'un cycle à base d'uranium 233 est de ne pas introduire d'uranium 238 en RSF et ainsi de limiter la production de plutonium et d'actinides mineurs, ce qui est favorable du point de vue déchets. Quelque 1200 kg d'uranium 233 sont nécessaires au démarrage d'un RSF. Le scénario de transition impliquant la construction d'un surrégénérateur permettrait de produire quelque 200 kg d'uranium 233 par an. Six années de fonctionnement seront donc nécessaires au démarrage d'un RSF.
Fusion froide avec de l'hydrogène et du Nickel
un futur possible
un futur possible
Un tas de questions avaient surgi après que les deux remarquables chercheurs Andrea Rossi et Sergio Focardi ont rapporté leur découverte sur la fusion froide qui s'avéra une réussite. Pendant ce temps, d'autres scientifiques ont tenté de confirmer les principes de base entraînant les réactions qui se produisent dans la fusion froide. Cependant, quelques-uns ont échoué à obtenir une fusion froide dès leurs premiers essais, tandis que d'autres ont bel et bien réussi.
Cela a créé plus de controverses et a suscité plus de curiosité sur le fonctionnement de la fusion froide avec de l'hydrogène et du nickel à des températures inférieures à 1000K, comme l'affirme Andrea Rossi et Sergio Focardi. Cela contredit les principes de la physique nucléaire, se qui a poussé beaucoup de scientifiques à contribuer sans cesse afin de comprendre ce processus. Voici un compte rendu de ce qui pourrait vraisemblablement expliquer comment la fusion froide pourrait marcher avec la fusion du nickel-hydrogène.
Le processus : Les deux produits résultants du processus de fusion nickel-hydrogène sont : les isotopes de cuivre et de l'énergie. L'isotope de cuivre se désintègre en produisant un isotope de nickel différent qui dégage plus d'énergie. Selon Andrea Rossi et Sergio Focardi, ils ont pu développer avec succès un réacteur de fusion froide en se basant sur ce principe. Cette réaction est estimée pouvoir produire 12 400 watts d'énergie thermique avec seulement peu de consommation d'électricité estimée à 400 watts.
En Janvier, ils ont tenu une conférence de presse pour décrire le fonctionnement de leur appareil.Andrea Rossi et Sergio Focardi ont expliqué que lorsque les noyaux atomiques de l'hydrogène et du nickel fusionnent dans leur dispositif ou réacteur de fusion froide, moins d'un gramme d'hydrogène sont utilisés dans le réacteur qui se déclenche avec 1000 watts d'électricité. Après quelques minutes, la quantité d'électricité est réduite à 400 watts. Au moment où la réaction se déroule 292 grammes d'eau à 20°C sont convertis en vapeur à 101 ° C.
Le Principe de la réaction : Professeur Christos Stremmenos a fourni une théorie raisonnable sur la façon dont la fusion froide procède avec l'hydrogène et le nickel. Il a soutenu la théorie de Rossi Andrea et Sergio Focardi qui explique que les noyaux de nickel étant dans une structure cristalline fusionnent avec les noyaux d'hydrogène qui se diffusent dans les noyaux de nickel. Les Forces de Coulomb sont reprises par les forces nucléaires résultantes. Le Nickel agit comme un catalyseur et décompose les molécules bi d'hydrogène les transformant en des molécules individuelles. En même temps, ces molécules d'hydrogène entrent en contact avec la surface des atomes de nickel. Les électrons dans les atomes d'hydrogène se déposent sur l'atome de nickel dans la bande de Fermi et se diffusent plus profondément dans la structure cristalline des atomes de nickel.
C'est ainsi que la fusion nickel hydrogènes se produit.Professeur Christos Stremmenos croit aussi que les électrons dans la cavité centrale du cristal de nickel résultent dans une force de protection. Ce bouclier accroche les noyaux d'hydrogène ou de deutérium dans l'atome de nickel. Stremmenos suggère que cela sert comme une source d'énergie pour la réaction de la fusion froide. Par de suite, les atomes d'hydrogène capturés dans le nickel résultent dans des réactions nucléaires exothermiques qui produisent des isotopes depuis la fusion du nickel-hydrogène.Par ailleurs, le professeur Christos Stremmenosa étant un physicien a pris une approche qualitative pour faire comprendre cette théorie. Pour cela, Il s'est basé sur trois théories pour expliquer :
L'atome d'hydrogène de Bohr : L'atome d'hydrogène, ou l'atome d'hydrogène de Bohr reste toujours dans un état stationnaire si aucune énergie n'est appliquée sur lui. Cela est expliqué par l'onde en phase (de Broglie), qui garde une trajectoire circulaire de l'électron en orbite. Le rayon de la trajectoire circulaire est déterminé par les états fondamentaux d'énergie de l'atome.Une fois les atomes d'hydrogène entrent en contact avec les noyaux de nickel, ils abandonnent leur état stationnaire et libèrent leurs électrons.
Les électrons sont déposés dans la bande de conductivité de l'atome de nickel et se répandent rapidement dans sa structure cristalline. S'il y a des espaces tétraédriques ou octaédriques dans le réseau cristallin, ils occuperont ces espaces vides. Ces électrons déposés vont créer un nuage de conductivité d'électrons qui sera distribué dans les bandes d'énergie (bande de Fermi). Cela permet un déplacement libre des électrons sur toute la masse métallique. C'est là que le principe d'incertitude d'Heisenberg entre en jeu.
Le principe d'incertitude d'Heisenberg : Les électrons non localisés, possédants un état dynamique, sont dans un état d'incertitude qui s'explique par le principe d'incertitude d'Heisenberg. Cela dure probablement de 10 à 18 secondes où une série de mini-atomes d'hydrogène neutres pourrait être formée. Ils pourraient être dans un état instable, de tailles variées et sur différents niveaux d'énergie pendant qu'ils sont au sein de la bande de Fermi.Les mini-atomes d'hydrogène neutres ont une énergie élevée et une courte longueur d'onde qui est dû aux orbites cycliques (de Broglie). Ils sont capturés par la réaction nucléaire au sein de la structure cristalline et cela se produit durant les 10 à 20 secondes. Les atomes d'hydrogène fusionnent ensuite avec les noyaux de nickel. Cependant, ils doivent avoir une dimension inférieure de 10 à 14. L'hypothèse qui se pose ici est que seulement quelques atomes satisferont la condition de Broglie.
Réactions nucléaires à haute vitesse : Andrea Rossi et Sergio Focardi ont proposé un mécanisme vérifié par les données de la spectroscopie de masse. Il est prédit que les noyaux de nickel changent en isotopes de noyaux instables de cuivre. Cependant, le professeur Christos Stremmenos confirme que les mini-atomes d'hydrogène emprisonnés dans les noyaux de nickel subissent un anéantissement Une méthode qui a été prédite par Andrea Rossi et Sergio Focardi. ça provoque la décadence des noyaux de cuivre étant produits. Le conduit à l'émission de photons à énergie très élevée.Pour conclure, c'est la meilleure explication du fonctionnement de la fusion froide avec l'hydrogène et le Nickel. Comme cela puisse paraître, peut être impossible ou contre les lois de la physique nucléaire, l'existence de la réaction de la fusion à froid reste effective.