Aller au contenu
Rechercher dans
  • Plus d’options…
Rechercher les résultats qui contiennent…
Rechercher les résultats dans…

mustang91

Membres
  • Compteur de contenus

    163
  • Inscription

  • Dernière visite

Tout ce qui a été posté par mustang91

  1. Stocker l’énergie est indispensable pour répondre aux fluctuations de la production et de la demande d’énergie. La demande d’électricité, par exemple, peut évoluer très rapidement. Si on veut que la production puisse y répondre en permanence, il faut disposer d’une grande puissance installée en matière de centrales électriques. La capacité du réseau doit permettre de faire face à n’importe quelle pointe de consommation électrique, même si elle ne se produit qu’une fois par an. Tout cela coûte cher, puisque cette surcapacité reste sous-utilisée le reste de l’année. Il serait plus économique de stocker l’électricité pour répondre à ces pointes. Il est aussi nécessaire de pouvoir déplacer l’énergie dans l’espace. Dans notre voiture, l’énergie est stockée sous forme d’essence ou de diesel, plus une petite quantité dans la batterie. Avec le développement des énergies solaire ou éolienne, le transport de l’énergie deviendra un enjeu important. Stocker de la chaleur dans l’eau est relativement efficace et facile pour un stockage à court terme (quelques jours). Le chauffe-eau solaire en est un bon exemple. En revanche, utiliser l’eau pour le stockage d’énergie sur le long terme (par exemple pendant six mois pour le chauffage) n’est possible qu’avec de grandes installations. De nouveaux développements comme le stockage thermochimique de chaleur peuvent permettre de réduire les volumes nécessaires, plus particulièrement pour des usages sur le long terme. Le stockage d’électricité à grande échelle est plus efficace sous forme d’énergie mécanique, avec des réservoirs ou des lacs d’altitude par exemple. Prototype de pile à combustible pour l'automobile. P. Stroppa, CEA Le stockage d’électricité à petite échelle (pour les véhicules électriques ou les ordinateurs portables par exemple) peut se faire grâce aux batteries modernes, comme les batteries métal-hydrure métallique ou les batteries au lithium. Quoique supérieures aux batteries au plomb, elles restent lourdes et encombrantes comparées aux carburants fossiles, ce qui limite leurs applications mobiles. Les supercondensateurs permettent de stocker et d’utiliser rapidement l’énergie électrique, puisqu’ils peuvent fonctionner à haute puissance. La récupération et la réutilisation de l’énergie de freinage en sont des applications. L’hydrogène utilisé comme vecteur d’énergie a de beaux jours devant lui, en particulier pour le transport. On peut le produire à partir d’eau et d’énergie électrique. Par la suite, cet hydrogène permet de produire directement de l’électricité grâce aux piles à combustible. La production directe d'hydrogène à partir d’énergie solaire est à l’étude. L’hydrogène se heurte au problème du stockage pour les applications mobiles. La solution la plus simple consiste à utiliser l’hydrogène sous forme gazeuse à haute pression. Des stations-service à hydrogène sont en cours de construction le long des autoroutes dans plusieurs pays (États-Unis, Norvège, etc.). Malgré tout, pour un véhicule ordinaire, l’essence ou le diesel restent bien plus pratiques. Toutes les autres solutions sont plus lourdes, plus volumineuses et plus encombrantes. Furura sciences
  2. La fission nucléaire et la fusion nucléaire produisent toutes deux de l’énergie. Leur cycle de fonctionnement n'émet pas de CO2. Pour autant, elles posent les questions du risque technologique et d'une possible mauvaise utilisation du combustible, qui méritent d'être regardées avec attention... L’énergie issue de la fission nucléaire : La technologie nucléaire utilisée actuellement partout sur Terre se base sur la fission. Elle utilise les noyaux les plus massifs, dont les nucléons sont légèrement « trop lourds » par rapport à ceux des atomes de masse intermédiaire. La différence est très petite (moins de 1 % par nucléon) mais elle correspond à une énergie gigantesque, que l’on cherche à exploiter. Les 435 réacteurs nucléaires en service dans le monde en 2014 utilisent ce principe pour produire de l’électricité. Plus précisément, ils ne produisent pas directement de l’électricité mais de la chaleur. Cette chaleur est ensuite utilisée pour entraîner une turbine à vapeur qui, à son tour, alimente un grand générateur. La spécificité du nucléaire réside donc dans la première étape : produire de la chaleur à partir de réactions nucléaires. L’énergie nucléaire fournit 13 % de la production mondiale d’électricité (données 2011), soit environ 5 % de la consommation totale d’énergie. En France, elle assure 76 % de la production électrique. Sous sa forme actuelle, l’énergie nucléaire est basée sur la fission de l’uranium, plus précisément de son isotope le plus rare (l’uranium 235). Les réserves actuelles d’uranium permettraient d’alimenter la filière en combustible pendant environ 100 ans, au niveau de prix et de technologie actuel. Cette durée serait sensiblement allongée si on prenait en compte les réserves d’uranium plus coûteux. Si on exploitait également l’isotope d’uranium le plus abondant (l’uranium 238), la durée possible d’exploitation augmenterait au moins d’un facteur 100. Pour autant, ce n’est possible qu’avec les surgénérateurs qui sont capables de convertir l’uranium 238 en plutonium. Schéma d’un réacteur nucléaire à eau pressurisée. La vapeur d’eau produite fait tourner une turbine qui entraîne à son tour un générateur. Nuclear Research and Consultancy Group Le coût d’investissement d’une centrale nucléaire est élevé (plusieurs milliards d’euros), mais les coûts d’exploitation sont bas. Les centrales nucléaires sont principalement adaptées pour fournir la « charge de base » d’électricité, pas pour répondre à des fluctuations rapides de la demande. Les avantages de la fission nucléaire sont de diminuer la dépendance aux pays producteurs de gaz et de pétrole, d’être intéressante sur le plan économique et de ne pas émettre de CO2. La fission a l’inconvénient de permettre de mauvaises utilisations de l’énergie nucléaire (la prolifération). L’uranium 235 et le plutonium 239 (qui est produit automatiquement en petites quantités quand un réacteur fonctionne) peuvent servir à la confection d’une bombe nucléaire. Ceci dit, cela nécessite de produire de l’uranium nettement plus enrichi que celui qu’on trouve dans un réacteur, ou bien d’extraire le plutonium 239 du combustible nucléaire usagé. Même si les réacteurs nucléaires modernes obéissent à tous les critères de sécurité, des accidents majeurs peuvent se produire en cas de panne du système de refroidissement. C’est principalement à cause de la chaleur résiduelle qui est produite même après l’arrêt du réacteur, comme l’a montré la catastrophe de Fukushima en 2011. Des réacteurs à sécurité intrinsèque sont en cours de développement, mais ils ne seront pas disponibles avant 2020. Le traitement des déchets nucléaires reste un problème à résoudre, même si les quantités de déchets restent faibles : ils peuvent être stockés sans danger dans des mines de sel, d’argile ou de granite. Les inconvénients de l’énergie nucléaire doivent être soigneusement mis en balance avec l’effet des carburants fossiles sur le changement climatique. Fusion nucléaire et énergie : La fusion nucléaire ne pourra pas contribuer à la production mondiale d’énergie avant 2050. Elle est toujours en phase expérimentale. Mais si sa faisabilité technique et économique est démontrée, son potentiel est énorme puisqu’elle utilise un carburant disponible pendant des milliards d’années. Un litre d’eau ordinaire contient suffisamment de deutérium pour produire l’équivalent en énergie de 200 litres de pétrole. Le combustible des réacteurs de fusion est abondant et disponible. Les réacteurs de fusion prendront sans doute la forme de grandes installations, comparables aux réacteurs de fission actuels produisant 1.500 MW d’électricité. Les problèmes liés au traitement des déchets seront probablement bien moindres pour les réacteurs de fusion que pour les réacteurs de fission actuels. Des accidents importants semblent peu probables avec la fusion. Schéma d’Iter, le réacteur international de fusion en cours de construction près de Cadarache, dans le sud de la France. Notez le personnage en bas à gauche, qui donne une idée de la taille de la machine. CEA De nombreuses nations sont aujourd’hui impliquées en totale collaboration dans la recherche sur la fusion. Le réacteur expérimental Iter est le fruit de la coopération entre de nombreux pays : Chine, Corée du Sud, États-Unis, Europe, Inde, Japon et Russie. Futura Sciences
  3. Comme pour l’énergie éolienne, la plus grande partie des flux d’énergie renouvelable issus de l’eau et du sol est indirectement d’origine solaire. À l’échelle mondiale, ces flux d’énergie sont donc bien plus faibles que ceux qui proviennent directement du rayonnement solaire. Ils jouent pourtant un rôle important, puisqu’ils offrent une énergie solaire sous forme concentrée. L’énergie hydraulique : La production d’énergie hydraulique a commencé il y a bien longtemps avec le développement des moulins à eau. De nos jours, l’hydroélectricité est produite grâce à de vastes lacs artificiels équipés de gigantesques turbines. Elle s’est hissée au rang de première source d’énergie renouvelable dans le monde… et de loin ! La contribution de l’hydroélectricité à la production totale d’électricité mondiale était de 16 % en 2010, contre 10 % en Europe. Les possibilités de nouveaux développements hydroélectriques en Europe sont toutefois assez modestes. Schéma en coupe d'un barrage hydroélectrique. A : réservoir, B : centrale électrique, C : turbine, D : générateur, E : vanne, F : conduite forcée, G : lignes haute tension, H : rivière. Tomia, cc by 2.5 L’hydroélectricité présente de nombreux avantages. Elle est bon marché et n’émet pas de CO2. Elle permet une mise en service rapide et inclut son propre système de stockage si la centrale électrique est équipée d’un barrage. Elle peut donc facilement s’ajuster en fonction de la demande d’électricité, contrairement aux énergies éolienne et solaire. Hydroélectricité, énergie solaire et énergie éolienne sont donc des sources d’énergie complémentaires. Elle a toutefois des inconvénients : l’impact sur l’environnement et sur les populations locales de la construction des barrages et des centrales électriques, mais aussi le risque de rupture du barrage en cas de tremblement de terre. L’énergie des vagues (ou énergie houlomotrice) : n’est rien d’autre que de l’énergie éolienne concentrée. Avec un potentiel total de 200 GW, elle a des perspectives de développement plus faibles que l’énergie hydraulique. Comme l’indique la carte suivante, les côtes ouest-européennes sont parmi les mieux loties du monde. Malgré de nombreux projets pilotes mettant en œuvre des technologies variées, elle en est toujours aujourd’hui à ses balbutiements. L’énergie marémotrice a un potentiel bien plus faible que l’énergie des vagues : Elle est surtout intéressante là où la forme du littoral permet d’amplifier le différentiel de hauteur des marées. On peut mettre aussi à profit l’énergie thermique des mers, en utilisant le gradient de température entre les couches marines pour actionner une machine thermique. L’osmose entre eau douce et eau de mer : (aussi connue sous le nom d’électrodialyse inverse) pourrait permettre de produire des quantités modestes d’énergie. Des problèmes techniques liés à la technologie des membranes semi-perméables doivent encore être résolus. La centrale électrique géothermique de Nesjavellir, en Islande. Gretar Ívarsson, DP La géothermie : utilise le flux de chaleur issu du centre de la Terre. Presque partout sur Terre, la température est environ 30 °C plus élevée à un kilomètre de profondeur qu’en surface. La géothermie présente un énorme potentiel. Elle n’est cependant pas réellement renouvelable, puisqu’elle utilise de la chaleur géothermique emmagasinée en profondeur au fil du temps. Les régions (principalement volcaniques) qui abritent des réservoirs à haute température ou des formations rocheuses chaudes et sèches peuvent être mises à profit pour produire de l’électricité. Mais la plupart des régions du monde peuvent exploiter les sources géothermiques pour le chauffage, en utilisant des pompes à chaleur si nécessaire. La technologie de forage peut s’inspirer de celles de l’industrie pétrolière. Futura sciences
  4. L’énergie éolienne n’est rien d’autre que de l’énergie solaire déguisée. C’est soleil, en chauffant de manière hétérogène la surface terrestre, qui donne naissance au vent. Conséquence immédiate : le potentiel global de l’énergie éolienne est bien moindre que celui de l’énergie solaire. Malgré tout, le potentiel de l’énergie éolienne est loin d’être négligeable. Éoliennes dans l’Aude. Zewan, cc by 2.5 Pour choisir le meilleur emplacement pour une éolienne, il faut connaître la vitesse moyenne locale du vent. La figure ci-dessous représente la carte des vents en France à une altitude de 50 m. On constate de grandes disparités : un moulin à vent situé dans le Centre produira jusqu’à huit fois moins de puissance qu’un moulin similaire situé en Languedoc-Roussillon. Vu la grande variabilité de la vitesse du vent, la puissance moyenne délivrée par une éolienne ne représente que 20 à 30 % de sa puissance nominale. Un grand nombre d’éoliennes installées dans un endroit venteux peuvent rivaliser avec une centrale électrique, pourvu que les éoliennes soient suffisamment espacées. En optimisant la disposition d’une ferme éolienne, on atteint des puissances totales de 1 à 3 MW/km2. C’est bien inférieur au rendement surfacique des cellules photovoltaïques, mais légèrement supérieur à celui des plantes par photosynthèse. Sans oublier que l’énergie éolienne est une énergie mécanique et qu’elle peut donc être convertie en énergie électrique avec très peu de pertes. Il faut environ 1.000 grandes éoliennes de 3 MW de puissance nominale, avec un rotor de 80 à 90 mètres de diamètre, pour remplacer une centrale conventionnelle de 1.000 MW en régime continu. Répartition des vents en France à une altitude de 50 m. EDP Sciences Le déploiement de l’énergie éolienne est très variable d’un pays à l’autre, même si les capacités sont en croissance rapide un peu partout en Europe. En 2012, par exemple, la puissance installée cumulée totale était de 31,3 GW en Allemagne, 22,8 GW en Espagne, 8,4 GW au Royaume-Uni et 7,6 GW en France, pour un total européen de 106 GW contre 75 GW en 2009. Rappelons que ces chiffres correspondent à la puissance nominale. La puissance délivrée, en moyenne annuelle, est à peu près trois à cinq fois inférieure et dépend, entre autres, des conditions de vent au cours de l’année. En 2012, l’Union européenne a produit 6 % de son électricité grâce au vent. Les fluctuations de la puissance éolienne nécessitent l’utilisation de générateurs électriques d’appoint à réponse rapide pour pallier une baisse de production. Une partie des économies de carburants fossiles et d’émissions de CO2 promises par les éoliennes s’en trouve annulée. L’énergie éolienne a d’autres inconvénients, tels que le bruit et ses effets indésirables sur la faune. Futura sciences
  5. Le Soleil est notre source d’énergie par excellence. C’est lui qui fournit l’énergie qui rend possible la vie sur Terre. Nous lui devons aussi un héritage bien utile sous la forme de réserves de pétrole, de gaz naturel et de charbon. Il suffirait de capter une minuscule fraction de l’énergie solaire pour approvisionner en énergie l’humanité tout entière. En l’absence de nuages, quand le soleil et haut dans le ciel, chaque mètre carré reçoit 1 kW, soit l’équivalent d’un chauffage électrique standard. Pour de nombreuses applications, c’est le flux d’énergie solaire moyen net qui importe. Il prend en compte l’influence des nuages et de la nuit et varie beaucoup au fil des saisons. La moyenne européenne est de 125 W/m2, ce qui est l’équivalent en énergie d’environ 100 litres de pétrole par mètre carré et par an ! Comment capter cette manne d’énergie solaire ? Irradiation annuelle moyenne en France sur une surface horizontale (données 2004-2010). GeoModel Solar, 2011 La photosynthèse : La nature a développé un système efficace, qui inclut le stockage : la photosynthèse. Serait-ce une solution viable en termes d’approvisionnement énergétique ? Pour satisfaire la consommation actuelle d’énergie de la France en cultivant des plantes de façon renouvelable, il faudrait mettre en culture la totalité du pays ! Il ne faut donc pas trop attendre des agrocarburants. Le problème de la photosynthèse, c’est son faible rendement : seule une petite partie du flux d’énergie solaire est exploitée (moins de 1 % dans nos pays). Les cellules photovoltaïques sont bien plus efficaces, et elles ne concurrencent pas la production alimentaire. Capteurs solaires et usage passif : La meilleure façon d’utiliser l’énergie solaire est aussi la plus simple : mettre à profit directement la chaleur du soleil. Une fenêtre retient presque 80 % du flux de chaleur incident. Le principe des capteurs solaires thermiques est simple : une plaque noire à température ambiante absorbe presque tout le rayonnement solaire. Si on les utilise pour chauffer de l’eau, ils peuvent tirer parti du flux solaire intense durant les mois d’été. Pour le chauffage, il faut leur associer un stockage sur le long terme. C’est envisageable dans le cas de grandes unités d’habitation, comme un lotissement ou un immeuble de bureaux. Une unité d’appoint s’impose, alimentée par exemple au gaz naturel. Des systèmes de stockage chimique sont en cours de développement. Ils ne présentent pas de pertes thermiques d’une saison sur l’autre. Première tour solaire commerciale d'Europe (2007) située près de Séville, en Espagne. La poussière de l'air rend ici la lumière convergente visible. Afloresm, cc by 2.0 Les cellules photovoltaïques : Les cellules photovoltaïques convertissent directement le rayonnement solaire incident en électricité. Le rendement des cellules actuelles (à base de silicium) atteint 25 % en laboratoire et 14 à 20 % pour les modèles commerciaux. Pour améliorer le rendement, on peut combiner différents matériaux dont la sensibilité à la couleur est différente : la lumière transmise par une couche pourra être absorbée par la suivante. On parle de cellules multijonctions. Un rendement record de 44,7 % a été atteint en 2013 par une équipe de recherche franco-allemande comprenant le CEA, avec une nouvelle structure de cellule solaire à quatre jonctions. De nombreux autres développements sont en cours. Les cellules solaires sont bien plus efficaces que la photosynthèse, mais de grandes surfaces restent nécessaires pour une production substantielle d’électricité. Pour produire l’équivalent d’une centrale conventionnelle (1.000 MW), il faudrait en France une surface nette de 53 km2 de cellules solaires avec un rendement (optimiste) de 15 % ! Le four solaire d’Odeillo, dans les Pyrénées-Orientales, de 54 mètres de haut et 48 m de large comprenant 63 héliostats, est un four fonctionnant à l’énergie solaire, mis en service en 1970. Ian macm, cc by sa 3.0 Concentrer la puissance solaire : Dans les régions les plus ensoleillées de la planète, l’énergie solaire thermodynamique par concentration est une bonne alternative aux panneaux photovoltaïques. Plusieurs centrales pilotes produisant de l’électricité ont déjà été construites aux États-Unis et en Espagne, par exemple. Leur rendement va de 15 à 30 %. Futura sciences
  6. Il existe un lien étroit entre consommation d’énergie et climat. Ce lien est dû à l’effet de serre, dont on entend beaucoup parler. Mais n’oublions pas qu’il existe un effet de serre naturel. La planète est chauffée par le Soleil ; elle atteint un état d’équilibre entre chaleur absorbée et chaleur émise. En l’absence d’atmosphère, la température moyenne de la Terre serait de -18 °C. Certaines molécules de l’atmosphère (eau, dioxyde de carbone, méthane, etc.) absorbent une partie du rayonnement réémis par la Terre, portant sa température moyenne réelle à 15 °C. La situation est donc comparable à celle d’une serre qui laisse entrer la lumière solaire et qui retient le rayonnement thermique venant de l’intérieur, d’où le nom d’effet de serre. Les différents secteurs d’activité n’émettent pas les gaz à effet de serre dans les mêmes proportions. Robert A. Rohde, cc by sa 3.0 De nos jours, cet effet est amplifié par l’activité humaine à cause de l’émission de gaz à effet de serre supplémentaires dans l’atmosphère. La principale source est le dioxyde de carbone (CO2) même si d’autres gaz jouent aussi un rôle. L’augmentation du taux de CO2 s’explique en partie par la déforestation, mais avant tout par la combustion des carburants fossiles. Des mesures réalisées en Antarctique sur des carottes de glace montrent que la concentration en CO2 est inédite depuis au moins 650.000 ans. La figure suivante permet d’identifier les réservoirs et les flux annuels de carbone (les quantités de carbone sont exprimées en gigatonnes, soit 1012 kg). On voit que les principaux flux s’équilibrent globalement sur la durée. Un petit flux vient perturber cet équilibre naturel : c’est le CO2 issu de la combustion des carburants fossiles, qui intensifie l’effet de serre. Réservoirs de carbone (sous forme de rectangles sans échelle, en 1012 kg) et flux de carbone (sous forme de flèches, en 1012 kg/an) impliqués dans le réchauffement climatique. EDP Sciences Les conséquences ne sont que suppositions… mais l’augmentation spectaculaire du taux de CO2 aura forcément des répercussions. Ce qui se passera vraiment est difficile à prédire. Il y a pourtant un niveau de consensus raisonnable au sein de la communauté scientifique, comme en attestent les résultats du Groupe d'experts intergouvernemental sur l'évolution du climat (Giec). Premièrement, on s’attend à une augmentation des températures moyennes mondiales de deux à quatre degrés (voire plus) au cours du siècle à venir, avec de grandes disparités géographiques. Ces différences pourraient avoir un effet sur la position des différentes zones climatiques. Le niveau des mers pourrait monter, conséquence de la fonte des glaces et de la dilatation de l’eau des océans. Parmi les remèdes envisagés : réduire les émissions de CO2 en réduisant l’utilisation des carburants fossiles. Mais nous pouvons aussi empêcher le CO2 émis de finir dans l’atmosphère. Planter des arbres est une bonne idée, mais cela ne suffira pas. Des méthodes de séquestration se développent, comme le captage et le stockage du carbone. Une fois capturé, le CO2 gaz peut être comprimé et transporté dans des pipelines. Il faut alors trouver des réservoirs de carbone pour le stocker. Le stockage océanique est la solution la plus attirante, vu la taille du réservoir que constituent les océans. L’inconvénient est que les eaux océaniques deviendraient plus acides, avec des conséquences encore inconnues sur la vie marine. Futura sciences
  7. La consommation d’énergie varie énormément d’un bout à l’autre de la planète, comme nous allons le voir… La figure suivante nous montre qu’un grand nombre de pays industrialisés comme le Royaume-Uni, le Japon, l’Allemagne, la France, les Pays-Bas et la Russie consomment 2,5 à 3 fois plus d’énergie par habitant que la moyenne mondiale (il y a même un facteur 5 pour les États-Unis et le Canada). On comprend donc que la consommation énergétique mondiale serait multipliée instantanément par près de trois si chaque personne sur Terre avait accès au même confort énergétique que nous. Produit intérieur brut et consommation d’énergie par habitant pour différents pays. De nombreux pays en développement (non représentés) se trouvent dans le coin inférieur gauche, entre l’Égypte et l’Inde. (Source : Statistiques clés sur l’énergie dans le monde, 2008, Agence internationale de l’énergie). EDP Sciences Au-delà d’un certain niveau de consommation énergétique, le PIB augmente en moyenne moins vite, comme d’autres indicateurs de développement. Cela doit nous inciter à revenir à un niveau de consommation raisonnable qui garantit un niveau de confort élevé tout en limitant le gaspillage. Le cas de la France : La consommation d’énergie en France correspond à environ 5,5 kW par habitant en continu, soit l’équivalent de 15 litres de pétrole par jour. D’où provient toute cette énergie ? Les sources d’énergie de la France sont représentées sur le diagramme suivant pour l’année 2012. Même si la proportion d’énergie nucléaire dans la production d’électricité est très élevée en France (76 %), la part des carburants fossiles reste importante quand on regarde le bilan des approvisionnements en énergie : gaz naturel, pétrole et charbon totalisent 50 % de notre besoin en tonnes d’équivalent pétrole. Contrairement à d’autres pays développés, nous utilisons en revanche peu de carburants fossiles pour produire notre électricité. Sources d’énergie de la France pour l’année 2012. EDP Sciences Comment l’énergie est-elle utilisée ? Voici la ventilation approximative par secteur d’activité en France en 2012. Utilisation de l’énergie par secteur d’activité en France en 2012. EDP Sciences La plus grande partie de notre consommation sert à chauffer les habitations et les bureaux. L’isolation des habitations et des bureaux doit donc être le premier axe stratégique pour augmenter notre performance énergétique. Après le chauffage, la production d’électricité représente un quart de la consommation totale d’énergie. Pour fixer les ordres de grandeur, les chemins de fer consomment 1,5 % de notre électricité totale, à peu près la même chose que l’éclairage des routes et des lieux publics. Notre bouquet de carburants, le mix énergétique électrique, a significativement évolué ces dernières décennies. La première source pour la production électrique reste l’énergie nucléaire. De ce fait, la part des combustibles fossiles reste faible par rapport à nos voisins. La place de l’hydroélectricité est importante et relativement stable. L’éolien et le solaire on fait leur apparition dans les années 2000 avec une contribution autour de 4 % seulement, en forte croissance. Parmi les plus petits contributeurs, on trouve les autres énergies renouvelables : usines de traitement des ordures, biomasse, géothermie, biogaz, etc. Dans le monde : La consommation énergétique mondiale était de 533 x 1018 J en 2010. Pour une population de 6,8 milliards d’habitants, cela correspond à 78 GJ par personne et par an. Un Européen moyen en consomme 2,5 fois plus. La plus grande partie (80 %) provient de carburants fossiles. La figure qui suit montre l’évolution de la contribution de chaque source d’énergie au cours des deux derniers siècles. Consommation mondiale d’énergie par source. Sur les dernières décennies, on remarque que 80 % environ proviennent des carburants fossiles. Les contributions de l’énergie nucléaire et de l’hydroélectricité se valent. EDP Sciences Les réserves de carburants fossiles : Les réserves mondiales de pétrole et de gaz naturel sont comparables. Mais comme on consomme plus rapidement le pétrole que le gaz, il sera épuisé plus tôt : sans doute dans un demi-siècle en supposant que la consommation mondiale d’énergie reste à son niveau actuel. En comparaison, il nous resterait à peu près deux siècles de charbon. Fraiseuse à charbon. Cette source d’énergie serait encore disponible pour deux siècles si la consommation mondiale reste au niveau actuel. Gregory Tonon, cc by sa 2.0 Il faut probablement ajouter à ces réserves les grands stocks de gaz de schiste. Il s’agit de gaz étroitement piégé dans le schiste à des profondeurs de 1,5 à 5 km et composé principalement de méthane. La technologie d’exploitation des gaz de schiste est encore en développement. Elle repose sur des techniques d’extraction dont les conséquences environnementales sont discutées. Pendant de nombreux siècles, la population mondiale a survécu sans consommer de carburants fossiles — jusqu’au début de la révolution industrielle. L’humanité est actuellement en train de consommer en quelques centaines d’années la totalité d’un stock de carburants qu’il a fallu plusieurs centaines de millions d’années à la nature pour constituer. Nous vivons une parenthèse enchantée de l’aventure humaine : l’ère des carburants fossiles, qui restera une période très courte dans l’histoire de l’humanité. Futura Sciences
  8. Les déplacements sont un poste important de notre facture énergétique. En France, la part des transports dans la consommation énergétique finale s’élève à 32 %, bien au-dessus de celle de l’industrie (21 %). Sur les 25 km de déplacements quotidiens locaux d’un Français moyen, 16 km sont parcourus en voiture, 2 km en transports en commun, 0,7 km à vélo et 5,6 km à pied. La voiture : Il faut fournir de l’énergie pour accélérer une voiture. L’énergie nécessaire pour atteindre une vitesse donnée est proportionnelle à la masse de la voiture et à sa vitesse au carré. Ainsi, il faut quatre fois plus d’énergie pour atteindre 100 km/h que pour atteindre 50 km/h. Accélérer de 0 à 100 km/h demande autant de carburant que de parcourir 1 km sur autoroute, ou que 15 km en train ! Un train est en effet comparativement lourd mais relativement économe une fois en mouvement. Lancée à vitesse constante, une voiture doit combattre une certaine résistance. Le rôle du moteur est de fournir à la voiture exactement la force qu’il faut pour vaincre cette résistance. C’est donc précisément cette résistance qui détermine la consommation de carburant. Elle est liée à deux phénomènes : la résistance au roulement, presque entièrement causée par la déformation des pneus sur la route, et la résistance de l’air, ou traînée, qui dépend de l’aérodynamisme du véhicule. La résistance ressentie par une voiture augmente énormément à grande vitesse, à cause de l’augmentation rapide de la résistance de l’air (courbe de droite). C’est ce qui explique l’augmentation de la consommation à grande vitesse. EDP Sciences La figure ci-dessus compare ces deux effets dans le cas d’une voiture de taille moyenne. À basse vitesse, la résistance au roulement domine. Dans ce cas, il vaut clairement mieux avoir une voiture légère qui consommera moins d’énergie pendant les nombreux cycles d’arrêt-redémarrage. Sur autoroute, la résistance de l’air prédomine. On préférera une voiture basse et étroite, à faible surface frontale. L’aérodynamisme est alors essentiel. Et comme la résistance de l’air augmente avec le carré de la vitesse, conduire vite augmente sensiblement la consommation. La voiture hybride utilise deux moteurs pour augmenter le rendement — un moteur thermique ordinaire et un moteur électrique. L’énergie provient exclusivement d’essence ou de diesel : tout ce que fait la technologie hybride, c’est d’utiliser cette énergie plus efficacement que dans une voiture ordinaire. C’est une bonne solution pour les trajets urbains. La Toyota Prius est un exemple d'automobile hybride essence-électricité. Chris73, cc by sa 3.0 La voiture tout électrique n’est aujourd’hui envisageable que pour les courtes distances, puisque les performances des batteries actuelles ne permettent pas d’embarquer assez d’énergie. Leur autonomie suffit toutefois à la plupart des trajets domicile-bureau. Si la technologie des batteries progresse, on peut penser que les voitures électriques finiront par parcourir des distances comparables à celles couvertes par les voitures thermiques actuelles. Le bus et le train : Pour les trajets longs, un bus plein est trois fois plus efficace qu’une voiture. En ville, lorsque de nombreux arrêts s’imposent, bus et voitures sont relativement comparables. Pourvu qu'il soit équipé d'un moteur, un bus plein est trois fois plus efficace qu'une voiture. Pierre Manil, DR Les trains subissent une résistance de l’air supérieure à celle des voitures, mais ils transportent bien plus de passagers. Du fait de leurs roues métalliques et des rails en acier, les trains ont aussi un coefficient de résistance au roulement bien plus petit et sont donc particulièrement compétitifs. À grande vitesse toutefois, les trains sont condamnés à être inefficaces énergétiquement : la résistance de l’air augmente avec le carré de la vitesse. Rouler deux fois plus vite demande donc quatre fois plus d’énergie. La résistance au roulement devient négligeable à partir de vitesses autour de 300 km/h. En pratique, un TGV consomme à peu près cinq fois plus d’énergie qu’un train grande ligne ordinaire. Heureusement, le taux d’occupation élevé des TGV améliore leur efficacité par passager. N’oublions pas qu’un TGV fonctionne avec de l’électricité et pas du carburant fossile. L'avion : L’avion est à peu près aussi efficace qu’une voiture à moitié pleine. Cependant, certains facteurs comme le fret compliquent la comparaison. Beaucoup d’avions transportent bien plus de fret que les simples bagages des passagers. Leur efficacité totale est donc difficile à évaluer avec précision. Efficacité énergétique en nombre de passagers-kilomètre par litre de carburant, pour un taux de remplissage de 100 % sur une longue distance. Pour les véhicules électriques, on suppose que l’électricité est produite dans une centrale au pétrole. Dans le cas du vélo, c’est l’équivalent énergétique en litres de pétrole de la nourriture qui est indiqué. EDP Sciences Le vélo : Le vélo est le grand gagnant quand on regarde la quantité d’énergie dépensée par kilogramme de masse transportée et par unité de distance. Contrairement à la marche, le centre de gravité du cycliste reste fixe. Le coefficient de résistance au roulement est très semblable à celui d’une voiture. Le coefficient de résistance de l’air varie beaucoup d’un cas à l’autre, suivant la position du cycliste. L’aérodynamisme est donc essentiel pour atteindre une vitesse élevée. Futura sciences
  9. L’utilisation domestique d’énergie varie énormément d’un endroit de la planète à un autre. Quantitativement, mais aussi par la nature de l’énergie utilisée. Dans les zones rurales des pays en développement, le bois est souvent la principale (voire la seule) source d’énergie. La consommation électrique est basse et principalement destinée à l’éclairage. À l’opposé, l’électricité est la forme d’énergie domestique dominante dans les pays industrialisés. À cette consommation électrique élevée s’ajoute celle d’énergie pour le transport, le chauffage et la climatisation. Chauffage : Le premier consommateur d’énergie du foyer dans nos pays est le chauffage. C’est assez intuitif : tous nos appareils électriques réunis ne suffiraient pas pour chauffer à eux seuls notre maison, même si toute l’énergie qu’ils consomment finit en chaleur (si on met de côté quelques machines comme le lave-vaisselle et le lave-linge qui relâchent la plus grande partie de leur chaleur dans les égouts sous forme d’eau chaude). Pour économiser de l’énergie, il faut donc s’attaquer en premier lieu au système de chauffage. Règle numéro un : générer efficacement la chaleur. Règle numéro deux : ne pas perdre inutilement la chaleur produite, d’où la nécessité d’isoler convenablement nos habitations. Schéma des différentes sources géologiques du gaz naturel : gaz associé aux gisements de pétrole (A), gaz conventionnel non associé (B), gaz de houille (C), gaz de réservoir ultracompact (D) et gaz de schiste (E). US Energy Information Administration, DP Les solutions pour se chauffer sont nombreuses. Le gaz naturel est la technique la plus répandue à ce jour, même si d’autres solutions plus performantes s’imposent progressivement. Les unités modernes de chauffage au gaz à haute performance sont très efficaces. La France a la particularité d’avoir misé dans les années 1970 sur le chauffage électrique, à une époque où son parc de centrales nucléaires était en pleine expansion. Cette technologie est souvent décriée pour ses effets négatifs sur le réseau et sa contribution importante aux pics de consommation hivernaux qui supposent de recourir aux centrales thermiques. À surface identique, un ménage français consomme 40 % de chauffage de plus qu’un ménage néerlandais malgré un climat en moyenne plus clément. Les pompes à chaleur, qui déplacent l’énergie plutôt que de la convertir en chaleur, sont très efficaces et ont certainement beaucoup d’avenir. Parmi les technologies en plein essor, on peut citer la cogénération, qui met à profit la chaleur libérée par une centrale électrique au lieu de la déverser bêtement dans une rivière. À une plus petite échelle, la microcogénération est spécifiquement adaptée aux habitations. Son but premier est de fabriquer de la chaleur : l’électricité n’est qu’un produit secondaire. Comme l’électricité est une forme d’énergie bien plus utile que la chaleur, cette approche permet d’améliorer le rendement global et de réaliser des économies. La maison solaire écologique, située sur l'île Sainte-Hélène au Canada. Benoît Rochon, cc by sa 3.0 Les capteurs solaires, évoqués plus loin, sont en plein développement. Pour le chauffage, ils présentent l’inconvénient d'être principalement actifs en été, quand on en a le moins besoin. Il faut donc les associer à un stockage de chaleur sur le long terme, ce qui est loin d’être simple. Autre option : le chauffage solaire passif, c’est-à-dire sans composants technologiques, encore très sous-utilisé. Une fois la chaleur produite, veillons à limiter les pertes ! Ce sont elles qui conditionnent la quantité d’énergie nécessaire pour maintenir notre habitation au chaud. Pour diminuer ces pertes de chaleur, il faut améliorer l’isolation. Le double vitrage, qui met à profit la très mauvaise conductibilité thermique d’une couche d’air comprise entre deux parois de verre, est très efficace. Il permet de diviser par deux les pertes de chaleur tout en améliorant le confort en limitant le bruit et les courants d’air frais par convection le long de la fenêtre. De simples rideaux peuvent déjà faire la différence. L’eau chaude : L’électricité est bien pratique pour chauffer l’eau. Mais un chauffe-eau électrique reste cher et peu efficace. En termes de consommation d’énergie primaire, une chaudière à gaz fait mieux pour moins cher. Les capteurs solaires peuvent aussi faire l’affaire. Contrairement au chauffage, pas besoin de stockage sur le long terme. Sous nos climats tempérés, ce n’est toutefois pas une solution idéale : un système d’appoint est nécessaire pour les jours nuageux. Led bleues. Pour obtenir cette couleur, on peut utiliser un semi-conducteur en séléniure de zinc (ZnSe), en nitrure de gallium-indium (InGaN) ou en carbure de silicium (SiC). Alexofdodd, cc by nc 3.0 L’électroménager et l’éclairage : En France, un ménage moyen consomme près de 4.700 kWh par an, soit l’équivalent d’une puissance de 540 W en continu. La consommation moyenne d’électricité d’un foyer français correspond donc à plus de cinq lampes de 100 W allumées jour et nuit. Dans un foyer équipé de lampes à incandescence ordinaires, c’est à peu près ce que consomme l’éclairage quand il est allumé, soit 20 % du temps. L’éclairage n’est donc pas la première source de consommation électrique des ménages. Toutefois, on peut facilement en améliorer le rendement en remplaçant les lampes à incandescence par des tubes fluorescents et des ampoules basse consommation ou par des diodes électroluminescentes (Led). Le rendement de ces sources de lumière est particulièrement élevé. Quel appareil ménager consomme le plus ? Les principaux consommateurs d’électricité d’une habitation sont ceux qui produisent le plus de chaleur : lave-linge, lave-vaisselle, sèche-linge, aspirateur, télévision, réfrigérateur, congélateur ou chaîne Hi-Fi. Une comparaison honnête entre différents appareils doit se baser sur leur consommation d’énergie primaire, c’est-à-dire sur la quantité de carburant nécessaire pour les alimenter. Le rendement de conversion de la centrale électrique ou le rendement du moteur automobile doit aussi être pris en compte. Le tableau suivant compare la consommation de plusieurs appareils. Il indique leur puissance en watts et leur consommation horaire de pétrole, d'essence ou de gaz naturel. Ces valeurs sont arrondies et supposent un fonctionnement continu à la puissance donnée. Consommation d’énergie primaire de différents appareils. EDP Sciences Il manque un chiffre dans le bilan de notre consommation énergétique : l’énergie utilisée pour fabriquer ces objets. La question n’est pas simple. Faut-il comptabiliser l’essence utilisée par les ouvriers pour venir au travail ? Faut-il décompter l’énergie économisée ou récupérée quand on recycle ou qu’on jette le produit ? Une nouvelle science est en train d’émerger pour étudier cette dimension de la consommation d’énergie : l’analyse du cycle de vie. Futura sciences
  10. Techniquement parlant, les êtres humains sont des moteurs. À ceci près qu’il est impossible de les arrêter. Même au repos, nous consommons un petit peu d’énergie pour maintenir le système en marche. Notre cœur, par exemple, consomme en continu quelques watts de puissance pour faire circuler le sang dans nos veines. Et notre cerveau ? On s’est rendu compte qu’il consomme plus d’énergie que n’importe quel autre organe humain : jusqu’à 20 % de la consommation totale ! Deux tiers du budget énergétique du cerveau permettent aux neurones d’envoyer et de recevoir des signaux. Le dernier tiers est utilisé pour la « maintenance », c’est-à-dire l’entretien des cellules. Un perchiste en plein effort physique convertit grâce à ses muscles de l'énergie chimique en énergie mécanique, puis en énergie potentielle (gravitationnelle). Tsutomu Takasu, cc by 2.0 Pendant un effort physique, notre consommation énergétique augmente et est convertie en travail et en chaleur. Même au repos, nous chauffons en permanence. Chez un individu en bonne santé et dont la corpulence est stable, toute la ration quotidienne de nourriture finit en chaleur, ce qui correspond à une puissance d’environ 100 W. Un être humain est donc un radiateur de 100 W. Soit la puissance d’une ampoule ordinaire. En plein effort physique, cette valeur augmente évidemment. Un être humain normal peut développer en continu 100 W de puissance, pour monter des marches ou faire du vélo par exemple. Nous parlons ici d’énergie purement mécanique. L’énergie totale utilisée par le corps est bien supérieure, car le rendement de nos muscles est loin d’être parfait. En plein effort, bien plus de 100 W sont donc libérés en chaleur. Mais alors, comment faisons-nous pour maintenir notre corps à une température constante et confortable ? Il existe trois mécanismes pour évacuer la chaleur et refroidir le corps : la conduction thermique avec l’air ambiant, le rayonnement et l’évaporation. Taux indicatifs de production d’énergie, de production de chaleur et de chaleur évacuée par un adulte en plein effort. Comme le rayonnement et la conduction sont à peu près constants, c’est l’évaporation qui est notre planche de salut. EDP Sciences La conduction et le rayonnement sont complètement conditionnés par la différence de température entre notre corps et le monde extérieur. Ils sont gouvernés par les lois de la physique : notre corps n’a pas la possibilité de les ajuster. Heureusement, il y a aussi le mécanisme d’évaporation… que notre organisme est capable d’influencer en régulant automatiquement la quantité de sueur produite. La figure suivante indique l’évolution de plusieurs formes d’énergie et de chaleur au cours d’un exercice physique. Dès que l’effort commence, la production totale d’énergie augmente à peu près quatre fois comme le travail effectué, ce qui s’explique par le rendement musculaire fixé ici à 25 %. La chaleur produite correspond à l’énergie totale produite moins le travail effectué. On voit que l’évaporation joue le rôle clé dans le mécanisme de thermorégulation qui permet de maintenir notre température. Elle est particulièrement efficace, l’évaporation de l’eau étant très gourmande en énergie. Futura sciences
  11. L’énergie est un concept difficile à appréhender. C’est d’abord un mot du langage commun qui revêt de nombreux sens, associés au dynamisme, à la puissance... Pour les physiciens, c’est une grandeur physique qui s’exprime en joules (J). On la rencontre sous de nombreuses formes : énergie cinétique, potentielle, mécanique, électrique, chimique, chaleur, etc. Toutes ces formes ont le pouvoir de se transformer l’une en l’autre. La loi qui gouverne ces processus est la loi de conservation de l’énergie, qui stipule que la quantité totale d’énergie reste constante au cours de ces transformations. L’énergie n’est donc jamais consommée, mais seulement convertie. Le produit final d’une série de transformations est pratiquement toujours de la chaleur. On observe ce phénomène un peu partout autour de nous. Au fur et à mesure de ses rebonds, par exemple, une balle rebondissante convertit toute son énergie potentielle en chaleur : sa température augmente légèrement, de même que celle du sol. La chaîne Hi-Fi tire son énergie d’une prise électrique, dont une proportion importante est convertie en chaleur par l’amplificateur. Même l’énergie transportée par les ondes acoustiques atterrit sur les murs, où elle est absorbée et transformée en chaleur. Le processus inverse — convertir la chaleur en une autre forme d’énergie — est moins facile. Dans une machine à vapeur ou un moteur, seule une partie de la chaleur est effectivement convertie en énergie mécanique. La chaleur résiduelle est perdue. En pratique, un moteur thermique a un rendement de l’ordre de 25 %. Le rendement d’une centrale thermique est du même ordre. Collision d'ions plomb à très haute énergie dans le détecteur Alice du grand accélérateur de hadrons, le LHC. Collaboration Alice La conversion entre énergie électrique et énergie mécanique est possible dans les deux sens avec des rendements proches de 100 %. La notion de puissance, exprimée en watts (W), correspond à la vitesse à laquelle on utilise (ou on produit) l’énergie, donc à des joules par seconde. Futura sciences
  12. L’énergie baigne notre monde, omniprésente dans notre quotidien et dans le débat public. Sans elle, pas un mouvement, pas de vie. Quelles énergies pour demain ? Quel impact sur le climat ? Quels défis techniques, quels risques ? Voici quelques éléments de réponse. Nous connaissons une parenthèse enchantée mais provisoire de l’histoire humaine : celle de l’énergie disponible et bon marché. Pour autant, ce qui se cache derrière le mot « énergie » n’est pas si clair. Pas facile de maîtriser les enjeux des débats sur la transition énergétique, souvent techniques ou partisans. L'énergie baigne le monde. FredArt, Flickr, cc by nc nd 2.0 À l’occasion de la sortie de l’ouvrage L’énergie sous toutes ses formes de Jo Hermans, adapté pour la France par Pierre Manil et publié par EDP Sciences en deux tomes, nous avons choisi d’en transcrire les grandes lignes pour Futura-Sciences. Jo Hermans est professeur émérite de physique à l’université de Leiden, aux Pays-Bas. En complément de son engagement dans l’enseignement et la recherche, il est l’auteur de plusieurs ouvrages de vulgarisation scientifique où il explique avec clarté, rigueur et humour les phénomènes physiques qui baignent notre quotidien. En parcourant ce dossier, vous verrez quelle est la place de l’énergie dans nos vies quotidiennes, en France et ailleurs. Vous verrez comment on la consomme et son lien avec le réchauffement climatique. Vous vous poserez la question du mode de transport le moins énergivore. Vous découvrirez comment exploiter l’énergie solaire et celle du vent, mais aussi celle des vagues, des marées, des lacs et du centre de la Terre. Vous recevrez un éclairage technique sur les opportunités et les risques du nucléaire et réfléchirez au stockage d’énergie de demain. futura sciences 19mai.2014
  13. Paris - La méthanisation (production de gaz à partir de matières organiques) connaît une forte croissance en France, avec plus de 300 installations répertoriées à la fin de 2013, mais l'équilibre économique de la production de biogaz reste fragile, selon une étude de l'Ademe présentée mardi. La France est passée de moins de 100 unités de méthanisation en 2008 à 305 fin 2013, et 100 à 150 doivent être mises en service dans les 24 mois qui viennent, a indiqué Marc Cheverry, chef du service prévention et gestion des déchets à l'Agence de l'environnement et de la maîtrise de l'energie, lors d'une conférence consacrée au secteur. Le méthane, représentant 55 à 85% du volume de biogaz produit, est utilisable comme source d'énergie, ainsi 1m3 de méthane (soit 8 570 kcal) est l'équivalent d'un litre de mazout. Source Méthanisation info L'Ademe s'est également penchée sur la santé économique de la filière et doit rendre public dans les prochaines semaines un rapport complet. L'Hexagone compte notamment 140 installations agricoles de méthanisation, d'une capacité de 6.000 tonnes de déchets traités en moyenne, et 20 unités centralisées (qui traitent à la fois les déjections d'élevages et les déchets de l'industrie agro-alimentaire), d'une capacité de 20.000 à 30.000 tonnes. Elles produisent 350 gigawattheures (GWh) d'électricité et 500 GWh de chaleur, soit l'équivalent de la consommation en chauffage de 35.000 foyers. Selon les premiers résultats de l'étude, leurs taux de rentabilité sont très fluctuants et beaucoup sont au dessous des 7 ou 8%, considérés comme nécessaires pour supporter l'investissement, a expliqué Nicolas Chapelat, chargé de mission à la Semaeb (Société d'économie mixte pour l'aménagement et l'équipement de la Bretagne) et rapporteur de l'étude. Dans ce cadre, la filière nécessite encore aujourd'hui des soutiens financiers, estime l'Ademe. Un des grands problèmes des exploitants réside dans la sécurisation des approvisionnements en déchets, avec une concurrence entre exploitants qui augmente ces dernières années. Le biogaz et l'électricité produits par méthanisation sont subventionnés via un tarif de soutien, répercuté sur la facture du consommateur. Plusieurs plans d'aide aux investissements ont également été mis en place. Le biogaz produit par le secteur est essentiellement utilisé pour la cogénération de chaleur, consommée par l'exploitation agricole et les habitations environnantes, et d'électricité rachetée par EDF. Ministère du Développement durable 17août.2012 La France a pour objectif d'atteindre les 1.000 installations d'ici à 2020. Selon l'Ademe, en 2050, la moitié du gaz de réseau pourrait être issu de la méthanisation. Romandie 13/5/2014
  14. Les plantes exotiques envahissantes sont l'une des principales menaces pour la biodiversité des collectivités françaises d'outre-mer. L'échange d'informations et la mutualisation des connaissances et des outils sont des facteurs essentiels pour une meilleure gestion de ces espèces. L'objectif du projet Pl@ntInvasion est de développer, dans le cadre d'un réseau de partenaires locaux, une plateforme collaborative d'échange et de partage d'informations pour les scientifiques, les gestionnaires de milieux et les citoyens afin de mieux gérer les plantes exotiques envahissantes en outre-mer. Un système d'identification sera développé et il utilisera une combinaison de différents procédés comme la reconnaissance par portrait-robot ou par analyse automatique d'images. - Initiative du Comité français de l'UICN sur les espèces exotiques envahissantes en outre mer. Site Internet de l'initiative - Base de données mondiale sur les espèces exotiques envahissantes (ISSG-GISD) GISD - IDAO est un système d'identification de plante utilisant le principe du portrait robot. Pour en savoir plus : IDAO Pl@ntNote est un logiciel de base de données dédié à la gestion des informations botaniques. Ce logiciel est actuellement utilisé pour la base de connaissance de Pl@ntInvasive-Fot. Vous pouvez télécharger ce logiciel et le manuel d'utilisation à l'adresse : Pl@ntNote Les ressources du projet accessibles à tout public - Synthèse des informations sur les plantes exotiques envahissantes - Le système d'identification par analyse d'images multiples. Source : Pl@ntNet
  15. C'est le Shazam des plantes ! Mis au point par l'Inria, l'Inra, le Cirad et l'IRD, ce programme de reconnaissance d'images profite autant aux chercheurs qu'aux particuliers. Qui, lors d’une ballade, ne s’est jamais demandé quel nom pouvait bien porter telle fleur, telle herbe, tel arbre ? Aujourd’hui, la réponse est dans la poche, ou plutôt dans le téléphone. L’application Pl@ntNet la fourni en une photo et quelques clics. Photo Pl@ntNet Pl@ntNet est le fruit d’une collaboration de trois ans entre l'INRIA, l’Inra, le Cirad et l’IRD (agronomie tropicale), l’Inria (Informatique et sciences du numérique) et le réseau de botanistes amateurs Tela Botanica. Le projet est financé par Agropolis Fondation. Le principe: utiliser les possibilités des téléphones mobiles qui savent à la fois photographier et communiquer avec les serveurs Internet. de France 3 Paris Ile-de-France 26fév.2013 Les photos prises en pleine nature d’une feuille, d’une écorce, d’une fleur ou d’un fruit sont transmises à une base de données regroupant, à terme, la totalité des 5000 espèces que compte la flore européenne. Aujourd'hui, Pl@ntnet fonctionne sur 800 espèces*. "Les images sont alors passées à la moulinette d'un algorithme qui va les déformer (rotations, changements d'échelle...) afin d'en extraire les invariances" explique Alexis Joly, chercheur à l'INRIA Sophia-Antipolis, en charge du développement de ce programme. Si la photo est floue ou ambigüe, le serveur donne plusieurs solutions, de la plus ressemblante à la plus éloignée" explique Alexis Joly chargé de développement de l'application. Plus il y a de photos dans la base de données, plus le logiciel est précis dans son identification. Et pour cause, "L'application inclut également des processus d'apprentissage (machine learning) qui permettent à la machine d'identifier avec une précision croissante les éléments caractéristiques de telle ou telle espèce" précise Alexis Joly. Mais pour cela, il faut-être certain que les images intégrées dans la base de donnée soient correctement étiquetées. de InriaChannel 24/3/2014 C'est pourquoi, nombre d'entre elles sont fournies par la plateforme collaborative IdentiPlante. Cette dernière, alimentée par des botanistes professionnels ou des amateurs éclairés apporte chaque jour une nouvelle moisson d'images de bonne qualité. L’application disponible aujourd’hui sur Apple Store et sur Androïd ne met que quelques secondes pour fournir le nom vernaculaire et le nom scientifique : « si la photo est floue ou ambigüe, le serveur donne plusieurs solutions, de la plus ressemblante à la plus éloignée » précise Alexis Joly. La performance fait en tout cas la fierté de l’Inria. Il n’était pas du tout évident de construire un système de reconnaissance d’images qui puisse se transmettre par les réseaux de téléphonie mobile. Mais à quoi cela sert-il ? Pour les promeneurs du dimanche, la réponse est évidente: satisfaire une curiosité immédiate. Pour les chercheurs en revanche, l’enjeu est bien plus important: «si toutes les espèces sont bien recensées, notre réseau de 14 000 membres manque encore malgré tout d’images des différents stades de croissance de nombreuses plantes, souvent les plus courantes, avoue Daniel Mathieu, président de Tela Botanica. Les photos prises par le grand public vont nous permettre d’étoffer nos banques de données». * Cette base de données contient actuellement plus de 57 300 images pour environ 3700 espèces. Sciences et Avenir 7mars.2013
  16. Le groupe des observations de la terre lance un concours pour développer des applications permettant d’apporter aux citoyens la meilleure information sur l’état de la planète. La planète Terre, photographiée par le satellite Suomi NPP de la Nasa. NASA/NOAA/GSFC/Suomi NPP/VIIRS/Norman Kuring Le GEO Appathon a été lancé le 7 mai. C’est un concours qui fait appel à tous les développeurs d’applications sur mobiles (étudiants, chercheurs, ingénieurs informatiques) à partir du moment où ils ne travaillent pas pour une entreprise commerciale. Les concurrents ont jusqu’au 31 juillet pour s’inscrire et jusqu’au 31 août pour déposer leur projet. Leur application doit piocher dans l’ensemble des données désormais disponibles grâce aux satellites, bouées, stations GPS, et autres systèmes de mesures sur l’état de la planète. Il s’agit d’apporter jusque sur les téléphones des citoyens une information qui puisse inciter à agir pour une meilleure protection de l’atmosphère, des sols et des mers. Les gagnants recevront un prix de 20.000 dollars (14.500 euros) attribués par l’agence américaine d’aide internationale (USAID). Group on Earth Observations 25fev.2014 Ce concours est une nouvelle initiative du Group on earth observations (GEO) fondé en 2002 par le G8 (groupe des 8 pays les plus riches de la planète) lors du sommet de la terre de Johannesburg (Afrique du Sud). Le GEO regroupe aujourd’hui 89 nations et la Commission européenne ainsi que 77 organismes travaillant de près ou de loin sur l’observation de la terre. Tous les membres partagent la même vision "d’un futur dans lequel les décisions et actions pour le bénéfice de l’Humanité sont assises sur des observations de la terre fiables et compréhensibles". En dehors de toute considération commerciale, le GEO fournit gratuitement sur son portail plus de 65 millions de données récoltées à travers le monde. Sciences et Avenir 10mai.2014
  17. Hier, 8 mai, des voitures roulant sur une route de Tioumen en Russie ont été surprises par la formation soudaine d'un énorme trou. Les dash-cams qui sont de plus en plus présentes dans les véhicules peuvent en témoigner : conduire en Russie est une activité à risques. Mais c'est un phénomène encore plus insolite auquel ont assisté des automobilistes le 8 mai. Alors qu'ils roulaient sur une route de la ville de Tioumen, à environ 1.700 kilomètres à l'est de Moscou, une partie de la route s'est soudainement effondrée, formant un énorme trou. La scène a pu être filmée d'en haut par un Russe qui a ensuite posté la vidéo sur le net. d'Annie Eubanks 8mai2014 Si l'heure n'est pas précisée, on peut voir que l'incident est survenu à un moment où la circulation était assez dense. Les voitures roulent au départ sur trois files mais on s'aperçoit rapidement que celles de la file la plus à gauche semblent contourner une déformation de la route. A cet endroit, elle apparait en effet un peu enfoncée. Pour autant, difficile d'imaginer ce qui est vraiment en train de se produire. En quelques minutes, la déformation semble s'intensifier et soudainement, la route s'effondre morceau par morceau. Les automobilistes s'en écartent rapidement pour éviter de tomber dans l'énorme trou qui s'est formé et qui paraît profond. Ce phénomène est ce qu'on appelle une "doline" ou en anglais "sinkhole", soit littéralement "trou d'évier". Il s'agit de dépressions circulaires causées par l'affaissement des sols situés en dessous. Ces trous peuvent mesurer des dizaines de mètres et présenter une profondeur impressionnante. Ils se forment soit progressivement avec un lent affaissement, soit soudainement, comme c'est le cas ici. Lorsqu'ils prennent par surprise, ces phénomènes sont capables de causer des dégâts importants et même des victimes. C'est ce qui s'est produit en mars 2013 en Floride : un homme de 36 ans a été englouti par un trou de 15 mètres de diamètre qui s'est soudainement formé sous sa chambre. Quelques mois plus tard, près du parc d'attraction Disney World toujours en Floride, un immeuble de 3 étages s'est effondré pour la même raison. Les dolines se forment généralement dans des zones où de l'eau coulant dans les sols a dissout la roche calcaire présente. Ceci a pour effet de former un vide dans lequel les sédiments de surface s'effondrent, causant des trous pouvant faire plusieurs dizaines de mètres de profondeur. L'eau responsable peut provenir de diverses sources telles que des pluies torrentielles ayant engorgé les sols ou alors de système de canalisations ou d'égouts. Dans le cas présent, ce serait les pluies abondantes qui ont balayé la région russe au cours des derniers jours qui seraient en cause, selon les spécialistes repris par le Telegraph. La route concernée a été immédiatement fermée pour éviter les accidents. Gentside 9mai.2014
  18. Pour parvenir à augmenter sa récolte annuelle de miel, l’apiculteur brésilien Manuel Juraci a imaginé une solution étonnante en faisant appel un partenaire de travail pour le moins singulier. Pour l’aider à récolter la précieuse marchandise laissée par ses abeilles, Manuel Juraci se fait aider par Boneco, un âne pour qui l’apiculteur a même imaginé une tenue de protection adaptée. HitToHit 28/4/2014 Au Brésil où il réside dans la petite ville de Itatira, Manuel Juraci, 59 ans, ne passe pas inaperçu. Apiculteur de son métier, celui-ci a en effet une méthode bien à lui pour lui permettre de récolter plus de miel que les 120 autres apiculteurs qui travaillent dans la région de Ceará. Pour augmenter sa récolte, l’homme a en effet décidé de faire appel à Boneco, son âne avec qui Manuel travaille désormais "main dans la main". Pour permettre à son animal de travailler avec lui sans craindre de se faire piquer par les abeilles, Manuel Juraci a imaginé tout spécialement pour Boneco une tenue réalisée sur-mesure. Elle lui couvre tout le corps, les pattes, l’encolure ainsi que la tête de l’animal. GeoBeats News 27/2/2014 Pour protéger les autres parties du corps du quadrupède comme ses longues oreilles, Manuel Juraci a fait réaliser pour Boneco une sorte de bonnet avec une armature qui forme une coque permettant à l’animal de pouvoir bouger ses oreilles à loisir. Pour finir, Juraci a également fait placer une moustiquaire montée sur des arceaux pour permettre à Boneco de conserver un champ de vision correct tout en se trouvant aussi bien protégé que son propriétaire. Avec une pareille armure pour aller travailler, l’âne et son propriétaire font régulièrement sensation dans la région en éveillant la curiosité à leur sujet. "L’âne est le seul dans tout le Brésil a pouvoir faire ce travail", confie Manuel interrogé par la télévision locale G1 Ceara. À la fois enchantée et intriguée par le costume créé par Manuel Juraci pour son âne, l’Association des producteurs de miel ne cache pas qu’elle aimerait à l’avenir voir davantage de ces tenues de protection vêtir d’autres ânes de la région. Inventeur reconnu localement, Manuel Juraci promet qu’il va désormais réfléchir à la question et produire d’autres costumes similaires pour les autres ânes de ses confrères apiculteurs. Même si celui-ci confie qu’il ne doit pas son succès seulement à son invention pour son âne, mais aussi aux efforts quotidiens du courageux Boneco. GENTSIDE 3MAI2014
  19. Des chercheurs égyptiens ont fabriqué un "panneau solaire" qui permet, lorsqu'il est installé sur un toit, de rediriger la lumière du Soleil vers les rues assombries par les constructions alentours. "Nous pensons que ce panneau peut améliorer la qualité de la lumière, l'accomplissement des tâches quotidiennes et les conditions de santé dans les zones sombres", décrit Amr Safwat de l'Université Ain Shams au Caire, en Egypte. Avec son équipe, le scientifique voulait trouver un moyen simple de redistribuer la lumière naturelle à l'aide d'un matériel ne nécessitant pas de suivi du Soleil. Le panneau qu'ils ont mis au point est composé de polyméthacrylate de méthyle (le Plexiglas). Le bas du panneau est lisse tandis que son sommet est couvert de crêtes dont l'arrangement est fixé selon une fonction sinusoïdale. Les chercheurs ont utilisé des simulations informatiques pour déterminer la taille et la forme des rainures afin qu'elles distribuent la plus grande quantité de lumière tout au long de l'année, quel que soit la position du Soleil. Image : Simulation de l'éclairage d'une rue en automne et en hiver avec et sans panneaux. La lumière supplémentaire apparaît sous la forme de plus grande quantité de rouge et de jaune à droite. Optics Express. Des simulations ont montré que l'installation de panneaux sur les toits d'une ruelle augmentait l'illumination de 200% en automne et de 400% en hiver. Un petit prototype de 0,4m² a été construit et il a été constaté qu'il éclairait la zone comme prévu. La prochaine étape, annoncent les chercheurs, sera la construction d'un panneau dix fois plus grand. Enfin une commercialisation démarrera et le dispositif devrait être vendu entre 70 et 100 $ le mètre carré. Des panneaux sur les toits peuvent permettre d'éclairer les ruelles sombres. (c) Afp Bien loin de l'Égypte, un village norvégien a utilisé des miroirs pour réfléchir la lumière du Soleil et ainsi sortir de l'obscurité dans laquelle il était plongé près de six mois par an. Contrairement au dispositif égyptien, ces miroirs sont pilotés par ordinateur pour suivre la course du Soleil, d'où un coût bien plus important. SCIENCES ET AVRI 22AVR.2014
  20. Des dizaines de vétérans du site nucléaire du plateau d'Albion, situé à cheval entre la Drôme, le Vaucluse et les Alpes de Haute Provence, souffriraient de cancer. De quel mal mystérieux sont atteints les anciens militaires du plateau d'Albion? Selon Le Parisien, ils seraient des dizaines à souffrir de formes rares de cancer, après avoir travaillé sur cet ancien site stratégique de la défense française. Aux confins de la Drôme, du Vaucluse et des Alpes de Haute Provence, le plateau d'Albion a servi à entreposer des missiles nucléaires français, entre 1971 et 1996. Pas moins de 18 zones de lancement ultra-secrètes accueillaient les missiles nucléaires SSBS alors pointés vers le bloc de l'Est. Des dizaines de militaires présents sur le plateau d'Albion entre 1971 et 1996 souffriraient de formes rares de cancer. STAFF / AFP Les témoignages ne manquent pas. Georges, qui travaillait au refroidissement des têtes nucléaires, mort d'un sarcome* en 2003, ou ce gendarme qui descendait régulièrement dans les silos, décédé à 70 ans, en 2011, d'une leucémie fulgurante. Ou encore le boulanger de Saint-Christol, à proximité de la base, lui aussi emporté par une leucémie du même type. Aujourd'hui, deux vétérans malades ont engagé des procédures en justice contre l'armée. Parmi eux, Leny Paris, ancien commando de l'air qui a passé un an à veiller sur les têtes nucléaires. Il se bat depuis 2003 pour faire reconnaître la nécrose des os** dont il est atteint, conséquence selon lui d'une irradiation sur le plateau. De BFMTV 21avr.2014 Un autre dossier met en lumière celui de ces irradiés d'Albion. Les anciens de l'île Longue, dans le Finistère, qui travaillaient eux aussi aux côtés des têtes nucléaires, celles des sous-marins, se sont constitués en association. Plusieurs sont décédés de maladies radio-induites, reconnues comme professionnelles pour quatre d'entre eux. Toujours selon Le Parisien, le Ministère de la Défense reconnaît avoir reçu "quelques demandes de passés radiologiques" de la part d'anciens d'Albion, mais dément toute "dose significative de radioactivité pouvant avoir un impact sur la santé". Il s'appuie notamment sur "les études menées sur le site, qui ont montré que son fonctionnement n'avait entraîné aucune contamination radioactive, et qu'il n'existait aucun risque d'exposition externe." De Dortch Terrance 21avr.2014 Des traces de radioactivité ont pourtant été relevées sur place, mais pour la Défense, elles "ne mettent en évidence que des radioéléments qui proviennent soit d'origine naturelle, soit des retombées des essais nucléaires de 1950 et de la catastrophe de Tchernobyl." Pour mettre en évidence un lien, encore faudrait-il connaître les relevés dosimétriques des intéressés. Mais tous n'étaient pas équipés de dosimètre. Quant à ceux qui l'étaient, leur profil radiologique est entre les mains de l'armée. Leny Paris vient d'obtenir le sien... onze ans après en avoir fait la demande. De surfano 18juin.2009 * Le SARCOMEest un type de cancer qui prend origine dans les os, le cartilage, les tissus adipeux, les muscles, les vaisseaux sanguins ou d'autres tissus conjonctifs ou de soutien. Les sarcomes sont rares et représentent moins de 1 % de tous les nouveaux cas de cancer. ** La NECROSEdes os est la mort d'un fragment de tissu osseux, due à une interruption de la circulation sanguine, aboutissant à un infarctus osseux. Je sais, ce n'est pas du nucléaire civil, il m'est apparu intéressant d'ajouter cet article pour relayer l'information et surtout faire connaître les aspects insidieux d'une exposition au rayonnement nucléaire. Si toutefois, cet article n'était pas agréé, je ne serai "contrarié" s'il était supprimé. SCIENCES ET AVENIR 22AVR.2014
  21. Grâce à un système composé de nanotubes de carbone, des scientifiques du MIT et de Harvard ont réussi à stocker une plus grande partie de l’énergie solaire sous forme chimique, de manière à pouvoir produire de la chaleur à la nuit tombée… En ces périodes de réchauffement climatique, il est nécessaire de trouver des alternatives crédibles et durables aux hydrocarbures. Parmi les sources d’énergies renouvelables les plus en vogue : l’éolien et le solaire. Néanmoins, leur production dépend des conditions climatiques et de l’heure de la journée. Or, autre inconvénient, elles ne se stockent ni ne se transportent aussi facilement que le pétrole ou le gaz. Cet arc lumineux imite la lumière du soleil afin de pousser des molécules dites photocommutatrices à changer de forme et à stocker de l’énergie, qu’elles pourront plus tard, et à la demande, restituer sous forme de chaleur. MIT Différentes équipes de recherche travaillent justement à résoudre ces questions. Il y a trois ans, Jeffrey Grossman et son équipe du MIT, associé à des chercheurs de l’université Harvard, avaient mis au point un modèle informatique qui visait à récupérer de l’énergie solaire sous forme chimique et à la relâcher à la nuit tombée. Du virtuel au réel, il y a parfois des différences. Ainsi, ces scientifiques ont voulu éprouver grandeur nature leurs prévisions. Leur méthode repose sur des molécules appelées photocommutateurs. Ces composés, soumis à l’énergie du soleil, changent de forme, et peuvent garder leur position durant un moment. Le jour donc, les réserves gonflent au fur et à mesure. Mais à la nuit tombée, par une petite stimulation électrique, lumineuse ou thermique, ces molécules retrouvent leur forme d’origine, et libèrent en même temps de la chaleur, directement exploitable pour la cuisine ou le chauffage d’un logement. En revanche, il ne sert à rien de la convertir en énergie électrique, sous peine de perdre l’intégralité du rendement. Gros avantage : rien ne se perd, rien ne se crée, tout se transforme… en énergie. Pas d’émission de composés toxiques pour la planète donc. Ce schéma explique le fonctionnement de ces batteries rechargeables. Les rayons du soleil (hν) modifient la conformation spatiale (à droite), qui se trouve dans un état d'énergie plus élevé. C'est une forme de stockage photochimique (photochemichal energy storage). Lorsque les molécules retrouvent leur forme originelle (à gauche), il y a un dégagement de chaleur (heat). L’opération peut se répéter éternellement. Kucharski et al., Nature Chemistry Ces photocommutateurs, des Azobenzènes, sont positionnés dans des nanotubes de carbone, et doivent être suffisamment empaquetés pour que le procédé se révèle avantageux, ce qui n’est pas une tâche aisée. Mais d’après leur étude, publiée dans [b]Nature Chemistry[/b], les résultats obtenus n’étaient pas du tout ceux que le modèle avait prédit. En effet, les densités mesurées étaient deux fois inférieures à celles qu’ils auraient dû obtenir, mais cela suffisait malgré tout pour générer l’énergie thermique désirée. D’où venait le problème ? En creusant plus profondément, les scientifiques ont découvert le pot aux roses : les azobenzènes ne se liaient pas comme prévu. Faisons une analogie avec un peigne : ces photocommutateurs formeraient les dents. L’espace entre chaque dent se révèle deux fois plus important que ce que le modèle numérique avait calculé. Mais à l’inverse, ces molécules étaient en contact plus étroit, compensant ainsi l’écart précédemment noté. Les nanotubes de carbone, reliés entre eux par les molécules d’azobenzène. Dans cette confromation, de grandes quantités d’énergies peuvent être stockées, jusqu’à 120 kJ/mol. Kucharski et al., Nature Chemistry Les auteurs ont aussi noté une interaction entre les molécules d’azobenzène et les nanotubes de carbone voisins, ce qui n’avait pas été pris en compte dans les modélisations. Or, au lieu d’améliorer le stockage d’énergie de 30 %, ces interactions induisent expérimentalement une augmentation du rendement de 200 %. Une sacrée différence ! Cette découverte ouvre la voie à de nouvelles possibilités dans le stockage des énergies renouvelables. Déjà, en améliorant encore le système sur lequel ils travaillent, à l’aide de nouveaux photocommutateurs ou des couches de nanotubes de carbone différentes. Mais aussi en imaginant des processus équivalents pour d’autres énergies et d’autres modes de stockage. Pour l’heure, ce processus ne permet de fournir que de la chaleur, ce qui peut être utile dans des circonstances particulières mais qui demande quelques améliorations afin de produire de l’énergie sous d’autres formes. De progrès en progrès, les énergies renouvelables devraient finir par s’imposer. FUTURA SCIENCES 21AVR.2014
  22. Présent dans les boîtes de conserve, les fontaines à eau ou les tickets de carte bleue, le bisphénol A a envahi les objets du quotidien. Les risques associés à ce composé seraient modérés mais bien réels pour la santé. De nouvelles mesures devraient cependant limiter les risques pour les utilisateurs. Difficile d'y échapper : le bisphénol A (BPA) est partout, ou presque. Ce composé fabriqué artificiellement est principalement utilisé comme polycarbonate pour la conception des lunettes, bouteilles en plastique et biberons. Il peut également être employé en association avec d'autres substances, comme les résines époxy pour la fabrication des plastiques et résines des revêtements ou des canettes. Selon l’Anses, les produits conditionnés en boîtes de conserve représentent 50% de l'exposition alimentaire au bisphénol A. Serge Ouachée, Wikimedia Commons, cc by sa 3.0 Selon l'Agence nationale de sécurité sanitaire de l'alimentation de l'environnement et du travail (Anses), l'alimentation contribuerait à plus de 80 % à l'exposition de la population. Ses principales sources sont les produits conditionnés en boîtes de conserve, qui représentent à eux seuls 50 % de l'exposition alimentaire totale, et l'eau distribuée en bonbonnes de polycarbonate. Le rapport de l’ANSES sur les risques sanitaires associés au BPA, rendu le 8 avril, confirme que le risque est modéré mais bien réel pour la santé, notamment pour le fœtus. En 2010, une première loi a interdit l’utilisation du BPA pour la fabrication de biberons des enfants de moins de trois ans. Elle a alors été suivie d'une directive adoptée par la Commission européenne en janvier 2011, qui est entrée en vigueur le 1er janvier 2013. Une nouvelle interdiction du BPA dans les contenants alimentaires devrait s’appliquer en France à partir du 1er janvier 2015. Elle prévoit la suspension de la fabrication, de l'importation, de l'exportation et de la mise sur le marché de tout conditionnement à vocation alimentaire contenant du BPA. Aucun substitut idéal n'a pour le moment été trouvé par les industriels. Le bisphénol A a pour formule brute C15H16O2. Il tient son nom des deux cycles phénol qui le composent. Edgar181, Wikipédia, DP D’autre part, un décret piloté par la direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) est en préparation pour rendre obligatoire l'étiquetage des contenants alimentaires fabriqués à partir de ce matériau. En attendant, il reste très complexe à déchiffrer sur les emballages alimentaires. Certains fabricants apposent un petit triangle de recyclage en dessous de leurs produits, au milieu duquel figure un chiffre. Ainsi, le 7 est à éviter, surtout s'il est écrit « PC » en dessous, pour polycarbonates. Mieux vaut privilégier les bocaux en verre et éviter de réchauffer les aliments dans un emballage en plastique. FUTURA SCIENCES 12AVR.2014
  23. Les tortues de l’espèce Mauremys rivulata, répandues dans l’est méditerranéen, sont assez proches génétiquement malgré d’importantes barrières géographiques, comme la mer Égée. Seule explication : la tortue pourrait traverser la mer. Mauremys rivulata est une petite tortue, qui ne mesure pas plus de 24 cm. Elle est largement répandue dans les lacs et ruisseaux de l’est méditerranéen, du sud-est de l’Europe, de la Grèce à l’ouest de la Turquie et jusqu’au Liban, en Israël, en Syrie et dans les îles de Crète et de Chypre. D’après une étude publiée dans Zoologica Scripta, cette tortue serait capable de traverser des centaines de kilomètres en mer. La tortue Mauremys rivulata vit en milieu méditerranéen. Elle tolère des eaux polluées et saumâtres. Le manque de diversité génétique de cette espèce sur une vaste aire géographique s’expliquerait par sa capacité à traverser les mers. Étienne Boncourt, Wikimedia Commons, cc by sa 3.0 Des travaux précédents utilisant l’ADN mitochondrial n’avaient pas trouvé de différences génétiques importantes chez les tortues Mauremys rivulata dans toute leur zone de distribution. Pour confirmer ce résultat étonnant, les chercheurs ont cette fois voulu utiliser 13 sites de l’ADN pour comparer les variations génétiques entre 340 tortues provenant de 63 localités différentes. Ils ont alors retrouvé une faible variation génétique entre les tortues. « Même des tortues vivant à de grandes distances les unes des autres présentent un profil génétique presque identique, par exemple dans le sud-est de l’Europe et la Turquie asiatique », explique Uwe Fritz, professeur au musée zoologique de Dresde, en Allemagne. « En raison des nombreuses barrières géographiques dans le territoire de cette tortue d’eau douce — en particulier la mer Égée —, nous supposions qu’il y aurait beaucoup de populations différentes. » En effet, la mer représente une barrière génétique pour d'autres espèces, comme des grenouilles ou des serpents. Cette faible différence génétique entre des tortues éloignées géographiquement suggère qu’elles ont trouvé un moyen de transporter leurs gènes sur de grandes distances, par-dessus la mer. La tortue à dos de diamant pourrait-elle aussi prendre le chemin de la mer, comme sa cousine Mauremys rivulata l’a vraisemblablement fait en Méditerranée ? JD Wilson, Plos One, cc by sa 2.5 Comment expliquer le déplacement de la tortue d’eau douce sur de si grandes distances ? Une première hypothèse serait qu'elle soit transportée par l'Homme, mais ces tortues ne sont pas consommées en raison de leur forte odeur. Les chercheurs n'ont aucune preuve de l'influence de l'Homme dans la répartition de ces animaux. C’est pourquoi il ne restait plus qu’une possibilité : traverser la mer Égée. Pour Melita Vamberger, principale auteure de l’article, « il est probable que des tortues soient balayées de manière répétée de leur habitat dans les marais côtiers vers la mer par des tempêtes. Elles peuvent manifestement survivre longtemps dans la mer, suffisamment longtemps pour être emportées vers un littoral. » Ce transport maritime pourrait concerner d’autres espèces de tortues, comme la tortue à dos de diamant (Malaclemys terrapin) qui connaît elle aussi peu de variations génétiques, malgré sa large répartition en Amérique du Nord. FUTURA SCIENCES 9AVR.2014
  24. Amener la production agricole dans les cités, produire l'énergie sur place, rapprocher les résidences des lieux de travail et de commerce... Ces idées sont dans l'air pour faire vivre dans le futur des milliards de citadins. Un architecte, Vincent Callebaut, explore ces pistes depuis plusieurs années. En Asie, ses idées commencent à sortir de terre... Dragonfly devant Manhattan. Une structure transparente maintenue par une armature inspirée de l'aile de libellule abrite des productions de végétaux. Des panneaux solaires sont installés sur le sommet et des éoliennes à la proue, à droite sur ce dessin. Vincent Callebaut Architectures, www.vincent.callebaut.org Ses projets sont souvent qualifiés de « futuristes », voire estampillés comme de la science-fiction. Des bâtiments ou des quartiers produisant leur énergie et leur nourriture et recyclant leurs déchets, des navires dépollueurs, des dirigeables géants, des libellules de verre à Manhattan ou des villes flottantes en baie de Monaco : les idées de Vincent Callebaut, architecte né en Belgique, peuvent en effet sembler promises à un avenir lointain. Agora Garden, en construction à Taipei (Taïwan), est un immeuble en double hélice, avec des terrasses ouvertes sur le ciel peuvent abriter des jardins et, sur le côté opposé de la spire, des balcons. Sur le toit, une pergola abrite un verger et un toit à cellules photovoltaïques. Vincent Callebaut Architectures, www.vincent.callebaut.org Et pourtant… « En 2020, en France, le règlement imposera que tous les nouveaux bâtiments aient un bilan d’énergie positif » aime-t-il à rappeler. Et à Taipei, son projet Agora Garden de tour résidentielle végétalisée, en forme de spirale, avec vergers et potagers suspendus, est en chantier depuis 2012 et livrable en 2016. Quant à la science-fiction, le terme ne convient pas vraiment, car les techniques à l’œuvre ou envisagées sont connues. « Nous intégrons des éoliennes à trois pales, ou axiales », explique-t-il en précisant qu’il travaille en équipe pluridisciplinaire. « Les déchets peuvent être recyclés dans des bioréacteurs où sont cultivées des algues vertes. On sait réaliser des compostages naturels ou accélérés. » Du point de vue architectural, la tour spiralée Agora Garden impose un principe breveté de construction oblique. « La géométrie de ces projets paraît complexe, mais elle repose sur des modules simples et semblables. » Avec ces idées, il s’agit de proposer des « scénarios de vie ». Ainsi est né le projet Dragonfly d’une tour, censément à Manhattan, abritant à parts égales des logements et des bureaux, avec un verger suspendu. Cette étude fait partie des trois « projets manifestes » de l’architecte et montre une idée qu’il n’est pas le seul à défendre : rapprocher la production agricole. « En 2050, nous serons neuf milliards et 80 % de l’humanité vivra en ville. Il faut s’interroger maintenant sur la manière dont nous produirons la nourriture. » Les vergers ne suffiront pas, mais il faut bien commencer par le début et on peut penser aller plus loin, jusqu’aux céréales et à l’aquaculture. « Il faut viser la Lune pour ensuite atteindre les étoiles… » Physalia, un vaisseau géant pour naviguer sur les fleuves d'Europe ou sur le Tigre et l'Euphrate. Démonstrateur scientifique, il étudierait et montrerait des techniques d'épuration de l'eau et d'autosuffisance, capable de dépolluer les voies d'eau dans lesquelles il se déplace. Vincent Callebaut Architectures, www.vincent.callebaut.org L’idée de juxtaposer des locaux professionnels et résidentiels fait partie de ces principes différant des habitudes actuelles. « Les villes denses fonctionnent mal chez nous car nous les pensons comme monofonctionnelles, résume-t-il. Près de Paris, le quartier de la Défense est vide dix heures par jour... » La séparation des lieux de vie, des zones où l’on travaille et d’autres où l’on se détend conduit à multiplier les durées et les infrastructures consacrées aux transports, autant qu’à augmenter la pollution de l’air. Voilà le projet Cairns, multifonctionnel comme Dragonfly, proposé à la ville de Shenzhen, en Chine, avec phytoépuration et viticulture. Lilypad, un projet pour accueillir les réfugiés climatiques. Cette ville flottante, autosuffisante, pourrait accueillir 50.000 personnes, produirait son oxygène et recyclerait ses déchets. Vincent Callebaut Architectures, www.vincent.callebaut.org Plus loin encore, Vincent Callebaut imagine d’immenses vaisseaux dépollueurs (Physalia) et des cités flottantes pour accueillir les réfugiés climatiques, qui se compteront par dizaines de millions dans les décennies à venir, quand la montée du niveau de la mer grignotera les côtes et salinisera les nappes phréatiques. L’immense Lilypad, structure flottante capable d’accueillir 50.000 personnes, semble à l’architecte moins irréaliste que « les milliards d’euros dépensés aux Pays-Bas ou aux Émirats arabes unis pour construire des polders éphémères. » FUTURA SCIENCES 8AVR.2014
  25. Les plaques tectoniques sont mobiles les unes par rapport aux autres à la surface de la Terre. Comment leur découpage s’est-il produit ? Des chercheurs français proposent le premier modèle qui explique le phénomène sur Terre et indique pourquoi il ne s’est pas produit sur Vénus, pourtant considérée comme la planète jumelle de la Terre. Cette carte représente les principales plaques tectoniques de la Terre. Les surfaces sont déformées par la projection de Mercator. Comment ces plaques se sont-elles formées ? Une nouvelle étude montre qu’il s’agirait d’un équilibre entre des mouvements rapides de convection du manteau terrestre et une cicatrisation plus lente. Wikimedia Commons, DP La lithosphère, la couche mobile et superficielle de la Terre, est divisée en un petit nombre de plaques rigides qui se déplacent sur l’Asthénosphère, la partie du manteau terrestre située immédiatement en dessous. Cette structuration contrôle des phénomènes géologiques comme les tremblements de terre ou le volcanisme. Elle influence aussi le climat de notre planète et a joué un rôle essentiel dans l’apparition de la vie. De blorkator psn 16MAI2013 Comment les plaques tectoniques se sont-elles formées ? Les premières preuves de déformation de la lithosphère datent de quatre milliards d’années, mais l’individualisation complète des plaques et le démarrage de la tectonique sous sa forme actuelle sont sans doute advenus un milliard d’années plus tard. D’après une étude publiée dans la revue Nature par un scientifique du CNRS et un chercheur de l’université Yale (États-Unis), cette période de transition d’un milliard d’années aurait permis la création et la connexion de zones de faiblesse dans la lithosphère. Le modèle présenté permet à la lithosphère de se diviser naturellement en plaques tectoniques rigides dont les frontières sont très déformables. Sur cette figure, les zones de frontière de plaques, du vert au rouge, sont 100 fois moins visqueuses que l’intérieur des plaques, en bleu. CNRS Leur modèle considère que la lithosphère est un milieu formé de deux types de grains, qui reflète la composition minéralogique de la péridotite, principale roche des plaques lithosphériques. Il prend en compte les forces exercées sur les roches par l’asthénosphère sous-jacente, et intègre des données expérimentales sur les propriétés des roches et leur déformation. Selon les chercheurs, la lithosphère se fragilise par interaction avec la convection du manteau, c’est-à-dire les mouvements très lents des roches constituant l’asthénosphère. Ces derniers étirent les roches de la lithosphère sus-jacente et la taille des grains composant les minéraux des roches diminue, ce qui les rend encore plus déformables : c’est ainsi que naît une zone de fragilité. Les mouvements de convection se déplacent dans le manteau au cours du temps, créant de nouvelles zones de faiblesse. Cependant, lorsqu’elles ne sont plus soumises à déformation, ces régions ont tendance à cicatriser, car les minéraux grossissent. De Geosciences3D 9juin2013 D’après ce modèle, en raison de la température modérée de la Terre et de la présence de minéraux différents qui gênent mutuellement leur croissance, la cicatrisation de la lithosphère prend 100 fois plus de temps que sa fragilisation. Les changements de la convection mantellique ont donc endommagé localement la lithosphère, sans qu’elle puisse cicatriser complètement, accumulant ainsi assez de zones de faiblesse pour se découper en plaques. Selon leurs calculs, il aurait fallu un milliard d’années pour que les plaques tectoniques se forment, ce qui est compatible avec l’histoire géologique. De bel fatmi amine 22avr2013 Les chercheurs expliquent aussi pourquoi Vénus, qui a pourtant une masse, une taille et une composition similaires à celles de la Terre, n’a jamais eu de tectonique des plaques : sa lithosphère, très chaude du fait d’un effet de serre extrême, cicatrise trop vite (en dix millions d’années) pour pouvoir se diviser en plaques tectoniques. De MOSERONLINE 16déc2013 FUTURA SCIENCES 8AVR.2014
×
×
  • Créer...