Aller au contenu
Rechercher dans
  • Plus d’options…
Rechercher les résultats qui contiennent…
Rechercher les résultats dans…

mustang91

Membres
  • Compteur de contenus

    163
  • Inscription

  • Dernière visite

Tout ce qui a été posté par mustang91

  1. ANSHUN (Chine) - Après quarante ans dans des mines, M. Di a attrapé la tuberculose et a vu se tarir les sources d'eau de son village. Mais le charbon est son seul moyen de subsistance --comme il reste de loin la première source d'énergie de la Chine. Le mineur de 55 ans se résigne à se ruiner la santé pour gagner sa vie: Si j'étais paysan, je gagnerais en un an ce que je gagne ici en un mois, observe-t-il. Ses ongles noircis témoignent d'une vie passée à travailler sous terre, au coeur de collines bleutées du Guizhou (sud-ouest), l'une des provinces les plus pauvres de Chine. Mes poumons ne me font pas trop mal, ajoute M. Di, qui ne donne que son nom de famille. Il confie que, de toute façon, il serait incapable de s'offrir un traitement médical. Choisir le gain économique au détriment de sa santé: le sort de Di fait écho à celui de la Chine dans son ensemble, qui dépend toujours du charbon pour plus de 70% de son énergie et en paye le prix environnemental. Alors que les grandes métropoles suffoquent régulièrement sous un épais smog brunâtre, le Premier ministre chinois Li Keqiang a appelé solennellement mercredi à déclarer la guerre à la pollution. Il a promis qu'un plafond serait fixé pour restreindre la consommation d'énergie du pays, que 50.000 chaudières à charbon seraient supprimées et les industries lourdes plus strictement contrôlées. Mais les experts se montrent sceptiques sur la mise en oeuvre de ces mesures, alors que la demande énergétique ne cesse d'augmenter et que la deuxième économie mondiale enregistre ses plus bas taux de croissance depuis 1999. Le gouvernement se sent obligé de s'attaquer plus sérieusement aux problèmes environnementaux (...) mais je ne pense pas qu'il soit prêt à changer les choses en profondeur. Sa priorité reste d'alimenter la croissance économique, estime Xiaomin Liu, expert du cabinet IHS CERA. La Chine est le premier consommateur d'énergie au monde, et continue de miser massivement sur les combustibles fossiles: selon Greenpeace, 570 centrales à charbon sont programmées ou en construction dans le pays. Mais le mécontentement populaire gronde face aux crises d'airpocalypse --notamment à Pékin où la concentration de particules dangereuses atteint jusqu'à 40 fois les niveaux maximaux préconisés par l'Organisation mondiale de la santé (OMS). Sous pression, le gouvernement, qui a dégagé l'an dernier un budget de 1.700 milliards de yuans (201 milliards d'euros) pour améliorer la qualité de l'air, prévoit de réduire à 65% d'ici à 2017 la part du charbon dans la consommation énergétique. Les objectifs affichés sont ambitieux, mais certains experts se montrent circonspects. Soucieuses de rassurer d'abord les métropoles prospères des provinces côtières, les autorités ne feront peut-être que déplacer la pollution du charbon vers l'ouest et ses régions défavorisées, s'inquiète Jennifer Turner, directrice d'un programme sur la Chine au Woodrow Wilson Center. Le Guizhou a promis de fermer la moitié de ses mines --soit environ 800 sites-- d'ici à mi-2014. Mais il s'agit des petits puits les moins rentables, ce qui ne réduira pas nécessairement la production totale de la province. Autour du village d'Anshun, où habite le mineur Di, les habitants ont longtemps profité de l'industrie du charbon. Un mineur peut gagner 6.000 yuan par mois (710 euros), soit deux fois plus qu'un ouvrier et dix fois plus qu'un agriculteur. ABNxcess ABN 14mar.2013 Certains pourtant reconnaissent que cela pourrait être une bonne chose de mettre un terme aux coups de grisou meurtriers, aux poumons noircis, au gaspillage des ressources en eau --mobilisées par l'activité minière--, et aux effondrements de maisons dus à un sous-sol surexploité. Un riverain nommé Yan, 45 ans et père de deux enfants, indique avoir quitté sa mine l'an dernier, par peur des risques cachés, et songe désormais à quitter sa famille pour aller chercher du travail ailleurs. Il commente: Fermer les mines, ce ne serait pas mal. Les bénéfices ne sont que temporaires. A long terme, il n'y a aucun avantage à en attendre. Romandie.com 6mars.2014
  2. En combinant l’imagerie par satellite, le calcul à distance, les données ouvertes et la participation collective, le projet Global Forest Watch a vu le jour, mené, entre autres, par la FAO, Google, Greenpeace et la Nasa. Cette carte interactive permet d'observer la déforestation quasiment en temps réel. En 2009, Google proposait aux scientifiques de mesurer la déforestation en utilisant ses ressources pour suivre l'évolution des forêts, notamment dans les zones difficiles d'accès, à grand renfort d'imagerie satellite et de calcul informatique à distance (cloud computing). Le projet Global Forest Watch veut aller plus loin. L'outil, encore en version bêta, propose de suivre la déforestation dans le monde entier en quasi-temps réel et rassemble pour l'occasion de nombreux partenaires dont Google, la FAO, Greenpeace, la Nasa, ainsi que de multiples autres sociétés privées, institutions étatiques et organisations non gouvernementales. Sur cette carte quasiment en temps réel, on peut apercevoir la déforestation (points roses) ainsi que le reboisement (points bleus). L’objectif de Global Forest Watch est de fournir les données nécessaires pour éclairer les décisions politiques sur la déforestation. Global Forest Watch Le site Global Forest Watch propose une carte du monde qui présente sous forme de points la déforestation et le reboisement. D'autres données sont disponibles, permettant d'afficher dans d'autres couleurs la surface actuellement couverte par la forêt, l'usage actuel (comme l'huile de palme) ou encore les zones de conservation (zones protégées pour la biodiversité par exemple). L'outil fournit aussi des informations sur un pays en particulier. Dans le cas de la France, l'état actuel de la forêt, sa contribution dans l'économie, la législation actuelle, sa participation dans la lutte contre le dérèglement climatique et les engagements internationaux sont renseignés. Des outils d'analyse et des statistiques sont par ailleurs proposés, lorsque les données existent. Selon la FAO, environ 13 millions d’hectares de forêts disparaissent annuellement sur Terre. La carte développée par Global Forest Watch devrait permettre de connaître l’évolution du phénomène et de mieux le maîtriser. Stuck in Customs, Flickr, cc by nc sa 2.0 Outre l'imagerie satellite et le calcul à distance, l'outil du Global Forest Watch s'appuie sur la philosophie des données ouvertes (open data) et la participation collective (crowdsourcing), afin d'améliorer la collecte et le traitement des données. L'objectif est de faire du service un outil pratique pour la classe politique afin qu'elle prenne des décisions éclairées pour limiter la déforestation. Les gouvernements et les entreprises seront-ils plus sensibles à la nécessité de maîtriser la consommation de bois et de soutenir une politique forte de reboisement ? Cela reste à voir. Ceci étant, l'outil est public. Les médias, les individus et les associations peuvent s'en saisir pour réclamer une plus grande responsabilité dans la gestion de cette ressource. FUTURA SCIENCES 26/FEV.2014
  3. Lors d’une inondation, les fourmis s'associent pour former un « radeau de survie ». Des chercheurs suisses les ont observées en pleine action en laboratoire : les ouvrières placent à la base les larves et les pupes, qui flottent mieux, et au centre la reine, la mieux protégée. D’après une étude réalisée par des chercheurs de l’université de Lausanne, les fourmis s’associent pour créer des radeaux afin d’échapper aux inondations. La formation de cet édifice où les individus sont liés les uns aux autres est progressive et bien coordonnée, et permet d’obtenir une structure collective à géométrie précise. Ces résultats sont parus en ligne dans la revue Plos One en date du 19 février 2014. Dans ce radeau de fourmis, les individus sont associés pour favoriser la survie du groupe entier, aussi bien les pupes et les larves que les ouvrières et la reine. D. Galvez, Purcell et al., Plos One, 2014, cc by sa 4.0 Les animaux sociaux sont capables de s'organiser pour favoriser la survie et le bien-être du groupe lorsqu’il est menacé. C’est le cas des fourmis qui vivent dans les plaines inondables et qui savent créer des radeaux lors d'inondations. Pour mieux comprendre la structure de ces assemblages, des chercheurs ont récupéré des fourmis Formica selysi dans une plaine inondable du Rhône, en Suisse. Après les avoir ramenées dans leur laboratoire, ils ont recréé les conditions d'une inondation pour observer en direct la formation d’un radeau. Pour simuler une inondation au laboratoire, les chercheurs ont placé une colonie de fourmis sur une plateforme, puis élevé lentement le niveau d'eau. Ils ont alors observé les positions des ouvrières, des couvées (larves et pupes) et de la reine. Ils ont ainsi vu que les ouvrières plaçaient les larves et les pupes à la base afin de s’en servir de plateforme flottante. Les radeaux pouvaient comporter trois à quatre couches d’ouvrières. Celles-ci protégeaient la reine en la plaçant au centre du radeau, de sorte qu’elle ne touche pas l’eau. C'est dans la plaine inondable du Rhône (canton du Valais, Suisse) que les chercheurs ont récupéré des fourmis capables de former des radeaux. J. Boulat, Purcell et al., Plos One, 2014, cc by sa 4.0 Pour Jessica Purcell, principale auteure de l’article, « nous nous attendions à ce que les individus immergés à la base du radeau subissent le plus de pertes, c’est pourquoi nous avons été surpris de voir que les fourmis plaçaient systématiquement les plus jeunes membres de la colonie à ces positions. » Mais il y a une explication : les larves et les pupes flottent le mieux et survivent bien à l’immersion. Les ouvrières étaient elles aussi particulièrement résistantes à l’immersion : après avoir passé huit heures sous l’eau, 79 % des fourmis ouvrières se rétablissaient. Les chercheurs ont aussi modifié la composition du groupe de fourmis pour voir comment évoluait le radeau : s'il n'y avait que des ouvrières, certaines se plaçaient à la base. En l'absence de jeunes, 25 à 50 % des ouvrières étaient en contact avec de l'eau. En revanche, dès qu'il y avait des larves et des pupes, très peu d'ouvrières se plaçaient à la base. Par conséquent, la configuration du radeau bénéficie à tout le groupe, puisque l’édifice épargne relativement bien la vie des ouvrières, des larves et des pupes, tout en permettant la survie de la reine. Contrairement à ce que l'on aurait pu penser, il n'y a pas de véritable dilemme lors de la formation du radeau ; si certaines positions semblent risquées, voire relever du sacrifice, ce n’est pas vraiment le cas étant donné la résistance des individus. FUTURA SCIENCES 26FEV.2014
  4. Quels sont les effets de l’activité humaine sur les poissons coralliens ? En étudiant cette question, des chercheurs français dévoilent la triste réalité : au-delà de la disparition de certaines espèces, l’Homme réduit considérablement la diversité des fonctions assurées par les communautés de poissons. Véritables réservoirs de biodiversité, les récifs coralliens et les écosystèmes associés sont fortement menacés par les perturbations d'origine naturelle ou anthropique. Le dernier bilan du World Resources Institute est alarmant : à l’échelle planétaire, 75 % des récifs coralliens seraient en danger, un taux qui devrait atteindre 100 % à l’horizon 2050. Ces chiffres inquiètent d’autant plus que ces récifs subviennent directement aux besoins alimentaires et économiques de nombreux pays en développement. En effet, la biodiversité exceptionnelle des poissons sur les récifs coralliens détermine en partie la biomasse directement consommable par l’Homme. L’activité humaine réduit peu à peu la biodiversité des poissons ainsi que l’intensité des activités au sein des écosystèmes coralliens. Jean-Michel Boré, IRD Si la diversité phylogénétique des communautés est reconnue pour sa valeur patrimoniale incontournable, car elle illustre une partie de l’arbre de vie, la diversité fonctionnelle des écosystèmes a longtemps été négligée dans les études d’impact. Or, la richesse d’un écosystème se mesure aussi bien en termes de diversité taxonomique, c’est-à-dire du nombre d’espèces différentes présentes, que de diversité de fonctions. Cependant, jusqu’à aujourd’hui, aucune étude ne s’était intéressée à l’impact des activités anthropiques sur l'érosion des diversités taxonomiques, fonctionnelles et phylogénétiques des communautés de poissons coralliens. Des chercheurs de l’IRD et du CNRS se sont attelés à cette tâche. Leurs résultats, publiés dans la revue Current Biology, ne sont pas rassurants. Grâce à un échantillonnage de 1.553 communautés de poissons réalisé en comptages sous-marins dans 17 pays de l’océan Pacifique sud, les chercheurs ont évalué les niveaux de diversité taxonomique, fonctionnelle et phylogénétique d’un groupe d’espèces exploitées le long d’un gradient de densité humaine allant de 1,3 à 1.705 habitants au kilomètre carré de récif. Ces données socioécologiques ont été collectées dans le cadre des projets ProcFish et CoFish. Les résultats montrent la chute très importante des niveaux de diversité fonctionnelle et phylogénétique, notamment au-delà de 20 habitants au kilomètre carré de récif, alors que la richesse en espèces reste très peu affectée le long de ce gradient. Ainsi, lorsque la densité de population humaine atteint 1.700 habitants au kilomètre carré de récif, l’impact sur les niveaux de diversité fonctionnelle et phylogénétique, respectivement de 46 % et de 36 %, est plus important que sur la richesse en espèces, qui est de 12 %. Le lagon calédonien s'étend sur environ 24.000 km2. Sa barrière de corail mesure près de 1.600 km de long. Elle abriterait approximativement 300 espèces de coraux et 1.200 espèces de poissons, une biodiversité en déclin. Nasa Goddard Photo and Video, cc by 2.0 Ces travaux soulignent que le nombre d’espèces est un indicateur peu sensible à la pression anthropique, alors que deux autres composantes de la biodiversité se trouvent bien plus affectées par la densité humaine. Ces composantes constituent l’arbre de vie, c’est-à-dire la diversité en traits biologiques et en lignées phylogénétiques, essentielles au fonctionnement des systèmes coralliens. Les chercheurs attirent ainsi l’attention sur l’importance de conserver l’ensemble des composantes de la biodiversité. Ils préconisent également d’utiliser la diversité en traits et en lignées comme indicateurs fiables et sensibles de la dégradation des communautés d’espèces. FUTURA SCIENCES 27FEV.2014
  5. Les climatologues savent depuis longtemps qu’une éruption volcanique de forte intensité peut engendrer une baisse des températures globales. Mais faut-il négliger les rejets de cendres et d’acide sulfurique, beaucoup plus modestes ? Une nouvelle étude semble indiquer qu’ils contribuent aussi à expliquer la pause climatique constatée ces 15 dernières années. En 1991, le Pinatubo, volcan philippin, entrait en activité et crachait d’immenses panaches de fumée dans ce qui fut l’une des plus intenses éruptions du XXe siècle. Les kilomètres cubes de cendres et autres débris répartis dans l’atmosphère ont même altéré le climat global : sur les années suivantes, la température moyenne a baissé d’environ 0,5 °C, la faute à la réflexion des rayons du soleil induite par ces aérosols. Les cendres et les panaches de fumée des éruptions volcaniques de moyenne ampleur, comme la célèbre éruption de l’Eyjafjöll, volcan islandais, en 2010 (qui avait même paralysé une partie du trafic aérien), seraient responsables d’une partie de la pause climatique. David Karnå, Wikipédia, cc by 1.0 Ce phénomène est bien connu des climatologues. En revanche, l’impact des éruptions de moindre ampleur sur les températures globales reste bien moins maîtrisé. Les modèles climatiques ont même tendance à les négliger. Pourtant, ces 15 dernières années, force est de constater que le réchauffement climatique est moins intense que lors des décennies précédentes. C’est simple : si l’on gagnait 0,12 °C par décennie entre 1951 et 1998, on se situe depuis à une hausse de « seulement » 0,05 °C sur une période de dix ans. Cette pause climatique, probablement multifactorielle, pourrait-elle être partiellement due au volcanisme de ces dernières années ? C’est à cette question que Ben Santer et ses collègues du Lawrence Livermore National Laboratory ont tenté de répondre dans les colonnes de la revue Nature Geoscience en examinant 17 éruptions moyennes depuis le début des années 2000. Et ils répondent à cette problématique par l’affirmative. Mesurer les températures moyennes sur la planète reste une tâche complexe. Les lieux de mesure doivent être variés et suffisamment révélateurs, et on doit pouvoir y effectuer des mesures dans le temps. Une difficulté telle qui constitue peut-être un biais dans les mesures expliquant les divergences entre les prévisions et les mesures. Cependant, bien qu’en période de pause climatique, la fonte des glaces est toujours de plus en plus importante. Nasa Goddard Photo and Video, Flickr, cc by 2.0 Leur analyse porte sur le forçage volcanique de ces 15 dernières années sur les températures de la troposphère, la couche basse de l’atmosphère, à partir d’observations et de simulations climatiques. Chacune des éruptions a engendré une émission de cendres et de gouttelettes d’acide sulfurique qui a opacifié l’atmosphère (augmentation de l’épaisseur optique), d’après les mesures satellitaires effectuées. En conséquence, le rayonnement solaire s’est davantage réfléchi, si bien que les températures mesurées dans cette même couche ont baissé. Pour tester la fiabilité des modèles climatiques, et de leur expérience, les chercheurs ont intégré ces nouveaux paramètres dans des simulations informatisées. Les prévisions de ces modèles se sont révélées plus proches de la réalité observée lorsque les 17 éruptions volcaniques de ce début de XXIe siècle ont été considérées que lorsqu’elles ont été négligées. Il semble donc que le volcanisme d’ampleur moyenne contribue à la pause climatique, car il expliquerait à lui seul environ 15 % du décalage entre les températures mesurées et celles qui étaient annoncées. Restent les autres paramètres, responsables des 85 % du décalage restant. Parmi les principaux, les océans, qui absorbent l’énergie solaire sans la libérer, les mouvements internes de la Terre, une baisse de l’activité solaire ou la pollution au dioxyde de soufre. Malgré cela, les températures continuent globalement de s’élever et les glaces de fondre année après année sur la planète. Faut-il en arriver à souhaiter davantage de volcanisme pour stabiliser les températures ? FUTURA SCIENCES 27FEV.2014
  6. Carros (France) (AFP) - Dompter les soubresauts de l'offre et la demande d'électricité pour se passer de nouvelles centrales et de nouvelles lignes : avec cet objectif, de premiers embryons de réseaux électriques "intelligents" prennent forme en France, comme dans les faubourgs de Nic "On ne va évidemment pas se passer de toutes les lignes électriques, mais l'idée c'est de trouver un optimum entre les deux", explique Laurent Schmitt, vice-président de la division "smart grids" (réseaux électriques "intelligents") d'Alstom, en montrant à la presse les premières installations, opérationnelles depuis peu, du programme "Nice Grid" à Carros (Alpes-Maritimes). Alors qu'on recense désormais en France, selon lui, une centaine de projets plus ou moins avancés, l'exemple niçois est "le premier de taille significative à entrer en service". Il comprend notamment un logiciel qui tient lieu de "cerveau" et pilote différents équipements, et des "yeux", à savoir des capteurs relevant en temps réel toute sorte de données précieuses. En gestation depuis novembre 2011, cette expérimentation pilotée par le gestionnaire de réseau ERDF (groupe EDF) se distingue en cumulant plusieurs expériences en une. Du stockage d'électricité, d'abord: dans un grand conteneur de semi-remorque se niche aujourd'hui une batterie de 500 kilowattheures, qui stocke le courant quand celui-ci est abondant et le "déleste" en période de pointe. D'autres batteries plus petites seront ajoutées ultérieurement au système Veolia Environnement 11/7/2011 Plusieurs industriels de Carros, comme le producteur de café Malongo, se sont également engagés, jusqu'à dix fois par an, à "effacer" leur consommation électrique, c'est à dire à renoncer ponctuellement à la majeure partie de leur utilisation de courant. "Si j'ai été prévenu à l'avance et que la chaîne logistique a bien fonctionné, je coupe le courant", explique Henri-Philippe Lepage, le directeur de l'usine. Une centaine de particuliers équipés du compteur communicant Linky doivent prochainement adopter le même principe, avec par exemple un arrêt de quelques minutes de leurs radiateurs électriques. Objectif? Pouvoir rapidement "effacer" jusqu'à 3 mégawatts de consommation électrique dans le secteur de Carros, soit environ 15% de la demande locale. QuartierSolaire 2/8/2012 A l'inverse, il s'agit également d'inciter les consommateurs à utiliser de l'électricité lorsque la production des énergies renouvelables intermittentes, --en l'occurence du photovoltaïque-- est forte, avec par exemple un tarif incitatif. En effet, "les réseaux de distribution auxquels ils sont raccordés ont été construits à une époque où l'on n'anticipait pas les renouvelables et ne sont pas toujours adaptés", souligne Christophe Arnoult, le responsable du projet chez ERDF. Toutes ces pratiques ont pour but de "déplacer" la consommation d'électricité aux moments de la journée où la production est la plus abondante. Car la "pointe" (ou pic) de consommation, qui a augmenté de plus d'un quart en dix ans et a atteint un sommet national historique de 101,2 gigawatts en février 2012, est de plus en plus le cauchemar des opérateurs de réseau dans leur lutte contre les "black-out". Elle nécessite de surdimensionner le système électrique pour pouvoir encaisser le choc durant ces quelques minutes cruciales où la France consomme à fond, un phénomène amplifié l'hiver par le chauffage électrique. Dans certaines "péninsules électriques" mal desservies, comme la région niçoise, ces épisodes deviennent particulièrement sensibles pour les opérateurs de réseau. D'où le besoin de pouvoir calmer le jeu, d'autant que la solution conventionnelle consistant à construire de nouvelles lignes se heurte de plus en plus à des oppositions environnementales. Les réseaux intelligents permettront-ils réellement d'alléger les investissements dans les lignes? "La réponse n'est pas simple", tempère Christophe Arnoult. "Nous allons faire début 2016 un bilan coûts-bénéfices de Nice Grid" (30 millions d'euros de budget, ndlr), il n'est pas exclu que la conclusion soit négative, sur des questions de coûts par exemple". Alstom, lui, ne cache pas son impatience de voir le marché atteindre un rythme de croisière. "Les démonstrateurs, c'est formidable. Après, le danger, c'est de les multiplier. A un moment donné, il va falloir passer à l'implémentation" à grande échelle, suggère Grégoire Poux-Guillaume, le patron de la division réseaux d'Alstom. Aux Etats-Unis, où la faiblesse du réseau renforce le besoin en pilotage intelligent, et au Danemark, qui doit intégrer des quantités très importantes d'électricité éolienne, le groupe français a trouvé ses premiers terrains d'expérimentation. Sciences et avenir 13/2/2014
  7. WASHINGTON - Des chercheurs américains ont découvert une substance qui pourrait rendre les batteries au lithium ininflammables, selon leurs travaux publiés lundi. C'est en étudiant un matériau pour empêcher des crustacés de se coller sur les coques des navires que ces chimistes ont identifié le potentiel de cette substance. Celle-ci peut en effet agir comme électrolyte, une substance conductrice d'électricité, pour des batteries au lithium-ion. A l'heure actuelle ces batteries posent un risque d'incendie spontané, comme on l'a vu récemment dans des Boeing 787 Dreamliner ou sur des modèles de voitures électriques américaines Tesla. Il y a une forte demande pour ces batteries et aussi pour les rendre plus sûres, souligne Joseph DeSimone, professeur de chimie à l'Université de Caroline du Nord, qui a dirigé l'équipe de recherche. Les scientifiques cherchent depuis des années à remplacer cet électrolyte mais sans succès et personne n'avait jusqu'alors pensé à cette substance appelée perfluoropolyéther ou PFPE, comme électrolyte dans les batteries au lithium-ion, ajoute le professeur William Kenan, de l'Université de Caroline du Nord, un des co-auteurs de l'étude parue dans les Comptes rendus de l'Académie nationale américaine des Sciences (PNAS). Aujourd'hui, les batteries au lithium équipent de nombreux appareils, dans les ordinateurs portables, les téléphones mobiles, les avions de ligne et les voitures électriques, mais un liquide inflammable est utilisé pour l'électrolyte, expliquent ces chercheurs. Quand les batteries sont trop chargées, cet électrolyte prend feu, embrasant spontanément la batterie avec des conséquences potentiellement catastrophiques, précisent-ils. Ces chercheurs ont réalisé le potentiel du PFPE pour les batteries au lithium quand ils se sont rendus compte qu'il avait la même structure chimique qu'un électrolyte polymère déjà objet de recherches pour des batteries au lithium. Le PFPE est un polymère bien connu utilisé depuis longtemps comme lubrifiant pour des machines industrielles.Mais quand nous avons découvert que nous pouvions dissoudre du sel de lithium dans ce polymère tout a changé, explique Dominica Wong, une des chercheuses de l'équipe du professeur DeSimone. La plupart des polymères ne se mélangent pas à des sels, à l'exception du PFPE qui de plus est ininflammable, ce qui était inattendu, ajoute-t-elle. Dans le passé, les chercheurs avaient identifié d'autres électrolytes ininflammables pour les batteries au lithium-ion mais ceux-ci compromettaient les propriétés de la batterie. Désormais, l'équipe de recherche va se concentrer sur les moyens d'optimiser la conductivité de cet électrolyte et améliorer les cycles de recharge de la batterie, des étapes nécessaires avant une commercialisation, expliquent les auteurs de cette découverte. Romandie.ch 10FEV.2014
  8. Pékin (AFP) - La Chine a ouvert sa quatrième station de recherche dans l'Antarctique, une nouvelle étape dans le renforcement rapide de sa présence sur le continent blanc où elle a prévu de construire une nouvelle base d'ici début 2015. Evoquant par sa forme une soucoupe volante posée sur pilotis, la dernière station chinoise, baptisée Taishan, a été bâtie en 53 jours par une équipe de 28 personnes, selon l'Administration d'Etat des océans citée par l'agence Chine nouvelle. La Chine a ouvert sa quatrième station de recherche dans l'Antarctique, une nouvelle étape dans le renforcement rapide de sa présence sur le continent blanc où elle a prévu de construire une nouvelle base d'ici début 2015. (c) Afp Elle ne sera utilisée que l'été, de décembre à mars, la température moyenne annuelle sur place étant de -36,6°C. Le président chinois Xi Jinping a selon les médias d'Etat adressé un message de félicitation insistant sur l'importance des recherches scientifiques qui seront menées à Taishan, construite à 2.600 mètres d'altitude. Taishan, la 4e base chinoise dans l'Antarctique. AN XIN / IMAGINECHINA La Chine possède désormais sur le continent blanc, dans l'hémisphère austral, quatre bases: Changcheng (Grande muraille), Zhongshan, Kunlun et Taishan. Elle va y construire d'ici début 2015 une nouvelle station de recherche, a annoncé lundi dans un microblog la télévision d'Etat CCTV. Cette dernière fonctionnera de façon permanente. Une trentaine de nations disposent d'une station de recherche en Antarctique, où Pékin consacre d'importants efforts à renforcer la présence chinoise. De CCTV News 7Fév.2014 Ces efforts ont été illustrés il y a quelques semaines par l'assistance qu'a apportée un brise-glace chinois à un navire russe piégé par la banquise. De l'autre côté du globe, la Chine, premier consommateur d'énergie du monde, cherche par ailleurs à s'implanter en Arctique, dont elle convoite les vastes réserves d'hydrocarbures. Sciences et Avenir 10FEV.2014
  9. On peut dorénavant détecter les terres rares dans les fossiles et en déterminer la concentration. Anecdotique ? Non. Grâce à cette nouvelle méthode, on saura mieux interpréter la forme de certains fossiles, en particuliers les « plats ». Il était jusqu'à présent très difficile de lire les fossiles dits « plats ». Une nouvelle approche permettant de les analyser vient d'être mise au point par une équipe réunissant des chercheurs de l'unité Ipanema du Centre de recherche sur la paléobiodiversité et les paléoenvironnements ainsi que du synchrotron Soleil. Cette méthode non destructive s'appuie sur des éléments chimiques appelés terres rares : les localiser et les quantifier à l'état de traces suffit pour mieux décrypter la morphologie des fossiles. Les chercheurs ont ainsi pu décrire l'anatomie, mais aussi l'environnement à l'origine de la préservation de trois fossiles datant du Crétacé. Publiés le 29 janvier 2014 dans la revue Plos One, ces travaux devraient faciliter l'analyse des nombreux fossiles « plats », tout particulièrement ceux dits à conservation exceptionnelle dont l'anatomie est bien conservée. Quelques exemples de terres rares. Dans le sens des aiguilles d'une montre, en commençant par le noir : praséodyme, cérium, lanthane, néodyme, samarium et gadolinium. ARS-USDA, Wikipédia, DP Lors de la fossilisation, les restes d'animaux ou de plantes sont souvent aplatis, comprimés en deux dimensions par la pression des roches, ce qui constitue parfois un réel obstacle à l'étude de ces fossiles. Autre difficulté : ces restes écrasés subissent des modifications physicochimiques au cours de leur fossilisation, compliquant leur lecture. Or, ces fossiles peuvent receler des informations inestimables. En particulier, dans le cas des fossiles à conservation exceptionnelle, des tissus mous, tels les muscles, sont préservés. Mais localiser ces tissus reste particulièrement difficile du fait du contraste limité atteint en microscopie optique et des limites de la tomographie, techniques aujourd'hui couramment utilisées pour étudier les fossiles. Collège Jeanne d'Arc 19/2/2013 Des chercheurs du CNRS, du Muséum national d’histoire naturelle et du synchrotron Soleil ont imaginé et mis au point une nouvelle approche non destructive : elle repose sur la localisation de terres rares. Ces éléments chimiques (comme l’yttrium, les lanthanides) sont connus pour être contenus à l'état de traces dans les fossiles, typiquement de 1 à 1.000 microgrammes par gramme de matière. Or, selon le type de tissu, les quantités d'éléments traces incorporées lors de la fossilisation diffèrent. Cette fixation préférentielle permet de discriminer les parties anatomiques d'un fossile. Elle se matérialise par un contraste important des différents éléments chimiques selon les types de tissus du fossile lorsque celui-ci est caractérisé par imagerie de fluorescence X rapide sous rayonnement synchrotron. Pour accélérer l'analyse, l'équipe a proposé une méthode rapide de différenciation des tissus, fondée sur la nature probabiliste des données mesurées. La répartition des terres à la fin du Crétacé, soit voilà 90 millions d’années. Ron Blakey, NAU Geology, cc by sa 3.0 Les scientifiques ont appliqué cette approche à trois fossiles (deux poissons et une crevette) découverts au Maroc et datant du Crétacé supérieur, il y a environ 100 millions d'années. Les contrastes ainsi mis en évidence permettent de distinguer les « tissus durs » (os ou cuticules) des « tissus mous » (muscles ou autres organes fossilisés). Ils ont notamment permis de révéler des particularités anatomiques, jusqu'ici cachées, d'un poisson fossile connu par un unique spécimen, dont l'un des os du crâne a pris la forme d'une large lame dentée. 360tfo 31/10/2013 Cette nouvelle approche permet de visualiser en détail et avec précision l'anatomie d'un fossile sans le dénaturer et sans avoir besoin de préparer finement l'échantillon au préalable. Elle est particulièrement adaptée aux fossiles aplatis, car les rayons X pénètrent quelques fractions de millimètre à l'intérieur du fossile. Cette technique a également révélé certains os cachés sous une fine couche de roche, permettant ainsi leur visualisation directe. Elle a permis par exemple de visualiser certains appendices cachés d'une crevette fossile, tels que les pattes ou les antennes, qui portent des informations importantes pour étudier ses relations de parenté avec les autres crevettes. Par ailleurs, les teneurs en terres rares reflètent l'environnement dans lequel un fossile est préservé : la connectivité aux réseaux d'eau environnants, les conditions physicochimiques locales et les propriétés des phases minérales constituant les fossiles, qui peuvent ainsi être mieux décrites. Observatoire Midi-Pyrénées 18/10/2013 Ces travaux devraient donc faciliter l'interprétation des fossiles plats très fréquents dans le registre fossile. Ils ouvrent de nouvelles perspectives pour les études paléoenvironnementales, mais également pour mieux comprendre les processus de fossilisation à long terme. NTDFrench 27/7/2012 Futura Sciences 1erFév.2014
  10. Il y a un an, 35 % des sondés répondaient oui à la question "Pour la production de chaleur et d'électricité, faut-il encourager en France le gaz de schiste ?". Moins d'un quart (24 %) des Français sont favorables au développement du gaz de schiste comme source d'énergie en France, soit 11 points de moins que l'an passé, selon un sondage publié mercredi. Cette enquête montre aussi que le soutien des Français à toutes les formes d'énergie décline, même si les énergies renouvelables sont encore plébiscitées. À la question "Selon vous, pour la production de chaleur et d'électricité, faut-il encourager en France le gaz de schiste ?", 24 % (6 %, "oui tout à fait" et 18 %, "oui plutôt") répondent par l'affirmative, contre 35 % il y a un an, selon le baromètre annuel Qualit'EnR-Ifop. Forage à Fort Worth, dans le nord du Texas, une ville pionnière dans l'exploitation des gaz de schiste. Jill Johnson Les sondés sont au total 63 % à répondre "plutôt non" (25 %) ou "non, pas du tout" (38 %), tandis que 13 % sont sans opinion au sujet de cette énergie. Les énergies renouvelables caracolent de nouveau dans les souhaits des Français, avec 90 % de soutien global et seulement 6 % d'opposants à leur développement. Le soutien recule toutefois de six points sur un an. Suit le gaz naturel (conventionnel, qui est distingué du gaz de schiste dans l'enquête, bien que celui-ci soit aussi du méthane), avec 66 % de soutien, mais celui-ci baisse de 14 points en un an. 28 % des sondés sont défavorables à son développement. Le nucléaire arrive en troisième position, avec un soutien global de 45 % (moins 9 points) et 48 % d'opposants. Seuls le charbon (21 %, moins 22 points) et le fioul (21 %, moins 11 points) issu du pétrole, les deux énergies les plus émettrices de CO2, se placent derrière les hydrocarbures de schiste. Au final, toutes les énergies voient leur soutien décliner dans l'opinion. Côté portefeuille, 91 % des sondés (baisse de 2 points sur un an) disent que leur facture énergétique (toutes énergies confondues) est "très élevée" (34 %) et "assez élevée" (57 %). En revanche, ils ne sont plus que 78 % à penser que leur facture énergétique va augmenter au cours des deux prochaines années, contre 88 % début 2013. 6 % des sondés la voient baisser et 16 % rester stable. Le sondage a été effectué du 2 au 6 janvier sur un échantillon représentatif de 1 004 personnes, via un questionnaire en ligne. Le Point 29JAN2014
  11. Près de 4 ans après la catastrophe de la plateforme Deepwater Horizon, le 21 avril 2010 dans le golfe du Mexique, des chercheurs ont réussi à analyser les résidus de pétrole présents sur les plages. C’est une première. Jusqu’à présent, les chimistes n’avaient pas à réussi à analyser le contenu des "boulettes" résiduelles de pétrole telles qu’on les retrouve sur les plages des mois après les naufrages. "Si l’on connaît bien la composition d’un pétrole brut puisqu’elle est analysée lors de l’arrivée en raffinerie, on ne sait en revanche pas grand-chose du comportement des hydrocarbures ayant passé beaucoup de temps dans l’eau de mer ou au contact de l’air" précise Samuel Arey, professeur à l’Ecole Polytechnique de Lausanne (Suisse) et co-auteur de l’étude parue dans les PNAS le 22 janvier. Des résidus de pétrole, prélevés sur une plage des États-Unis, après la marée noire provoquée par Deepwater Horizon. EPFL Les boulettes dont le mélange a une consistance et une composition proche du goudron ont livré leur secret grâce à de nouvelles méthodes d’analyses menées conjointement par l’Ecole Polytechnique et le Woods Hole Oceanographic Institution américain. Après évaporation et dilution de 52% de la masse totale, restent les éléments les plus hydrophobes, des graisses saturées provenant des trois principaux composants du pétrole, les résines, les hydrocarbures aromatiques et les hydrocarbures saturés. Leur devenir dans l’environnement est très différent. - Les aromatiques se dégradent plus facilement et ne représentent plus que 4% de la masse émise au départ du puits, contre 29% dans la composition d’origine. - Les hydrocarbures saturés offrent une meilleure résistance à la dégradation. Ces molécules sont extrêmement toxiques car elles se fixent dans les graisses des organismes vivants. - Enfin, les hydrocarbures oxygénés - provenant des résines - se révèlent les plus persistants car ils représentent plus des deux tiers des éléments restants dans une boulette : "on ne comprend pas encore très bien les effets à large échelle des graisses saturées et des hydrocarbures oxygénés sur l’écosystème marin, alors même que ces éléments constituent la plus grande part des résidus persistants que nous avons analysé" déplore Samuel Arey. Avec les molécules mises en évidence et leurs proportions, les éco-toxicologues vont pouvoir mieux évaluer les effets de ces résidus sur l’environnement, leur degré de toxicité, leur facilité à pénétrer dans la chaîne alimentaire et affecter la santé des organismes vivants. Les effets de la catastrophe sont toujours en cours d’évaluation. Le volume même de pétrole dispersé dans l’environnement, estimé à 535.000 tonnes, est toujours en cours de discussion. De nombreux scientifiques continent de suivre l’évolution des espèces marines afin de détecter des anomalies. Ainsi, une étude sur la santé des grands dauphins (Tursiops truncatus) du Golfe du Mexique menée par une cinquantaine d’organismes publics et d’ONG publiée en décembre 2013, a révélé un état sanitaire très mauvais de ces cétacés. Les dauphins souffrent notamment de désordres hormonaux et de maladies respiratoires. Sciences et avenir 26/1/2014
  12. Des collections de venin ont été retrouvées en Australie et analysées : les résultats indiquent que les venins sont toujours dangereux et peuvent constituer une source de molécules utiles pour la recherche pharmaceutique. C’est Bryan Fry, de l’université du Queensland, qui a dirigé cette étude dont les résultats sont publiés dans le Journal of Proteomics. [i]Le taïpan du désert, qui vit en Australie, est le serpent le plus venimeux du monde. XLerate[/i] "Les venins que nous avons étudié proviennent d’une collection inestimable appartenant à Struan Sutherland. C’est un témoignage de son impact continu sur la recherche sur les venins en Australie, longtemps après sa mort" explique le scientifique. Le Dr Sutherland a durant des dizaines d’années collecté et stocké des échantillons de venin de serpents d’Australie et du monde entier. Parmi les venins analysés certains sont extrêmement rares comme celui du Taïpan du désert, le serpent le plus venimeux du monde, recueilli en 1950 par Kevin Budden. "Le jeune homme qui a recueilli le venin de Taïpan a été mordu dans le processus mais, héroïquement, il a fait en sorte que le serpent puisse être expédié à l’université avant d'aller à l'hôpital, où il est décédé peu de temps après" - Bryan Fry, université du Queensland. D’autres venins appartiennent à des espèces disparues ou menacées et représentent parfois le seul exemplaire disponible. "C'était un honneur de travailler avec de tels échantillons en raison de leur immense signification historique" reprend Bryan Fry. À l’origine, ces venins ont été rassemblés pour la production de sérum antivenimeux mais ils "restent scientifiquement utiles pour des décennies. Ils sont une source de composés inexplorée qui pourraient être utilisés dans la découverte et le développement de médicaments" renchérit le chercheur. Plusieurs venins ont déjà servi à développer de nouveaux traitements. C’est le cas d’un hypertenseur, le Captopril, dérivé du venin de jararaca(qui vit sur une île proche du Brésil) et du Byetta, un traitement du diabète de type 2, dont le principe actif est présent dans de nombreux venins. "Les venins sont très variables de sorte que chaque échantillon est une ressource précieuse qui pourrait contenir le a prochain médicament miracle" conclut Bryan Fry. sciences et avenir 21jan.2014
  13. Il faut convoquer les pensées des plus grands auteurs du siècle pour dire l’étonnement face au merveilleux spectacle d’un triple soleil dans le ciel de Moscou. La vidéo ci-dessous a été réalisée dans le métro moscovite. Le phénomène est très rare et s’appelle parhélie. By Mick's Best 19Jan2014 Un parhélie est un phénomène optique, lié à celui du halo solaire, consistant en l'apparition de deux répliques de l'image du soleil, placées horizontalement de part et d'autre de celui-ci. Photographie d'un parhélie prise le 16/08/2010 à 20h39 à l'entrée du golf du Morbihan par JEMARCO cc-by-SA-3.0 20 Minutes.fr 21jan2014
  14. De mystérieuses vagues sous-marines ont enfin révélé leur origine. Au détroit de Luçon, entre Taïwan et les Philippines, les plus grosses marées internes sont produites et influençent le climat ainsi que la biodiversité environnante. À l’aide de la plateforme Coriolis de Grenoble, une équipe internationale montre que ces ondes sont générées par l’ensemble du système de crêtes sous-marines du détroit, une découverte qui permettra dès ce mois-ci d’inclure ces marées dans les modèles de prévision climatique. Elles ne sont pas perceptibles en surface, pourtant les marées internes dans les océans peuvent bouleverser le climat et l’écosystème qu’elles parcourent. Compte tenu de leur invisibilité, l’origine des ondes internes océaniques est encore mystérieuse. Elles peuvent être générées par l’interaction de la marée avec la topographie du plancher océanique, ou bien de façon totalement aléatoire. Le passage d’un bateau par exemple génère ce type d’ondes, omniprésentes dans l’océan. Dans le détroit de Luçon, situé entre les Philippines et Taïwan, sont générées les plus fortes ondes internes identifiées dans le monde. Aujourd’hui, une équipe de recherche a réussi à en préciser l’origine, et discute ses résultats dans la revue Geophysical Research Letters. Les ondes internes peuvent parfois être vues clairement par imagerie satellite (comme à l'image le détroit de Luçon). C’est possible car les ondes internes créent une alternance de régions rugueuses et lisses du plancher océanique qui s’associent aux crêtes des ondes internes. La lumière du soleil reflète les sections lisses, apparaissant comme des arcs blancs. Nasa Pendant longtemps, ces ondes ont été considérées comme du bruit, venant perturber les mesures océanographiques. Aujourd’hui, il apparaît qu’elles auraient un rôle clé dans la dynamique du climat. Au détroit de Luçon, elles sont grandes, d’une amplitude de près de 200 m et se déplacent de quelques centimètres par seconde. « Elles sont les mastodontes de l’océan, les ondes internes les plus puissantes jamais découvertes », explique Thomas Peacock, impliqué dans l'étude. À l’interface entre les eaux, plus chaudes de surface, et les eaux plus denses et froides, des ondes internes peuvent être générées et mélanger ces deux couches. Dans cette couche limite, les ondes internes peuvent faire plonger les eaux chaudes en profondeur, et enfouir la chaleur de l’atmosphère. Cette animation montre les couches de densité dans la mer de Chine méridionale, perturbées par le flux de la marée régulier de va-et-vient à travers le détroit de Luçon (Luzon, en anglais). Cela génère de grandes ondes internes (en rouge sous l’eau, et en blanc pour la vue de dessus). MIT La simulation des ondes internes est l’une des données manquantes dans la modélisation du climat. Actuellement, les modèles ne les considèrent pas car il n’existe aucune méthode de description générale. Comprendre donc comment elles sont générées et quel est leur impact sur le climat est fondamental. C’est dans ce contexte qu’une équipe internationale, issue d’une collaboration entre l’université de Grenoble et le MIT, a mené une vaste étude sur les ondes du détroit de Luçon. Les chercheurs ont d’abord étudié, à partir des données satellites et de terrain, les ondes internes dans leur milieu naturel. Simulation haute résolution de la circulation océanique et marée modèle. Ce modèle est celui d'Ocean Institute Max-Planck (MPI-OM). La vidéo montre la perturbation de la marée interne à des profondeurs de 690 mètres. Les vagues vues dans cette vidéo font autour de 10-60 mètres de large. SciOcean 18/9/2012 La topographie du bassin entre Taïwan et les Philippines est complexe, elle génère des ondes solitaires s’étendant sur plusieurs centaines de kilomètres qui se propagent depuis le détroit vers la mer de Chine. En vue d’identifier l’influence des différents facteurs, tels que la stratification de l’océan, le forçage de la marée et le lien avec la topographie, l’équipe a reproduit la dynamique de ce détroit à grande échelle à la plateforme Coriolis, à Grenoble. C’est une table tournante de 13 m de diamètre, la plus grande au monde. Pour reproduire le forçage de la marée, l’équipe a généré un écoulement oscillant sur une maquette du détroit. Animation de la température à 215 m de profondeur (à gauche), et les effets de température (en haut à droite), la vitesse le long du détroit (au milieu à droite) et la vitesse à travers le détroit (en bas à droite), à traver le déroit, le long le long d'une section (marquée par la ligne blanche dans le panneau de gauche). L'animation montre une grande amplitude des marées internes à travers un passage étroit. Peter Oke 16/12/2013 Les expériences ont montré que ces ondes sont générées par le système de crêtes sous-marines de cette zone du fond marin, et non pas un pic de crête en un point donnée des lignes de crêtes. La géométrie du détroit génère donc un certain type de marée, et ce de façon systématique. Ces nouveaux résultats améliorent la compréhension des mécanismes de génération des ondes internes. D'après Thomas Peacock, « ces ondes sont potentiellement le mécanisme clé pour transférer la chaleur de l'océan supérieur dans les profondeurs ». L’équipe se réunira en janvier avec une équipe de modélisateurs pour intégrer ces découvertes dans les modèles climatiques. Futura Sciences 11JAN2014
  15. Wellington (AFP) - L'ampleur et la complexité des secours apportés au navire russe bloqué par les glaces en Antarctique pendant deux semaines soulignent les risques inhérents aux voyages touristiques dans ce continent aux conditions extrêmes, selon les experts. L'Antarctique est une des dernières frontières, offrant aux touristes --fortunés-- une immensité virginale de neige, glace et banquises, peuplée de baleines, de phoques et de manchots. TO GO WITH AFP STORY BY NEIL SANDS L'ampleur et la complexité des secours apportés au navire russe bloqué par les glaces en Antarctique pendant deux semaines soulignent les risques inhérents aux voyages touristiques dans ce continent aux conditions extrêmes, selon les experts. (c) Afp. Mais comme l'ont découvert les passagers du bateau russe Akademik Chokalskiï, le blizzard, les icebergs, une météo extrême et des mers dangereuses peuvent aussi faire partie du programme. Et sur ce continent isolé, les secours ont des milliers de kilomètres à parcourir avant d'arriver sur place. L'affaire de l'Akademik Chokalskiï "doit en effet nous rappeler qu'il s'agit d'un environnement extrême, que ce soit pour les expéditions scientifiques ou les croisières touristiques", déclare à l'AFP Daniela Liggett, spécialiste de la réglementation pour le tourisme en Antarctique à l'université de Canterbury, en Nouvelle-Zélande. De moins de 5.000 en 1990, le nombre de touristes atteint aujourd'hui les quelque 35.000 par an, selon les chiffres de la profession. La plupart arrivent par mer, payant jusqu'à 15.000 euros pour une cabine de luxe en haute saison (novembre à mars). D'autres admirent le paysage depuis les airs, dans un avion. Par DuWebInfo 27 jul.2013 Le premier séjour touristique en Antarctique date de 1958: une centaine de passagers avaient payé leur place à bord du navire argentin Les Eclaireurs. Depuis, beaucoup s'alarment de l'impact de ces visites sur un continent vierge et fragile et des difficultés à venir en aide aux bateaux pouvant se trouver en difficulté. "L'isolement est une spécificité de l'Antarctique et si quelque chose arrive à un gros bateau, et bien il sera quasiment impossible de venir en aide à tous les passagers rapidement", note Daniela Liggett. Les équipes de secours traditionnelles se trouvent à des milliers de kilomètres et l'aide retombe souvent sur les navires des expéditions scientifiques, perturbant des missions minutieusement préparées en raison de la brièveté de l'été austral. Par ARTEplusSEPT 12 nov.2013 Yves Frenot, directeur de l'Institut polaire français Paul-Emile Victor, s'était indigné la semaine dernières des perturbations subies par les scientifiques français, chinois ou australiens, pour venir en aide à un bateau de touristes. "Il n'y a aucune raison de mettre l'Antarctique sous cloche et de le garder uniquement pour les scientifiques, mais il faut que ce tourisme soit contrôlé et encadré, de sorte qu'on soit certain de pouvoir porter secours en cas de souci", avait-il déclaré. L'Akademik Chokalskiï s'était retrouvé coincé la veille de Noël à une centaine de km de la base française Dumont d'Urville. Un brise-glaces chinois, venu à sa rescousse, avait alors lui aussi été piégé par les glaces. Les deux bâtiments sont finalement parvenus à s'extirper de la banquise cette semaine. Par serge123456789100 17 mai.2012 L'Astrolabe, le navire français qui ravitaille Dumont d'Urville pendant l'été austral, a été réquisitionné plusieurs jours, de même que le navire scientifique des Australiens. La bateau russe comptait à son bord des touristes et des scientifiques venus reproduire un siècle plus tard les expériences de l'explorateur australien Douglas Mawson. "Une expédition pseudo-scientifique" selon Yves Frenot. Les navires de croisière avalisés par l'Organisation internationale des organisation touristiques en Antarctique (IAATO) naviguent souvent par paire, afin de pouvoir se porter secours en cas de pépin, indique Daniela Liggett. Ces croisières veillent à abimer le moins possible l'environnement, assure-t-elle. "Elles vendent à leurs clients des paysages, la vie sauvage et un environnement intact. C'est dans leur intérêt de préserver tout ça". Par VIDEOPOLES 23 fév.2008 Les bateaux de tourisme appliquent des mesures sévères de décontamination afin que les passagers n'apportent pas à terre des espèces exogènes ou des microbes, indique Amanda Lynnes, porte-parole de l'IAATO. Les bateaux transportant plus de 500 passagers ne les font pas descendre à terre. Les touristes deviennent à leur retour d'ardents défenseurs pour la protection du continent blanc, ajoute la porte-parole. "Les visiteurs (...) deviennent des ambassadeurs de bonne volonté pour la conservation de cette immensité vierge". Par euronews (en français) 8 jan.2014 L'industrie du tourisme est aujourd'hui bien établie et les autorités doivent donc s'assurer qu'elle agisse de manière responsable, souligne-t-elle. Sciences et Avenir 10 jan.2014
  16. Paris (AFP) - Les opérations de sauvetage du navire russe piégé en Antarctique perturbent les activités liées à la recherche, intenses en cette période d'été austral, a déploré vendredi le patron de l'Institut polaire français (IPEV), en plaidant pour un meilleur encadrement du tourisme dans la zone. Carte de localisation du navire russe bloqué en Antarctique à 100 milles nautiques de la base Dumont d'Urville (c) Afp "Il n'y a aucune raison de mettre l'Antarctique sous cloche et de le garder uniquement pour les scientifiques, mais il faut que ce tourisme soit contrôlé et encadré, de sorte qu'on soit certain de pouvoir porter secours en cas de souci", a indiqué à l'AFP Yves Frenot, directeur de l'Institut polaire français Paul-Emile Victor, qui met en oeuvre les programmes de recherche dans la région. Jeudi, les 52 passagers du MV Akademik Chokalskiï - des scientifiques, des touristes et des journalistes australiens, britanniques et néo-zélandais - ont été évacués par hélicoptère grâce à l'intervention de deux bateaux, un australien et un chinois. Les 22 membres d'équipage sont eux restés à bord du bateau, piégé depuis le 24 décembre à 180 kilomètres à l'est de la base française Dumont d'Urville. Le navire chinois était à son tour en difficulté vendredi, cerné par la banquise. L'Astrolabe, le navire français qui ravitaille Dumont d'Urville pendant l'été austral (entre octobre et mars environ), a aussi été réquisitionné une semaine par les secours. S'il juge "tout à fait normal" de porter assistance à un bateau en difficulté, Yves Frenot déplore le temps perdu pour secourir une "expédition pseudo-scientifique". Les passagers du navire russe reproduisaient l'expédition historique menée dans l'Antarctique il y a un siècle par l'explorateur australien Sir Douglas Mawson. Pour M. Frenot, "ce genre d'expédition commémorative n'a aucun intérêt du point de vue scientifique". "L'expédition a été présentée comme scientifique, alors qu'il y a surtout des touristes à bord, qui ont payé pour faire le voyage", renchérit dans le quotidien Le Monde daté de samedi le glaciologue Jérôme Chappellaz, du Laboratoire de glaciologie et de géophysique de l'environnement (LGGE) de Grenoble. En raison de ces opérations, les Français ont d'ores et déjà annulé une campagne océanographique de quinze jours prévue en janvier. "Mais on a de la chance. Pour les Chinois, toute l'activité scientifique prévue est fichue et mon collègue directeur de l'Institut polaire australien est fou furieux, parce que toute sa campagne tombe à l'eau...", commente M. Frenot. L'Antarctique abrite quelque 80 bases scientifiques dont une quarantaine permanentes situées en très grande majorité sur les côtes (seules trois sont situées à l'intérieur). Le ravitaillement de ces stations par voie maritime ne peut avoir lieu que durant l'été austral. "Si on veut que ces bases fonctionnent toute l'année, il est indispensable de les ravitailler pendant cette courte fenêtre en nourriture et en fioul", explique le patron de l'Institut polaire français. Le détournement de ces navires ravitailleurs pour des opérations d'assistance peut ainsi "mettre en péril" le ravitaillement des bases, ajoute-t-il. D'autant que l'approvisionnement de Dumont d'Urville est déjà perturbé depuis trois ans par les accumulations de glaces de mer dans la zone, consécutives à la rupture d'un important glacier côtier en février 2010. SCIENCES ET AVENIR 3 JAN 2014
  17. Dimanche, les autorités du Salvador ont évacué tous les habitants de la zone située à moins de trois kilomètres du volcan Chaparrastique, près de la ville de San Miguel. En effet, le volcan s’est réveillé, éjectant dans le ciel un immense nuage de gaz et de cendres. Après plus de 10 ans de sommeil, le volcan Chaparrastique s'est réveillé ce week-end au Salvador. Situé à 50 km de la ville de San Miguel et à environ 145 km à l'est de San Salvador, le mont qui culmine à 2.129 mètres a rejeté un immense nuage de gaz et de cendres qui a complètement obscurci le ciel dimanche. By GabeHashTV 29 déc.2013 L'éruption a forcé les autorités du Salvador à passer en alerte jaune et mettre en place des mesures d'urgence. Plusieurs villages étant situés non loin du volcan, plusieurs milliers d'habitants ont dû être évacués par sécurité. "Nous avons évacué les villages situés dans un rayon de trois kilomètres autour du volcan", a indiqué le directeur de la défense civile salvadorienne, Jorge Melendez repris par l'AFP. Des abris d'urgence ont été ouverts mais plusieurs refusent de quitter leur résidence, a-t-il expliqué. De son côté, le ministère de la Santé fait savoir que deux personnes ont été conduites à l'hôpital pour des problèmes respiratoires liés à l'éruption. "Nous fournissons une assistance aux personnes évacuées et nous leur demandons de se protéger contre les gaz, qui peuvent affecter le système respiratoire", a déclaré Eduardo Espinoza, un responsable du ministère. Le moment précis où le volcan explose. By esmitv | TCS El Salvador 29 déc.2013 Selon le ministère de l'Environnement, l'éruption a démarré aux alentours de 10h30 du matin et la colonne de cendres faisait environ 5 kilomètres de haut. Les premiers enquêteurs envoyés sur place n’ont pour le moment pas détecté de lave fraîche. Toutefois, ils n'excluent pas que le Chaparrastique entre de nouveau en éruption. "Nous ne sommes pas sûrs qu'il y aura de nouvelles éruptions mais nous ne pouvons pas non plus écarter cette possibilité", a indiqué à la télévision le président Mauricio Funes. Les habitants ont été invités à ne pas s'approcher du volcan et à ne pas boire d'eau de source. Par ailleurs, plusieurs vols en provenance d'autres pays ont dû être détournés, d'autres ont été annulés. La dernière éruption du Chaparrastique remonte à 2012 lorsque le volcan avait éjecté de la lave qui s'était déversée sur les routes voisines. Gentside 30 déc.2013
  18. Publiant leurs travaux dans Proceedings of the Royal Society B., des chercheurs danois ont testé, via des modélisations, plusieurs méthodes de pêche pour en évaluer leur bilan économique et écologique. Les techniques de pêche sont aujourd'hui au centre d'un vaste débat. Alors que l'Europe vient de refuser d'interdire le chalutage en eaux profondes accusé de causer d'importants dégâts sur les fonds marins, des questions se posent. Quels sont les modes de pêche les plus écologiques et respectueux de la nature ? Trouver des méthodes de pêche durables BY CNN 14 OCT.2012 Le "prélèvement équilibré" est une nouvelle proposition pour la gestion des populations halieutiques exploitées. Le concept est d'équilibrer pêche et production de biomasse. Une pêche équilibrée est non sélective et touche principalement les individus petits - et souvent immatures - plus que les gros poissons. Mais le concept est controversé, car il autorise la prise de jeunes individus avant qu'ils n’aient une chance de se reproduire. Pour évaluer son impact, Nis S. Jacobsen, Henrik Gislason et Ken H. Andersen, de l’Université technique du Danemark ont mené une nouvelle étude. Ils ont utilisé une modélisation basée notamment sur la taille pour comparer le prélèvement équilibré au prélèvement sélectif traditionnel, qui épargne les juvéniles. "Nous constatons que le prélèvement non sélectif équilibré peut fournir un peu plus de protéines et un peu moins de perturbations à la communauté des poissons qu'un modèle traditionnel de pêche sélective", explique Nis S. Jacobsen. Bien que la législation définisse la taille minimale exploitable pour chaque espèce, les contrôles ne sont jamais ou rarement effectués par les autorités portuaires ou le ministère de la pêche. Cela entraîne la capture de poissons n'ayant pas encore atteint la maturité sexuelle, conduisant inévitablement à une réduction significative des stocks de poissons. archipelagogr 29 JUL. 2009 Toutefois, les prises de la pêche non sélective équilibrée sont dominées par les petits individus alors que la pêche sélective prend une proportion beaucoup plus élevée de grands individus. "Les prises se composent pour la plupart de très petits poissons qui impliquent des prix bas et ne conviennent pas au marché occidental", souligne Nis S. Jacobsen. Donc, "même si le prélèvement équilibré a de bonnes propriétés, ce n’est probablement pas une stratégie faite pour la gestion des pêches en Occident", conclut-il. Différentes méthodes de pêche à la ligne. Minute Forme 16 AUG.2013 °°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°°° La pêche est un enjeu important pour l'avenir. Les méthodes utilisées sont donc importantes pour garantir le futur. A mon sens, il serait de bon ton de revenir un peu en arrière et tant pis pour les finances de quelques grands groupes agro-alimentaires. ! Parce que ce sont eux qui nous ont vanté et vendu des espèces inhabituelles il y a seulement quelques années, lesquelles vivaient bien tranquillement. C'est exactement la même chose pour d'autres produits que nous n'avions pas (par ex. tél. portable), quelques campagnes marketing à l'appui et aujourd'hui pratiquement personne ne pourrait vivre sans ! Le besoin a pourtant été créé de toute pièce ! C'est quelque part la même chose pour certains produits alimentaires ! GENTSIDE 29.DEC.2013
  19. Une lampe qui reste allumée même une fois le courant coupé ? Voici l’objectif de Smart Charge, une ampoule à Led qui pourrait à l’avenir équiper nos maisons, pour éviter de se retrouver dans le noir quand les plombs sautent. Smart Charge, un système qui permet de toujours rester éclairé, même en cas d'absence d'électricité, essaie en ce moment de lever des fonds sur le site de financement participatif Kickstarter. Le projet Smart Charge, qui espère être financé par l'intermédiaire du financement participatif, propose une ampoule capable de rester allumée même en cas de coupure de courant. iFi Systems LLC L'ampoule proposée est dotée de son propre circuit électrique et d'une batterie pour une totale autonomie. De plus, sa technologie est capable de détecter si l'interrupteur était allumé ou éteint avant la coupure d'électricité. Sa lampe est compatible avec les douilles électriques existantes et avec les interrupteurs de la maison. En cas de coupure de courant, l'ampoule se rappellera si elle était allumée ou éteinte et restera dans cette position, à moins qu'on touche à l'interrupteur. Cette lampe à Led économe en énergie peut fonctionner jusqu'à 40.000 heures (soit 25 ans pour une utilisation normale),ou plusieurs pannes d'électricité. Smart Charge est né de l'imagination du designer Shailendra Suman, de Caroline du Nord, à qui l'on doit la jauge de réservoir à propane Gas Watch. Le prototype de l’ampoule a nécessité deux années de développement, mais les premiers exemplaires devraient être fabriqués en janvier prochain et envoyés dans la foulée en avril. FUTURA SCIENCES 29 DEC.2013
  20. Voilà de quoi ravir les passionnés de météo ou de climatologie. Sur le site internet Earth, on peut observer les cartes des vents en temps réel pour toutes les régions du monde. En fonction de l’altitude, on peut par exemple étudier les systèmes dépressionnaires, les courants-jets ou même les mouvements stratosphériques. La souris en main, l’internaute peut se faire une opinion du temps qu’il fera demain…. Sur le site internet Earth, on peut étudier la répartition des vents, comme dans le système dépressionnaire qui menace actuellement la France. Capture d'écran, http://earth.nullschool.net/ De l’aviateur au béotien (ignorant), en passant par le marin, beaucoup trouveront un intérêt à ce nouveau site internet interactif. Nommé Earth * (Terre en français), il fournit à l’échelle mondiale les données du vent en temps réel et est actualisé toutes les trois heures. Avec quelques clics, l’internaute peut se promener dans toutes les régions du monde et étudier les données passées, actuelles ou les prévisions concernant la circulation atmosphérique. En cliquant sur le mot Earth, en bas de la page, l’internaute se voit proposer différentes options. D’abord, il peut choisir d’afficher l’heure locale (il donne l’heure du pays où l’internaute se trouve) ou l’heure UTC. Ensuite, il peut choisir d’afficher les données disponibles pour différentes surfaces isobares : 1.000, 850, 700, 500, 250, 70 et 10 hPa. Chacune d’entre elles correspond à des conditions particulières. Actuellement, l'île de la Réunion est alerte cyclonique. Sur le site internet Earth, on observe très bien le système dépressionnaire. On peut choisir différentes surfaces isobares et jauger l'étendue verticale de la dépression. Capture d'écran, earth.nullschool.net Les 1.000 hPa caractérisent les conditions à une altitude d’environ 100 m. En choisissant cette surface, on obtient les données du vent de surface. Les isobares 850 hPa et 700 hPa se trouvent respectivement en moyenne à 1.500 et 3.500 m d’altitude. Elles caractérisent les frontières de la couche limite planétaire. Cette dernière est très importante, car c’est la zone où le frottement de l’air devient nul, le vent s’accélère et s’approxime au vent géostrophique. Dans cette couche, l’atmosphère est influencée par le sol, et répond à l’échelle synoptique. Elle est primordiale pour la prévision météorologique. Les vents à 500 hPa, soit environ 5.000 m d’altitude, donnent des informations sur les mouvements atmosphériques de grande échelle tandis qu’à 250 hPa, on peut observer les courants-jets, ces vents forts à la limite de la troposphère. Les avions les utilisent parfois pour se déplacer plus rapidement. Les surfaces 70 et 10 hPa concernent respectivement la limite avec la stratosphère à 17,5 km de haut et la stratosphère à 26,5 km.[b] Avec ce panel de surfaces isobares, l’internaute peut donc observer les systèmes dépressionnaires, la circulation atmosphérique générale ou les courants-jets, et se faire au moins une idée de la redistribution de l’énergie disponible sur Terre.[/b] Cette projection du vent est basée sur les données des National Centers for Environmental Prediction (Ncep), issues du centre de recherche atmosphérique américain le NCar. Ce sont des réanalyses, c'est-à-dire qu’elles génèrent un jeu de données à partir des observations disponibles, sur une longue échelle de temps. Les prévisions sont calculées avec le Global Forecast System (GFS), c’est un modèle de prévision utilisé par le National Weather Service des États-Unis. C’est l’équivalent du modèle Méso-NH que Météo-France utilise pour prévoir le temps de demain. Passionné de météo ou simplement curieux, ce site internet devrait en intéresser plus d’un. Il est ludique, mais nécessite de passer un peu de temps. Il offre tout un panel de vues différentes, le zoom sur une région est tout à fait possible, on peut par exemple observer très clairement la dépression qui touche actuellement le Royaume-Uni mais qui pourrait devenir explosive et rendre le temps de Noël en France très menaçant. * Cliquez sur le mot Earth pour accéder au site. FUTURA SCIENCES 23 DEC 2013
  21. AGUARICO (Equateur) - L'eurodéputé français Jean-Luc Mélenchon s'est rendu en Equateur pour soutenir la campagne du président socialiste Rafael Correa contre le pétrolier américain Chevron, qui conteste le paiement d'une amende record pour pollution en Amazonie. Désormais, je me sens engagé dans la lutte concernant le cas Chevron. Je vais être une sorte d'ambassadeur du peuple équatorien face à Chevron, a lancé le co-président du Parti de Gauche, qui s'exprimait en espagnol. Proche de plusieurs dirigeants de la gauche latino-américaine, M. Mélenchon s'est déplacé à Aguarico dans la province amazonienne de Sucumbios (nord-est), où il a symboliquement plongé la main dans une mare de pétrole sauvage, a constaté un photographe de l'AFP. Chevron savait ce qu'il faisait, ce n'est pas un accident. ils savaient qu'ils étaient en train de causer une contamination géante et que cette contamination persistrait de nombreuses années après la fin de l'exploitation, a souligné l'ancien candidat à la présidentielle française. Poursuivi à l'origine par quelque 30.000 indigènes et agriculteurs, qui dénoncent des cas de cancers et de maladies due à la contamination de l'eau, le géant pétrolier américain conteste être à l'origine de cette pollution qu'il attribue à la compagnie d'Etat équatorienne Petroecuador. Au total, la compagnie a été condamnée à une amende de 9,5 milliards de dollars pour ces déjâts environnementaux attribuée à Texaco qui y a démarré ses opérations dans les années soixante et qui a été racheté en 2001 par Chevron. Plusieurs procédures devant les tribunaux par Chevron qui affirme que le jugement équatorien est entaché de corruption et que Texaco s'est déjà acquitté des coûts de nettoyage après avoir mis fin à ses activités. L'amende de Chevron en Equateur représente l'une des plus fortes dans l'histoire du droit de l'environnement, dépassant celle de 4,5 milliards de dollars infligée à ExxonMobil pour la marée noire de l'Alaska en 1989. Suite au refus de Chevron de payer cette amende, le président , un dirigeant socialiste aux relations conflictuelles avec les États-Unis, a lancé une campagne internationale de boycottage des produits de Chevron. D'autres personnalités ont déjà affiché leur soutien aux autorités de Quito comme l'acteur américain Danny Glover qui s'est également rendu récemment en Amazonie. romandie 18 déc.2013
  22. À quoi le désert de Gobi doit-il sa taille actuelle ? Certainement pas à l’Himalaya et au plateau tibétain nous dit une nouvelle étude, puisqu’ils sont apparus trop tôt que pour avoir un rôle à jouer. Non, le climat régional affectant l’Asie centrale serait plutôt lié à l’orogenèse de deux autres massifs montagneux : les monts Khangaï et l’Altaï. L’Asie centrale est en grande partie une région aride, comme en témoigne l’existence du désert de Gobi. Selon la théorie actuellement admise, son climat actuel se serait développé voici 45 millions d’années, à la suite de l’orogenèse de l’Himalaya et du plateau tibétain. L’Everest et ses acolytes sont notamment accusés de bloquer les masses d’air humide qui remontent depuis l’océan Indien. Pour sa part, le plateau tibétain serait impliqué dans un phénomène de subsidence atmosphérique. Des masses d’air sec y descendraient avant de s’écouler vers la Mongolie. Ce faisant, elles seraient de plus en plus comprimées, ce qui provoquerait leur réchauffement et limiterait la formation d’orages. Le désert de Gobi correspond à la plus grande étendue désertique d’Asie (environ 1.300.000 km²). Il est de type continental, ce qui signifie qu’il se caractérise par de fortes variations de la température entre l’été (+40 °C) et l’hiver (-40 °C). Kitseeborg, Flickr, cc by nc sa 2.0 Mais alors, comment expliquer la découverte faite par Jeremy Caves de l’université Stanford (États-Unis) ? Ce chercheur vient de montrer que le centre et le sud-ouest de la Mongolie étaient des régions humides voici 30 millions d’années. Pour ce faire, il a analysé des sédiments et des prélèvements de sols récoltés en 2011 et 2012 sur des sites méticuleusement choisis le long de la bordure nord du désert de Gobi, en fonction de l’âge des roches qui y affleurent. Par la suite, leur contenu en isotopes stables du carbone a été quantifié, puisqu’il s’agit d’un bon indicateur pour estimer la productivité végétale durant une période donnée. Or, qui dit productivité… dit précipitations. À l’aide d’un modèle, l’évolution du climat sur la région concernée a été reconstituée pour ces quelques dernières dizaines de millions d’années. Des chaînes de montagnes sont bien impliquées dans la désertification actuellement observée en Mongolie, mais pas celles que l’on croit. Ce résultat a été dévoilé le 12 décembre dernier durant le congrès d’automne de l’Union américaine de géophysique (AGU, pour American Geophysical Union). Mais alors, qui sont les coupables ? Le désert de Gobi se caractérise par des paysages variés notamment composés de vastes plaines, de steppes, de zones rocheuses ou sableuses, ou encore de chaînes de montagnes. PNP!, Flickr, cc by nc nd 2.0 De nos jours, le taux de précipitations annuel moyen dans la zone considérée est d’environ 125 mm. Selon les mesures, cela signifie qu’il a diminué d’approximativement 250 mm au cours des 10 à 30 derniers millions d’années. Or, la chaîne de l’Himalaya et le plateau tibétain étaient déjà en place durant cette période. En revanche, les monts Khangaï (Khangain nuruu en mongol) sont justement sortis de terre voici 30 millions d’années à l’ouest et au sud-ouest du désert de Gobi. Ils se rattachent dans leur partie sud et ouest au système de l’Altaï, qui est également impliqué dans l’assèchement de l’Asie centrale. En effet, la diminution du taux des précipitations s’est accélérée voici 5 à 10 millions d’années. Or, cette période correspond environ au moment où l’Altaï a émergé. Une fois en place, les deux chaînes de montagnes auraient rempli la fonction précédemment attribuée à l’Himalaya : bloquer des masses d’air humide avant leur entrée en Asie centrale. Voilà donc pourquoi ses parties nord et est sont humides, tandis que ses zones sud et ouest sont sèches. Et l’Himalaya ? Est-il totalement étranger à la problématique étudiée ? Non, des indices suggèrent que quelques parties du désert de Gobi existaient déjà avant l’orogénèse de l’Altaï et des monts Khangaï. Ces chaînes de montagnes ont donc contribué à son expansion vers le nord et l’ouest, jusqu’à ce qu’il atteigne la taille que nous lui connaissons aujourd’hui. Voilà donc comment la géologie peut expliquer un climat régional. de Mathieu Fort 28 SEPT 2013 Futura Sciences 14 DEC 2013
  23. Des chercheurs s’inquiètent de l’apparition d’un nouveau gaz à effet de serre (GES) qui serait 7.100 fois plus polluant que le CO2. Il a déjà été repéré dans l’atmosphère et a pour origine le Perfluorotributylamine largement utilisé en électronique. Ce gaz de la classe des perfluoroalkylamines est artificiel, puisqu’exclusivement produit par l’Homme. Alors que les émissions de gaz à effet de serre sont au coeur des préoccupations environnementales, c'est une révélation préoccupante qu'ont faite des chercheurs au-dessus de l'Université de Toronto (Canada). Ils ont détecté dans l'atmosphère un nouveau gaz à effet de serre hautement résistant qui serait bien plus polluant que le CO2. Son nom ? le perfluorotributylamine ou PFTBA. Certes, sa concentration est extrêmement faible, soit 0,18 partie pour 1.000 milliards. Néanmoins, ses propriétés radiatives posent question, tant elles sont importantes par rapport à celles du CO2, la référence dans le domaine. De 2000 à 2010, le CO2, un gaz à effet de serre, aurait été responsable à 85 % du forçage radiatif subi par notre planète. poilaumenton, Flickr, cc by nc 2.0 Il s'agit d'un gaz artificiel qui est largement utilisé dans la fabrication d'équipements électriques et électroniques. Aujourd'hui, le PFTBA n'est pas répertorié dans la famille des gaz à effet de serre persistants, comme l'est le dioxyde de carbone (CO2). Pourtant, selon les résultats parus dans la revue Geophysical Research Letters, il serait urgent qu'il y figure. En effet, le PFTBA aurait l'effet radiatif le plus puissant de tous les gaz que l'on retrouve dans l'atmosphère. De plus, il possèderait une très longue durée de vie dans la basse atmosphère avant de se dissiper dans les couches plus élevées. "PFTBA a une très longue durée de vie et a un très fort pouvoir radiatif. Ceci lui donne un impact sur le réchauffement climatique très élevé. Sur une période de 100 ans, "une seule molécule de PFTBA dans l'atmosphère a le même effet que 7.100 molécules de CO2", indique la chimiste Cora Young, reprise par l'AFP. Le CO2 est le principal gaz à effet de serre persistant produit par les activités anthropiques. Cette infographie présente les principaux pays producteurs. Idé L'information est d'autant plus préoccupante qu'à l’heure actuelle, on ne connaît aucun agent ou processus capable de l'éliminer, affirment les cinq scientifiques auteurs de l’étude. Le gaz pourrait ainsi survivre pendant des centaines d'années dans la basse atmosphère. D'après l'étude, le PFTBA s'inscrirait dans une nouvelle classe de gaz à effet de serre persistants. Une classe sur laquelle les recherches devraient rapidement se pencher pour notamment établir leurs conséquences sur le climat, concluent les scientifiques. Rappel : Les gaz sont dits persistants, car leurs molécules subsistent des années, des décennies, voire même plus d’un siècle dans l’atmosphère avant qu’elles ne soient détruites. Futura Sciences 11 dec 2013 - Gentside
  24. En utilisant la vitesse des essuie-glaces comme indicateur, des chercheurs sont parvenus à obtenir des données fiables sur la quantité de pluie tombée. Entre différentes zones d’une même région, la quantité de précipitation peut être très variable et le maillage des pluviomètres insuffisant pour refléter cette variation. Aussi des chercheurs allemands ont-ils eu l’idée d’utiliser la vitesse des essuie-glaces des véhicules comme indicateur pour calculer l’intensité de la pluie. « Si les voitures en mouvement pouvaient être utilisées pour mesurer les précipitations, la densité du réseau pourrait être améliorée de façon spectaculaire », explique le leader du projet RainCars, Uwe Haberlandt. Test d'une voiture sous le simulateur de pluie. www.ikg.uni-hannover.de, Daniel Fitzner Dans un laboratoire équipé d’un simulateur de pluie, qui utilise un système d'irrigation par aspersion avec buses réglables pour simuler différentes intensités de précipitations, les chercheurs ont testé différents systèmes d'essuie-glaces. Après plusieurs essais, ils ont logiquement constaté que plus la pluie était forte plus la vitesse des essuie-glaces (déterminée par le conducteur ou automatiquement) devait être élevée pour conserver une bonne vision à travers le pare-brise. Une autre série de test a montré que les voitures équipées de capteurs optiques permettant d’automatiser le déclenchement et la vitesse des essuie-glaces étaient plus fiables. Sur les voitures les plus récentes ces capteurs utilisent des faisceaux laser infrarouges qui détectent l’accumulation des gouttes de pluie sur la surface vitrée. « Ces dispositifs optiques mesurent la pluie sur le pare-brise d’une manière directe et continue, ils sont le meilleur choix pour notre projet » explique Uwe Haberlandt. Les chercheurs précisent que les tests effectués en laboratoire ne reflètent pas tout à fait les conditions réelles et que des facteurs comme le vent, la circulation croisée ou les haies d’arbres au bord des routes peuvent modifier la quantité d’eau reçue par les voitures. Cependant, « l’intérêt d’utiliser les voitures n’est pas d’avoir une plus grande précision sur la mesure mais de multiplier le nombre de mesures » répondent-ils. En 2010, une étude réalisée par deux membres de l’équipe RainCars avait conclu qu'un grand nombre de pluviomètres peu précis fournissent une mesure des précipitations plus fiable qu’un faible nombre d'appareils très précis. Les chercheurs ont mis au point un dispositif qui transmet régulièrement des informations sur le mouvement des essuie-glaces ainsi que la position GPS du véhicule vers le centre qui gère les données. Des expériences sur le terrain sont en cours dans la région d’Hanovre où une compagnie de taxis et une société de location de voitures ont accepté de participer à ce projet. Si cette première phase s’avère concluante, elle sera suivie par des tests portant sur une plus grande zone. Sciences et Avenir 8 déc 2013
  25. Crues extrêmes de l’Aar et du Rhin: bases communes pour évaluer le danger La menace due à des crues de l’Aar sera réévaluée lors de ces prochaines années. Ce projet est placé sous la direction de l’Office fédéral de l’environnement (OFEV). L’Inspection fédérale de la sécurité nucléaire (IFSN) collabore ainsi aux côtés de l’Office fédéral de la protection de la population (OFPP) et de Météosuisse. Ces acteurs se réunissent dans le groupe de travail de la plateforme sur les événements naturels extrêmes (PLATEX). L’IFSN utilisera les nouvelles données pour l’évaluation future de la sécurité des centrales nucléaires suisses vis-à-vis des crues. Berne, 10.12.2013 – L’Office fédéral de l’environnement (OFEV) avec l’Office fédéral de l’énergie (OFEN), l’Inspection fédérale de la sécurité nucléaire (IFSN), l’Office fédéral de la protection de la population (OFPP) et Office fédéral de météorologie et de climatologie (MétéoSuisse) vont élaborer des bases communes pour évaluer le danger de crues extrêmes de l’Aar et du Rhin. D’ici 2016, des scénarios seront établis sous la direction de l’OFEV. Ces données seront ensuite utilisées par les différentes instances afin d’évaluer les risques pour les constructions et les installations situées dans le périmètre. Le projet doit permettre d’établir des scénarios de crues extrêmes harmonisés et consolidés sur la base de données communes (niveau d’eau, vitesse du courant, modifications morphologiques du cours d’eau ou fréquence de l’événement). En s’appuyant sur la situation spécifique de l’Aar et du Rhin, il s’agira de définir les différents dangers liés à l’eau et leurs interactions possibles. Les processus d’érosion, les déplacements du lit des cours d’eau, les dépôts de sédiments, les glissements de terrains, les phénomènes d’embâcle (obstruction des cours d’eau provoquant des barrages naturels) ou la rupture de digues seront notamment pris en considération. Des groupes de travail composés de spécialistes externes et de représentants de la Confédération seront mis sur pied à partir de 2014 pour étudier de manière spécifique les scénarios météorologiques et les débits lors des crues, le phénomène d’embâcle, l’influence des ouvrages d’accumulation, la dynamique globale et le transport de matériaux solides. Une synthèse sera élaborée à partir de 2016. Une pré-étude qui doit rassembler et répertorier les différentes recherches existantes sur ce thème ainsi qu’une recherche historique sur les crues ont été lancées en 2013. Deux groupes d’accompagnement soutiendront le projet, l’un composé des experts de la prévention des dangers et l’autre des représentants des milieux concernés. Les résultats intermédiaires seront mis à disposition des services compétents. Le périmètre du projet s’étend de l’Aar depuis sa sortie du lac de Thoune au Rhin après la confluence avec l’Aar. Les scénarios de crues extrêmes devraient être terminés en 2016. Sur cette base commune, les différentes instances compétentes, notamment l’IFSN et l’OFEN, l’OFPP et les cantons, pourront évaluer le risque pour les constructions et installations se trouvant le long de l’Aar et du Rhin. Sont notamment concernées les centrales nucléaires de Mühleberg, de Gösgen et de Beznau I et II ainsi qu’une quinzaine d’ouvrages d’accumulation. Ces données pourront aussi être utilisées par les cantons pour consolider l’évaluation des risques pour d’autres infrastructures et pour les agglomérations. Le massif du Gothard compte parmi les régions glaciaires dominantes de la Suisse. De cette région s'élancent de grands fleuves dans toutes les directions : le Rhône, le Rhin, l'Aar, le Tessin et l'lnn. filmarchiv100 11 MAI 2011 ensi.ch 10 dec 2013
×
×
  • Créer...