Construction du plus grand complexe d'énergie solaire au monde

Le gouvernement américain a annoncé, lundi 25 Octobre, son accord pour le lancement d'un projet visant à construire en Californie le plus grand complexe d'énergie solaire au monde.

Ce projet, mené par une filiale de la firme Solar Millenium, Palo Verde Solar I, prévoit une production de près de 1 000 mégawatts grâce à quatre centrales solaires (de 242 mégawatts chacune), soir un total annuel de 2,200 gigawattheure. Cette production suffirait à alimenter plusieurs centaines de milliers d'habitations (la société annonce entre 300 000 et 750 000 habitations).


L'installation prévue ne nécessite pas moins de 2 842 hectares de surface (environ 4 000 terrains de football). Ce projet devrait créer un millier d'emplois pendant la construction, puis 300 ensuite. Le coût de réalisation s'élève à 6 milliards de dollars (4,34 milliards d'euros), mais le ministère américain de l'
énergie fera bénéficier la firme d'un prêt de 1,9 milliards de dollars. Dans un premier temps, le ministère donne à la firme le droit d'utiliser ces terrains pendant une durée de 30 ans (sous réserve que les loyers, ainsi que les autres conditions soient remplies). Le début des travaux devrait commencer dès le mois de Novembre.

Centrale solaire thermique - Illustration: Wikimedia Commons/Sandia National Laboratory.
 
La firme a l'intention d'utiliser la technique nommée "solaire à concentration thermodynamique" (ou encore "héliothermodynamique"). Cette technique, différente du photovoltaïque, consiste à utiliser des miroirs permettant de capter l'énergie solaire, et de la stocker dans un tube contenant un fluide qui est ainsi chauffé. Cette chaleur produite forme de la vapeur d'eau, qui entraîne une turbine couplée à un alternateur afin de produire de l'électricité. L'avantage principal de cette technique réside dans le fait que la chaleur peut être stockée dans des sels fondus, ce qui permet aux centrales d'être en capacité de produire de l'énergie la nuit.

Cette autorisation, annoncée par Ken Salazar, ministre des affaires intérieures, fait suite à cinq projets déjà accordés depuis ce mois d'Octobre. Tous sont des projets d'énergie renouvelable, réalisés sur des terres publiques en Californie et au Nevada. Les cinq projets déjà accordés, proposés par
Chevron Corp. et Tessera Solar, représentent une capacité totale de 1 800 mégawatts d'électricité. Il s'agit, en Californie, du projet solaire "Imperial Valley", du projet "Calico", du système solaire d'Ivanpah, ainsi que du projet de vallée solaire de "Chevron Lucerne". Au Nevada, il s'agit du projet solaire de "Silver State Nord".
Auteur de l'article: Cédric DEPOND

Wi-Fi Direct: passez-vous de votre point d’accès

L’Alliance Wi-Fi a démarré sa certification des produits Wi-Fi Direct le 25 octobre. Dévoilé lors du CES 2010, le matériel Wi-Fi Direct peut s’interconnecter directement sans passer par un point d’accès Wi-Fi.


Contrairement au mode “Ad-Hoc”, un mode déjà existant dans la norme Wi-Fi, les débits et la distance parcourus avec le matériel Wi-Fi Direct sont similaires à ce qui est possible d’effectuer sur un réseau en mode “infrastructure” (avec point d’accès). De plus grâce au Wi-Fi Direct, les connexions sécurisées s’établissent plus rapidement avec le WPS (Wi-Fi Protected Setup) utilisant la protection WPA2.
 

Le Wi-Fi Direct comble donc un manque qui persistait avec le Wi-Fi: connecter des appareils rapidement pour imprimer, partager des fichiers, jouer, etc. Le tout sans avoir besoin d’un point d’accès.
 

Selon l’Alliance Wi-Fi, un autre avantage est que le Wi-Fi Direct peut faire office de mini point d’accès pour communiquer sur les réseaux Wi-Fi existants.

Nouveau système de propulsion pour micro-objets

Un nouveau mode de propulsion pour micro et nano-objets métalliques a été mis au point par des chercheurs de l'Institut des sciences moléculaires. Ce procédé s'appuie sur le concept original de l'électrochimie bipolaire: sous l'effet d'un champ électrique, une des extrémités d'un objet métallique croît tandis que l'autre extrémité se dissout. Grâce à cette auto-régénération permanente, des objets se déplacent à des vitesses de l'ordre d'une centaine de micromètres par seconde. Publiés dans le Journal of the American Chemical Society, ces travaux permettent d'envisager des applications dans les domaines allant de la nano-médecine à la micromécanique.

 Schéma de principe de l'auto-régénération bipolaire.

Plusieurs approches sont actuellement explorées pour appliquer à des nano ou des micro-objets des mouvements directionnels contrôlés. Les scientifiques étudient notamment l'utilisation de molécules dites "carburants" qui, suite à leur décomposition, peuvent propulser un objet dissymétrique. Autres pistes de travail: reproduire les systèmes naturels en imitant le déplacement de bactéries ou la rotation de systèmes biologiques bien connus comme l'ATP synthase.

Pour la première fois, deux chercheurs de l'Institut des sciences moléculaires de Bordeaux (CNRS/ENSCBP/Universités Bordeaux 1 et 4) montrent qu'il est possible de générer un tel mouvement via une approche originale appelée "électrochimie bipolaire". Ces chimistes soumettent à un champ électrique des objets métalliques qui présentent alors une différence de charge aux extrémités: l'une un excès et l'autre un déficit. Cette
polarisation est suffisamment importante pour que des réactions chimiques opposées d'oxydoréduction se produisent à chaque extrémité. Ainsi, d'un côté l'objet va s'oxyder et se détruire. De l'autre côté, en procédant à la réduction d'un sel métallique présent dans la solution, un dépôt de métal va se former, conduisant à la croissance de l'objet. In fine, ce procédé conduit à un auto-renouvellement de l'objet tout en induisant son déplacement. Le mouvement généré de cette façon est dirigé vers l'une des deux électrodes et la vitesse peut être contrôlée par la différence de potentiel appliquée entre les deux électrodes.

Exemple de propulsion d'une dendrite de zinc.

L'avantage de cette méthode est qu'aucun combustible classique n'est nécessaire pour provoquer ce mouvement. De plus, on peut envisager d'adapter ce micromoteur pour pousser d'autres objets dans une direction prédéfinie et de les faire complètement disparaître une fois qu'ils ont effectué leur tâche. Ce procédé original ouvre des perspectives dans des domaines d'application variés allant de la micromécanique à la nano-médecine.

Source: CNRS
Illustrations: Voir les légendes

Réduire la consommation des appareils électroniques

Le consommateur bénéficiera de coûts d’électricité plus bas et d’une longévité accrue des appareils à piles; les appareils consommeront 10 fois moins en marche et pratiquement plus rien en mode veille.


Une grande initiative impliquant plusieurs organismes de recherche majeurs du mondetéléphone portable au supercalculateur, en passant par les ordinateurs portables et les téléviseurs. Baptisé STEEPER, ce projet vise à réduire de 10 fois la consommation énergétique de ces appareils lorsqu’ils sont en marche et à pratiquement éliminer toute consommation de courant lorsqu’ils sont en mode passif ou en veille.
 
académique et des entreprises, pilotée par l’Ecole polytechnique fédérale de Lausanne (EPFL), a été lancée en vue de contrer la croissance alarmante de la consommation énergétique des appareils électroniques – du
Selon l’Agence internationale de l'énergie (AIE), les appareils électroniques représentent actuellement 15% de la consommation électrique des ménages, qui va doubler d’ici 2022 et tripler à l’horizon 2030 pour atteindre 1'700 térawatt-heures, soit l’équivalent de la consommation d’énergie totale de l’Union européenne en 2009.

L’énorme consommation des appareils en veille représente un immense gaspillage. Au sein de l’Union européenne, on estime qu’elle correspond déjà à quelque 10% de l’électricité utilisée dans les foyers et les bureaux des Etats membres. D’ici 2020 on prévoit qu’environ 4.6 milliards de dispositifs installés auront des modes veille/arrêt et, à défaut de mesures adéquates, la consommation d’électricité dans ces modes s’élèvera à 49 térawatt-heures par an, ce qui représente presque la consommation électrique combinée de l’Autriche, de la République tchèque et du Portugal.

«Notre vision consiste à partager ces recherches afin de permettre aux constructeurs de créer le Graal de l’électronique: un ordinateur dont la consommation énergétique est négligeable en mode veille, que nous appelons le PC zéro watt», indique Adrian M. Ionescu du Nanolab de l’EPFL, qui coordonne ce projet. Les résultats vont déboucher sur de nouvelles applications intelligentes à très faible consommation de courant, les systèmes d’information sur puce (SoCs).

Avec le soutien du 7ème programme-cadre de la Commission européenne (FP7), les chercheurs vont pouvoir explorer, par le biais du projet STEEPER, des modules innovants à l’échelle du nanomètre pour les puces électroniques afin de réduire leur tension d’exploitation à moins de 0.5 volts, c’est-à-dire de faire baisser d’environ 10 fois leur consommation d’électricité.

Participent notamment au projet STEEPER des organismes de recherche de grandes entreprises comme IBM et de grandes industries comme Infineon and GLOBALFOUNDRIES, d’importants instituts de recherche comme CEA-LETI et le Forschungszentrum Jülich, ainsi que des partenaires académiques dont l’EPFL, l’Université de Bologne, l’Université de Dortmund, l’Université d’Udine et l’Université de Pise, le soutien à la gestion de projet étant assuré par SCIPROM.


«La dissipation d’énergie est en passe de devenir le plus grand défi de l’électronique d’aujourd’hui, et ce particulièrement dans l’industrie du calcul», estime le Dr Heike Riel, chercheuse qui dirige le groupe de nanoélectronique chez IBM Research à Zürich. «En appliquant nos recherches communes sur les transistors à effet de champ (FETs) à tunnel à des nanofils semiconducteurs, nous comptons réduire de façon significative la consommation énergétique des modules de base des circuits intégrés, de sorte à limiter la consommation de courant des plus petits appareils électroniques grand public au plus grands des supercalculateurs», ajoute-t-elle.

Au-delà de la science

Le développement d’appareils innovants comme les transistors à forte pente sous seuil ("steep slope transistors", d’où le nom du projet) peut permettre une transition bien plus brève entre les modes "arrêt" et "marche" que ne l’autorise l’actuelle limite à 60mV/décade des transistors à effet de champ à métal-oxyde (MOSFETs) à grilletempérature ambiante. En même temps, il permet de limiter les fuites sous le seuil et de faire baisser la tension d’exploitation. L’élaboration de transistors à forte pente sous seuil, économes en énergie et capables de fonctionner à une tension d’exploitation de moins de 0.5V, sera un facteur crucial pour la réussite du projet.

Pour y parvenir, les chercheurs vont étudier le développement de transistors FETs à tunnel à base de silicium (Si), de silicium-germanium (SiGe) et de nanofils semiconducteurs III-V. Les nanofils sont des structures cylindriques d’un diamètre de quelques nanomètres (nm) à peine, permettant un contrôle optimal du canal du transistor. Dans un FET à tunnel, on exploite une transmission directe à électrostatiqueeffet tunnel par mécanique quantique pour enclencher l’appareil, ce qui donne des caractéristiques d’allumage plus rapides que celles des MOSFETs conventionnels.

Le projet STEEPER va évaluer les limites physiques et pratiques au dopage de la performance des FETs à tunnel par des nanofils III-V ainsi que les gains qui en découleraient en vue de futurs circuits numériques économes en énergie.
Ce projet, qui a démarré en juin 2010, va se poursuivre sur 36 mois.

Source et illustration: EPFL

Qualité de l'air: la France et la Hongrie doivent respecter les règles de l'UE

La Commission européenne demande instamment à la France et à la Hongrie de se conformer aux normes de l'Union européenne en matière de qualité de l'air. À ce jour, ces États membres n'ont pas remédié de manière efficace au problème des émissions excédentaires de minuscules particules en suspension dans l'air appelées «PM10». Sur recommandation de M. Janez Poto?nik, membre de la Commission chargé de l'environnement, un avis motivé est donc adressé à ces pays. La France et la Hongrie disposent d'un délai de deux mois pour prendre les mesures qui s'imposent. Si ces États n'adoptent pas les mesures nécessaires, la Commission pourrait les poursuivre devant la Cour de justice de l'Union européenne. 

 Europe: la France et à la Hongrie doivent se conformer aux normes de l'Union européenne en matière de qualité de l'air.

La directive 2008/50/CE concernant la qualité de l’air ambiant et un air pur pour l’Europe dispose que les États membres doivent respecter des valeurs limites en ce qui concerne les PM10. Ces limites, qui devaient être respectées pour 2005 et qui portent à la fois s'appliquent à la fois à la concentration annuelle (40 µg/m³) et à la concentration journalière (50 µg/m³), ne doivent pas être dépassées plus de 35 fois au cours d’une même année civile.

Tout État membre peut demander à être exempté jusqu’en juin 2011 des obligations concernant les valeurs limites applicables aux PM10, mais ces exemptions sont soumises à un certain nombre de conditions. L'État membre concerné doit en effet démontrer qu’il a pris des initiatives visant au respect des normes pour la nouvelle échéance et qu’il applique un plan d’amélioration de la qualité de l’air prévoyant les mesures correspondantes de réduction des concentrations pour chaque zone de mesure de la qualité de l’air.


Il ressort des informations dont dispose la Commission que, depuis 2005, les valeurs limites applicables aux PM10 ne sont toujours pas respectées dans un certain nombre de zones en France et en Hongrie. La France et la Hongrie avaient demandé des reports de délai, mais la Commission avait estimé que les conditions n'étaient pas réunies pour toutes les zones de qualité de l'air qui n'étaient pas en conformité avec les normes. La France a demandé une nouvelle prorogation du délai. Cette demande fait encore l'objet d'un examen par la Commission.

Contexte les incidences sur la santé

Les particules en suspension dans l’air (PM10) sont essentiellement présentes dans les émissions de polluants imputables à l’industrie, à la circulation routière et au chauffage domestique. Elles peuvent provoquer de l’asthme, des problèmes cardiovasculaires, des cancers du poumon, et entraîner une mort prématurée.
Source: Europa

De l'eau et d'autres composés éjectés de la Lune après une collision

Pour rechercher de l'eau et d'autres éléments dans le sol lunaire, l'expérience LCROSS (pour Lunar CRater Observation and Sensing Satellite) a consisté à lancer un étage Centaur usagé de fusée sur un cratère sombre du pôle Sud (voir notre news). Ce cratère, nommé Cabeus, est l'une des régions en permanence dans l'ombre et les chercheurs estiment que c'est aussi l'une des plus froides de la Lune.

Octobre 2009: L'étage Centaur, servant d'impacteur, se séparait de la sonde LCROSS
pour percuter en premier la surface lunaire.
 
Lorsque l'étage vide a percuté le bas du cratère, un panache de débris, de poussières et de vapeur est devenu visible pour la sonde LCROSS qui l'observait au loin. Les données recueillies lors de cette observation ont permis aux chercheurs de décrire les détails de l'impact et d'estimer la concentration totale de glace présente dans le cratère Cabeus. L'analyse effectuée par Anthony Colaprete, de la Brown University à Providence, RI, et ses collègues des relevés effectués dans le proche infrarouge et l'ultraviolet/visible par les spectrophotomètres à bord de LCROSS leur a permis d'évaluer à environ 155 kg la quantité d'eau sous forme de vapeur et de glace qui a jailli de l'obscurité du cratère pour passer dans le champ de mesure de LCROSS. Ils estiment ainsi qu'environ 5,6 pour cent de la masse totale à l'intérieur du cratère (plus ou moins 2,9 pour cent) pourraient être uniquement formés de glace. Les chercheurs rapportent aussi la détection d'autres substances volatiles dans les débris du cratère qui ont pu être détectées durant quelques secondes par le satellite, dont des hydrocarbures légers, des composés soufrés et du dioxyde de carbone.

Dans un article distinct de
Science, Peter Schultz, également de la Brown University, et ses collègues décrivent comment ils ont suivi les multiples étapes de l'impact et du panache de débris qui en a résulté. Les chercheurs indiquent qu'il a créé un cratère de 25 à 30 mètres de large et qu'entre 4 000 kg et 6 000 kg de débris, de poussières et de vapeur sont devenus visibles à la lumière du soleil par le satellite. Le numéro de Science de cette semaine contient aussi quatre autres articles sur les résultats de LCROSS.
Source: Science, AAAS & EurekAlert Illustration: NASA

Le Projet 1 000 génomes

Les petites différences génétiques entre individus contribuent à expliquer pourquoi certaines personnes présentent un risque plus élevé que d’autres de développer des maladies comme le diabète ou le cancer. Dans la publication Nature, le Projet 1 000 génomes, un consortium international public-privé, vient de publier la carte génétique la plus complète de ces différences, appelées variations, que l’on estime contenir environ 95 pour cent de la variation génétique de n’importe quelle personne sur terre.


Des chercheurs ont réalisé la carte à l’aide de technologies de séquençage de l’ADN de nouvelle génération pour caractériser systématiquement la variation génétique humaine chez 180 sujets ayant participé à trois études pilotes. En outre, l’extrapolation complète réalisée à partir des études pilotes est déjà en cours; les données ayant été recueillies auprès de plus de 1 000 personnes.


"Les études pilotes du Projet 1 000 génomes ont jeté les bases essentielles de la recherche sur la variation génétique humaine", a déclaré le codirecteur du consortium, monsieur Richard Durbin, Ph. D., de l’Institut Sanger du Fonds Wellcome. "Ces études de principe permettent aux scientifiques du consortium de créer une carte complète de la variation génétique, disponible pour le grand public, qui réunira ultimement les séquences de 2 500 personnes provenant de diverses populations à l’échelle de la planète, et qui constituera le fondement de la recherche génétique de l’avenir."


La variation génétique entre les personnes fait référence à des différences de l’ordre des unités chimiques, appelées bases, qui composent l’ADN du génome humain. Ces différences peuvent être aussi minimes qu’une seule base remplacée par une autre (ce que l’on appelle un polymorphisme nucléotidique simple ou PNS), ou aussi importantes que des sections complètes de chromosomes reproduites ou mutées ailleurs dans le génome. Certaines de ces variations sont courantes au sein de la population; d’autres sont rares. En comparant plusieurs individus entre eux ou une population à d’autres, les chercheurs peuvent créer une carte regroupant tous les types de variations génétiques.

Le but du Projet 1 000 génomes est de fournir une ressource publique complète qui soutienne les chercheurs voulant étudier tous les types de variations génétiques susceptibles de causer la maladie humaine. La démarche du projet surpasse les efforts précédents en saisissant et en intégrant des données sur tous les types de variations et en étudiant des échantillons provenant de nombreuses populations humaines, avec le consentement informé permettant la diffusion gratuite des données, sans restriction d’utilisation. Déjà, ces données ont été utilisées dans le cadre d’études sur les fondements génétiques de la maladie.

"En rendant les données du projet disponibles gratuitement pour la collectivité de la recherche, l’on exerce déjà une influence sur les travaux menés en ce qui a trait aux maladies rares et courantes", a déclaré le docteur David Altshuler, Ph. D., directeur adjoint de l’Institut Broad de l’Université Harvard et du MIT et codirecteur du projet. "Les sociétés biotechnologiques ont mis au point des produits de génotypage pour déterminer si les variantes courantes émanant du projet jouent un rôle dans la maladie. Chaque étude publiée qui fait appel au séquençage de nouvelle génération pour découvrir des mutations de maladie rare, y compris celles du cancer, a utilisé les données du projet lors de la filtration de variantes susceptible de biaiser les résultats."

Dans le cadre du projet, des populations ayant une ascendance européenne, occidento-africaine et est-asiatique ont été soumises à des évaluations. À l’aide des plus récentes technologies de séquençage de l’ADN, les neuf centres du projet ont séquencé la totalité du génome de 179 personnes et les gènes encodeurs de protéines de 697 personnes. Chaque région a été séquencée plusieurs fois, ce qui a permis de recueillir plus de 4,5 billions (4,5 millions de millions) de bases de la séquence d’ADN. Le mandat a été confié à un consortium réunissant des centres universitaires de plusieurs continents et des sociétés technologiques qui mettent au point et vendent de l’équipement de séquençage.


La carte améliorée a provoqué quelques surprises. Par exemple, les chercheurs ont découvert qu’en moyenne, chaque personne présente entre 250 et 300 changements génétiques qui provoqueraient l’arrêt du fonctionnement normal d’un gène, et entre 50 et 200 variations génétiques autrefois associées à une maladie héréditaire. Aucun humain ne possède une série parfaite de gènes. Heureusement, étant donné que chaque personne possède au moins deux copies de chaque gène, les individus demeurent vraisemblablement en santé, même s’ils possèdent ces gènes défectueux, si la copie fonctionne normalement.


"L’Université McGill est fière d’avoir assuré le leadership au sein du comité de l’échantillonnage et des enjeux éthiques, juridiques et sociaux", a déclaré la codirectrice du comité, madame Bartha Maria Knoppers, O.C., Ph. D., du Centre de génomique et politiques de l’Université McGill à Montréal. "Nous avons joué un rôle unique en réunissant les concepteurs de l’échantillonnage et les responsables de l’éthique, en sélectionnant les populations et les critères et en assurant la constance de la structure éthique avec les intervenants dans le domaine. Notre engagement se poursuivra à mesure que progresseront les études à grande échelle." Au cours des deux prochaines années, 2 500 échantillons provenant de 27 populations feront l’objet d’analyses. Les données des études pilotes et du projet à grande échelle sont disponibles gratuitement à http://www.1000genomes.org .

Parmi les organisations qui se sont engagées à fournir un soutien important au projet, signalons: 454 Life Sciences, une entreprise du groupe Roche, de Branford, au Connecticut; la société Life Technologies, de Carlsbad, en Californie; BGI-Shenzhen, de Shenzhen, en Chine; Illumina inc., de San Diego, en Californie; l’Institut Max Planck de génétique moléculaire, de Berlin, en Allemagne; l’Institut Sanger du Fonds Wellcome, de Hinxton, dans le comté de Cambridge, au Royaume-Uni et l’Institut de recherche sur le génome humain des États-Unis, qui soutient le travail accompli par la Faculté de médecine Baylor, de Houston, au Texas; l’Institut Broad, de Cambridge, au Massachusetts et l’Université de Washington, de Saint-Louis, au Missouri. Des chercheurs d’un grand nombre d’institutions participent également au projet, notamment des groupes de la Barbade, du Canada, de Chine, de Colombie, de Finlande, de Gambie, d’Inde, du Malawi, du Pakistan, du Pérou, de Porto Rico, d’Espagne, du Royaume-Uni, des États-Unis et du Vietnam.

Source: Université McGill (William Raillant-Clark, Service des relations 
avec les médias - Tél.: 514-398-2189) 
Illustration: 1000genomes.org

Eaux profondes et anciennes vues de l'espace

Le lac Malawi est au cœur de cette image prise par le satellite Envisat. Il s’agit du plus méridional des grands lacs de la Vallée du Grand Rift, impressionnant système de failles qui prend naissance au bord de la Mer Rouge et s’étire à travers l’Afrique de l’Est.



Egalement connu sous le nom de lac Nyassa, le lac Malawi est le troisième plus grand lac d’Afrique. Il recouvre un cinquième du territoire du Malawi (qui s’étend le long des rives ouest et sud du lac) et forme une frontière naturelle avec la Tanzanie (en haut à droite) et le Mozambique (en bas à droite). L’essentiel des terres visibles à gauche appartiennent à la Zambie.

Faisant partie de la petite vingtaine de lacs les plus anciens de la Terre, le lac Malawi est également très profond (jusqu’à 750 m). Ces eaux isolées ont offert depuis fort longtemps et de manière ininterrompue un cadre au développement de centaines d’espèces endémiques de poissons dont beaucoup font aujourd’hui le bonheur des aquariophiles.

Le Parc National du Lac Malawi (à la pointe sud du lac) a été porté à la liste des sites du Patrimoine Mondial de l’Humanité de l’Unesco en 1984, son importance pour l’étude de l’évolution des espèces étant considérée comparable à celle des fringillidés des îles Galápagos.

Cette image a été prise par la camera MERIS (Medium Resolution Imaging Spectrometer) d’Envisat le 12 octobre 2010, avec une résolution au sol de 300 m.
Source et illustration: ESA

Walkman cassette: le début de la fin d’un produit emblématique

Le groupe japonais Sony annonce arrêter la vente du walkman à cassette au Japon. Produit emblématique de plusieurs générations, les derniers appareils seront vendus avec l’épuisement des derniers stocks. Fabriqué en Chine, le walkman à cassette restera néanmoins commercialisé à l’étranger, mais pour encore combien de temps ?

Le walkman cassette de Sony ne sera désormais plus commercialisé au Japon.

Finalement, le numérique aura eu raison de l’innovation analogique portatif de Sony, après tout de même 31 ans et 220 millions d’appareils vendus dans le monde. Il fut peu à peu remplacé par le Discman, puis le Mini-Disc et surtout les lecteurs MP3. Et c’est finalement à l’heure où les téléphones portables font de plus en plus office de lecteurs MP3 que le début de la fin du walkman à cassette a sonné. 
Illustration: Sony

Un cadeau de l’ère glaciaire vu de l'espace

Montagnes, glaciers et champs de glaces de l’Alaska méridionale et de la Colombie Britannique, au Canada, sont au menu de cette image prise par le satellite Envisat.



Le climat et la topographie de cette région au cours de ces 12,5 derniers millions d’années ont été favorables aux glaciers. Au cours de l’ère glaciaire une vaste calotte de glace recouvrait la région. Quand la température est devenue plus clémente, une période interglaciaire s’en est suivie.

Les montagnes côtières et le climat maritime de cette région en font un site idéal pour la glaciation, si bien qu’on y trouve aujourd’hui des glaciers parmi les plus spectaculaires et les plus longs de la
planète.

Le glacier Hubbard (en bas au centre) est le plus grand glacier côtier d’Amérique du
Nord. Il trouve son origine dans le Yukon canadien et traverse la frontière avec l’Alaska pour aboutir à l’océan dans Disenchantment Bay, à l’embouchure de la baie de Yakutat.

En forme de pancake, le glacier de Malaspina se situe à l’Ouest de la Baie de Yakutat. Sa forme particulière est due à des glaciers venus de vallées pentues se déversant dans une plaine relativement plate où ils s’étalent. Ce type de glacier est dit "de piémont".


Couvrant près de 4 000 km2, le glacier de Malaspina est le plus grand glacier de piémont au monde. Il est tellement grand qu’on ne peut le voir dans son entier que depuis l’espace. A l’ouest du Malaspina se trouve le plus grand et le plus long des glaciers nord-américains, le glacier de Béring, qui couvre 5 200 km2 et s’étire sur plus de 200 km de long.


Les monts Chugach, qui contiennent la plus grande concentration de glaces de l’Etat, s’étirent le long de la côte au-dessus des glaciers de Malsapina et de Béring. Quand il fait chaud, de l’air humide en provenance du Pacifique se heurte aux températures plus froides de cette chaine, entrainant les plus spectaculaires chutes de neige d’Alaska.


La majorité des zones enneigées à gauche du glacier Hubbard appartiennent au Parc national Wrangell-St. Elias. Le Parc National de Kluane, qui abrite les plus grands champs de glace non polaires, est immédiatement au-dessus du glacier.


La tache blanche la plus à l’Est sur la côte est le Parc de Glacier Bay. Niché entre Kluan et Glacier Bay se trouve le Parc de Tatshenshini-Alsek, qui abrite un magnifique réseau de rivières.

Source et illustration: ESA

Les caténaires des trains pour transporter de l'électricité d'origine renouvelable

Le gouvernement fédéral allemand étudie la possibilité d'utiliser et d'agrandir le réseau d'alimentation de la Deutsche Bahn (équivalent allemand de la SNCF) pour transporter l'électricité produite par des éoliennes. Une commission interdisciplinaire étudie actuellement différentes solutions. Un porte-parole de Peter Ramsauer, Ministre fédéral des transports, a annoncé que ce pourrait être un projet tout à fait adapté pour maîtriser les problèmes d'acheminement de l'énergie éolienne, fluctuante. Rüdiger Grube, PDG de la Deutsche Bahn, s'est dit ouvert à de telles propositions.

Parc éolien.
Le Gouvernement fédéral a annoncé pour fin 2011 un plan de développement du réseau électrique pour l'horizon 2020. La construction de lignes à haute tension est pour l'instant très inférieure aux prévisions, notamment en raison d'un nombre croissant d'initiatives citoyennes contre ces projets. C'est pourquoi est étudiée la possibilité de surélever certaines lignes surplombant les voies ferrées à une hauteur de 15 mètres, pour libérer de l'espace et installer de nouveaux câbles à courant continu d'une capacité maximale de 500 kV.

La Fédération allemande des industries de l'énergie et de l'
eau (BDEW) estime les investissements nécessaires pour le développement des réseaux électriques d'ici 2020 à 40 milliards d'euros. D'après un papier interne de la Deutsche Bahn, la mise à niveau des voies électriques du réseau ferré devrait être réalisable pour un coût d'environ 2,5 milliards d'euros.
 
Source: BE Allemagne numéro 501 (21/10/2010) - Ambassade de France en Allemagne / 
Illustration: Techno-Science.net

Top départ pour l'Institut Européen du Lymphome (ELI)

L'Institut Européen du Lymphome est né. Il réunit les meilleurs spécialistes européens du lymphome. Ce cancer hétérogène est en plein développement et une meilleure connaissance permettrait d'augmenter considérablement l'espérance de vie des patients. La création de l'Institut Européen du Lymphome s'appuie sur l'efficacité du modèle de recherche clinique de transfert mis en oeuvre à Lyon par les acteurs du GELA (Groupe d'Etude des Lymphomes de l'Adulte) et le GELARC (GELA-recherche clinique) et dont les avancées ont une notoriété mondiale. Il est financé à hauteur de 450 000 € par le Cancéropôle Lyon Auvergne Rhône-Alpes (CLARA). Ce soutien décisif s'inscrit dans la stratégie du CLARA de constituer une masse critique élevée de compétences cliniques et académiques pour favoriser une recherche de transfert efficace et contribuer à une visibilité internationale.

Pourquoi le lymphome ?

Les lymphomes, également connus sous le nom de cancer des ganglions, sont des cancers qui se développent à partir des lymphocytes, cellules contribuant à notre défense immunitaire. Au 6éme rang des types de cancer en Europe et aux USA, le lymphome connaît actuellement un développement important, environ 12 000 nouveaux cas en France chaque année. Il touche toutes les classes d'âge et présente une hétérogénéité de formes dont beaucoup ne sont pas encore classifiées. Chaque forme de lymphome nécessite une stratégie thérapeutique qui lui est propre, d'où l'importance de poser un diagnostic approprié. La connaissance des types de lymphomes et la précision du diagnostic qui en découle ont une incidence directe sur le taux de guérison qui varie de 20% pour certains types rares et difficiles à traiter à 90% pour les lymphomes les plus fréquents. L'amélioration de ces connaissances a souvent eu pour origine des équipes lyonnaises.

Lyon, une notoriété historique et mondiale dans la recherche sur le lymphome

Le service d'hématologie clinique du Centre Hospitalier Lyon-Sud (UMR5239) est à l'origine des compétences lyonnaises sur le lymphome. En 1984, s'est constitué, à Lyon, le Groupe d'Etude des Lymphomes de l'Adulte (GELA). Il s'est enrichi en 2000 de sa propre structure de recherche clinique, le GELA-RC. Ce dernier emploie 75 salariés à forte qualification et a un potentiel de développement important. Les différents intervenants à cette équipe ont permis de nombreuses avancées sur le lymphome. Ils ont acquis une reconnaissance unique et une notoriété mondiale. Ils sont aujourd'hui impliqués dans les efforts internationaux pour standardiser le traitement des lymphomes et organisent régulièrement des conférences internationales.

Accélérer l'amélioration des connaissances sur le lymphome et ouvrir le champ des stratégies thérapeutiques, telles sont les missions que poursuivra le groupe d'étude lyonnais, en synergie avec les meilleurs spécialistes européens.


Une structure de dimension européenne, un double intérêt

Le 30 juin dernier, marquait la réalité de l'Institut Européen du Lymphome et l'engagement des 7 groupes académiques* européens, spécialistes du lymphome, à travailler dans le cadre de l'institut, à la définition d'une stratégie et de standards thérapeutiques communs et à la conduite d'études cliniques. Particulièrement impliqués dans le projet, ces spécialistes voient dans le positionnement européen de l'Institut un double intérêt, directement lié à la nature hétérogène du lymphome et au déficit de connaissance sur cette pathologie. L'élargissement significatif de la cohorte des patients permettra d'une part, de réaliser des études plus représentatives, d'autre part, d'entreprendre de nouvelles études cliniques sur les lymphomes rares, qui aujourd'hui sont exclus du champ de la recherche clinique, en raison d'une masse critique insuffisante au niveau national. Enfin, cette mise en commun des compétences et des ressources au niveau européen sous-tend également la volonté de favoriser l'harmonisation des législations des états membres en matière d'essais cliniques.

Un modèle de recherche innovant en lien avec l'hôpital et l'industrie

L'Institut Européen du Lymphome s'est largement inspiré du modèle organisationnel GELA/GELA-RC qui a fait ses preuves, à savoir un groupe d'experts scientifiques de premier plan et une structure opérationnelle d'essais cliniques dédiée. Ses ressources financières proviennent du secteur public (Institut National du Cancer), d'associations et de l'industrie pharmaceutique. Unique en Europe, ce modèle est reconnu comme étant l'un des plus efficaces. L'Institut Européen du Lymphome proposera un modèle de recherche en lien avec l'hôpital, l'industrie pharmaceutique et le patient, qui intègre pleinement le partenariat public-privé. Par ailleurs, l'Institut assumera des missions d'information et de formation à destination de ses publics respectifs (association, patients, praticiens...).

Le Cancéropôle CLARA acteur mobilisé en faveur d'ELI

Fidèle à son action de coordination des compétences inter-régionales de la recherche en cancérologie et de leur mutualisation autour de programmes opérationnels, le Cancéropôle CLARA est moteur de l'Institut Européen du Lymphome. En accordant à sa création un soutien financier de 450 000 €, le CLARA témoigne d'une double volonté:

- ancrer un modèle de recherche qui permet d'accélérer le transfert des découvertes de laboratoire et les applications médicales au lit du patient et qui associe acteurs des mondes clinique, académique et industriel,


- contribuer au rayonnement international de la recherche en cancérologie de l'inter-région.


D'ici 2013, un bâtiment abritera l'ensemble des acteurs locaux du lymphome. Chaque
pays membre de l'Institut conservera la localisation territoriale de sa structure de recherche clinique dont les axes de travail seront définis par le groupe européen d'experts académiques.

Le budget de fonctionnement est estimé à environ 500 000 € en
phase de démarrage et la construction de la structure d'hébergement de l'ensemble des acteurs synergiques, notamment le Gelarc et le Gela, est de 8 M€.
Le Cancéropôle CLARA alloue un soutien décisif de 450 000 €.


Source:
Communiqué ELI/CLARA
Illustration:
National Cancer Institute/Traduction: Chtit draco
Contact

Votre Email*
Votre Questions*
Livré parForm Builder

Boutons Social

Loading...