Cellules souches et programmation génétique: l'apport de la recherche fondamentale

Des chercheurs de l'Institut Pasteur et du CNRS viennent d'identifier des régulateurs contrôlant l'un des processus essentiels du développement embryonnaire chez les femelles mammifères: la mise sous silence des gènes de l'un des deux chromosomes sexuels. Ces mêmes régulateurs sont également impliqués dans le maintien de la capacité des cellules souches embryonnaires à donner naissance aux différents tissus de notre organisme, comme la peau, les ongles ou le foie. Ces régulateurs sont également capables de "reprogrammer" le génome des cellules matures pour leur faire perdre leur spécialisation, et retourner à l'état de cellules souches. Ces travaux contribuent ainsi à mieux comprendre ces mécanismes fondamentaux, ce qui sera indispensable pour espérer maîtriser le devenir des cellules souches et développer des nouvelles stratégies thérapeutiques. Ils sont publiés la revue Nature.


Cellules souches embryonnaires de souris.
 
Chez les mammifères, les femelles possèdent deux chromosomes sexuels identiques de type X, alors que les mâles n'en possèdent qu'un. Pour contrebalancer ce déséquilibre, un mécanisme spécifique se met en place chez la femelle pendant le développement de l'embryon: il s'agit de la mise sous silence des gènes présents sur l'un des deux chromosomes X. Mâles et femelles expriment ainsi le même nombre de gènes du chromosome X dans chaque cellule. Cette inactivation du chromosome X est le sujet de recherche de l'unité de Génétique moléculaire murine (Institut Pasteur/CNRS URA 2578), dirigée par Philip Avner. Les chercheurs de cette unité avaient précédemment identifié trois facteurs intervenant dans la régulation directe du processus. En collaboration avec une équipe de l'université d'Edimbourg, ils viennent de mettre en évidence trois autres facteurs, impliqués cette fois-ci dans un second niveau de la régulation.

Or, certains de ces facteurs étaient déjà connus pour permettre aux cellules spécialisées dans lesquelles ils s'expriment de "remonter" le processus de leur maturation. Ces cellules redeviennent des cellules non-spécialisées, également appelées cellules souches. Quand cette "déprogrammation" a lieu dans des cellules femelles, elle s'accompagne de la réactivation des gènes du chromosome X inactif. Ceci suggère donc des mécanismes moléculaires communs entre cette réactivation et la déprogrammation de l'expression des gènes.

En contribuant à identifier les processus qui régulent ces mécanismes indéniablement liés, les découvertes des chercheurs de l'Institut Pasteur et du CNRS soulignent l'apport potentiel de la recherche fondamentale dans la compréhension du maintien de la plasticité des cellules souches embryonnaires, domaine qui représente, à l'heure actuelle, un enjeu considérable en matière de thérapie.

Source: CNRS
Illustration:
Wikipedia

Des couloirs prioritaires dans l'UE pour les réseaux électriques et gaziers

Infrastructures énergétiques: la Commission propose des couloirs prioritaires dans l'UE pour les réseaux électriques et gaziers.

Soucieuse d'adapter les réseaux au XXIe siècle, la Commission européenne a présenté aujourd'hui ses priorités pour les deux prochaines décennies en matière d'infrastructures énergétiques. Dans sa communication, la Commission définit des couloirs prioritaires dans l'UE pour l'acheminement de l'électricité, du gaz et du pétrole. À l'avenir, la liste de ces priorités servira de fondement aux décisions d'octroyer des autorisations et des financements sur des projets UE concrets.



«Des infrastructures énergétiques sont indispensables pour atteindre l'ensemble de nos objectifs dans le domaine de l'énergie, qu'il s'agisse de la sécurité de l'approvisionnement, de l'intégration des sources d'énergies renouvelables, de l'efficacité énergétique ou du bon fonctionnement du marché intérieur. Il est par conséquent essentiel que nous regroupions nos moyens financiers et accélérions la réalisation des projets prioritaires de l'UE», a déclaré Günther Oettinger, membre de la Commission chargé de l'énergie.

La communication définit un nombre limité de couloirs prioritaires pour l'UE à développer d'urgence en vue d'atteindre les objectifs de l'Union européenne en matière de compétitivité, de développement durable et de sécurité d'approvisionnement en reliant certains États membres pratiquement isolés des autres marchés énergétiques européens, en renforçant massivement les interconnexions transfrontalières existantes et en intégrant les énergies renouvelables dans le réseau. En 2012, sur la base de ces couloirs prédéfinis, certains projets d'«intérêt européen» seront désignés. Ils devraient bénéficier de financements UE et la réponse finale à leurs demandes de permis de construire devrait être donnée dans un certain délai, tout en veillant au respect complet de la législation européenne et en particulier de la législation environnementale et du principe de participation publique. Au cours de la préparation et de la mise en œuvre de ces projets, la Commission favorisera la coopération régionale entre différents pays. La Commission précise en outre certains objectifs à plus long terme, tels que celui d'«autoroutes européennes de l'énergie». 

 

Dans le secteur de l'électricité, quatre couloirs ont été considérés comme prioritaires pour l'UE:

- Un réseau offshore dans les mers septentrionales relié à l'Europe du nord et du centre pour acheminer l'électricité produite par les parcs éoliens vers les consommateurs des grandes villes ou pour la stocker dans les centrales hydroélectriques des Alpes ou d'Europe du nord.

- Des interconnexions en Europe du sud-ouest pour acheminer l'énergie d'origine éolienne, solaire ou hydroélectrique vers le reste du continent.

- Des connexions en Europe centrale et orientale ainsi qu'en Europe du sud-est afin de renforcer le réseau régional.

- L'intégration du marché balte de l'énergie au marché européen.

Dans le secteur du gaz, trois couloirs ont été considérés comme prioritaires pour l'UE:

- Un couloir sud devant acheminer le gaz directement de la mer Caspienne vers l'Europe, afin de diversifier les sources d'approvisionnement en gaz.

- L'intégration et la connexion du marché balte de l'énergie à l'Europe centrale et du sud-est.

- Un couloir nord-sud en Europe occidentale afin de supprimer les goulets d'étranglement internes et de permettre une meilleure utilisation des approvisionnements extérieurs envisageables. 

Contexte:

D'ici à 2020, l'UE s'est engagée à réduire les émissions de gaz à effet de serre de 20%, à porter la part des énergies renouvelables à 20% de sa consommation finale d'énergie et à accroître son efficacité énergétique de 20%. Pour atteindre ces objectifs énergétiques et climatiques, il est nécessaire d'investir environ 200 milliards d'euros dans le seul transport de l'énergie (gazoducs et réseaux électriques). Selon les estimations, le secteur privé n'en fournira qu'une partie, ce qui devrait occasionner un déficit de financement d'environ 100 milliards d'euros.

Source: Europa

Les bactéries de l'Arctique, indice de la vie sur Mars

Des microbiologistes canadiens s'intéressant à une source d'eau salée dans les régions glacées de l'Arctique y ont trouvé des bactéries se nourrissant de méthane qui pourraient nous renseigner sur l'existence de vie sur Mars.



Des bactéries mangeuses de méthane ont été découvertes de manière inattendue à la source de Lost Hammer, sur l'île Axel Heiberg, dans le Nunavut. Mr. Lyle Whyte (microbiologiste de l'Université McGill qui pilote le projet), qui qualifie la source de Lost Hammer d'environnement le plus froid et salin qu'il ait jamais rencontré, y a découvert deux types de bactéries qui se nourrissent du méthane et ne respirent pas d'oxygène. Selon Dale Andersen (scientifique de l'Institut SETI, en Californie), cette découverte laisse croire que des bactéries analogues pourraient exister sur la planète rouge, étant donné les similitudes entre l'environnement martien et de l'Arctique canadien. En effet, des données récentes recueillies par la NASA indiquent qu'il existe des poches de méthane et d'eau gelée sur Mars, et que les températures y approchent celles relevées dans la source de Lost Hammer.

Le microbiologiste Charles Greer y voit quant à lui un intérêt environnemental pour la planète Terre. Son travail, en tant que spécialiste du rôle des microorganismes dans la restauration des sols et des eaux contaminés, a consisté à identifier le type et à définir les attributs de ces bactéries qui prolifèrent dans les environnements uniques et les conditions extrêmes tels que c'est le cas à la source Lost Hammer. "A mesure que la température augmente, le pergélisol fond dans le Nord. Si le sol en venait à se saturer d'eau, le prisonnier du pergélisol devrait libérer du méthane au lieu du dioxyde de carbone, explique M. Greer. Or, le méthane est un carbonegaz à effet de serre beaucoup plus puissant que le dioxyde de carbone, car il retient la chaleur davantage."

Mr. Greer et son équipe orientent leurs recherches sur l'activité de ces microorganismes à des températures inférieures au point de congélation et sur l'éventuelle augmentation d'activité lorsque la température s'élèvera. "Les microorganismes qui consomment le méthane pourraient jouer un rôle particulier en réduisant les émissions de méthane et leur incidence sur le changement climatique, surtout si nous arrivons à en accentuer l'activité", conclut M. Greer.

Source: BE Canada numéro 375 (12/11/2010) - Ambassade de France au Canada / 
Illustration: NASA / GSFC

Impact de l’apprentissage de la lecture sur le cerveau

Pour la première fois, des images détaillées de l’impact de l’apprentissage de la lecture sur le cerveau ont été obtenues par une équipe internationale de chercheurs. En comparant l’activité cérébrale d’adultes analphabètes avec celle de personnes alphabétisées durant l’enfance ou à l’âge adulte ces chercheurs ont démontré l’emprise massive de la lecture sur les aires visuelles du cerveau ainsi que sur celles utilisées pour le langage parlé. Coordonnée par Stanislas Dehaene (Collège de France, Unité CEA-Inserm-Université ParisSud 11 de Neuroimagerie Cognitive, NeuroSpin/I2BM) et Laurent Cohen (Inserm, AP-HP, Université Pierre et Marie Curie), cette étude a impliqué des équipes brésiliennes, portugaises, et belges. Ces résultats sont publiés en ligne le 11 novembre par la revue Science.


L’acquisition de la lecture soulève plusieurs questions scientifiques importantes quant à son influence sur le fonctionnement cérébral. L’écriture est une invention trop récente pour avoir influencé l’évolution génétique humaine. Son apprentissage ne peut donc reposer que sur un "recyclage" de régions cérébrales préexistantes, initialement dédiées à d’autres fonctions mais suffisamment plastiques pour se réorienter vers l’identification des signes écrits et leur mise en liaison avec le langage parlé [1]. C’est dans ce cadre que les chercheurs essaient de mieux comprendre l’impact de l’apprentissage de la lecture sur le cerveau.

Pour cela, ils ont mesuré, par IRM fonctionnelle [2], l’activité cérébrale d’adultes volontaires diversement alphabétisés , dans l’ensemble du cortex, avec une résolution de quelques millimètres, tandis qu’ils leur présentaient toute une batterie de stimuli: phrases parlées et écrites, mots et pseudo-mots parlés, visages, maisons, objets, damiers...63 adultes ont participé à l’étude: 10 personnes analphabètes, 22 personnes non-scolarisées dans l’enfance mais alphabétisées à l’âge adulte, et 31 personnes scolarisées depuis l’enfance. La recherche a été menée en parallèle au Portugal et au Brésil, pays dans lesquels, voici quelques dizaines d’années, il était encore relativement fréquent que des enfants ne puissent pas aller à l’école uniquement en raison de leur environnement social (isolement relatif, milieu rural). Tous les volontaires étaient bien intégrés socialement, en bonne santé, et la plupart avaient un emploi. Les études ont été réalisées avec des imageurs IRM à 3 Tesla au centre NeuroSpin (CEA Saclay) pour les volontaires portugais et au centre de recherches en neurosciences de l’hôpital Sarah Lago Norte à Brasilia [3] pour les volontaires brésiliens. Grâce à ces travaux les chercheurs apportent des éléments de réponse à plusieurs questions essentielles.

Comment les aires cérébrales impliquées dans la lecture se transforment-elles sous l’influence de l’éducation ?

En comparant directement l’évolution de l’activation cérébrale en fonction du score de lecture (nul chez les analphabètes et variable dans les autres groupes), les chercheurs ont montré que l’impact de l’alphabétisation est bien plus étendu que les études précédentes ne le laissaient penser.

•Apprendre à lire augmente les réponses des aires visuelles du cortex , non seulement dans une région spécialisée pour la forme écrite des lettres (précédemment identifiée comme la "boîte aux lettres du cerveau"), mais aussi dans l’aire visuelle primaire.

•La lecture augmente également les réponses au langage parlé dans le cortex auditif, dans une région impliquée dans le codage des phonèmes (les plus petits éléments significatifs du langage parlé, comme "b" ou "ch"). Ce résultat pourrait correspondre au fait que les analphabètes ne parviennent pas à réaliser des jeux de langage tels que la délétion du premier son d’un mot (Paris->aris).

•La lecture induit également une extension des aires du langage et une communication bidirectionnelle entre les réseaux du langage parlé et écrit: chez un bon lecteur, voir une phrase écrite active l’ensemble des aires du langage parlé, entendre un mot parlé permet de réactiver rapidement son code orthographique dans les aires visuelles. Chez les personnes qui n’ont pas appris à lire, le traitement du langage est moins flexible et strictement limité à la modalité auditive.

À quoi servent les aires cérébrales impliquées dans la lecture avant qu’une personne n’apprenne à lire ? L’apprentissage de la lecture implique-t-il toujours un gain de fonction, ou bien l’augmentation des réponses aux mots s’accompagne-t-elle de diminutions des réponses à d’autres catégories de connaissances ? 


Un aperçu des vastes réseaux cérébraux dont l’activité augmente avec le score de lecture,
en réponse à des phrases écrites. Dès qu’une personne sait lire, la réponse aux mots écrits
augmente rapidement dans diverses aires visuelles, dont l’une est spécialisée dans l’analyse
de la forme des lettres (graphe de droite). De plus, l’ensemble des régions de l’hémisphère gauche
impliquées dans le traitement du langage parlé (médaillon) devient susceptible
de s’activer également en réponse au langage écrit.

Chez les analphabètes l’aire visuelle de l’hémisphère gauche qui, chez les lecteurs, décode les mots écrits répond à une fonction proche: la reconnaissance visuelle des objets et des visages . Dans cette région, au cours de l’apprentissage, la réponse aux visages diminue légèrement à mesure que la compétence de lecture augmente, et l’activation aux visages se déplace partiellement dans l’hémisphère droit. Le cortex visuel se réorganise donc, en partie, par compétition entre l’activité nouvelle de lecture et les activités plus anciennes de reconnaissance des visages et des objets . Aujourd’hui, on ne sait pas si cette compétition entraîne des conséquences fonctionnelles pour la reconnaissance ou la mémoire des visages.

Les modifications cérébrales liées à l’alphabétisation peuvent-elles se produire à l’âge adulte ? Ou bien existe-t-il une "période critique" pour cet apprentissage dans la petite enfance ?

La très grande majorité des effets de l’apprentissage de la lecture sur le cortex sont visibles autant chez les personnes scolarisées dans l’enfance que chez celles qui ont suivi des cours d’alphabétisation à l’âge adulte. Bien entendu, ces dernières n’atteignent que rarement les mêmes performances de lecture, mais cette différence pourrait n’être due qu’à leur moindre entraînement. À performances de lecture égales, il n’existe pratiquement pas de différences mesurables entre les activations cérébrales des personnes qui ont appris à lire dans l’enfance ou à l’âge adulte. Les circuits de la lecture restent donc plastiques tout au long de la vie.

Ces résultats soulignent l’impact massif de l’éducation sur le cerveau humain. Ils nous rappellent également que l’immense majorité des expériences d’IRM cérébrale portent sur le cerveau éduqué et que l’organisation cérébrale en l’absence d’éducation constitue un immense territoire largement inexploré.
Source et illustration: CEA

Des atomes d’antimatière produits et capturés au CERN

L’expérience ALPHA au CERN vient de réaliser une avancée importante dans le développement de techniques pour comprendre l’une des énigmes de l’Univers, à savoir, ce qui différencie la matière de l’antimatière. Dans un article publié cette semaine dans la revue Nature, la collaboration annonce qu’elle a réussi à produire et à capturer des atomes d’antihydrogène. Cette avancée va ouvrir la voie à de nouvelles méthodes pour réaliser des mesures précises sur l’antihydrogène, et ainsi permettre aux scientifiques de comparer la matière et l’antimatière.

L’antimatière – ou plutôt l’absence d’antimatière – reste l'un des plus grands mystères de la science. La matière et l’antimatière sont identiques, mais ont une charge opposée. Elles s’annihilent au contact l’une de l’autre. Lors du big bang, matière et antimatière devraient avoir été produites en quantité égale. Or, nous savons que notre monde est constitué uniquement de matière: l’antimatière semble avoir disparu. Pour découvrir ce qu’il est advenu de l’antimatière, les scientifiques utilisent diverses méthodes qui ont pour but de déterminer si une infime différence entre les propriétés de la matière et celles de l’antimatière pourrait apporter un début d’explication.


L’une de ces méthodes consiste à prendre l’un des systèmes les mieux connus de la physique, l’atome d’hydrogène, constitué d’un proton et d’un électron, et de vérifier si son homologue dans l’antimatière, l’antihydrogène, constitué d’un antiproton et d’un positon, se comporte de la même manière. Le CERN, avec son installation pour antiprotons de basse énergie, est le seul laboratoire au monde où de telles recherches puissent être menées.

Vue générale de l'expérience ALPHA.
 
Le programme antihydrogène ne date pas d’hier. En 1995, les neufs premiers atomes d’antihydrogène produits en laboratoire l’ont été au CERN. Puis, en 2002, les expériences ATHENA et ATRAP ont montré qu’il était possible de produire de grandes quantités d’antihydrogène, et ainsi ouvert la voie à la réalisation d’études détaillées. Le nouveau résultat d’ALPHA constitue la plus récente des étapes de ce voyage.

Les atomes d’antihydrogène sont certes produits sous vide au CERN, mais ils sont entourés de matière ordinaire. La matière et l’antimatière s’annihilant au contact l’une de l’autre, ces atomes d’antihydrogène ont une espérance de vie très brève. Celle-ci peut toutefois être allongée à l’aide de champs magnétiques intenses et complexes qui permettent de capturer les atomes d’antihydrogène et ainsi d’empêcher qu’ils entrent en contact avec la matière. L’expérience ALPHA a montré qu'il est possible de conserver de cette manière des atomes d'antihydrogène pendant un dixième de seconde, un laps de temps suffisamment long pour pouvoir les étudier. Sur les milliers d’antiatomes produits par l'expérience ALPHA, 38, selon le dernier résultat, ont été capturés suffisamment longtemps pour être étudiés.

"Pour des raisons que l’on ignore encore, la nature a exclu l’antimatière. Il est donc très gratifiant et assez impressionnant de savoir que le dispositif d’ALPHA contient des atomes, neutres et stables, d’antimatière, explique Jeffrey Hangst, de l’Université d’Aarhus (Danemark), et porte-parole de la collaboration ALPHA. Cela nous incite à poursuivre nos efforts pour découvrir les secrets de l’antimatière."

Toujours dans le cadre du programme antimatière du CERN, l’expérience ASACUSA a mis au point récemment une nouvelle technique pour produire des atomes d’antimatière. Dans un article qui paraîtra prochainement dans Physical Review Letters, la collaboration annonce qu’elle a réussi à produire de l’antihydrogène dans un "piège à étranglement", étape préalable indispensable en vue de la production d’un faisceau. ASACUSA envisage de développer cette technique afin de pouvoir disposer de faisceaux d’intensité suffisante et d’une durée de vie assez longue pour être étudiés.

"Nous disposons désormais de deux méthodes pour produire et finalement étudier l’antihydrogène ; l’antimatière ne devrait donc pas pouvoir conserver ses secrets encore bien longtemps, estime Yasunori Yamazaki, du centre de recherche japonais RIKEN, et membre de la collaboration ASACUSA. Il reste encore du chemin à parcourir, mais nous sommes ravis de constater que cette technique fonctionne aussi bien."

"Ces résultats représentent des avancées importantes pour la recherche sur l’antimatière, a déclaré le Directeur général du CERN, Rolf Heuer, et tiennent une place importante dans le vaste programme de recherches mené au CERN.

Des informations complètes sur la technique développée par la collaboration ASACUSA seront disponibles une fois l’article publié.

Source: © CERN
Illustration:
© CERN

l'Électricité pas à pas

Livre l'Électricité pas à pas
 
 
Télécharger

Astronomie et astrophysique

Livre Astronomie et astrophysique
 
 
Télécharger

Le code de la route 2009

Livre Le code de la route 2009

 
 
Télécharger

Le Dictionnaire VIDAL 2009

Le Dictionnaire VIDAL 2009


Télécharger

"Atoms-for-Peace": une collision galactique en action

Des astronomes de l’Observatoire Européen Austral ont réalisé une nouvelle image spectaculaire de la fameuse galaxie appelée "Atoms-For Peace" (NGC 7252). Ce carambolage galactique, formé par la collision de deux galaxies, offre aux astronomes une excellente opportunité d’étudier comment les fusions affectent l’évolution de l’Univers.

Une collision galactique en action.
Atoms-For-Peace (des atomes pour la paix) est le curieux nom donné à une paire de galaxies en et en interactiontrain de fusionner qui se situe à 220 millions d’années-lumière de la Terre, dans la constellation du Verseau. Elle est aussi connue sous les noms de NGC 7252 et Arp 226 et elle est juste assez brillante pour pouvoir être vue par les astronomes amateurs comme une petite tache floue très vague. Cette image très profonde a été réalisée avec la caméra grand champ WFI (Wide Field Imager) de l’ESO, installée sur le télescope MGP/ESO de 2,2 mètres à l’Observatoire La Silla de l’ESO, au Chili.

Une collision de galaxies est un des plus importants processus ayant un impact sur la manière dont notre Univers évolue. Etudier ces collisions permet d’obtenir des informations essentielles sur les ancêtres galactiques. Par chance, de telles collisions sont des événements qui se déroulent très lentement et qui durent des centaines de millions d’années, donnant ainsi beaucoup de
temps aux astronomes pour les observer.

Cette image d’
Atoms-For-Peace représente un "instantané" de cette collision, avec le chaos à plein régime, sur toile de fond de galaxies lointaines. Les résultats de cet échange complexe d’interactions gravitationnelles sont visibles dans les formes des queues faites de courants d’étoiles, de gaz et de poussière. L’image montre également les incroyables coquilles qui se sont formées quand le gaz et les étoiles ont été éjectés des galaxies en collision et qui se sont développées autour de leur cœur commun. Tandis qu’une grande quantité de matière était éjectée dans l’espace, d’autres régions étaient compressées, déclenchant des poussées de formation d’étoiles. Le résultat a été la formation de centaines de très jeunes amas d’étoiles, âgés d’environ 50 à 500 millions d’années et qui sont supposés être les ancêtres des amas globulaires.

Atoms-For Peace
représente peut-être bien ce qui pourrait arriver à notre propre galaxie. En effet, les astronomes prédisent que d’ici trois ou quatre milliards d’années, la Voie Lactée et la galaxie d’Andromède devraient entrer en collision, de manière très semblable à ce qui est arrivé avec Atoms-For-Peace. Mais pas de panique: la distance entre les étoiles d’une galaxie est très grande, aussi il est peu probable que notre termine sa vie dans une collision frontale avec une autre Soleilétoile au cours de la fusion.

Le curieux surnom de cet objet a une histoire intéressante. En décembre 1953, le Président Eisenhower prononça un discours que l'on a intitulé "Des atomes pour la paix" –
Atoms-For-Peace en anglais. Le thème de ce discours était la promotion de la puissance nucléaire à des fins pacifiques – un sujet particulièrement brûlant à cette époque. Ce discours et la conférence au cours de laquelle il fut donné ont fait des vagues dans la communauté scientifique et au-delà, à tel point que NGC 7252 a été appelée la galaxie Atoms-For-Peace. Pour plusieurs raisons ce nom est bizarrement bien approprié: la forme curieuse que l'on voit est le fruit de deux galaxies qui ont fusionné pour donner quelque chose de nouveau et de grandiose, un peu comme ce qui se produit dans la fusion nucléaire. De plus, ces boucles géantes rappellent le schéma classique des électrons en orbite autour d’un noyau atomique.
Source et illustration: (c) ESO

L'encre électronique passe à la couleur

La société E-Ink, spécialisée dans le papier électronique (fournisseur pour le Reader de Sony ou encore le Kindle d'Amazon), a dévoilé une nouvelle méthode permettant l'affichage d'encre électronique en couleurs. La technologie utilisée, baptisée Triton, sera présentée au salon FPD Trade Show de Tokyo en avril prochain et sera intégrée dans la prochaine liseuse du fabricant chinois Hanvon dès 2011.


L'encre électronique passe à la couleur - Illustration: extrait de la video de présentation E-Ink.
 
Ce procédé va permettre aux liseuses de rattraper en partie leur retard qu'elles ont sur les nouvelles tablettes comme l'iPad. Mais cette nouvelle technologie ne permettra pas pour autant d'afficher des vidéos.

Le fonctionnement de l'encre électronique monochrome se caractérise par des micro-capsules sphériques contenant deux pigments: un noir (face sombre) et un blanc (face réfléchissante). L'avantage principal de cette technologie réside dans sa consommation électrique: une fois l'image affichée, aucune alimentation n'est nécessaire pour que l'affichage reste visible, l'éclairage ambiant est utilisé. C'est pourquoi elles présentent une autonomie très agréable de plusieurs semaines.


La nouveauté présentée par E-Ink utilise un filtre de couleurs qui permet ainsi d'aller au-delà des 16 niveaux de gris jusque-là affichés. Ce filtre intègre un damier à trois couleurs (rouge
vert et bleu). Il reste cependant difficile d'y faire afficher des vidéos: l'encre électronique reste principalement adaptée aux textes ou images fixes (photos, graphiques, illustrations). Cet affichage serait 20 % plus rapide que les encres E-Ink actuellement utilisées.

Une liseuse utilisant l'affichage en couleur est déjà proposée par Barnes & Noble. Le premier lecteur utilisant la technologie Triton sera commercialisé en Chine en mars prochain par Hanvon, pour un montant de 440 dollars (soit un peu plus de 320 euros). Cette liseuse intègrera une connectivité Wi-Fi et 3G. D'après le cabinet d'études DisplaySearch, les liseuses devraient générer des revenus allant jusqu'à 9,6 milliards de dollars (contre 431 millions de dollars actuellement).

Auteur de l'article: Cédric DEPOND

Mise en garde sur les risques liés à la consommation du produit dénommé Solution minérale miracle (MMS)

A la suite de cas d’intoxication signalés par des centres antipoison et de toxicovigilance impliquant un produit dénommé "Solution minérale miracle" (1), la Direction générale de la santé (DGS), l’Institut de veille sanitaire (InVS) et l’Agence française de sécurité sanitaire des produits de santé (Afssaps) mettent en garde les consommateurs éventuels sur les risques liés à la consommation de ce produit. 


Ce produit "Solution minérale miracle" en vente sur différents sites Internet, est présenté comme "une découverte qui peut sauver la vie" et "la réponse au sida, aux hépatites A, B et C, au paludisme, à l'herpès, à la tuberculose, à la plupart des cancers et à beaucoup d'autres des pires maladies."



Il s’agit en fait d’une solution de chlorite de sodium à 28 % qui, selon l’utilisation préconisée sur Internet, doit être mélangée avec un kit d’activation (de l’acide citrique à 10 %) pour produire du dioxyde de chlore. C’est à ce produit final que sont associées les allégations médicales citées plus haut.


Le dioxyde de chlore est normalement utilisé en tant que biocide
(2) pour la désinfection de l’eau courante. Aucune efficacité médicale de ce produit n’est avérée.

Ces deux substances, chlorite de sodium et dioxyde de chlore en solution, peuvent être irritantes pour la peau ou les muqueuses oculaires en cas d’application ou de projection. Par voie digestive, les effets toxiques varient selon la
quantité ingérée: vomissements, fièvre, douleurs gastriques et thoraciques, et parfois de graves brûlures des muqueuses de l’œsophage et de l’estomac. Des troubles sanguins (anémie hémolytique, atteinte de l’hémoglobine) peuvent également être observés.

Si vous avez acheté ce produit "Solution minérale miracle", il est dangereux de l’ingérer ou de l’utiliser. Si vous l’avez déjà consommé, il est recommandé de consulter rapidement votre médecin traitant.


Les autorités sanitaires australiennes, canadiennes, américaines et britanniques ont également diffusé une mise en garde similaire.

Source: InVIS (Institut de Veille Sanitaire)

Le LHC passe aux ions lourds

Il aura fallu seulement quatre jours à l'équipe responsable de l'exploitation du LHC au CERN1 pour passer des protons aux ions plomb. À peine le dernier faisceau de protons pour 2010 était-il extrait, le 4 novembre, que la mise en service avec le faisceau d’ions lourds commençait l’après-midi même. Les premières collisions ont été enregistrées à 0 h30 CET le 7 novembre et des conditions stables ont été obtenues pour l’expérimentation avec ions lourds, le lendemain, à 11 h 20 CET.

"La rapidité avec laquelle on est passé aux ions plomb témoigne de la maturité du LHC, a estimé le Directeur général du CERN, Rolf Heuer. Il n’aura fallu que quelques mois d’exploitation courante pour que la machine marche comme sur des roulettes."

Un événement enregistré par l’expérience ALICE, issu des premières collisions d’ions plomb
à une énergie dans le centre de masse de 2,76 TeV par paire de nucléons.


L’exploitation du LHC avec ions plomb (des atomes de plomb débarrassés de leurs électrons) est radicalement différente de l’exploitation avec protons. De la source jusqu’aux collisions, les paramètres de fonctionnement doivent être redéfinis pour ce nouveau type de faisceau. Pour les ions plomb (comme précédemment pour les protons), on a commencé par envoyer un seul faisceau dans l’anneau, dans un seul sens, avant d’augmenter progressivement le nombre de tours. On a ensuite procédé de même avec le faisceau de sens inverse. Les deux faisceaux une fois en circulation, ils ont pu être accélérés jusqu’à la pleine énergie, soit 287 TeV par faisceau. Une valeur beaucoup plus élevée que pour les faisceaux de protons car les ions plomb contiennent 82 protons. D’autres ajustements minutieux ont ensuite été nécessaires avant d'aligner les faisceaux pour les faire entrer en collision et finalement constater que les conditions nominales de prise de données ("faisceaux stables") étaient atteintes. Pour les trois expériences qui enregistrent des données avec des ions plomb (ALICE, ATLAS et CMS), cela signifie le début d’une exploitation continue avec des ions plomb jusqu’à l’arrêt technique hivernal, qui commencera le 6 décembre.

"Le LHC s’est remarquablement bien adapté aux ions plomb. C'est impressionnant, a déclaré Jurgen Schukraft, porte-parole de l'expérience ALICE. Le détecteur ALICE a été optimisé pour enregistrer les très nombreuses traces issues des collisions d'ions et a très bien géré les premières collisions. Nous sommes donc prêts à explorer les nouvelles possibilités que nous offre le LHC."


"Après une période de collisions de protons très fructueuse, nous nous réjouissons de passer à cette nouvelle phase de l’exploitation du LHC, a déclaré Fabiola Gianotti, porte-parole d’ATLAS. Le détecteur ATLAS a enregistré de premiers événements ions lourds spectaculaires et nous sommes impatients de les étudier de près."


"CMS a été conçu pour être un détecteur polyvalent, a déclaré Guido Tonelli, porte-parole de la collaboration. Il est très gratifiant de constater qu’il s’adapte extrêmement bien à ce nouveau type de collisions. Un même détecteur à même de collecter des données dans un mode proton-proton et un mode ions lourds constitue un outil puissant pour rechercher des signatures claires de nouveaux états de la
matière.

L’exploitation avec ions plomb ouvre ainsi de toutes nouvelles perspectives au programme LHC ; elle permettra de sonder la matière telle qu’elle existait dans les tout premiers instants de l’Univers. L’un des principaux objectifs est de produire d'infimes quantités de cette matière, le plasma quark-gluon, et d’étudier son évolution vers la matière qui constitue l’Univers aujourd’hui. Cette étude permettra de mieux comprendre les propriétés de l’interaction forte, qui lie les particules appelées quarks pour former des objets plus grands comme les protons et les neutrons.


Après l’arrêt technique hivernal, l’accélérateur sera redémarré, avec des protons, en février, et l’expérimentation pour la physique se poursuivra tout au long de 2011.


Source et illustration: CERN
Contact

Votre Email*
Votre Questions*
Livré parForm Builder

Boutons Social