samedi 27 septembre 2014

Avons-nous vraiment sauvé la couche d'ozone ?


Selon un rapport récent, la couche d’ozone devrait s'être reconstituée au-dessus de la majorité du globe d’ici le milieu du XXIe siècle, grâce à l'interdiction des gaz qui la détruisaient. Mais certains problèmes subsistent…


Dans les années 1980, un « trou » dans la couche d’ozone – en réalité une zone très appauvrie en ozone – était découvert à quelques dizaines de kilomètres au-dessus de l’Antarctique. La couche d’ozone est dégradée par des gaz regroupés sous le terme SAO (substances appauvrissant l’ozone), au premier titre desquels figurent les chlofluorocarbures (CFC). Le protocole de Montréal a été adopté en 1987 pour limiter les émissions de SAO. Sous l’égide de l’Organisation météorologique mondiale et du Programme pour l’environnement de l’ONU, quelque 300 chercheurs ont aujourd'hui évalué son efficacité et rendu public le 10 septembre dernier un rapport résumé à l’attention des décideurs. Ce rapport conclut que la couche d’ozone devrait retrouver son épaisseur des années 1980 d’ici le milieu du siècle sur la plus grande part de la planète (un peu plus tard pour l’Antarctique), mais que certains remplaçants des SAO risquent d’exercer un effet de serre important.
La couche d’ozone nous protège des rayonnements ultraviolets et il est donc essentiel de la préserver. Les SAO, qui comprennent un certain nombre de gaz contenant du chlore ou du brome, servent notamment de fluides réfrigérants ou de solvants pour le nettoyage à sec. Plus de 190 pays ont ratifié le protocole de Montréal, qui prévoit de réduire fortement ou de supprimer les émissions de ces gaz destructeurs d'ozone.
Pour évaluer l'efficacité de ces mesures, les chercheurs se sont fondés sur un mélange de mesures et de simulations. Les mesures ont été effectuées depuis des stations au sol, des avions de haute altitude (volant jusqu’à 20 kilomètres environ), des ballons montant jusque dans la stratosphère (entre 12 et 60 kilomètres d'altitude) et des satellites. Elles ont servi à reconstituer l'abondance locale et globale d’ozone et des SAO, ainsi qu'à calibrer les modèles atmosphériques simulant l'évolution de la couche d’ozone.
Les conclusions de l'étude sont mitigées. D’un côté, la concentration des SAO contrôlés par le protocole de Montréal a notablement décru : elle serait aujourd’hui 10 à 15 pour cent plus faible qu’au moment de leur pic de concentration, dans les années 1990. En outre, l’épaisseur de la couche d’ozone s’est stabilisée depuis les années 2000 – ce qui confirme les conclusions d’un précédent rapport publié il y a quatre ans – et elle devrait bientôt se mettre à augmenter. Le trou au-dessus de l’Antarctique continue de se manifester chaque printemps, mais il devrait finir par disparaître au cours de la seconde moitié du XXIe siècle.
Les chercheurs soulignent par ailleurs que l’évolution de la couche d’ozone sera influencée par les émissions de gaz tels que le dioxyde de carbone (CO2), le protoxyde d’azote (N2O) et le méthane (CH4). Ces gaz exercent divers effets, parfois contradictoires : ils interagissent par exemple avec les autres composés chimiques de la stratosphère, conduisant tantôt à la destruction tantôt à la formation d'ozone. Cependant, ces effets ne devraient pas remettre en cause la reconstitution de la couche d’ozone, selon Slimane Bekki, du Laboratoire atmosphères, milieux, observations spatiales (LATMOS, CNRS/UVSQ/UPMC), qui a participé à l'étude.
D’un autre côté, le problème des SAO n’est qu’à moitié résolu. En effet, certains de leurs remplaçants, s'ils sont inoffensifs pour la couche d’ozone, sont en revanche de puissants gaz à effet de serre : ils ont un pouvoir réchauffant voisin de celui des gaz auxquels ils se substituent et plusieurs milliers de fois supérieur à celui du CO2 ! C'est le cas par exemple des hydrofluorocarbures (HFC). Leur concentration dans l’atmosphère est pour l'instant assez faible, mais leur émission croit de 7 % par an. En 2050, l'effet des HFC sur le climat pourrait être équivalent à l'émission d’environ 9 gigatonnes de CO2 par an. À cette date, le stock de HFC (présent dans divers appareils, dépôts et décharges) devrait représenter l’équivalent de 65 gigatonnes de CO2. Par comparaison, les émissions anthropiques de CO2dues aux carburants fossiles et aux activités industrielles étaient d'environ 32 gigatonnes par an en 2010.
Par conséquent, les chercheurs estiment qu’en 2050, l’essentiel des bénéfices du protocole de Montréal en termes d’effet de serre seront perdus. Il serait ainsi souhaitable de remplacer les HFC par des gaz à faible effet de serre (déjà disponibles pour certaines applications), tels les hydrorofluoro-oléfines (HFO). Mais les effets à long terme des produits de dégradation de ces gaz restent à préciser…


Comment le multitâche modifie notre cerveau ?

Selon une étude en neuroimagerie, les personnes qui s'adonnent fréquemment à
des activités multitâche présenteraient un déficit de matière grise dans le cortex
cingulaire antérieur (voir ci-dessus).

  Utiliser simultanément smartphones, ordinateurs et autres terminaux numériques changerait la structure de notre cerveau, selon une étude britannique.

       Les personnes qui utilisent simultanément smartphones, ordinateurs, écrans TV et autres terminaux numériques au cours de la journée présenteraient des différences cérébrales avec celles qui utilisent occasionnellement un seul terminal. Tel est le résultat d'une étude publiée le 24 septembre 2014 dans la revue Plos One.
Selon les auteurs de cette étude, le cerveau des personnes qui s'adonnent régulièrement au multitâche dans la journée présenterait un déficit marqué de matière grise dans une zone bien spécifique du cerveau : le cortex cingulaire antérieur, une région qui joue notamment un rôle important dans le traitement des émotions.
A l'heure actuelle, il est toutefois important de noter que les chercheurs ne savent pas encore de façon certaine si le multitâche est à l'origine de cette moindre densité en matière grise, ou bien s'il faut plutôt considérer que les personnes présentant un déficit de matière grise dans le cortex cingulaire antérieur sont plus souvent tentées par les activités multitâche.
En attendant, les auteurs de l'étude notent que ces premiers résultats sont à relier à de précédents travaux, qui avaient montré que le fait de s'adonner de façon très régulière à des activités multitâche était associé avec la présence de dysfonctionnements émotionnels, comme la dépression et les troubles anxieux.
Pour parvenir à ce résultat, les auteurs de l'étude ont analysé la structure cérébrale de 75 adultes, dont la propension à fonctionner en mode multitâche avait été préalablement évaluée à l'aide d'un questionnaire.
Ces travaux ont été publiés le 24 septembre 2014 dans la revue Plos One, sous le titre "Higher Media Multi-Tasking Activity Is Associated with Smaller Gray-Matter Density in the Anterior Cingulate Cortex" .

jeudi 18 septembre 2014

Le chat de Schrödinger, qu’a-t-il de si particulier ?

         Lorsqu’on parle du chat de Schrödinger, en réalité, on fait référence à l’un des plus célèbres problèmes philosophiques ! Problème qui a tout à voir avec une branche de la physique appelée mécanique quantique… La mécanique quantique essaye d’expliquer comment des particules fondamentales – comme les électrons – interagissent les unes avec les autres. Et franchement, la mécanique quantique fait parfois appel à des concepts plutôt étranges. Un exemple ? Hé bien, il est impossible de mesurer avec exactitude les propriétés de ces parti- cules fondamentales…
    Ainsi, lorsque vous déterminez la position d’une particule, la simple action de le faire perturbe la particule et altère vos mesures ! Un vrai casse-tête. Prenez un instant pour y réfl  échir sérieusement et alors, vous comprendrez pourquoi la mécanique quantique se trouve à la frontière entre science et philosophie. Du coup, la mécanique quantique peut rapidement sembler absurde lorsqu’on cesse de l’appliquer aux particules fondamentales et qu’on s’attaque cette fois aux choses macroscopiques (autrement dit, beaucoup plus grosses) comme vous et moi par exemple… ou les chats !
     Posons le problème. Imaginez que vous avez un atome radioactif. Or, vous savez que les atomes radioactifs ont un surplus d’énergie qui les rend instables. À n’importe quel moment, ils peuvent s’en débarrasser et redevenir de « gentils » atomes tout à fait normaux. En revanche, il n’existe pas de lois en physique nous permettant de dire quand EXACTEMENT aura lieu ce changement… Tout ce que nous savons, c’est la PROBABILITÉ que cela arrive à un instant donné. Nous parlons alors de deux états pour un tel atome : l’un qualifi  é d’excité, l’autre de stable. D’après la mécanique quantique, dès que nous effectuons des mesures sur l’atome, il sera soit dans un état, soit dans l’autre, et avant cela, il se trouvera dans un état intermédiaire (une sorte de « super- position » de chaque état) autrement dit dans une sorte de remix de ces deux états… Bref, certes, tout va comme sur des roulettes  lorsqu’on parle d’atomes minuscules obéissant aux règles de la méca- nique quantique. Mais, dès qu’on passe un cran au-dessus, aux grosses choses, c’est franchement la « cata » ! Vous allez comprendre. Un jour, un type du nom d’Erwin Schrödinger eut l’idée de réaliser une drôle d’expérience : mettre dans une boîte un chat avec un fl acon fragile de poison mortel, un marteau et un atome radioactif. Si cet atome se désintègre, alors un mécanisme le détecte, fait balancer le marteau qui brise le fl  acon de poison, lequel tue le pauvre matou qui ne demandait rien à personne. Mais si l’atome ne se désin- tègre pas, le mécanisme n’est pas enclenché, donc pas de marteau pour casser le fl  acon et pas de chat mort… Ouf  ! Mais comme décrit ci-dessus, jusqu’à l’ouverture de la boîte pour mesurer l’atome, nous ne savons pas dans quel état il se trouve, il doit donc se trouver dans un mélange des deux états, non ? Mais – et c’est là tout le problème – qu’arrive-t-il au chat dans ce cas ? Est-il, à l’image de l’atome, dans un mélange de deux états, à la fois mort et vif ? Quel dilemme, et c’est bien pour cette raison que l’on parle du paradoxe du chat de Schrödinger ! Pour récapituler, une observation ou une mesure affecte un résultat. Or, vous ne pouvez jamais connaître le résultat d’une expérience si vous ne le regardez pas… Plutôt prise de tête, l’his- toire, non ? D’ailleurs, depuis que Schrödinger a posé cette question en 1935, personne n’a pu fournir de réponse satisfaisante. Sinon, ne vous inquiétez pas, personne n’a essayé de reproduire cette expé- rience avec un vrai chat. Et le problème n’est pas là. Il s’agit surtout de comprendre si Minet est vivant ou mort lorsqu’on ouvre la boîte, et ce qu’il lui arrive quand la boîte est fermée. Reproduire cette expé- rience n’aurait donc aucun intérêt pour résoudre le problème ! Et je suis franchement ravi de vous confi rmer qu’aucun chat n’a perdu la vie pour répondre à cette question. Quant à Schrödinger, lui-même était si perplexe par le problème posé qu’il admit avoir préféré ne jamais se l’être posé le premier…

Que se passe-t-il d’un point de vue chimique lorsqu’on s’endort ?

     

              Sur une vie entière, on peut passer 24 ans au lit ! Qu’est- ce qui entraîne la fermeture de nos paupières et nous plonge dans les bras de l’ami Morphée ? Il faut bien reconnaître que la science n’en a qu’une vague idée. Nous savons que l’épiphyse (ou glande pinéale), située à la base du cerveau, joue un rôle essentiel. Elle sécrète une hormone appelée mélatonine qui passe dans le sang pour réguler le cycle du sommeil. e Au début du XX  siècle, les chercheurs ont commencé à penser que le sommeil était provoqué par l’accumulation de substances chimiques dans le cerveau. Mais une récente étude suggère que ces composés modifi  ent et régulent simplement le sommeil, plutôt que de le provo- quer. On décompose le sommeil en cinq états distincts, le quatrième étant le plus profond. Le cinquième, caractérisé par des mouvements oculaires rapides, est appelé sommeil MOR (pour Mouvements Oculaires Rapides) ou paradoxal. Il est beaucoup plus léger que les autres et n’est pas accompagné de ronfl  ements (généralement signes d’un endormissement profond). Notre organisme produit d’importantes molécules durant le sommeil. D’ailleurs, chez les adultes comme chez les enfants, la production d’hormones de croissance humaine monte durant les trois premières heures de sommeil. Personne ne sait pourquoi. Cela ne signifi  e pas pour autant que les gens grandissent en dormant…
           Un neurotransmetteur baptisé sérotonine est également présent au moment des rêves qui apparaissent seulement en période de sommeil MOR. Toutefois, il est produit de façon constante par l’organisme, et pas seulement lorsque nous sommes endormis. Bref, vous voyez qu’il n’y a pas de réponse claire à votre ques- tion. Le sommeil reste entouré de mystère. Une chose est sûre, il est toujours le bienvenu !

mercredi 17 septembre 2014

Pourquoi certaines personnes ont-elles moins besoin de dormir que d’autres ?

Des millions d’années d’évolution nous ont donnés une horloge biologique calée sur 24 heures, un chiffre lié à la rotation de notre planète. Cette horloge interne prend en charge toutes nos réactions métaboliques et décide quand il est temps pour nous de nous sentir fatigués ou de nous réveiller. Ainsi, votre propre horloge biologique décide pour vous du temps de sommeil dont votre corps a besoin. Mais à ce sujet, nous sommes tous différents. Chacun de nous a un besoin de sommeil quotidien spécifi que et si celui-ci n’est pas assouvi, nous voilà endetté de sommeil ! Une dette qui, tôt ou tard, devra être acquittée… Impossible d’y échapper, il faut toujours rattraper le temps perdu.
Le puissant mécanisme cérébral qui régule la quantité quoti- dienne de sommeil est appelé homéostat du sommeil. Il s’assure que chacun d’entre nous ait sa dose nécessaire en envoyant des signaux familiers. Vous les connaissez bien : le classique coup de barre, les bâillements interminables et les paupières qui se font plus lourdes in- diquent qu’il est grand temps d’aller se coucher ! Certes, vous pourrez résister quelques temps, mais au bout du compte, l’homéostat du sommeil remportera toujours la partie… Et d’après les connaissances actuelles, rien ne peut changer les besoins fondamentaux en sommeil quotidien d’un individu. Vous pouvez donc être programmé pour avoir besoin de dormir plus (ou moins !) que votre voisin. Bilan, certains passent beaucoup de temps au lit, d’autres peu. Il n’y a pas de règles.

Les couleurs peuvent-elles influencer l’humeur ?

En effet. Les couleurs affectent les gens de diffé- rentes manières. Dans de récentes études, les volontaires avaient tendance à se sentir plus fatigués après avoir travaillé dans une pièce tapissée de rouge que dans une pièce aux murs verts. Ceux qui avaient passé leur temps dans un bureau rouge se sentaient plus stressés et commettaient apparemment plus d’erreurs que ceux qui « planchaient » dans un bureau vert. Les jeunes enfants semblent plus heureux dans une pièce aux murs roses que dans une autre aux murs bleus. Certains haltérophiles, eux, se disent plus performants dans une salle de gym bleue. Allez savoir pourquoi… En tous cas, les signifi cations que nous donnons aux couleurs ont une valeur largement reconnue : le noir, par exemple, symbolise l’autorité et le pouvoir sur les autres (raison pour laquelle le costume noir est une tenue parfaite pour les  affrontements au bureau, le diable n’est-il pas représenté vêtu de noir ?). Le blanc – couleur du mariage, par excellence – représente l’innocence. Le vert est apaisant (est-ce pour cela que les acteurs se retirent dans une pièce aux murs verts avant d’entrer en scène ?). Le brun est triste et le violet évoque la richesse.

Cannabis et échec scolaire : une étude à interpréter avec prudence.

Les adolescents qui fument du cannabis tous les jours auraient 60% plus de risque de ne pas terminer leurs études secondaires. Le résultat d'une étude décrypté en statistiques.


Quelques gouttes d'urines et quelques minutes suffisent à détecter une consommation de cannabis. PABLO PORCIUNCULA / AFP         De nombreuses études rappellent régulièrement l'impact de la consommation de cannabis sur la santé.

La dernière date du mercredi 10 septembre et a étépubliée dans la revue The Lancet Psychiatry. Ici, les scientifiques australiens ont cherché à mettre en corrélation la fréquence de la consommation de cannabis chez les moins de 17 ans avec leur comportement plus tard dans la vie. Les critères étudiés comprenaient la réussite scolaire, l'usage de drogues illégales, la dépendance au cannabis, la dépression et les tentatives de suicide.

60% plus de risques d'échec

Ainsi, selon les chercheurs, les adolescents de moins de 17 ans qui fument du cannabis tous les jours ont 60% plus de risque de ne pas terminer leurs études secondaires et de ne pas réussir l'examen final, par rapport à ceux qui n'ont jamais fumé. 
De même, toujours selon cette étude, les fumeurs quotidiens de cannabis auraient sept fois plus de risque de commettre une tentative de suicide et huit fois plus de risque de faire usage d'autres drogues plus tard dans leur vie.
Si cette étude semble confirmer la corrélation entre la consommation de cannabis et une diminution des performances plus tard dans la vie, la présentation des résultats peut facilement prêter à confusion ; à plus forte raison si l'on examine de façon plus minutieuse la méthodologie qui les sous-tend.
Notre statisticien Avner Bar-Hen a remarqué que la façon dont ces résultats avaient été présentés dans la presse étaient pour le moins tendancieux... 

lundi 15 septembre 2014

Cerveau : que se passe-t-il quand on se souvient ?

En se remémorant des souvenirs, on peut adoucir des événements douloureux du passé et assombrir des moments heureux. Pour quelle raison ? Décryptage.


Les émotions associées à des souvenirs peuvent être réécrites, permettant d'adoucir des événements douloureux du passé et à l'inverse d'assombrir des moments heureux, suggère une étude menée sur des souris au Japon et aux Etats-Unis et publiée dans Nature.
TRAITEMENTS. "Cette propriété (de renversement) de la mémoire est utilisée cliniquement pour traiter" des maladies mentales, "cependant les mécanismes neuronaux et les circuits du cerveau qui autorisent ce changement de registre émotionnel demeurent largement méconnus", soulignent les chercheurs en préambule.
L'objet de l'étude est de décrypter ces procédés sous-jacents, ouvrant la voie à de nouvelles pistes pour soigner des pathologies comme la dépression ou les troubles de stress post-traumatique. Elle "valide aussi le succès de la psychothérapie actuelle", explique à l'AFP le directeur de recherche Susumu Tonegawa.

Une interaction flexible entre l'hippocampe et l'amygdale

Ces travaux, fruit d'une collaboration entre l'institut japonais Riken et leMassachussets Institute of Technology (MIT) aux Etats-Unis, s'appuient sur une nouvelle technologie de contrôle du cerveau via la lumière, appelée "optogénétique", pour mieux comprendre ce qui se passe quand on se remémore de bons ou mauvais moments.
CERVEAU. Les résultats démontrent que l'interaction entre l'hippocampe, partie du cerveau qui joue un rôle central dans la mémoire, et l'amygdale, censée être une sorte de chambre de stockage des réactions positives et négatives, est plus flexible que ce qu'on pensait jusqu'à présent.
Pour y parvenir, les chercheurs ont injecté une protéine d'algue sensible à la lumière à deux groupes de souris mâles. Ils ont ainsi pu suivre la formation d'une inscription en mémoire en temps réel, qu'ils ont réactivé à leur gré grâce à des impulsions lumineuses.
Dans un deuxième temps, les scientifiques leur ont fait artificiellement revivre ces souvenirs, tout en soumettant les rongeurs à l'expérience opposée : les souris agréablement disposées recevaient un choc, tandis que les autres avaient la bonne surprise de rencontrer leurs comparses.
La nouvelle expérience a pris le dessus sur l'émotion initiale. "Nous avons fait un test dans la première cage de laboratoire et la crainte originelle avait disparu", décrit Susumu Tonegawa, Prix Nobel de médecine en 1987.
Cependant ce phénomène n'a pu être observé qu'en agissant sur l'hippocampe, sensible au contexte environnant, alors qu'il n'a pas été possible d'influer sur l'amygdale.
Les chercheurs espèrent que leurs découvertes feront avancer la recherche médicale sur les maladies de type troubles dépressifs ou post-traumatiques, affectant notamment les militaires.
A l'avenir M. Tonegawa espère pouvoir "contrôler les neurones avec une technologie sans fil, sans outil intrusif comme les électrodes" et "potentiellement faire croître le nombre de souvenirs positifs par rapport aux négatifs".
En juillet 2013, l'équipe du professeur Tonegawa avait réussi à créer de faux souvenirs chez des souris génétiquement modifiées en manipulant des cellules de l'hippocampe, région du cerveau impliquée dans la mémoire et en programmant ces cellules pour qu'elles puissent répondre à des pulsions lumineuses afin de pouvoir les manipuler.

Le rôle de la dopamine dans le processus de motivation est mieux compris.

Comment parvenons-nous à rester motivés dans la réalisation d’un objectif, lorsque cet objectif est lointain ? Vraisemblablement, parce que notre cerveau libère de la dopamine pendant toute la période précédant l’obtention de l’objet désiré.

On le sait, chez l'homme comme chez la plupart des mammifères, la dopamine est un neurotransmetteur qui joue un rôle central dans la motivation : lorsque nous obtenons quelque chose que nous convoitions (une friandise, un succès ou sportif ou professionnel…), notre cerveau opère à une libération massive de dopamine, ce qui nous procure une intense sensation de satisfaction (c'est d'ailleurs pourquoi on la surnomme « hormone de la récompense »). En d'autres termes, c’est la promesse d'une libération massive de dopamine qui nous incite à agir pour obtenir ce que nous désirons. D'où son rôle central dans le processus de motivation.
Toutefois, une question se pose : comment parvenons-nous à rester motivés lorsque l'obtention de notre objet de désir nécessite préalablement de déployer des efforts sur une longue durée ? En d'autres termes, quel est le mécanisme qui nous permet de rester motivés alors que l'obtention de notre objet de désir, et la libération massive de dopamine associée à cette obtention, n'est pas immédiate mais différée dans le temps ? Une question qui concerne d’ailleurs non seulement l'être humain, mais également les autres mammifères. Par exemple, lorsqu’un renard veut se procurer de la nourriture, il doit d'abord passer un certain temps à arpenter son environnement à la recherche d'une proie. Une période préalable de chasse qui, en certaines saisons comme en hiver, peut même se révéler extrêmement longue et fastidieuse.
Cette énigme, des biologistes américains viennent de la résoudre, en menant une série d'expériences sur des rats. En effet, leurs travaux suggèrent que si nous parvenons à rester motivés malgré le fait que l'obtention de notre objet de désir soit différée dans le temps, c'est parce que la dopamine n'est pas seulement libérée au moment de l'obtention de notre objet de désir, mais également avant cette obtention, c'est-à-dire pendant toute la période où nous déployons des efforts afin de parvenir à notre but.
Pour obtenir ce résultat, Ann Graybiel et ses collègues du Massachusetts Institute of Technology (Cambridge, États-Unis) ont analysé l'activité cérébrale de rats à la recherche d'une récompense cachée au coeur d'un labyrinthe. Plus précisément, les scientifiques américains ont mesuré la quantité de dopamine qui était libérée dans le striatum de ces rats (le striatum est une structure cérébrale notamment impliquée dans l'apprentissage et la mémoire).
Résultat ? Ils ont constaté que la libération de dopamine ne se produisait pas seulement lorsque les rats découvraient la récompense (même si, évidemment, un pic de dopamine était précisément observé à ce moment-là), mais aussi avant la découverte de cette récompense, c'est-à-dire pendant la recherche de la récompense dans le labyrinthe.
En d'autres termes, les niveaux de dopamine mesurés chez ces rats au cours de toute la période précédant la découverte de la récompense suggèrent que, durant leurs pérégrinations dans le labyrinthe, les rongeurs sont en réalité en train « d'anticiper » l'obtention de cette récompense. Un constat renforcé par le fait que, lorsque les rats sont brusquement habitués à une récompense plus importante que celle proposée habituellement, les niveaux de dopamine mesurés au cours des pérégrinations ultérieures précédant la découverte de la récompense augmentent sensiblement. Un phénomène qui montre sans ambiguïté que la quantité de dopamine libérée pendant la période préalable à l'obtention de la récompense est bel et bien directement corrélée à la taille de la récompense attendue.
Un résultat qui pourrait aider à mieux comprendre pourquoi les personnes atteintes de la maladie de Parkinson, une affection qui altère notamment les mécanismes de transmission de la dopamine, ont du mal à rester motivés dans des tâches qui nécessitent de déployer des efforts sur une longue durée.
Cette étude a été publiée le 4 août 2013 dans la revue Nature sous le titre« Prolonged dopamine signalling in striatum signals proximity and value of distant rewards ».

dimanche 14 septembre 2014

Découverte d'une hormone qui augmente la durée de vie

Une équipe française vient de découvrir chez un ver une hormone qui augmente la longévité, afin de repousser l'arrivée des maladies liées à l'âge.

RÉGIME. Faire un régime allonge t-il la durée de vie ? C'est prouvé chez un grand nombre d'espèces, de la levure aux primates, en passant par le chat. Mieux, restreindre sérieusement la quantité de nourriture diminue l'incidence des maladies liées au vieillissement (cancers, maladies neurodégénératives, etc.) chez les rongeurs et les grands singes. Et pourquoi pas chez l'homme.
Mais attention : un régime drastique est difficilement soutenable, entraînant irritabilité, baisse de la libido et même baisse de la fertilité. Il est donc largement déconseillé par les nutritionnistes !

Un lien établi entre allongement de la durée de vie et baisse de la fertilité

DÉCOUVERTE. L'équipe d'Hugo Aguilaniu, du Laboratoire de biologie moléculaire de la cellule de l'Université Claude Bernard Lyon 1, s'est penchée sur les conséquences de la restriction calorique chez un ver rond nommé "Caenorhabditis elegans", souvent étudié dans les laboratoires de recherche.
Dans la revue Nature communications, l'équipe détaille sa découverte : chez ce ver, manger moins entraîne la production d'une hormone, l'acide dafachronique, qui a la particularité d'augmenter la longévité et de diminuer la fertilité. Preuve qu'il y a un lien direct entre l'augmentation de la durée de vie et la baisse de la fertilité lors d'un régime drastique.
Représentation de l'augmentation de la durée de vie par restriction calorique (en orange) par comparaison avec des animaux nourris à volonté (courbe blanche). Une hormone stéroïdienne, dérivée du cholestérol (schématisée en orange entre les deux courbes) est produite en conditions de restriction calorique et est requise pour l'allongement de la durée de vie. © Hugo Aguilaniu / CNRS
MÉCANISME. Comment cette hormone peut-elle provoquer un ralentissement de la vieillesse et une baisse de la fertilité ? Les chercheurs ont découvert qu'elle se fixe sur un récepteur dans le noyau des cellules, activant ainsi une quantité importante de gènes. Or parmi ces gènes, certains induisent un effet positif (un ralentissement de la vieillesse), d'autres un effet négatif (une baisse de la fertilité).
En utilisant cette hormone, l'équipe d'Hugo Aguilaniu espère mettre au point des applications thérapeutiques, puisque l'hormone identifiée et son récepteur ont des cousins proches chez les mammifères et l'Homme. Mais pour cela, ils doivent parvenir à dissocier l'effet bénéfique de l'effet négatif généré par l'hormone...

La saison de naissance influe-t-elle sur le cerveau ?

La saison de notre naissance a-t-elle une influence sur la structure de notre cerveau ? Cette hypothèse pour le moins surprenante est avancée par un neuropsychiatre américain, dans l’édition de mars de la revue NeuroImage.

Chez les hommes, le gyrus temporal supérieur gauche (le gyrus temporal est une région du cerveau située derrière l'os temporal, soit l’os situé derrière les tempes) serait en moyenne un peu plus développé chez les individus nés en automne et au début de l'hiver, que chez ceux nés au printemps ou au début de l'été.
Tel est le résultat plutôt troublant d’une étude publiée dans l’édition du mois de mars de la revue Neuroimage, sous le titre « Prediction of individual season of birth using MRI ».
Des travaux que le blog Passeur de Sciences avait d’ailleurs détaillés dès leur publication, dans un billet publié le 9 mars 2014.
Pour parvenir à ce résultat, le neuropsychiatre américain Spiro Pantazatos (Université de Colombia à New York, États-Unis) a analysé les relevés d'imagerie cérébrale de 536 habitants de la région de Londres.
A l'issue de ces travaux, le scientifique américain est parvenu à la conclusion que les hommes nés durant la période de Noël sont ceux qui présentent le gyrus temporal supérieur gauche le plus développé.
Un tel résultat doit-il être pris au sérieux ? Pour surprenant qu'il soit de prime abord, il se trouve en attendant qu’il vient confirmer de précédentes études menées en 2005 et 2006.  En effet, il se trouve qu'une autre étude publiée en 2005 dans la revue American Journal of Psychiatry au sein d'un article intitulé « Regional deficits in brain volume in schizophrenia: a meta-analysis of voxel-based morphometry studies » avait précisément établi l'existence d'une corrélation entre un faible développement du gyrus temporal supérieur gauche et une plus grande probabilité de souffrir de schizophrénie.
Or, selon une autre étude publiée en 2006 (accéder à l'article "Excess in the spring and deficit in the
autumn in birth rates of male schizophrenic patients in Italy: Potential role of perinatal risk factors"
), la schizophrénie semble précisément être plus développée chez les individus de sexe masculin nés au printemps…
Si cette nouvelle étude est donc bien moins fantaisiste qu'il n'y paraît de prime abord, il sera toutefois nécessaire de conduire d’autres expériences indépendantes afin d’évaluer la robustesse de ce résultat.

L'ADN, disque dur du futur...

Les chercheurs sont désormais capables de synthétiser et de lire des molécules artificielles d'ADN contenant des informations comme du texte, de l'image ou du son.

Le monde dans lequel nous vivons regorge de données numériques dont l'archivage pose de nombreux problèmes. Tous les supports existants ont des durées de vie relativement faibles, n'excédant pas, au mieux, quelques dizaines d'années. Les spécialistes de la bio-informatique rêvent donc depuis la fin des années 80 de stocker des informations dans l'ADN, la molécule très stable qui code le programme génétique des êtres vivants. En théorie, quelques grammes d'ADN pourraient contenir pendant des milliers d'années les informations contenues dans plusieurs milliers de gros disques durs de plus de 500 Go.
Cette piste de recherche, loin de relever de la science-fiction, a récemment fait l'objet de travaux très prometteurs. Une équipe européenne de l'institut européen de bio-informatique (EMLB-EBI) basé à Londres et dirigée par Nick Goldman rapporte jeudi dans la revue Nature avoir réussi à produire puis à décoder de l'ADN contenant différentes données: un enregistrement mp3 du discours «I have a dream» de Martin Luther King, une photo de l'institut, une copie de l'article historique de Watson et Crick décrivant la structure moléculaire des composant de l'ADN et un texte contenant l'ensemble des sonnets de Shakespeare.

«Un minuscule grain de poussière» d'ADN obtenu

Nick Goldman pointe le «grain d'ADN» dans lequel sont stockées les données.Nick Goldman pointe le «grain d'ADN» dans lequel sont stockées les données.
La première partie du travail a consisté à transformer la version numérique de ces documents, une succession de 0 et de 1, en un code ADN - une succession de lettres A, C, T ou G correspondants aux différents barreaux dont peut être composée la molécule en double hélice. Comme il n'est pas possible de synthétiser une molécule très longue, les chercheurs ont décomposé le code en milliers de séquences plus courtes se recoupant les unes les autres et intégrant une information sur leur place dans la séquence globale. Cette technique permet au passage de gommer les éventuelles erreurs dans la fabrication ou la lecture du code ADN.
L'entreprise américaine Agilent s'est alors occupée de produire la centaine de milliers de brins d'ADN commandés par les chercheurs puis les ont dupliqué à 12 millions d'exemplaires avant de les lyophiliser pour qu'ils se conservent mieux. Ils ont alors renvoyé «le minuscule grain de poussière» obtenu et contenant toutes les données. L'équipe européenne a alors mis en place des techniques traditionnelles de séquençage pour décoder l'ADN de synthèse reçu. Ils ont ainsi pu reconstituer les fichiers d'origine sans la moindre erreur visible.

10.000 euros le Mo mais un coût de conservation quasi-nul

Il ne s'agit pour l'instant que d'une preuve de concept mais elle montre que l'ensemble du procédé d'archivage par l'ADN est d'ores et déjà réalisable techniquement. Cela vient enrichir des travaux similaires publiés en août dernier dans Science et dirigés par George Church, de l'université Harvard. La méthode d'archivage était légèrement différente: elle permettait de stocker une plus grande densité de donnée mais était plus sensible aux erreurs de lecture.
Pour l'instant cette technique est encore très chère. Les chercheurs évoquent dans Le Temps un coût approximatif de 10.000 euros pour la création d'un mégaoctet d'ADN de stockage. A titre de comparaison, une clé USB de 8 Go - environ 8000 Mo - ne vaut pas plus de 15 euros aujourd'hui. «Comme le coût de conservation de l'ADN est quasi-nul, la méthode est déjà compétitive pour des applications très pointues», explique au quotidien suisse Christophe Dessimoz, co-signataire de l'article paru dans Nature. «Par exemple, pour conserver à très long terme les coordonnées de sites nucléaires. D'ici 10 ans, le prix sera divisé au moins par 100 ce qui permettra vraiment de développer l'archivage par ADN.»

samedi 13 septembre 2014

Peut-on travailler et apprendre en dormant ?


Des neurobiologistes ont montré que même endormi, le cerveau peut analyser le sens d’un mot et se préparer à une réponse motrice appropriée. De quoi profiter du sommeil pour apprendre ?


On savait que le cerveau ne se déconnecte pas complètement de son environnement pendant le sommeil. Il reste même capable d’un certain traitement sémantique : on se réveille ainsi plus facilement en entendant son nom, les cris de son bébé ou une alarme à incendie que des sons quelconques d'intensité comparable. Mais les réponses cérébrales mises en évidence jusqu’à présent étaient stéréotypées, par exemple la reconnaissance automatique d’un stimulus. Sid Kouider, du Laboratoire de sciences cognitives et psycholinguistiques (CNRS/ENS/EHESS), à Paris, et ses collègues sont allés plus loin : ils ont montré que pendant le sommeil, le cerveau peut traiter l’information de façon flexible et préparer une réponse motrice appropriée.
Les chercheurs ont entraîné des sujets à catégoriser des mots. Une liste de mots leur était présentée et ils devaient choisir, dans une première expérience, si le mot désignait un animal ou un objet, et, dans une seconde, s’il s’agissait d’un vrai mot ou d’un pseudo-mot (un mot qui n’existe pas, comme par exemple « bimeur » ou « fasu »). Ils indiquaient leur choix en pressant un bouton avec la main déterminée à l'avance, par exemple la droite pour un animal et la gauche pour un objet. Parallèlement, les chercheurs mesuraient l’activité cérébrale des sujets à l’aide d’électrodes posées sur le crâne.
S. Kouider et ses collègues ont ainsi pu identifier un marqueur cérébral de la prise de décision et de la préparation à l’action nommé potentiel de préparation latéralisé (LRP, pour Lateral Readiness Potential) : quand le sujet choisit s’il doit utiliser sa main droite ou sa main gauche, un pic caractéristique se produit dans le tracé électroencéphalographique au niveau du cortex moteur.
Pour tester si les sujets pouvaient effectuer cette catégorisation pendant leur sommeil, les chercheurs les ont placés dans une configuration propice au sommeil (siège incliné, pièce obscure, etc.) en continuant à leur faire écouter des mots. Après avoir vérifié qu’ils étaient bien endormis en testant leur absence de réponse et en mesurant l'activité cérébrale caractéristique du sommeil, ils ont traqué le marqueur précédemment identifié. Les mots diffusés n’avaient pas été présentés pendant l’éveil, de sorte que le cerveau devait analyser leur sens et non se contenter de reproduire une réponse déjà enregistrée.
Et ce marqueur cérébral de la décision et de la préparation à l’action a bien été détecté dans le tracé électroencéphalographique. Cela indique que, même plongé dans un sommeil profond, le cerveau continue à catégoriser les mots et à s’apprêter à déclencher la réponse motrice appropriée – ici appuyer sur le bouton avec la main droite ou gauche. Au réveil, les participants ne se souvenaient pas avoir entendu les mots, ce qui confirme leur état inconscient au moment du test.
La clef réside dans l’automatisation du processus provoquée par l’entraînement. C’est un peu comme l’apprentissage de la conduite : au début, on doit contrôler chaque geste, mais avec l’expérience, on finit par exécuter un certain nombre d’actions sans y prêter attention. Pour la tâche simple effectuée dans cette expérience, les participants parvenaient à ce stade automatique en quelques dizaines d’essais. Poussée à l’extrême, l’automatisation permet d’exécuter certaines tâches cognitives en se passant du cortex préfrontal (une aire cérébrale nécessaire à l’attention et au contrôle volontaire), qui est largement inactif pendant le sommeil.
Selon S. Kouider, toute tâche automatisable est susceptible d’être effectuée en dormant : on pourrait par exemple présenter des calculs à un homme assoupi et lui faire vérifier leur exactitude, après l’avoir entraîné à cette tâche lorsqu’il était éveillé. Qu’en est-il dès lors du vieux fantasme d’apprendre une langue étrangère pendant son sommeil ? Ce pourrait bien être réalisable, selon S. Kouider. Il suffirait de trouver une tâche automatisable associée, par exemple présenter successivement à un sujet éveillé un mot en français et sa traduction, tout en lui demandant de dire « oui » si les deux mots sont dans la même langue et « non » dans le cas contraire ; puis continuer de lui présenter des mots et leur traduction pendant son sommeil pour établir des liens cérébraux entre les deux. De façon générale, l’équipe de S. Kouider travaille sur les pistes pour exploiter le sommeil pour divers apprentissages.
« Le gain sera probablement faible, avertit cependant le neurobiologiste. En outre, les recherches sur la possibilité de mettre à profit le temps de sommeil doivent considérer le coût associé, et si le jeu en vaut la chandelle ». L’apprentissage restera quoi qu’il en soit bien plus efficace pendant l’éveil. De plus, si le sommeil existe chez toutes les espèces animales, c’est qu’il a une utilité, qui risque d’être perturbée si l'on s'en sert pour apprendre. Il permet par exemple de consolider les souvenirs de la journée. Ou plus simplement, comme le dit Arthur Schopenhauer dans ses Aphorismes sur la sagesse dans la vie : « Le sommeil est pour l'ensemble de l'homme ce que le remontage est à la pendule » !

vendredi 12 septembre 2014

Des physiciens découvrent un nouveau type de matière.

Une particule subatomique non prévue par la physique théorique des particules élémentaires a été détectée par des physiciens de l'expérience Large Hadron Collider beauty (LHCb), au CERN.

Des physiciens de l'expérience Large Hadron Collider beauty (LHCb) du CERN ont détecté une particule subatomique, soit une particule d'échelle inférieure à celle de l'atome, dont l'existence n'est pas prévue par la physique théorique des particules élémentaires.
Quelle est cette particule trouble-fête, sobrement baptisée par ses découvreurs Z(4430) ? Il s'agit d'une particule composée de quatre quarks. Les quarks ? Ce sont les plus petites particules connues à ce jour dans la matière, qui ne peuvent donc pas être décomposées en particules plus petites (c'est pourquoi elles sont dites "particules élémentaires").
En quoi est-il surprenant de découvrir l'existence d'une particule constituée de quatre quarks ? Pour comprendre pourquoi la détection de Z(4430) est si étonnante, il faut d'abord savoir que les quarks, qui ne peuvent pas exister de manière isolée, s'assemblent pour former des particules composites appelées "hadrons".
A l'heure actuelle, il existe deux principales sortes de hadrons : les mésons, qui sont composés d'un quark et d'un anti-quark, et les baryons, constitués de trois quarks (par exemple, les protons et les neutrons sont des baryons, car ils sont constitués de trois quarks).
Ceci étant posé, on comprend maintenant mieux en quoi la particule découverte par les physiciens du Large Hadron Collider beauty est si originale : étant constituée de plusieurs quarks, Z(4430) est donc bien un hadron, mais dont la composition ne cadre donc pas avec la composition habituelle des hadrons. C'est pourquoi la particule Z(4430) est dite hadron « exotique ».
Il est à noter que d'autres hadrons exotiques avaient déjà été découverts au cours de précédentes expériences internationales menées depuis le début des années 2000, comme l'expérience BELLE, une expérience de physique des particules menée à l’Organisation de Recherche de l’Accélérateur des hautes Énergies (K2K), à Tsukuba (Japon).

L'activité électrique dans les synapses peut désormais être mesurée.

Des chercheurs britanniques ont développé une technique permettant de mesurer l'activité électrique dans les synapses.cette zone de contact entre deux neurones par laquelle transite l'influx nerveux.

Mesurer l'activité électrique dans une synapse, cette zone de contact entre deux neurones ? A l’évidence rien de facile, au vu de la petitesse des synapses (la taille des synapses varie de 2 à 100 microns), qui rend très difficile la mesure de l'activité électrique dont ils sont le siège. Pourtant, des chercheurs britanniques l’ont fait, grâce à la mise en place d’un nouveau procédé qui a fait l’objet d’une publication le 18 septembre 1013 dans la revue Neuron, sous le titre « Nanoscale-Targeted Patch-Clamp Recordings of Functional Presynaptic Ion Channels ».
Le principe de ce procédé mis en place par Pavel Novak et ses collègues de l’University College de Londres ? Il repose sur l'utilisation d'un dispositif demicroscopie dit « à sonde locale », qui permet de cartographier le relief de structures extrêmement petites, de l'ordre de quelques dizaines de nanomètres.
Pour utiliser ce dispositif  de microscopie à haute résolution selon leurs besoins, les auteurs de l’étude ont intégré ce dernier dans une pipette de taille nanométrique. En déplaçant cette « nanopipette » au-dessus de l'échantillon étudié, les scientifiques britanniques ont ainsi pu révéler sa structure en trois dimensions.
Une fois l'échantillon cartographié, Pavel Novak et ses collègues ont utilisé la nanopipette pour enregistrer l'activité électrique entre les neurones constituant l’échantillon. L’activité électrique traversant les neurones étant causée par la circulation des ions potassium, sodium et chlorure entre l’intérieur et l’extérieur des neurones, les chercheurs britanniques ont utilisé la nanopipette pour observer les quantités présentes d’ions potassium, sodium et chlorure. En répétant les mesures en de multiples points de l’échantillon, les auteurs de l’étude ont obtenu en quelque sorte une carte en trois dimensions de son activité électrique.
La mise au point de ce procédé, qui devrait permettre à la communauté scientifique de mieux comprendre le fonctionnement de notre cerveau, pourrait notamment venir apporter une contribution importante au Brain Activity Map Project (BRAIN initiative), ce projet initié par l'administration Obama, dont l’objectif est de dresser une cartographie du cerveau en descendant jusqu'à l'échelle du neurone.

samedi 6 septembre 2014

Des physiciens ont créé un nouvel élément chimique

Un nouvel élément chimique va faire son entrée dans le tableau périodique des éléments : il s'agit de l'élément 117, un élément chimique artificiellement créé par des physiciens.

C'est le plus lourd élément chimique jamais observé : l'élément 117. Se caractérisant par un atome doté de 117 protons comme son numéro atomique l'indique, cet élément chimique qui n'a pas encore été officiellement baptisé a été artificiellement créé par une collaboration internationale de chimistes et de physiciens. Sa synthèse fait l'objet d'une publication le 1er mai 2014 dans la revue Physical Review Letters.
Pour comprendre le contexte scientifique dans lequel s'inscrit la synthèse de l'élément 117, mentionnons au préalable les quelques éléments scientifiques suivant. Tout d'abord, rappelons que le noyau des atomes est composé de protons et de neutrons : plus leur nombre est élevé, et plus l'élément chimique en question est « lourd ». Dans la nature, l'élément chimique le plus lourd est l'uranium, qui possède 92 protons. Il n'existe donc pas à l'état naturel des éléments chimiques dont le noyau des atomes possède un nombre de protons supérieur à 92. Pour les observer, ces éléments chimiques lourds doivent être synthétisés artificiellement en laboratoire. Des travaux très difficiles, car ces atomes sont généralement instables et possèdent donc une durée de vie très courte, ce qui complique forcément leur détection.
Toutefois, la théorie prédit l'existence d'un « îlot de stabilité » pour des atomes constitués d'un nombre de protons très supérieurs à ceux de l'uranium. En d'autres termes, il existerait des éléments chimiques extrêmement lourds, mais qui seraient aussi très stable. D'où l'intérêt de synthétiser en laboratoire des éléments chimiques de plus en plus lourds, afin d'accéder à ce fameux « îlot de stabilité ». Et c'est précisément l'un des objectifs qui a présidé à la synthèse de l'élément 117, dans les murs du Centre de Recherche sur les Ions Lourds (Darmstadt, Allemagne)...
Pour produire l'élément 117, ses créateurs ont accéléré des noyaux d'atomes afin de provoquer une fusion entre deux noyaux atomiques, un événement dont on sait qu'il peut déboucher de temps à autre sur la production d'un noyau atomique lourd. Une exérience délicate, car lors de ces opérations de fusion entre deux atomes, les noyaux atomiques ainsi créés sont tellement excités qu'ils fissionnent souvent avant d'être détectés par les expérimentateurs.
Il est à noter qu'un atome d'élément 117 avait été observé pour la première fois dès 2010 par une collaboration americano-russe officiant au Joint Institute for Nuclear Research (Dubna, Russie)
Ces travaux ont été publiés le 1er mai 2014 dans la revue Physical Review Letters, sous le titre "48Ca + 249Bk Fusion Reaction Leading to Element Z = 117: Long-Lived α-Decaying 270Db and Discovery of 266Lr ".