samedi 18 octobre 2014

Le mystère des pierres mouvantes élucidé.

Dans la Vallée de la Mort, aux États-Unis, de lourdes pierres se déplacent toutes seules en laissant des traces dans le sol. Le vent et la glace hivernale seraient en cause.

Racetrack Playa est un lac asséché une grande partie de l’année situé dans la Vallée de la Mort, en Californie. Des pierres, pesant parfois plus de dix kilogrammes, s'y déplacent en laissant derrière elles une trace dans la boue. Le phénomène sucite l'intérêt depuis la publication de photographies dans le magazine Life en 1952, mais il restait inexpliqué, malgré de nombreuses hypothèses proposées. Richard Norris, de l’Institut d’océanographie Scripps, et ses collègues proposent aujoud'hui une nougelle explication. Après avoir suivi les pierres mouvantes avec des GPS et d'autres instruments, ils ont mis en évidence ler rôle joué par le vent et la glace.
Ce phénomène ne semble pas très mystérieux, pourtant il a résisté pendant presque 60 ans aux tentatives d'explication. Il faut dire que les conditions climatiques régnant dans la vallée de la Mort sont peu propice aux études de terrain ! La première hypothèse, avancée dès 1948, faisait intervenir des rafales de vent ou des tourbillons. Mais cela n’explique pas pourquoi ce phénomène ne se manifeste pas dans d’autres régions exposées à des vents violents. Certains ont imaginé des facteurs qui réduiraient les frottement des pierres. D’autres ont proposé que ces rochers étaient pris et entrainés par de la glace. Les géologues ont suivi la trajectoire d’une trentaine de pierres dans les années 1970, sans parvenir à valider cette hypothèse.
Les recherches se sont poursuivies durant les années 1990. Si le vent et la glace semblent bien impliqués, il était encore difficile d’établir un scénario précis. Depuis 2009, des balises GPS sont installées sur certains rochers pour enregistrer leurs déplacements et des caméras numériques les suivent en timelapse (des films accélérés).
En 2011, R. Norris s’est associé avec son cousin James Norris, Ralph Lorenz, qui étudiait le site depuis 2007, et deux autres collègues. C’est en décembre 2013 qu’ils font une observation cruciale. Un mois plus tôt, des précipitations, rares dans cette région, remplissent le fond du lac asséché de quelques centimètres d’eau. Les températures hivernales font geler la surface de l’eau. Mais les chercheurs observent à plusieurs reprises, en fin de matinée, que la glace se brise en plaques de plusieurs dizaines de mètres de long et quelques millimètres d'épaisseur, flottant sur l’eau. Poussées par un vent léger, ces plaques appuient sur les pierres affleurantes et les mettent en mouvement ! Les pierres se déplacent ainsi de deux à cinq mètres par minute. La direction du vent dominant explique pourquoi les traces sont souvent parallèles ou tournent parfois toutes en même temps. En deux mois – avant l’évaporation de l’eau –, un rocher s’est ainsi déplacé de 224 mètres. Le phénomène des pierres mouvantes semble enfin éclairci !

L'auteur

Sean Bailly est journaliste à Pour la Science

jeudi 16 octobre 2014

La dépression altère durablement les fonctions cérébrales.

La répétition des épisodes dépressifs peut endommager de façon permanente certaines fonctions cognitives, comme l'attention ou l'aptitude à réaliser rapidement des tâches intellectuelles simples.

C'est un résultat loin d'être anodin qui vient d'être obtenu par le médecin Philip Gorwood (Centre Hospitalier Sainte-Anne, Paris) et ses collègues. Et pour cause, puisque ces chercheurs de l'INSERM viennent de démontrer que la répétition des épisodes dépressifs est susceptible d'endommager de façon permanente les fonctions du cerveau.
Plus précisément, Philip Gorwood et ses collègues ont réussi à montrer que les personnes qui ont déjà connu au moins deux épisodes dépressifs au cours de leur existence exécutent des tâches cognitives courantes beaucoup plus lentement que les personnes qui n'ont jamais connu d'épisodes dépressifs, et ce même lorsque ces épisodes dépressifs sont terminés depuis longtemps. En d'autres termes, la répétition des épisodes dépressifs est ni plus ni moins susceptible de laisser des séquelles permanentes dans les fonctions cérébrales des personnes dépressives.
Pour parvenir à ce résultat, les chercheurs français ont réalisé une vaste étude auprès d'un panel de 2000 volontaires ayant connu au moins un épisode dépressif au cours de leur existence. Pour mesurer leurs capacités cognitives, les auteurs de l'étude ont évalué la rapidité des volontaires à réaliser un test simple, consistant à relier des cercles numérotés sur une feuille.
Détail important : cette évaluation a été réalisée deux fois pour chaque volontaire : une première fois durant l’épisode dépressif, puis une deuxième fois six semaines après l'épisode dépressif, lorsque les volontaires ne présentaient plus aucun symptôme dépressif.
Résultat ? Les volontaires qui n'avaient connu qu'un seul épisode dépressif dans le passé ont mis en moyenne 35 secondes pour réaliser le test. Mais pour les volontaires qui avaient déjà vécu au moins deux épisodes dépressifs, le temps mis pour réaliser le test s'est avéré beaucoup plus long : une minute et 20 secondes en moyenne, au lieu de 35 secondes. Et ce même lorsque les symptômes du dernier épisode dépressif avaient totalement disparu.
Evidemment, il est connu que les fonctions cognitives peuvent être considérablement ralenties (attention, concentration...) durant une phase dépressive. Mais la nouveauté est ici que ce ralentissement peut perdurer même après la fin de l'épisode dépressif, ce qui incite Philip Gorwood à qualifier la dépression d'évènement "neurotoxique". Ce dernier estime par ailleurs que si l'épisode dépressif n'a pas été traité à temps, ce ralentissement est susceptible de s'installer définitivement chez le patient.
Ces travaux ont été publiés dans l'édition du mois d'octobre 2014 de la revue European Neuropsychopharmacology, sous le titre "Psychomotor retardation is a scar of past depressive episodes, revealed by simple cognitive tests" .

Hommes ou femmes, qui sont les plus affectés par le stress ?

Les organismes féminins ou masculins ne seraient pas égaux devant les dommages cardiovasculaires que peuvent engendrer les situations de stress. 

STRESS. 
Que vous soyez homme ou femme, sachez-le, le stress n’aura pas le même effet sur votre cœur. C’est en tout cas ce que suggère une étude parue en cette mi-octobre dans le Journal of the American College of Cardiology.
L’équipe de chercheurs dirigée par le Dr Zainab Samad a étudié les réactions psychologiques et cardiovasculaires de l’organisme au stress. Des réactions qui ont été observées chez 56 femmes et 254 hommes pris en charge pour des problèmes de cœur.
Les 310 participants à l’étude ont été soumis à une batterie de tests propices à générer du stress : un de calcul mental, un autre de dessin en miroir et une conversation téléphonique avec un interlocuteur en colère. Un dernier test d’effort consistant à courir sur un tapis roulant complétait l’arsenal.
Durant ces exercices stressant, rythme cardiaque, tension artérielle et analyses sanguines étaient scrutés afin d’évaluer la réponse de l’organisme.
Dans cette analyse exploratoire, nous avons identifié des réponses claires, mesurables et différentes au stress mental chez les femmes et les hommes", expliquent les auteurs dans l’étude.
Notamment que les femmes présentent un risque plus important de développer une ischémie myocardique, un manque d'oxygène dans le myocarde, le muscle du cœur.
Chez les femmes, le risque de formations de caillots sanguins en partie dus au stress serait également plus important. Dernier point qui devrait être interpréter avec prudence : le stress provoquerait plus et plus facilement d'émotions négatives chez la gente féminine.
Même si d'autres recherches seront encore nécessaires pour valider ces premiers résultats, le Dr Zainab Samad estime que ces résultats devraient être pris en compte dans l'élaboration de traitements cardiovasculaires spécifiques au sexe féminin ou masculin des patients.

samedi 11 octobre 2014

Une bactérie intestinale impliquée dans les troubles alimentaires.

Les troubles alimentaires pourraient être en partie causés par certaines bactéries de la flore intestinale, qui produisent une protéine influant sur l'appétit.

Anorexie, boulimie, hyperphagie (une prise excessive de nourriture, mais sans vomissement comme dans la boulimie)… Les troubles alimentaires constituent une véritable épidémie, qui touche 5 à 10 % de la population mondiale. Qu’est-ce qui dérègle à ce point notre comportement alimentaire ? On a mis en évidence des influences génétiques dans l’obésité, mais aussi un rôle de l’environnement, en particulier des perturbateurs endocriniens et de la flore intestinale. C’est sur cette dernière que s’est penchée l’équipe de Sergueï Fetissov, de l’Inserm (UMR 1073 Inserm/Université de Rouen). Elle a mis au jour l'influence de certaines bactéries intestinales sur la sensation de faim.
Les biologistes ont montré que les colibacilles (Escherichia coli) de la flore intestinale produisent une protéine nommée ClpB, dont la structure est très voisine de celle de la mélanotropine, une hormone impliquée dans la satiété. En présence de la protéine ClpB, le système immunitaire produit des anticorps pour la neutraliser, mais ces derniers se lient aussi à la mélanotropine et modifient son effet sur la satiété. Les biologistes ont ainsi constaté que le comportement alimentaire de souris changeait lorsqu'ils introduisaient des bactéries E. coli dans leur intestin. En revanche, des bactéries mutées qui ne fabriquaient pas la protéine ClpB n’avaient pas cet effet.
Les anticorps n'empêchent pas la mélanotropine d'agir, mais ils modifient ses interactions avec son récepteur cellulaire. Cela pourrait conduire tantôt à l'atténuation de la sensation de faim, tantôt à son augmentation. Les mécanismes, complexes, sont à l’étude. La variabilité de l’effet selon les individus résulte aussi de plusieurs autres facteurs : la quantité de colibacilles dans l’intestin, la présence éventuelle d’autres bactéries productrices de ClpB à la suite d'une infection, la tolérance du système immunitaire à toutes ces bactéries (elle-même fonction de la composition du microbiote pendant l’enfance)…
Pour confirmer l’existence de ce mécanisme chez l’homme, les biologistes ont effectué des prélèvements sanguins chez des patients souffrant de troubles alimentaires. Ces patients présentaient un taux anormalement élevé d’anticorps dirigés contre la protéine ClpB, ce qui suggère que ces anticorps sont bien en cause dans la perturbation de la sensation de faim. En outre, la concentration d’anticorps variait de conserve avec la gravité des symptômes cliniques, identifiés grâce à un questionnaire standardisé.
S. Fetissov et Pierre Déchelotte, l’un des auteurs de l’étude, cherchent maintenant à développer un test sanguin pour détecter les taux anormaux de ClpB, ainsi que des méthodes pour l’empêcher de perturber la prise alimentaire. Selon eux, en effet, « il serait possible de neutraliser cette protéine bactérienne par des anticorps spécifiques sans affecter l’hormone de la satiété. »

L'auteur

Guillaume Jacquemont est journaliste àPour la Science.

Superman est-il une super-fourmi ?

Ce super-héros soulève des voitures, des immeubles... Pour expliquer sa force, ses créateurs ont comparé ses capacités à celle d'une fourmi qui aurait la même taille. L'argument est-il convaincant ou faut-il chercher ailleurs ?

La force extraordinaire de Superman est l’un de ses traits les plus connus. Sur la couverture du premier comics narrant ses aventures (Action Comics, juin 1938), il est représenté soulevant une voiture pour la projeter sur des malfaiteurs. Sa puissance musculaire n’a fait que croître au fil de ses aventures : deux ans après sa première apparition, alors que Metropolis – la ville imaginaire où se déroulent la plupart de ses actions – est ravagée par un tremblement de terre, Superman soutient un immeuble sur le point de s’effondrer, le temps que ses occupants se mettent à l’abri. Plus tard, on le verra déchirer des plaques d’acier, creuser un immense canal à mains nues ou transformer un morceau de charbon en diamant en le serrant dans son poing !
La question de l’origine de sa force se pose rapidement. Un argument sera en vogue pendant la première décennie de la carrière de Superman : « Superman est originaire d’une planète dont les habitants ont une structure physique en avance de plusieurs millions d’années sur la nôtre. À leur maturité, les êtres de sa race sont ainsi dotés d’une force extraordinaire. »
Conscient de la faiblesse de cette première explication pour un héros dont la notoriété grandissait, ses pères ont imaginé des arguments plus raffinés. Dans le numéro 58 de la revue Superman (paru en 1949), on trouve une explication plus physique : « Chacun sait que Superman est un être d’une autre...

Ces mondes glacés qui hébergeraient la vie.

Certaines planètes glacées de la science-fiction ressemblent à la Terre il y a des millions d'années, voire à des lunes glacées qui abritent peut-être des formes de vie encore inconnues.

À l'heure où l'épisode VII de la saga Star Wars est en cours de tournage, revenons sur l'épisode V,L'Empire contre-attaque(Kershner et Lucas, 1980). Au début du film, l'alliance rebelle s'est réfugiée sur la planète Hoth située dans la Bordure Extérieure. C'est à la surface glacée de cette planète hostile, sans cesse fouettée par de violents blizzards, que les Rebelles ont construit une base secrète – finalement prise d'assaut par les forces de Dark Vador.
Pour les géologues, la planète Hoth, aussi fictive soit-elle, n'est pas sans rappeler la Terre d'il y a plus de 650 millions d'années. En effet, d'après le célèbre modèle nommé snowball earth en anglais (Terre boule de neige, qu'il serait plus juste de remplacer par Terre boule de glace), la Terre aurait subi plusieurs épisodes de glaciation plus ou moins intenses il y a entre 850 et 635 millions d'années, une ère nommée Cryogénien. Si l'idée d'une glaciation globale a d'abord été avancée par le géologue australien – et grand explorateur de l'Antarctique – Douglas Mawson en 1949, le modèle « Terre boule de glace » a été largement développé et argumenté par les géologues américains Joseph Kirschvink et Paul Hoffman dans les années 1990, pour expliquer la présence de roches...

vendredi 10 octobre 2014

Les plus anciennes peintures rupestres découvertes en Asie.

Des traces de mains datant d'au moins 40 000 ans ont été découvertes dans une grotte sur l’île de Sulawesi, en Indonésie. C'est le plus ancien témoignage d'art pictural figuratif connu.

Dans l'imaginaire collectif, l'art pictural est né en Europe au Paléolithique, comme en témoignent les nombreuses grottes ornées, dont la grotte Chauvet est l'un des joyaux. L'Europe doit aujourd'hui partager cette paternité avec l'Asie. Une équipe de paléontologues australiens et indonésiens vient en effet d’établir que des dessins de mains réalisés « au pochoir » (en soufflant des pigments sur la main posée sur la paroi) découverts dans des grottes de l’île de Sulawesi, en Indonésie, datent d'au moins 40 000 ans, ce qui en fait les plus anciens dessins rupestres connus de l’humanité.
Les peintures des grottes de l’île de Sulawesi sont connues depuis plusieurs années.  Maxime Aubert, de l’Université de Wallogong en Nouvelles Galles-du-Sud, et ses collègues ont daté 14 motifs appartenant aux grottes de la formation calcaire de Maris-Pangkep, au Sud-Ouest de l’île. Pour cela, ils ont prélevé 19 dépôts de calcite, pour certains recouverts par les pigments, donc antérieurs aux dessins ; pour d'autres, postérieurs aux dessins. La datation de ces fragments de calcite par la méthode radiométrique uranium-thorium indique que ces peintures sont âgées au moins de 17 400 ans pour la plus récente, jusqu'à 39 900 ans pour la plus ancienne. Non loin du motif le plus ancien, une représentation d’un babiroussa femelle (une sorte de sanglier d'Indonésie) date de plus de 35 000 ans. Une culture artistique aurait ainsi existé dans la région de Maris-Pangkep pendant au moins 23 000 ans.
Quelles sont les conséquences de cette découverte sur l'histoire du peuplement de la planète ? Selon les scénarios en vigueur, parmi les différentes vagues d'hommes modernes qui se sont succédé, l'une, partie d'Afrique vers 80 000 ans, est arrivée en Australie vers 50 000 ans. Ces pionniers étaient des peuples tropicaux, contrairement à ceux qui ont peuplé le Nord de l’Eurasie. Cela se manifeste en particulier dans la pigmentation de la peau, héritée de ces ancêtres africains, qui est commune aux Tamouls (Inde du Sud), aux indigènes des îles Adaman, à nombre de peuples d’Asie du Sud-Est, dont les négritos d’Indonésie, aux habitants de Papouasie-Nouvelle Guinée et aux aborigènes d’Australie.
Dans le même temps, d’autres vagues de Homo sapiens progressaient vers l’Asie orientale et vers l’Europe. Vers 35 000 ans, des artistes aurignaciens réalisaient en Europe des œuvres attestant de la maîtrise d’effets de perspective, de mouvement et de volume. La plus vieille œuvre figurative de la grotte Chauvet – un rhinocéros – date de 35 000 à 38 000 ans, tandis qu'en Espagne, on trouve des œuvres non figuratives de plus 40 000 ans.
Ainsi, il y a 40 000 ans, des hommes ou des femmes pratiquaient un art pictural figuratif semblable aux deux extrémités de l’Eurasie. Tant en Ardèche (Grotte Chauvet) que sur l'île de Sulewesi, il semble que la représentation d'animaux jouait le même rôle culturel essentiel. Un rôle animiste ? Quoi qu'il en soit, il est clair que les capacités cognitives et les techniques nécessaires à l'art figuratif étaient déjà répandues chez les Homo sapiensen train de conquérir la planète, il y a plus de 40 000 ans.
Leslie Refine, Graph & Co
Sur cette paroi de la grotte Leang Timpuseng, on distingue une impression de main datant de presque 40 000 ans et la représentation d'un babiroussa femelle datant d'environ 35 000 ans. Peu visible, la ligne rouge cheminant sous l'animal semble représenter la surface du sol. Comme ceux de la grotte Chauvet, les auteurs de ces peintures ont utilisé des conventions picturales qui nous semblent naturelles.
Leslie Refine, Graph & Co
Kinez Riza
Qu'ont voulu dire ceux qui ont peint leurs mains sur cette paroi ?
Kinez Riza

Décrypter le cerveau : les outils du XXIe siècle.

Comment le cerveau produit-il nos pensées 
et nos émotions ? Pour le comprendre, les scientifiques devront disposer d'outils permettant de scruter l'activité des circuits cérébraux neurone par neurone.

Malgré un siècle de recherches actives, les scientifiques ignorent toujours ce qui se passe dans l'organe de moins d'un kilogramme et demi qui est le siège de toute activité consciente humaine. Beaucoup ont essayé de s'attaquer à ces questions en examinant les systèmes nerveux d'organismes plus simples. En fait, 15 années se sont écoulées depuis que les chercheurs ont cartographié les connexions de chacune des 302 cellules nerveuses du nématode Caenorhabditis elegans. Pour autant, le schéma de câblage de ce minuscule ver n'a pas permis de comprendre comment ces connexions donnent naissance à des comportements même rudimentaires, tels que l'alimentation et la reproduction. 

Chez l'homme, la difficulté rencontrée pour établir un lien entre anatomie et comportement est encore plus grande. Les médias font régulièrement état d'imageries cérébrales montrant que des zones particulières du cerveau s'activent lorsqu'on se sent rejeté, lorsqu'on parle une langue étrangère, etc. Ces annonces peuvent donner l'impression que les techniques actuelles fournissent de nouvelles connaissances fondamentales sur le fonctionnement du cerveau. C'est une fausse impression. 

Un exemple notable de cette illusion est une étude récente largement médiatisée, où l'on a identifié une cellule cérébrale particulière qui a émis un signal électrique en réaction à la vue du visage de l'actrice américaine Jennifer Aniston. Bien qu'ayant fait sensation, la découverte du « neurone Jennifer Aniston » ne nous avance pas beaucoup. Nous sommes toujours dans la plus totale ignorance de la façon dont les impulsions électriques de ce neurone influent sur la capacité de reconnaître le visage de Jennifer Aniston et d'établir un lien avec la série télévisée Friends où joue cette actrice. Pour que le cerveau reconnaisse l'actrice, un vaste ensemble de neurones doit probablement s'activer, neurones qui communiquent entre eux à l'aide d'un code non encore déchiffré.

Le neurone Jennifer Aniston est aussi un bon exemple de la croisée des chemins à laquelle se trouvent les neurosciences. Nous disposons de techniques permettant d'enregistrer l'activité de neurones isolés dans le cerveau humain. Mais pour progresser vraiment, les chercheurs ont besoin de nouvelles techniques qui leur permettront de sonder et de modifier l'activité électrique de milliers, voire de millions, de neurones – des techniques capables de déchiffrer ce que l'Espagnol Santiago Ramón y Cajal (1852-1934), pionnier de la neuroanatomie, appelait « les jungles impénétrables où de nombreux chercheurs se sont perdus ».


Un besoin criant 
de nouvelles techniques


Avec de telles percées méthodologiques, on pourrait, en principe, combler peu à peu les lacunes dans notre connaissance de la succession des événements qui se déroulent entre l'activation des neurones et la cognition (perception, émotion, prise de décision) et, en fin de compte, la conscience elle-même. Le déchiffrement des schémas précis de l'activité cérébrale sous-jacente à la pensée et aux divers comportements fournira également des informations essentielles sur le dysfonctionnement des circuits neuronaux dans des troubles psychiatriques et neurologiques tels que la schizophrénie, l'autisme, les maladies d'Alzheimer ou de Parkinson. 

Des appels à des bonds en avant des techniques d'étude du cerveau ont commencé à être entendus en dehors des laboratoires. De fait, l'administration du président américain Barack Obama a annoncé l'année dernière le lancement d'une vaste initiative en faveur du développement de neurotechnologies innovantes, nommée BRAIN (Brain Research through Advancing Innovative Neurotechnologies, ou Recherches sur le cerveau par le développement de neurotechnologies innovantes). Cette initiative constitue, dans ce second mandat du président, l'effort le plus visible consacré à la science lourde, la « Big Science ». 

Le projet BRAIN, initialement financé à hauteur de 100 millions de dollars (74 millions d'euros) en 2014, vise à développer des techniques permettant d'enregistrer les signaux électriques et chimiques émanant de cellules cérébrales beaucoup plus nombreuses, voire de régions entières du cerveau. BRAIN vient compléter d'autres grands projets de neurosciences menés en dehors des États-Unis. Le projet Human Brain Project (Projet du cerveau humain), financé par l'Union européenne, est un effort de recherche de 1,2 milliard d'euros sur dix ans, qui vise à élaborer une simulation informatique de l'ensemble du cerveau. D'ambitieux projets ont également été lancés en Chine, au Japon et en Israël. Le consensus mondial qui pousse actuellement à investir dans la recherche sur le cerveau rappelle d'autres initiatives d'après-guerre de recherches scientifiques et technologiques concentrées sur des priorités nationales urgentes : l'énergie et l'armement nucléaires, l'exploration spatiale, l'informatique, les énergies alternatives, le séquençage de génomes. Désormais, c'est le siècle du cerveau qui s'ouvre à nous. 

Retracer comment les cellules cérébrales forgent le concept de Jennifer Aniston (ou une autre entité mentale) constitue pour le moment un obstacle insurmontable. Cela exige de passer d'une mesure effectuée sur un seul neurone à la compréhension de la façon dont une assemblée de neurones établit des interactions complexes pour créer une entité globale – ce que les scientifiques nomment une propriété émergente. 

La résistance mécanique ou l'état magnétique...

L'essentiel

- Le cerveau et son fonctionnement restent l'un des grands mystères de la science.

- De nouveaux outils, permettant d'analyser 
le fonctionnement 
de circuits formés d'une multitude de neurones, sont nécessaires pour progresser.

- Plusieurs techniques d'enregistrement ou 
de contrôle de l'activité de circuits cérébraux entiers commencent 
à voir le jour.

- Des projets de grande envergure sont dévolus 
à cet aspect, notamment l'initiative brain 
aux États-Unis.

L'auteur

Rafael YUSTE est professeur 
de sciences biologiques 
et de neurosciences 
à l'Université Columbia, 
aux États-Unis. Il codirige l'Institut de la fondation Kavli pour la science du cerveau.

George CHURCH est professeur de génétique à l'Université Harvard, aux États-Unis.

samedi 27 septembre 2014

Avons-nous vraiment sauvé la couche d'ozone ?


Selon un rapport récent, la couche d’ozone devrait s'être reconstituée au-dessus de la majorité du globe d’ici le milieu du XXIe siècle, grâce à l'interdiction des gaz qui la détruisaient. Mais certains problèmes subsistent…


Dans les années 1980, un « trou » dans la couche d’ozone – en réalité une zone très appauvrie en ozone – était découvert à quelques dizaines de kilomètres au-dessus de l’Antarctique. La couche d’ozone est dégradée par des gaz regroupés sous le terme SAO (substances appauvrissant l’ozone), au premier titre desquels figurent les chlofluorocarbures (CFC). Le protocole de Montréal a été adopté en 1987 pour limiter les émissions de SAO. Sous l’égide de l’Organisation météorologique mondiale et du Programme pour l’environnement de l’ONU, quelque 300 chercheurs ont aujourd'hui évalué son efficacité et rendu public le 10 septembre dernier un rapport résumé à l’attention des décideurs. Ce rapport conclut que la couche d’ozone devrait retrouver son épaisseur des années 1980 d’ici le milieu du siècle sur la plus grande part de la planète (un peu plus tard pour l’Antarctique), mais que certains remplaçants des SAO risquent d’exercer un effet de serre important.
La couche d’ozone nous protège des rayonnements ultraviolets et il est donc essentiel de la préserver. Les SAO, qui comprennent un certain nombre de gaz contenant du chlore ou du brome, servent notamment de fluides réfrigérants ou de solvants pour le nettoyage à sec. Plus de 190 pays ont ratifié le protocole de Montréal, qui prévoit de réduire fortement ou de supprimer les émissions de ces gaz destructeurs d'ozone.
Pour évaluer l'efficacité de ces mesures, les chercheurs se sont fondés sur un mélange de mesures et de simulations. Les mesures ont été effectuées depuis des stations au sol, des avions de haute altitude (volant jusqu’à 20 kilomètres environ), des ballons montant jusque dans la stratosphère (entre 12 et 60 kilomètres d'altitude) et des satellites. Elles ont servi à reconstituer l'abondance locale et globale d’ozone et des SAO, ainsi qu'à calibrer les modèles atmosphériques simulant l'évolution de la couche d’ozone.
Les conclusions de l'étude sont mitigées. D’un côté, la concentration des SAO contrôlés par le protocole de Montréal a notablement décru : elle serait aujourd’hui 10 à 15 pour cent plus faible qu’au moment de leur pic de concentration, dans les années 1990. En outre, l’épaisseur de la couche d’ozone s’est stabilisée depuis les années 2000 – ce qui confirme les conclusions d’un précédent rapport publié il y a quatre ans – et elle devrait bientôt se mettre à augmenter. Le trou au-dessus de l’Antarctique continue de se manifester chaque printemps, mais il devrait finir par disparaître au cours de la seconde moitié du XXIe siècle.
Les chercheurs soulignent par ailleurs que l’évolution de la couche d’ozone sera influencée par les émissions de gaz tels que le dioxyde de carbone (CO2), le protoxyde d’azote (N2O) et le méthane (CH4). Ces gaz exercent divers effets, parfois contradictoires : ils interagissent par exemple avec les autres composés chimiques de la stratosphère, conduisant tantôt à la destruction tantôt à la formation d'ozone. Cependant, ces effets ne devraient pas remettre en cause la reconstitution de la couche d’ozone, selon Slimane Bekki, du Laboratoire atmosphères, milieux, observations spatiales (LATMOS, CNRS/UVSQ/UPMC), qui a participé à l'étude.
D’un autre côté, le problème des SAO n’est qu’à moitié résolu. En effet, certains de leurs remplaçants, s'ils sont inoffensifs pour la couche d’ozone, sont en revanche de puissants gaz à effet de serre : ils ont un pouvoir réchauffant voisin de celui des gaz auxquels ils se substituent et plusieurs milliers de fois supérieur à celui du CO2 ! C'est le cas par exemple des hydrofluorocarbures (HFC). Leur concentration dans l’atmosphère est pour l'instant assez faible, mais leur émission croit de 7 % par an. En 2050, l'effet des HFC sur le climat pourrait être équivalent à l'émission d’environ 9 gigatonnes de CO2 par an. À cette date, le stock de HFC (présent dans divers appareils, dépôts et décharges) devrait représenter l’équivalent de 65 gigatonnes de CO2. Par comparaison, les émissions anthropiques de CO2dues aux carburants fossiles et aux activités industrielles étaient d'environ 32 gigatonnes par an en 2010.
Par conséquent, les chercheurs estiment qu’en 2050, l’essentiel des bénéfices du protocole de Montréal en termes d’effet de serre seront perdus. Il serait ainsi souhaitable de remplacer les HFC par des gaz à faible effet de serre (déjà disponibles pour certaines applications), tels les hydrorofluoro-oléfines (HFO). Mais les effets à long terme des produits de dégradation de ces gaz restent à préciser…


Comment le multitâche modifie notre cerveau ?

Selon une étude en neuroimagerie, les personnes qui s'adonnent fréquemment à
des activités multitâche présenteraient un déficit de matière grise dans le cortex
cingulaire antérieur (voir ci-dessus).

  Utiliser simultanément smartphones, ordinateurs et autres terminaux numériques changerait la structure de notre cerveau, selon une étude britannique.

       Les personnes qui utilisent simultanément smartphones, ordinateurs, écrans TV et autres terminaux numériques au cours de la journée présenteraient des différences cérébrales avec celles qui utilisent occasionnellement un seul terminal. Tel est le résultat d'une étude publiée le 24 septembre 2014 dans la revue Plos One.
Selon les auteurs de cette étude, le cerveau des personnes qui s'adonnent régulièrement au multitâche dans la journée présenterait un déficit marqué de matière grise dans une zone bien spécifique du cerveau : le cortex cingulaire antérieur, une région qui joue notamment un rôle important dans le traitement des émotions.
A l'heure actuelle, il est toutefois important de noter que les chercheurs ne savent pas encore de façon certaine si le multitâche est à l'origine de cette moindre densité en matière grise, ou bien s'il faut plutôt considérer que les personnes présentant un déficit de matière grise dans le cortex cingulaire antérieur sont plus souvent tentées par les activités multitâche.
En attendant, les auteurs de l'étude notent que ces premiers résultats sont à relier à de précédents travaux, qui avaient montré que le fait de s'adonner de façon très régulière à des activités multitâche était associé avec la présence de dysfonctionnements émotionnels, comme la dépression et les troubles anxieux.
Pour parvenir à ce résultat, les auteurs de l'étude ont analysé la structure cérébrale de 75 adultes, dont la propension à fonctionner en mode multitâche avait été préalablement évaluée à l'aide d'un questionnaire.
Ces travaux ont été publiés le 24 septembre 2014 dans la revue Plos One, sous le titre "Higher Media Multi-Tasking Activity Is Associated with Smaller Gray-Matter Density in the Anterior Cingulate Cortex" .

jeudi 18 septembre 2014

Le chat de Schrödinger, qu’a-t-il de si particulier ?

         Lorsqu’on parle du chat de Schrödinger, en réalité, on fait référence à l’un des plus célèbres problèmes philosophiques ! Problème qui a tout à voir avec une branche de la physique appelée mécanique quantique… La mécanique quantique essaye d’expliquer comment des particules fondamentales – comme les électrons – interagissent les unes avec les autres. Et franchement, la mécanique quantique fait parfois appel à des concepts plutôt étranges. Un exemple ? Hé bien, il est impossible de mesurer avec exactitude les propriétés de ces parti- cules fondamentales…
    Ainsi, lorsque vous déterminez la position d’une particule, la simple action de le faire perturbe la particule et altère vos mesures ! Un vrai casse-tête. Prenez un instant pour y réfl  échir sérieusement et alors, vous comprendrez pourquoi la mécanique quantique se trouve à la frontière entre science et philosophie. Du coup, la mécanique quantique peut rapidement sembler absurde lorsqu’on cesse de l’appliquer aux particules fondamentales et qu’on s’attaque cette fois aux choses macroscopiques (autrement dit, beaucoup plus grosses) comme vous et moi par exemple… ou les chats !
     Posons le problème. Imaginez que vous avez un atome radioactif. Or, vous savez que les atomes radioactifs ont un surplus d’énergie qui les rend instables. À n’importe quel moment, ils peuvent s’en débarrasser et redevenir de « gentils » atomes tout à fait normaux. En revanche, il n’existe pas de lois en physique nous permettant de dire quand EXACTEMENT aura lieu ce changement… Tout ce que nous savons, c’est la PROBABILITÉ que cela arrive à un instant donné. Nous parlons alors de deux états pour un tel atome : l’un qualifi  é d’excité, l’autre de stable. D’après la mécanique quantique, dès que nous effectuons des mesures sur l’atome, il sera soit dans un état, soit dans l’autre, et avant cela, il se trouvera dans un état intermédiaire (une sorte de « super- position » de chaque état) autrement dit dans une sorte de remix de ces deux états… Bref, certes, tout va comme sur des roulettes  lorsqu’on parle d’atomes minuscules obéissant aux règles de la méca- nique quantique. Mais, dès qu’on passe un cran au-dessus, aux grosses choses, c’est franchement la « cata » ! Vous allez comprendre. Un jour, un type du nom d’Erwin Schrödinger eut l’idée de réaliser une drôle d’expérience : mettre dans une boîte un chat avec un fl acon fragile de poison mortel, un marteau et un atome radioactif. Si cet atome se désintègre, alors un mécanisme le détecte, fait balancer le marteau qui brise le fl  acon de poison, lequel tue le pauvre matou qui ne demandait rien à personne. Mais si l’atome ne se désin- tègre pas, le mécanisme n’est pas enclenché, donc pas de marteau pour casser le fl  acon et pas de chat mort… Ouf  ! Mais comme décrit ci-dessus, jusqu’à l’ouverture de la boîte pour mesurer l’atome, nous ne savons pas dans quel état il se trouve, il doit donc se trouver dans un mélange des deux états, non ? Mais – et c’est là tout le problème – qu’arrive-t-il au chat dans ce cas ? Est-il, à l’image de l’atome, dans un mélange de deux états, à la fois mort et vif ? Quel dilemme, et c’est bien pour cette raison que l’on parle du paradoxe du chat de Schrödinger ! Pour récapituler, une observation ou une mesure affecte un résultat. Or, vous ne pouvez jamais connaître le résultat d’une expérience si vous ne le regardez pas… Plutôt prise de tête, l’his- toire, non ? D’ailleurs, depuis que Schrödinger a posé cette question en 1935, personne n’a pu fournir de réponse satisfaisante. Sinon, ne vous inquiétez pas, personne n’a essayé de reproduire cette expé- rience avec un vrai chat. Et le problème n’est pas là. Il s’agit surtout de comprendre si Minet est vivant ou mort lorsqu’on ouvre la boîte, et ce qu’il lui arrive quand la boîte est fermée. Reproduire cette expé- rience n’aurait donc aucun intérêt pour résoudre le problème ! Et je suis franchement ravi de vous confi rmer qu’aucun chat n’a perdu la vie pour répondre à cette question. Quant à Schrödinger, lui-même était si perplexe par le problème posé qu’il admit avoir préféré ne jamais se l’être posé le premier…

Que se passe-t-il d’un point de vue chimique lorsqu’on s’endort ?

     

              Sur une vie entière, on peut passer 24 ans au lit ! Qu’est- ce qui entraîne la fermeture de nos paupières et nous plonge dans les bras de l’ami Morphée ? Il faut bien reconnaître que la science n’en a qu’une vague idée. Nous savons que l’épiphyse (ou glande pinéale), située à la base du cerveau, joue un rôle essentiel. Elle sécrète une hormone appelée mélatonine qui passe dans le sang pour réguler le cycle du sommeil. e Au début du XX  siècle, les chercheurs ont commencé à penser que le sommeil était provoqué par l’accumulation de substances chimiques dans le cerveau. Mais une récente étude suggère que ces composés modifi  ent et régulent simplement le sommeil, plutôt que de le provo- quer. On décompose le sommeil en cinq états distincts, le quatrième étant le plus profond. Le cinquième, caractérisé par des mouvements oculaires rapides, est appelé sommeil MOR (pour Mouvements Oculaires Rapides) ou paradoxal. Il est beaucoup plus léger que les autres et n’est pas accompagné de ronfl  ements (généralement signes d’un endormissement profond). Notre organisme produit d’importantes molécules durant le sommeil. D’ailleurs, chez les adultes comme chez les enfants, la production d’hormones de croissance humaine monte durant les trois premières heures de sommeil. Personne ne sait pourquoi. Cela ne signifi  e pas pour autant que les gens grandissent en dormant…
           Un neurotransmetteur baptisé sérotonine est également présent au moment des rêves qui apparaissent seulement en période de sommeil MOR. Toutefois, il est produit de façon constante par l’organisme, et pas seulement lorsque nous sommes endormis. Bref, vous voyez qu’il n’y a pas de réponse claire à votre ques- tion. Le sommeil reste entouré de mystère. Une chose est sûre, il est toujours le bienvenu !

mercredi 17 septembre 2014

Pourquoi certaines personnes ont-elles moins besoin de dormir que d’autres ?

Des millions d’années d’évolution nous ont donnés une horloge biologique calée sur 24 heures, un chiffre lié à la rotation de notre planète. Cette horloge interne prend en charge toutes nos réactions métaboliques et décide quand il est temps pour nous de nous sentir fatigués ou de nous réveiller. Ainsi, votre propre horloge biologique décide pour vous du temps de sommeil dont votre corps a besoin. Mais à ce sujet, nous sommes tous différents. Chacun de nous a un besoin de sommeil quotidien spécifi que et si celui-ci n’est pas assouvi, nous voilà endetté de sommeil ! Une dette qui, tôt ou tard, devra être acquittée… Impossible d’y échapper, il faut toujours rattraper le temps perdu.
Le puissant mécanisme cérébral qui régule la quantité quoti- dienne de sommeil est appelé homéostat du sommeil. Il s’assure que chacun d’entre nous ait sa dose nécessaire en envoyant des signaux familiers. Vous les connaissez bien : le classique coup de barre, les bâillements interminables et les paupières qui se font plus lourdes in- diquent qu’il est grand temps d’aller se coucher ! Certes, vous pourrez résister quelques temps, mais au bout du compte, l’homéostat du sommeil remportera toujours la partie… Et d’après les connaissances actuelles, rien ne peut changer les besoins fondamentaux en sommeil quotidien d’un individu. Vous pouvez donc être programmé pour avoir besoin de dormir plus (ou moins !) que votre voisin. Bilan, certains passent beaucoup de temps au lit, d’autres peu. Il n’y a pas de règles.

Les couleurs peuvent-elles influencer l’humeur ?

En effet. Les couleurs affectent les gens de diffé- rentes manières. Dans de récentes études, les volontaires avaient tendance à se sentir plus fatigués après avoir travaillé dans une pièce tapissée de rouge que dans une pièce aux murs verts. Ceux qui avaient passé leur temps dans un bureau rouge se sentaient plus stressés et commettaient apparemment plus d’erreurs que ceux qui « planchaient » dans un bureau vert. Les jeunes enfants semblent plus heureux dans une pièce aux murs roses que dans une autre aux murs bleus. Certains haltérophiles, eux, se disent plus performants dans une salle de gym bleue. Allez savoir pourquoi… En tous cas, les signifi cations que nous donnons aux couleurs ont une valeur largement reconnue : le noir, par exemple, symbolise l’autorité et le pouvoir sur les autres (raison pour laquelle le costume noir est une tenue parfaite pour les  affrontements au bureau, le diable n’est-il pas représenté vêtu de noir ?). Le blanc – couleur du mariage, par excellence – représente l’innocence. Le vert est apaisant (est-ce pour cela que les acteurs se retirent dans une pièce aux murs verts avant d’entrer en scène ?). Le brun est triste et le violet évoque la richesse.

Cannabis et échec scolaire : une étude à interpréter avec prudence.

Les adolescents qui fument du cannabis tous les jours auraient 60% plus de risque de ne pas terminer leurs études secondaires. Le résultat d'une étude décrypté en statistiques.


Quelques gouttes d'urines et quelques minutes suffisent à détecter une consommation de cannabis. PABLO PORCIUNCULA / AFP         De nombreuses études rappellent régulièrement l'impact de la consommation de cannabis sur la santé.

La dernière date du mercredi 10 septembre et a étépubliée dans la revue The Lancet Psychiatry. Ici, les scientifiques australiens ont cherché à mettre en corrélation la fréquence de la consommation de cannabis chez les moins de 17 ans avec leur comportement plus tard dans la vie. Les critères étudiés comprenaient la réussite scolaire, l'usage de drogues illégales, la dépendance au cannabis, la dépression et les tentatives de suicide.

60% plus de risques d'échec

Ainsi, selon les chercheurs, les adolescents de moins de 17 ans qui fument du cannabis tous les jours ont 60% plus de risque de ne pas terminer leurs études secondaires et de ne pas réussir l'examen final, par rapport à ceux qui n'ont jamais fumé. 
De même, toujours selon cette étude, les fumeurs quotidiens de cannabis auraient sept fois plus de risque de commettre une tentative de suicide et huit fois plus de risque de faire usage d'autres drogues plus tard dans leur vie.
Si cette étude semble confirmer la corrélation entre la consommation de cannabis et une diminution des performances plus tard dans la vie, la présentation des résultats peut facilement prêter à confusion ; à plus forte raison si l'on examine de façon plus minutieuse la méthodologie qui les sous-tend.
Notre statisticien Avner Bar-Hen a remarqué que la façon dont ces résultats avaient été présentés dans la presse étaient pour le moins tendancieux... 

lundi 15 septembre 2014

Cerveau : que se passe-t-il quand on se souvient ?

En se remémorant des souvenirs, on peut adoucir des événements douloureux du passé et assombrir des moments heureux. Pour quelle raison ? Décryptage.


Les émotions associées à des souvenirs peuvent être réécrites, permettant d'adoucir des événements douloureux du passé et à l'inverse d'assombrir des moments heureux, suggère une étude menée sur des souris au Japon et aux Etats-Unis et publiée dans Nature.
TRAITEMENTS. "Cette propriété (de renversement) de la mémoire est utilisée cliniquement pour traiter" des maladies mentales, "cependant les mécanismes neuronaux et les circuits du cerveau qui autorisent ce changement de registre émotionnel demeurent largement méconnus", soulignent les chercheurs en préambule.
L'objet de l'étude est de décrypter ces procédés sous-jacents, ouvrant la voie à de nouvelles pistes pour soigner des pathologies comme la dépression ou les troubles de stress post-traumatique. Elle "valide aussi le succès de la psychothérapie actuelle", explique à l'AFP le directeur de recherche Susumu Tonegawa.

Une interaction flexible entre l'hippocampe et l'amygdale

Ces travaux, fruit d'une collaboration entre l'institut japonais Riken et leMassachussets Institute of Technology (MIT) aux Etats-Unis, s'appuient sur une nouvelle technologie de contrôle du cerveau via la lumière, appelée "optogénétique", pour mieux comprendre ce qui se passe quand on se remémore de bons ou mauvais moments.
CERVEAU. Les résultats démontrent que l'interaction entre l'hippocampe, partie du cerveau qui joue un rôle central dans la mémoire, et l'amygdale, censée être une sorte de chambre de stockage des réactions positives et négatives, est plus flexible que ce qu'on pensait jusqu'à présent.
Pour y parvenir, les chercheurs ont injecté une protéine d'algue sensible à la lumière à deux groupes de souris mâles. Ils ont ainsi pu suivre la formation d'une inscription en mémoire en temps réel, qu'ils ont réactivé à leur gré grâce à des impulsions lumineuses.
Dans un deuxième temps, les scientifiques leur ont fait artificiellement revivre ces souvenirs, tout en soumettant les rongeurs à l'expérience opposée : les souris agréablement disposées recevaient un choc, tandis que les autres avaient la bonne surprise de rencontrer leurs comparses.
La nouvelle expérience a pris le dessus sur l'émotion initiale. "Nous avons fait un test dans la première cage de laboratoire et la crainte originelle avait disparu", décrit Susumu Tonegawa, Prix Nobel de médecine en 1987.
Cependant ce phénomène n'a pu être observé qu'en agissant sur l'hippocampe, sensible au contexte environnant, alors qu'il n'a pas été possible d'influer sur l'amygdale.
Les chercheurs espèrent que leurs découvertes feront avancer la recherche médicale sur les maladies de type troubles dépressifs ou post-traumatiques, affectant notamment les militaires.
A l'avenir M. Tonegawa espère pouvoir "contrôler les neurones avec une technologie sans fil, sans outil intrusif comme les électrodes" et "potentiellement faire croître le nombre de souvenirs positifs par rapport aux négatifs".
En juillet 2013, l'équipe du professeur Tonegawa avait réussi à créer de faux souvenirs chez des souris génétiquement modifiées en manipulant des cellules de l'hippocampe, région du cerveau impliquée dans la mémoire et en programmant ces cellules pour qu'elles puissent répondre à des pulsions lumineuses afin de pouvoir les manipuler.

Le rôle de la dopamine dans le processus de motivation est mieux compris.

Comment parvenons-nous à rester motivés dans la réalisation d’un objectif, lorsque cet objectif est lointain ? Vraisemblablement, parce que notre cerveau libère de la dopamine pendant toute la période précédant l’obtention de l’objet désiré.

On le sait, chez l'homme comme chez la plupart des mammifères, la dopamine est un neurotransmetteur qui joue un rôle central dans la motivation : lorsque nous obtenons quelque chose que nous convoitions (une friandise, un succès ou sportif ou professionnel…), notre cerveau opère à une libération massive de dopamine, ce qui nous procure une intense sensation de satisfaction (c'est d'ailleurs pourquoi on la surnomme « hormone de la récompense »). En d'autres termes, c’est la promesse d'une libération massive de dopamine qui nous incite à agir pour obtenir ce que nous désirons. D'où son rôle central dans le processus de motivation.
Toutefois, une question se pose : comment parvenons-nous à rester motivés lorsque l'obtention de notre objet de désir nécessite préalablement de déployer des efforts sur une longue durée ? En d'autres termes, quel est le mécanisme qui nous permet de rester motivés alors que l'obtention de notre objet de désir, et la libération massive de dopamine associée à cette obtention, n'est pas immédiate mais différée dans le temps ? Une question qui concerne d’ailleurs non seulement l'être humain, mais également les autres mammifères. Par exemple, lorsqu’un renard veut se procurer de la nourriture, il doit d'abord passer un certain temps à arpenter son environnement à la recherche d'une proie. Une période préalable de chasse qui, en certaines saisons comme en hiver, peut même se révéler extrêmement longue et fastidieuse.
Cette énigme, des biologistes américains viennent de la résoudre, en menant une série d'expériences sur des rats. En effet, leurs travaux suggèrent que si nous parvenons à rester motivés malgré le fait que l'obtention de notre objet de désir soit différée dans le temps, c'est parce que la dopamine n'est pas seulement libérée au moment de l'obtention de notre objet de désir, mais également avant cette obtention, c'est-à-dire pendant toute la période où nous déployons des efforts afin de parvenir à notre but.
Pour obtenir ce résultat, Ann Graybiel et ses collègues du Massachusetts Institute of Technology (Cambridge, États-Unis) ont analysé l'activité cérébrale de rats à la recherche d'une récompense cachée au coeur d'un labyrinthe. Plus précisément, les scientifiques américains ont mesuré la quantité de dopamine qui était libérée dans le striatum de ces rats (le striatum est une structure cérébrale notamment impliquée dans l'apprentissage et la mémoire).
Résultat ? Ils ont constaté que la libération de dopamine ne se produisait pas seulement lorsque les rats découvraient la récompense (même si, évidemment, un pic de dopamine était précisément observé à ce moment-là), mais aussi avant la découverte de cette récompense, c'est-à-dire pendant la recherche de la récompense dans le labyrinthe.
En d'autres termes, les niveaux de dopamine mesurés chez ces rats au cours de toute la période précédant la découverte de la récompense suggèrent que, durant leurs pérégrinations dans le labyrinthe, les rongeurs sont en réalité en train « d'anticiper » l'obtention de cette récompense. Un constat renforcé par le fait que, lorsque les rats sont brusquement habitués à une récompense plus importante que celle proposée habituellement, les niveaux de dopamine mesurés au cours des pérégrinations ultérieures précédant la découverte de la récompense augmentent sensiblement. Un phénomène qui montre sans ambiguïté que la quantité de dopamine libérée pendant la période préalable à l'obtention de la récompense est bel et bien directement corrélée à la taille de la récompense attendue.
Un résultat qui pourrait aider à mieux comprendre pourquoi les personnes atteintes de la maladie de Parkinson, une affection qui altère notamment les mécanismes de transmission de la dopamine, ont du mal à rester motivés dans des tâches qui nécessitent de déployer des efforts sur une longue durée.
Cette étude a été publiée le 4 août 2013 dans la revue Nature sous le titre« Prolonged dopamine signalling in striatum signals proximity and value of distant rewards ».

dimanche 14 septembre 2014

Découverte d'une hormone qui augmente la durée de vie

Une équipe française vient de découvrir chez un ver une hormone qui augmente la longévité, afin de repousser l'arrivée des maladies liées à l'âge.

RÉGIME. Faire un régime allonge t-il la durée de vie ? C'est prouvé chez un grand nombre d'espèces, de la levure aux primates, en passant par le chat. Mieux, restreindre sérieusement la quantité de nourriture diminue l'incidence des maladies liées au vieillissement (cancers, maladies neurodégénératives, etc.) chez les rongeurs et les grands singes. Et pourquoi pas chez l'homme.
Mais attention : un régime drastique est difficilement soutenable, entraînant irritabilité, baisse de la libido et même baisse de la fertilité. Il est donc largement déconseillé par les nutritionnistes !

Un lien établi entre allongement de la durée de vie et baisse de la fertilité

DÉCOUVERTE. L'équipe d'Hugo Aguilaniu, du Laboratoire de biologie moléculaire de la cellule de l'Université Claude Bernard Lyon 1, s'est penchée sur les conséquences de la restriction calorique chez un ver rond nommé "Caenorhabditis elegans", souvent étudié dans les laboratoires de recherche.
Dans la revue Nature communications, l'équipe détaille sa découverte : chez ce ver, manger moins entraîne la production d'une hormone, l'acide dafachronique, qui a la particularité d'augmenter la longévité et de diminuer la fertilité. Preuve qu'il y a un lien direct entre l'augmentation de la durée de vie et la baisse de la fertilité lors d'un régime drastique.
Représentation de l'augmentation de la durée de vie par restriction calorique (en orange) par comparaison avec des animaux nourris à volonté (courbe blanche). Une hormone stéroïdienne, dérivée du cholestérol (schématisée en orange entre les deux courbes) est produite en conditions de restriction calorique et est requise pour l'allongement de la durée de vie. © Hugo Aguilaniu / CNRS
MÉCANISME. Comment cette hormone peut-elle provoquer un ralentissement de la vieillesse et une baisse de la fertilité ? Les chercheurs ont découvert qu'elle se fixe sur un récepteur dans le noyau des cellules, activant ainsi une quantité importante de gènes. Or parmi ces gènes, certains induisent un effet positif (un ralentissement de la vieillesse), d'autres un effet négatif (une baisse de la fertilité).
En utilisant cette hormone, l'équipe d'Hugo Aguilaniu espère mettre au point des applications thérapeutiques, puisque l'hormone identifiée et son récepteur ont des cousins proches chez les mammifères et l'Homme. Mais pour cela, ils doivent parvenir à dissocier l'effet bénéfique de l'effet négatif généré par l'hormone...