Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
Hier — 28 mars 2024Vos flux RSS

Les compléments alimentaires peuvent-ils vraiment aider à traverser la préménopause ?

La préménopause (ou périménopause) a le vent en poupe sur le marché des produits non médicamenteux : outre les traitements traditionnels de la ménopause, on trouve de plus en plus de pilules et de crèmes en vente libre destinées aux femmes sur le point d'atteindre la ménopause.

La préménopause, cette période précédant la ménopause, se manifeste généralement vers 45 ans et dure souvent plusieurs années. Au cours de cette phase de transition, les changements hormonaux peuvent entraîner une perte osseuse et provoquer des dizaines de symptômes désagréables tels que des bouffées de chaleur, des troubles du sommeil et des troubles de l’humeur.

Alors que l’hormonothérapie et d’autres médicaments sur ordonnance peuvent aider à soulager certains de ces symptômes, de nombreuses personnes cherchent d'autres solutions. « C’est là que les compléments alimentaires et les produits non médicamenteux entrent en jeu », explique Mary Jane Minkin, gynécologue et professeure clinique à l’école de médecine de Yale.

Mais selon Minkin et d’autres médecins habitués à traiter les symptômes de la préménopause, les données scientifiques relatives à de nombreux produits portent à confusion. « Mieux vaut considérer la plupart de ces produits avec des pincettes », soutient Nanette Santoro, professeure et présidente du département d’obstétrique et de gynécologie à la faculté de médecine de l’université du Colorado.

Voici ce que l’on sait des compléments alimentaires censés soulager les symptômes de la préménopause, et ce que suggèrent les experts à ce propos.

 

QU’EST-CE QUE LA PRÉMÉNOPAUSE ET QUE CONTIENNENT CES COMPLÉMENTS ALIMENTAIRES ?

Pendant la préménopause, les ovaires produisent moins d’œstrogènes et de progestérone (les hormones sexuelles féminines) et leurs taux augmentent et diminuent de façon sporadique, ce qui entraîne des règles irrégulières. La ménopause, quant à elle, se définit par l’absence de règles de plus d'un an.

Bien que les termes « préménopause » et « ménopause » fassent référence à deux étapes distinctes du développement humain, ils sont souvent utilisés l'un pour l'autre, et ce même sur l’emballage de certains compléments alimentaires, souligne Santoro.

Les produits qui prétendent soulager les symptômes de la préménopause sont souvent constitués d’un mélange de divers ingrédients, dont de la vitamine B (pour l’énergie, l’humeur, etc.), de la vitamine D (pour la santé des os) et des minéraux comme le zinc (pour la santé de la peau et des ongles).

Certains contiennent également des plantes comme la maca et la populaire actée à grappes noires, toutes deux censées atténuer plusieurs symptômes, ainsi que des phytoestrogènes, des composés provenant de plantes telles que le soja et le trèfle rouge, qui présentent une structure et des fonctions similaires à l’œstrogène humain.

 

CES COMPLÉMENTS ALIMENTAIRES SONT-ILS EFFICACES ?

Selon les experts, il n’y a tout simplement pas assez de preuves pour affirmer que ces ingrédients soulagent bel et bien les effets secondaires de la préménopause. En effet, certains ingrédients n’ont été que peu étudiés, quand, pour d’autres, les résultats des études se sont souvent avérés incohérents.

Par exemple, des analyses de la littérature scientifique réalisées en 2012 et 2016 ont montré que l’ingestion d’extrait d’actée à grappes noires ne réduisait pas plus les bouffées de chaleur que la prise d’un placebo. Pourtant, une revue systématique de 2017 a soutenu le contraire.

Selon Minkin, les études sur les compléments alimentaires sont souvent loin d’appliquer la méthodologie de référence recommandée pour ce type de recherche, à savoir de vastes essais randomisés, en double aveugle, contrôlés par placebo, qui suivent les participants dans le temps.

Par ailleurs, la diversité des processus de culture, d’extraction et de production de nombreux ingrédients complique davantage la collecte de données fiables, ajoute Minkin.

Prenons l’exemple du soja, parfois commercialisé comme traitement des bouffées de chaleur. En 2023, la Menopause Society, une organisation à but non lucratif américaine, a conclu qu’il était difficile de résumer les études publiées sur le soja depuis 2015, tant elles étaient différentes. En effet, ces études analysent des dosages du soja différents ou des mélanges de soja et de différents minéraux et vitamines, ainsi que différentes formes d'aministration du soja, comme des boissons et des comprimés.

En fin de compte, la Menopause Society n’a recommandé ni le soja ni aucun autre complément alimentaire qu’elle a évalué (dont des capsules d’onagre, de la crème d’igname sauvage et autres) pour traiter les bouffées de chaleur.

Cela dit, les experts expliquent qu’il peut leur arriver de recommander certains compléments alimentaires aux personnes en période de préménopause. Les suppléments de calcium, par exemple, peuvent favoriser la santé des os si l’alimentation n’en fournit pas suffisamment, tout comme la vitamine D, que l’on produit moins efficacement avec l’âge, explique Karen Adams, professeure clinique d’obstétrique et de gynécologie à la faculté de médecine de l’université de Stanford.

En outre, Adams indique qu'il existe « quelques preuves » suggérant que la mélatonine peut améliorer le sommeil, en particulier chez les personnes âgées, mais ces études sont de petite envergure et de courte durée. Les experts ont également averti le National Geographic que la mélatonine ne devait être utilisée qu’à court terme.

Bien sûr, les preuves anecdotiques abondent, certaines personnes jurant que certains compléments alimentaires les ont aidées à soulager leurs symptômes. Cependant, selon les experts, il pourrait s’agir d’un effet placebo puisque dans le cas des traitements contre les bouffées de chaleur, par exemple, des études ont démontré que plus de 30 % des personnes signalaient des améliorations avec le placebo.

Quoi qu’il en soit, si les symptômes s’améliorent et si le complément alimentaire semble sans danger, Minkin préfère aller dans le sens de ses patients. « Ma ligne de conduite habituelle est la suivante : si mes patients trouvent une utilité aux suppléments, je les invite à poursuivre leur traitement », dit-elle.

Mais comment s’assurer qu’un complément alimentaire est sans danger ? C’est une autre histoire.

 

CE QU’IL FAUT SAVOIR AVANT DE PRENDRE DES COMPLÉMENTS ALIMENTAIRES POUR LA PRÉMÉNOPAUSE

Les agences de régulation des médicaments n’ont pas à approuver la plupart des compléments alimentaires pour qu’ils soient commercialisés. Il n’y a donc aucune garantie qu’un produit soit efficace, qu’il n’interagisse pas avec des médicaments ou même qu’il contienne ce qu'indique l’étiquette. « Les fabricants de compléments alimentaires peuvent prétendre tout ce qu’ils veulent », déclare Adams.

Une étude de 2006, par exemple, a révélé que trois des onze produits à base d’actée à grappes noires analysés dans le cadre de l’étude ne contenaient pas d’actée à grappes noires, mais une autre plante à fleurs appelée actée asiatique.

Il est ainsi recommandé aux personnes qui envisagent d’acheter des compléments alimentaires pour la préménopause de rechercher le sceau de la pharmacopée française, de Consumerlab.com ou de NSF International, qui testent les compléments alimentaires pour vérifier des facteurs tels que l’identité des produits et leur pureté. 

 

LES AUTRES SOLUTIONS POUR SOULAGER LES SYMPTÔMES

Si de nombreux médecins ne vous orienteront pas vers les compléments alimentaires, vous pouvez trouver d’autres types de solutions fiables et approuvées.

Selon les experts, l'intervention hormonale constitue le traitement le plus efficace pour pallier les symptômes courants de la préménopause. En revanche, si certains médecins préfèreront l’hormonothérapie (soit le recours à des pilules, des patchs ou à tout autre produit contenant des œstrogènes ou un mélange d’œstrogènes et de progestérone), explique Minkin, d’autres ne vous la recommanderont pas, car la production d’œstrogènes chez les personnes préménopausées peut encore être élevée à certains moments. Une des solutions dans ces cas-là peut être d'avoir recours à une contraception hormonale.

Toutefois, si vous préférez renoncer au traitement hormonal ou si vous n’êtes pas une bonne candidate pour ce traitement (comme les personnes ayant des antécédents de thrombose idiopathique ou de cancer du sein ou d’autres cancers sensibles aux œstrogènes, par exemple), vous pouvez également vous procurer des médicaments non hormonaux sur ordonnance.

Certaines techniques psychocorporelles peuvent également s’avérer utiles.

Pour atténuer les bouffées de chaleur, la Menopause Society recommande deux techniques : l’hypnothérapie, qui implique des séances de relaxation profonde et axées sur la concentration destinées à vous rendre plus influençable, et la thérapie cognitivo-comportementale, axée sur l’identification et le remplacement des schémas de pensée néfastes.

Santoro rappelle que faire de l’exercice physique est « bon dans tous les cas », mais souligne également que selon certaines données, il n'aide pas à réduire les bouffées de chaleur. Par ailleurs, le fait de suivre un régime alimentaire équilibré, composé d’aliments entiers et non transformés, permet de contrôler la glycémie, d’assurer un apport adéquat en vitamines et de prévenir la prise de poids qui peut survenir pendant la préménopause, souligne Santoro.

Enfin, Minkin insite : il est essentiel de consulter un fournisseur de soins de santé bien informé qui peut vous aider à naviguer parmi les options, y compris les compléments alimentaires.

« J’encourage toujours mes patients à consulter des sources fiables, ajoute-t-elle, et à ne pas fonder leurs décisions sur les propos d’une star de cinéma. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

À partir d’avant-hierVos flux RSS

Le Kaméni, le secret explosif de l’île de Santorin

L’île grecque de Santorin, avec ses emblématiques maisons blanches et bleues juchées en surplomb d’une baie d’azur, est indéniablement une merveille esthétique. Mais l’histoire de la formation de ce lieu paradisiaque est spectaculairement violente.

Santorin doit sa forme courbe et son intérieur submergé à de colossales éruptions survenues dans un lointain passé qui évidèrent le centre de l’île. Après chaque éruption, le volcan de Santorin reconstitue lentement ses réserves de magma et se prépare pour une nouvelle explosion gigantesque. La plus célèbre de ces éruptions eut lieu en 1560 avant notre ère. Cet emportement, l’un des plus puissants des 10 000 dernières années, ainsi que la désolation et les raz-de-marée qui s’ensuivirent marquèrent probablement le début du déclin d’une civilisation de navigateurs : les Minoens.

L’île se trouve actuellement au milieu de ce cycle cataclysmique, et les volcanologues sont particulièrement préoccupés par le volcan de l’île Néa Kaméni. Celui-ci, qui est en réalité une extension hors-sol du volcan de Santorin, qui est lui bien plus vaste, est une structure principalement sous-marine située au cœur de la caldeira et possède deux sommets : Paléa Kaméni et Néa Kaméni, qui passent une petite tête hors de l’eau.

En 726, l’une des éruptions du Kaméni donna lieu à d’importantes explosions et à une abondante projection de matière en fusion. Eu égard à la qualité particulière des roches volcaniques produites lors de cette éruption, on pensait qu’il s’agissait là du pire scénario auquel Kaméni était en mesure de se livrer.

Mais une nouvelle étude, publiée dans la revue Nature Geoscience, révèle que cette éruption fut en réalité plus virulente, et ce d’un à deux ordres de grandeur.

Les chercheurs estiment qu’au moins cent milliards de mètres cubes de lave, de cendres et de roches brûlantes furent expulsées du volcan. Ainsi cette éruption est comparable à l’explosion du volcan sous-marin Hunga Tonga, survenue en 2022 dans l’océan Pacifique. « Si une telle éruption se produisait de nos jours, cela aurait des répercussions majeures », affirme Jonas Preine, géophysicien de l’Université de Hambourg et auteur principal de l’étude.

C’est une nouvelle fâcheuse, à la fois pour les 15 000 habitants de Santorin et pour les deux millions de touristes qui visitent l’île chaque année. « Cela laisse entrevoir la possibilité que les éruptions modérées à importantes soient plus probables que ce que l’on pensait », révèle David Pyle, volcanologue de l’Université d’Oxford qui n’a pas pris part aux présentes recherches.

Mais « les habitants de l’Égée n’ont pas de raisons de paniquer pour autant pour le moment », tempère Jonas Preine. Le risque d’éruption à Santorin dans un avenir proche est faible, et rien n’indique qu’il doive en survenir une bientôt. En outre, cette étude renforce la compréhension qu’ont les volcanologues de cette île et des risques éruptifs qu’elle présente, et elle permet aux scientifiques de mieux protéger les personnes de dangers futurs.

« Les volcans sous-marins coûtent cher à étudier, déplore Jonas Preine. Mais cela en vaut la peine. Il y a tout une collection de dangers susceptibles de leur être associés. »

 

ENQUÊTER SUR L’HISTOIRE VOLCANIQUE DE SANTORIN

Santorin n’est qu’une des nombreuses caldeiras que compte notre planète. Celles-ci sont le fruit de l’activité de volcans qui semblent fonctionner selon des cycles qui culminent en d’importantes explosions qui engendrent des dépressions en forme de chaudron (d’où le nom caldeiras). L’activité volcanique de l’île aurait commencé il y a 650 000 ans environ, et à cette période, celle-ci aurait entraîné au moins cinq explosions catastrophiques, dont une qui dévasta toute une civilisation en 1560 avant notre ère.

Depuis lors, c’est le Kaméni et ses deux sommets qui écrivent l’histoire volcanique de l’île. Ce volcan aux éruptions à la fois effusives et un peu explosives est entré en éruption pour la dernière fois en 1950 et, hormis quelques secousses sismiques en 2011 et 2012, est resté tranquille depuis. Mais il n’est pas endormi pour autant.

« Le volcan est encore assez actif, donc il y a, bien entendu, toujours un risque », prévient Isabel Yeo, spécialiste de volcanologie sous-marine du Centre national d’océanographie de Southampton, en Angleterre, qui n’a pas pris part aux présentes recherches. Les scientifiques sont tout à fait conscients que les volcans sous-marins « sont capables de nous surprendre ».

L’éruption de 726 a accaparé l’attention de ceux qui comptent savoir à quel point Kaméni pourrait être dangereux à l’avenir. Les récits historiques sont en tous cas terrifiants : on dit que les eaux de la baie se mirent à bouillir, puis que « la mer entière était en feu », raconte Jonas Preine ; après quoi des explosions assourdissantes recouvrirent le ciel de cendres et la terre de pierres ponces.

Mais les indices volcaniques découverts par les scientifiques ne semblent pas tout à fait concorder avec ces descriptions. « La pierre ponce ne se forme et n’est projetée que lors d’éruptions explosives », explique Rebecca Williams, volcanologue de l’Université de Hull n’ayant pas pris part aux présentes recherches. De plus, « le fait que la plupart des archives rocheuses aient été englouties par la mer constitue un obstacle important à la pleine compréhension de l’histoire éruptive des îles-volcans ».

L’éruption de 726 ne fait pas exception à la règle : seules de petites traces furent laissées sur la terre. Par conséquent, même si l’on savait qu’un phénomène dangereux avait eu lieu, « l’impact de cette éruption ne fut jamais vraiment pris au sérieux », déplore Jonas Preine.

 

À QUOI RESSEMBLERA LA PROCHAINE ÉRUPTION DE SANTORIN ?

Bien décidés à déchiffrer le passé volcanique trouble de Kaméni, des membres du Programme international de découverte des océans (IODP) ont foré les bassins marins de la caldeira en divers endroits et en ont extrait des carottes sédimenteuses à chaque fois.

Cela leur a permis de découvrir un volume considérable de cendres et de pierres ponces qu’ils ont attribué à l’éruption de 726. Il est vite apparu que cette éruption fut aussi importante et aussi grave que l’affirmaient les témoignages historiques. Il est vraisemblable que des explosions sous-marines tonitruantes se soient produites et qu’elles aient été suivies de colonnes immenses de cendres et de pierres ponces.

L’idée d’une éruption explosive projetant cent milliards de mètres cubes de matière éruptive est sans aucun doute intimidante. Mais la réalité fut bien plus cauchemardesque encore.

« L’estimation qu’ils fournissent est des plus conservatrices, car ils ne s’appuient que sur le volume de matière déposée au sein de la caldeira, explique Isabel Yeo. De grandes quantités de matière furent sans doute transportées et déposées loin du volcan lors de l’éruption. »

Cette étude laisse entrevoir la possibilité que Kaméni puisse être capable de bien davantage de dégâts que nous ne le soupçonnions. Une éruption aussi explosive de nos jours « pourrait être synonyme non seulement de retombées substantielles de cendres et de pierres ponces, mais également de raz-de-marée générés par un possible effondrement "localisé" de l’île, qui est construite sur des dépôts instables de pierres ponces », explique Kathy Cashman, volcanologue de l’Université d’Oregon n’ayant pas pris part aux recherches.

La découverte de l’équipe de recherche signifie également que le pire scénario pourrait s’avérer bien plus grave que prévu. Fort heureusement, cela fait longtemps que les scientifiques prennent en considération les risques volcaniques posés par l’île.

« On devrait prendre Santorin au sérieux étant donné le potentiel tsunamigénique du volcan et le nombre important de personnes susceptibles d’être affectées », prévient Amy Donovan, volcanologue de l’Université de Cambridge qui n’a pas pris part aux présentes recherches. « Cet article dit bel et bien que [l’éruption de] 726 était plus grave qu’on ne le pensait, mais il n’aggrave pas mes préoccupations concernant ce volcan qui est déjà préoccupant pour tout un tas de raisons. »

Sans surprise, le volcan est également surveillé de près vingt-quatre heures sur vingt-quatre. « Tout signe de regain d’activité a de bonnes chances d’être détecté dans ses toutes premières phases et cela donnerait lieu à des alertes », indique Isabel Yeo.

Les implications de ces recherches ne vont pas rester cantonnées à l’île. On considère Santorin comme l’un des sites clés dont l’étude a conduit à la création de cette science moderne qu’est la volcanologie. On l’a examiné sous toutes les coutures, chacun de ses détails accessibles a été analysé de manière scientifique d’innombrables fois. « Cela ne l’empêche pas de grandement nous surprendre, confie Jonas Preine. Ce volcan que vous observez chaque jour recèle des secrets que nous sommes encore en train de mettre au jour. »

Que cela dit-il alors d’autres volcans à caldeira ailleurs sur le globe, et notamment de ceux qui sont submergés par l’océan ? « Si nous avons pu ne pas avoir conscience de cela à Santorin, alors nous ne sommes certainement pas au courant d’éruptions similaires survenues sur d’autres volcans, fait remarquer Jonas Preine. Il s’agit d’un angle mort colossal pour la communauté volcanologique. »

L’horloge tourne. « Presque aucun volcan sous-marin n’est sous surveillance, s’alarme Isabel Yeo. Et cela doit changer. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Champignons : nos fascinants voisins fongiques

Retrouvez cet article dans le numéro 295 du magazine National Geographic. S'abonner au magazine

Anne Pringle était en train d’examiner des champignons en Californie, dans le parc d’État de la baie de Tomales, au nord de San Francisco, quand elle s’est trouvée cernée par une mer de champignons parmi les plus dangereux du monde: des amanites phalloïdes. «Impossible de poser le pied par terre sans en écraser, raconte-t-elle. C’était une infestation totale.» 

La scène s’est déroulée il y a vingt ans, quand Anne Pringle, aujourd’hui mycologue à l’université du Wisconsin à Madison, faisait des recherches à l’université de Californie à Berkeley. En dépit de cette prolifération, la rumeur disait que ce champignon mortel n’avait pas pour origine la côte californienne. Six ans et de nombreux séquençages génétiques plus tard, la scientifique a démontré qu’elle était fondée: l’amanite phalloïde présente en Amérique du Nord était une envahisseuse, sans doute venue d’Europe. 

Aujourd’hui implantées à des milliers de kilomètres hors de leur aire de répartition originelle, les amanites phalloïdes provoquent la majorité des intoxications dues à des champignons. Leurs puissantes toxines s’attaquent au corps humain six heures à peine après ingestion, provoquant des douleurs abdominales, des nausées et des vomissements qui, faute de traitement, peuvent entraîner une insuffisance hépatique mortelle. 

Pourtant, cette espèce n’a pas évolué dans le but de tuer des gens. Ce sont des champignons mycorhiziens, dont les « chapeaux », ou carpophores, émergent du mycélium souterrain, qui s’enroule autour des racines des arbres, les aidant à absorber les nutriments. Cette activité intrigue autant qu’elle préoccupe les scientifiques comme Anne Pringle, laquelle souligne notre maigre connaissance du règne fongique et de ce qui se passe quand ces réseaux souterrains se reconfigurent.

Au cours du siècle écoulé, notre monde est devenu plus interconnecté que jamais et les champignons ont été embarqués dans d’innombrables voyages internationaux, accrochés à des plantes importées ou portés par le vent sur des centaines de kilomètres. Aujourd’hui, le changement climatique permet à nombre de ces organismes de prospérer dans des écosystèmes autrefois trop froids et secs. Si nous nous fions au passé, nous ne sommes pas forcément prêts pour ce qui nous attend.

En un sens, le monde des champignons est une mystérieuse dimension terrestre que nous apprenons tout juste à observer. S’ils poussent dans le sol et présentent des « tiges » comestibles comme les plantes, nombre de leurs caractéristiques les en distinguent pourtant. Alors que les parois cellulaires des végétaux sont constituées de cellulose, celles des champignons sont faites de chitine, une fibre que l’on retrouve aussi dans l’exosquelette des insectes et des crustacés. De plus, ils sont hétérotrophes, c’est-à-dire capables de manger d’autres organismes, souvent en décomposant du bois et des végétaux morts grâce à la sécrétion puis à la réabsorption d’enzymes. Sans eux, la flore et la faune mortes s’accumuleraient dans les forêts, et la plupart des arbres peineraient à trouver les nutriments indispensables à leur survie. 

«Ils sont probablement plus proches des animaux qu’on ne le croit», affirme même Rabern Simmons, conservateur au sein de l’Herbier de l’université Purdue, dans l’Indiana. Depuis plus d’un milliard d’années, ces organismes ont évolué de manière à vivre dans des milieux spécifiques, parfois en coopération avec une seule autre espèce. Mais, quand l’un d’eux est déplacé ailleurs, à des dizaines, voire à des milliers de kilomètres, ces relations complexes peuvent s’emballer. «Il en résulte un désordre parfait pour les champignons pathogènes», explique Stephen Parnell, épidémiologiste à l’université de Warwick, en Angleterre, qui modélise la propagation des maladies touchant les végétaux

Les champignons recourent à diverses stratégies de reproduction pour survivre. Portées par le vent, les spores de plusieurs espèces peuvent se mélanger dans un nouvel habitat; les champignons peuvent aussi fusionner les filaments, ou hyphes, qui forment leurs mycéliums ; mais, si besoin, beaucoup recourent simplement à la reproduction asexuée. 

Dans un contexte où les climats et les paysages évoluent à une vitesse record, souligne Stephen Parnell, ces caractéristiques reproductives confèrent aux organismes fongiques une adaptabilité unique, mais aussi inquiétante. Dans de nouveaux milieux, des champignons non indigènes peuvent se propager très vite et transformer la topographie des alentours.

Variétés de cannabis récréatif de plus en plus fortes : attention danger

Aux États-Unis, vingt-trois États ainsi que le District de Columbia ont déjà légalisé l'usage récréatif du cannabis ces dernières années et d'autres, comme la Floride, voteront sur cette question en novembre. Cette évolution du cadre législatif a entraîné une augmentation spectaculaire de la consommation : en 2023, 62 millions de personnes consommaient du cannabis aux États-Unis. Cependant, la légalisation du cannabis ne signifie pas que sa consommation régulière ne présente aucun danger.

D'après la recherche, les problèmes de santé liés à la consommation de cannabis ne se limiteraient pas à la sécheresse buccale ou à la fatigue, mais incluraient également des maladies physiques et mentales. Une étude récente établit même un lien entre la substance et les maladies cardiaques.

« Le cannabis est souvent associé à Bob Marley. Pour beaucoup, c'est un produit naturel, issu de mère Nature, et inoffensif », déclare Marco Solmi, psychiatre à l'université d'Ottawa. Pourtant, son analyse de la substance publiée dans la revue BMJ fait état d'un grand nombre de problèmes potentiels.

Le cannabis n'est pas dangereux comme le sont les opioïdes, indique Deborah Hasin, épidémiologiste à l'université Columbia, qui a mené des recherches sur l'usage et l'abus du cannabis. « Personne ne meurt d'une overdose de cannabis », ajoute-t-elle. « Mais la substance peut avoir beaucoup d'autres conséquences sur la santé physique et psychologique. »

 

DES VARIÉTÉS TOUJOURS PLUS PUISSANTES

Certains de ces problèmes peuvent être attribués à la puissance accrue des variétés disponibles de nos jours. Les produits actuels, « ce n'est plus l'herbe de nos grands-mères », déclarait Maria Rahmandar, directrice médicale du programme de prévention et d'usage du cannabis au Lurie Children’s Hospital de Chicago, lors d'un débat récent sur le cannabis aux Académies nationales des sciences, d'ingénierie et de médecine.

« Ces produits sont bien plus puissants et se présentent sous un si grand nombre de formulations qu'ils n'ont plus rien à voir avec les produits des années 1960 ou 1970 », indique Rahmandar.

La façon dont la population consomme du cannabis de nos jours augmente la quantité de substance active ingérée. Le vapotage et les produits comestibles délivrent généralement une plus grande quantité de tétrahydrocannabinol (THC) que les cigarettes roulées et fumées, indique Rahmandar.

 

DÉTRESSE PSYCHOLOGIQUE, UN PROBLÈME MAJEUR

L'un des risques moins connus, quoique préoccupants, de l'usage régulier du cannabis est la psychose induite par une substance, dans laquelle le consommateur fait face à des idées délirantes ou à une paranoïa, entend des voix et perd temporairement le contact avec la réalité. La psychose disparaît généralement après quelques jours, mais nécessite dans certains cas une hospitalisation.

Ce trouble peut se produire avec n'importe quelle substance psychoactive, mais le risque pour le cannabis est important, supérieur à celui de la cocaïne, indique Solmi.

« Vous avez plus de risques de développer une psychose induite par une substance si vous consommez du cannabis tous les jours, mais je ne peux pas vous donner de quantité sûre qui pourrait empêcher ce problème », ajoute-t-il. Les jeunes adultes de sexe masculin sont les plus vulnérables.

Autre constat particulièrement préoccupant, près d'un tiers des personnes qui subissent une psychose induite par une substance finissent par développer le trouble plus permanent de schizophrénie, indique Solmi.

Des études observationnelles associent également d'autres troubles psychologiques à un usage fréquent du cannabis. Dans sa revue de la littérature scientifique, Solmi constate une augmentation de la dépression ainsi qu'une recrudescence de la violence chez les couples. En outre, puisque le cannabis provoque une déficience cognitive, ainsi qu'une déficience visuelle, les accidents de voiture ont augmenté chez les utilisateurs qui conduisent sous l'influence de la substance.

Les experts s'inquiètent particulièrement des impacts sur la santé mentale des adolescents. Aux États-Unis, environ 17 % des adolescents âgés de quinze-seize ans indiquent consommer du cannabis alors qu'aucun État n'a légalisé le cannabis en dessous de vingt et un ans.

Le risque de subir une dépression à l'entrée dans l'âge adulte est supérieur de 37 % chez les adolescents qui consomment régulièrement du cannabis par rapport aux non-consommateurs. Les taux de suicide sont également plus élevés.

« À l'adolescence, le cerveau traverse une phase de maturation et de développement. Ainsi, lorsque des substances entrent en jeu, elles ont plus d'impact que sur les cerveaux adultes », résume Rahmandar.

 

LA SANTÉ CARDIAQUE EN JEU

La consommation régulière de cannabis peut également entraîner des problèmes physiques majeurs.

Les consommateurs réguliers présentent un risque plus élevé de crise cardiaque, d'accident vasculaire cérébral et d'autres pathologies cardiaques, selon une vaste étude de population publiée dans le Journal of the American Heart Association en février. Les chercheurs ont ainsi constaté une augmentation de la fréquence des crises cardiaques de 25 % dans ce groupe et de 42 % pour les accidents vasculaires cérébraux.

Cela se produit probablement parce que le THC affecte le flux sanguin dans les artères et parce que les récepteurs de cannabinoïdes sont présents dans l'ensemble du système cardiovasculaire, indiquent les auteurs. Les personnes fumant du cannabis augmentent également leur risque de maladie cardiaque à cause des particules inhalées en plus du THC.

D'autres études associent le cannabis à une réduction des nausées et des vomissements après la chimiothérapie, mais la revue publiée dans BMJ indique que les consommateurs réguliers peuvent en fait souffrir d'une pathologie qui accentue les vomissements, connue sous le nom d'hyperémèse. « C'est rare, mais plus il y a de consommateurs, plus le nombre de cas augmente », indique Hasin.

Les femmes enceintes qui consomment régulièrement du cannabis courent un risque supérieur d'accoucher prématurément et d'avoir un bébé dangereusement petit. De plus amples recherches seront nécessaires pour déterminer si ce phénomène provient de la substance en elle-même ou d'autres facteurs liés au mode de vie des femmes qui choisissent de consommer du cannabis pendant leur grossesse, indique Solmi.

 

ADDICTION AU CANNABIS

Beaucoup pensent que le cannabis est moins dangereux que l'alcool, mais un consommateur de cannabis sur cinq développe une addiction à la substance. Les symptômes du trouble de consommation du cannabis sont similaires aux autres substances.

« Si la personne ressent un besoin irrépressible de consommer du cannabis, si elle ressent le besoin d'en consommer toujours plus pour ressentir les mêmes effets, si elle a déjà essayé d'arrêter ou de ralentir sans succès » ou présente l'un des nombreux autres symptômes, « c'est un signal d'alerte », indique Hasin.

Comme avec l'alcool, l'addiction au cannabis peut mener à des problèmes personnels, financiers, juridiques et sanitaires.

Certains groupes sont particulièrement exposés à ce risque d'addiction. Chez les vétérans, les taux ont augmenté substantiellement depuis 2005, comme le constate Hasin dans son étude. Elle attribue ce phénomène à une combinaison de différents facteurs : la puissance accrue des produits et la tolérance de la loi vis-à-vis de la substance, ainsi que le recours probable au cannabis comme automédication contre la douleur chronique et les troubles psychiatriques. Le département des Anciens combattants des États-Unis est parvenu à réduire la prescription d'opioïdes non nécessaires aux vétérans, donc certains d'entre eux se tournent peut-être vers le cannabis », suggère-t-elle.

Chez les plus jeunes également, le risque de développer ce trouble est important. Les personnes qui commencent à consommer du cannabis à un jeune âge ou qui présentent des antécédents familiaux d'addiction augmentent sensiblement leur probabilité de développer des troubles.

« Les personnes âgées de moins de 25 ans devraient totalement éviter le cannabis », propose Solmi. « Ils n'ont aucune idée de leurs futures réactions. Ils jouent avec leur cerveau et avec leur santé. »

Pour tous les autres, la modération est essentielle.

« Ce n'est pas une substance banale qui ne présente aucun risque », souligne Rahmandar. « Pour la plupart des consommateurs, tout ira bien, mais personne ne peut prédire qui développera des problèmes. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Le métier le plus dangereux du monde ? Soudeur sous-marin

Si vous entendez « plongée sous-marine », vous pensez certainement aux vacances et à l’observation de toutes sortes de faunes et de flores marines dans des eaux turquoise de paradis tropicaux. Cependant, à des dizaines de mètres de profondeur se cache un autre monde, bien loin des baignades relaxantes le long des récifs ensoleillés : celui de la soudure sous-marine.

« Nous assurons le bon fonctionnement du monde au-dessus de l’eau, en effectuant le travail difficile sous la surface », explique Joseph Purvis, ancien soudeur sous-marin. « J’ai été très fier de faire partie de ce monde exaltant et éprouvant pendant six ans. »

Les nombreux dangers de ce métier attirent l’attention des médias depuis des années, si bien qu’une nouvelle tendance a récemment vu le jour sur les réseaux sociaux : des jeunes se filment en train d’annoncer avoir accepté un emploi de soudeur sous-marin à leurs proches afin de capturer leurs réactions, souvent pleines de surprises et d’incrédulité, cette activité étant devenue célèbre pour son haut niveau de spécialisation et pour les risques qu’elle implique. La soudure sous-marine mérite-t-elle sa réputation ?

 

UN MÉTIER PRÉSENTANT DE NOMBREUX DANGERS

Les soudeurs sous-marins, aussi appelés soudeurs-plongeurs ou scaphandriers, plongent avec un équipement spécialisé conçu pour résister aux difficultés inhérentes à l’environnement des eaux profondes. Lorsqu’ils sautent du bateau pour rejoindre le lieu de leur mission, ils sont vêtus d’une épaisse combinaison, étanche ou non, et portent un casque doté d’un système de communication intégré afin de rester en contact avec leur équipe en surface. Plusieurs méthodes de descente peuvent être pratiquées en fonction de la profondeur et de la durée de la mission.

« Dans le cas d’une plate-forme pétrolière, le premier plongeur descend sous l’eau directement depuis la plate-forme, et établit une ligne de descente, une corde d’à peine plus d’un centimètre qui remonte jusqu’au bateau », décrit Purvis.

Les plongeurs s’agrippent ensuite à la corde et se laissent tomber jusqu’au fond de l’eau.

« Même les meilleurs plongeurs sportifs peuvent se perdre complètement sous l’eau », poursuit Purvis. « Si l’on se trompe de direction et que l’on oublie la direction empruntée, on risque de ne plus savoir différencier la gauche de la droite, ou le haut du bas. »

La source d’oxygène des soudeurs-plongeurs n’est pas une bouteille de plongée classique ; elle ressemble davantage à une sorte de cordon ombilical. Un tuyau transfère du gaz respiratoire depuis la surface jusqu’au point de contrôle des plongeurs, un peu comme un astronaute qui reste attaché à son vaisseau lorsqu’il marche sur la Lune. Ils descendent avec des électrodes et des torches à la main, spécialement conçues pour les inspections et les réparations sous-marines.

Le simple fait de travailler sous l’eau présente de nombreux défis qui requièrent une certaine expertise. Comme pour toute plongée, l’augmentation de la pression de l’eau, si elle n’est pas gérée correctement, peut entraîner de graves problèmes physiologiques tels que la narcose à l’azote ou un accident de décompression.

La faible visibilité accentue ces difficultés, car les scaphandriers travaillent souvent dans des eaux troubles et peu lumineuses, et ont ainsi plus de difficultés à identifier les éventuels dangers et obstacles auxquels ils pourraient faire face. Lorsqu’ils soudent, certains plongeurs gardent même les yeux fermés pour rester calmes, la réparation ne peut ainsi s’effectuer que grâce à leurs sensations.

« Si l’eau est trouble, essayer de voir ne fait que gaspiller de l’énergie », explique Purvis. « La plupart du temps, il fait totalement noir, et le travail repose de toute façon sur le ressenti. »

L’électrocution représente un autre danger important, car les sources d'électricité peuvent envoyer des courants électriques dans les eaux environnantes. De plus, le soudage à des températures extrêmement élevées (5 500 °C et plus) provoque la séparation des molécules d’hydrogène et d’oxygène de l’eau, et si la proportion d’hydrogène atteint un niveau trop élevé par rapport à l’oxygène, des explosions plus ou moins importantes peuvent se produire.

Pour atténuer ces risques, les soudeurs s’appuient sur une formation approfondie, un équipement spécialisé, une communication constante avec les équipes qui restent à la surface, et des outils de soudage adaptés.

La peur fait malgré tout partie intégrante du processus, confie Purvis, qui a souvent effectué des plongées de plus de dix heures d’affilée dans le cadre de son travail, et qui a perdu une partie de son petit doigt lors d’une mission.

« La peur est naturelle. Si un plongeur vous dit qu’il n’a jamais eu peur, il vous ment. On doit lutter contre les courants pendant les missions, et la plupart des plongeurs perdent un ou deux doigts à cause d’une pièce qui leur a écrasé la main. »

 

UNE PROFESSION EN PLEINE ÉVOLUTION

Le soudage sous-marin devra certainement toujours être effectué par des humains, plutôt que par des machines ; selon les experts, ce travail est tout simplement trop complexe.

« C’est un savoir-faire », affirme Kevin Peters, soudeur sous-marin et directeur des services environnementaux chez Subsea Global Solutions. « Il faut vraiment s’y consacrer, avoir des compétences et de la pratique, de la même manière qu’un peintre ou un musicien doit s’exercer pendant 10 000 heures pour exceller. »

Le travail peut également varier en fonction des missions.

« La plupart des travaux de soudage sous-marins sont des missions de réparation et, dans la plupart des cas, si un robot était là, le processus devrait n’être que semi-automatique », explique Uwe Aschemeier, ingénieur en soudage primé. « Les réparations dans le domaine du soudage ne sont pas linéaires ou constantes, des humains sont nécessaires pour évaluer et concevoir chaque réparation. »

Les scaphandriers travaillent dans un certain nombre de secteurs, des compagnies pétrolières qui construisent des plates-formes offshore aux constructeurs de navires qui doivent effectuer des réparations sous-marines. Cette méthode s’est imposée comme une meilleure alternative au carénage des bateaux, qui nécessite de les sortir de l’eau, car elle permet d’économiser du temps et des ressources tout en garantissant des réparations efficaces. Particulièrement crucial dans les industries du pétrole et du gaz, le soudage sous-marin permet de maintenir l’infrastructure des grands navires, des réacteurs nucléaires, des pipelines et des plates-formes pétrolières offshore.

Pour limiter la menace du changement climatique, les entreprises du secteur de l’énergie doivent abandonner progressivement les combustibles fossiles ; certains scaphandriers ont donc trouvé du travail dans le secteur des énergies renouvelables.

Après avoir travaillé dans la soudure, Purvis s’est réorienté vers le secteur des panneaux solaires et des batteries.

« J’ai trois enfants et je voulais qu’ils me voient passer à l’industrie des énergies renouvelables », explique-t-il, « afin de ne pas seulement puiser dans la terre et dans les ressources disponibles de notre planète, mais d’utiliser des ressources naturelles pour produire de l’énergie. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Les diamants sont-ils vraiment éternels ?

Lorsque Gladys Babson Hannaford a visité l’université d’État de Floride en 1960, ses conférences ne figuraient pas vraiment au programme. Celle que l’on surnommait « la Dame aux diamants » n’était d’ailleurs pas une professeure comme les autres. Elle qui a donné des centaines de conférences par an sur les pierres précieuses était en réalité salariée d’une agence de publicité, qui avait un objectif simple, mais ambitieux : rendre les Américaines folles des diamants.

À l’époque, le prix de ces pierres précieuses (qui ne sont pas rares) était fixé par le client de l’agence, le conglomérat diamantaire mondial De Beers. Et les bagues de fiançailles ornées d’un diamant n’étaient pas encore une tradition. Cela n’a cependant pas empêché Gladys Babson Hannaford de déclarer que les diamants étaient des pierres précieuses à l’importante valeur historique et émotionnelle. « La durabilité d’un diamant est associée à un amour éternel », avait-elle annoncé aux étudiants, encourageant l’audience féminine à exiger de leur futur fiancé une bague ornée de diamants.

Les conférences de Gladys s’inscrivaient dans le cadre d’une campagne continue longue de plusieurs décennies visant à rendre les bagues de fiançailles ornées de diamants populaires. Ces cadeaux désormais obligatoires étaient pourtant loin d’être traditionnels lorsque De Beers a commencé à en faire la promotion en tant que symbole rare de l’amour.

 

UNE MARQUE D’AMOUR ROYALE

Jusqu’au 19e siècle, le sous-continent indien et l’Amérique du Sud étaient les principaux fournisseurs de diamants au monde. Connues depuis l’Antiquité, ces pierres précieuses ne sont devenues à la mode en Europe de l’Ouest qu’au début du 13e siècle. Ce n’est qu’à la Renaissance que l’industrie de la taille des diamants est née, lorsque les artisans se sont mis à utiliser de nouveaux outils pour tailler des facettes dans les pierres mal dégrossies et brutes, un procédé permettant de mettre en valeur leur brillant et de les préparer pour les transformer en de magnifiques bijoux.

Ces nouveaux diamants à facettes étaient incroyablement beaux. Ils étaient aussi très rares, si bien qu’ils sont devenus des symboles de richesse et de luxe pour ceux qui pouvaient se les offrir. Un de ces joyaux est entré dans l’histoire en ornant la toute première bague de fiançailles, offerte par l’archiduc Maximilien, futur empereur du Saint-Empire, à Marie de Bourgogne en 1477. Cette même année, l’un des conseillers de l’archiduc lui aurait dit d’avoir « une bague sertie de diamants et aussi une bague en or » prêtes en vue de ses fiançailles à sa promise. Selon le minéralogiste George Frederick Kunz, ce cadeau est la preuve, des siècles plus tard, que les bagues de fiançailles ornées de diamants étaient déjà à la mode chez la royauté de l’époque.

Les Européens lambdas sont eux restés indifférents à cette mode, échangeant des anneaux en fer, des vêtements et du bétail lorsqu’ils décidaient de se marier. En parallèle, les membres de la royauté ont continué à échanger des joyaux précieux pour leurs fiançailles, à l’instar de la reine Victoria. En 1839, elle a ainsi reçu du Prince Albert une bague de fiançailles en or en forme de serpent, symbole populaire de l’amour éternel à l’époque. Elle était ornée d’une grosse émeraude (la pierre de naissance de la reine), ainsi que de deux rubis et d’un diamant, les yeux et la bouche du reptile respectivement. La reine Victoria est à l’origine de nombreuses tendances en matière de bijoux et aurait lancé la mode du mariage en blanc.

 

UNE PIERRE PRÉCIEUSE LOIN D’ÊTRE RARE

C’est dans les années 1860 que des diamants ont été découverts sur les terres d’une ferme sud-africaine appartenant à Johannes et Diederik de Beer, deux colons néerlandais. Ces derniers ont par la suite vendu la mine exploitée sur leur propriété (et qui portait leur nom) à une entreprise britannique. Elle a ensuite été acquise par Cecil Rhodes, entrepreneur et homme politique britannique tristement célèbre, qui a commencé à acheter les nouvelles mines, consolidant ainsi l’ensemble de l’industrie diamantaire de la région. Le conglomérat qui en a résulté, De Beers, contrôlait le marché mondial du diamant au début du 20e siècle.

Ces découvertes ont toutefois posé un problème pour l’industrie. Avec les mines sud-africaines, l’approvisionnement mondial en diamants a considérablement augmenté et De Beers a fini par posséder 90 % des diamants dans le monde. L’entreprise s’est alors retrouvée dans une position délicate, puisqu’elle devait maintenir la valeur monétaire des pierres précieuses tout en préservant leur réputation de produits de luxe malgré leur abondance. Ce fut particulièrement le cas au début du 20e siècle, la demande chutant fortement en Europe avec les guerres mondiales et la grande dépression.

Sous l’impulsion d’Ernest Oppenheimer, alors propriétaire du conglomérat, De Beers s’est alors tourné vers les États-Unis, un marché encore inexploité. Mais les bagues de fiançailles serties de diamants étaient loin d’être la norme dans l’Amérique du début du 20e siècle. Cela n’a pas stoppé De Beers pour autant, qui, avec l’aide des publicitaires de l’agence N.W. Ayer de Philadelphie, a convaincu les Américains d’acheter des diamants en les présentant comme des articles de luxe nécessaires, symboles de l’amour éternel, ce qui justifiait leur prix élevé.

 

UN DIAMANT POUR L’ÉTERNITÉ

Dès les années 1940, l’agence de publicité Ayers a bombardé les Américains d’images de diamants et d’histoires vantant leur rareté et leur symbolique. Dans les magazines, les publicités montraient de jeunes mondaines fiancées, une bague sertie de diamants au doigt. De Beers a prêté des diamants à d’importantes stars hollywoodiennes, a présenté ses bijoux et a envoyé des représentants (comme la Dame aux diamants) dans des clubs de femmes, des groupes sociaux et même des lycées américains pour faire la publicité de ces pierres précieuses et créer un lien subliminal entre les diamants et le mariage.

Les membres de la royauté ont aussi apporté leur contribution. Alors qu’elle visitait les mines De Beers en Afrique du Sud en 1947, la reine Elizabeth a accepté un collier de diamants étincelant de la part du gouvernement de l’Afrique du Sud ainsi qu’un diamant de six carats offert par De Beers. La bague de fiançailles d’Elizabeth, imaginée par son fiancé et futur époux le prince Philip, était aussi ornée de diamants. Ceux-ci provenaient d’une tiare sertie de diamants et d’aigues-marines offerte à la mère de Philip par le tsar Nicolas de Russie. Cette bague iconique (et très photographiée) a contribué à alimenter l’appétit du public pour les diamants et a rappelé aux consommateurs que les diamants n’étaient pas qu’une affaire de femmes. De Beers a joué sur cet angle, ciblant les hommes en faisant des diamants un symbole de la réussite économique et de la position sociale des hommes, représentées par le caillou reposant sur le doigt de leur promise.

La campagne marketing était si importante qu’elle a résulté en un slogan généralement considéré comme le meilleur de tous les temps. Mary Frances Gerety, rédactrice publicitaire d’Ayers qui ne s’est d’ailleurs jamais mariée, trouve la fameuse accroche A Diamond is Forever (« Un diamant est éternel ») en 1948. Elle est à ce jour encore utilisée par De Beers et l’industrie diamantaire. Pour les universitaires, ce slogan concis « [transmet] également l’idée selon laquelle la bague ne devrait pas être revendue en raison de sa valeur sentimentale », encourageant ainsi l’achat d’un nouveau diamant en cas de remariage.

L’objectif de De Beers était ambitieux : faire des diamants une « nécessité psychologique » et un objet indispensable des fiançailles, quels que soient son coût, les revenus de l’acheteur ou les difficultés financières auxquelles il pouvait être confronté. Et cela a porté ses fruits. Selon le Conseil mondial du diamant, les ventes mondiales de bijoux représentent plus de 72 milliards de dollars de chiffre d’affaires par an, les États-Unis étant le principal consommateur. Quant au conglomérat De Beers, il ne contrôle désormais plus la majorité des diamants du monde en raison de la découverte de nouvelles mines, de la concurrence et de l’émergence des diamants de synthèse.

Il suffit toutefois de faire un petit tour sur Instagram pour constater que la tendance des bagues de fiançailles ornées de diamants n’est pas prête de disparaître. En fait, les réseaux sociaux sont même considérés comme le principal moteur des ventes de diamants, une majorité de couples fraîchement fiancés annonçant la bonne nouvelle sur ces plateformes. Malgré la baisse des ventes de bagues de fiançailles pendant la pandémie de COVID-19, les vendeurs espèrent que cette tendance va s’inverser. Comme l’a dit la Dame aux diamants en 1960, les « diamants sont l’épine dorsale de l’activité des joaillers ». Tout cela grâce à un marketing bien avisé.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Force surhumaine, réaction combat-fuite : comment votre corps réagit en situation de stress extrême

Un garçon de seize ans soulève une Volkswagen pour libérer un voisin immobilisé. Une mère repousse un ours polaire pour protéger ses enfants. Une fille fait basculer un tracteur qui s’était renversé sur son père. Ces prouesses sont rendues possibles par une décharge d’adrénaline et par un déblocage de systèmes corporels et de capacités musculaires qui ne sont pleinement accessibles qu’en situation de détresse intense.

Ces démonstrations de « force surhumaine » sont bel et bien réelles, mais le phénomène est difficile à étudier en laboratoire, car la reconstitution de telles situations pourrait s’avérer dangereuse pour les participants. À la place, les neuroscientifiques s’appuient sur ce que l’on sait sur la réaction combat-fuite du cerveau et du corps et sur les mécanismes rétroactifs du stress qui y sont associés et qui sous-tendent ces manifestations de force extrême.

Ces mêmes systèmes de réaction servaient à nos ancêtres lorsqu’ils rencontraient un tigre à dents de sabre et devaient choisir entre la confrontation et la fuite. Mais ces systèmes ont ainsi évolué que des mécanismes moins extrêmes sont déclenchés par les situations de la vie contemporaine : recevoir un texto troublant d’un proche, devoir freiner brusquement quand un animal traverse la route à toute vitesse ou devoir s’exprimer en public.

Dans chaque cas, « il s’agit de la même réaction de stress, mais celle-ci est aujourd’hui plus fréquemment activée dans des situations ne présentant pas de danger pour la vie », explique Marc Dingman, maître de conférences en santé biocomportementale à l’Université d’État de Pennsylvanie.

Ces mécanismes trouvent leur origine dans le système nerveux autonome, qui peut être envisagé comme un continuum, comme le suggère Andrew Huberman, célèbre chercheur et neuroscientifique de la Faculté de médecine de l’Université Stanford. « D’un côté de ce continuum, vous avez la panique absolue et les réactions physiologiques qui sont associées à cela, explique-t-il. Et de l’autre côté, vous avez le coma. »

Entre ces deux extrêmes existe une gamme de réponses biologiques au stress qui, pour certaines, sont familières ; par exemple, perdre l’appétit ou avoir du mal à s’endormir. D’autres réactions sont connues d’un cercle bien plus restreint d’initiés, le cercle de ceux qu’une force surhumaine a habité un instant.

 

COMPRENDRE LA FORCE SURHUMAINE ET LA RÉACTION COMBAT-FUITE

« Force surhumaine » est un terme que l’on emploie parfois pour décrire des « prouesses physiques se produisant dans des situations de stress intense qui dépassent largement les capacités que l’on attribuerait normalement à une personne et qui seraient impossible à reproduire dans des circonstances plus calmes », explique E. Paul Zehr, professeur de neurosciences sensorimotrices de l’Université de Victoria, au Canada.

Nous sommes susceptibles d’être sujets à ce phénomène lorsque nous nous trouvons en situation de danger extrême : passer à travers la glace d’un lac gelé, se faire attaquer par un humain ou par un animal, être piégé par un objet ou être confronté à une catastrophe humaine ou naturelle, par exemple.

« La même réaction peut également survenir lorsque l’on intervient pour protéger une autre personne en danger, donc cela ne concerne pas uniquement l’auto-protection », fait observer Massimo Testa, médecin du sport du Groupe médical Intermountain, dans l’Utah.

La recherche montre que dans de telles circonstances, des structures cérébrales complexes, des neurotransmetteurs et des systèmes corporels spécifiques entrent en action pour libérer un flot d’hormones qui permettront de mieux recruter la capacité musculaire et d’accroître le flux sanguin en direction des membres et des organes les plus indispensables pour faire face à l’urgence.

Pour aider encore davantage le corps à atteindre cet état de suractivation, l’énergie normalement utilisée dans d’autres systèmes du corps, comme celle allouée à la recherche et à la digestion de nourriture, à la gestion de la santé reproductive ou à la régulation de la température corporelle, est détournée pour être redirigée sur la survie immédiate.

« Tout organisme, humain ou autre, possède en substance trois réactions élémentaires face à un facteur de stress quelconque : rester en place, aller de l’avant ou reculer », indique Andrew Huberman. Si des ressources corporelles sont nécessaires pour n’importe laquelle de ces réactions, ce sont les options de combat et de fuite qui les mobilisent le plus et qui concentrent toute l’attention sur le même objectif.

« Dans cet état, la vitesse séquentielle de votre perception du temps augmente de manière spectaculaire et vous vous mettez à diviser le temps en micro-tranches et absorbez bien plus d’informations qu’en temps normal, et ce bien plus rapidement », explique Andrew Huberman.

En situation de stress aussi intense, nous sommes en outre susceptibles de mobiliser davantage nos muscles, de les activer bien plus qu’on ne le pourrait d’ordinaire. « Nous n’utilisons généralement qu’une fraction de la force et de la puissance maximale de nos muscles et il y en a généralement une bonne réserve qui demeure inexploitée », révèle Gordon Lynch, directeur du Centre de recherche musculaire de l’Université de Melbourne, en Australie.

Des études montrent qu’il existe plusieurs garde-fous sous-jacents qui empêchent spécifiquement les muscles d’être trop sollicités. Cependant, en situation d’urgence, explique-t-il, ces garde-fous peuvent « être outrepassés pour permettre le recrutement instantané des fibres musculaires les plus grosses et les plus réactives, celles sans qui il n’y aurait ni explosivité de la force, ni réalisation du vrai potentiel musculaire. »

 

LE RÔLE JOUÉ PAR LES HORMONES

Les réactions combat-fuite comme celles-ci trouvent leur origine dans l’amygdale, une structure cérébrale complexe « qui intègre vos expériences du point de vue de leur contenu émotionnel », ainsi que l’explique Donald Katz, psychologue et neuroscientifique spécialiste du comportement de l’Université Brandeis, dans le Massachussetts. Selon lui, lorsque cette structure est soumise à un facteur de stress, elle envoie un signal de détresse en direction de l’hypothalamus, une autre région du cerveau.

L’hypothalamus fait office de centre de commande pour le système nerveux autonome, un système qui se divise en deux parties : le système nerveux sympathique et le système nerveux parasympathique.

Ces systèmes contrôlent plusieurs fonctions corporelles machinales telles que la performance cardiovasculaire et respiratoire et la constriction et la dilatation de vaisseaux sanguins et de petites voies respiratoires cruciales dans les poumons.

Lorsqu’une réaction de stress est activée dans l’hypothalamus, des neurotransmetteurs sont libérés par les neurones dans l’ensemble du corps et un signal est envoyé aux glandes surrénales, qui se situent sur les deux reins.

À partir de là, il se produit une sécrétion rapide de deux hormones, l’adrénaline (épinéphrine) et la noradrénaline (norépinéphrine).

Cette libération d’hormones « fait augmenter le rythme cardiaque et la tension artérielle, dilate les voies respiratoires afin de maximiser l’oxygénation et fait se contracter les vaisseaux sanguins, ce qui contribue à la redirection du sang vers des groupes musculaires importants, comme le cœur et les poumons », explique Holly Blake, professeure de médecine comportementale de la Faculté de médecine de l’Université de Nottingham, en Angleterre.

Les sensations liées au toucher, à la vue et à l’ouïe sont également exacerbées par la sécrétion de ces hormones (et d’autres) qui nous aident toutes à mieux traiter les changements soudains survenant au sein de notre environnement et à mieux à y faire face, et ce quelle que soit leur nature.

Particulièrement importante, l’adrénaline peut également réduire de manière passagère la sensation de douleur. « L’adrénaline peut influencer la perception de la douleur en inhibant les chemins de la signalisation de cette dernière », explique Mihail Zilbermint, médecin et directeur du programme hospitalier endocrinien de l’hôpital Johns-Hopkins. Elle y parvient en partie en interceptant et en bloquant les signaux de douleurs voyageant dans le cerveau et dans la moelle épinière. Sont également impliqués des torrents d’endorphines, dont on sait grâce à la science qu’elles agissent comme des analgésiques naturels.

C’est grâce à ces hormones que l’on peut surmener ou sursolliciter un muscle en situation de stress immense. « Les chemins empruntés par les boucles rétroactives de la douleur dans votre corps fonctionnent d’ordinaire de sorte à vous protéger, mais lorsque ces chemins s’inhibent, vous n’avez plus à vous soucier de vous déchirer un biceps ou de vous déloger une épaule, car vous êtes en fait en train d’essayer de vous défendre ou de défendre un proche face à un préjudice catastrophique », explique Andrew Huberman.

 

LES RÉACTIONS AU STRESS TOUCHENT TOUT LE MONDE

Les réactions extrêmes de type combat-fuite en situation de stress peuvent s’avérer bénéfiques, voire même cruciales s’il y a urgence, mais les hormones sécrétées dans ces contextes peuvent également l’être en plus petites quantités dans des circonstances plus ordinaires.

« Tout ce qui se produit dans ce système de réaction existe sur un continuum, donc une personne un petit peu stressée va en éprouver partiellement les effets, tandis qu’une personne en pleine panique va débloquer tous les effets de ce système », détaille Andrew Huberman.

Des recherches ont montré que la plupart d’entre nous sécrétons souvent des hormones du stress, comme le cortisol, l’adrénaline et la noradrénaline. « L’adrénaline est produite chaque fois qu’il y a du stress », explique Melissa Leber, médecin et directrice du Service d’urgence de médecine du sport du Système de santé Mount Sinai de New York. « Cela peut se produire lors d’une compétition ou d’une performance, à cause d’un test ou d’une présentation importants, lors d’une bagarre ou quand votre corps fait face à une maladie ou à une infection. »

Certaines personnes qui éprouvent déjà du stress plus souvent que les autres ont tendance à voir surgir des réactions de stress plus fréquemment, et souvent à des degrés plus importants.

Une personne occupant un emploi exigeant ou une personne qui manque régulièrement de sommeil est par exemple, ainsi que le formule Andrew Huberman, davantage susceptible d’être « fatiguée et d’être toute désignée au stress » qu’une personne qui n’est pas aux prises avec ces choses-là.

Inversement, plus haut dans le continuum, « les athlètes pratiquant l’endurance ou la force à des niveaux extrêmes activent davantage ce système de stress, et ce pour de plus longues périodes que n’en a l’habitude le commun des mortels », affirme E. Paul Zehr.

Quoiqu’il en soit, s’il est vraisemblable qu’un individu donné tire des avantages à court terme de la sécrétion d’hormones du stress, les conséquences à long terme d’une inondation fréquente de son système par ces hormones peuvent s’avérer préoccupantes. « Nous avons besoin de ces hormones pour faciliter les réponses physiologiques, mais en excès, elles peuvent causer notre ruine », prévient Gordon Lynch.

 

LES CONSÉQUENCES D’UN ÉPISODE DE STRESS EXTRÊME

Gordon Lynch explique que le stress chronique, associé à des sécrétions soutenues et élevées d’adrénaline, de noradrénaline et de cortisol, « peut laisser des séquelles sur les organes et les systèmes du corps et conduire à des issues physiologiques préjudiciables. » Tension artérielle élevée, troubles du sommeildiabèteobésité et cardiopathies figurent notamment au rang des effets secondaires indésirables du stress chronique.

Le stress peut également affecter la région du cerveau où les souvenirs sont stockés. « Tandis que le stress affecte spectaculairement votre mémoire sur le court terme et en particulier dans les situations de combat-fuite, probablement parce que votre cerveau souhaite se souvenir de la façon d’éviter une telle situation à l’avenir, sur le long terme, le stress chronique peut grandement altérer votre mémoire », prévient Andrew Huberman.

De plus, l’extrémité du continuum de la réaction de stress, celle qui concerne la puissance surhumaine et le combat-fuite, peut conduire à des issues particulièrement préoccupantes.

« De par leur nature même, les cascades physiologiques qui conduisent à la manifestation d’une ‘puissance surhumaine’ abolissent les barrières de sécurité et peuvent donc être extraordinairement dangereuses, met en garde E. Paul Zehr. Si nous étions au maximum tout le temps, nous ne vivrions pas bien longtemps. »

Selon Holly Blake, même la sécrétion incidente d’une trop grande quantité d’adrénaline, comme lorsque le corps anticipe une menace qui ne manifeste jamais, « peut entraîner la survenue de symptômes tels que des vertiges, de l’insomnie, de la nervosité et de la fébrilité et, dans les cas les plus graves, faire des dégâts au niveau du cœur ».

Dans les cas où un traumatisme vient s’ajouter à l’expérience d’un extrême du continuum de réaction de stress, une personne risque de souffrir de troubles de stress post-traumatique (TSPT) et d’être affectée pendant longtemps.

Même sans diagnostic de TSPT, l’épreuve d’une vive réaction de stress peut être difficile à surmonter émotionnellement pour bon nombre de personnes. Andrew Huberman explique que les mécanismes de combat-fuite s’activent nécessairement très rapidement, « mais le désamorçage de ces réactions a tendance à prendre bien plus longtemps et certaines personnes continuent de ruminer ce qu’elles ont vécu pendant des heures, voire des jours. »

Ces personnes-là sont susceptibles d’avoir du mal à se concentrer, de voir leur appétit changer et d’avoir du mal à s’endormir le soir.

« Nous sommes humains, conclut Andrew Huberman. Et parfois, quand nous sommes stressés, nous ne pouvons pas empêcher [ces réactions]. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Des menstruations à la ménopause : les scientifiques se penchent enfin sur la santé des femmes

Aller chez le médecin peut s’avérer frustrant pour les femmes, et en particulier pour les femmes de couleur.

En effet, la médecine a tendance à sous-diagnostiquer des maladies comme l’endométriose, la schizophrénie ou encore le trouble déficitaire de l’attention avec ou sans hyperactivité (TDAH) chez les femmes. Aux États-Unis, les femmes afro-américaines sont presque trois fois plus susceptibles de mourir de complications de grossesse que les femmes blanches ou hispaniques. Dans la même veine, les scientifiques ne savent toujours pas pourquoi tant de femmes éprouvent des difficultés à allaiter

Tout cela n’a rien de nouveau. Nous savons depuis longtemps que les problèmes de santé des femmes tendent à être moins considérés et moins étudiés. Mais bonne nouvelle, les scientifiques ont commencé à rattraper leur retard. Leurs recherches apportent de nouvelles informations biologiques, qui donnent lieu à de meilleurs diagnostics et permettent de mieux cibler les traitements, que ce soit en matière de menstruations ou encore de ménopause.

Voici un court bilan de certaines des évolutions auxquelles nous avons assisté ces dernières années.

 

1. LES SYMPTÔMES DU TDAH DIFFÈRENT ENTRE LES HOMMES ET LES FEMMES 

Les scientifiques ont longtemps considéré le trouble déficitaire de l’attention avec ou sans hyperactivité (TDAH) comme un « trouble presque exclusivement masculin », écrivait Kaelyn Lynch dans un article de janvier 2024 sur la hausse sans précédent des cas de TDAH chez les femmes, qui, notait-elle, a presque doublé entre 2020 et 2022. 

Comment expliquer cette soudaine hausse ? Selon les experts, elle serait en partie liée à la manifestation particulière du TDAH chez les femmes et les filles. Si le TDAH est généralement associé à de l’hyperactivité, il existe également un type inattentif de TDAH, qui, comme l’a écrit Kaelyn, « se caractérise par de la désorganisation, des trous de mémoire et des difficultés à entreprendre une tâche et à la terminer. »

Les femmes adultes comme les jeunes filles tendent à souffrir d’un TDAH de type inattentif, dont les symptômes (si tant est qu’on les remarque) sont plus susceptibles d’être pris pour des difficultés émotionnelles ou d’apprentissage. « On aura tendance à dire de ces femmes qu’elles rêvassent ou qu’elles sont dans la lune [au lieu de leur poser un diagnostic] », avait expliqué Julia Schechter, codirectrice du Centre pour les femmes et les filles atteintes de TDAH de l’université de Duke. « Leurs symptômes sont tout aussi handicapants, mais peuvent passer inaperçus. » Une situation qui peut être lourde de conséquences, selon Kaelyn.

 

2. LE CYCLE MENSTRUEL PEUT REMODELER LE CERVEAU 

Les femmes ne sont concernées que par 0,5 % des recherches en imagerie cérébrale, ce qui pose un réel problème, écrivait Sanjay Mishra en février 2024. Cette disparité dans la recherche explique pourquoi nous commençons à peine à comprendre comment les menstruations remodèlent le cerveau.

Vous avez bien lu. Les menstruations remodèlent le cerveau. Comme l’a expliqué Sanjay, de nouvelles études montrent que les règles « remodèlent de façon spectaculaire les régions du cerveau qui régissent les émotions, la mémoire, le comportement et l’efficacité du transfert d’informations ».

Il convient de souligner que ces études ne prouvent pas que ces changements sont liés aux montagnes russes émotionnelles dont peuvent souffrir certaines femmes pendant leurs règles. En attendant, selon les experts, cette découverte met en évidence l’urgence qu’il y a à mener davantage de recherches neuroscientifiques sur les femmes, qui, rappelons-le, sont plus sujettes que les hommes à la maladie d’Alzheimer et à la dépression.

« Il est grand de temps de faire du cerveau des femmes un sujet d’étude central », soutient Julia Sacher, psychiatre et neuroscientifique à l’Institut Max Planck de neurologie et des sciences cognitives de Leipzig, en Allemagne, qui a dirigé l’une des études.

 

3. L’HYPERÉMÈSE GRAVIDIQUE EST BIEN PLUS GRAVE QUE DE SIMPLES NAUSÉES

La plupart des femmes souffrent de nausées pendant leur grossesse. La belle affaire, dira-t-on. Malheureusement, cette façon de penser empêche certaines personnes de suivre un traitement pour une pathologie grave appelée hyperémèse gravidique (HG). Comme l’a écrit Sam Jones dans un article de janvier 2024, cette pathologie touche environ 2 % des femmes enceintes et se caractérise par « de sévères nausées et vomissements persistants pouvant entraîner la mort ».

Des médecins et des chercheurs ont raconté à Sam qu’en dépit de la gravité des symptômes, certains de leurs confrères considéraient l’HG comme de « l’hystérie ». Rien d’étonnant donc à ce que la recherche de traitements de l’HG soit sous-financée. 

Heureusement la recherche progresse, bien que lentement. Ces dernières années, des études ont permis de mettre en évidence une hormone spécifique liée à l’HG mais aussi de comprendre exactement comment cette hormone provoquait la maladie. Ces découvertes pourraient déboucher sur de nouveaux traitements (à condition que les médecins sachent les prescrire). 

 

4. DES INNOVATIONS MÉDICALES SAUVENT DES FEMMES ENCEINTES DE LA PRÉ-ÉCLAMPSIE, DE L'ANÉMIE ET DU SEPSIS

Selon l’Unicef, près de 800 femmes meurent chaque jour dans le monde à cause de complications lors de leur grossesse et de leur accouchement. Même aux États-Unis, les taux de mortalité maternelle sont en hausse, en particulier chez les femmes afro-américaines. Mais il y a de l’espoir : des recherches de pointe nous donnent les solutions pour contrer les principales causes de mortalité maternelle, comme la pré-éclampsie, l’anémie et le sepsis.

Comme l’a expliqué Rachel Fairbank en juillet 2023, l’Agence fédérale américaine des produits alimentaires et médicamenteux (FDA) a autorisé la commercialisation du premier test sanguin capable de prédire quelles patientes risquaient de développer une pré-éclampsie, une maladie caractérisée par une hypertension artérielle qui restreint le flux sanguin si drastiquement qu’elle peut entraîner une défaillance des organes et la mort. La pré-éclampsie est difficile à diagnostiquer, car elle ressemble à d'autres troubles fréquents liés à la grossesse, écrit Rachel. Ce nouveau test pourrait ainsi révolutionner le diagnostic de la pré-éclampsie.

Des chercheurs ont également trouvé une solution étonnamment simple à l’anémie, qui peut être responsable de saignements abondants pendant l’accouchement : l’administration de fer par voie intraveineuse. L’anémie est traditionnellement traitée par la prise orale de suppléments de fer, mais les chercheurs ont démontré qu’une perfusion de 15 minutes fournissait l’équivalent de quatre comprimés par jour pendant quatre semaines.

Enfin, des essais cliniques ont récemment démontré qu’administrer une seule dose d’azithromycine (un antibiotique généralement utilisé lors des césariennes afin de réduire les infections pouvant entraîner un sepsis) au cours d’un accouchement par voie basse pouvait aussi réduire d’un tiers le risque de sepsis post-partum.

 

5. LE SYNDROME DE L’ÉPAULE GELÉE AURAIT UN LIEN AVEC LA MÉNOPAUSE

Le syndrome de l’épaule gelée porte plutôt bien son nom : cette maladie, également appelée capsulite rétractile, se caractérise par une importante inflammation des tissus conjonctifs de l’épaule, qui empêche toute mobilisation de cette dernière. Cette maladie douloureuse, qui peut durer des années, est pourtant mal comprise ; peut-être parce que les trois quarts des malades sont des femmes, écrivait Erin Blakemore dans un article de novembre 2023.

La ménopause semble être un facteur de cette maladie. Comme l’a rapporté Erin, des chercheurs tentent actuellement de déterminer si les douleurs articulaires dont souffrent environ 50 % des femmes pendant la ménopause pourraient être liées à la baisse du taux d’œstrogènes dans leur organisme. Une étude récente suggère que les personnes suivant une thérapie hormonale pour augmenter leur taux d’œstrogènes seraient moins susceptibles de souffrir du syndrome de l’épaule gelée.

Les recherches sur le sujet n’en sont qu’à leurs débuts, prévient Erin. Mais « ce premier pas dans un domaine assez peu étudié est source d’espoir pour les femmes qui se préparent à la ménopause ou qui en subissent actuellement les effets. »

 

6. NOUS AURONS BIENTÔT UN REMÈDE AUX BOUFFÉES DE CHALEUR

Autre point intéressant : les chercheurs ont enfin compris comment la chute des niveaux d’œstrogènes pendant la ménopause provoquait des bouffées de chaleur, rapportait Meryl Davids Landau dans un article paru en décembre 2022.

Jusqu’à 80 % des femmes présentent ce symptôme débilitant, écrit-elle, qui est « souvent accompagné d’une sudation, de palpitations, de vertiges, de fatigue et/ou d’un état anxieux ». Les bouffées de chaleur, particulièrement intenses chez les femmes afro-américaines et amérindiennes, surviennent plusieurs fois par jour et peuvent durer en moyenne quatre ans.

Les recherches, de plus en plus nombreuses, ont montré que la chute des œstrogènes affectait un groupe particulier de neurones (dans l’hypothalamus du cerveau) qui régule la température du corps, et les poussait à s’activer de manière inopportune. Des entreprises testent actuellement des médicaments pour bloquer ces neurones et mettre fin aux bouffées de chaleur une fois pour toutes.

Genevieve Neal-Perry, présidente du département d’obstétrique et de gynécologie de la faculté de médecine de l’université de Caroline du Nord, a déclaré à Meryl que la mise au point d’un tel médicament était attendue depuis longtemps : étant donné que presque toutes les femmes dans leur quarantaine souffrent de bouffées de chaleur, « il est assez stupéfiant de constater qu’il a fallu attendre la dernière décennie pour enfin comprendre la biologie des bouffées de chaleur ».

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Pourquoi l'équinoxe annonce-t-il l'arrivée du printemps ?

Tous les six mois, une fois en mars et une autre fois en septembre, un équinoxe divise une journée terrestre quasiment en deux, nous donnant environ 12 heures de jour et 12 heures de nuit.

Le 20 mars 2024, l'équinoxe marquera l'arrivée du printemps dans l'hémisphère nord et de l'automne dans l'hémisphère sud. Puis, en septembre, la nature nous apportera à nouveau l'équinoxe d'automne dans l'hémisphère nord. Dans l'hémisphère sud, le printemps sera de retour.

 

POURQUOI Y A-T-IL DES ÉQUINOXES ?

Notre planète tourne normalement autour du Soleil sur un axe incliné de 23,5 degrés, ce qui signifie que les hémisphères s'échangent la chaleur du soleil. Deux fois par an, l'orbite de la Terre et son inclinaison axiale se combinent pour que le soleil se trouve juste au-dessus de l'équateur terrestre, traçant la ligne de démarcation entre les parties claires et sombres de la planète - ce que l'on appelle la zone crépusculaire - à travers les pôles Nord et Sud.

La zone crépusculaire ne divise pas parfaitement la planète entre la partie dans l'ombre et la partie éclairée ; l'atmosphère de la Terre dévie la lumière du Soleil de 60 kilomètres environ, ce qui équivaut à un demi-degré. Cela signifie qu'une moitié de la planète est toujours un peu plus éclairée que l'autre, même lors d'un équinoxe.

La Terre n'est pas la seule planète à connaître des équinoxes : toutes les planètes de notre système solaire en connaissent. En 2009, la sonde Cassini en orbite autour de Saturne a capturé un équinoxe sur cette planète. Comme sur Terre, les équinoxes se produisent tous les six mois sur Saturne, mais cela équivaut à quinze ans sur Terre, ce qui fait de la séance photo de Cassini un événement unique.

 

CÉLÉBRER L'ÉQUINOXE

Les cultures anciennes ont suivi les équinoxes de différentes manières au cours des millénaires. Des monuments érigés, comme les pyramides, aux gravures sur pierre qui servaient de calendriers, en passant par les églises qui intégraient le Soleil dans leur architecture, les civilisations marquaient le passage du Soleil et des saisons avec une grande précision.

Certaines cultures continuent de célébrer l'équinoxe aujourd'hui, comme la tribu Lakota du Midwest américain. Les Lakota relient la terre au ciel en fabriquant du tabac à partir du saule rouge, qui correspond à la constellation du saule séché, où le soleil se lève à l'équinoxe de printemps. Ils fument ce tabac sacré lors d'une cérémonie marquant le retour des jours plus longs.

Lors des célébrations de l'équinoxe de Stonehenge, en Angleterre, les druides, les païens et tous ceux qui souhaitent se joindre à eux se rassemblent pour assister au lever du Soleil entre les vieilles pierres.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Migraines à répétition ? Votre cou est peut-être le coupable

Il paraît que la douleur appelle la douleur. Ce dicton anglais utilisé dans le contexte de la douleur physique s'applique également à la souffrance psychologique, lorsque celle-ci est projetée sur l'entourage de celui qui la ressent. D'un point de vue physiologique, un nombre croissant d'études établissent un lien entre douleurs à la nuque et migraines.

Une étude publiée dans la revue The Journal of Headache and Pain est la première à fournir un marqueur objectif attestant d'une origine musculaire.

Les chercheurs ont utilisé l'imagerie par résonnance magnétique (IRM) pour évaluer l'implication de la structure myofasciale, c'est-à-dire le muscle et les tissus qui l'entourent, dans les céphalées de tension et les migraines sur un échantillon de 50 participants. En dehors du lien établi entre les douleurs à la nuque et la présence des deux types de céphalées, l'IRM a également révélé chez les personnes présentant ces maux de tête de subtiles altérations du muscle trapèze pouvant résulter d'une inflammation. À titre d'information, ce muscle forme un trapèze allant du milieu du dos à la nuque en passant par les épaules.

« Nous avons également constaté des associations significatives entre ces changements musculaires et le nombre de jours qu'un individu souffrait de céphalées et de douleurs à la nuque dans les 30 jours précédant l'imagerie », explique Nico Sollman, coauteur de l'étude et radiologue affilié à l'hôpital de l'université d'Ulm et à l'université technique de Munich en Allemagne. Ces « résultats pourraient apporter une preuve objective des interactions entre la région du cou et le cerveau dans le contexte des céphalées. »

Pour Mark Green, professeur de neurologie à l'Icahn School of Medicine at Mount Sinai de New York, une partie des résultats reste sujette à débat. « On ne peut pas déduire que c'est une inflammation à partir d'une IRM ; le muscle pourrait être tendu ou contracté », précise-t-il. En revanche, il ne remet pas en question le lien entre douleurs à la nuque et céphalées de tension ou migraines.

L'étude menée par Sollmann n'est pas la première à établir un lien entre ces deux phénomènes. Une étude publiée dans la revue Neurology indique une forte prévalence des douleurs cervicales avant, pendant et après l'apparition d'une migraine.

« Certains pensent que la douleur au cou est un déclencheur, mais c'est aussi un signal indiquant que l'activité nerveuse associée à une crise de migraine a commencé », nous explique Dawn C. Buse, coauteur de l'étude parue dans Neurology et professeur de neurologie à l'Albert Einstein College of Medicine de New York. « Ce signal pourrait déclencher le traitement de la migraine. »

 

LE PARCOURS DE LA DOULEUR 

Même s'il faudra approfondir les recherches pour déterminer si la douleur à la nuque provoque les maux de tête ou si les deux affections ne font que coexister, une chose est sûre : « Les personnes souffrant de migraines ont plus souvent mal à la nuque, même en dehors des crises de migraine », indique Jessica Ailani, professeure de neurologie clinique et directrice du MedStar Georgetown Headache Center de Washington.

Pour ce qui est des causes sous-jacentes, le nerf trijumeau reste le dénominateur commun à plusieurs types de céphalées. Ce nerf est le cinquième et le plus volumineux des nerfs crâniens ; il émerge du tronc cérébral et descend vers la colonne cervicale, transmettant les signaux associés à la douleur, au toucher et à la température dans différentes régions du visage et de la tête.

En cas de douleur à la nuque, « les nerfs cervicaux activent le nerf trijumeau et peuvent déclencher une migraine », indique Green, président de la World Headache Society. « Les douleurs à la nuque affectent 75 % des personnes souffrant de migraines. »

Un phénomène de sensibilisation à la douleur pourrait également être à l'œuvre. Lorsque la douleur s'étale dans le temps, notre système nerveux reste en alerte de manière chronique, ce qui abaisse notre seuil de perception de la douleur et nous rend hypersensibles à celle-ci. Une étude publiée dans le Scandinavian Journal of Pain a ainsi constaté que les personnes souffrant de douleurs à la nuque et de migraine chronique, plus de 15 jours de migraine par mois, ou de céphalées de tension avaient tendance à présenter une sensibilité accrue de la zone péricrânienne, par rapport à celles souffrant de céphalées épisodiques ; la sensibilisation du système douloureux est une hypothèse qui pourrait expliquer ce phénomène.

« Si vous avez mal dans une région, le risque d'avoir mal ailleurs augmente car toutes les douleurs se trouvent dans le cerveau », résume Ailani. « Le cerveau devient hypersensible et la douleur est amplifiée. Il peut également être plus difficile pour le cerveau de couper les signaux de douleur. »

De plus, les personnes souffrant de migraines ou de céphalées de tension présentent souvent des points gâchettes myofasciaux qui en cas d'activation peuvent déclencher des épisodes de céphalée. Ces points gâchettes peuvent être activés par palpation, pression ou activité physique. Une étude associe la présence de points gâchettes myofasciaux dans le cuir chevelu de sujets souffrant de céphalées à un seuil de perception de la douleur réduit, ce qui suggère là encore un effet de sensibilisation du système douloureux.

 

SUJETS À RISQUE

À en croire ces mécanismes, quiconque ressent une douleur dans la nuque courrait le risque de développer une céphalée de tension ou une crise de migraine, si la personne y est sujette.

En outre, le risque d'être soudainement frappé de ce douloureux duo augmente si la personne souffre également de blessures liées au sport, d'une mauvaise posture ou d'une spondylose, la dégénération des os et des disques du cou.

« Cette combinaison de douleur à la nuque, de mal de tête et d'hypersensibilité à la douleur est également observée chez les patients atteints de douleurs cervicales aiguës après un traumatisme du rachis cervical », indique Brian Grosberg, neurologue et directeur du Hartford HealthCare Headache Center.

Dans certains cas, la douleur au cou qui accompagne une céphalée « peut constituer un signal d'alarme si la personne présente également les symptômes suivants : frissons, fièvre, troubles de la coordination ou de l'équilibre, difficultés à marcher, douleur irradiante ou fourmillements dans les bras ou les jambes », prévient Buse. Dans ce cas, la douleur au cou peut indiquer une tumeur ou une méningite, ajoute-t-elle.

En l'absence de ces symptômes inquiétants, si une douleur à la nuque accompagne la céphalée de tension ou la crise de migraine d'une personne, l'objectif est de traiter les deux formes de douleurs pour mettre fin à leur déclenchement mutuel. « Nous recommandons aux patients d'opter pour un traitement radical de la douleur au cou afin d'éviter son aggravation », souligne Green.

 

STIMULATION MAGNÉTIQUE ET AUTRES TRAITEMENTS

À l'heure actuelle, il n'existe pas de traitement unique permettant de soigner les deux formes de douleur. Comme nous l'explique Ailani, diverses thérapies non médicamenteuses peuvent aider à soulager la douleur cervicale, notamment le massage, l'acupuncture, les étirements et l'application de chaud ou de froid, selon les préférences du patient. Il peut également être utile de revoir l'ergonomie de votre environnement de travail et d'opter pour un oreiller offrant plus de soutien.

La recherche montre que le relâchement myofascial, qui consiste en l'application de pression sur les points hyperirritables des muscles du cou, et les techniques d'étirement sont également efficaces pour améliorer l'intensité de la migraine et l'amplitude de mouvement cervical.

Récemment, l'équipe de Sollman a utilisé la stimulation magnétique périphérique répétitive (rPMS) pour stimuler de manière non invasive les muscles du cou et soulager la douleur cervicale. Dans le cadre de cette procédure, le praticien utilise un dispositif pour appliquer une stimulation magnétique à pulsation rapide aux nerfs périphériques afin de réduire la douleur. « Dans le contexte d'applications répétées, nous avons observé une réduction des céphalées », indique Sollmann.

Côté pharmacie, les médicaments comme le paracétamol ou l'ibuprofène peuvent aider à combattre l'apparition de douleurs cervicales, de céphalées de tension ou de migraines.

« Attention à la surconsommation de ces médicaments car avec le temps, ils ne feront qu'amplifier la douleur », avertit Green. La céphalée par surconsommation de médicaments est la céphalée secondaire la plus répandue selon l'Organisation mondiale de la Santé.

En ce qui concerne les céphalées chroniques ou fréquentes, accompagnées de douleurs à la nuque, certains antidépresseurs, comme l'amitriptyline, la mirtazapine et la duloxétine, ainsi que certains anticonvulsivants, comme la gabapentine, sont parfois utilisés hors indication pour prévenir les crises de céphalées, indique Ailani.

Parmi les traitements contre la migraine figurent également les classes de médicaments appelées triptans, gépants ou ditans. Les classes des gépants, des bêta bloquants, des antidépresseurs tricycliques et des anticorps monoclonaux contiennent par ailleurs divers agents préventifs efficaces, ajoute Grosberg.

Il arrive que la migraine chronique soit traitée à l'aide d'injections de Botox visant à réduire l'intensité des céphalées et le nombre de jours affectés chaque mois. Dans une étude publiée en 2023 dans la revue Toxinsles chercheurs ont examiné les effets du Botox chez 116 participants atteints de migraine chronique et de différents degrés d'incapacité liée aux douleurs cervicales : le traitement s'est montré particulièrement efficace pour réduire le nombre de jours de céphalées par mois et le degré d'incapacité induit par la migraine chez les participants présentant des douleurs cervicales sévères après un suivi de trois mois, mais une baisse de l'intensité des céphalées a été constatée pour l'ensemble des participants. 

« En cas de céphalées fréquentes, il est préférable de suivre un traitement préventif », recommande Green. De cette façon, vous pourrez potentiellement briser le cycle de la douleur qui s'installe entre le cou et la tête.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

T. rex : comment sa représentation a évolué au cours des 100 dernières années

Alors qu’un quatrième film Jurassic World est en préparation, notre fascination pour les dinosaures, et plus particulièrement les superstars de la franchise comme le Tyrannosaurus rex et autres théropodes, ne montre aucun signe de ralentissement. Depuis la mise au jour des premiers spécimens il y a plus d’un siècle, National Geographic écrit des articles à leur sujet, accompagnés d’illustrations très détaillées tenant compte des dernières connaissances scientifiques.

C’est un reportage de 1919, portant sur l’Albertosaurus, qui en a posé les fondations. L’article décrivait alors le dinosaure comme un « carnivore puissant capable de tuer n’importe lequel de ses cousins herbivores ».

Vingt-trois ans plus tard, c’est au tour de deux Tyrannosaurus rex de « six mètres de haut » et en plein combat d’apparaître dans les pages du magazine.

Trente-cinq ans plus tard, un article de 1978 rapportait que le T. rex était bien plus grand qu’on ne le pensait, « mesurant 15 mètres de haut et pesant six tonnes ». Jusqu’à la fin des années 1990, la plupart des dinosaures étaient représentés avec une peau couverte d’écailles. Une théorie remise en cause par l’étude de squelettes de théropodes mis au jour en Chine, qui suggérait que les jeunes T. rex avaient des plumes. Les chercheurs en ont alors déduit ce qui suit : « Nous pouvons maintenant dire en toute confiance que les oiseaux sont des théropodes au même titre que nous disons que les humains sont des mammifères ».

Les théropodes n’étaient probablement pas les insatiables tueurs que nous imaginons. En 2003, plusieurs découvertes ont révélé qu’ils n’étaient pas violents envers tous leurs dinosaures et qu’ils se montraient parfois même dociles. En 2020, nous avions déclaré que la paléontologie se trouvait en pleine « révolution, une révolution rendue possible par la richesse de nouveaux fossiles et les techniques de recherche innovantes ». Si les dernières interprétations ne sont sans doute pas définitives, elles permettront toutefois d’avoir une meilleure idée de ce à quoi ressemblaient ces créatures d’un autre temps.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Quels sont les effets du renforcement musculaire sur le corps et l’esprit ?

Dès qu’il s’agit de recevoir des conseils en matière de fitness, nous sommes nombreux à nous voir réciter un refrain familier sur les bienfaits du cardio. Les incitations à se mettre au vélo, au footing, à la marche ou simplement à « faire son nombre de pas » sont devenues des poncifs, tandis que les invitations à passer plus de temps à soulever de la fonte ou à faire des pompes sont rares.

Bien que l’activité physique aérobie soit cruciale pour avoir une santé optimale, il est également important de donner toute sa place au travail musculaire en résistance, des exercices de force qui exploitent la résistance de poids, du poids de corps ou de bandes élastiques afin de renforcer les muscles. Ceux-ci comportent de nombreux bénéfices pour la santé, qui sont avérés et souvent surprenants : prolongement de la durée de vie, diminution de l’anxiété et des symptômes dépressifs, renforcement de l’équilibre et de la flexibilité, meilleure gestion du poids, diminution du risque de blessures, amélioration de la tension artérielle et du taux de cholestérol et amélioration significative de la santé cardiaque.

« Un programme d’entraînement en résistance convenablement conçu peut améliorer la mobilité, le fonctionnement physique, la performance dans les activités de la vie quotidienne et améliorer la performance athlétique, mais également préserver l’indépendance des adultes d’un certain âge », explique Michael Fredericson, médecin et directeur du service de médecine physique et de réadaptation sportive à la Faculté de médecine de l’Université Stanford.

Malgré ces bienfaits, certaines personnes voient le travail musculaire en résistance comme une discipline réservée aux culturistes ou aux adeptes de la salle de sport, une perception que les organismes de santé tâchent de rectifier.

« Il y a peu encore, on mettait l’activité physique aérobie en avant pour ses bienfaits pour la santé, tandis que l’entraînement en résistance était souvent absents des politiques globales de santé publique », observe DJ McDonough, chercheur spécialiste des maladies cardiovasculaires de l’École de santé publique de l’Université du Minnesota. « Mais des preuves scientifiques irréfutables se sont accumulées au fil des années et rendent manifeste le fait que le travail musculaire en résistance comporte une kyrielle de bienfaits pour la santé, indépendamment de l’activité aérobie. »

Pour cette raison, les recommandations actuelles de certaines agences de santé américaines, comme les Centres pour le contrôle et la prévention des maladies (CDC), recommandent de faire 75 à 150 minutes d’exercices aérobies par semaine et de faire des activités de renforcement musculaire deux jours par semaine.

 

QU’EST-CE QUE L’ENTRAÎNEMENT EN RÉSISTANCE ?

Le travail musculaire en résistance, qui consiste en des exercices de force, implique l’utilisation de poids ou d’une résistance quelconque afin de renforcer ou de développer ses muscles. Si de nombreuses personnes associent par réflexe ladite résistance au soulèvement de poids libres, qu’il s’agisse d’haltères, d’une barre équipée de disques, des poids d’une machine de développé couché ou de ceux d’une presse à cuisse, d’autres formes de résistance existent. Les exercices à poids de corps tels que les pompes ou les abdominaux entrent dans la catégorie du travail musculaire en résistance ; de même que l’utilisation de bandes élastiques que l’on peut tirer pour stresser ses muscles et les développer.

Même des tâches du quotidien comme le fait de se lever et de rasseoir, de monter des escaliers ou de porter des sacs de courses lourds et des paniers de linge sale pleins à craquer comptent.

« Nous prenons, pour la majorité, part à des activités de renforcement musculaire tout au long de la journée sans même y penser », fait remarquer Eric Shiroma, directeur de programme au département des sciences cardiovasculaires de l’Institut national Cœur-Poumon-Sang.

Toutefois, c’est lors de la répétition d’un mouvement lesté que le conditionnement du muscle se produit. « À mesure que les muscles s’adaptent à la résistance, ils se renforcent et deviennent plus résilients », explique Amanda Paluch, kinésiologue du Laboratoire des sciences de la vie de l’Université du Massachussetts à Amherst. Dans ce contexte, dit-elle, il ne s’agit pas seulement de développer ses muscles, « il s’agit aussi de bâtir un corps plus fort qui soit capable de fonctionner et de bien se porter dans notre vie quotidienne ».

 

BON POUR LE CŒUR

La recherche montre que l’ajout de trente minutes par semaine seulement de travail musculaire en résistance à votre entraînement pourrait prolonger la vie de plusieurs années, notamment parce que cela améliorerait de manière considérable la santé cardiaque.

« Les exercices de force sont excellents pour votre cœur, car ils contribuent à l’amélioration de la tension artérielle et du cholestérol », explique Amanda Paluch.

Ils sont bénéfiques pour la tension artérielle car ils accroissent la circulation et le flux sanguins et font baisser le cholestérol en réduisant l’inflammation. Une inflammation chronique peut conduire à l’accumulation de cholestérol dans les artères, un phénomène corrélé à l’apparition de caillots sanguins.

« De plus, nous avons découvert que la pratique d’un travail musculaire en résistance ne serait-ce qu’une toute petite heure par semaine est associée à une réduction de l’ordre de 40 à 70 % des risques de morbidités liées aux maladies cardiovasculaires, comme les crises cardiaques ou les AVC », indique Duck-Chul Lee, professeur d’épidémiologie de l’activité physique à la Faculté des sciences humaines de l’Université d’État d’Iowa et co-auteur d’une étude qui va dans ce sens.

 

BON POUR LE CORPS

Il est prouvé que le travail musculaire en résistance est utile à plusieurs autres systèmes du corps humain. De plus, il favorise un meilleur équilibre et une plus grande flexibilité, malgré les impressions de certains.

« Le travail musculaire en résistance, en particulier à charges élevées, est depuis longtemps perçu comme accroissant la raideur et réduisant la flexibilité, explique DJ McDonough. Mais un corpus de preuves suggère en fait l’inverse ; que le travail en résistance est tout aussi efficace, voire plus efficace, que ne le sont les traditionnels étirement statiques quand il s’agit d’améliorer l’amplitude des mouvements articulaires. »

Il est également prouvé qu’une plus grande amplitude articulaire améliore l’équilibre et réduit la probabilité de blessure liée à une chute. Selon Michael Fredericson, le travail musculaire en résistance peut également faire baisser le risque de lésions musculo-squelettiques ou de dommages externes d’organes internes, car une masse musculaire plus importante crée une barrière protective (ou un coussin) entre les forces externes et les os et organes du corps.

La science montre en outre que le travail musculaire en résistance renforce les articulations et les os touchés par des affections telles que l’ostéoporose et l’arthrite rhumatoïde. Cela est particulièrement vrai en ce qui concerne les adultes plus âgés, car le vieillissement est corrélé à des changements biologiques qui ont pour effet de faire décroître la force et la masse musculaire squelettique. La recherche montre que les détériorations de ce type diminuent la résilience physiologique tout en accroissant la vulnérabilité aux blessures et à la maladie. Le travail musculaire en résistance contrarie cette détérioration en stimulant les cellules responsables de la croissance osseuse.

Ces exercices de force permettent également de se prémunir contre les effets de la sarcopénie, une perte progressive de muscles qui survient à la trentaine ou à la quarantaine chez les individus particulièrement sédentaires. Le travail musculaire en résistance combat la sarcopénie en créant des micro-déchirures dans le muscle, ce qui entraîne la fusion de fibres musculaires qui conduisent à leur tour à une augmentation de la masse, explique Monica Ciolino, docteur en thérapie physique de l’Université Washington Physicians.

Les exercices de force contribuent également à la réduction du risque de contracter un diabète de type 2 et peuvent permettre de mieux gérer cette maladie.

« Les muscles sont notre plus grande décharge pour le glucose (le sucre) présent dans le sang, donc il est important de les garder en activité et de faire en sorte qu’ils conservent leur taille », explique Stuart Phillips, professeur de kinésiologie de l’Université McMaster. Amanda Paluch ajoute que cette forme d’activité physique « peut également aider votre corps à mieux utiliser et absorber l’insuline, ce qui est crucial pour prévenir ou tempérer le diabète. »

Le travail musculaire en résistance nous aide également en nous permettant d’inverser la perte musculaire qui résulte de comportements sédentaires dus à une maladie, à une blessure ou à une hospitalisation. « Un taux de fonctionnement musculaire faible est corrélé à un risque accru à la fois de maladie et de mort prématurée », avertit Jeremy Loenneke, maître de conférences en sciences de l’activité physique à l’Université du Mississippi.

Le travail musculaire en résistance peut également s’avérer utile en ce qui concerne les objectifs de gestion du poids parce que la musculation améliore le métabolisme mais aussi parce que le tissu musculaire brûle plus de deux fois plus de calories que le tissu adipeux, même au repos. « Tandis que la lutte contre l’obésité est synonyme d’approches axées sur l’alimentation, le travail de résistance est aussi bénéfique, ou presque, que l’entraînement en aérobie », explique Stuart Phillips.

 

BON POUR LA TÊTE

Les exercices de force peuvent contribuer favorablement à la santé mentale, et ce de plusieurs manières, notamment en améliorant la qualité du sommeil. Selon Monica Ciolino, on a également établi un lien entre ces exercices et la protection face à la dégénérescence de certaines parties de l’hippocampe, région du cerveau cruciale pour l’apprentissage et la mémoire.

L’effet du travail musculaire en résistance sur la régulation hormonale permet en sus de préveinr la fatigue et de stimulant l’humeur. « Il y a de plus en plus de preuves que les exercices de force et le travail en résistance pourraient être corrélées à des taux plus faibles de dépression et d’anxiété », révèle Eric Shiroma.

 

PAR OÙ COMMENCER ?

Malgré les avantages qu’il comporte, certaines personnes négligent le travail musculaire en résistance, car elles croient devoir devenir des adeptes de la salle de sport ou que cela nécessite un accès à un entraînement ou à un équipement spécialisé.

« Le simple nombre de machines, de poids et d’exercices différents rend probablement intimidant et difficile pour certains le fait de mettre le pied à l’étrier, reconnaît Eric Shiroma. Mais les activités de renforcement musculaire sont peut-être plus accessibles que certaines activités en aérobie, car on peut les pratiquer quasiment partout, soit à poids de corps, soit à l’aide de bandes élastiques résistantes. » 

Pour se lancer, il est préférable, selon DJ McDonough, de choisir le type de travail musculaire qui vous attire le plus (haltères, poids de corps, élastiques), puis d’apprendre quelques techniques simples.

Vous pouvez par exemple faire de la musculation à la salle de sport près de chez vous ou bien acheter deux haltères ou kettlebells pour vous entraîner à la maison. Une fois que vous avez commencé, vous pouvez éventuellement envisager de vous diversifier et d’ajouter un simple banc d’exercice et une barre. Lorsque l’on utilise des poids, « une bonne règle de base en ce qui concerne le renforcement est que vos muscles devraient être fatigués à la fin d’une série », affirme Monica Ciolino, qui souligne toutefois l’importance d’apprendre des techniques appropriées et de ne pas soulever trop lourd trop tôt. « Commencez avec des charges plus légères et augmentez le poids et les répétitions avec le temps », conseille-t-elle.

Quant aux élastiques de musculation, on peut se les procurer en ligne ou bien dans n’importe quel magasin de sport et les techniques sont faciles à apprendre. « Même une faible résistance suffit à obtenir une large part des bénéfices associés à cette forme d’exercice », affirme Jeremy Loenneke.

En ce qui concerne les exercices à poids de corps, les agences de santé publiques ont créé de nombreuses vidéos et ressources pour apprendre les bonnes techniques pour effectuer des exercices aussi divers que les abdominaux, les pompes, la planche, les fentes et les squats. Les conseils personnalisés d’un coach ou d’un physiothérapeute peuvent également s’avérer utiles. Selon Michael Fredericson, il est recommandé de faire 30 à 60 minutes d’exercices de force deux fois par semaine. En outre, il tient à souligner ceci : il est préférable de consacrer ne serait-ce qu’un tout petit peu de temps à l’activité physique que de ne pas lui en consacrer du tout. 

« Il est bien plus bénéfique de commencer une routine que vous estimez pouvoir maintenir que de se concentrer sur un programme parfait », abonde Monica Ciolino. Qu’importe la routine que choisissez de suivre, « le travail en résistance est l’antidote qui vous détournera du chemin qui conduit à la fragilité ».

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Découverte de deux fossiles de termites piégés dans l'ambre en plein accouplement

La découverte de deux termites fossilisés pris au piège dans un bloc d’ambre révèle des détails étonnants sur les comportements de reproduction que pratiquaient ces petits insectes il y a 38 millions d’années.

Les scientifiques sont restés perplexes lorsqu’ils ont mis au jour ces deux représentants de l’espèce Electrotermes affinis conservés dans une position inhabituelle, côte à côte, plutôt que l’un derrière l’autre : un comportement de reproduction observé de nos jours chez les fourmis et les termites, au cours duquel un individu suit un autre en s’agrippant à son abdomen afin de l’empêcher de se séparer de lui, comme un wagon de train.

En reproduisant les événements qui ont conduit ces insectes à rester ainsi coincés dans l’ambre, des entomologistes ont découvert qu’en réalité, le couple préhistorique pratiquait bel et bien le même comportement de reproduction que les termites actuels, mais s’était retrouvé dans cette position inhabituelle à la suite de leur rencontre fatale avec la résine de l’arbre.

Selon l’étude, publiée récemment dans la revue Proceedings of the National Academy of Science, cette découverte signifie de ce fait que les comportements de reproduction des termites actuels sont très semblables à ceux de leurs ancêtres, qui vivaient il y a plusieurs dizaines de millions d’années.

« L’existence-même de ce fossile pris dans l’ambre était une surprise », admet Nobuaki Mizumoto, responsable de l’étude et professeur adjoint d’entomologie à l’Université d’Auburn, dans l’Alabama, car elle offre un aperçu d’une parade nuptiale préhistorique.

Thomas Chouvenc, professeur associé d’entomologie urbaine à l’Université de Floride, confie être « content que cette étude existe », et qualifie cette dernière de « croisement remarquable entre la paléontologie et l’écologie comportementale ».

 

UN SPÉCIMEN RARE

Un bloc d’ambre se crée lorsque de la résine s’écoule d’un arbre endommagé et se fossilise. Si des insectes sont posés sur l’arbre lorsque cela se produit, ils peuvent se retrouver coincés dans cette résine collante, et si l’écoulement continue, ils sont généralement tués et figés dans le temps, comme ce couple de termites.

La résine met environ 40 000 ans pour durcir complètement et se transformer en ambre, une gemme organique prisée dans le monde entier pour sa couleur.

Lorsqu’Aleš Buček, coauteur de l’étude et directeur du laboratoire de symbiose des insectes à l’Académie tchèque des sciences, a trouvé le fossile à Kaliningrad, en Russie, sur le site internet d’un collectionneur, il a contacté Mizumoto, qui avait déjà effectué des travaux liés à la recherche de fossiles contenant des informations relatives au comportement animal. Les deux scientifiques se sont alors empressés d’acquérir ce rare spécimen.

L’équipe de quatre experts a commencé par réaliser une microtomographie aux rayons X afin d’identifier l’espèce et le sexe des deux termites, ce qui a permis de prouver que la scène vieille de 38 millions d’années montrait une femelle en train de s’agripper à l’abdomen d’un mâle.

Pour recréer la situation en laboratoire, les scientifiques ont ensuite fait marcher des couples vivants de coptotermes de Formose, une espèce de termite originaire de Taïwan et du sud de la Chine, sur une surface collante simulant l’effet de la résine d’un arbre.

De nombreux termites sont parvenus à s’échapper du piège collant. Dans les couples qui n’y sont pas parvenus, l’individu situé à l’avant ralentissait naturellement le pas afin de tenter d’échapper à la résine ; son partenaire, en revanche, ne s’enfuyait pas face à ce signe de difficulté, probablement car, lorsqu’ils s’accouplent, les termites essaient à tout prix de rester ensemble pour pouvoir construire leur nid et élever leurs petits, explique Chouvenc.

Plutôt que de s’enfuir, le partenaire situé à l’arrière choisissait de contourner le premier, et finissait ainsi par se retrouver à ses côtés, dans la même position que celle observée chez les deux termites fossilisés, puis s’enlisait à son tour dans la résine.

 

UN FOSSILE EXCEPTIONNEL

Selon l’étude, ces résultats suggèrent qu’il y a 38 millions d’années, les termites disparus se comportaient de la même manière que les termites actuels lors de l’accouplement.

« Je suis impressionné aussi bien par la découverte elle-même que par l’analyse effectuée pour démontrer qu’il s’agit bien d’un aperçu d’un comportement qui se produisait il y a très longtemps. »

« Il est courant de trouver des fossiles, mais un comportement préservé pendant des millions d’années, c’est exceptionnel », ajoute-t-il dans un e-mail.

Pour Mizumoto, l’étude met également en évidence la nécessité de renforcer la communication entre les chercheurs de différents domaines scientifiques.

« Un fossé important sépare les chercheurs qui étudient les fossiles et ceux qui étudient les animaux ou les insectes vivants », déplore le professeur, qui espère que davantage de croisements entre les deux disciplines pourront avoir lieu et permettront d’élucider d’autres mystères relatifs au comportement animal à travers les âges.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Quels sont les risques associés à la surconsommation de caféine ?

Une chaîne de boulangeries-cafés nord-américaine se voit en ce moment même intenter deux procès pour faute ayant entraîné la mort par des familles de personnes décédées après avoir bu une boisson hautement caféinée. 

La boisson en question est une limonade sucrée à haute teneur en caféine. La quantité exacte de stimulant consommée dans chacun des deux cas reste à confirmer, mais à en croire les deux plaintes, la femme de 21 ans et l’homme de 46 ans concernés sont décédés peu après avoir bu chacun un gobelet de 90 centilitres d’une limonade qui a pu contenir jusqu’à 390 milligrammes de caféine et 124 grammes de sucre, si aucun glaçon n’est entré dans sa préparation. À titre de comparaison, une tasse de café de 24 centilitres contient 80 à 100 milligrammes de caféine, et une canette de Red Bull de 35 centilitres en contient 114.

La quantité de caféine consommée dans ces cas a son importance, car cet excitant peut affecter les individus de plusieurs manières, raison pour laquelle les scientifiques spécialistes de la nutrition mettent fréquemment en garde contre sa surconsommation.

« À très hautes doses, la caféine peut être toxique, voire létale », prévient Rob van Dam, professeur de sport et de sciences de la nutrition à l’Institut Milken de l’École de santé publique de l’Université George-Washington.

Mais il n’est pas toujours simple de déterminer la quantité de caféine présente dans un aliment ou dans une boisson donnés. Le problème réside en partie dans le fait que la caféine n’est pas considérée comme un additif lorsqu’elle y est présente naturellement, comme cela est le cas pour le thé et le chocolat.

Dans ces aliments, « vous ne verrez pas le mot "caféine" sur l’étiquette », fait observer Marilyn Cornelis, maître de conférences en médecine préventive à la Faculté de médecine Feinberg de l’Université Northwestern. Aux États-Unis, la caféine ne doit en fait être indiquée comme ingrédient que lorsqu’elle a été ajoutée à certains produits. Mais comme l’explique cette dernière, malgré cela, aucune règlementation ne stipule qu’il faille indiquer la quantité exacte de caféine contenue dans ceux-ci.

 

QU’EST-CE QUE LA CAFÉINE ET COMMENT FONCTIONNE-T-ELLE ?

Obtenue à partir de feuilles, de racines, de fruits ou de grains de café, de thé, de cacao et de guarana, la caféine est le stimulant du système nerveux central le plus consommé dans le monde. On la trouve à l’état naturel dans diverses plantes et dans divers aliments dont nous nous nourrissons et est également ajoutée sous forme synthétique à de nombreux produits comme les colas et les boissons énergisantes.

La caféine fait partie d’un groupe de composés chimiques, les méthylxanthines, qui sont rapidement absorbés dans le sang et qui affectent le système nerveux central. Si ces composés se comportent ainsi, c’est notamment parce qu’ils parviennent à s’attacher aux récepteurs de l’adénosine présents dans l’ensemble du cerveau et du corps.

L’adénosine est une substance chimique qui joue un rôle important dans le sommeil et dans le délassement du corps. Quand l’adénosine augmente en période d’éveil, elle s’attache à ses récepteurs et déclenche une envie de dormir.

La caféine ressemble à l’adénosine et peut s’attacher aux mêmes récepteurs sur les cellules nerveuses, et donc empêcher l’adénosine de le faire. Sans adénosine pour induire le sommeil, un individu reste en état d’éveil et alerte. Cette interférence a pour effet à la fois d’accélérer l’activité de la cellule et de l’empêcher de ralentir comme elle le ferait sous l’effet de l’adénosine.

De plus, des recherches montrent que la caféine accroît également les taux de cortisol et d’épinéphrine, deux hormones associées à l’excitation, au stress et à l’anxiété.

 

LE BON CÔTÉ DE LA CAFÉINE

Grâce à ces effets, la caféine peut s’avérer un stimulant bienvenu pour accroître la vigilance mentale et pour réduire la fatigue. Elle est également utile pour conserver un certain niveau de performance lorsque l’on manque de sommeil, les soldats de l’armée américaine s’en servent d’ailleurs dans ce but.

Certaines recherches montrent que la caféine peut également améliorer la mémoire et la capacité à se concentrer. La consommation de caféine sur le long terme est également associée à un risque réduit de contracter la maladie de Parkinson.

Selon Rob van Dam, la consommation modérée de café et de thé peut également s’avérer bénéfique pour la santé cardiovasculaire. Il tempère toutefois immédiatement et tient à souligner que tout bénéfice associé à cette consommation est probablement imputable à d’autres composés présents dans ces boissons, comme l’acide chlorogénique et la trigonelline, auxquels on attribue des propriétés antioxydantes, et non nécessairement à la teneur caféinée de ces boissons.

« Dans l’ensemble, les bienfaits de la consommation de caféine pour la santé sont relativement mineurs et pas assez importants pour en encourager la consommation », indique Jennifer Temple, directrice du Laboratoire de recherche en nutrition et santé de l’Université d’État de New York à Buffalo. En outre, « tout bénéfice potentiel pourrait se voir annulé par d’autres composants des boissons, comme une teneur en sucre plus importante. »

En effet, à l’instar de la limonade hautement caféinée mentionnée précédemment qui contient 124 grammes de sucre, de nombreuses boissons caféinées ont une teneur en sucre particulièrement élevée.

Selon Jennifer Temple, bien que les fabricants affirment que la caféine est ajoutée pour « rehausser la saveur » de leurs boissons, « la caféine est très amère et contraint à l’ajout de plus de sucre ou d’édulcorants pour que ces boissons soient buvables », explique-t-elle.

 

LES MAUVAIS CÔTÉS DE LA CAFÉINE ET LES RISQUES DE SURCONSOMMATION

En plus d’éviter les importantes quantités de sucre présentes dans de nombreuses boissons caféinées et les problèmes de santé qui les accompagnent, il est important d’éviter la surconsommation de caféine elle-même.

L’Agence fédérale américaine des produits alimentaires et médicamenteux (FDA) recommande aux adultes en bonne santé de limiter leur consommation de caféine à 400 milligrammes par jour au maximum ; ce qui équivaut à quatre petites tasses environ.

« Les enfants et adolescents de plus de douze ans en bonne santé peuvent consommer sans risque jusqu’à 100 milligrammes de caféine par jour », indique Jennifer Temple. Cependant, les effets de la caféine sur cette population plus jeune sont moins étudiés que ses effets sur les adultes. « Les recherches ciblant ce groupe démographique progressent et sont nourries par la préoccupation grandissante entourant la consommation de boissons énergisantes », révèle Marilyn Cornelis.

Les spécialistes déconseillent la consommation de caféine aux enfants de moins de douze ans.

Bien que de nombreux adultes tolèrent des quantités dépassant ces limites quotidiennes, il existe des dégâts associés à l’ingestion trop fréquente de caféine : mauvaise qualité de sommeil, tremblements, vomissements, rythme cardiaque élevé, carence en potassium, irritabilité, maux de tête, agitation et anxiété notamment.

Des études montrent que la caféine peut également créer une dépendance et qu’elle comporte des effets indésirables à long terme. Il y a par exemple « un risque accru d’hypertension, de pré-diabète, de maladies rénales et de cardiopathies pour les personnes qui en boivent plusieurs tasses par jour », prévient Ahmed El-Sohemy, professeur en sciences de la nutrition à l’Université de Toronto.

À très hautes doses, la caféine peut s’avérer particulièrement dangereuse.

À ce titre, la FDA met en garde. Des crises peuvent survenir lorsque l’on consomme plus de 1 200 milligrammes de caféine trop rapidement, chose susceptible d’arriver lorsque l’on ingère de trop nombreuses boissons à haute teneur en caféine, des pilules caféinées ou bien de la caféine en poudre, dont une simple cuillérée peut contenir l’équivalent en caféine de vingt-huit tasse de café. « Les produits à base de caféine pure et hautement concentrée représentent une importante menace pour la santé publique et sont impliqués dans la mort d’au moins deux personnes aux États-Unis », rappelle l’agence de santé.

 

QUI EST LE PLUS À RISQUE ?

La consommation de caféine présente également un risque accru pour les personnes souffrant de certaines maladies.

Les personnes présentant du diabète devraient par exemple faire preuve de prudence lorsqu’elles consomment de la caféine. En effet, on a montré que celle-ci modifie le processus de métabolisation du sucre ; la sensibilité à l’insuline diminue donc et la concentration du glucose dans le sang augmente.

Les personnes atteintes de maladies chroniques du foie sont susceptibles d’être davantage sensibles à ces effets « à cause d’une capacité moindre à métaboliser la caféine », explique Adrienne Hughes, médecin urgentiste et toxicologue de l’Université de la santé et des sciences de l’Oregon. De plus, l’Association américaine du cœur (AHA) déconseille aux personnes souffrant d’hypertension grave (tension artérielle supérieure ou égale à 16/10) d’éviter de boire ne serait-ce que de petites quantités de caféine, car en effet, on a pu associer la consommation de deux tasses ou plus à « un risque deux fois plus élevé de mourir d’une maladie cardiovasculaire » pour ces individus.

On déconseille également la caféine aux personnes qui ressentent fréquemment des brûlures d’estomac, et plus particulièrement à celles qui subissent des reflux d’acide extrêmes, comme c’est le cas de certains patiets à qui l’on a diagnostiqué des reflux gastro-œsophagiens (RGO).

Les futures mères ont également peut-être intérêt à limiter leur consommation de caféine. En effet, la science a montré que celle-ci entraîne la constriction de vaisseaux sanguins dans le placenta et dans l’utérus, ce qui réduirait l’apport sanguin au fœtus et inhiberait sa croissance. 

« Nous disposons désormais de preuves substantielles que la consommation de caféine par les mères durant la grossesse est susceptible de ralentir la croissance du fœtus et même d’accroître le risque de fausse couche », commente Rob van Dam. 

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Comment la vie est-elle apparue sur notre planète ?

La Terre s’est formée il y a environ 4,6 milliards d’années, et pendant plusieurs centaines de millions d’années, aucune forme de vie ne s’y est développée, probablement en raison de la chaleur extrême et de la chute régulière de comètes et d’astéroïdes à sa surface. Environ un milliard d’années plus tard, cependant, tout avait changé : la vie existait et laissait des traces de sa présence sous la forme de tapis microbiens fossilisés.

Voici trois des nombreuses théories qui ont tenté d’expliquer comment, en l’espace d’un demi-milliard d’années environ, la vie est apparue sur notre planète.

 

1. LA FOUDRE À L’ORIGINE DE LA VIE 

À l’époque de l’apparition de la vie sur Terre, les conditions atmosphériques étaient très différentes de celles que nous connaissons aujourd’hui, note Jim Cleaves, directeur du département de chimie de l’Université Howard et co-auteur de l’ouvrage A Brief History of Creation: Science and the Search for the Origin of Life.

Selon Cleaves, c’est Harold Urey, prix Nobel de chimie, qui a découvert dans les années 1950 que la plupart des atmosphères du système solaire sont principalement composées d’azote et de méthane. Le chimiste en a déduit que la Terre primitive devait elle aussi disposer de ce type d’atmosphère, et que cette dernière n’était devenue riche en oxygène que plus tard, grâce à la présence des différentes formes de vie. En outre, selon Urey, cette atmosphère primitive « était peut-être très efficace pour former des composés organiques, qui pourraient constituer le précurseur de la vie », explique Cleaves.

Urey a donc chargé son étudiant Stanley Miller de mettre au point une expérience afin de tester cette théorie. Connue sous le nom d’expérience de Miller-Urey, cette dernière consistait à reproduire les conditions atmosphériques qui régnaient à l’époque de l’apparition de la vie sur Terre en combinant, dans un système fermé, de l’eau chauffée à des molécules d’hydrogène, de méthane et d’ammoniac. Ces molécules étaient ensuite soumises à des décharges électriques destinées à reproduire les effets de la foudre, puis refroidies pour permettre au mélange de se condenser et de retomber dans l’eau, comme de la pluie.

Les résultats ont été stupéfiants. En l’espace d’une semaine, l’eau de cet « océan » expérimental était devenue rougeâtre, les molécules ayant réagi entre elles et entraîné la création d’acides aminés, qui sont les éléments constitutifs de la vie.

Des recherches ultérieures ont montré que, en réalité, l’atmosphère primitive de notre planète était quelque peu différente de celle de l’expérience créée par Miller, et que ses principaux composants étaient l’azote et le dioxyde de carbone, mais aussi l’hydrogène et le méthane en plus petites quantités.

Les principes défendus par Miller demeurent néanmoins largement valables : la foudre, combinée aux impacts d’astéroïdes et aux rayons ultraviolets du Soleil, aurait entraîné la création du cyanure d’hydrogène qui, en réagissant avec le fer apporté par l’eau de la croûte terrestre, aurait à son tour permis la formation de substances chimiques telles que les sucres. En se combinant, ces substances pourraient avoir créé des brins d’acide ribonucléique, ou ARN, un composant clé de la vie destiné à stocker des informations génétiques ; par la suite, les molécules d’ARN auraient commencé à se répliquer, permettant ainsi à la vie de se développer.

Comment ces molécules d’ARN se sont-elles transformées en structures cellulaires complexes entourées de membranes protectrices ?

Les coacervats pourraient bien en être responsables. Ces gouttelettes composées de protéines et d’acides nucléiques sont capables d’encapsuler des composants et de les lier entre eux, tout comme des cellules, mais sans avoir recours à une membrane. Selon plusieurs chercheurs, les coacervats auraient pu concentrer l’ARN primitif et d’autres composés organiques, formant ainsi des protocellules.

 

2. DES ORIGINES SPATIALES

Selon une autre théorie, les acides aminés, ainsi que d’autres éléments essentiels à la vie tels que le carbone et l’eau, pourraient être arrivés sur la Terre primitive depuis l’espace. En effet, certaines comètes et météorites contiennent certains des mêmes éléments organiques nécessaires à la formation de la vie ; leur chute sur notre planète pourrait donc bien avoir augmenté la disponibilité des acides aminés.

Selon Jack Szostak, prix Nobel de physiologie ou médecine, chimiste de l’Université de Chicago qui dirige un programme interdisciplinaire intitulé Origins of Life, les impacts d’astéroïdes et de comètes ont très certainement joué un rôle crucial.

Le scientifique note qu’une atmosphère primitive composée d’azote et de dioxyde de carbone aurait été moins susceptible de mener à certaines des réactions chimiques observées dans le mélange d’hydrogène, de méthane et d’ammoniac de l’expérience de Miller-Urey. Cependant, d’après lui, un impact de taille modérée peut entraîner la présence temporaire d’hydrogène et de méthane atmosphériques, permettant ainsi des conditions propices à la formation de composés organiques de manière éphémère.

« C’est comme avoir le beurre et l’argent du beurre », illustre-t-il.

 

3. LES ABYSSES, BERCEAU DE LA VIE ?

La vie pourrait également avoir vu le jour dans les profondeurs de l’océan, près des cheminées hydrothermales situées dans les fonds marins, bien que Szostak rejette cette hypothèse.

« Si l’on examine le processus chimique qui permet de passer de matériaux de départ simples à des nucléotides et de l’ARN, on s’aperçoit que bon nombre d’étapes nécessitent le rayonnement UV du Soleil pour pouvoir entraîner les réactions », explique-t-il. « L’énergie solaire est de loin la plus grande source d’énergie, même sur la Terre primitive. Si plusieurs étapes chimiques nécessitent des UV, elles ne peuvent donc pas avoir lieu dans les abysses. »

Malgré tout, il est presque certain que la vie trouve bel et bien ses origines dans l’eau.

« Un solvant est nécessaire pour donner lieu à des réactions chimiques », souligne Cleaves. « Il faut un liquide, et seuls quelques liquides sont stables dans les conditions observées sur une surface planétaire. Même dans le système solaire primitif, l’eau s’avérait être le plus abondant de ces liquides. »

Selon Szostak, plutôt que dans les profondeurs de l’océan, il est bien plus probable que la vie se soit établie « à la surface, sûrement dans des étangs peu profonds ou dans un environnement comme des sources chaudes : un type d’environnement très courant autour des sites d’impact ou des régions volcaniques. » (Il est en effet fort possible qu’une activité volcanique intense ait contribué à la formation de la vie, notamment en générant de grandes quantités d’éclairs localisés.)

Bien que l’ensemble des formes de vie présentes aujourd’hui sur Terre partagent un ancêtre commun universel, une forme de vie microbienne inconnue qui a vraisemblablement disparu depuis longtemps, il est possible que la vie ait vu le jour à de multiples occasions et de différentes manières, et qu’elle ait été éteinte par des impacts de comètes ou n’ait simplement pas réussi à se développer jusqu’à ce que la molécule à base d’ARN qui est à l’origine de notre existence ne parvienne à se former.

« Il s’agit peut-être d’un pur hasard », suggère Cleaves.

 

LA CLÉ POUR COMPRENDRE L’ORIGINE DE LA VIE

Si cela a bien été le cas, nous ne saurons certainement jamais ce qu’il aurait pu en être, car ces formes de vie n’ont laissé aucune trace de leur existence.

La vie aurait très bien pu suivre un chemin très différent, qui n’aurait pas permis la naissance des fleurs, des arbres, des dinosaures ou des êtres humains. Selon Szostak, la clé pour comprendre l’origine de la vie est d’arrêter de voir cette dernière comme un seul et unique grand mystère à résoudre, mais comme un ensemble de petits mystères qui s’accumulent les uns sur les autres.

« La vie est un système tellement complexe que même le plus simple des virus ou bactéries est constitué des milliers de composants. Il est difficile de saisir comment une telle chose a pu surgir de nulle part. La réalité, c’est qu’elle n’a pas surgi de nulle part. C’est un long processus qui s’est produit étape par étape. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Hypermnésie : quand la mémoire devient éternelle

Une grande partie de notre identité s’inscrit dans nos souvenirs. Mais que se passe-t-il lorsque la mémoire fonctionne trop bien, et qu’il est impossible d’oublier ? « J’ai plus de souvenir que si j’avais mille ans » écrivait Baudelaire dans Les Fleurs du Mal. Si ce thème fascine de nombreux artistes, les médecins se sont aussi intéressés à cette faculté réelle et très rare qu’est l’hypermnésie.

« Généralement, quand on parle d’hypermnésie, on fait référence à l’hypermnésie autobiographique, aussi appelée hyperthymésie. Cela renvoie à des personnes qui vont avoir tendance à se rappeler beaucoup de souvenirs dans diverses conditions, plus que la moyenne des gens », explique Francis Eustache, neuropsychologue et directeur du laboratoire Neuropsychologie et imagerie de la mémoire humaine à l’Inserm (Institut national de la santé et de la recherche médicale). Selon lui, ce terme est « un peu médiatique », et « correspond à des situations différentes » propres à chaque sujet. Cela explique qu’à ce jour, il n’y a pas une définition médicale unique de l’hypermnésie.

Si les troubles mnésiques liés à une perte de mémoire, tels que l’amnésie, sont fréquents, l’hypermnésie autobiographique est un symptôme très rare. « Quand on regarde la littérature scientifique, il y a quelques articles qui sont consacrés à cette forme d’hypermnésie, mais on les compte sur les doigts d'une main », relate le spécialiste. De plus, « la plupart des hypermnésiques ne sont pas malades, donc ils ne vont pas consulter, et donc ils ne sont pas connus ». 

L’une des premières mentions d’un patient hypermnésique remonte aux années 1920, dans les travaux du neuropsychologue soviétique Alexandre Luria. Il a étudié la mémoire de Solomon Cherechevski, un jeune journaliste russe. Son rédacteur en chef avait remarqué qu’il ne prenait jamais de notes, mais n’oubliait jamais rien. L’homme était capable de mémoriser des listes de soixante-dix mots, et de la restituer sans faute, quelques heures ou quelques années plus tard. Toutefois, l’ancienneté des travaux rend difficile l’étude de ce cas d’hypermnésie. 

 

LE CAS JILL PRICE

Le cas clinique le plus célèbre est sans doute celui relaté par le neurobiologiste James McGaugh, dans un article publié en 2006 dans Neuropsychologia. Une Américaine, du nom de Jill Price, écrit une lettre au spécialiste pour lui faire part de ses capacités de mémorisation exceptionnelles, mais aussi des souffrances que cette hypermnésie engendre. Elle explique qu’elle a commencé à développer ses facultés exceptionnelles depuis qu’elle a déménagé de la côte est à la côte ouest, lorsqu’elle avait quatorze ans, un changement qui l’a bouleversée. Contrairement aux mnémonistes, les « athlètes de la mémoire », elle n’utilise pas de moyens mnémotechniques. « Quand j'entends une date, je vois ce jour », explique-t-elle. Interviewée par la chaîne américaine ABC en 2006, on lui demande, sans l’avoir avertie au préalable, d'évoquer ce qu'elle avait fait à diverses dates remontant jusqu'aux années 1980. Une rapide vérification dans son journal intime permet de voir que tout ce qu’elle dit est juste, à une réponse près. Elle a également la capacité de localiser précisément certains événements d'actualité marquants et de préciser les dates correspondantes, à condition que ces événements ne soient pas antérieurs à ses quatorze ans.

Lorsque l’on avance en âge, notre mémoire effectue un tri entre les souvenirs, et va avoir tendance à conserver les plus agréables. C’est le biais de positivité, aussi appelé principe de Pollyanna. Chez la majorité des sujets, ce travail de sémantisation des souvenirs se fait automatiquement. « Hiérarchiser est une opération mentale relativement automatique. C’est lié à notre personnalité, à nos intérêts. Notre mémoire est exceptionnelle de ce point de vue-là, elle va prendre ce qui est pertinent pour compléter ce qu’on connaît déjà. » Mais ce travail de synthèse est justement défaillant chez des sujets comme Jill Price. Dans son cas, « l’hypermnésie, c’est comme pour contrecarrer ses problèmes de mémoire : elle s’oblige à mémoriser des éléments au jour le jour, parce qu’elle considère que ce travail de sémantisation des souvenirs ne se fait pas correctement », explique le neuropsychologue. Pour autant, « ça ne veut pas dire qu’elle retient tout ». Mais cela fait souffrir la principale intéressée, qui se remémorait parfaitement les moments difficiles de sa vie. Selon Francis Eustache, James McGaugh a tiré la conclusion que cette particularité était pathologique, et s’inscrivait dans le cadre de la dysmnésie, c’est-à-dire de troubles de la mémoire. « L’hypermnésie, c’est l’aspect démonstratif de sa pathologie, mais elle a aussi des problèmes d’apprentissage. »

Selon un article datant de 2009 publié dans Le Monde, Jill Price a été soumise à un scanner cérébral, dont les résultats n’ont pas été publiés. D’après les dires de l’intéressée, les médecins ont seulement relevé des ressemblances avec les cerveaux de personnes atteintes de Troubles Obsessionnels Compulsifs (TOC).

Mais toutes les hypermnésies ne se dévoilent pas de la même manière. « Il y a toujours des différences interindividuelles », précise Francis Eustache. Lui-même a échangé par mail avec une hypermnésique, qui lui indiquait qu’elle avait vécu ses excellentes facultés mémorielles comme une bénédiction, et que cela lui a permis de poursuivre de brillantes études. 

 

L’HYPERMNÉSIE LIÉE AU STRESS POST-TRAUMATIQUE

Francis Eustache distingue l’hypermnésie autobiographique de l’hypermnésie émotionnelle, qui s’intègre au trouble du stress post-traumatique (TSPT). Cette hyper mémoire se développe après un événement extrêmement traumatisant, et se manifeste par une reviviscence régulière, accompagnée de manifestations physiques liées à l’émotion extrême ressentie. 

« C’est très difficile à contrôler et c’est contre la volonté de ceux qui en souffrent », explique neuropsychologue. Contrairement à ceux qui ont une grande mémoire autobiographique, et qui savent que les souvenirs qu’ils convoquent sont derrière eux, « ces images sont vécues comme si elles étaient à nouveau présentes, même au niveau sensoriel. » Cela provoque alors un « envahissement de la mémoire, et une faillite des mécanismes d’oublis. »

Si certains traitements et médicaments existent aujourd’hui pour traiter les syndromes liés au TSPT, l’hypermnésie autobiographique n’est pas curable à ce jour. 

La démence, des troubles qui augmentent avec notre espérance de vie

Retrouvez cet article dans le numéro 294 du magazine National Geographic. S'abonner au magazine

Jackie Vorhauer et sa sœur ont vu le comportement de leur mère changer en 2012. Nancy Vorhauer, artiste verrière à l’aube de ses 70 ans, a oublié d’appeler Jackie pour son anniversaire. Elle a perdu son téléphone. Elle n’a plus payé ses factures. Voyant que les symptômes de Nancy s’aggravaient, Jackie a fait le voyage de Los Angeles, où elle vivait, jusqu’à Millville, dans le New Jersey, pour vérifier l’état de santé de sa mère. Arrivée un soir, elle a trouvé porte close. Un peu plus tard, Nancy est apparue tirant une valise à roulettes contenant une pile d’horaires de bus, un jouet pour chat, une décoration de Noël brisée et des billes en verre -ses créations. «Salut Jack, a-t-elle simplement dit à sa fille. Que fais-tu ici ? »

Nancy a confié plus tard à ses filles qu’elle ressentait comme «un trou noir dans [ses] souvenirs». Après le diagnostic de sa démence, en 2017, elle a passé quatre ans dans deux services spécialisés dans les troubles cognitifs. Le premier avait tendance à s’en remettre aux antipsychotiques, souvent utilisés pour traiter les problèmes de comportement liés à la démence. Le second avait quelques soignants fantastiques, mais manquait de main-d’œuvre et le personnel n’était pas formé pour gérer cette pathologie, souligne Jackie. 

Aujourd’hui, on estime à quelque 57 millions le nombre de personnes dans le monde frappées de démence ; elles devraient être environ 153 millions d’ici à 2050. Dans l’intervalle, les frais médicaux et paramédicaux, eux, pourraient atteindre les 15000 milliards d’euros au niveau mondial. De nombreux éléments contribuent à cette hausse: d’abord, le vieillissement de la population; l’augmentation de facteurs de risques comme l’obésité et le diabète, ensuite; enfin, l’aggravation de la pollution de l’air qui, d’après des études, dégrade la santé du cerveau. Ajoutons à cela la baisse des taux de natalité –ce qui signifie moins d’aidants–, et une crise latente se profile. «La situation va devenir de plus en plus difficile, avertit le chercheur Kenneth Langa, spécialiste de la démence à l’université du Michigan. Il faut trouver une solution. »

Lorsqu’il est question de démence, la priorité est le personnel soignant. Beaucoup de ceux qui accompagnent les personnes affectées par cette pathologie en sont intimement conscients. Ils connaissent la douleur de voir une mère lutter pour trouver ses mots, ou un veuf attendre sa femme pour le dîner. Mais ils considèrent aussi que les malades sont des personnes, pas un agrégat de symptômes. Cette conviction, forgée par leur expérience personnelle, alimente un mouvement visant à supprimer des soins obsolètes au profit d’une approche globale.

Il n’est pas question de la mort, précise Elroy Jespersen, cofondateur du Village Langley, au Canada, le premier « village Alzheimer» à grande échelle en Amérique du Nord. Sa démarche repose sur un«enrichissement de la vie». «C’est possible dès que l’on se concentre sur la personne: qui elle est, qui elle veut encore être et ce qui la rend joyeuse.» 

La démence se manifeste en général après 65 ans. Ce mot fourre-tout recouvre plusieurs maladies, dont celle d’Alzheimer, la démence vasculaire, la démence à corps de Lewy et la démence fronto-temporale. Beaucoup plus rare, la forme autosomique dominante de la maladie d’Alzheimer se déclare entre 30 et 50 ans et résulte d’une mutation génétique transmise d’un parent à un enfant. Ces divers troubles sont biologiquement différents : Alzheimer se caractérise ainsi par des plaques dans le cerveau formées par une protéine, la bêta-amyloïde, tandis que la démence vasculaire survient après la réduction ou le blocage du flux sanguin dans le cerveau; par ailleurs, ces pathologies peuvent se manifester en même temps. Mais l’issue reste la même: une perturbation de la communication des cellules nerveuses (neurones) entre elles et, à terme, la mort de celles-ci.

Cinq choses à savoir avant de choisir un complément alimentaire

Et si à l’aide d’une seule pilule, vous aviez soudainement plus d’énergie, une plus belle peau et un cœur en meilleure santé ? C’est la promesse qui m’est faite chaque fois que je passe devant l’allée des compléments alimentaires remplie de capsules d’huile de poisson, de pots de collagène en poudre, de gommes de magnésium à mâcher et de vitamines en tout genre de ma pharmacie de quartier.

C’est tentant. Rien d’étonnant donc à ce que les compléments alimentaires représentent une industrie mondiale de 185 milliards d'euros d’ici à 2025.

Pourtant, je me suis toujours demandé quelle pouvait être l’efficacité de ces compléments et si les acheter en valait la peine. Voici quelques-uns des enseignements tirés de nos précédents articles sur les compléments alimentaires. Et j’insiste : demandez toujours l’avis de votre médecin avant de prendre des décisions en matière de santé. 

 

1) LES COMPLÉMENTS ALIMENTAIRES NE SONT PAS STRICTEMENT RÈGLEMENTÉS 

Presque tous les articles que nous avons publiés sur les compléments alimentaires insistent sur un point essentiel : l’Agence fédérale américaine des produits alimentaires et médicamenteux (FDA) ne réglemente pas les compléments alimentaires de la même manière que les aliments et les médicaments, ce qui signifie que les entreprises n’ont pas besoin de soumettre leurs produits à l’approbation de la FDA avant de les commercialiser. Idem en France où, bien que les compléments alimentaires fassent l’objet d’une déclaration auprès de la Direction de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) et de contrôles, notamment de conformité, aucune autorisation n’est requise pour commercialiser ces suppléments nutritionnels. 

De ce fait, certaines étiquettes peuvent s’avérer mensongères. Jen Messer, diététicienne agréée et présidente élue de l’Académie de nutrition et de diététique du New Hampshire, a orienté notre journaliste Daryl Austin vers une analyse portant sur 57 compléments alimentaires. Il en ressortait que 84 % de ces compléments ne contenaient pas la quantité d’ingrédients annoncée, que 40 % ne contenaient aucun des ingrédients annoncés et que 12 % « contenaient des ingrédients non déclarés, ce qui est interdit par la FDA », avait expliqué Messer dans notre article de novembre 2023.

Cela signifie également que les entreprises n’ont pas besoin de fournir à la FDA des preuves des prétendus effets de leurs produits. « C’est le Far West à l’heure actuelle », avait déclaré David Hibbett, professeur de biologie à l’université Clark, dans notre article de janvier 2024 sur le marché en plein essor des compléments alimentaires à base de champignons, comme le chaga et l’hydne hérisson. « Les preuves sont encore très, très limitées et, à mon avis, ne justifient pas l’importante commercialisation de ces produits en tant que suppléments nutritionnels. »

 

2) ILS NE CONVIENNENT PAS À TOUT LE MONDE

J’ai grandi en pensant que prendre une multivitamine par jour était le geste sain par excellence. Pourtant, ce n’est pas le cas pour tout le monde, comme nous l’avons documenté en juin 2023. Demandez toujours l’avis d’un médecin avant de commencer une cure de multivitamines, et cela pour plusieurs raisons.

D’une part, les multivitamines peuvent interférer avec certains médicaments comme les antibiotiques ou les anticoagulants. D’autre part, les personnes souffrant d’une maladie du foie ou des reins peuvent ne pas être en mesure d’éliminer efficacement les niveaux élevés de nutriments contenus dans une multivitamine. Enfin, comme pour tout, il est possible d’abuser des bonnes choses. (Nous reviendrons sur ce point dans un instant).

Dans l’ensemble, votre décision doit dépendre de vos besoins individuels.

 

3) L’ORGANISME NE DÉCOMPOSE PAS TOUTES LES VITAMINES DE LA MÊME MANIÈRE

Attention cependant à prendre en compte d’autres éléments que votre état de santé, comme le fait que certaines vitamines soient absorbées différemment par l’organisme. Cela devrait grandement influer sur votre décision.

Dans un article publié en novembre 2023, des experts insistaient sur le fait d’être particulièrement prudent avec les vitamines A et E, du fait de leur caractère liposoluble. En d’autres termes, l’organisme stocke ces nutriments dans le foie et les tissus adipeux en vue d’une utilisation ultérieure, au lieu de les décomposer et de les métaboliser rapidement, comme c’est le cas pour d’autres types de vitamines. Consommer de fortes doses de l’une ou l’autre de ces vitamines peut en réalité s'avérer nocif.

 

4) IL EXISTE UN RISQUE DE SURCONSOMMATION

Comme je l’ai déjà mentionné, les vitamines peuvent être toxiques : au-delà d’une certaine quantité consommée, ces nutriments commencent à vous desservir. 

Prenons l’exemple de la vitamine A : dépasser la limite supérieure d’apport journalier de 3000 microgrammes peut entraîner des douleurs articulaires, des lésions hépatiques et des malformations congénitales. Des doses élevées de vitamine E peuvent quant à elles interférer avec la coagulation du sang et provoquer des hémorragies, et autres. Enfin, un excès de vitamine D peut être responsable de nausées, d’une faiblesse musculaire, d’un sentiment de confusion, de vomissements et de déshydratation

 

5) LE MEILLEUR MOYEN D’OBTENIR DES NUTRIMENTS EST D’AVOIR UNE BONNE ALIMENTATION

De nombreux nutriments tels que le collagène et la vitamine C sont déjà présents en abondance dans les aliments qui composent un régime alimentaire classique ; et comme nous l’avait expliqué Gail Cresci, nutritionniste à la Cleveland Clinic, en mars 2023, manger des aliments entiers et non transformés, tels que des légumes et des fruits riches en fibres, est souvent un moyen plus efficace d’obtenir les vitamines, minéraux et probiotiques dont le corps a besoin. « Un complément probiotique ou prébiotique ne corrigera en aucun cas une mauvaise alimentation. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Le système des années bissextiles pourrait être modifié

Cette année marque le retour d’un 29 février, jour intercalaire, une particularité de notre calendrier qui n’arrive que (presque) tous les quatre ans.

Pendant des siècles, les tentatives de synchronisation des calendriers avec la durée naturelle d’une année ont semé le chaos, jusqu'à ce que le concept d'année bissextile permette de rattraper le temps perdu.

« En réalité, le nombre de révolutions de la Terre autour de son axe, appelées jours, n'est aucunement lié au temps que met la Terre à faire le tour du soleil », explique John Lowe, qui a dirigé la division Time & Frequency (Temps et fréquence) du National Institute of Standards and Technology (NIST) (Institut national des normes et de la technologie, aux États-Unis) jusqu'à son départ à la retraite.

Une année solaire compte environ 365, 2422 jours. Aucun calendrier composé de jours entiers ne peut correspondre à ce chiffre. Pourtant, il est primordial de prendre cette fraction, en apparence minime, en compte si l’on veut éviter un problème bien plus important qu'on ne pourrait le soupçonner.

L’humain a longtemps organisé sa vie en fonction de ce qu'il observait dans le ciel. Chaque année, les Égyptiens de l'Antiquité semaient leurs cultures pendant la nuit où l'étoile la plus brillante disparaissait. Les historiens de la Grèce et de la Rome antiques s'appuyaient également sur la position des étoiles pour ancrer les événements dans le temps. Les chefs religieux faisaient en sorte que les jours de fête soient alignés sur certaines saisons et phases lunaires.

Ceci explique pourquoi le monde moderne a adopté le calendrier grégorien et son système d’années bissextiles, qui permet aux jours et aux mois d’être synchronisés avec les saisons. « Nous avons créé un calendrier proche de la réalité, mais pour qu’il fonctionne, il faut avoir recours à ces jours intercalaires dont les règles sont un peu étranges », explique Lowe. 

 

DES TECHNIQUES ANCIENNES DE MESURE DU TEMPS

Les premiers Égyptiens, avant environ 3 100 avant notre ère, ainsi que d’autres sociétés, de la Chine à Rome, mesuraient le temps avec le calendrier lunaire.

Cependant, les mois lunaires comptent en moyenne 29,5 jours, ce qui crée des années de seulement 354 jours. Par conséquent, les sociétés qui appliquaient l'heure lunaire se sont rapidement désynchronisées des saisons en raison du décalage de onze jours.

D'autres calendriers anciens, remontant aux Sumériens, soit il y a 5 000 ans, divisaient simplement l'année en douze mois de trente jours chacun. Leur année de 360 jours était presque une semaine plus courte que notre voyage annuel autour du soleil.

La pratique consistant à ajouter quelques jours à l'année est au moins aussi ancienne que ce type de systèmes.

« Lorsque les Égyptiens ont adopté ce calendrier, ils savaient qu'il y avait un problème », explique Lowe. Alors « ils ont simplement ajouté cinq jours de festivals et de fêtes, à la fin de l'année. »

 

L’ANNUS CONFUSIONIS DE JULES CÉSAR

À l'époque de la célèbre liaison de Jules César avec Cléopâtre, le calendrier lunaire de Rome s'était décalé des saisons d'environ trois mois et ce malgré les efforts déployés pour le modifier en ajoutant des jours ou des mois à l'année de façon irrégulière.

Afin de rétablir l'ordre, César se tourna vers l'année égyptienne de 365 jours qui, dès le 3e siècle avant notre ère, avait établi l'utilité d'un système d'année bissextile tous les quatre ans dans le but de corriger ce type de décalage.

César adopta ce procédé en décrétant une seule « annus confusionis » de 445 jours, en 46 av. J.-C., pour remédier, en une seule fois, aux longues années de dérive. Il imposa ensuite une année de 365,25 jours qui consistait simplement à ajouter un jour intercalaire tous les quatre ans.

Cependant, ce système aussi était imparfait, car le quart de jour que l'année bissextile ajoute chaque année est un peu plus long que le 0, 242 jour restant de l'année solaire. L'année civile était donc plus courte de onze minutes que l'année solaire, de sorte que les deux années divergeaient d'un jour entier tous les 128 ans.

« Il s'avère qu'ajouter un jour tous les quatre ans est un peu excessif », explique James Evans, physicien à l'université de Puget Sound et rédacteur en chef du Journal for the History of Astronomy

 

LES RÉFORMES DES JOURS INTERCALAIRES

Entre le moment où César introduisit le système et le 16e siècle, ce petit écart décala les dates importantes, notamment les fêtes chrétiennes, d'une dizaine de jours.

Le pape Grégoire XIII jugea la situation inacceptable et dévoila son calendrier grégorien en 1582, après une nouvelle adoption radicale de tactiques de torsion du temps.

« Cette année-là, Grégoire réforma le calendrier et supprima dix jours du mois d'octobre », explique Evans. « Il modifia ensuite les règles relatives aux jours intercalaires pour corriger le problème. »

Aujourd’hui, on ignore les années bissextiles divisibles par 100, comme l'année 1900, sauf si elles sont également divisibles par 400, comme l'année 2000, auquel cas on les prend en compte. Personne ne se souvient du dernier jour intercalaire ignoré, mais l'abandon de ces trois jours tous les 400 ans permet au calendrier de perdurer.

 

DES CALENDRIERS MODERNES QUI PRÉSENTENT UNE ALTERNATIVE

Aujourd'hui encore, certains calendriers ne tiennent pas compte de l'année bissextile destinée à nous faire coïncider avec notre orbite et d'autres ignorent complètement le soleil.

Le calendrier islamique est un système lunaire qui ne comprend que 354 jours et avec un décalage de onze jours chaque année par rapport au calendrier grégorien, bien qu'on y ajoute parfois un seul jour intercalaire.

Si officiellement, la Chine utilise le calendrier grégorien, son calendrier lunisolaire traditionnel est toujours d’usage dans la vie de tous les jours. Il suit les phases de la lune et comporte un mois intercalaire tous les trois ans environ.

« Il n'y a rien de sacro-saint dans le fait de caler un calendrier sur l'année solaire comme le fait le nôtre », explique Evans. « Les humains pourraient s'habituer à n'importe quel système de calendrier, mais une fois qu'ils s'y sont habitués, ils n’aiment pas qu’on le modifie. »

 

DE FUTURES COMPLICATIONS 

Le système actuel du calendrier grégorien, qui saute occasionnellement un jour intercalaire, rend presque égales les fractions de jours de l'année solaire et du calendrier des années bissextiles. 

Ce système considère qu’une année moyenne comprendrait 365, 2425 jours, soit une demi-minute de plus que l'année solaire. À ce rythme, il faudra attendre 3 300 ans avant que le calendrier grégorien ne s'écarte d'un seul jour de notre cycle saisonnier.

Cela signifie que les générations futures auront une décision à prendre concernant l'année bissextile. Toutefois, ce moment surviendra dans un certain temps.

« Dans 3 000 ans, les humains décideront peut-être de la modifier », explique Lowe. « Seul l’avenir nous le dira. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Vaccins : comment les adjuvants stimulent-ils notre système immunitaire ?

Dans les années 1920, le vétérinaire français Gaston Ramon a fait une curieuse découverte en étudiant les vaccins contre la diphtérie : l'ajout de chapelure, de tapioca ou d'autres ingrédients quelconques semblait améliorer leur efficacité.

Adjuvant, c'est le nom donné par le Dr Ramon à ces additifs, un terme dérivé du latin « adjuver », qui signifie « aider ». De nos jours, il en existe environ une dizaine utilisés dans divers vaccins ; et les scientifiques continuent d'étudier la façon dont ces petites mains prennent le contrôle du système immunitaire pour optimiser l'inflammation. D'après les experts, la recherche pourrait nous offrir une nouvelle génération de vaccins capables de combattre un plus grand nombre de maladies, plus longtemps.

Le fonctionnement des vaccins repose déjà sur la stimulation des processus inflammatoires pour lutter contre les infections, rappelle Bali Pulendran, immunologiste à l'université Stanford de Palo Alto, en Californie. Les adjuvants poussent le processus un peu plus loin en aidant notre organisme à moduler l'inflammation : « Ni trop ni trop peu, le bon type d'inflammation au bon endroit » déclare Pulendran. « C'est là toute la magie des adjuvants. »

 

INCENDIE SOUS CONTRÔLE

Le principe fondamental du vaccin est d'imiter la maladie contre laquelle il est censé vous protéger afin de déclencher une certaine réponse du système immunitaire, indique Larry Corey, expert en virologie, immunologie et développement de vaccin au Fred Hutchinson Cancer Center de Seattle. Pour cela, bon nombre de vaccins font appel à une version inactive ou affaiblie de l'agent infectieux, ou à un fragment toxique de celui-ci, le tout dilué dans une solution injectable. Une fois injecté, généralement dans le bras, le vaccin déclenche une réponse du système immunitaire dès que l'agent perturbateur, connu sous le nom d'antigène, pénètre dans l'organisme. Pour un antigène inconnu de l'organisme, il faut environ deux semaines pour mobiliser une réponse mesurable.

La réponse immédiate à un antigène étranger correspond à l'immunité innée ; elle implique des cellules spécialisées, comme les cellules dendritiques et les monocytes, qui libèrent des cytokines, des prostaglandines et d'autres protéines à l'origine des processus inflammatoires, indique Corey. Cette inflammation immédiate se manifeste par une douleur, un gonflement ou une rougeur au niveau du site d'injection. Il arrive également que le patient se sente malade dans les jours qui suivent.

Pendant ce temps-là, les cellules immunitaires transportent l'antigène du vaccin vers les ganglions lymphatiques voisins, ce qui déclenche une réponse immunitaire « adaptative », plus durable, pendant laquelle des cellules hautement spécialisées, comme les lymphocytes T et B, produisent des anticorps et développent une mémoire de l'antigène. Comme nous l'explique Corey, c'est grâce à ce système immunitaire adaptatif que la protection peut durer plusieurs mois, voire plusieurs décennies.

Qu'elle soit innée ou adaptative, la réponse immunitaire repose sur les processus inflammatoires et les vaccins sont précisément conçus pour induire la juste dose d'inflammation. « La vaccination est une forme d'inflammation », résume Corey. « L'objectif est de déclencher une réponse immunitaire contre un antigène inconnu de manière contrôlée pour vous éviter de tomber malade. »

BESOIN D'AIDE

Certains vaccins parviennent à conférer une immunité simplement en présentant au système immunitaire un fragment de l'agent infectieux ciblé, c'est notamment le cas des vaccins contre les méningocoques. Toutefois, il existe des maladies pour lesquelles le développement de vaccins est particulièrement difficile. Le VIH, par exemple, utilise différentes stratégies pour échapper à la reconnaissance par les cellules immunitaires et enrayer leur contre-attaque. La grippe et le SARS-CoV-2 évoluent en variants pour se soustraire à cette même reconnaissance immunitaire. Le parasite à l'origine du paludisme présente une histoire complexe et ses impacts sur le système immunitaire soulèvent encore de nombreuses questions.

Afin de mettre au point des vaccins contre ces agents infectieux et d'autres rois de l'évasion, les scientifiques exploitent les subtilités de notre système immunitaire, dont la plupart restent entourées de mystères. Ainsi, pour les virus en perpétuelle évolution comme le SARS-CoV-2 et la grippe, certains chercheurs travaillent sur des vaccins universels qui parviendraient à reconnaître les parties des antigènes qui restent stables alors que leur voisinage mute pour produire de nouvelles souches.

Les adjuvants jouent un rôle majeur dans les efforts visant à contrôler l'inflammation à l'aide des vaccins, notamment grâce aux travaux datant de l'époque du Dr Ramon. La découverte du vétérinaire est née d'une procédure commune pour l'époque. Pendant des décennies, la méthode scientifique impliquait d'injecter à un cheval une toxine issue de la bactérie responsable de la diphtérie pour induire une réponse immunitaire. Ils prélevaient ensuite le sang du cheval, désormais chargé d'anticorps, et en utilisaient le sérum pour soigner les malades.

Au cours de ses recherches, le Dr Ramon a fait le constat suivant : lorsque les chevaux développaient une infection autour du site d'injection, ils produisaient un sérum antidiphtérique plus puissant. Il a alors eu l'idée d'ajouter de la chapelure et d'autres éléments aux vaccins pour stimuler la réaction inflammatoire et renforcer l'immunité.

À la même période, l'immunologiste britannique Alexander Glenny, qui travaillait également sur les injections de toxine diphtérique, a découvert qu'il pouvait accentuer leurs effets chez le lapin en ajoutant des sels d'aluminium. L'aluminium était le premier adjuvant intégré à des vaccins homologués aux États-Unis et le seul utilisé en continu dans ces vaccins pendant les 70 années qui ont suivi. De nos jours, il reste l'adjuvant le plus répandu, indique Pulendran, comptabilisant plusieurs milliards de doses à son actif.

La biologie des adjuvants a connu un nouvel essor au milieu des années 1990 avec la découverte sur les cellules immunitaires innées de récepteurs agissant tel « le sixième sens de notre organisme », comme l'illustre Pulendran, en référence à leur capacité à reconnaître des fragments d'envahisseurs infectieux, à initier une réponse inflammatoire et à stimuler le système immunitaire adaptatif. Cette découverte a également permis aux scientifiques de commencer à cibler des récepteurs spécifiques, ce qui a mené au développement d'au moins une demi-douzaine d'adjuvants supplémentaires. L'un d'entre eux est un lipide incolore appelé squalène parfois complété de vitamine E ou d'autres ingrédients et notamment utilisé dans le vaccin antigrippal Fluad, homologué chez l'adulte âgé de 65 ans ou plus en France. Autre cas, un adjuvant entrant dans la composition du vaccin Shingrix contre le zona est quant à lui issu du bois de Panama.

ADJUVANTS DU FUTUR

À l'heure actuelle, certains adjuvants sont mieux compris que d'autres par les chercheurs, témoigne Darrell Irvine, immunologiste au Massachusetts Institute of Technology de Cambridge, aux États-Unis. Parfois, leur découverte est accidentelle, comme celle du Dr Ramon. Par exemple, les vaccins à ARNm produits par Pfizer et Moderna intègrent un ingrédient, les nanoparticules lipidiques, qui semble se comporter comme un adjuvant selon des mécanismes encore à l'étude. Certains adjuvants sont sélectionnés de manière plus intentionnelle. Ainsi, pour le vaccin Shingrix, les scientifiques ont incorporé une molécule qui compose certains types de bactéries infectieuses.

« Votre système immunitaire est entraîné pour reconnaître cette molécule et produire un certain type d'inflammation lorsqu'elle se présente », indique Irvine. « Cela revient à tromper votre système immunitaire en lui disant : "Il y a un danger et c'est peut-être une bactérie. Tu devrais déclencher une réponse immunitaire." »

Un jour, les adjuvants pourraient être en mesure de reprogrammer l'activité génétique des cellules immunitaires pour combattre simultanément une multitude de maladies au lieu de se concentrer sur une cible unique, comme le fait un vaccin classique, indique Pulendran, qui travaille actuellement sur la technique. Différentes études, dont celle menée dans son laboratoire, suggèrent que cette alternative est possible.

Ainsi, d'après diverses études impliquant des sujets murins et humains, le vaccin BCG conçu pour la tuberculose pourrait protéger contre la grippe, les candidoses, les infections à staphylocoques et les infections respiratoires. De plus, les chercheurs étudient actuellement son utilité contre la COVID.

En s'appuyant sur ces travaux, ainsi que sur les données attestant de la présence des molécules inflammatoires associées à ces réactions, plusieurs groupes de recherche développent actuellement des adjuvants visant à introduire sur le long terme de faibles niveaux d'immunité antivirale, telles des braises qui conserveraient un semblant de chaleur plusieurs semaines à plusieurs mois dans le but de renforcer notre résistance à toutes sortes d'intrus. « C'est un peu comme une inflammation sans virus qui pourrait contribuer à la lutte contre diverses infections » précise Pulendra, dont l'équipe travaille également sur le sujet. « Ces adjuvants permettent de maintenir les braises de la bonne inflammation à un niveau tolérable, pas trop intense. »

 

LE CANCER EN LIGNE DE MIRE

La recherche portant sur les adjuvants qui contrôlent l'inflammation de manière précise ouvre la voie au développement de vaccins pour des maladies jusqu'à présent exclues du champ des possibles offert par la vaccination, notamment les cancers, souligne Irvine. Des essais actuellement menés sur les vaccins à ARNm pour le mélanome et le cancer du pancréas suggèrent que l'association d'adjuvants et de protéines produites par la propre tumeur du patient pourrait aider l'organisme à développer une immunité contre le cancer. « Nous ne disposons pas de vaccins thérapeutiques réellement efficaces contre le cancer à ce stade, mais ils pourraient voir le jour », assure-t-il. « Les données récentes sont prometteuses. »

Derrière ces efforts pour concevoir de meilleurs adjuvants et nous protéger de la maladie se cache une idée simple : pour vaincre une affection, notre organisme doit produire juste ce qu'il faut d'inflammation pour combattre l'infection sans nous rendre extrêmement malades. Si notre système immunitaire est incapable de parvenir seul à cet équilibre, pourquoi ne pas créer des solutions qui l'aident à y parvenir ?

Comme le reconnaissent les spécialistes, les adjuvants du futur vont probablement évoluer au gré de notre compréhension des mécanismes de l'inflammation. À terme, ils pourraient nous aider à enrayer les maladies qui tourmentent l'humanité depuis bien trop longtemps : le VIH, le paludisme, les nouvelles souches de grippe ou de SARS-CoV-2… et celles qui émergeront entretemps.

« La recherche actuelle sur les vaccins est axée autour d'une seule et même question : comment produire la juste dose d'inflammation, au bon endroit, de façon à stimuler la réponse immunitaire sans occasionner de sentiment d'infection chez le patient ? » interroge Irvine. « Les adjuvants joueront probablement un rôle majeur dans le développement de vaccins pour certains des scénarios les plus complexes. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

La révolution du verre : bientôt, il se pliera et rebondira

Retrouvez cet article dans le numéro 293 du magazine National Geographic. S'abonner au magazine

Par une fraîche journée de mars, Kazuhiko Akiba et l’un de ses collègues se tenaient dans la cour de la verrerie Chiba Kogaku, au Japon, prêts à dévoiler leur dernière création. Un chariot élévateur apporta un pot en argile de la taille d’un jacuzzi et le déposa devant eux. Les deux hommes s’équipèrent de lunettes de sécurité et de gants. Puis, armés d’un marteau, ils se mirent à frapper les bords du pot, brisant de gros morceaux de céramique pour en révéler le précieux contenu : une substance dure et lumineuse qui, sous les rayons du soleil de l’après-midi, brillait dans des teintes céruléennes de glace arctique. Kazuhiko Akiba, le directeur de l’usine, recula, admiratif. «Kirei», s’exclama-t-il. Magnifique. Il s’agissait du dernier lot d’un des verres optiques les plus purs du monde, connu sous le nom d’E6.

Située à l’est de Tokyo, Chiba Kogaku fabrique du verre dans des pots en argile de façon artisanale depuis plus de cinquante ans. La technique remonte au début du XIXe  siècle, lorsque le fabricant suisse de lentilles Pierre-Louis Guinand devint le pionnier de la méthode consistant à utiliser des bras en céramique réfractaire pour brasser le verre fondu. Elle permettait d’obtenir un produit sans bulles ni contaminants, idéal pour l’optique. En 1965, la firme japonaise Ohara Glass perfectionna le procédé et développa l’E6, un verre à faible dilatation, désormais uniquement fabriqué pour elle à Chiba Kogaku.

La fabrication d’un pot d’environ 800 l prend à peu près quatre mois. D’abord, un récipient en argile est façonné à la main. Puis des ouvriers y versent un mélange fait, entre autres, de silice, d’oxyde de bore et d’oxyde d’aluminium, et chauffent le tout à 1 500 °C. Le verre en fusion doit être brassé à intervalles réguliers pendant plus de deux jours, avant que le pot soit placé dans une chambre à température contrôlée, où il refroidira durant deux semaines.

Briser le pot en argile permet d’enlever la couche extérieure de verre et de ne garder qu’une substance pure pouvant être refondue et moulée dans des formes précises et résistantes à des températures extrêmes. Une telle stabilité s’avère cruciale dès lors qu’il s’agit de fabriquer des miroirs pour les grands télescopes.

Le marché pour des instruments aussi coûteux est si restreint que la totalité de l’E6 fabriqué ces quarante-deux dernières années n’a été livrée qu’à un seul client. Une part importante de cette production (122 t) est spécialement destinée à un projet qui, en cas de succès, changera notre façon de concevoir l’Univers. 

L’E6 n’est qu’un exemple de la manière dont le verre est aujourd’hui réinventé pour explorer toutes sortes de frontières. Ce matériau a fait l’objet de plus de progrès technologiques et industriels au cours des cinquante dernières années qu’au cours du précédent millénaire, ce qui a incité l’ONU, en  2022, à le reconnaître comme l’élément 100% recyclable le plus susceptible d’aider les pays à atteindre leurs objectifs de développement durable d’ici à 2030. Autrement dit, nous sommes entrés dans une nouvelle ère du verre, une ère dans laquelle les scientifiques utiliseront ce matériau ancien pour améliorer radicalement nos vies.

Il existe un mème populaire sur Internet montrant le moment où des tout-petits reçoivent leur première paire de lunettes. Dans chaque vidéo, un enfant braillard ou désorienté prend tout à coup l’air abasourdi, les yeux écarquillés, alors que, pour la première fois, il peut nettement voir ses parents, et cela grâce à une technologie conçue il y a plus de sept cents ans et utilisée par des milliards de personnes depuis.

De nos jours, porter des lunettes est devenu si banal que nous avons pratiquement oublié l’impact de l’invention des lentilles optiques sur la civilisation. Cela vaut pour la plupart des domaines que le verre a profondément bouleversés. Essayez d’imaginer la vie sans bouteilles ni plats allant au four, sans miroirs ni fenêtres, sans ampoules électriques ni téléviseurs. Si vous lisez cet article sur votre smartphone, c’est que vous avez appuyé sur un écran tactile en verre, et ces mots sont apparus via des données circulant dans des câbles à fibre optique en verre.

Les êtres humains ont intégré peu à peu ce matériau dans leur vie depuis qu’ils ont découvert comment le produire, il y a 4500 ans environ. Bien que l’on ne sache pas exactement où il a été créé, quelques-unes des plus anciennes perles et autres ornements en verre ont été retrouvés en Mésopotamie. Les historiens supposent qu’il pourrait être apparu comme un sous-produit accidentel de la fabrication de céramique ou de métal. Quoi qu’il en soit, l’homme a rapidement appréhendé le procédé pour le créer, comme en témoigne une tablette d’argile babylonienne découverte dans l’actuel Irak, et qui consigne en caractères cunéiformes l’une des premières recettes connues du verre.

La seconde intercalaire a fait son temps, vive la minute intercalaire

Quelle heure est-il ? Jetez un coup d’œil à votre téléphone ou à votre ordinateur et vous obtiendrez une réponse assez précise. Sachez cependant que si le temps semble constant, nous l’ajustons en réalité depuis des décennies en ajoutant, passées quelques années, une seconde intercalaire au temps universel.

Cette solution technologique, destinée à faire coïncider les horloges atomiques avec la rotation de la Terre, a longtemps permis de réguler le temps international. Alors pourquoi les scientifiques ont-ils alors décidé d’abandonner la seconde intercalaire ? Et quelles seront les conséquences de cette décision ?

 

LA FABRICATION DU TEMPS

L’unité de temps que nous appelons seconde a vu le jour à l’aide d’un simple calcul qui a divisé la journée astronomique de 24 heures, soit une rotation complète de la Terre, en 86 400 unités. Mais un problème s’est posé : la Terre ne tourne pas à la même vitesse tous les jours. Sa vitesse de rotation varie légèrement, et les perturbations environnementales et physiques telles que la gravité, les forces de frottement et les vibrations à la surface de la Terre rendaient même les horloges les plus sophistiquées et les plus fiables légèrement inexactes.

Par la suite, notre compréhension croissante des lois de la physique nous a amenés à redéfinir le temps lui-même. Contrairement aux dispositifs tels que les pendules ou les substances comme les cristaux qui alimentaient les horloges précédentes, les atomes émettent et absorbent des radiations à un rythme remarquablement constant. Cette oscillation fiable est devenue la base des premières horloges atomiques conçues dans les années 1940 et 1950. En 1967, les membres de la Conférence générale des normes de poids et mesures ont proposé une nouvelle définition de la seconde : elle correspond depuis à la durée de 9 192 631 770 oscillations d’un atome de césium 133.

 

COMBLER LE RETARD

L’adoption de la seconde atomique a permis de définir le temps de manière remarquablement précise et immuable. Seul problème : la seconde atomique ne correspondait pas tout à fait à la seconde astronomique définie par la rotation de la Terre. Pour faire coïncider les deux unités de temps, des scientifiques se sont alors réunis à la fin des années 1960 et ont décidé d’ajouter occasionnellement des secondes au temps universel coordonné (UTC), l’échelle de temps déterminée par les horloges atomiques. Ces « secondes intercalaires » permettent à l’UTC et à la seconde astronomique de rester synchrones et d’empêcher ainsi le décalage continu de l’horloge atomique tout en permettant aux systèmes GPS, aux réseaux électriques et à l’internet, entre autres, de continuer à fonctionner.

La seconde intercalaire a permis de synchroniser le temps astronomique et le temps atomique. Mais l’introduction de la seconde intercalaire, qui a finalement été adoptée en 1972, a nécessité de surveiller et d’ajuster l’UTC au fil du temps, et au fil des ans, le temps astronomique a pris 37 secondes d’avance au total sur le temps atomique. Introduites tous les quatre ans environ, ces secondes représentent aujourd’hui un véritable casse-tête technologique, surtout si l’on tient compte de l’importance croissante de la coordination du temps dans divers secteurs d’activité.

 

LA FIN DE LA SECONDE INTERCALAIRE

La seconde intercalaire constituait une solution imparfaite à un problème perpétuel, et alimente depuis lors un débat de longue haleine.

« Il n’y avait pas de meilleure solution pour résoudre le problème », explique Judah Levine, physicien à la division du temps et des fréquences au National Institute of Standards and Technology (NSTI) à Boulder, dans le Colorado. Surnommé le « gardien du temps de la nation », Levine a conçu et mis en œuvre l’échelle de temps UTC pour les États-Unis et travaille fréquemment avec les horloges atomiques qui régissent le temps dans le monde entier. S’il y avait eu une solution claire et simple, a-t-il déclaré, les gardiens du temps « l’auraient mise en place il y a des années ».

Au lieu de cela, il a fallu des décennies à la communauté internationale responsable du temps pour trancher le débat et décider d'abandonner la seconde intercalaire de manière définitive. En 2022, les gardiens du temps du monde mondial ont finalement décidé de se débarrasser des secondes intercalaires d’ici à 2035.

L’adoption de l’heure atomique comme norme mondiale par opposition à l’heure astronomique est un objectif ambitieux, qui pourrait s’avérer difficile à mettre en œuvre. Pour pallier l’abandon de la seconde intercalaire, les scientifiques ont plusieurs idées comme le fait de laisser le temps atomique et le temps astronomique se décaler un peu plus chaque année, ou encore insérer une unique minute intercalaire qui règlerait les décalages de temps pour les quelques siècles à venir. Dans l’idéal, explique Levine, la transition ne se fera pas sentir puisqu’elle ne concernera qu’une petite poignée de scientifiques et de programmeurs et passera pratiquement inaperçue aux yeux du grand public.

 

L’IMPORTANCE DE L’HEURE ATOMIQUE

Pendant que les scientifiques débattent de la meilleure façon d’adopter définitivement le temps atomique, le monde devient de plus en plus dépendant des dispositifs nécessitant une mesure précise du temps universel, souligne Lévine.

« Les domaines qui dépendent d’une échelle de temps commune et régulière sont devenus prépondérants », explique Levine, en citant les télécommunications, la production d’énergie et les services financiers entre autres choses. « Sans les horloges atomiques, ils ne pourraient tout simplement pas opérer. »

Les secondes intercalaires et les dispositifs modernes ne sont pas les seuls obstacles en vue. Les gardiens du temps sont confrontés à de nombreux autres défis, dont une récente augmentation de la vitesse de rotation de la Terre qui pourrait inverser le décalage entre le temps atomique et le temps astronomique. L’avenir des horloges à césium 133 reste également incertain, d’autant plus que les chercheurs développent et perfectionnent des garde-temps plus fiables, comme l’horloge expérimentale à ytterbium du NIST, l’une des plus stables au monde.

Les avis peuvent diverger quant à la meilleure façon de diviser le temps. Mais pendant que la communauté scientifique continue de réfléchir à comment harmoniser ce dernier, une chose est sûre : l’oscillation des horloges atomiques continuera de faire tourner nos sociétés.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Ce qu'il faut savoir sur Telepathy, la puce cérébrale de Neuralink qui inquiète les spécialistes

Permettre aux personnes gravement paralysées de contrôler un ordinateur, un bras robotique, un fauteuil roulant ou un autre appareil par la seule activité cérébrale, voici ce que promet la start-up Neuralink, lancée en 2016 et dont Elon Musk est le co-fondateur. 

Celle-ci espère pouvoir révolutionner les Interfaces Cerveau-Ordinateur (ICO), aussi appelés Interface Cerveau-Machine (ICM), c’est-à-dire les systèmes impliquant « une liaison directe entre le cerveau et un ordinateur ». Ces derniers permettent à un individu « d’effectuer des tâches sans utiliser les nerfs périphériques et les muscles », explique Salma Mesmoudi, Ingénieure de recherche à l’Université Panthéon Sorbonne. 

Neuralink n’est pas la première entreprise à avoir mis en place un dispositif ICO. « Le concept remonte à 1973, et les premiers essais chez l’Homme datent du milieu des années 1990 », indique Salma Mesmoudi. En 2005, le tétraplégique Matt Nagle a été la première personne à contrôler une main artificielle grâce à une interface Homme-ordinateur. L'implant a été réalisé dans la région du gyrus précentral droit, responsable du contrôle du mouvement du bras. 

Pour Neuralink, le dispositif à l’œuvre prend la forme d’une puce intitulée Telepathy, de la taille d’une pièce de deux euros, que l’on implanterait grâce à la chirurgie et à l’aide d’un robot, dans la région du cerveau qui contrôle l’intention de bouger. L’objectif est de permettre aux gens de contrôler un curseur ou un clavier d'ordinateur, en utilisant uniquement leurs pensées. « Neuralink met en avant la flexibilité de ses fils, un aspect crucial pour une implantation précise et sûre, et affirme développer un robot pour insérer ces fils dans le cerveau », révèle l’ingénieure. La puce contiendrait 64 fils polymères flexibles, fournissant 1 024 sites d'enregistrement de l'activité cérébrale. C’est en tout cas ce qu’annonce la brochure du dispositif, seule source d’information publique venant directement du site internet de la start-up. 

Ce dispositif, s’il fonctionne, pourrait bouleverser la vie des personnes qui l’utilisent. « Des individus tétraplégiques pourraient contrôler un exosquelette grâce à la pensée pour se déplacer, des personnes amputées pourraient contrôler les mouvements de leur prothèse par la pensée, des personnes ayant perdu la parole pourraient parler via un ordinateur, toujours grâce à la pensée », énumère Salma Mesmoudi. 

La capacité de Telepathy « dépasse considérablement celle des ICO de Blackrock Neurotech, le seul autre système d'enregistrement neuronal unique à avoir été implanté à long terme chez l'Homme. » En effet, Blackrock Neurotech constitue actuellement l’un des seuls concurrents sérieux à Neuralink. Il est le seul autre système d'enregistrement de neurone individuel à avoir été implanté à long terme chez l'Homme. Mais celui-ci est beaucoup moins puissant que celui de Neuralink.

La miniaturisation du dispositif ICO est très couteuse, et a été rendue possible pour Telepathy, grâce aux fonds injectés par de nombreux entrepreneurs. La startup a réussi à lever environ 323 millions de dollars, selon les données de France Info. « Ils ont eu l’argent pour faire ce qu’aucun centre académique dans le monde n’a pu faire », résume François Berger, Neurologue et Chercheur au CHU de Grenoble.

Après plusieurs essais d’implantation réalisés d’abord sur des porcs, puis sur des singes, l’essai sur l’Homme a été autorisé par la Food and Drug Administration (FDA) en mai dernier, après un premier refus. Dans un tweet posté le 29 janvier 2024, Elon Musk a affirmé que « le premier être humain à avoir reçu un implant Neuralink se rétabli[ssait] bien. »

 

LES PROBLÉMATIQUES ÉTHIQUES

Le gros point noir de ce dispositif réside dans son manque de transparence sur les études cliniques. L’essai réalisé sur le premier patient n’a pas été enregistré sur ClinicalTrials.gov, un référentiel en ligne, géré par le National Institutes of Health (NIH), une institution gouvernementale américaine chargée de la recherche médicale. Or, de nombreuses revues médicales font de cet enregistrement une condition nécessaire à la publication des résultats, afin de mieux protéger les personnes volontaires dans les essais cliniques. 

« Le manque de clarté sur les détails de l'essai, tels que les sites d'implantation et les critères d'évaluation, limite la capacité des chercheurs à évaluer pleinement l'impact et l'efficacité potentiels de cette technologie révolutionnaire », affirme en ce sens Salma Mesmoudi. « Un essai où n’y a pas de transparence ne devrait pas être supporté », renchérit François Berger.

Au-delà du manque de transparence, l’objectif final d’Elon Musk n’est pas clair. S’il assure avoir pour but initial l’amélioration des conditions de vie des personnes en situation de handicap, il assume vouloir, à terme, développer cette innovation pour pouvoir la commercialiser à grande échelle. Cette démarche s’apparente à une idéologie transhumaniste, ayant pour visée par la science et la technologie d’améliorer les capacités humaines. « Actuellement, la médecine a interdiction d’améliorer l’Homme », indique François Berger. Pour lui, « le cerveau doit rester un sanctuaire, dans le sens de la privacité de l’intimité de la pensée. »

« Elon Musk pense qu’il peut enregistrer toute la complexité de la pensée, voire la modifier. Mais c’est faux, car cela repose sur une vision cybernétique du cerveau qui date des années 1950. » Selon le scientifique, notre cerveau n’est « pas un ordinateur », mais « un réseau nourri par l’histoire du patient, par les gens qu’il a rencontrés et par les gens qu’il aime. »

De plus, les opérations qui touchent au cerveau ne sont jamais anodines. « Mettre des technologies dans le cerveau, c’est toujours dangereux. On risque l’hématome ou l’infection. Dans tous les protocoles renseignés, il y a eu 20 à 25 % d’infection », explique le neurologue. Pour lui, il est important de prendre en compte la balance bénéfice/risque.

« Il faudrait que les essais d’Interface Cerveau-Machine, partout dans le monde, soient monitorés par des instances internationales. » De plus en plus d’entrepreneurs dans les neurotechnologies, comme Elon Musk ou Ray Kurzweil, directeur de l’ingénierie chez Google, revendiquent le droit de disposer de leur cerveau librement. Cela peut poser plusieurs problématiques éthiques, notamment sur l’autonomie ou non du patient, et sur la notion de responsabilitéSelon François Berger, « il faut qu’il y ait des gens des sciences humaines et sociales, notamment philosophes et sociologues, qui puissent donner leur avis. Ce ne sont pas les scientifiques qui peuvent voir le problème éthique […] car on se rend compte qu’actuellement, il y a des changements politiques qui font qu’on pourrait tout à fait changer les règles de développement des dispositifs médicaux. »

« Cette hybridation entre l'humain et la technologie soulève des questions complexes sur la personnalité juridique et la responsabilité. En cas de prise de décision assistée par une intelligence artificielle plutôt que par la personne humaine, il est nécessaire de déterminer à qui incombe la responsabilité juridique », conclut Salma Mesmoudi.

L'eau glacée est-elle vraiment efficace contre les problèmes de peau ?

Si vous vous êtes déjà foulé la cheville, vous connaissez probablement l’efficacité des poches de glace pour soulager la douleur et le gonflement. De plus en plus de personnes appliquent désormais ce principe sur une autre partie de leur corps en appliquant de la glace sur leur visage, une méthode qui permettrait de lutter contre la formation des rides, mais aussi d’atténuer les cernes et de resserrer les pores. Selon les adeptes de cette pratique, celle-ci conférerait ainsi à la peau une apparence plus jeune et plus saine.

Cependant, malgré la popularité grandissante des soins du visage à base de glace et d’autres formes de cryothérapie, due en grande partie aux réseaux sociaux, aucune étude clinique n’a permis de prouver leurs bienfaits à ce jour.

En outre, si frotter un glaçon sur son visage peut sembler inoffensif, selon Jessica Garelik, dermatologue à l’Université de New York, ces traitements ne conviennent pas à tous les types de peau.

« Lorsqu’elle entre en contact avec la peau, la glace peut potentiellement endommager la barrière cutanée en raison de sa faible température, ce qui peut être problématique pour les patients dont la peau est déjà sèche et sensible », prévient la dermatologue.

Voici tout ce qu’il faut savoir sur cette méthode mieux connue sous le nom de « ice facials », ou « skin-icing ».

 

GLACE ET INFLAMMATION

S’il est si difficile d’étudier les prétendus bienfaits des soins du visage à la glace, selon la dermatologue Elizabeth Kiracofe, qui tient le cabinet Airia Dermatology à Chicago, c’est notamment parce que ces bienfaits sont très subjectifs. Il est en effet difficile de réaliser une mesure de « l’éclat » de nos joues ou de l’ampleur des poches présentes sous nos yeux.

En outre, les méthodes de soins du visage par la glace sont nombreuses et variées, ce qui rend également leur étude plus difficile : du simple frottement d’un glaçon sur la peau à des traitements coûteux qui ne peuvent être effectués qu’en cabinet par des professionnels de santé agréés, leur coût et leur complexité varient considérablement.

En revanche, ce que les scientifiques comprennent, ce sont les effets de la glace sur le corps.

Lors d’une blessure, le corps réagit généralement en envoyant des cellules spécialisées sur la zone concernée afin d’arrêter le saignement et de commencer à réparer les dégâts. En conséquence, le flux sanguin vers cette zone augmente considérablement et les vaisseaux se dilatent, provoquant ainsi douleur et gonflement. En raison de cet afflux rapide de sang chaud, une blessure peut ainsi être chaude au toucher. La glace, de son côté, provoque le phénomène inverse : la vasoconstriction, un rétrécissement des vaisseaux sanguins.

Les poches sous les yeux ne sont pas le résultat d’une blessure physique aiguë, mais elles aussi découlent d’une vasodilatation et d’un gonflement. Que vous appliquiez la glace sur un genou blessé ou sur votre visage, le principe reste le même, explique Kiracofe. « L’objectif premier est de réduire l’inflammation. »

 

LES AVIS DES EXPERTS

Selon Hadley King, dermatologue à New York et membre de l’Académie américaine de dermatologie, les compresses froides peuvent aider à réduire les poches que vous trouvez occasionnellement sous vos yeux en rétrécissant les vaisseaux sanguins dans la zone affectée.

« En général, elles permettent à la peau de paraître moins rouge et moins bouffie », indique-t-elle.

L’Académie américaine d’ophtalmologie recommande également cette approche, affirmant que l’application d’une compresse froide pendant 15 ou 20 minutes peut réduire le gonflement des yeux. Il est toutefois utile de noter que les médicaments contre les allergies et d’autres approches pharmacologiques peuvent apporter un soulagement plus durable.

Des études ont également démontré que, en resserrant les vaisseaux sanguins, ce type de soin par la glace peut soulager temporairement la douleur et le gonflement associés aux boutons ou aux coups de soleil mineurs, selon Kiracofe. La dermatologue insiste toutefois sur le fait qu’il est important de ne pas laisser la glace sur la peau pendant plus de quelques minutes d’affilée, et ce afin de ne pas endommager la peau ou provoquer d’engelures.

« Bien que je sois d’accord avec l’idée de, par exemple, utiliser un glaçon sur un bouton spécifique pendant une durée limitée, le fait de frotter de la glace sur tout le visage ne devrait pas, selon moi, constituer l’élément de base d’un soin », tempère-t-elle.

Les propriétés exfoliantes constituent un autre avantage de ce type de soin du visage, d’après King. « À chaque fois que l’on exfolie, on obtient une peau fraîche qui paraît plus lumineuse, plus saine et moins pâle. »

Certains cabinets de dermatologie proposent des traitements de cryothérapie, qui consistent à utiliser le froid extrême de l’azote liquide pour geler les lésions cutanées telles que les verrues, des taches cutanées et certains cancers superficiels de la peau. Cette stratégie est très efficace dans le cas de problèmes de peau spécifiques, mais vous ne pouvez et ne devriez pas la reproduire chez vous, soutient Garelik. D’autres cabinets proposent des cryofacials, des soins localisés qui utilisent de l’azote liquide vaporisé pour refroidir la peau à l’extrême ; ils ne constituent pas des traitements officiels, contrairement à la cryothérapie, mais permettent d’obtenir un froid plus intense que celui que l’on peut obtenir chez soi.

Il est néanmoins important de connaître les risques et recommandations avant d’aller dépenser des centaines d’euros pour profiter de ces traitements professionnels en institut.

 

CE QU’IL FAUT SAVOIR AVANT D’ESSAYER

Que vous choisissiez de le faire chez vous ou en institut, selon Garelik, le plus important est de vous assurer que la glace ne soit pas en contact direct avec votre peau. Vous pouvez acheter un rouleau à glace, ou ice roller, ou tout simplement utiliser une serviette en papier ou un gant de toilette. La couche doit être suffisamment fine pour permettre laisser passer le froid, mais suffisamment épaisse pour permettre à la glace de ne pas toucher la peau. Cela vous permettra d’éviter les rougeurs, les sécheresses et les irritations cutanées provoquées par la glace, détaille Kiracofe.

King recommande aux personnes dotées d’une peau sèche ou sensible, ainsi qu’à celles souffrant de rosacée, d’éviter les soins du visage à base de glace, car le froid peut être irritant et provoquer une fragilisation de la peau ainsi que des rougeurs.

Les trois dermatologues soulignent que les soins de la peau par la glace n’ont pas fait l’objet d’essais cliniques formels, ce qui signifie que les scientifiques ne savent pas encore s’ils sont efficaces, ni comment ils fonctionnent. Pour Kiracofe, il s’agit davantage d’un soin destiné à se sentir bien que d’un traitement médical formel. « Si vous l’appréciez et qu’il ne vous fait pas de mal, ne vous empêchez pas de le faire. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Migraines au réveil : ce qui les déclenche et comment les prévenir

Lors de nombreux événements importants de sa vie, de festivals et de cérémonies, y compris son propre mariage, Katyayani Vajpayi, ingénieure logiciel, a souffert de migraines lancinantes. Celles-ci se manifestaient principalement du côté gauche de sa tête, lui donnant des nausées et perturbant sa vision. La douleur est parfois si paralysante qu’elle a envie de rester seule chez elle, recroquevillée dans son lit et plongée dans le noir.

Katyayani Vajpayi n’est pas la seule dans ce cas. Au moins une personne sur dix dans le monde est sujette à des migraines à un moment ou à un autre de sa vie. Ce chiffre est probablement sous-estimé car trois fois plus de femmes que d’hommes et davantage de personnes aux revenus modestes que de personnes aisées en souffrent. Même lorsqu’elles sont prises en charge, les traitements ne sont pas très efficaces, surtout lorsque la migraine a déjà commencé.

« Les maux de tête attaquaient sans crier gare ; j’aurais aimé pouvoir les voir venir », explique Katyayani Vajpayi. « J’aurais pu, au moins, être mieux préparée. »

Aujourd’hui, une nouvelle étude publiée dans la revue Neurology montre que les applications pour smartphone ou les journaux qui permettent de suivre le sommeil, le comportement et les états émotionnels peuvent permettre de prédire les maux de tête chez certains patients. L’étude a révélé que les personnes souffrant d’une migraine au réveil ont fait état d’une baisse d’énergie la veille et d’un sommeil de moins bonne qualité durant cette nuit-là.

« Si les personnes suivent leur niveau d’énergie, leur activité physique et leur sommeil au fil du temps, elles peuvent être en mesure d’identifier le lien éventuel entre certains de ces éléments et les maux de tête », explique Kathleen Merikangas, psychiatre et épidémiologiste à l’Institut national de santé mentale de Bethesda, dans le Maryland, qui a dirigé l’étude.

Cette dernière montre que le suivi du sommeil et d’autres facteurs déclencheurs peut non seulement permettre de prédire les maux de tête chez certaines personnes, mais aussi de mettre au point des outils pour les prévenir.

« Les résultats suggèrent que des changements dans le corps et le cerveau ont déjà lieu avant qu’une personne ne ressente un mal de tête », a écrit dans un billet de blog Monica Bertagnolli, directrice des National Institutes of Health, institutions gouvernementales américaines en charge de la recherche médicale.

 

LA MIGRAINE, UNE MALADIE COMPLEXE

Une migraine est bien pire qu’un mauvais mal de tête. La plupart des personnes touchées ressentent une douleur lancinante fréquente et intense au niveau d’un des deux côtés de la tête. Bien que les migraines puissent survenir à tout moment de la journée, elles se manifestent généralement le matin au réveil. Certaines personnes en souffrent à des moments prévisibles, comme avant les menstruations, après une semaine de travail stressante ou le week-end lorsque les habitudes de sommeil sont perturbées ; d’autres sont frappées par la douleur de manière inopinée.

La première phase de la migraine, appelée prodrome, peut commencer jusqu’à vingt-quatre heures avant le mal de tête à proprement parler. Cette phase prodromique peut être ponctuée de fringales, de changements d’humeur inexpliqués, avec de la dépression ou de l’euphorie, d’un manque de sommeil, de bâillements incontrôlables ou d’une augmentation de la miction.

Chez certaines personnes affectées, des troubles neurologiques appelés « aura migraineuse » peuvent survenir avant ou pendant les migraines. L’aura peut se traduire par des vertiges, des bourdonnements d’oreille, des lignes en zigzag perturbant la vision, des nausées, des vomissements ou une sensibilité à la lumière et au son. Si ce trouble peut être un signe avant-coureur d’une crise de migraine imminente, il peut aussi survenir en même temps que le mal de tête lancinant. Toutefois, les personnes souffrant de migraines ne présentent pas toutes d’aura.

Une fois que la migraine s’est calmée, vient la phase du postdrome, dont l’analogie est faite avec la « gueule de bois ». Cette phase postdromique, qui peut durer de quelques heures à quarante-huit heures, se caractérise par de la fatigue, des difficultés de concentration, des vertiges, de la faiblesse et un manque d’énergie. Pour certaines personnes, le postdrome ressemble à la « gueule de bois » ressentie après avoir bu de l’alcool. Le cycle entier peut se répéter immédiatement après celui-ci. Il arrive aussi qu’une personne ne présente aucun symptôme entre deux crises.

La migraine surviendrait après l’activation anormale d’un nerf spécifique et des vaisseaux sanguins associés à la surface du cerveau mais la cause exacte n’est pas encore connue. Il existe en réalité de nombreux autres facteurs pouvant déclencher la migraine et très peu de traitements sont basés sur un mécanisme spécifique quelconque.

« Si vous identifiez les facteurs de risque qui vous sont propres et que vous adaptez votre mode de vie en conséquence, vous pouvez réduire l’incidence des maux de tête », affirme Donald Penzien, spécialiste des maux de tête et de la douleur à l’école de médecine de l’université Wake Forest de Winston-Salem, en Caroline du Nord.

 

PRÉVENIR LES MAUX DE TÊTE AVEC LE SUIVI DU SOMMEIL

Pour déterminer dans quelle mesure le risque de développer des maux de tête est lié à l’humeur, au sommeil, à la forme ou au niveau de stress d’un individu, les scientifiques ont recruté 477 volontaires à Washington, D.C., et dans les régions avoisinantes. Le groupe de volontaires, âgés de sept à quatre-vingt-quatre ans, comprenait 186 hommes et 291 femmes avec ou sans antécédents de migraine.

À l’aide d’une application pour smartphone, ils ont été invités à suivre leurs maux de tête, leur humeur et leurs niveaux d’anxiété, d’énergie et de stress, quatre fois par jour pendant deux semaines. Chaque matin, les volontaires ont également fait état de la qualité de leur sommeil qui était aussi mesurée à l’aide d’un dispositif portable.

Les scientifiques ont ensuite comparé la première incidence des maux de tête chez les personnes ayant des antécédents de migraines avec celles qui n’en présentaient pas.

L’étude a révélé qu’une personne avait plus de chances de développer un mal de tête au réveil si elle n’avait pas bien dormi ou si elle avait fait état d’une baisse d’énergie la veille.

Cette étude est impressionnante, non seulement par le grand nombre de personnes étudiées à des âges très divers, mais aussi par le pourcentage très élevé d’hommes ayant participé, ce qui est inhabituel par rapport aux nombreuses autres études sur la migraine, déclare Jelena Pavlovic, spécialiste de la migraine au Montefiore Medical Center dans le Bronx, à New York.

À la surprise des auteurs de l’étude, les maux de tête survenant l’après-midi ou le soir n’étaient pas dus à une mauvaise qualité de sommeil ou à une baisse d’énergie la veille. Ils étaient au contraire plutôt liés à des niveaux de stress plus élevés ou à un sursaut d’énergie inhabituel le jour précédent.

« Un sommeil perturbé favorise les crises matinales survenant le lendemain, tandis que des niveaux de stress et d’énergie plus élevés sont susceptibles de provoquer les crises de l’après-midi », explique la spécialiste.

L’étude n’a pas établi de lien entre le sentiment d’anxiété ou de dépression et les maux de tête survenant le lendemain, à condition que le sommeil ou les niveaux d’énergie n’aient pas été perturbés.

L’étude montre que les symptômes de la migraine, en particulier les nausées et les vomissements, peuvent altérer le sommeil. Elle n’a toutefois pas pris en compte certains des facteurs alimentaires et hormonaux qui peuvent déclencher des crises de migraine. Le fait que celles-ci soient également associées à une baisse d’énergie la veille suggère que certains changements physiologiques peuvent se produire avant l’endormissement et induire un sommeil de mauvaise qualité. Cependant, on ignore encore si la perturbation du sommeil est un déclencheur ou un symptôme de la migraine. « Nous procédons actuellement à une surveillance du sommeil par électroencéphalographie, pendant la nuit, pour tenter de répondre à cette question », indique la professeure Merikangas.

L’étude confirme toutefois ce que de nombreuses personnes souffrant de migraines ont appris par expérience : une bonne alimentation, ainsi qu’une hydratation, une activité physique et des horaires de sommeil réguliers peuvent réduire le risque de maux de tête.

« Cette étude réaffirme que l’un des traitements les plus efficaces contre la migraine consiste à effectuer de bonnes nuits de sommeil à horaires réguliers », déclare Jelena Pavlovic. En règle générale, bien que certaines crises de migraine soient inévitables, plus tôt une personne peut traiter ses maux de tête, plus la durée des symptômes sera courte et moins ils seront pénibles, poursuit-elle.

« Si les avantages du suivi et de la prévision des crises de migraine peuvent sembler modestes, ils sont franchement comparables à beaucoup d’autres traitements en termes de prévention ou de réduction de l’apparition des maux de tête », déclare Donald Penzien.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

La vitamine D n’est pas la seule à pouvoir renforcer vos os

En matière de santé des os, beaucoup connaissent l’importance de la vitamine D, qui aide l'organisme à absorber le calcium nécessaire à la solidité du squelette. Cependant, si elle reste la vedette, les chercheurs ont démontré ces dernières années l'importance d'autres vitamines dans la protection contre les fractures et l'ostéoporose, une maladie qui affaiblit les os.

Récemment, un article qui mettait en commun les résultats de nombreuses études de laboratoire et d'observation, ainsi qu'une poignée d'essais cliniques sur l’humain, a révélé des preuves cruciales de l'importance des vitamines A, B, C, E et K.

« Le stade des recherches diffère d'une vitamine à l'autre », mais elles soulignent le fait que la formation des os est un processus complexe qui nécessite de multiples nutriments, déclare Bess Dawson-Hughes, scientifique principale du Centre de recherche nutritionnelle sur le vieillissement de l'université Tufts, qui n'a pas participé à l’analyse mais qui étudie depuis longtemps les effets de la nutrition sur les os.

Si ces vitamines ont leur importance, il n'est pas toujours préférable d'en consommer davantage. La supplémentation en quantités élevées de certaines d’entre elles pourrait en effet compromettre l'os.

Il est conseillé de passer d'un niveau faible à un niveau optimal d’apport de ces vitamines, mais l’augmenter bien au-delà interfère avec le processus de construction osseuse, explique Dawson-Hughes. En outre, les niveaux optimaux n'ont pas encore été déterminés pour les vitamines autres que la vitamine D.

Voilà pourquoi les personnes qui ne souffrent pas de graves carences en vitamines, détectées par des analyses de sang, feraient mieux d’obtenir cet apport par l'alimentation plutôt que par des suppléments, explique Lucette Talamas, nutritionniste à la Baptist Health South Florida à Miami. De cette façon, on évite le surdosage. Ceci est particulièrement important pour les vitamines liposolubles, stockées dans le corps plutôt qu'excrétées, y compris les vitamines A, D, E et K.

L'étude des vitamines chez l’humain peut s’avérer compliqué, car au départ, le niveau sanguin de chaque personne est différent selon le nutriment, explique Dawson-Hughes. Même les recherches sur les suppléments de vitamine D n'ont pas toujours montré qu'ils empêchaient les os de se briser, probablement parce que de nombreux participants avaient des niveaux suffisants de cette vitamine dès le départ.

 

LES OS SONT CONSTAMMENT REMODELÉS

Les os humains se développent essentiellement pendant l'enfance, le squelette s'étirant de cinquante centimètres à un mètre cinquante ou plus à l'adolescence. Même après l'arrêt de la croissance, ils continuent de se renforcer jusqu'à la trentaine. Après cette période, ils sont aussi solides qu’ils ne le seront jamais.

Malgré cela, le squelette reste dynamique tout au long de la vie et subit régulièrement un processus appelé remodelage osseux, qui est déclenché non seulement par des fractures, mais aussi par toutes nos actions quotidiennes qui les sollicitent. 

« Le simple fait de se déplacer sollicite nos os, tout comme le fait d'ouvrir un nouveau placard dans la cuisine ou de pratiquer un nouvel exercice comme la course à pied. Le squelette doit être remodelé pour supporter toute contrainte inhabituelle », explique Clemens Bergwitz, endocrinologue et spécialiste des os à la faculté de médecine de Yale.

Ces mouvements sont détectés par des cellules osseuses appelées ostéocytes, qui sont chargées de préserver la santé des os. Elles convoquent d'autres cellules, les ostéoclastes, qui sécrètent de l'acide qui dissout une partie du calcium de l'os, ce qui incite les ostéoblastes à attirer de nouveaux minéraux dans les espaces alors vacants. Le processus de remodelage osseux prend des mois, comme chaque personne qui s'est déjà fracturé un os a pu en faire l’expérience, explique Bergwitz.

Chaque étape de ce processus nécessite de nombreuses vitamines. 

 

CINQ VITAMINES QUI AMÉLIORENT AUSSI LA SANTÉ DES OS

1) La vitamine A : on la trouve dans les patates douces, les carottes, le melon cantaloup, les légumes verts à feuilles et le lait enrichi.

Des quantités suffisantes d'un métabolite de la vitamine A appelé acide tout-trans rétinoïque, ou trétinoïne, permettent la formation des premiers tissus osseux. La vitamine participe également à la dissolution de l'os lors du remodelage.

L'organisme peut également fabriquer de la vitamine A à partir des caroténoïdes, les pigments jaunes, orange et rouges présents dans les légumes et les fruits. Consommer davantage de ces aliments colorés aide à diminuer le risque de fracture de la hanche chez les hommes, mais, jusqu’à preuve du contraire, pas chez les femmes.

 

2) La vitamine B : on la trouve dans le saumon, le bœuf, le thon, les pois chiches et les produits laitiers, en particulier les vitamines B6, B9 (acide folique) et B12.

Le collagène, que Dawson-Hughes décrit comme « l'épine dorsale de l'os », constitue l’armature fondamentale des os. Il est renforcé lorsque les acides aminés qui le composent se tordent, comme on pourrait le faire avec une corde. Les vitamines B font partie intégrante de ce processus de torsion. Sans elles, « vous n’avez pas de force », dit-elle.

Des études en laboratoire ont montré qu'une carence en vitamine B6 entraînait un dysfonctionnement lors de la formation des os. Des souris femelles génétiquement modifiées et pauvres en vitamine B12 avaient non seulement des os fragiles, mais c’était également le cas de leur progéniture.

On ne sait pas encore exactement comment cela se traduit chez l’humain. Les études concernant les suppléments de vitamines B n'ont pas révélé de réduction des fractures chez les femmes ménopausées, un groupe à haut risque d'affaiblissement osseux suite à la réduction des œstrogènes. Toutefois, il se peut que ces femmes n'aient pas été carencées au moment de l’étude.

 

3) La vitamine C : on la trouve dans les agrumes, les fraises, les tomates, les poivrons, les choux de Bruxelles et le chou frisé.

Elle serait importante à la fois pour la dégradation et la reconstruction des os. Comme les vitamines B, elle joue également un rôle dans la torsion des fibres de collagène des os.

Les scientifiques ont regroupé les résultats de dix-sept études d'observation portant sur près de 20 000 personnes et ont constaté que les personnes qui avaient les apports les plus élevés en vitamine C présentaient 34 % de fractures de la hanche en moins que les personnes dont les apports étaient les plus faibles.

Un faible taux de vitamine C est particulièrement risqué pour les fumeurs. « Ce risque est bien plus élevé chez les fumeurs qui ont un faible taux de vitamine C, mais on ne sait pas exactement pour quelles raisons », explique Dawson-Hughes.

 

4) La vitamine E : on en trouve dans les amandes, les cacahuètes, les graines de tournesol, les épinards et les poivrons rouges.

Cette vitamine agit sur les protéines cellulaires responsables de la dégradation et de la formation des os. Elle agit également comme antioxydant et, selon les recherches, les antioxydants améliorent la communication entre les cellules impliquées dans le développement et la réparation des os.

Des taux sanguins plus élevés d'α-tocophérol, une forme de vitamine E, ont été associés à une densité minérale osseuse plus élevée. En revanche, des taux très faibles entraînent une augmentation de plus de 50 % du risque de fracture de la hanche.

 

5) La vitamine K : on en trouve dans le chou frisé ainsi que dans d'autres légumes verts à feuilles, les avocats, les kiwis, le soja et les graines de citrouille.

Des études en laboratoire montrent clairement que le rôle de la vitamine K est crucial car elle attire et lie le calcium nécessaire à la minéralisation des os.

Des recherches menées chez l’humain ont montré que l'une des trois formes de vitamine K, la K2, avait un effet positif sur la densité minérale osseuse et le risque de fracture. Cependant, des recherches antérieures qui se sont appuyées sur une autre forme, la K1, n'ont pas mis en évidence ces avantages. Des recherches supplémentaires sont nécessaires pour savoir si l'une est vraiment plus bénéfique que l'autre.

 

LA CLÉ POUR DES OS EN BONNE SANTÉ : UN RÉGIME ALIMENTAIRE VARIÉ

Le régime méditerranéen a longtemps été mis en avant dans la prévention de certaines maladies chroniques et pour l'augmentation de la longévité. Il est également bénéfique pour les os. Il s’agit d’une alimentation « très riche en fruits, légumes, céréales complètes, noix et graines, avec des protéines en guise de garniture. »

La meilleure façon de maximiser l'apport en vitamines est de ne pas trop faire cuire les aliments. Cela s’avère particulièrement vrai pour les vitamines sensibles à la chaleur, comme la vitamine A. « Évitez de faire bouillir les aliments ou de les faire cuire à la température la plus élevée », précise Talamas. 

Pour obtenir toutes ces vitamines qui renforcent les os, vous devez manger une grande variété d'aliments. « Diversifier [son alimentation] est important, car les différents nutriments sont présents en différentes quantités dans les aliments », explique Talamas. « Le riz brun, le poulet et le brocoli sont bons pour la santé, mais si vous mangez la même chose toutes les semaines, vous perdez beaucoup de nutriments. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Le chocolat est-il vraiment bon pour la santé ?

Les Mayas aimaient tellement le cacao qu'ils se servaient des fèves comme monnaie d'échange. Ils pensaient également que le cacao était bon pour la santé, une idée encore largement répandue à propos du produit dérivé le plus célèbre du cacao, le chocolat.

Le cacao est l'ingrédient principal du chocolat. Il contient des centaines de composés végétaux bioactifs, dont les flavanols, auxquels on a attribué de nombreux bienfaits potentiels pour la santé.

« La recherche sur les composants bioactifs de la fève de cacao montre de manière assez cohérente qu’une consommation élevée de flavanols influence favorablement les mécanismes liés aux maladies cardiaques », explique Howard Sesso, épidémiologiste à la Harvard T.H. Chan School of Public Health et au Brigham and Women's Hospital. C’est notamment le cas pour la tension artérielle et le taux de cholestérol.

Bien que le cacao ait le potentiel intriguant d’améliorer la santé cardiaque et les fonctions cérébrales, aucune étude scientifique ne soutient la consommation de grandes quantités de chocolat en tant qu'aliment bon pour la santé, malheureusement pour les chocoholiques. On vous explique pourquoi.

 

LE CHOCOLAT EST-IL VRAIMENT BON POUR VOTRE SANTÉ ?

De nombreuses études, inspirées par la popularité du chocolat, ont exploré la manière dont les composés chimiques naturels présents dans le cacao pourraient être bénéfiques pour la santé humaine. Si certaines ont suggéré que moins d'un gramme de chocolat noir pouvait améliorer la santé cardiaque, la plupart des recherches ne portent pas sur la consommation du chocolat à proprement parler, mais plutôt sur ses composants.

En 2022, Sesso et ses collègues ont trouvé des preuves irréfutables des bienfaits des flavanols. Dans le cadre d'un essai clinique portant sur 21 000 adultes, ils ont constaté que la moitié du groupe qui prenait quotidiennement 500 mg de suppléments de flavanols de cacao présentait un risque de décès par maladie cardiovasculaire nettement inférieur à celui des sujets qui avaient pris un placebo. Cette étude sur les compléments COSMOS, bien qu'indépendante, a été en partie financée par Mars Edge, une branche de recherche du fabricant des célèbres barres chocolatées.

Selon certaines études, les flavanols pourraient également augmenter la sensibilité à l'insuline, ce qui pourrait contribuer à réduire le risque de diabète de type 2. Cependant, les résultats ne sont pas concluants, et il est conseillé aux personnes qui présentent un risque de diabète d'opter pour un supplément inspiré du cacao plutôt que de manger du chocolat avec le sucre qu'il contient.

D'autres recherches suggèrent que les flavanols présents dans le cacao ainsi que dans les fruits, les légumes et le thé pourraient ralentir le déclin cognitif lié au vieillissement, voire stimuler les performances cérébrales en améliorant le flux sanguin vers le cortex cérébral. Néanmoins, il reste encore des recherches à mener pour comprendre ces effets.

Ces résultats sont toutefois limités et n’incluent pas forcément le chocolat. Afin d’obtenir 500 mg de flavanols, les participants auraient dû manger plusieurs barres chocolatées pleines de graisse et de sucre par jour et tous les chocolats ne sont certainement pas les mêmes. 

 

QUEL TYPE DE CHOCOLAT EST LE MEILLEUR POUR LA SANTÉ ?

Pour comprendre pourquoi certains types de chocolat sont plus sains que d'autres, il faut d'abord s'intéresser à leur fabrication. Au cours de la production, les fèves de cacao sont séparées en solides consistants, des éclats, et en une partie grasse appelée beurre de cacao. Ce sont dans les parties solides que l’on trouve des composés bénéfiques tels que les flavanols, mais pour produire le chocolat, elles sont mélangées au beurre de cacao ainsi qu’à à du sucre et parfois à du lait.

« Tous les bienfaits pour la santé attribués au chocolat sont dus à sa teneur en cacao », explique Tim Spector, épidémiologiste génétique au King's College de Londres et cofondateur de la société ZOE, spécialisée dans la nutrition personnalisée.

Généralement, le chocolat au lait contient beaucoup moins de ces solides que le chocolat noir, comme en témoigne le goût amer de ce dernier. Dans le cas du chocolat blanc, les solides du cacao sont complètement éliminés, ainsi que les flavanols et autres composés bénéfiques, pour ne laisser que le beurre de cacao, le lait et le sucre, souvent accompagnés d’un soupçon d'arôme de vanille. Le chocolat blanc est une source de sucre, de graisse et de calories, soit peu d’éléments qui pourraient être considérées comme bénéfiques pour la santé humaine.

En règle générale, le chocolat plus noir et plus amer contient donc davantage de cacao bénéfique, ce qui est généralement indiqué sur les étiquettes. Cependant, Sesso précise qu’on ne peut pas se fier uniquement à cela.

« Ce n'est pas parce qu'un produit est indiqué comme contenant 80 % de cacao qu'il est bon pour la santé », explique-t-il. « Comme pour beaucoup d'autres aliments, et pas seulement le cacao, sa transformation, du début à la fin du processus, peut profondément influencer les nutriments ou les éléments bioactifs qu'il contient », ajoute-t-il.

Les fèves de cacao peuvent perdre leurs composés bénéfiques lorsqu'elles sont fermentées et séchées, par exemple, et leur teneur est encore réduite lors de la torréfaction et d'autres processus de production du chocolat. Les fèves brutes de cacao peuvent notamment être réduites en poudre d'une manière qui peut avoir une incidence sur leur contenu actif. 

Tim Spector ajoute que de nombreux produits des marques les plus populaires sont ultra-transformés, riches en sucre, émulsifiants et arômes artificiels, avec peu de cacao bénéfique. « Dans ces cas-là, les effets négatifs sur la santé l'emportent sur les avantages », explique-t-il. « Lorsque vous optez pour du chocolat peu transformé contenant au moins 70 % de cacao, vous bénéficiez des bienfaits associés au cacao avec peu d'inconvénients. »

 

CACAO EN POUDRE ET ÉCLATS DE CACAO

Les boissons à base de poudre de cacao étaient populaires chez les Mayas. Selon Howard Sessos, ce type de breuvage est « probablement une meilleure source des effets bénéfiques de la fève de cacao que le chocolat ».

Il ne faut cependant pas confondre ces poudres avec le chocolat chaud. Les poudres de cacao non sucrées et amères, couramment utilisées pour la pâtisserie, contiennent de très grandes quantités de cacao, jusqu'à 100 %. Les poudres utilisées pour le chocolat chaud contiennent généralement beaucoup moins de vrai cacao et sont chargées en grandes quantités de lait en poudre et de sucre.

Par ailleurs, les éclats de cacao constituent également une bonne source de composés bénéfiques présents dans le cacao, car il s'agit littéralement de petits morceaux de la fève de cacao, rien d'autre. Ces éclats, qui peuvent être mélangés à des granolas ou à des smoothies, présentent un autre avantage pour la santé : ils contiennent de grandes quantités de fibres qui favorisent la digestion.

En fin de compte, explique Howard Sesso, notre envie collective de vanter les bienfaits du chocolat pour la santé « ne tient pas compte du fait que ce n'est pas le chocolat qui est bon pour la santé, mais ce qu'il contient ».

« Si vous aimez le chocolat avec modération, vous devriez bien sûr en consommer », ajoute-t-il, « mais vous ne devriez pas en manger simplement pour ses bienfaits pour la santé. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Comment réagit votre corps quand vous avez le cœur brisé ?

Que l’amour soit au programme ou non pour vous en cette Saint-Valentin, votre cerveau est constamment en train d’essayer de récompenser le fait que vous vous investissiez dans des interactions sociales ou de vous motiver à vous rapprocher d’autrui quand les liens humains se font plus rares.

Qu’il s’agisse d’un amour platonique ou romantique, il est impossible de contourner le besoin du corps d’avoir des interactions d’humain à humain.

« L’amour est une nécessité biologique aussi vitale au bien-être d’une personne que l’eau fraîche, la nourriture et l’exercice physique », observe Stephanie Cacioppo, neuroscientifique à l’Université de l’Oregon et autrice du livre Wired for Love : A Neuroscientist’s Journey Through Romance, Loss, and the Essence of Human Connection.

Bien que l’on en attribue généralement tout le crédit au cœur, la plupart des bienfaits associés à l’amour trouvent leur origine dans le cerveau, que l’évolution a programmé pour produire et sécréter des hormones quand nous éprouvons de l’attirance, de l’affection et de l’attachement.

« Du fait qu’il soit si important pour notre santé, pour notre bien-être et pour la reproduction, l’amour ne saurait être confié à l’apprentissage », explique Sue Carter, directrice émérite de l’Institut Kinsey, dans l’Indiana, et biologiste renommée spécialiste de l’étude de la création des liens sociaux.

Comprendre comment les signaux sont reçus et transmis par le cerveau ainsi que ce qui se produit lorsque ces signaux s’amenuisent peut s’avérer utile lorsque l’on cherche à se frayer un chemin dans les mondes de l’amitié, de l’amour, de la peine de cœur et du deuil.

 

LE RÔLE DES HORMONES

L’esprit et le corps mobilisent un vaste réseau de neurotransmetteurs et de messagers chimiques moléculaires pour coordonner différentes fonctions et influencer nos émotions. Ces messagers chimiques, les hormones, font partie du système endocrinien du corps. Les hormones endocrines sont reliées par d’importantes structures cérébrales telles que l’hypothalamus, l’hippocampe, l’amygdale, le thalamus, les ganglions de la base et le gyrus cingulaire.

Ensemble, ces structures constituent le système limbique, l’une des plus anciennes régions du cerveau du point de vue de l’évolution. C’est là que les souvenirs sont consignés et que les odeurs sont traitées. C’est aussi la principale région du cerveau impliquée dans l’attraction et dans l’affection.

Cela permet à diverses hormones « de renforcer notre désir de nous présenter après un simple regard, de réduire nos craintes d’être vulnérables quand nous rencontrons un nouveau partenaire pour la première fois […] et de développer l’impression que nous sommes des âmes sœurs au fil du temps », indique Cynthia Kubu, neuropsychologue du Centre de rétablissement neurologique de la Cleveland Clinic, dans l’Ohio.

 

LES SEPT HORMONES DE L’AMOUR

Sept hormones jouent un rôle particulièrement important dans les émotions que nous associons à l’amour. Ces composés chimiques sont les suivants :

1) L’ocytocine, qu’on appelle « hormone de l’amour », car elle aide à forger des liens sociauxaccroît la confiance et renforce les sentiments d’attraction, est la première. Elle est libérée lorsque deux personnes prennent part à une conversation, se touchent, jouent ensemble ou s’impliquent dans d’autres formes d’interactions importantes.

« L’ocytocine accroît nos sentiments de liaison, d’attachement et de dévouement vis-à-vis de quelqu’un », explique Theresa Larkin, maître de conférences en sciences médicales à la Faculté de médecine de l’Université de Wollongong, en Australie.

Cependant, il a été prouvé que l’ocytocine peut parfois influencer négativement les souvenirs que l’on a de personnes chères à notre cœur. Cette hormone possède donc aussi un côté sombre.

 

2) La vasopressine suscite des sentiments enthousiastes associés à l’amour que l’on éprouve pour une autre personne. Elle est stimulée par certains des comportements à l’origine de la libération de l’ocytocine, mais certaines études montrent qu’elle est également produite lorsque l’on est confronté à une menace ; nous nous sentons alors plus protecteurs des personnes qui nous sont chères. À cet égard, des recherches montrent que ce composé chimique peut également être responsable de la possessivité ou de la jalousie, des émotions qui peuvent être tempérées par la libération d’ocytocine.

« L’ocytocine et la vasopressine effectuent une sorte de danse dynamique qui permet d’expliquer en partie les bénéfices et les coûts associés à divers aspects de l’amour », explique Sue Carter.

 

3) La dopamine figure au rang des hormones du bien-être et de la récompense les plus étudiées. Elle est activée par des choses qui nous font nous sentir bien : nourriture, exercice physique ou drogues. Un afflux de dopamine accompagne souvent les couples qui s’embrassent ou qui ont une relation sexuelle.

« Quand la dopamine est sécrétée, elle active les circuits de la récompense qui suscitent une "ivresse" amoureuse et elle accroît notre désir et notre motivation à être avec la personne qui est l’objet de notre affection », décrit Theresa Larkin. Cette réaction est si forte qu’on a pu la comparer à l’euphorie procurée par une drogue aussi puissante que la cocaïne.

4 et 5) La testostérone et l’œstrogène, nos « hormones sexuelles », jouent le rôle important de donner envie aux couples de se reproduire et sont responsables de « notre désir élémentaire humain d’avoir des relations sexuelles », ainsi que le formule Theresa Larkin. Selon elle, il s’agit également des hormones les plus souvent associées à la passion ou au désir sexuel. Une autre façon d’envisager cela est de considérer que ces hormones nous motivent à prendre part à une relation sexuelle, tandis que la dopamine récompense l’acte en lui-même.

 

6) La noradrénaline suscite des réactions physiologiques quand nous rencontrons une nouvelle personne ou que nous tombons amoureux : cœur qui bat la chamade, énergie accrue, paumes moites, etc… Cette hormone est également associée à la conservation des souvenirs, raison pour laquelle les couples capables de se souvenir de leurs amours naissantes comme si c’était hier sont légion.

 

7) La sérotonine est l’un des quelques composés chimiques dont il a été prouvé qu’il diminue lors de certains stades de l’attirance. Ces taux plus faibles sont similaires à ceux des individus vivant avec un trouble obsessionnel compulsif (TOC). Sandra Langeslag, neuroscientifique spécialiste du comportement de l’Université du Missouri - Saint-Louis, a publié des recherches à ce sujet et, selon elle, cela montre que « les personnes qui sont amoureuses et les patients souffrant de TOC se ressemblent en ceci qu’ils ont, les uns comme les autres, des obsessions. »

Bien que différentes activités puissent entraîner la libération de n’importe lequel de ces composés chimiques, les hormones ne sont pas toujours sécrétées isolément et de nombreux facteurs peuvent entraîner la production de plus d’un composé chimique à la fois. La dopamine et la sérotonine contribuent par exemple toutes deux aux pensées obsessionnelles.

« L’amour est un phénomène multi-sensoriel excessivement complexe qui implique l’ensemble de nos sens et qui affecte le cerveau de façons nombreuses et mystérieuses », souligne Jacquie Olds, maître de conférences en psychiatrie clinique à la Harvard Business School.

 

LES BIENFAITS DE L’AMOUR POUR LA SANTÉ

Qu’importent la raison pour laquelle les hormones de l’amour sont libérées et le moment auquel cela survient, chaque composé chimique est associé à différents bienfaits pour la santé mentale et physique.

« Quand le réseau de l’amour est activé, il déclenche les centres de récompense du cerveau, ce qui libère en cascade des hormones, des substances neurochimiques et des opioïdes naturels qui nous rendent heureux et aident également notre corps à guérir et notre esprit à affronter la douleur », explique Stephanie Cacioppo.

Connaître l’amour dans sa vie a des bienfaits avérés : réduction du stressamélioration du sommeilamélioration du système immunitaire, atténuation de la douleur (la recherche montre que le fait d’avoir plus d’ocytocine dans le sang favorise la guérison), diminution de la dépression, amélioration des compétences en résolution de problèmesamélioration de la fonction cognitive et même prolongation de la durée de vie.

Selon Sue Carter, les relations stables, qu’elles soient de nature romantique ou non, « engendrent des états biologiques promouvant la relaxation, la croissance et le rétablissement. « Tout au long de la vie, l’établissement de relations aimantes est crucial à la bonne santé. »

 

POURQUOI VOUS ÊTES AVEUGLÉ PAR L’AMOUR

Les différentes étapes d’une relation sont susceptibles de procurer des bienfaits différents. Des recherches montrent que certaines hormones sont plus abondantes lorsque l’amour est naissant, tandis que d’autres hormones comportent des bienfaits à long terme.

Par exemple, la noradrénaline est sécrétée plus souvent au début de la relation d’un couple alors que de nombreuses inconnues subsistent, ce qui place le cerveau en mode « avancer avec prudence ».

« Au début d’une relation, le taux d’adrénaline est élevé, ce qui a pour effet d’engendrer des émotions telles que le fait d’avoir des papillons dans le ventre mais aussi d’accélérer le rythme cardiaque. Il y a également une activité réduite dans les régions du cerveau qui nous aident à effectuer des jugements, ce qui explique pourquoi l’on peut être ‘aveugle’ aux défauts d’une autre personne lorsque l’amour ou la passion sont naissants », explique Lucy Brown, enseignante clinicienne en neurologie à la Faculté de médecine Albert-Einstein, à New York.

Selon Lucy Brown, à mesure que cette relation s’étoffe et que le niveau de dévouement augmente, la forte passion initiale, récompensée par la dopamine, est en partie remplacée par les effets d’autres hormones.

« L’ocytocine joue un rôle plus important dans le maintien de relations à long terme », explique-t-elle. Elle contribue également aux sentiments de sérénité et de sécurité une fois que l’incertitude et les craintes de se faire du mal diminuent. La vasopressine joue un rôle similaire dans les relations de long terme. Elle promeut le dévouement et renforce un certain sentiment de protection et de fierté vis-à-vis de nos propres relations.

 

QUE SE PASSE-T-IL LORS D’UNE RUPTURE AMOUREUSE ?

Si les bienfaits de ces hormones pour la santé mentale et physique sont importants, « le fait d’avoir des réponses émotionnelles a pour nous un prix lorsque nous perdons nos compagnons », observe Sue Carter.

La rupture peut se traduire par la disparition d’un flux constant d’hormones du bien-être telles que la dopamine et l’ocytocine et, dans le même temps, par l’augmentation de sentiments dus aux hormones du stress, comme le cortisol et la norépinéphrine.

« Une rupture nous prive soudainement des neurotransmetteurs auxquels nous nous sommes accoutumés, commente Jacquie Olds. Comme pour un toxicomane qui a horreur du manque, une mauvaise rupture peut entraîner une détresse énorme. »

Pour certaines personnes, cela peut même se traduire par un malaise physique.

« Une rupture engendre une réaction de stress dans le corps et dans le cerveau, et le cerveau réagit comme s’il y avait un stimulus physique douloureux », explique Lucy Brown. Un désir soudain s’ensuit souvent également, un désir similaire à celui du toxicomane en manque. « Vous cherchez la personne qui n’est plus là, les émotions positives que vous associiez autrefois à l’être aimé, explique Stephanie Cacioppo. Voilà à quoi ressemble une peine de cœur ou un amour non réciproque. »

Selon Cynthia Kubo, ces sentiments de deuil ou de nostalgie peuvent se traduire par une perte d’appétit, des variations de poids, un sommeil perturbé, de l’anxiété ou une dépression.

Les sentiments de ce type peuvent se voir amplifiés considérablement si un partenaire meurt. Dans d’extrêmes cas, cela peut être mortel pour la personne en deuil.

« L’ocytocine a un rôle crucial dans la protection de l’ensemble des tissus, mais c’est encore plus vrai pour le cœur », affirme Sue Carter.

L’interruption brutale d’un flux d’ocytocine avec la mort d’un proche peut entraîner une réaction cardiovasculaire. Pour de nombreuses personnes, cela, en plus de la libération d’hormones du stress qui accompagnent la disparition soudaine, peut faire augmenter fortement la tension artérielle et le rythme cardiaque et provoquer des difficultés à respirer.

Bien qu’il s’agisse là des pires manifestations physiques possibles pour la plupart des personnes, les individus souffrant d’une comorbidité cardiaque « pourraient risquer de subir une crise cardiaque », prévient Theresa Larkin. Entre alors en ligne de compte une rare maladie connue sous le nom de syndrome du cœur brisé.

« Une étude avant-gardiste sur le chagrin, réalisée dans les années 1960, s’est penchée sur 4 486 veufs et veuves de Grande-Bretagne, révèle Stephanie Cacioppo. Durant les six mois qui suivent immédiatement la perte de leur époux ou de leur épouse, ces personnes couraient 40% de risques en plus de mourir qu’une personne mariée du même âge. »

Heureusement, les pires issues possibles corrélées à la séparation d’avec un être aimé, que ce soit par le biais d’une rupture ou d’une mort, s’atténuent avec le temps et à mesure que nous forgeons et renforçons de nouveaux liens.

« Quand les liens sociaux sont rompus par la séparation ou la perte d’un partenaire, le système nerveux a besoin de temps pour se rééquilibrer et s’ajuster, explique Sue Carter. Nous pouvons littéralement éprouver la douleur d’une relation perdue pour toujours, mais en se formant, les nouveaux liens peuvent aider à guérir la douleur émotionnelle associée au deuil. »

Prendre soin de soi peut également aider à guérir. « Après les premiers jours ou semaines, qui sont les plus durs, il est important de faire des choses que vous appréciez pour réduire vos hormones du stress et accroître vos hormones de l’amour », conseille Theresa Larkin.

 

QUE FAIRE SELON L’ENDROIT OÙ VOUS EN ÊTES

Il peut également être utile de prendre conscience de l’endroit où vous en êtes et, pourquoi pas, d’élargir votre zone de confort afin de forger des liens plus profonds avec des proches qui sont déjà là ou avec de nouvelles personnes.

Si vous êtes dans une relation qui semble manquer d’amour et être dépourvue des hormones du bien-être censées l’accompagner, Sandra Langeslag conseille de passer plus de temps avec votre partenaire, de vous focaliser sur ses qualités et sur vos souvenirs heureux ensemble ou d’avoir des relations intimes afin de déclencher la sécrétion de ces composés chimiques et d’améliorer les liens qui vous unissent.

Selon Theresa Larkin, si vous n’êtes pas actuellement en couple, les hormones associées à l’amour peuvent tout de même être déclenchées en passant des moments privilégiés en famille et entre amis, à se faire des câlins, à profiter de la nature et même à interagir avec vos animaux de compagnie à la maison.

La seule chose que vous ne devriez pas faire est d’épouser l’idée d’une vie d’isolement. À l’instar de nombreux autres mammifères, les humains n’ont pas évolué pour vivre en tant que créatures solitaires. « L’amour n’est pas une option. Ce n’est pas une chose dont nous pouvons nous passer, prévient Stephanie Cacioppo. L’amour est une nécessité biologique. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Cancer de la peau : comment expliquer la hausse inquiétante des mélanomes ?

Alors que le nombre de patients atteints d’un mélanome a fortement augmenté au fil des années, le taux moyen de mortalité reste stable, signe d’un surdiagnostic plutôt que d’une épidémie de cancers de la peau.

Chaque année, plus de 15 000 nouveaux cas sont diagnostiqués en France. Le mélanome cutané est même le premier des cancers en termes d’augmentation de fréquence. Chez l’homme, le nombre de cas incidents de mélanome cutané a été multiplié par cinq (+371 %) entre 1990 et 2018. Chez la femme, il a été multiplié par trois (+189 %) entre 1990 et 2018.

Selon les spécialistes, cette augmentation résulte d’un surdiagnostic de ce cancer, et non pas de risques environnementaux accrus ou d’un dépistage plus poussé. Une étude parue récemment dans la revue BMJ Evidence-Based Medicine vient étayer la théorie selon laquelle la plupart des patients reçoivent des diagnostics de mélanome inutilement. Elle suggère qu’il y aurait peu de chances que les cellules cutanées prélevées lors d’une biopsie et paraissant anormales au microscope occasionnent des problèmes de santé actuels ou futurs.

« Beaucoup de personnes ne saisissent pas à quel point il y a un surdiagnostic du mélanome. C’est assez inquiétant », explique Adewole Anderson, auteur principal de l’étude et dermatologue à l’école de médecine Dell de l’université du Texas. « On détecte des tumeurs totalement bénignes. »

En comparant le taux moyen de mortalité au risque de se voir diagnostiquer un mélanome au cours de leur vie, les chercheurs de cette étude - qui se concentrait sur des sujets américains - ont conclu que le surdiagnostic de ce cancer concernait 65 % des femmes blanches et 50 % des hommes blancs. L’étude ne portait que sur des personnes blanches, plus enclines à développer la maladie.

L’étude révèle que la plus grande catégorie de surdiagnostics (plus de 85 %) concernait les grains de beauté les plus fins situés sur la couche supérieure de la peau, connus comme des cancers de stade 0 ou in situ.

Selon une étude publiée il y a plusieurs années, les surdiagnostics constituent l’un des problèmes les plus préjudiciables et coûteux en médecine. Ils donnent lieu à des traitements inutiles qui, outre l’aspect financier, laissent des séquelles. Les patients atteints d’un cancer de la peau peuvent se voir refuser une assurance-vie. Ils vivent aussi souvent en permanence avec le sentiment d’avoir une épée de Damoclès au-dessus de la tête.

« Les patients parlent de leur peur de mourir, de s’exposer au soleil, de récidive. Certains prennent des décisions radicales, qu’il s’agisse de se marier ou d’avoir des enfants », rapporte Adewole Anderson. « Nous faisons du mal à un nombre important de personnes. »

 

DES CANCERS QUI N’EN SONT PAS

Les mélanomes sont la forme de cancer de la peau la plus dangereuse, car ils peuvent se propager à l’ensemble du corps s’ils sont à un stade avancé et peuvent, dans un faible pourcentage de cas, être mortels.

Lorsqu’un dermatologue remarque des grains de beauté suspects sur la peau d’un patient, il effectue une biopsie et envoie le prélèvement à un pathologiste, qui observe les cellules à l’aide d’un microscope à fort grossissement. S’il s’avère que celles-ci sont cancéreuses, le patient retourne chez son médecin pour se faire retirer la tumeur et une petite zone autour de cette dernière.

« C’est un acte plus invasif, qui laisse une cicatrice plus importante » qu’un simple prélèvement par biopsie, indique Nicholas Gulati directeur de la clinique pour la détection précoce du cancer de la peau de l’école de médecine Icahn de l’hôpital Mont Sinaï, à New York.

Dans la plupart des cas, le diagnostic d’un mélanome est une question d’appréciation du pathologiste.

« Sous le microscope, tous les systèmes organiques, pas seulement la peau, présentent des caractéristiques qui font penser à un cancer », mais qui n’en sont pas forcément un, précise Earl Glusac, chercheur en dermatologie au Yale Cancer Center, qui avait partagé ses craintes quant au surdiagnostic des mélanomes il y a plus de dix ans.

Dans un article de synthèse, des chercheurs avaient alors conclu que les procédures existantes ne permettaient pas de faire correctement la distinction entre des excroissances cutanées bénignes et malignes. Bon nombre d’entre elles ne présentent aucun danger, comme cela a été documenté dans une étude parue en juin, qui concluait que les personnes souffrant d’un mélanome in situvivent en réalité plus longtemps que celles sans diagnostic, ce qui indique « un dépistage important des maladies à faible risque parmi les patients ».

Pour le chercheur en dermatologie, l’augmentation des surdiagnostics de mélanomes de stade précoce s’explique par la hausse du nombre de personnes qui réalisent un dépistage des cancers de la peau. Plus il y a de grains de beauté à examiner, plus ces derniers sont nombreux à tomber dans la « zone grise ». À cela s’ajoute aussi, sans que l’on sache vraiment pourquoi, le changement de la taille des grains de beauté faisant l’objet d’une biopsie. Alors que les dermatologues n’effectuaient auparavant des prélèvements que pour les grains de beauté de la taille d’une pièce de dix centimes minimum, ils réalisent désormais des tests pour ceux ne mesurant qu’un cinquième de cette taille.

Earl Glusac attire également l’attention sur le fait que les pathologistes, afin de se protéger en cas de faute professionnelle, identifient des lésions précoces comme des mélanomes. Ce type de cancer est l’un de ceux qui font l’objet du plus grand nombre de poursuites.

« Aucun dermatologue ne veut voir quelqu’un présentant une excroissance qui pourrait être un mélanome ressortir de leur cabinet sans qu’un prélèvement ait été effectué », ajoute le chercheur en dermatologie. « Et aucun pathologiste ne veut passer à côté d’un mélanome, car le patient pourrait mourir de cette erreur. »

 

UNE FRÉQUENCE DE DÉPISTAGE QUI VARIE

Aucun essai clinique n’a été réalisé pour documenter l’efficacité du dépistage pour la détection de cancers précoces chez l’ensemble des patients. En avril dernier, un groupe de spécialistes de l’U.S. Preventive Services Task Force s’est prononcé contre le dépistage régulier du cancer de la peau pour tous.

Pourtant, certaines organisations comme la Skin Cancer Foundation préconisent des dépistages annuels. Composée de professionnels de la santé, l’American Academy of Dermatology, n’a pas pris position sur la question, mais encourage ses membres à effectuer des dépistages périodiques parmi la population.

Les médecins sont d’accord sur un point : il faut s’examiner régulièrement et consulter un dermatologue uniquement lorsque des grains de beauté apparaissent, changent d’apparence, démangent ou saignent. Faire une biopsie de ces excroissances est essentiel, car le médecin ne peut pas dire s’il s’agit d’un cancer invasif juste en les regardant, souligne Nicholas Gulati.

Pour Adewole Anderson, les dermatologues doivent être honnêtes avec leurs patients quant au manque de connaissances sur l’efficacité des dépistages complets. Il souhaite également que soit réalisé un essai clinique à grande échelle à long terme, qui suit des patients qui se font dépister et d’autres qui ne le font pas afin de déterminer si cette procédure présente des avantages pour la santé dans le diagnostic et le retrait des cancers de stade 0.

« Nous ne devrions pas faire la promotion du dépistage du mélanome chez des personnes qui n’en présentent aucun symptôme », estime-t-il. « On incite au dépistage précoce de ces mélanomes, ce qui a pour conséquence involontaire les surdiagnostics. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Ce que votre âge biologique révèle sur votre santé

Des chercheurs chinois ont mis au point un outil qui utilise l’intelligence artificielle (IA) pour analyser des images du visage, de la langue et de la rétine afin de déterminer l’âge biologique d’un individu. Cette technologie offre un aperçu de la santé et de l’état de nos cellules, tissus et organes, et de notre prédisposition à développer certaines maladies chroniques.

S’il suffit de jeter un coup d’œil sur un permis de conduire pour connaître l’âge civil de son propriétaire. L’âge biologique est quant à lui plus difficile à déterminer. Contrairement à l’âge chronologique, il n’existe pas de mesure universellement reconnue de l’âge biologique, lequel peut être influencé par l’environnement, les choix de vie personnels et la génétique. Un fumeur, par exemple, peut paraître bien plus âgé qu’il ne l’est vraiment, quand un grand sportif pourra avoir l’air beaucoup plus jeune. Et la différence dépasse l’aspect physique : si votre âge biologique est supérieur à votre âge civil, vous pourriez souffrir d’une maladie chronique ou d’un déclin cognitif prématuré. En revanche, si vous êtes plus jeune d’un point de vue biologique que votre âge réel, vous pourriez être en meilleure forme que vos pairs.

« Il est important de connaître son âge biologique, car s’il est trop élevé, on peut agir en conséquence et modifier son mode de vie pour améliorer sa santé », explique Michael Snyder, généticien à Stanford, qui n’a pas participé à l’étude.

Les premières versions des horloges du vieillissement, ces modèles qui mesurent l’âge biologique, ont calculé ce chiffre en examinant dans différents tissus les schémas de méthylation de l’ADN (des marques chimiques sur l’ADN qui contrôlent l’activation et la désactivation des gènes), qui changent au fil du temps. D’autres horloges ont mesuré les quantités de divers marqueurs comme les protéines de l’inflammation ou des marqueurs métaboliques comme la glycémie, testés fréquemment lors d'examens médicaux annuels. Plus récemment, les scientifiques ont conçu des horloges qui utilisent des images 3D du visage, des scanners du cerveau ou les niveaux de protéines dans le sang pour déterminer l’âge biologique d’une personne.

Toutes ces méthodes permettent de détecter ce qui change avec l’âge, qu’il s’agisse des rides dessinées sur la peau ou de la probabilité croissante de développer une maladie liée à l’âge, comme le diabète. Mais le vieillissement est un processus complexe, qui affecte divers systèmes organiques de multiples façons.

Utiliser un seul type de mesure pour définir l’âge biologique revient à essayer de comprendre ce qu’est un éléphant en ne touchant que sa trompe, explique Kang Zhang, médecin-chercheur à l’université des sciences et technologies de Macao et coauteur de l’article, publié dans la revue PNAS en janvier.

Au lieu de cela, Zhang et ses collaborateurs ont créé une image « holistique » de l’âge biologique à l’aide d’un modèle d’intelligence artificielle qui, à partir d’images du visage, de la langue et de la rétine, calcule un âge correspondant. Cette méthodologie, similaire à celle qui alimente ChatGPT, « surpasse la capacité humaine à prédire l’âge, car elle passe en revue de vastes quantités de données et découvre des connexions invisibles », explique Zhang.

« J’ai été à la fois impressionné par la conception technique de leur expérience d’apprentissage profond et par la conception expérimentale et les ensembles de données qu’ils ont utilisés ; les résultats sont tout à fait convaincants », déclare James Cole, neuroscientifique à l’University College de Londres, qui n’a pas participé à l’étude.

 

APPRENTISSAGE PROFOND ET ÂGE BIOLOGIQUE

Présentée dans un article de Google en 2017, cette technologie d’IA appelée transformateur a d’abord été utilisée pour créer des programmes capables d’imiter le langage humain, comme ChatGPT. Contrairement aux anciens modèles d’IA, les transformateurs traitent des séquences entières de texte en une seule fois et non de manière séquentielle, ce qui les rend plus aptes à détecter des schémas et à comprendre le contexte.

Rapidement, les chercheurs ont transposé cette approche à l’analyse d’images, où elle a révolutionné les tâches de vision par ordinateur, tout comme elle l’avait fait pour le traitement du langage naturel. Certains transformateurs, dont celui utilisé dans cette étude, appliquent une nouvelle technique qui consiste à analyser des images à différentes résolutions pour en extraire des détails plus ou moins subtiles.

Toutefois, pour opérer, les transformateurs ont besoin de beaucoup de données.

« Ce n’est pas un problème pour le langage, puisqu’il existe énormément de langues, mais pour les images médicales, il est beaucoup, beaucoup plus difficile » de trouver des exemples suffisants, explique Cole, dont les recherches appliquent des techniques d’IA aux scanners cérébraux pour étudier la relation entre le vieillissement et les maladies neurodégénératives. « C’est formidable que ce groupe de chercheurs ait réussi à avoir accès à des dizaines de milliers de personnes pour cette étude » ajoute-t-il.

Comme pour de nombreux modèles d’IA, la traduction des résultats du modèle en termes compréhensibles par l’Homme peut constituer un point d’achoppement.

« Le modèle est subtil et examine des différences au niveau des pixels, que nous ne pourrons pas détecter », explique Zhang. Cela dit, leurs analyses semblent suggérer que le centre de la langue (images de la langue), la région autour des yeux (images du visage) et les sites à l’arrière du globe oculaire où les vaisseaux sanguins sont les plus denses (images de la rétine) sont des reflets importants du vieillissement biologique.

 

VISAGES, LANGUES, RÉTINES 

Pour commencer à créer un outil capable de déterminer l’âge biologique, les chercheurs ont entraîné le modèle à l’aide d’images du visage, de la langue et de la rétine de 11 223 personnes du nord de la Chine, chez qui l’âge biologique était supposé être égal à l’âge civil parce qu’il s’agissait d’individus en bonne santé. Cela représente 300 millions de variables, une goutte d’eau par rapport à ChatGPT4, qui compte un trillion de paramètres.

Nos prédictions de l’âge chronologique, en tant qu’indicateur de l’âge biologique chez les personnes en bonne santé, « sont plus précises (à un an près) que celles d’autres horloges du vieillissement » qui n’utilisent qu’une seule mesure, affirme Zhang.

Comme dans l’histoire de l’éléphant, les informations fournies par chaque modalité reflètent une facette différente du vieillissement.

Les rides du visage, par exemple, sont la marque de facteurs environnementaux tels que l’exposition au soleil et la pollution, tandis que l'amincissement de la rétine (une partie du système nerveux central) et les vaisseaux sanguins endommagés reflètent la santé du cerveau et du système circulatoire. La forme et l’enduit de la langue, quant à eux, donnent des indices sur notre microbiome et notre santé intestinale. Dans le cadre de ces recherches, les participants à l’étude ont été suivis pendant cinq ans au moyen de bilans de santé réguliers, comprenant des analyses de sang et d’urine, des questionnaires sur leur mode de vie et des examens médicaux.

Une fois son horloge biologique mise au point, l’équipe de Zhang a testé son modèle sur des individus en mauvaise santé souffrant de maladies chroniques comme le diabète et certaines cardiopathies, issues de la même population du nord de la Chine que celle ayant servi à développer le modèle ; elle a également inclus des personnes d’une autre région du sud de la Chine.

Comme prévu, chez les individus en bonne santé, l’âge biologique se rapprochait étroitement de l’âge chronologique. Mais si un individu avait de mauvaises habitudes telles que le tabagisme et une vie sédentaire ou souffrait d’une maladie chronique, son âge biologique avait tendance à être plus élevé que son âge chronologique. Cette différence, baptisée « AgeDiff », allait d’une moyenne de 3,16 ans pour les personnes souffrant d’une cardiopathie chronique à 5,43 ans pour les fumeurs.

 

DIFFÉRENCE ENTRE L’ÂGE BIOLOGIQUE ET L’ÂGE CHRONOLOGIQUE : QUELLES CONSÉQUENCES ?

Pour déterminer en quoi le fait d’être plus âgé d’un point de vue biologique augmente le risque de développer six maladies courantes liées au vieillissement (cardiopathie chronique, maladie rénale chronique, maladie cardiovasculaire, diabète, hypertension et accident vasculaire cérébral), les chercheurs ont réparti les 11 223 personnes en quatre groupes, allant d’un AgeDiff élevé à un AgeDiff faible. Les personnes à l’AgeDiff élevé étaient plus susceptibles de développer l’une de ces maladies chroniques, et plus l’AgeDiff était élevé, plus le risque était important. 

Au-delà du risque de développer une maladie, Zhang s’est également intéressé à ce que l’AgeDiff pouvait nous apprendre sur le moment d’apparition de la maladie ; en d’autres termes, un diabète sera-t-il diagnostiqué cette année ou dans cinq ans ? Connaître une telle date « pourrait s’avérer très utile pour planifier des interventions », déclare Zhang.

L’équipe de Zhang a découvert que l’AgeDiff était un meilleur indicateur d’apparition des maladies que des mesures plus traditionnelles telles que la glycémie, l’IMC et le cholestérol. Et si l’on combine l’AgeDiff avec ces autres facteurs, la prévision est d’autant plus précise. Sans surprise, les chercheurs ont également constaté que des valeurs anormales de l’IMC et de la tension artérielle étaient associées à des AgeDiff plus élevés.

 

L’AVENIR DES HORLOGES BIOLOGIQUES

Actuellement, Zhang et son équipe utilisent l’AgeDiff pour identifier les personnes présentant un risque élevé de développer des maladies chroniques et pour prescrire des interventions à chacun de ces patients. En ciblant des paramètres de santé étroitement liés à l’AgeDiff comme la tension artérielle et la glycémie, par exemple, ils espèrent retarder systématiquement l’apparition des maladies liées au vieillissement.

Ils affinent également leur modèle, en intégrant d’autres variables telles que la méthylation de l’ADN et en introduisant des sujets expérimentaux issus d’autres groupes ethniques.

Des outils comme l’AgeDiff pourraient démocratiser la médecine, en permettant de réduire les dépenses et les difficultés liés à la prévention des maladies, explique le professeur Snyder. À cette fin, le groupe de Zhang est en train de mettre au point un dispositif pour Iphone et des applications associées qui peuvent prendre les photos requises par leur modèle, et espère concevoir un prototype viable d’ici la fin de l’année.

Snyder, qui étudie en quoi la médecine personnalisée peut réduire le risque de développer des maladies chroniques, apprécie cette solution simple et accessible. « Potentiellement n’importe qui pourra facilement [calculer son âge biologique], et ce sans prise de sang ni tous les tests prescrits actuellement », explique-t-il.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Neuf façons simples d’améliorer votre santé mentale

Les astuces pour améliorer notre santé mentale ne manquent pas. Parmi elles, certaines ont fait leurs preuves, comme faire de l’exercice régulièrement ou dormir suffisamment. En revanche, les mécanismes d’autres approches, comme la prise de compléments alimentaires à base de magnésium ou le fait de plonger son corps dans l’eau glacée, ne sont pas encore tout à fait compris. Il existe également des méthodes qui ne sont, pour le moment, pas légales, comme le microdosage de substances psychédéliques.

Au fil des ans, toutefois, mes collègues ont présenté d’autres astuces pour prendre soin de soi, étayées par la science et relativement accessibles. Ces dernières semaines, après un mois de janvier froid et sombre qui m’a semblé durer une éternité, j’en ai mis en application quelques-unes.

Il est vrai que certaines n’aideront que les personnes traversant une période très difficile. Cependant, pour celles et ceux d’entre nous que l’interminable défilé quotidien de mauvaises nouvelles provenant de part et d’autre du monde entier épuise, celles-ci peuvent également s’avérer utiles. S’il n’existe que peu de choses que nous puissions contrôler dans ce monde, ces quelques conseils, parmi ceux que je préfère, peuvent être appliqués facilement.

 

1. PROFITER DAVANTAGE DE LA NATURE

Pour un article National Geographic, il n’est guère surprenant que le premier conseil de cette liste consiste à prendre l’air.

Il existe des preuves irréfutables que cela puisse réellement permettre de réduire le stress, d’améliorer la santé mentale et même de rester en bonne santé.  Mais de quelle manière ? Tout d’abord, des recherches ont montré que l’observation des motifs complexes des fougères, des fleurs, des montagnes, des vagues de l’océan et d’autres éléments de la nature pouvait induire davantage d’ondes alpha, associées à la relaxation, dans le cerveau.

Les personnes lisant National Geographic semblent particulièrement apprécier la sylvothérapie, une randonnée dans les bois, en pleine conscience, permettant de profiter des bienfaits de la nature sur la santé. Si, toutefois, bénéficier des joies de l’extérieur nous est irréalisable, les experts affirment qu’il est également possible de faire venir la nature à nous. Nous pouvons par exemple ouvrir une fenêtre pour laisser entrer une brise fraîche ou bien utiliser des parfums inspirés de ceux présents dans l’environnement.

 

2. ÉCOUTER LE CHANT DES OISEAUX

J’ai taquiné ma collègue Sarah Gibbens lorsqu’elle m’a confié l’année dernière qu’elle écoutait des chants d’oiseaux pour se concentrer au travail. Cependant, plus j’y pense, plus cette idée me paraît géniale. Comme Sarah l’a elle-même écrit en 2022, des études ont montré que le simple fait d’être en présence d’oiseaux pouvait nous mettre de meilleure humeur.

Il est évident qu’écouter directement des oiseaux à l’extérieur doit être plus efficace. Après tout, il est encore une fois question de profiter de la nature. Il se peut donc que je me mette à écouter des bruits d’oiseaux la prochaine fois que je passerai une mauvaise journée.

 

3. FAIRE DU TRI

Le fait de mettre de l’ordre dans ses affaires n’aidera pas dans le cas d’un diagnostic de dépression. Cependant, comme l’a rapporté Daryl Austin, cela peut tout de même faire une différence pour notre santé mentale. « Vous ressentirez moins d’épuisement, vous augmenterez votre productivité au bureau et vous améliorerez considérablement votre qualité de vie si vous apprenez à faire du tri et à vous organiser », explique Joseph Ferrari, éminent professeur de psychologie à l’université DePaul et spécialiste reconnu dans les domaines du désordre et de la désorganisation.

Tentons alors de faire un peu de rangement ! Joseph Ferrari et d’autres experts ont formulé d’excellentes recommandations, étayées par des recherches, sur la manière de débuter. Un élément essentiel, qui est pour moi le plus surprenant, consiste à regarder mais à ne pas toucher lorsque nous faisons du tri. Les études montrent qu’en touchant nos affaires, nous nous y attachons davantage !

 

4. CONSOMMER MOINS D’ALIMENTS ULTRA-TRANSFORMÉS

J’ai toujours su que les pizzas surgelées et les frites étaient mauvaises pour ma santé physique. Je n’avais toutefois pas réalisé, avant de lire l’article de Janis Jibrin, que ces aliments ultra-transformés pouvaient aussi alimenter mon anxiété.

Les recherches montrent en effet que les personnes dont l’alimentation est riche en ces aliments, dont les sodas, bonbons, barres énergétiques et yaourts aromatisés aux fruits, présentent un risque de dépression et d’anxiété respectivement plus élevés de 44 % et 48 %. Amusant, n’est-ce pas ?

Heureusement, Janis Jibrin a également demandé à des experts des conseils sur la manière d’éliminer ces aliments de notre alimentation. Mon préféré est celui d’Ashley Gearhardt, professeure de psychologie à l’université du Michigan à Ann Arbor, qui nous rappelle de « nous traiter avec compassion ». « Ce n’est pas de votre faute, vous êtes dans un environnement conçu pour vous créer une dépendance. »

 

5. MANGER DAVANTAGE DE CES ALIMENTS

D’un autre côté, notre régime alimentaire peut également contribuer à améliorer notre santé mentale. « Il n’existe pas d’aliments magiques pour soulager le stress », a écrit Jason Bittel, mais nous pouvons augmenter nos taux d’hormones du bonheur, comme la sérotonine, en consommant un mélange sain de vitamines, de minéraux, d’acides gras, de protéines et de glucides.

Jason Bittel a demandé à des nutritionnistes de recommander quelques aliments particulièrement efficaces pour cibler ces hormones, pour le plus grand plaisir de toutes les personnes aimant le chocolat noir ou les bananes.

 

6. STIMULER NOS HORMONES DU BONHEUR

Au-delà de la nourriture, il existe d’autres moyens de déclencher la libération des hormones du bonheur que sont la dopamine, la sérotonine, l'endorphine et l'ocytocine. Un article de 2023 donne quelques exemples sur la manière de stimuler nos propres hormones, qu’il s’agisse de la poussée de dopamine que nous ressentons lorsque nous terminons une tâche ou de la libération de sérotonine obtenue en méditant.

Par ailleurs, heureuses sont les personnes vivant avec des chiens : des recherches montrent que jouer avec son animal de compagnie peut provoquer une poussée d’ocytocine qui apaise le stress.

 

7. PLANIFIER UN VOYAGE

Prendre des vacances est une évidence lorsqu’il s’agit d’améliorer sa santé mentale. Que faire si nous n’en avons pas les moyens ou le temps ? Il s’avère que le simple fait de planifier des vacances peut faire la différence. Comme l’ont rapporté mes collègues pendant la pandémie, les recherches montrent que la perspective d’un voyage « peut augmenter considérablement le bonheur d’une personne ».

 

8. FAIRE UNE BALADE À VÉLO

Bien sûr, toute forme d’exercice est bénéfique pour la santé mentale. Notre équipe a néanmoins rapporté l’année dernière que le vélo constituait l’une des meilleures activités physiques que nous puissions pratiquer pour nous sentir mieux. « Nos recherches montrent que les enfants qui font du vélo au moins une fois par semaine affichent un niveau de bien-être mental plus élevé », explique Esther Walker, spécialiste des sciences cognitives et directrice du programme de recherche d’Outride, une organisation à but non lucratif qui soutient les programmes destinés aux jeunes.

Esther Walker et d’autres scientifiques cherchent encore à comprendre pourquoi le vélo est si bon pour la santé. Cela pourrait toutefois avoir un rapport avec les fonctions exécutives dont nous avons besoin pour coordonner nos mouvements et contourner les obstacles qui se dressent sur notre chemin.

 

9. ESSAYER LA LUMINOTHÉRAPIE

La dépression saisonnière nous guette tous. Certaines personnes sont d’ailleurs plus susceptibles d’en souffrir en été. Les scientifiques cherchent encore à comprendre pourquoi mais, selon la principale théorie, les jours plus sombres de l’hiver perturberaient notre rythme circadien, débutant chaque jour avec les premiers rayons du soleil.

Selon les experts, suivre une thérapie et s’adonner à des passe-temps peut aider à atténuer la dépression saisonnière. Sont également vantés les mérites de la luminothérapie ou, comme l’a dit ma collègue, le fait de « s’asseoir devant une boîte lumineuse ». Quels sont donc les types de lampes recommandés ? Voici ce qu’en disent les experts.

Cet article a intialement paru sur le site nationalgeographic.com en langue anglaise.

Votre cerveau change au cours du cycle menstruel

Elma Jashim, récemment diplômée de l’université, a hâte de commencer son école de médecine à l’automne. Seul bémol : elle redoute les montagnes russes émotionnelles qu’elle subit chaque mois en raison de ses règles et les dégâts qu’ils pourraient poser pour son calendrier académique bien rempli. 

« Environ deux ou trois jours avant le début de mes règles, je ne ressens pas beaucoup d’émotions. Je ne suis pas particulièrement triste, mais pas particulièrement heureuse non plus », raconte Jashim. Cette humeur plate la rend encore plus sensible aux stimuli émotionnels, même minimes, quand ses menstruations commencent. « Il suffit que je fasse une erreur minuscule au travail pour que les larmes me montent aux yeux. » 

Les mécanismes du cerveau qui déclenchent ces émotions sont encore incompris. Cependant, des progrès ont été réalisés dans la visualisation de la manière dont les hormones sexuelles peuvent modifier certaines zones du cerveau. Des études antérieures menées sur des rats ainsi que sur d'autres mammifères avaient déjà montré que le volume de certaines régions du cerveau pouvait changer, influencé par l'œstrogène, une hormone nécessaire au bon développement de la sexualité et de la reproduction chez les femmes. En revanche, on ne savait pas si cette puissante hormone pouvait modifier la structure du cerveau de la femme humaine.

Aujourd'hui, des scanners IRM récents de cerveau de femmes montrent que la montée et la descente des hormones sexuelles au cours du cycle menstruel, la période de vingt-neuf jours de flux et de reflux hormonaux qui prépare les organes reproducteurs à une éventuelle grossesse, remodèle de façon spectaculaire les régions du cerveau qui régissent les émotions, la mémoire, le comportement et l'efficacité du transfert d'informations.

« C’est fou de constater la vitesse à laquelle le cerveau adulte peut changer », dit Julia Sacher, psychiatre et neuroscientifique à l’Institut Max-Planck de neurologie et des sciences cognitives à Leipzig, en Allemagne, qui a mené l’une de ces études

Le fait que le cerveau se modifie pendant le cycle menstruel est particulièrement notable car sur trente à quarante ans, la plupart des femmes vivent environ 450 cycles menstruels, explique Catherine Woolley, neurobiologiste à l’université Northwestern d’Evantson, dans l’Illinois. 

Les imageries cérébrales et analyses d’hormones sur lesquelles s’appuient ces études ont été réalisées sur les mêmes individus, pendant des phases spécifiques de leurs cycles menstruels, ce qui rend les résultats d’autant plus fiables, explique Woolley. 

« Ces études nous ont permis de nous rendre mieux compte d’à quel point ces hormones influençaient non seulement la morphologie du cerveau mais également son architecture fonctionnelle », dit Emily Jacobs, neuroscientifique à l’université de Californie, à Santa Barbara. 

 

LES HORMONES, MOTEUR DU CYCLE MENSTRUEL 

Un cycle menstruel se répète tous les vingt-cinq à trente jours et commence par les « règles », pendant lesquelles la couche superficielle de l’endomètre, paroi interne de l’utérus, se détache. À ce moment-là, les niveaux d'hormones sexuelles féminines dans le sang sont les plus bas, mais ils augmentent fortement au cours des semaines suivantes. Tout d'abord, les niveaux d'œstrogènes montent, signalant la croissance de l’endomètre. Ensuite, ils chutent pour libérer un ovule de l'ovaire, ce qui marque le milieu du cycle. Puis, les taux de progestérone et d'œstrogènes augmentent à nouveau pendant environ sept jours afin de préparer la muqueuse utérine à la fécondation éventuelle de l'ovule. Si la grossesse ne se produit pas, ces niveaux diminuent, ce qui déclenche les saignements menstruels.

Si le cycle menstruel est le résultat des taux d’hormones qui font le yo-yo, certaines autres hormones comme la testostérone et le cortisol suivent également un cycle : elles augmentent avant le crépuscule et retombent dans la soirée. Ce phénomène se produit chez les deux sexes

 

L’ŒSTROGÈNE STIMULE LES RÉGIONS DU CERVEAU LIÉES À LA COGNITION 

Le cerveau est une masse dense de cellules semblables à des arbres miniatures, appelées neurones. Ces neurones, ainsi que leurs prolongements, appelés dendrites, sont contenus dans la matière grise, couche extérieure du tissu cérébral. Sur les dendrites se trouvent des protubérances en forme de feuilles, appelées épines dendritiques. Les racines, ou axones, des neurones se regroupent dans la substance blanche du cerveau.  

La matière grise est en charge des émotions, de l’apprentissage et de la mémoire tandis que la substance blanche, plus ancrée dans le tissu cérébral, s’occupe d’échanger les informations et de connecter les différentes régions de la matière grise. 

Les parties du cerveau qui répondent aux hormones sexuelles féminines ont été découvertes il y a presque trente ans. En 1990, Woolley s’est rendu compte par hasard que l’œstrogène régulait la densité des épines dendritiques dans l'hippocampe des cerveaux de rats

« Ce résultat était particulièrement étonnant et a suscité un grand scepticisme dans le milieu », se souvient Woolley. « À l'époque, on considérait que les œstrogènes étaient des hormones uniquement dédiées à la reproduction et qu'ils n'affectaient pas les régions cognitives du cerveau telles que l'hippocampe. »

L'hippocampe, centre cognitif du cerveau qui contient à la fois de la matière grise et de la substance blanche, est une petite structure incurvée enfouie dans le cerveau, derrière les oreilles, dans une région remplie de récepteurs d'hormones sexuelles. Il s’agit également de la région du cerveau humain adulte la plus influencée par les changements de volume. L'acquisition de nouvelles compétences, comme apprendre à jongler à un âge avancé ou étudier des cartes pour passer l'examen du permis de conduire taxi, fait grossir l'hippocampe. À l'inverse, un hippocampe qui rétrécit est parfois un signe précoce de démence, en particulier dans la maladie d'Alzheimer. 

Depuis la découverte révolutionnaire de Woolley, les scientifiques ont compris que la ménopause faisait réduire le volume de la matière grise dans certaines parties du cerveau. La recherche s'est cependant limitée à obtenir des images instantanées de cerveaux de personnes volontaires à un moment donné. Les scientifiques voulaient savoir si le cerveau humain adulte changeait au cours de la montée et de la descente mensuelles des hormones sexuelles.

« Comment être vraiment précis ? Pouvons-nous mesurer le cerveau d’une personne 30, 50 ou 100 fois ? » s'est demandé Jacobs. C'est ce qui a incité une scientifique de son groupe à se faire scanner le cerveau toutes les vingt-quatre heures pendant un mois entier en 2020.

« Elle était, en quelque sorte, la Marie Curie des neurosciences », explique Jacobs. Au bout de trente scans du cerveau de cette femme, l'équipe de Jacobs a découvert que les hormones sexuelles remodelaient l'hippocampe et réorganisaient les connexions cérébrales. Cependant, la vitesse à laquelle se produisait cet effet des vagues d'hormones pendant le cycle menstruel restait floue. 

Pour répondre à la question, des scientifiques de Leipzig et de Santa Barbara ont, chacun de leur côté et pour deux études distinctes, réalisé des scans des cerveaux de cinquante femmes à différentes phases de leur cycle menstruel. 

 

L’ÉPAISSEUR DES DIFFÉRENTES RÉGIONS DU CERVEAU FLUCTUENT AU COURS DU CYCLE MENSTRUEL 

Lors d’une étude publiée dans la revue Nature Mental Health, Sacher et son équipe ont réalisé des échographies pour identifier le moment précis de l'ovulation chez vingt-sept femmes volontaires. Cela leur a permis de prélever des échantillons de sang sur les volontaires à six moments précis de leur cycle menstruel, choisis en fonction de l'ovulation et des niveaux d'hormones dans le sang. Ils ont ensuite scanné le cerveau de ces vingt-sept femmes à six moments précis à l'aide d'une IRM à ultra-haut champ.

En se servant de cette IRM plus puissante que celle couramment utilisée dans les cliniques, l'équipe de Sacher a pu obtenir des images du cerveau vivant avec une résolution si élevée qu'elle n'était auparavant possible qu'en découpant directement le cerveau lors d'une autopsie.

Malgré la petite taille de la structure analysée, l’équipe de Sacher est parvenue à observer une série chorégraphiée de changements dans différentes régions de l’hippocampe alors qu’il se remodelait tout au long du cycle menstruel. La couche extérieure de l’hippocampe s’est épaissie et la matière grise s’est étendue avec l'augmentation des niveaux d'œstrogènes et la baisse de la progestérone. Toutefois, lorsque les niveaux de progestérone ont augmenté, la couche liée à la mémoire s’est étendue.

Une autre étude, qui n'a pas encore fait l'objet d'une évaluation par des pairs, a consisté à scanner le cerveau de trente volontaires pendant l'ovulation, la menstruation et la période entre les deux. Cette étude a révélé que non seulement l'épaisseur de la matière grise, mais aussi les propriétés structurelles de la substance blanche, fluctuaient, influencés par les hormones.

« Nous nous sommes servis d’une sorte de règle [pour mesurer la matière grise] et nous l’avons observée changer parallèlement aux fluctuations des hormones », explique Elizabeth Rizor, qui a co-dirigé cette étude avec Viktoriya Babenko. Elles sont toutes deux neuroscientifiques à l’université de Californie de Santa Barbara. 

L'étude suggère que les modifications de la matière blanche liées aux fluctuations hormonales précédant l'ovulation pourraient rendre plus efficace le transfert d’informations entre les différentes parties du cerveau.

« Ces changements sont très répandus, non seulement dans la matière grise, mais aussi dans les zones du cerveau qui sont responsables de la coordination entre les régions et entre les voies de la substance blanche », explique Babenko.

Toutefois, les changements observés sur le volume ou l'épaisseur des régions du cerveau dans ces études n'ont pas encore été associés à des fonctions cérébrales spécifiques. Si ces études montrent que certaines zones du cerveau peuvent se remodeler en fonction des oscillations des hormones pendant le cycle menstruel, les scientifiques précisent que cela ne signifie pas que la mémoire ou la cognition sont affectées.

« Pour des fonctions ou des processus cérébraux particuliers, nous ne pouvons pas dire plus c'est gros, mieux c'est », déclare Woolley.

Les études ne révèlent pas non plus si les changements de volume sont liés à la myriade de symptômes émotionnels et cognitifs que subissent les femmes pendant leurs règles. En réalité, ces études n’ont pris en compte que des femmes en bonne santé qui n’ont pas fait état de tels symptômes. 

En revanche, elles mettent en avant l’urgence de la recherche sur les besoins neuroscientifiques spécifiques aux femmes, dit Jacobs. 

« De véritables changements structuraux se produisent dans notre cerveau et pourraient être liés à ces ascenseurs émotionnels, changements d’humeur, etc », déclare Jashim. 

Alors qu’elles représentent 70 % des cas de maladie d'Alzheimer et 65 % des cas de dépression, seulement 0,5 % de la recherche en imagerie cérébrale concerne les femmes. Cette disparité concerne également l'approbation de médicaments, tels que le Leqembi, que la Food and Drug Administration américaine a récemment approuvé pour le traitement de la maladie d'Alzheimer à un stade précoce, mais qui pourrait ne pas être efficace chez les femmes.

« Il est grand temps de faire du cerveau un axe de recherche majeur de la santé des femmes », déclare Sacher.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Le syndrome d'Ehlers-Danlos est-il vraiment rare ou simplement mal diagnostiqué ?

Pour Alissa Zingman, 41 ans, médecin à Baltimore, les premiers symptômes déroutants (rotules disloquées et douleurs chroniques) sont apparus lorsqu’elle était enfant. À l’âge de 19 ans, elle avait déjà subi deux interventions chirurgicales orthopédiques. En l’absence de diagnostic précis sur les causes de ses divers symptômes, Zingman a douté de son propre ressenti au point de se croire hypocondriaque, une situation qui l'a fait souffrir pendant ses études de médecine. « J’ai cru pendant de nombreuses années que cette douleur permanente était quelque chose dont il fallait avoir honte », raconte-t-elle.

Après des années passées à souffrir de problèmes articulaires, de douleurs chroniques et de maladies répétées, Zingman a finalement reçu un diagnostic en 2017 : elle souffrait du syndrome d’Ehlers-Danlos, une maladie génétique qui affecte la capacité de son corps à produire le collagène nécessaire au soutien de ses tissus conjonctifs.

Zingman n’est pas seule à souffrir de cette maladie : le syndrome d’Ehlers-Danlos est un mot d’ordre de plus en plus répandu au sein d’une communauté de patients souffrant de divers problèmes de santé comme des articulations anormalement courbées, d’étranges cicatrices ou encore une fatigue chronique. Voici ce que couvre ce large éventail de syndromes et pourquoi cette maladie génétique peut être si difficile à diagnostiquer et à traiter.

 

QU’EST-CE QUE LE SYNDROME D’EHLERS-DANLOS ?

Le syndrome d’Ehlers-Danlos a été décrit pour la première fois par le médecin danois Eduard Ehlers et le médecin français Henri-Alexandre Danlos au début du 20e siècle. Depuis lors, l’appellation a été étendue à une série de troubles héréditaires du tissu conjonctif présentant divers symptômes et degrés de gravité. Bien que souvent simplement appelé « Ehlers-Danlos » ou « SED », le terme couvre officiellement 13 troubles génétiques du tissu conjonctif.

La plupart des formes de SED se caractérisent par une hypermobilité des articulations et une peau extensible et veloutée, mais les symptômes de ces troubles varient. Le sous-type le plus courant, le SED de type hypermobile (SEDh), s’accompagne d’une instabilité des articulations, de luxations, de douleurs articulaires et de fatigue.

D’autres sous-types affectent d’autres systèmes corporels : en cas de syndrome de la cornée fragile (BCS), par exemple, la cornée des malades s’amincit et se fragilise ; en cas de syndrome d’Ehlers-Danlos parodontal (SEDp), les tissus qui soutiennent les dents se décomposent. Les divers types de SED peuvent concerner tous les systèmes corporels, de la peau au squelette en passant par les organes internes. Selon les cas, le SED peut aller d'un simple inconfort à une maladie mortelle.

 

UN DIAGNOSTIC TARDIF ET IMPRÉCIS

Le cas de Zingman n’est pas un cas isolé : malgré l’importance d’un diagnostic précoce, les patients apprennent généralement des années voire des décennies après l’apparition des symptômes qu’ils souffrent du SED. Une étude de 2019 a montré que les patients attendaient 14 ans en moyenne avant de recevoir un diagnostic de SED, et qu’un quart des patients avait attendu plus de 28 ans.

Notons également que les erreurs de diagnostic sont fréquentes et que les disparités entre les sexes touchent les patients atteints du SED ; la même étude de 2019, qui portait sur une cohorte de patients au Pays de Galles, a révélé que les hommes recevaient un diagnostic 8 ans et demi plus tôt en moyenne que les femmes.

Souvent, les problèmes articulaires, les douleurs et la fatigue associés à de nombreux cas de SED ne sont qu’un début : ces troubles sont souvent associés à d’autres pathologies, comme le syndrome de tachycardie posturale orthostatique (PoTS), des troubles digestifs, des troubles du sommeil et de l’anxiété. Dans le cas de Zingman, son diagnostic de SED a été difficile à établir car elle souffre en parallèle d’un trouble du système immunitaire. Elle explique s’être sentie soulagée lorsqu’elle a enfin reçu un diagnostic de SEDh, qui justifiait alors toutes les opérations orthopédiques qu’elle avait subies et établissait la cause des hernies discales et de l’instabilité pelvienne qui affectaient sa capacité à marcher.

« L’annonce du diagnostic a tout changé », dit-elle. « Je savais maintenant que mes symptômes étaient réels et qu’il devait y avoir un moyen de me guérir. »

 

UNE MALADIE RARE ?

L’autoreprésentation et l’intégration des soins de santé ont permis à Zingman de terminer son internat en médecine. Après l’avoir observée se réhabiliter lentement, le médecin spécialiste du SED qui la suivait lui a suggéré de créer son propre cabinet consacré au traitement de ces syndromes. Aujourd’hui médecin, Zingman est spécialisée dans l’orthopédie et la médecine préventive, et son cabinet privé de Silver Spring, dans le Maryland, traite de nombreux patients atteints du SED.

Selon Zingman, la prévention des blessures, l’éducation des prestataires et la coordination des soins de santé sont autant d’éléments essentiels à la prise en charge du SED. Mais elle ne fait partie que d’un petit groupe de prestataires spécialisés dans les syndromes génétiques ; même au sein de cette communauté, petite mais engagée, la maladie peut susciter plus de questions que de réponses.

La prévalence des syndromes fait par exemple l’objet de nombreux débats. Bien que certains estiment qu’une personne sur 5 000 est atteinte d’un sous-type de SED, cette maladie est toujours considérée comme une pathologie rare aux États-Unis. En 2019, une estimation du sous-type hypermobile a révélé qu’une personne sur 500 au Pays de Galles était atteinte de ce syndrome. Mais « comme les erreurs de diagnostic sont fréquentes », déclare un porte-parole de la Ehlers-Danlos Syndrome Research Foundation (lit. Fondation pour la recherche sur le syndrome d’Ehlers-Danlos), « nous pensons que cette estimation est largement sous-évaluée ».

Soulignons également qu'il n’existe pas de traitement ni de remède unique pour cette maladie, et que la sensibilisation au SED peut être insuffisante, même parmi les professionnels de santé. Mais le vent tourne dans le monde de la recherche et de la sensibilisation au syndrome d’Ehlers-Danlos. Aujourd’hui, la Ehlers-Danlos Society reconnaît 18 « centres d’excellence » dans tous les États-Unis : il s’agit d’établissements qui répondent à des critères stricts en matière de soins centrés sur le patient, possèdent une expertise particulière sur la maladie et disposent de services spécialisés dans le SED. À mesure que progresse la recherche sur cette pathologie, de plus en plus de prestataires deviennent compétents dans la prise en charge des patients atteints du SED.

Cela n’aurait pas été pas possible sans la mobilisation des malades ainsi que des soignants qui s’engagent à faire avancer la recherche et les traitements. Le soutien par les pairs se manifeste notamment sous la forme d’un subreddit fort de 50 000 utilisateurs ou encore de rencontres en personne dans les hôpitaux et les cliniques. Les patients qui n’ont pas reçu de diagnostic ou de traitement efficace pendant des années peuvent s’orienter les uns les autres vers des prestataires, exprimer leur empathie et partager des anecdotes sur leur propre expérience. Zingman souligne toutefois que sans changements d’approches dans le diagnostic, le traitement et les soins centrés sur le patient, de nombreux malades du SED risquent de rester dans l’ombre.

Néanmoins, Zingman, ses collègues et de nombreux malades du SED insistent sur le fait que même si cette pathologie est incurable, il est possible d’y survivre et de la traiter. « Les patients peuvent mener une vie saine et productive », affirme-t-elle. Un jour, espère-t-elle, la médecine rattrapera son train de retard par rapport au quotidien des patients et les aidera à s’épanouir, pas à pas.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Comment savoir si des pierres ou des cristaux ont-été extraits de manière éthique ?

Martina Gutfreund savait qu'il pouvait être difficile de gagner sa vie en extrayant des cristaux. Lors d'un récent voyage dans la région riche en minéraux d'Erongo en Namibie, elle a déboursé un peu plus de 10 000 dollars (soit 9 000 euros) pour 100 kilos de cristaux mélangés comprenant des quartz fumés, des fluorites et des opales hyalites. Elle a tout de même été surprise d’apprendre que cette somme représentait deux ans de salaire pour le propriétaire de la mine et ses ouvriers.

De nombreux vendeurs de cristaux achètent leurs pierres par l'intermédiaire de grossistes intégrés dans des chaînes d'approvisionnement mondiales complexes. Gutfreund est une exception à ce fonctionnement. Elle vit dans l'Alberta, au Canada, vend des cristaux sur sa boutique Etsy SpiritNectarGems et sait que si elle achète directement auprès de petits exploitants miniers, davantage d'argent restera probablement dans l'économie locale. 

« C'est mon code éthique », dit-elle, « mais les personnes qui s'approvisionnent en cristaux ne respectent pas de codes communs. C'est un peu chacun pour soi. »

Le monde des cristaux est, en effet, une zone de non-droit, sans règles qui garantisse une gestion durable et sans étiquette d’approvisionnement éthique pour aider les consommateurs à faire les bons choix. Les pratiques minières vont des petites exploitations artisanales où les travailleurs creusent les roches avec des outils simples, aux grandes mines industrielles où les cristaux constituent un sous-produit d'une autre activité. 

Les répercussions sociales de cette activité sont tout aussi variées. Dans certains cas, l’extraction peut stimuler l'économie locale tandis que dans d'autres, elle alimente l'exploitation des travailleurs et même les conflits armés. 

Toutefois, les initiés du secteur affirment que, s'ils se soucient de l'origine de leurs pierres, les amateurs de cristaux peuvent prendre certaines mesures, qu'il s'agisse de trouver des vendeurs dignes de confiance ou d'extraire eux-mêmes les cristaux du sol.

 

LES CONSÉQUENCES SUR L’ENVIRONNEMENT

Le terme « cristal » englobe les milliers de minéraux inorganiques dont les atomes se réarrangent de façon régulière et répétitive. Les répercussions environnementales et sociales qui découlent du minage varient en fonction de la région et du type de minéral déterré. 

Généralement, les experts expliquent que les mines de cristaux ne sont pas aussi nocives que les mines d’or ou de cuivre. Alors que les mines de métaux commerciales s’étendent souvent sur des centaines d’hectares et peuvent descendre sur plus de trente mètres dans le sol, celles de cristaux paraissent beaucoup plus petites. James Zigras, qui dirige Avant Mining, la plus grande entreprise productrice de quartz aux États-Unis, affirme que ses mines les plus grandes mesurent moins d’un hectare et que la plus profonde l’est « d'environ trente-cinq mètres ».  

En outre, les méthodes utilisées pour extraire les cristaux sont généralement plus douces que celles utilisées pour l'extraction des métaux car l'objectif est de récupérer des spécimens intacts. On utilise donc des pelles et des burins plutôt que de la dynamite et alors que de nombreux métaux doivent être raffinés à l'aide de produits chimiques agressifs et de processus qui polluent l'air et l'eau, les cristaux sont souvent simplement lavés à l'eau ou à l'acide oxalique

« Les effets chimiques liés à l'exploitation minière sont moins probables dans le cas des pierres précieuses », explique Estelle Levin-Nally, fondatrice et PDG de la société de conseil en minéraux durables Levin Sources.

Cependant, pour extraire les cristaux, les mineurs doivent se débarrasser de la végétation, ce qui peut nuire à la biodiversité locale. 

Selon Levin-Nally, le défrichage des terres pour l'extraction des minéraux peut également générer de la pollution par les poussières et mettre en péril la santé et la sécurité des travailleurs, ainsi que polluer les cours d'eau locaux. Dans certains cas, les cristaux proviennent de formes d'exploitation minière plus toxiques. Par exemple, de grandes mines de cuivre produisent des échantillons de malachite, un minéral à bandes vertes et on peut trouver de la wulfénite, un minéral rouge-orangé brillant, lors de l'extraction du plomb.

 

DES DROITS HUMAINS BAFFOUÉS 

La plupart des conséquences sociales néfastes documentées dans les autres secteurs miniers comme celui de l’or et celui des diamants, allant de conditions de travail dangereuses à une main d’œuvre infantile, peuvent également se produire dans l’industrie du cristal, notamment dans les pays les plus pauvres où sont produites des pierres en grande quantité, destinées à la consommation de masse, comme c’est le cas à Madagascar. 

Plusieurs chaînes d'approvisionnement en minerais ont même contribué à financer des régimes militaires répressifs ou des groupes terroristes, comme le jade et le rubis de Birmanie ou le lapis-lazuli d'Afghanistan

Selon un initié de l’industrie, le problème le plus répandu est celui des communautés minières qui ne reçoivent pas toujours leur juste part des bénéfices de ce qui est devenu un secteur valant des milliards de dollars, mis en avant par des célébrités et des influenceurs bien-être qui promeuvent les bienfaits des cristaux pour la spiritualité.

Rob Lavinsky, fondateur de la boutique de minéraux fins The Arkenstone, où les pierres se vendent souvent pour des milliers de dollars, affirme que l'augmentation de la valeur des cristaux de qualité de collection contribue à « injecter beaucoup plus d'argent dans les communautés locales » qui les extraient. Cependant, les bénéfices pour ceux qui extraient les babioles en quartz rose qui se vendent sur Ebay pour quelques dollars sont probablement bien moindres. 

« Vous pouvez être certain que ceux qui se trouvent en bas de la chaîne d'approvisionnement ne gagnent presque rien », affirme Gutfreund.

Les acheteurs potentiels ne trouveront aucun vendeur de pierres ou de cristaux qui arborent un label responsable, comme pour le commerce équitable. Face à la faible pression exercée par les organismes de réglementation ou par les consommateurs, le secteur n'a tout simplement pas pris l'initiative de mettre en place de tels systèmes. En revanche, ceux qui souhaitent se procurer des cristaux de façon plus durable peuvent toujours suivre quelques règles de base.

 

POUR UNE COLLECTION DE CRISTAUX RESPONSABLE

Pour Gutfreund, la première étape est de trouver un vendeur qui soit capable de vous dire exactement où les cristaux ont été extraits. Si la personne à qui vous achetez ne peut pas vous répondre, ou vous dit simplement que ses améthystes viennent du Brésil, l’un des plus gros producteurs au monde, méfiez-vous. Levin-Nally explique qu’elle s’efforce de trouver des cristaux locaux pour que le circuit soit le plus court possible. En France, acheter localement permet également de s'assurer que les cristaux ont été extraits dans un environnement aux règles strictes. 

Pour éviter de soutenir des mines dans lesquelles les conditions de travail seraient très mauvaises, éviter d'acheter accidentellement des cristaux de contrefaçon et pour repérer les bonnes affaires louches, les acheteurs peuvent se renseigner sur les prix auxquels se vendent généralement les différents minéraux. Commencer à développer une collection de cristaux à faible impact en visitant une mine ne nécessite pas de dépenser beaucoup d’argent. Vous pouvez également vous inscrire à des activités de découverte pour apprendre les bases de la recherche de cristaux. 

À plus grande échelle, Levin-Nally estime qu'il existe des cadres éthiques que l'industrie du cristal pourrait mettre en place pour que les chaînes d'approvisionnement soient plus responsables et pour soutenir l'exploitation minière artisanale qui profite aux communautés locales. Les entreprises qui prennent les devants pourraient même trouver une nouvelle clientèle.

« De nombreuses personnes qui achètent des cristaux se soucient des énergies », explique Levin-Nally. « Elles s’intéressent au karma et aux autres. Il est donc logique qu'il existe un marché spécialisé leur permettant d'accéder à des produits éthiques qui correspondent à leurs valeurs. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Fascinantes et dangereuses : ces plantes qui adorent la viande

Les plantes carnivores font, depuis longtemps, l’objet de fabulations populaires. Certains films cultes comme La famille Addams et La petite boutique des horreurs en exagèrent le portrait pour en faire des monstres qui se nourrissent de viande. 

Elles sont tout aussi fascinantes dans la vraie vie, bien que moins assoiffées de sang.  

On pense généralement que les plantes se trouvent en bas de la chaîne alimentaire, explique Laurence Gaume, scientifique au CNRS. Les plantes carnivores, qu’on définit comme capables d’attirer, de capturer et de manger des proies, « défient les règles de la nature grâce à leur capacité stupéfiante de se nourrir d’animaux. »

Les plantes à urne sont l’un des plus grands groupes de cet ensemble éclectique. On les distingue de leurs cousines carnivores, les dionées attrape-mouche, les droséras et les utriculaires, par leur mécanisme de piégeage dangereux : des feuilles modifiées qui se referment pour former un grand trou rempli d’un liquide qui les aide à digérer les petits animaux, en particulier les insectes. 

 

UN GOÛT POUR LA VIANDE QUI ÉVOLUE

Produire ces « feuilles complexes » coûte aux plantes à urne « beaucoup de ressources métaboliques », explique Barry Rice, astrobiologiste et botaniste au Sierra College en Californie, qui a cultivé plus de 800 plantes de la famille des Sarraceniaceae. Pourtant, ces plantes persistent parce que leurs feuilles leur permettent de prospérer dans des environnements autrement inhospitaliers, tels que les sommets de montagnes arrosés par la pluie, les marais et les grès lessivés par les minéraux. Dans ces sols pauvres en nutriments, l'alimentation animale des plantes leur fournit l'azote qui leur ferait défaut.

La carnivorie est une stratégie si efficace qu'elle a évolué plusieurs fois indépendamment chez des plantes non apparentées, explique Rice. « C'est un exemple remarquable de convergence évolutive. »

 

UN PIÈGE MORTEL

Indépendamment de leur évolution, les plantes à urne se servent « à peu près du même mécanisme de piégeage par gravité », explique Alastair Robinson, botaniste aux Royal Botanic Gardens Victoria, à Melbourne, en Australie. 

La première étape consiste à attirer les proies dans l’urne, ce que la plupart des plantes font avec du nectar sucré ou des couleurs vives. Certaines utilisent même l’odeur, en modifiant les arômes qu'elles produisent pour attirer différents types de proies, comme le décrivent Gaume et ses collègues dans un article publié en 2023. Ils ont constaté que les plantes qui dégageaient des odeurs florales capturaient plus d'abeilles et de papillons de nuit, tandis que celles qui émettaient des odeurs d'acides gras capturaient davantage de mouches et de fourmis.

Au moment où la proie se tient sur le rebord de l’urne de la plante, son sort est généralement scellé. Ces rebords sont connus pour être glissants. Certains sont composés de couches de cristaux de cire semblables à un « revêtement glissant en teflon » tandis que d’autres ont une surface « mouillable » sur laquelle les insectes glissent directement dans l’urne, comme le ferait une voiture sur une route verglaçante, explique Ulrike Bauer, chercheuse à l’Université d’Exeter en Angleterre, qui étudie les mécaniques de mouvement des plantes.  

Une fois à l’intérieur, deux éléments empêchent les victimes de s’échapper rapidement : des poils qui pointent vers le bas et tapissent l’intérieur de l’urne, et un bassin de liquide parfois si viscoélastique qu’il est semblable à des sables mouvants. Ce fluide est également ce qui fait sonner le glas pour les victimes puisqu’il contient des enzymes et des microbes résidents qui enclenchent la digestion.  

À Bornéo, certaines espèces de plantes à urne qui vivent dans les montagnes se sont même éloignées de la carnivorie et ont modifié leur régime alimentaire pour mieux s'adapter à certaines niches. Au lieu de consommer des insectes, elles collectent les excréments des musaraignes qui s'assoient sur leurs urnes en forme de bol et se nourrissent des sécrétions grasses qu'elles produisent.

« Il s’agit d’une source alternative de nutriments car plus on est en altitude, moins il y a d’insectes », explique Robinson, qui a démontré, en 2022, que les déjections animales permettaient à ces plantes d’obtenir deux fois plus de nitrogène que leurs homologues de basse terre. « Le fait que les animaux leur apportent de la nourriture sous forme d'excréments est un gain facile », dit-il.

 

MENACES ET DÉCOUVERTES

Les plantes à urne sont de plus en plus menacées. Soixante-huit espèces de népenthès sont actuellement répertoriées comme étant en danger critique d'extinction, en danger ou vulnérables par l'Union internationale pour la conservation de la nature (UICN), tandis que trois espèces de Sarracéniacées, originaires d’Amérique, sont protégées par l’Endangered Species Act, loi américaine sur les espèces menacées d'extinction.

La perte d'habitat due au défrichement des terres pour les plantations de palmiers à huile et l'agriculture, ainsi que le changement climatique, constituent des menaces majeures, mais elles ne sont pas les seules. La collecte ciblée de plantes pour le commerce horticole l'est tout autant. « Le braconnage menace un tiers de toutes les espèces de Nepenthes », affirme Robinson. « Il s’agit du plus grand nombre d'espèces menacées pour un groupe de plantes carnivores. »

Laisser ces plantes disparaître ne constituerait pas seulement une perte pour l’écosystème mais aussi pour l’innovation humaine. Leurs propriétés incroyables ont inspiré de nombreuses inventions comme revêtements de surface antiadhésifs dans les sprays de nettoyage et les produits hydrofuges dans un contexte industriel.

Les scientifiques ne cessent d'en découvrir davantage sur leurs diverses relations écologiques, leurs mécanismes de piégeage et de trouver de nouvelles espèces. L'année dernière, une équipe indienne a détecté des neurotoxines dans le nectar produit par la Nepenthes khasiana. En 2022, un autre groupe de chercheurs a signalé l'existence d'une nouvelle espèce, la Nepenthes pudica, en Indonésie, dont les urnes poussent sous terre. La même année, Bauer et ses collègues ont démontré que deux espèces non apparentées de Bornéo et des Seychelles avaient développé des opercules qui, une fois déclenchés par des gouttelettes de pluie, agissaient comme des tremplins qui catapultent les insectes dans leurs urnes.

« Nous avons de nombreuses interrogations en suspens concernant les plantes à urne », dit-elle. « Il reste encore beaucoup à découvrir. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

De plus en plus de parents donnent à leurs enfants des produits pour les aider à s'endormir

Si votre enfant lutte constamment à l’heure du coucher, vous réveille la nuit ou semble souvent éprouver des difficultés à s’endormir, il y a de fortes chances pour que vous ayez ne serait-ce que pensé à lui administrer un produit pour traiter les troubles du sommeil. S’il s’agit d’un sujet tabou pour certains parents, donner des médicaments ou des compléments alimentaires favorisant le sommeil à de jeunes enfants est une pratique peut-être plus courante que vous ne le croyez.

Selon un sondage YouGov réalisé en ligne auprès de 933 parents d’enfants de moins de 18 ans, près de la moitié des parents qui avaient des enfants souffrant de troubles de sommeil leur avaient déjà donné une aide au sommeil. L’utilisation de ces substances soporifiques chez les adultes est peut-être encore plus répandue : des données des Centres américains de contrôle et de prévention des maladies montrent que près d’un adulte sur cinq prend des médicaments pour dormir. En France, un rapport de Santé Publique France de 2014 soulignait que chez la population adulte ou adolescente, « les études menées depuis les années 1990 concord[aient] toutes pour situer la France comme l’un des pays les plus consommateurs de médicaments psychotropes, en particulier pour les classes des anxiolytiques et des hypnotiques », ou somnifères. Une tendance aggravée par les confinements lors de la pandémie de COVID-19, selon un rapport de l'Agence du médicament et de l'Assurance maladie, selon lequel la consommation de tranquillisants et de somnifères aurait à cette période augmenté de 5 à 8 %.

Ces aides au sommeil, vendues sous forme de médicaments ou de compléments alimentaires, agissent soit en augmentant les neurotransmetteurs ou modulateurs favorisant le sommeil dans le cerveau, soit en diminuant les neurotransmetteurs ou modulateurs qui déclenchent l’éveil, explique Argelinda Baroni, médecin et codirectrice du programme de sommeil pour enfants et adolescents à l’hôpital pour enfants Hassenfeld de NYU Langone.

« Un produit pour traiter les troubles du sommeil qui agit rapidement favorise l’endormissement », souligne Argelinda Baroni. « Un produit qui reste longtemps dans l’organisme aide à maintenir le sommeil ou à rester endormi. »

S’il existe des médicaments sur ordonnance pour les adultes, « il n’y a pas d’équivalents approuvés pour traiter l’insomnie chez les enfants », explique Judith Owens, médecin certifiée spécialiste de la médecine du sommeil et directrice du Centre des troubles du sommeil pédiatriques à l’hôpital pour enfants de Boston.

Pour ce qui est des aides au sommeil sans ordonnance, « il y a peu de preuves scientifiques justifiant leur utilisation chez les enfants », déclare Jennifer Martin, psychologue et professeure de médecine à l’université de Californie à Los Angeles. Ces aides peuvent même, paradoxalement, être source d’excitation, ajoute-t-elle.

Comme ces médicaments ne sont pas strictement réglementés, ils n’ont pas besoin de passer par des tests approfondis, tels que des essais cliniques, pour être commercialisés directement auprès des consommateurs. Les compléments alimentaires favorisant le sommeil peuvent s'avérer d'autant plus problématiques car ils sont encore moins réglementés et contiennent parfois des ingrédients non répertoriés. 

Parmi ces compléments, l’un des plus populaires est la mélatonine. « La mélatonine est considérée comme un complément alimentaire et n’est pas strictement réglementée par la FDA, l'administration américaine des denrées alimentaires et des médicaments. Elle peut donc contenir des traces d’autres substances telles que du CBD et de la sérotonine », souligne Suzanne Beck, médecin spécialiste du sommeil et directrice médicale du centre du sommeil de l’hôpital pour enfants de Philadelphie.

Si les aides au sommeil peuvent s’avérer utiles, elles peuvent aussi entraîner une accoutumance et des effets secondaires inquiétants. Les spécialistes du sommeil mettent particulièrement en garde contre leur utilisation chez les enfants pendant des périodes prolongées, sauf avis contraire de leur médecin traitant.

 

LES TYPES D'AIDES AU SOMMEIL

Les aides au sommeil se répartissent généralement en trois catégories : les médicaments sans ordonnance que les consommateurs peuvent acheter directement en magasin d’alimentation ou en pharmacie, les médicaments sur ordonnance qui nécessitent l’autorisation d’un médecin, et les compléments alimentaires.

Les médicaments sans ordonnance comprennent la diphénhydramine utilisée dans le Benadryl, la cyclizine utilisée dans le Marezine, et la doxylamine utilisée dans l’Unisom. Chacun de ces médicaments est un antihistaminique sédatif, parfois appelé antihistaminique de première génération.

Bien qu’ils soient conçus pour bloquer les effets d’une substance chimique du corps appelée histamine (dans le but de prévenir les réactions allergiques telles que les démangeaisons, les éternuements et les nausées), les antihistaminiques de première génération se distinguent des autres antihistaminiques, car ils « traversent la barrière hémato-encéphalique » et peuvent également favoriser la somnolence, explique Ilene Rosen, médecin spécialiste du sommeil et professeure agrégée de médecine à l’école de médecine Perelman de l’Université de Pennsylvanie.

C’est pour cela que certains parents donnent des antihistaminiques de première génération à leurs enfants lorsqu’ils se trouvent « au pied du mur », explique Beck, par exemple quand un enfant n’arrive pas à dormir parce qu’il est malade, quand un enfant n’arrive pas à s’endormir plusieurs nuits d’affilée à cause d’un cauchemar récurrent, ou en cas de vol long-courrier.

Les médicaments délivrés sur ordonnance comprennent le zolpidem utilisé dans l’Ambien, l’eszopiclone utilisé dans le Lunesta et le zaléplon utilisé dans le Sonata. D’autres produits pharmaceutiques comme l’amitriptyline et la trazodone ont également des effets sédatifs, bien qu’ils ne soient pas approuvés par la FDA à cette fin. Aucun produit pour traiter les troubles du sommeil sur ordonnance n’est approuvé pour une utilisation chez les enfants.

Les aides les plus courantes recommandées par certains pédiatres sont les compléments alimentaires, disponibles au rayon santé de la plupart des magasins d’alimentation. Ils sont vendus sous forme de produits à mâcher, de gélules, de liquides ou de gommes et comprennent la valériane, le magnésium et la mélatonine, cette dernière étant la plus populaire et la plus étudiée des trois.

 

AVANTAGES DES AIDES AU SOMMEIL

Le principal avantage de ces substances est d’augmenter ou d’améliorer la qualité du sommeil. Cela peut aider à éviter des problèmes associés à un manque de sommeil, comme une incapacité à se concentrer à l’école et un risque accru d’obésité.

La mélatonine « peut aider les enfants à s’endormir lorsqu’elle est utilisée dans le cadre d'une routine de sommeil saine », soutient Beck. À faible dose, ce complément alimentaire « peut également préparer le terrain lorsqu’un enfant doit se coucher plus tôt que d’habitude », par exemple quand il doit s’adapter à un nouvel horaire d’école, ajoute-t-elle.

La mélatonine a fait l’objet d’études approfondies et s’est révélée sûre et efficace pour les enfants qui souffrent d’insomnie liée à des troubles du développement neurologique tels que le TDAH, l’autisme et l’épilepsie.

Bien que ces recherches soient encourageantes pour les parents d’enfants souffrant de ces troubles, « il n’y a pas suffisamment d’études pour défendre l’utilisation de la mélatonine chez les enfants qui ne souffrent pas de troubles neurologiques », prévient Owens.

 

INCONVÉNIENTS DES AIDES AU SOMMEIL

Si l’on ne saurait trop insister sur l’importance de dormir suffisamment la nuit, les aides au sommeil ne sont généralement pas recommandées comme solution à long terme pour les enfants comme les adultes, car elles peuvent devenir indissociables d'une routine de coucher et provoquer des réactions indésirables. En effet, il a été démontré qu’elles altéraient les facultés cognitives et qu’elles pouvaient provoquer un état de somnolence pendant la journée, ce qui accentuait le risque de chutes et donc de blessures.

« L’utilisation régulière d’un produit pour traiter les troubles du sommeil sans ordonnance peut avoir des effets secondaires involontaires », soutient Baroni. Il peut s’agir d’une sédation résiduelle, de maux de tête, d’une vision floue, d’une accélération du rythme cardiaque, d’une constipation ou de difficultés à uriner.

Il est également possible développer une tolérance à ces substances, ce qui les rend moins efficaces au fil du temps. Enfin, ces produits peuvent retarder les stratégies à long terme, qui sont à privilégier. « En donnant des aides au sommeil aux enfants, on leur fait comprendre qu’ils sont incapables de s’endormir seuls et on n’invite ni les parents ni les enfants à travailler sur des pratiques favorisant le sommeil, ce qui devrait être le traitement de première intention pour les troubles du sommeil chez la plupart des enfants », explique Baroni.

 

QUELLE DOSE CONSOMMER ?

L’absence de réglementation stricte peut compliquer le dosage des aides au sommeil.

Pour ce qui est des compléments alimentaires, une étude montre que des doses de 1 à 3 milligrammes de mélatonine sont appropriées pour les enfants qui pèsent moins de 40 kg, et qu’au-dessus, les enfants ne devraient pas en consommer plus de 5 milligrammes.

« La mélatonine est considérée comme assez sûre à des doses appropriées lorsqu’elle est utilisée pendant une courte période », explique Baroni. Le risque de dépendance augmente au fur et à mesure que l’enfant consomme ce genre de substances. « Nous constatons que l’utilisation d'aides au sommeil continue d’augmenter et que, souvent, les parents ne savent pas comment faire arrêter ces médicaments ou compléments à leurs enfants. »

Les aides au sommeil sans ordonnance doivent impérativement être administrées selon les instructions de la notice.

Unisom SleepTabs, par exemple, met en garde contre l’utilisation du produit chez les enfants de moins de 12 ans. Dans le cas du Benadryl, de nombreuses formes du médicament ne doivent jamais être administrées à des enfants de moins de six ans, quand les enfants de 6 à 12 ans ne peuvent en consommer qu’une capsule ou un comprimé. Toutefois, même dans ces tranches d’âge, il est préconisé de ne pas utiliser le produit « pour faire dormir un enfant ».

« Les médicaments comme le Benadryl ou l’Unisom peuvent être utilisés pour traiter un rhume ou des symptômes grippaux, mais ne doivent pas être utilisés en premier lieu comme sédatifs », déclare Bhanu Prakash Kolla, médecin et consultant au Centre de médecine du sommeil de la Clinique Mayo de Rochester, dans le Minnesota.

 

S’ATTAQUER AUX CAUSES PROFONDES

Bhanu Prakash Kolla précise que les aides au sommeil ne doivent être utilisées qu’en « dernier recours et sous la supervision d’un professionnel de santé », et que de nombreux problèmes de sommeil peuvent être résolus par des stratégies comportementales. Parmi elles, citons le fait de s’assurer que l’environnement de l’enfant est propice à un sommeil réparateur en baissant l’éclairage de la chambre, en maintenant une température ambiante idéale, en fournissant à l’enfant un objet réconfortant ou une couverture préférée pour dormir, et en diffusant un bruit blanc en continu si nécessaire.

Beck recommande « une routine courte et douce à l’heure du coucher, précédée d’activités calmes et relaxantes après le dîner. » Elle suggère également d’éviter tout appareil électronique dans la chambre à coucher afin de « permettre à la production naturelle de mélatonine de l’organisme d’agir et d'aider à l'endormissement ».

Bien entendu, il existe des troubles psychiatriques et des troubles du sommeil pour lesquels l’utilisation de diverses aides au sommeil ou d’une thérapie comportementale peut être recommandée pour certains enfants, mais ces troubles doivent être diagnostiqués et évalués par un spécialiste au cas par cas.

« La meilleure solution pour les enfants souffrant de troubles du sommeil est de consulter un professionnel de santé et de demander à être orienté vers un spécialiste du sommeil qui pourra s’attaquer à la cause sous-jacente de ces troubles », suggère Martin. « Tout comme les adultes, les enfants peuvent souffrir de troubles comme l’insomnie et l’apnée du sommeil. Un diagnostic et un traitement opportuns peuvent donc les aider à mieux réussir à l’école, à atténuer les problèmes de comportement et à s’épanouir. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Les champignons médicinaux sont-ils vraiment bons pour la santé ?

Les champignons sont consommés et utilisés en médecine traditionnelle par des cultures du monde entier depuis des millénaires. Mais depuis quelques années, les produits à base de champignons semblent surgir de toutes parts. Ces produits, qui vont des teintures en bouteille aux barres chocolatées et aux substituts de café en poudre, font toutes sortes de promesses, allant d’une clarté mentale à des effets anti-âge, en passant par le soutien immunitaire et l’élimination des tumeurs. 

En effet, selon une analyse de l’industrie, les applications pharmaceutiques des champignons seront le segment du marché qui connaîtra la plus rapide croissance dans les prochaines années. Selon le rapport, le marché mondial des champignons dits « fonctionnels » ou « médicinaux », qui comprend des aliments, des boissons, des compléments alimentaires et des produits pharmaceutiques, était évalué à près de 26,7 milliards de dollars (24,7 milliards d’euros) en 2021 et devrait atteindre 65,8 milliards de dollars (60,9 milliards d’euros) d’ici à 2030. 

« Je n’ai jamais rien vu de tel. L’intérêt porté aux champignons depuis quelques années est sans précédent », soutient David Hibbett, professeur de biologie à l’université Clark, spécialisé dans la biologie évolutive des champignons. 

Alors que le « shroom boomp », à l’image du baby-boom, prend de l’ampleur, des doutes subsistent quant aux réels bienfaits de ces soi-disant superaliments sur la santé. Alors que certains herboristes et autres praticiens vantent les pouvoirs thérapeutiques de divers champignons, des mycologues restent sceptiques, voire s’inquiètent, face à ces affirmations largement répandues.

 

DES ÉTUDES PROMETTEUSES METTENT EN AVANT DE RÉELS BIENFAITS… 

Christopher Hobbs, herboriste, mycologue et auteur de Medicinal Mushrooms : The Essential Guide (lit. Champignons médicinaux : le guide essentiel) attribue cette récente explosion d’intérêt à la croissance « exponentielle » de la littérature scientifique sur les qualités curatives des champignons. 

Le reishi (Ganoderma lucidum), le « champignon de l’immortalité », est utilisé en Asie depuis plus de 2 000 ans du fait de ses bienfaits supposés sur la santé et la longévité. Plus récemment, il s’est immiscé dans des produits commerciaux tels que des gommes à mâcher et des compléments alimentaires qui se présentent comme des produits miracles, sources de « sommeil réparateur » ou encore de « bien-être général et de vitalité ». 

De nouvelles recherches se sont concentrées sur les bêta-glucanes dérivés du reishi, une fibre soluble dont il a été démontré qu’elle augmentait la réponse immunitaire et inhibait la croissance des tumeurs chez les souris. Une étude menée en 2023 a révélé que les populations de cellules immunitaires s’étaient développées de manière significative chez les 126 participants humains auxquels on avait administré de manière aléatoire des bêta-glucanes de reishi. 

Le champignon shiitaké (Lentinula edodes) contient également un bêta-glucane appelé lentinane, venté par certains pour ses effets antidiabétiques et immunothérapeutiques chez l’Homme. Il a été démontré que l’extrait supprimait le diabète de type 1 chez les souris et améliorait la réponse immunitaire chez les patients cancéreux qui suivaient une chimiothérapie.

Le chaga ou polypore incrusté (Inonotus obliquus), utilisé à des fins médicinales depuis le 12e siècle en Europe, est un autre acteur important du marché des champignons fonctionnels. Ce champignon est depuis longtemps prescrit pour soigner les troubles digestifs, réduire les inflammations et même traiter le cancer. Récemment, il a été démontré que la molécule Inonotus obliquus polysaccharide (IOP), un extrait bioactif de chaga, réduisait le taux de sucre dans le sang chez les souris et inhibait la croissance des cellules cancéreuses humaines in vitro. 

 

… MAIS LA RECHERCHE ACTUELLE NE DIT PAS TOUT

Certains experts soulignent néanmoins que les recherches existantes ne fournissent pas de preuves suffisantes quant aux effets bénéfiques de ces champignons sur la santé et qu’il serait nécessaire de mener des essais cliniques à plus long terme.

Selon Heather Hallen-Adams, professeure adjointe en sciences et technologies alimentaires à l’université du Nebraska à Lincoln, les études de laboratoire sont très contrôlées par rapport aux essais cliniques sur l’Homme et les résultats ne sont pas nécessairement applicables dans la pratique.

Elle ajoute que, bien qu’un nombre croissant de recherches mettent en avant les potentielles propriétés antitumorales des composés du shiitaké, de la queue de dinde et d’autres champignons, ces recherches se limitent largement à des études en laboratoires menées sur des cellules cancéreuses dans une boîte de Pétri ou sur des rongeurs génétiquement consanguins. Les résultats observés chez des personnes atteintes de différents types de cancer et au patrimoine génétique complexe seraient probablement très différents, et restent jusqu’à présent « largement anecdotiques ». 

L’hydne hérisson ou crinière de lion (Hericium erinaceus) par exemple, produit des composés biologiquement actifs qui semblent affecter la croissance des cellules nerveuses. Des études préliminaires ont également évoqué de possibles effets positifs sur les fonctions cognitives. « Mais cette observation ne signifie pas en soi que si nous mangeons de la crinière de lion, nous pourrons éviter la maladie d’Alzheimer », déclare Nicholas Money, mycologue et professeur de biologie à l’université de Miami, dans l’Ohio.

La queue de dinde ou tramète versicolor (Trametes versicolor), qui est peut-être le champignon médicinal le plus étudié selon John Michelotti, mycologue et fondateur de Catskill Fungi, présente également depuis longtemps un grand intérêt pour son rôle avéré dans le traitement du cancer. Dans un article de référence publié en 1994, des chercheurs japonais ont découvert que l’administration du polysaccharide K (PSK), un composé actif de la queue de dinde, en complément d’un traitement chimiothérapeutique standard « offre des avantages de survie significatifs par rapport à la chimiothérapie seule pour les patients ayant subi une résection à visée curative d’un cancer gastrique ».

En tant que directeur médical de la médecine intégrative au Memorial Sloan Kettering Cancer Center, Gary Deng se tourne souvent vers des remèdes naturels comme les champignons, les plantes et l’acupuncture, issus d’autres traditions médicales, comme traitement complémentaire. Il recommande parfois l’extrait de polysaccharide de queue de dinde comme complément pour certains patients. Toutefois, il déconseille vivement de pratiquer l’automédication.

« Chaque patient a une situation clinique unique », précise-t-il. 

Aussi convaincantes que soient les recherches existantes, elles présentent des limites évidentes. « La grande majorité des études ne sont pas des essais cliniques en double aveugle avec placebo », ce qui est la norme dans les processus d’approbation des médicaments, explique Hibbett. « C’est une approche risquée… Tant que l’on ne dispose pas d’études cliniques portant sur de vrais patients, on ne peut dire qu’un produit a de réels effets bénéfiques sur la santé. »

Par ailleurs, ajoute-t-il, si plusieurs études montrent des effets positifs sur l’Homme, d’autres font état de résultats mitigés, voire nuls.

Au Japon et en Chine, certains composés issus de champignons, comme le lentinane et le PSK, sont autorisés comme traitement annexe à la chimiothérapie pour traiter les patients atteints de cancer. Pour autant, nous sommes loin de les voir pénétrer l’industrie pharmaceutique américaine. Bien qu’une poignée d’études cliniques soient actuellement en cours, aucun extrait de champignon n’a encore été approuvé par l’Agence américaine des produits alimentaires et médicamenteux (FDA).

 

LE « FAR WEST » DES COMPLÉMENTS ALIMENTAIRES À BASE DE CHAMPIGNONS

Le débat permanent sur les propriétés médicinales des champignons n’a guère ralenti l’industrie. Les champignons comestibles font désormais partie intégrante du rayon des compléments alimentaires sous forme de mélanges en poudre, de teintures concentrées et d’autres produits qui se targuent d’une multitude de bienfaits pour la santé.

Avec sa société Fungi Perfecti, le mycologue Paul Stamets vend divers compléments alimentaires à base de champignons, qui auraient pour effet de stimuler la mémoire, de réguler le stress et d’aider le système immunitaire. D’autres produits, comme le Chagaccino (un « mélange de champignons adaptogènes ») et le MUD\WTR (un mélange en poudre de masala chai, de cacao et de champignons), se décrivent comme des alternatives au café ayant pour effet de soulager le stress, de lutter contre le vieillissement et d’améliorer les fonctions cognitives. 

Mais certains experts s’inquiètent de la quasi-absence de réglementation en ce qui concerne la distribution des compléments alimentaires à base de champignons. Car si la production, le dosage et les effets des médicaments approuvés par la FDA sont strictement réglementés, ce n’est pas le cas des compléments. En outre, des études ont démontré que les champignons prétendument contenus dans certains produits étaient mal étiquetés, voire purement absents desdits produits.

« C’est le Far West à l’heure actuelle », déclare Hibbett. « Les preuves sont encore très, très limitées et, à mon avis, ne justifient pas l’importante commercialisation de ces produits en tant que suppléments nutritionnels. »

Si les compléments alimentaires à base de champignons semblent dans le pire des cas inoffensifs, certaines études ont démontré qu’ils pouvaient être à l’origine de poussées auto-immunes et s’avérer toxiques. Toutefois, tant que les consommateurs ne les utiliseront pas pour remplacer des traitements médicaux éprouvés, la plupart des experts affirment rester sereins. Surtout qu’il est difficile d’ignorer le pouvoir de persuasion (ou l’effet placebo) associé à la prise de ces produits.

« Les consommateurs se sentent plus puissants, ce qui explique en grande partie pourquoi ils ressentent un effet thérapeutique », soutient Hobbs. « Qu’y a-t-il de mal à cela ? »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Expédition dans le labyrinthe de glace au sommet du mont Rainier

Près du sommet du mont Rainier, dans le cratère est du majestueux volcan, se trouve un réseau de vastes et sombres grottes de glace. Ces cavernes sont les plus grandes grottes glacio-volcaniques du monde et se situent à plus de 4 000 mètres au-dessus du niveau de la mer. Outre l'altitude, des poches invisibles de gaz mortels et des roches tranchantes rendent ces grottes peu accueillantes, en particulier pour y effectuer des recherches.

Ce labyrinthe de glace, dans les glaciers du mont Rainer, qui se dresse au sud-est de Seattle, dans l'État de Washington, recèle des informations sur le volcan, sur le fonctionnement interne des glaciers et même sur des mondes glacés éloignés de la Terre. Si les grottes peuvent être magnifiques, le spéléologue et explorateur National Geographic Christian Stenner n’est satisfait que lorsque son équipe et lui en sortent sains et saufs.

« C'était incroyable d'y mettre les pieds pour la première fois », déclare Stenner. Le passage principal des grottes forme un grand anneau autour du cratère volcanique, mais les entrées du système sont étroites et exiguës, et se ramifient à partir de l'anneau principal. Pour y entrer, les explorateurs doivent s'accroupir et descendre dans des trous à la surface du glacier et ramper le long du cratère escarpé jusqu'à l'anneau principal, situé à près de 150 mètres de profondeur. « Il faut une minute pour s’orienter selon ce que l'on compte faire dedans, puis on se met au travail », explique Stenner.

De 2014 à 2017, le travail de Stenner et de son équipe a consisté à analyser minutieusement plus de trois kilomètres de grottes de glace, dans le cadre d'expéditions soutenues par National Geographic. Ce réseau a été cartographié grâce à des expéditions menées dans les années 1970 et 1990, mais ces cartes restaient lacunaires, avec des incohérences et des incertitudes. Certains tunnels avaient-ils été oubliés lors des expéditions précédentes ou venaient-ils de se former ?

Aujourd'hui, dans une nouvelle étude publiée dans le Journal of Cave and Karst Studies, Stenner et ses collaborateurs ont présenté la carte la plus complète des grottes de glace du mont Rainer à ce jour. Leur carte indique près de deux fois plus de longueur de grotte que ce qui avait été cartographié auparavant. L'équipe a également découvert un lac sous-glaciaire qui pourrait être le lac le plus élevé des États-Unis.

Ces grottes glaciovolcaniques ont persisté pendant des décennies, alors que de nombreuses grottes de ce type sont plus éphémères, ce qui les rend impressionnantes. Pour découvrir les secrets de la longévité des grottes et étudier la façon dont elles pourraient être affectées par le changement climatique, les scientifiques ont dû s'aventurer dans le cratère gelé d'un volcan.

 

L’HISTOIRE COMPLEXE DE CES CAVES

Comme leur nom l'indique, les grottes glaciovolcaniques se forment dans les glaciers au sommet des volcans, et même les géologues les considèrent comme des étrangetés. Il n'y aurait, dans le monde, qu'environ 250 systèmes volcaniques capables d'abriter des grottes glaciaires et parmi eux, seule une poignée de grottes documentées se trouveraient dans des endroits tels que l'Antarctique, l'Islande et l'ouest de l'Amérique du Nord.

« La plupart des gens n'ont jamais entendu parler des grottes glaciovolcaniques », dit Linda Sobolewski, géologue à l'université de la Ruhr à Bochum, en Allemagne, qui travaille avec Stenner. « Il est très difficile de pénétrer dans ces grottes et d'y réaliser des recherches, c'est pourquoi il reste encore beaucoup à faire. »

Pour accéder à ces grottes, il faut avoir déjà pratiqué l'alpinisme, la spéléologie et l'escalade glaciaire, et se préparer à faire des efforts physiques et mentaux pour passer plusieurs jours en haute altitude. Voilà pourquoi, selon les auteurs de l'étude, les grottes glaciovolcaniques sont peut-être le type de grotte le moins bien documenté sur Terre.

Les grottes de glace du mont Rainier ont été documentées pour la première fois par des alpinistes lors d'une tentative d'ascension en 1870, bien qu’il existe des récits d'autochtones bien plus anciens sur le mont, également appelé Tahoma ou Takoma, qui signifie « mère de toutes les eaux » dans la langue indigène Lushootseed. Dans un récit de l'expédition publié dans le magazine américain The Atlantic en 1876, l'auteur décrit « une profonde caverne, qui s’étend dans et sous la glace, formée par l'action de la chaleur... Son toit était un dôme de glace d'un vert éclatant, d'où pendaient de longues stalactites ».

Les alpinistes pourront continuer à visiter les grottes, et les scientifiques s'y rendre également pour comprendre les processus volcaniques et glaciaires sur cette planète et au-delà. Un nombre impressionnant de bactéries extrêmophiles vivent dans les profondeurs des grottes et offrent un aperçu de ce que pourrait être la vie sur des mondes océaniques glacés tels que la lune glacée de Saturne Encelade, et de la façon dont l'humain pourrait un jour explorer ces environnements. La NASA a même testé des robots explorateurs dans les grottes de glace de Rainier.

Les changements dans la structure des grottes pourraient également alerter les scientifiques sur une activité volcanique subtile, telle que la migration d'évents pour les gaz volcaniques chauds appelés fumerolles, qui pourrait ne pas être repérées par télédétection de la surface. Avec des millions de personnes vivant dans l'ombre de la montagne, Rainier « est un volcan qui a besoin d’être surveillé par tous les moyens que nous pouvons imaginer », explique Stenner.

En outre si quelqu'un devait être secouru dans les grottes, les sauveteurs auraient besoin d'une carte, explique Stenner, même si le parc national de Rainier déconseille fortement aux gens de pénétrer dans les grottes en raison des risques qu'elles présentent.

Toutefois, ce qui motive le plus Stenner est l’idée de trouver quelque chose qui n'a jamais été vu auparavant.

« C'est une véritable exploration », dit-il. « Il s'agit de se rendre dans des parties de la grotte où l’humain n'est jamais allé et où il n'ira peut-être plus jamais. Il s’agit enrichir le monde de nos connaissances. Voilà la vraie récompense. »

 

CARTOGRAPHIER LA GROTTE

Après l'ascension de 1870, des rapports d'alpinistes et de rares articles de recherche ont fourni des indications souvent contradictoires sur les grottes. Pour lever cette incertitude, de 1970 à 1973, une équipe s’est rendue dans les grottes avec l'équipement adéquat pour réaliser une carte précise des lieux. Ses membres ont documenté environ 1 800 mètres de couloir. Puis, entre 1997 et 1998, une autre équipe a grimpé dans les grottes, avec un équipement plus récent, et les a cartographiées à nouveau, cette fois-ci sur une distance d'environ 1 500 mètres.

Stenner et ses collègues pensaient pouvoir aller encore plus loin. Entre 2014 et 2017, leur équipe a mené plusieurs expéditions vers le sommet. L'expédition de 2017, qui comptait plus de quatre-vingts scientifiques et bénévoles, a été la plus importante de l'histoire du volcan.

Tous ceux qui sont montés ont fait une randonnée d'environ vingt-quatre kilomètres, gagnant 3 000 mètres d'altitude, avec un sac de trente kilos et en devant affronter des vents de 130 kilomètres à l'heure. Le travail ne s’est pas arrêté une fois arrivés au sommet.

« Les deux derniers kilomètres sont vraiment démoralisants. Vous arrivez à 4 000 mètres et vous réalisez qu'il vous en reste encore 600 à parcourir », raconte Lee Florea, géologue au Washington Geological Survey, qui a participé aux expéditions en tant que spéléologue. « À cette altitude, tout est difficile pour votre corps. »

Florea a perdu quelques ongles d'orteils dans les montées raides, et se souvient d’ampoules de la taille d'une balle de golf qui recouvraient les pieds d'un membre de l'équipe alors qu'un infirmier se précipitait pour sauver ce qu'il pouvait de la peau. « Ses pieds se sont pratiquement détachés dans sa botte », raconte Florea.

Une fois le camp installé, Stenner et son équipe ont transporté de petites stations d'arpentage dans les grottes afin de soigneusement mesurer les distances et triangulant les points pour créer une carte numérique. Pour apporter les nuances nécessaires, l'équipe dessinait à la main les détails et les corrections, comme l'avaient fait ses prédécesseurs.

Lors de leurs différents retours les années suivantes, certaines stations avaient disparu dans des crevasses ou s'étaient dégradées au point de ne plus fonctionner. La vapeur s'élevant des fumerolles bloquait parfois les lasers des instruments de celles qui étaient encore en place, les empêchant de mesurer quoi que ce soit.

« Le problème de ces grottes est qu'elles détruisent tout », explique Stenner.

Le travail effectué dans les petits couloirs du réseau de grottes a été particulièrement difficile. Certains libellés de cartes, tels que « Misery Crawl » (ramper en souffrance) et « Murphy's Law » (la loi de Murphy) témoignent de l'état d'esprit de l'équipe.

Stenner et son équipe ont également vécu des moments de grâce durant cette expédition. Après avoir passé d'interminables minutes à se traîner sur le fond déchiqueté du cratère, l’un de ses coéquipiers et lui sont finalement sortis par un trou dans la glace sur le côté du cratère. Au-dessous d'eux, le sommet des nuages s'étendait et la montagne jetait une ombre bleue sur le blanc.

« Nous souffrions tellement de ce que nous venions de vivre, puis nous avons regardé en arrière et vu cette scène majestueuse », se souvient Stenner. « C'était vraiment incroyable. »

 

DES GROTTES REMARQUABLEMENT STABLES

Une fois l'expédition terminée, Stenner et ses collègues, sain et sauf, à nouveau au niveau de la mer, ont comparé méthodiquement leur nouvelle carte à celles réalisées en 1970 et 1990, en vérifiant si des passages avaient été oubliés, s'ils s'étaient récemment formés, avaient disparu ou changé de taille.

Leur nouvelle carte fait état d'un passage de 3 592 mètres, soit environ trois kilomètres. L'équipe estime qu'environ 600 mètres de nouveaux couloirs se sont formés récemment. Alors que le couloir principal, qui fait presque le tour complet du cratère, n'a pratiquement pas changé, de nombreux couloirs plus petits situés sur les bords de la grotte se sont déplacés ou ont disparu.

Pour des grottes glace situées au sommet d'un volcan, elles sont « remarquablement stables », écrivent les auteurs. « Enfin, à peu près stables », précise Florea.

Selon Erin Pettit, glaciologue à l'université d'État de l'Oregon qui a étudié les glaciers de Rainier mais n'a pas participé à ces expéditions, les grottes de Rainier pourraient être stables en raison de la forme de cuvette du cratère, qui protège le glacier d'une fonte trop importante, tandis que le volcan fournit juste la bonne quantité de chaleur. « Je ne suis pas surprise que ces glaciers soient restés stables au fil du temps, aussi longtemps que le volcan a été stable », dit-elle, « mais c'est vraiment génial de pouvoir constater cette longévité, surtout quand on sait à quel point les glaciers peuvent être fragiles. »

La carte est d'autant plus intéressante que des citoyens scientifiques y ont contribué, explique Jason Gulley, géologue à l'université de Floride du Sud, qui n'a pas participé aux travaux.

« L'aspect le plus incroyable et le plus marquant de tout cela est qu'il s'agit d'une exploration réalisée par un groupe de citoyens ordinaires », déclare-t-il, tout en soulignant que les compétences requises pour travailler dans certaines des grottes de glace les plus hautes du monde n'ont rien d’« ordinaire ».

 

QUEL AVENIR POUR LES GROTTES DE GLACE DE RAINIER 

La stabilité des grottes contraste avec celles des deux des voisins de Rainier : le mont Hood et le mont Saint Helens. Le glacier Sandy, situé sur le mont Hood, recule et ses grottes de glace rétrécissent avec lui, tandis que les grottes glaciaires du mont Saint Helens se développent, comme l'ont rapporté Stenner et Sobolewski en 2023.

Il s’agit d’un équilibre précaire et comme d'autres glaciers dans le monde succombent au changement climatique, les scientifiques ne sont pas certains de ce qu'il adviendra des grottes de Rainier. « Chaque [glacier volcanique] réagira différemment », explique Stenner. « Nous ne voudrions pas que ces environnements si uniques disparaissent. »

La nouvelle carte servira de référence essentielle pour suivre les changements, qu'ils soient liés au climat ou à l'activité volcanique. Si le taux de fonte augmente, ce ne sont pas seulement les grottes qui risquent de s'effondrer. La roche au sommet des volcans est « friable » en raison des fluides chauds et acides qui y circulent, et la glace glaciaire est essentielle pour maintenir le sommet de la montagne intact, explique Pettit. Si le glacier disparaît, des parties de l'édifice volcanique pourraient également s'effondrer et déclencher des coulées boueuses mortelles appelées lahars, qui pourraient mettre en danger des milliers de personnes.

Les grottes récemment cartographiées constitueront également un analogue précieux pour d'autres planètes, selon Gulley. « Les astrobiologistes peuvent effectuer de nombreux travaux à l'intérieur de ces grottes, qui pourront servir à comprendre ce que pourrait être la vie sur des mondes de glace comme [la lune de Jupiter] Europe », explique-t-il.

Le changement climatique menace de perturber l'équilibre de ces grottes de glace, mais pour l'instant, les recoins gelés du mont Rainier ne semblent pas être prêts à disparaitre.

« En réalité, tout est éphémère », explique Pettit, « mais il s'avère que la glace est difficile à faire fondre. »

La National Geographic Society s'est engagée à mettre en lumière et à protéger les merveilles de notre monde. Elle a financé le travail de l'explorateur Christian Stenner. Pour en savoir plus sur le soutien apporté par la société aux explorateurs, consultez le site natgeo.com/impact.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Que dit votre ADN de votre risque d’addiction aux opioïdes ?

Favorisé par une consommation de plus en plus importante de fentanyl et d’autres substances, le nombre décès par surdose de drogue continue d’augmenter aux États-Unis, en particulier depuis la pandémie de Covid-19. En 2022, les Centres pour le contrôle et la prévention des maladies ont recensé 109 540 décès par surdose de drogue, dont la plupart étaient liés à une consommation d’opioïdes. 

En décembre 2023, la Food and Drug Administration (Agence fédérale américaine des produits alimentaires et médicamenteux) des États-Unis a approuvé le test AvertD (prononcé « averted », qui signifie « évité ») pour les patients de dix-huit ans et plus qui n’ont jamais consommé d'opioïdes et qui doivent recevoir un traitement pour une douleur aiguë, et non chronique. Il s'agit du premier test génétique approuvé visant à identifier les personnes présentant un risque d’addiction aux opioïdes, et du seul test de risque polygénique autorisé par la FDA pour une affection psychiatrique à ce jour.

« La crise des opioïdes est l’une des questions de santé publiques majeures à laquelle sont confrontés les États-Unis. Elle nécessite des mesures innovantes pour empêcher, diagnostiquer et soigner les troubles qui y sont associés, notamment en évaluant le risque de les développer », a déclaré la FDA dans un communiqué qui annonçait sa décision. « Cette approbation est un pas de plus de la FDA pour empêcher de nouveaux cas de troubles de consommation d’opioïdes. » 

Néanmoins, certains experts du milieu psychiatrique restent sceptiques sur la véritable efficacité d’un quelconque test polygénique, test qui mesure de petits apports venant de nombreux gènes.

Selon Arpana Agrawal, généticienne psychiatrique de l’université Washington de Saint-Louis, bien que la génétique soit importante pour comprendre l’addiction, les chercheurs ont besoin de davantage d’informations pour identifier une personne à risque. Patrick Sullivan, psychiatre de l’université de Caroline du Nord à Chapel Hill et chercheur principal du Psychiatric Genomics Consortium, la rejoint sur ce point. L’ADN ne représente qu’une partie infime des raisons pour lesquels une personne développe une addiction aux opioïdes ou une maladie comme la schizophrénie. « Ce n'est pas aussi simple que nous aimerions le croire », déclare Agrawal.

Toutefois, ces experts et d'autres interlocuteurs du National Geographic s'accordent à dire que les tests de risque polygénique sont prometteurs pour toute une série d'autres maladies allant des maladies cardiovasculaires au diabète de type 2.

 

LA PROMESSE D’UN TEST GÉNÉTIQUE

Avant le séquençage du génome humain, l'essentiel du travail des généticiens était centré sur les maladies causées par des mutations dans un seul gène, telles que la mucoviscidose et l'hémophilie. Ces travaux étaient révolutionnaires, mais ne portaient pas sur les affections plus courantes telles que l'hypertension, l'hypercholestérolémie et le diabète.

De nombreuses maladies chroniques résultent d'une interaction complexe de facteurs environnementaux comme la pollution, les traumatismes subis pendant l'enfance et l'accessibilité alimentaire, ainsi que de petites contributions provenant de centaines, voire de milliers, de variants génétiques, et non des conséquences dévastatrices d’un seul gène. Individuellement, l'effet de chaque variant génétique est insignifiant. Cependant, des scientifiques comme Sekar Kathiresan, cardiologue, généticien et fondateur de l’entreprise de biotechnologie Verve Therapeutics, pensaient que toutes ces petites influences pouvaient avoir un effet majeur.

En mars 2008, son équipe a publié sa première découverte dans la revue américaine New England Journal of Medicineune étude qui rassemblait les effets de neuf variants génétiques en un risque génétique unifié de maladie cardiovasculaire. Kathiresan et ses collègues ont pu combiner les effets infimes de nombreux gènes sur l'ensemble de l'ADN d'une personne en une seule évaluation du risque génétique.

« Il s'agissait d'une preuve de l'hypothèse selon laquelle la génétique était peut-être un élément clé de l'apparition du risque de maladie », explique Kathiresan.

Les scientifiques ont rapidement découvert un nombre croissant de variantes génétiques qui influençaient le risque de maladie cardiovasculaire, rendant les résultats de risque polygénique encore plus efficaces pour identifier les personnes dont les gènes les prédisposent aux maladies cardiaques.

Ces personnes ont été traitées de manière plus agressive avec des statines, explique Robert Green, généticien médical à la Harvard Medical School, directeur du programme de recherche Genomes2People au Mass General Brigham et consultant rémunéré par Allelica, une société qui vend des tests de score de risque polygénique. Des études ultérieures ont montré que cela contribuait probablement à réduire leur risque de crise cardiaque et d'accident vasculaire cérébral.

 

LES LIMITES DE CE TEST

Les scientifiques se sont mis à chercher d'autres utilisations des scores de risque polygénique. Ils ont pu calculer des scores de risque polygénique particulièrement utiles au dépistage et à la prévention de maladies telles que le diabète, la maladie d'Alzheimer et les cancers du sein et de la prostate, explique Kathiresan.

Dans d'autres domaines, cependant, ils ont commencé à rencontrer des problèmes, en particulier lorsqu'ils ont tenté d'identifier les variations de l'ADN susceptibles de contribuer à des pathologies comme le trouble bipolaire, la schizophrénie et le trouble de l’usage d’opioïdes.

De nombreuses études ont démontré que le risque de troubles mentaux était en grande partie héréditaire et que les personnes diagnostiquées possédaient un ensemble de variantes génétiques différentes de ceux qui n’en avaient pas. 

Toutefois, déterminer l’utilité du score de risque spécifique est souvent plus difficile que de procéder à son calcul. Sullivan prend l’exemple de la taille : l'homme moyen est nettement plus grand que la femme moyenne, mais il y a beaucoup d'hommes petits et de femmes grandes. Par conséquent, il n'est pas possible de deviner avec précision le sexe d'une personne en se basant sur sa taille, explique-t-il. De même, les scientifiques pourraient être en mesure de détecter des différences génétiques entre les personnes souffrant de troubles psychiatriques et celles qui n'en souffrent pas, mais ces deux groupes se chevauchent trop pour qu'on puisse les différencier.

Les scientifiques ne savent toujours pas pourquoi. L'une des possibilités est qu'ils n'en savent pas encore assez sur la génétique sous-jacente des troubles psychiatriques pour pouvoir se servir d’un test permettant d'identifier un risque génétique élevé ou faible. L'autre possibilité est que les différences génétiques entre les personnes à haut risque et à faible risque ne sont tout simplement pas assez importantes pour être utiles d'un point de vue médical.

En outre les personnes d’ascendance européenne sont particulièrement sur-représentées dans la plupart des études génétiques, ce qui signifie que les chercheurs en savent généralement moins sur les gènes des personnes d’autres ethnicités, selon une étude parue en 2019. Il est donc plus compliqué de calculer leur score de risque polygénique. 

Les scores de risque polygénique ne mesurent pas non plus toute l'étendue du risque d'une personne de développer une maladie. Un score de risque polygénique ne peut pas prendre en compte la myriade de facteurs environnementaux qui ont souvent des répercussions plus importantes que la génétique sur les personnes qui tombent malades. De plus, l'environnement d'une personne est particulièrement malléable, ce qui multiplie les occasions de faire pencher la balance du côté d’une meilleure santé.

« L'ADN n'est pas une fatalité », affirme Kathiresan. « Il s'agit d'une seule composante et elle n'est pas déterministe. »

 

GÉNÉTIQUE ET TROUBLES DE L’USAGE D’OPIOÏDES

Pourtant, la promesse d'un test qui pourrait empêcher la dépendance aux opioïdes chez certaines personnes a séduit de nombreux scientifiques.

Keri Donaldson, fondateur et PDG de Solvd Health, le fabricant de l'AvertD, pensait que les algorithmes d'intelligence artificielle étaient à même d'identifier les personnes présentant un risque génétique élevé de développer un trouble de l’usage d’opioïdes.

Au lieu d'isoler des variantes génétiques spécifiques pour calculer le risque d'une personne, Donaldson s’est servi d’un ordinateur pour déterminer les différences génétiques entre les personnes qui ont abusé des opiacés et celles qui n'en ont pas abusé. L'étude a analysé des millions de points le long du génome et a identifié quinze variantes génétiques qui pourraient aider à distinguer ces deux groupes.

L’effet collectif de ces variantes est calculé à l'aide d'un modèle mathématique qui attribue à chaque personne testée un score compris entre 0 et 1. Un score supérieur à 0,33 indique un risque génétique élevé d'abus d'opioïdes. Plus le score est élevé, plus le risque est important. Ces informations constituent la base d'AvertD.

Cependant, lorsque l'équipe d'Agrawal a essayé d'utiliser l'intelligence artificielle pour prédire le risque de troubles liés à l'utilisation d'opioïdes, celle-ci n'a pas été en mesure de reproduire les résultats. Selon elle, les chercheurs ont besoin d'études plus diversifiées et plus vastes pour être en mesure d'identifier ce risque par un test.

« Chaque fois que nous observons ces facteurs polygéniques, nous devons prendre en compte qu’ils ne seront qu’une partie de la solution. Les facteurs environnementaux sont leur complément », explique-t-elle.

Donaldson admet qu’AvertD n’est pas une boule de cristal et que « le nier n’est pas la solution. » Il défend la science qui sous-tend le test et cite une étude qui montre que, dans plus de 80 % des cas, les algorithmes d'AvertD sont capables de faire la distinction entre les personnes atteintes ou non d'un trouble de l’usage d’opioïdes. « Le trouble de la consommation d'opioïdes est un trait complexe, à la fois inné et acquis. Nous fournissons des informations sur les raisons génétiques de ce trouble », précise-t-il.

 

COMPRENDRE SON PROPRE RISQUE

Alors que ces tests gagnent en popularité, les cliniciens doivent apprendre à interpréter leurs résultats avec les patients. Selon Donaldson, la clé est d’informer les prescripteurs. 

« Nous avons commencé par nous demander comment aider les patients individuels, ainsi que les prescripteurs, à comprendre les risques d’une nouvelle manière », explique-t-il. 

On ne lit pas ces scores comme on lit la météo, met-il en garde. Par exemple, un score AvertD de 0.5 ne signifie pas que vous avez 50 % de chances de développer une addiction aux opioïdes. Cela veut plutôt dire que votre risque est plus élevé que la moyenne et que vous devriez peut-être éviter les traitements qui contiennent des opiacés. 

« Une fois les scores de risque AvertD en main, les médecins et les patients peuvent avoir une conversation informée sur les façons d’éviter les opioïdes ou d'utiliser des options alternatives de gestion de la douleur », ajoute-t-il.

Toutefois, Agrawal s'inquiète de ce que cela pourrait signifier pour les personnes dont les tests indiquent qu'elles présentent un risque génétique élevé de dépendance aux opioïdes. Elle affirme que de nombreux médecins ne comprennent toujours pas comment traiter la douleur sans opioïdes, ce qui pourrait entraîner des souffrances inutiles.

Au lieu d'identifier la dépendance aux opioïdes, elle préfère se concentrer sur « la façon dont nous pouvons faciliter le chemin vers la guérison et la sécurité », dit-elle.

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

Congeler ses ovocytes : un bébé pour plus tard ?

Sous les lumières blafardes d’un hôpital parisien, allongée sur une table en acier, Camille vit un moment aussi attendu que redouté. La toute première ponction de ses ovocytes : la réalisatrice de trente-cinq ans a décidé de les congeler pour se laisser une chance d’avoir des enfants. L’équipe médicale est aux petits soins, un air des Beatles résonne dans la pièce, histoire de détendre l’atmosphère avant l’anesthésie locale. 

Un moment tout particulier pour Camille, qui, jusqu’à il y a un an, ne pensait pas avoir à traverser tout ça. « J’étais en couple pendant cinq ans avec un compagnon qui m’assurait désirer des enfants. J’étais sûre de vouloir être mère, mais j’attendais d’être bien installée dans ma vie professionnelle avant de me lancer. Cela n’est arrivé qu’aux alentours de trente-deux ans », explique celle qui a désormais réalisé plusieurs documentaires et un court-métrage de fiction. Sauf que la vie prend un tournant inattendu : son compagnon la fait patienter pendant encore deux ans... avant de la quitter. « J’ai à peine eu le temps de sécher mes larmes ; j’ai couru chez mon gynécologue pour faire un bilan de fertilité et me renseigner sur les options : "PMA femme seule" ou congélation des ovocytes ». C’est dans cette deuxième voie qu’elle décide d'abord de se lancer.

Comme elle, depuis fin 2021 et le vote de la loi bioéthique, plus de 20 000 femmes ont fait une demande de ce que les médecins appellent une « autoconservation non médicale d’ovocytes ». « La France a fait un pas de géant. Du jour au lendemain, la congélation des ovocytes pour raisons non médicales est devenue non seulement possible mais aussi intégralement remboursée » souligne Pietro Santulli, gynécologue-obstétricien, responsable de l’unité médecine de la reproduction au sein de l’hôpital Cochin Port Royal. « Les profils sont différents, mais, dans notre hôpital, environ 65 % des demandes sont faites par des femmes autour de trente-cinq ou trente-six ans – juste avant la date butoir fixée par la loi ». 

La loi bioéthique donne en effet des bornes d’âge : le prélèvement d’ovocyte est possible entre vingt-neuf et trente-sept ans. À Marseille aussi, « la grande majorité des femmes qui font cette demande ont environ trente-cinq ans. Elles n’ont pas la possibilité de faire un enfant avec quelqu’un à ce moment-là et voient l’horloge qui tourne. Elles décident de mettre des ovocytes de côté dans l’espoir d’un projet parental à deux » ajoute Catherine Guillemain, cheffe de service de biologie de la reproduction à l’hôpital de la Conception. 

D’autres femmes ne veulent pas d’enfants au moment de la congélation, mais entendent se donner le choix dans le futur. Dans ce cas, la congélation d’ovocytes sert aussi, d’une certaine manière, à « assumer le lourd choix de la non-maternité » à un instant donné, comme l’écrit l’anthropologue Yolinliztli Pérez-Hernandez. « Avoir des ovocytes congelés place ces femmes non dans le groupe des "sans enfant", mais dans celui des "pas encore mères" ».

Avant août 2021, cette procédure n’était autorisée que pour raisons médicales (ou en cas de dons d’ovocytes, les donneuses pouvaient éventuellement en garder une partie pour elle-même). Les médecins ponctionnent ces ovocytes avant certaines chimiothérapies, ou bien en raison d’une maladie qui altère la fertilité, comme l’endométriose. Désormais, les deux activités cohabitent. 

« Cela ne pénalise pas, bien sûr, les demandes médicales : en cas d’une chimiothérapie par exemple, la ponction des ovocytes est réalisée en urgence » explique Pietro Santulli. Pour celles qui veulent se donner plus de temps pour un projet d’enfant, en revanche, les délais explosent, surtout en région parisienne : « on compte deux ans d’attente pour un premier rendez-vous dans notre centre de l’hôpital Cochin Port Royal » poursuit le professeur. « Nous avons eu des moyens supplémentaires, mais insuffisants en regard de la demande. Aujourd’hui, nous sommes largement dépassés » ajoute Catherine Patrat, cheffe du service de Biologie de la Reproduction dans ce même hôpital. Pour fluidifier la situation en Ile-de-France, Pietro Santulli aimerait voir naître de nouveaux centres complètement dédiés à l’autoconservation des ovocytes.

Autre souhait, adapter cette « date butoir » de trente-sept ans aux différences biologiques entre les patientes. « Cette limite créé des frustrations à l’échelle individuelle. Certaines, à trente-six ans, n’ont quasiment plus d’ovocytes. D’autres ont une excellente réserve ovarienne à trente-sept ans, mais c’est illégal pour elles de les congeler » poursuit Pietro Santulli.

Trois options s’offrent ensuite aux patientes. Utiliser leurs ovocytes (c’est possible jusqu’à quarante-cinq ans), les détruire, ou les donner. « Aujourd’hui, le nombre de donneuses d’ovocytes est insuffisant en regard de la demande. Peut-être que cette loi va permettre d’en avoir plus à terme, vu que les ponctions sont déjà réalisées » espère Pietro Santulli. Mais difficile, près de deux ans après la loi bioéthique, de connaître le destin de ces gamètes congelés en France. Outre-Manche, une étude menée pendant dix ans donne néanmoins quelques tendances. 

Premier enseignement, seul un cinquième des femmes ayant congelé leurs ovocytes (pour raisons médicales comme non médicales) sont revenues à la clinique les utiliser. « Certaines changent d’avis sur le fait de vouloir des enfants. Et il est probable qu'un grand nombre d'entre elles parviennent à concevoir un enfant de manière naturelle, sans jamais avoir besoin de revenir à la clinique » explique Zeynep Gurtin, l’autrice de l’étude. Une bonne nouvelle pour ces femmes-là. Car seules 21 % des patientes qui utilisent leurs ovocytes congelés deviennent mères grâce à eux, toujours selon cette étude.

Camille, elle, a eu la chance de ne pas en passer par là – contre toute attente. Lors de sa ponction, les médecins n’ont pu prélever que trois ovocytes. « Ma voisine de chambre, à trente-six ans, en avait trente-sept, tous prélevés en une seule ponction ». Difficile d’accueillir sereinement ces informations, surtout qu’il faut au moins douze ovocytes « de côté » pour avoir une chance de tomber enceinte ensuite, selon les estimations des scientifiques. Camille s’effondre. Elle, qui (et c’est un cas particulier), a souffert comme rarement lors de ce procédé, s’est évanouie, ne pouvait plus dormir... Impossible de songer à tout recommencer plusieurs fois pour quelques ovocytes. Elle décide de lâcher prise. Elle prend rendez-vous, sans vraiment y croire, pour une PMA femme célibataire, une procédure qui permet de bénéficier de dons de spermatozoïdes. 

« Mais je n’arrivais pas à faire le deuil d’un projet de bébé en amoureux ». Et puis un soir, dans un bar, elle a un coup de foudre... et de la chance : c’est réciproque. Ils se mettent rapidement en couple. Au vu de ses résultats d'analyses et de son âge, sa gynécologue lui conseille d’arrêter tout de suite sa contraception. Son compagnon est d'accord aussi. Deux semaines plus tard, comme un sourire du destin, Camille est tombée enceinte d’un bébé prévu pour cet été.

Le cancer de l’estomac serait de plus en plus fréquent chez les jeunes femmes

Il y a plus de dix ans, Shria Kumar, gastro-entérologue et chercheuse à l’université de Miami, a remarqué un fait déconcertant. Certains de ses patients atteints d’un cancer de l’estomac étaient bien plus jeunes que la normale et un grand nombre d’entre eux étaient des femmes. Cette tendance est encore d’actualité. 

Alors que les raisons de ce phénomène sont encore inconnues, depuis le printemps dernier, les scientifiques américains sont sûrs d’eux : ce phénomène est bel et bien réel.  En examinant les registres complets des cancers dans plusieurs États américains, les chercheurs ont conclu que le cancer de l'estomac augmentait plus rapidement chez les jeunes femmes. Aux États-Unis, sur près de vingt ans, le pourcentage de patientes de moins de cinquante-cinq ans a augmenté de 3 %, soit deux fois plus que pour les jeunes hommes. Parallèlement, le taux de personnes plus âgées atteintes diminue. Cette augmentation concerne principalement les femmes blanches non-hispaniques, un groupe traditionnellement moins susceptible de développer la maladie que les femmes noires, hispaniques et asiatiques. 

Aux États-Unis comme en France, les hommes de plus de cinquante-cinq ans représentent toujours la majorité des patients atteints de cancer de l'estomac, mais l'augmentation du nombre de jeunes femmes est particulièrement inquiétant, car leur maladie a tendance à être plus virulente.

« Ces tumeurs sont plus avancées au moment du diagnostic et elles sont plus agressives », ce qui conduit à des pronostics plus défavorables, explique Kumar. 

Le taux de survie global à cinq ans pour le cancer de l'estomac aux États-Unis est de 36 %, le même chiffre qu’en France pour les patients de moins de cinquante ans. Ce chiffre a baissé ces dernières années, en particulier chez les Asiatiques et les Noirs Américains. Cependant, chez les personnes diagnostiquées après la propagation de leur cancer, ce qui arrive souvent chez les personnes plus jeunes atteintes de tumeurs plus agressives, le taux de survie n'est que de 6,6 %.

Cette hausse n’est pas spécifique au cancer de l'estomac. Les cancers gastro-intestinaux sont également de plus en plus nombreux chez les jeunes, notamment le cancer du pancréas et le cancer colorectal, raison pour laquelle les recommandations fédérales en matière de dépistage par coloscopie sont passées, il y a quelques années, de cinquante à quarante-cinq ans aux États-Unis.

 

COMMENT L’EXPLIQUER ? 

Il existe de nombreuses théories sur les raisons de cette soudaine hausse mais aucune n’est définitive. « Il s’agit d’une question à laquelle personne ne parvient à apporter de réponse claire », déclare Michael Cecchini, oncologue médical au centre dédié aux cancers gastro-intestinaux du Yale Cancer Center. 

Selon Srinivas Gaddam, gastro-entérologue au centre médical Cedars-Sinai de Los Angeles et auteur principal de l'étude de suivi, les changements observés dans nos modes de vie et notre environnement au cours des dernières décennies pourraient être une explication.

« Tout ce que votre corps absorbe constitue l'environnement que voit votre estomac », explique Gaddam. Les jeunes femmes boivent et fument davantage, ce qui pourrait avoir ce type de conséquences. Il se peut également que notre système alimentaire contienne de nouveaux produits chimiques. Même les toxines que nous respirons peuvent atterrir dans l'estomac, fait-il remarquer.

Les jeunes femmes à qui l'on diagnostique un cancer de l'estomac sont souvent choquées par la nouvelle. Camilla Row, 39 ans, mère de deux jeunes enfants à Los Angeles à l'époque de son diagnostic, se souvient avoir pensé : « Je ne savais même pas que l'on pouvait avoir un cancer de l'estomac ».

Camilla Row n’était pas la seule à ne pas avoir envisagé cette possibilité. Ses médecins non plus n’avaient pas correctement interprété ses symptômes. Au cours des deux années qui ont précédé son diagnostic, alors qu'elle ressentait des sensations récurrentes de brûlure et de coup de poignard dans l'estomac, trois médecins ont cru reconnaitre un reflux gastro-intestinal et lui ont prescrit des antiacides. Chaque fois qu’elle essayait d'arrêter de prendre ces médicaments, la douleur intense revenait. Ce n'est qu'après avoir appelé son médecin traitant en larmes qu'elle s'est finalement vue prescrire une endoscopie qui a permis de diagnostiquer son cancer.

Outre les brûlures d'estomac et les douleurs abdominales, le cancer de l'estomac se manifeste par des nausées, une perte de poids et des vomissements de sang. Malheureusement, comme le stade précoce est généralement silencieux, des symptômes comme ceux-là indiquent probablement un stade avancé de la maladie. 

 

LE RÔLE DES GERMES, DES GÈNES ET DU RÉGIME ALIMENTAIRE

Le cancer de l’estomac est répandu sur une grande partie de la planète et constitue la quatrième cause de mortalité par cancer au niveau mondial. En France, il est le treizième cancer le plus fréquent.

L'une des principales raisons à cela est la plupart des cancers de l'estomac sont causés par la bactérie Helicobacter pylori, le même germe qui est à l’origine de nombreux ulcères de l'estomac. La H. pylori est endémique dans de nombreuses régions du monde en raison de l'insuffisance des systèmes d'assainissement. Un régime alimentaire composé d'aliments fumés, salés ou préparés, l'obésité et des antécédents de tabagisme sont d’autres facteurs de risque connus pour la maladie, indique Cecchini.

La génétique a également son rôle à jouer, en particulier chez les jeunes, dont ceux atteints du syndrome de Lynch, une maladie dans laquelle des mutations dans des gènes impliqués dans la réparation de l'ADN augmentent le risque de nombreux cancers comme le cancer colorectal, le cancer de l'intestin grêle, le cancer de l'estomac, le cancer de l'ovaire, le cancer du pancréas et le cancer du cerveau.

Une mutation dans un autre gène appelé CDH1 a causé le cancer de l'estomac de Courtney Zentz, une femme de quarante-deux ans, originaire de West Chester, en Pennsylvanie. Sa mère est décédée à l'âge de cinquante-quatre ans en 2006, quatre mois après avoir été soudainement diagnostiquée d'un cancer de l'estomac agressif. Il y a quatre ans, Zentz a décidé de passer un test génétique et a découvert qu'elle avait hérité de cette mutation rare.

La seule façon pour Zentz d’échapper à la même mort que sa mère était de procéder à une ablation prophylactique de son estomac, ainsi que de sa vésicule biliaire et de ses deux seins, qui présentaient également un risque élevé de cancer. Elle a suivi ce conseil et les chirurgiens ont donc relié son œsophage directement à son intestin grêle afin qu'elle puisse continuer à manger, mais en plus petites portions. Les cellules prélevées et analysées après l'opération ont révélé qu'elle était déjà atteinte d'un cancer de l'estomac de stade 1.

« La mort de ma mère m'a sauvé la vie », déclare-t-elle. Elle a également sauvé celle de son frère, qui avait hérité de la mutation et a subi une opération d'ablation de l'estomac.

 

DES TRAITEMENTS DE PLUS EN PLUS EFFICACES

Généralement, les traitements du cancer de l’estomac incluent la chirurgie, la chimiothérapie, la radiothérapie et l’immunothérapie. 

Quand le cancer de Camilla Row a été découvert, il ne s'était propagé qu'à quelques ganglions lymphatiques voisins. Dans un premier temps, son opération d'ablation de l'estomac et sa chimiothérapie ont porté leurs fruits. Cependant, trois ans plus tard, la maladie est réapparue, et s’est propagée au péritoine, une membrane de l'abdomen.

Row a subi une ablation des ovaires et une nouvelle chimiothérapie par voie intraveineuse. Ce traitement a été suivi d'un autre traitement expérimental connu sous le nom de chimiohyperthermie intrapéritonéale, dans lequel les cytostatiques, les médicaments chimiothérapeutiques, sont pompés directement à l'intérieur de l'abdomen à une concentration quarante fois supérieure à celle de la chimiothérapie par voie intraveineuse. Les études qui documentent l'efficacité de cette technique sont mitigées. 

Chez Camilla Row, elle fonctionne. La patiente a aujourd’hui quarante-cinq ans et après sept traitements au centre pour le cancer Los Angeles City of Hope, elle ne présente plus aucun signe de cancer. Si elle sait qu’il est probable que la maladie resurgisse, elle est déterminée à garder un état d’esprit positif. 

« Je pourrais faire partie des 6 % qui survivent à long-terme », dit-elle. « Je l’espère. »

 

LE MANQUE D’OUTILS DE DÉPISTAGE EFFICACES

Contrairement au cancer du sein et au cancer colorectal, pour lesquels on recommande les mammographies et les coloscopies, on ne conseille pas systématiquement de protocole de dépistage pour la détection du cancer de l’estomac à un stade précoce. 

Le dépistage généralisé pour les personnes au-dessus d’un certain âge, qui comprendrait une endoscopie et une biopsie des lésions éventuelles, n'a pas de sens aux États-Unis, car le cancer n'est pas assez répandu, explique Kumar. 

Elle espère que les futures recherches permettront d'identifier les sous-groupes de personnes les plus à risque et d’un jour les orienter vers un dépistage annuel, tout comme certains anciens fumeurs sont incités à passer des tests annuels de dépistage du cancer du poumon.

Jusqu'à présent, Kumar et ses collègues ont identifié plusieurs groupes plus vulnérables, notamment les personnes nées en Europe de l'Est, en Équateur, au Honduras ou au Pérou, dans certains pays asiatiques, dont le Japon, mais pas la Corée ni la Chine, ainsi que les personnes porteuses de H. pylori et les fumeurs. 

En attendant, avec la croissance de l’incidence chez les jeunes, les personnes ayant des antécédents familiaux de cancers gastro-intestinaux ou présentant des symptômes persistants devraient en discuter avec leur médecin.

« L'augmentation de l'incidence chez les jeunes signifie que nous devons être plus vigilants et prendre les symptômes au sérieux, patients comme médecins », explique Cecchini. « Ils peuvent être plus qu'une simple nuisance. »

Cet article a initialement paru sur le site nationalgeographic.com en langue anglaise.

❌