Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

AI Act : en Europe, l’intelligence artificielle sera éthique

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’Union européenne est résolue à montrer l’exemple avec son AI Act. Le texte, dont certaines modalités de mise en œuvre restent encore à préciser, peut-il seulement s’imposer en tant que référence ?

 

L’intelligence artificielle, un enjeu économique, stratégique… et règlementaire

L’intelligence artificielle revêt un aspect stratégique de premier ordre. La technologie fait l’objet d’une compétition internationale effrénée dont les enjeux touchent aussi bien aux questions économiques que militaires et sociales, avec, bien sûr, des implications conséquentes en termes de puissance et de souveraineté. Dans un tel contexte, une nation qui passerait à côté de la révolution de l’IA se mettrait en grande difficulté.

Rapidement, la question de la réglementation de l’IA est devenue un sujet de préoccupation majeur pour les États. Et pour cause, les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables. Des inquiétudes dont les participants à l’édition 2024 du Forum économique mondial de Davos se sont d’ailleurs récemment fait l’écho.

En effet, bien que des régimes existants, comme les règles sur la protection des droits d’auteur, la protection des consommateurs, ou la sécurité des données personnelles concernent l’IA, il n’existe à ce jour pas de cadre juridique spécifique à la technologie en droit international. De plus, beaucoup de doutes subsistent quant à la façon dont les règles pertinentes déjà existantes s’appliqueraient en pratique. Face à l’urgence, plusieurs États se sont donc attelés à clarifier leurs propres réglementations, certains explorant la faisabilité d’un cadre réglementaire spécifiquement dédié à la technologie.

Dans la sphère domestique comme à l’international, les initiatives se succèdent pour dessiner les contours d’un cadre juridique pour l’IA. C’est dans ce contexte que l’Union européenne entend promouvoir sa vision de la règlementation articulée autour de règles contraignantes centrées sur la protection des droits fondamentaux.

 

Un risque de marginalisation potentiel

Le Plan coordonné dans le domaine de l’intelligence artificielle publié en 2018, et mis à jour en 2021, trace les grandes orientations de l’approche de l’Union européenne. Celui-ci vise à faire de l’Union européenne la pionnière des IA « légales », « éthiques » et « robustes » dans le monde, et introduit le concept d’« IA digne de confiance » ou trustworthy AI. Proposé en avril 2021 par la Commission européenne, le fameux AI Act est une étape décisive vers cet objectif.

L’IA Act classe les systèmes d’intelligence artificielle en fonction des risques associés à leur usage. Ainsi, l’étendue des obligations planant sur les fournisseurs de solutions d’IA est proportionnelle au risque d’atteinte aux droits fondamentaux. De par son caractère général, l’approche européenne se distingue de la plupart des approches existantes, qui, jusqu’alors, demeurent sectorielles.

Parmi les grands axes du texte figurent l’interdiction de certains usages comme l’utilisation de l’IA à des fins de manipulation de masse, et les systèmes d’IA permettant un crédit social. Les modèles dits « de fondation », des modèles particulièrement puissants pouvant servir une multitude d’applications, font l’objet d’une attention particulière. En fonction de leur taille, ces modèles pourraient être considérés à « haut risque, » une dénomination se traduisant par des obligations particulières en matière de transparence, de sécurité et de supervision humaine.

Certains États membres, dont la France, se sont montrés particulièrement réticents à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Il faut dire que l’Union européenne fait pâle figure à côté des deux géants que sont les États-Unis et la Chine. Ses deux plus gros investisseurs en IA, la France et l’Allemagne, ne rassemblent qu’un dixième des investissements chinois. Bien qu’un compromis ait été obtenu, il est clair que la phase d’implémentation sera décisive pour juger de la bonne volonté des signataires.

À première vue, le AI Act semble donc tomber comme un cheveu sur la soupe. Il convient néanmoins de ne pas réduire la conversation au poncif selon lequel la règlementation nuirait à l’innovation.

 

L’ambition d’incarner un modèle

Le projet de règlementer l’IA n’est pas une anomalie, en témoigne la flopée d’initiatives en cours. En revanche, l’IA Act se démarque par son ambition.

À l’instar du RGPD, le AI Act procède de la volonté de l’Union européenne de proposer une alternative aux modèles américains et chinois. Ainsi, à l’heure où les cultures technologiques et réglementaires chinoises et américaines sont régulièrement présentées comme des extrêmes, le modèle prôné par l’Union européenne fait figure de troisième voie. Plusieurs organismes de l’industrie créative avaient d’ailleurs appelé les États membres à approuver le texte la veille du vote, alors que la réticence de Paris faisait planer le doute quant à son adoption. Cet appel n’est pas anodin et rejoint les voix de nombreux juristes et organismes indépendants.

Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse, et serait un moyen de gagner la loyauté des consommateurs. Notons d’ailleurs que huit multinationales du digital se sont récemment engagées à suivre les recommandations de l’UNESCO en matière d’IA éthique.

L’initiative se démarque aussi par sa portée. Juridiquement, le AI Act a vocation à s’appliquer aux 27 États membres sans besoin de transposition en droit interne. Le texte aura des effets extraterritoriaux, c’est-à-dire que certains fournisseurs étrangers pourront quand même être soumis aux dispositions du règlement si leurs solutions ont vocation à être utilisées dans l’Union.

Politiquement, le AI Act est aussi un indicateur d’unité européenne, à l’heure où le projet de Convention pour l’IA du Conseil de l’Europe (qui englobe un plus grand nombre d’États) peine à avancer. Mais peut-on seulement parler de référence ? Le choix de centrer la règlementation de l’IA sur la protection des droits de l’Homme est louable, et distingue l’Union des autres acteurs. Elle en poussera sans doute certains à légiférer dans ce sens. Néanmoins, des ambiguïtés subsistent sur son application. Ainsi, pour que l’AI Act devienne une référence, l’Union européenne et ses membres doivent pleinement assumer la vision pour laquelle ils ont signé. Cela impliquera avant tout de ne pas céder trop de terrains aux industriels lors de son implémentation.

Autopiégés par les deepfakes : où sont les bugs ?

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhaite demander à mes étudiants en 12 heures. J’ai créé un nouveau service, basé sur des caméras high tech et de l’intelligence artificielle embarquée, pour des activités sportives avec des illustrations de situations concrètes, dans le monde réel, et un logo, comme si c’était vrai ! Je me mettrai au moins 18/20 ».

Cet échange peut paraître parfaitement anodin, mais la possibilité de produire des histoires et des visuels fictifs, perçus comme authentiques – des hypertrucages (deepfakes en anglais) – puis de les diffuser instantanément à l’échelle mondiale, suscitant fascination et désillusion, voire chaos à tous les niveaux de nos sociétés doit questionner. Il y a urgence !

En 2024, quel est leur impact positif et négatif ? Faut-il se prémunir de quelques effets indésirables immédiats et futurs, liés à un déploiement massif de son utilisation et où sont les bugs ?

 

Deepfake : essai de définition et origine

En 2014, le chercheur Ian Goodfellow a inventé le GAN (Generative Adversarial Networks), une technique à l’origine des deepfakes.

Cette technologie utilise deux algorithmes s’entraînant mutuellement : l’un vise à fabriquer des contrefaçons indétectables, l’autre à détecter les faux. Les premiers deepfakes sont apparus en novembre 2017 sur Reddit où un utilisateur anonyme nommé « u/deepfake » a créé le groupe subreddit r/deepfake. Il y partage des vidéos pornographiques avec les visages d’actrices X remplacés par ceux de célébrités hollywoodiennes, manipulations reposant sur le deep learning. Sept ans plus tard, le mot deepfake est comme entré dans le vocabulaire courant. Le flux de communications quotidiennes sur le sujet est incessant, créant un sentiment de fascination en même temps qu’une incapacité à percevoir le vrai du faux, à surmonter la surcharge d’informations de manière réfléchie.

Ce mot deepfake, que l’on se garde bien de traduire pour en préserver l’imaginaire technologique, est particulièrement bien choisi. Il contient en soi, un côté positif et un autre négatif. Le deep, de deep learning, c’est la performance avancée, la qualité quasi authentique de ce qui est produit. Le fake, c’est la partie trucage, la tromperie, la manipulation. Si on revient à la réalité de ce qu’est un deepfake (un trucage profond), c’est une technique de synthèse multimédia (image, son, vidéos, texte), qui permet de réaliser ou de modifier des contenus grâce à l’intelligence artificielle, générant ainsi, par superposition, de nouveaux contenus parfaitement faux et totalement crédibles. Cette technologie est devenue très facilement accessible à tout un chacun via des applications, simples d’utilisations comme Hoodem, DeepFake FaceSwap, qui se multiplient sur le réseau, des solutions pour IOS également comme : deepfaker.app, FaceAppZao, Reface, SpeakPic, DeepFaceLab, Reflect.

 

Des plus et des moins

Les deepfakes peuvent être naturellement utilisés à des fins malveillantes : désinformation, manipulation électorale, diffamation, revenge porn, escroquerie, phishing…

En 2019, la société d’IA Deeptrace avait découvert que 96 % des vidéos deepfakes étaient pornographiques, et que 99 % des visages cartographiés provenaient de visages de célébrités féminines appliqués sur le visage de stars du porno (Cf. Deep Fake Report : the state of deepfakes landscape, threats, and impact, 2019). Ces deepfakes malveillants se sophistiquent et se multiplient de façon exponentielle. Par exemple, vous avez peut-être été confrontés à une vidéo où Barack Obama traite Donald Trump de « connard total », ou bien celle dans laquelle Mark Zuckerberg se vante d’avoir « le contrôle total des données volées de milliards de personnes ». Et bien d’autres deepfakes à des fins bien plus malveillants circulent. Ce phénomène exige que chacun d’entre nous soit vigilant et, a minima, ne contribue pas à leur diffusion en les partageant.

Si l’on s’en tient aux effets médiatiques, interdire les deepfakes pourrait sembler une option.
Il est donc important de comprendre qu’ils ont aussi des objectifs positifs dans de nombreuses applications :

  • dans le divertissement, pour créer des effets spéciaux plus réalistes et immersifs, pour adapter des contenus audiovisuels à différentes langues et cultures
  • dans la préservation du patrimoine culturel, à des fins de restauration et d’animation historiques 
  • dans la recherche médicale pour générer des modèles de patients virtuels basés sur des données réelles, ce qui pourrait être utile dans le développement de traitements 
  • dans la formation et l’éducation, pour simuler des situations réalistes et accroître la partie émotionnelle essentielle à l’ancrage des apprentissages

 

Ainsi, selon une nouvelle étude publiée le 19 avril 2023 par le centre de recherche REVEAL de l’université de Bath :

« Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant ». (Clarke & al., 2023)

Comment en sommes-nous arrivés là ?

Comment avons-nous mis au point et démocratisé des outils technologiques de manière aussi peu appropriée, au sens de E.F. Schumacher (1973) dans son ouvrage Small is Beautiful : A Study of Economics as If People Mattered.

L’idée qu’il défend est celle d’une technologie scientifiquement éprouvée, à la fois adaptable aux besoins spécifiques de groupes d’utilisateurs clairement identifiés, et acceptables par toutes les parties prenantes de cette utilisation, tout au long de son cycle de vie, sans dégrader l’autonomie des communautés impliquées.

Considérons la période covid. Elle a très nettement favorisé une « aliénation des individus et des organisations à la technologie », entraînant des phénomènes de perte de contrôle et de confiance face à des utilisations non appropriées du numérique profitant de la vulnérabilité des citoyens (multiplication des arnaques santé par exemple). Ils se sont trouvés sur-sollicités et noyés sous un déluge de contenus, sans disposer des ressources nécessaires pour y faire face de manière pérenne et sécurisée. Avec l’IA générative et la prolifération des deepfakes, le défi d’échapper à la noyade et d’éviter d’être victime de manipulations devient démesuré !

La mécanique allant de la technologie à la société est (toujours) bien ancrée dans la théorie de Schumpeter datant du début du XXe siècle : les efforts et les investissements dans la technologie génèrent du développement économique par l’innovation et la productivité, qui se traduit ensuite en progrès social, par exemple, par la montée du niveau d’éducation. La question de l’adoption de la technologie par le marché de masse est un élément central de la réussite des acteurs économiques.

Comme le souligne très bien le philosophe Alain Damasio, les citoyens adoptent les solutions numériques (faciles d’utilisation et accessibles) et se réfugient dans un « techno-cocon » pour trois raisons principales :

  1. La paresse (les robots font à leur place)
  2. La peur associée à l’isolement (on a un réseau mondial d’amis)
  3. Les super-pouvoirs (le monde à portée de main avec son smartphone)

 

Cela s’applique parfaitement à l’IA générative : créer des contenus sans effort, presque instantanément, avec un résultat d’expert. Ainsi, dans le fantasme collectif, eu égard à la puissance réelle et exponentielle des outils disponibles, nous voilà bientôt tous écrivains, tous peintres, tous photographes, tous réalisateurs… nous voilà capables de produire en quelques minutes ce qui a priori nous aurait demandé des heures. Et dans le même temps, nous servons à l’amélioration continue des performances de ces technologies, au service de quelques grandes entreprises mondiales.

 

Deepfakes : où est le bug ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfake ? L’analyse des mécanismes de diffusion fait apparaître deux bugs principaux.

Le premier bug

Il s’apparente à ce que Nunes et al. (2014) appelle le phénomène « big bang disruption ».

La vitesse extrêmement rapide à laquelle se déploient massivement certaines applications technologiques ne laisse pas le temps de se prémunir contre ses effets indésirables, ni de se préparer à une bonne appropriation collective. On est continuellement en mode expérimentation, les utilisateurs faisant apparaître des limites et les big techs apportant des solutions à ces problèmes, le plus souvent technologiques. C’est la course à la technologie – en l’occurrence, la course aux solutions de détection des deepfakes, en même temps que l’on tente d’éduquer et de réglementer. Cette situation exige que l’on interroge notre capacité à sortir du système établi, à sortir de l’inertie et de l’inaction – à prendre le risque de faire autrement !

Le second bug

Selon Schumpeter, la diffusion technologique produit le progrès social par l’innovation et l’accroissement de la productivité ; mais cette dynamique ne peut pas durer éternellement ni s’appliquer à toutes technologies ! Si l’on considère par exemple la miniaturisation des produits électroniques, à un certain stade, elle a obligé à changer les équipements permettant de produire les puces électroniques afin qu’ils puissent manipuler des composants extrêmement petits. Peut-on en changer l’équipement qui sert à traiter les contenus générés par l’IA, c’est-à-dire nos cerveaux ? Doivent-ils apprendre à être plus productifs pour absorber les capacités des technologies de l’IA générative ? Il y a là un second bug de rupture cognitive, perceptive et émotionnelle que la société expérimente, emprisonnée dans un monde numérique qui s’est emparée de toutes les facettes de nos vies et de nos villes.

 

Quid de la suite : se discipliner pour se libérer du péril deepfake ?

Les groupes de réflexion produisant des scénarii, générés par l’IA ou par les humains pleuvent – pro-techno d’une part, pro-environnemental ou pro-social d’autre part. Au-delà de ces projections passionnantes, l’impératif est d’agir, de se prémunir contre les effets indésirables, jusqu’à une régression de la pensée comme le suggère E. Morin, tout en profitant des bénéfices liés aux deepfakes.

Face à un phénomène qui s’est immiscé à tous les niveaux de nos systèmes sociaux, les formes de mobilisation doivent être nombreuses, multiformes et partagées. En 2023 par exemple, la Région Auvergne-Rhône-Alpes a mandaté le pôle de compétitivité Minalogic et Grenoble École de management pour proposer des axes d’action face aux dangers des deepfakes. Un groupe d’experts* a proposé quatre axes étayés par des actions intégrant les dimensions réglementaires, éducatives, technologiques et les capacités d’expérimentations rapides – tout en soulignant que le levier central est avant tout humain, une nécessité de responsabilisation de chaque partie prenante.

Il y aurait des choses simples que chacun pourrait décider de mettre en place pour se préserver, voire pour créer un effet boule de neige favorable à amoindrir significativement le pouvoir de malveillance conféré par les deepfakes.

Quelques exemples :

  • prendre le temps de réfléchir sans se laisser embarquer par l’instantanéité associée aux deepfakes 
  • partager ses opinions et ses émotions face aux deepfakes, le plus possible entre personnes physiques 
  • accroître son niveau de vigilance sur la qualité de l’information et de ses sources 
  • équilibrer l’expérience du monde en version numérique et en version physique, au quotidien pour être en mesure de comparer

 

Toutefois, se pose la question du passage à l’action disciplinée à l’échelle mondiale !

Il s’agit d’un changement de culture numérique intrinsèquement long. Or, le temps fait cruellement défaut ! Des échéances majeures comme les JO de Paris ou encore les élections américaines constituent des terrains de jeux fantastiques pour les deepfakes de toutes natures – un chaos informationnel idoine pour immiscer des informations malveillantes qu’aucune plateforme media ne sera en mesure de détecter et de neutraliser de manière fiable et certaine.

La réalité ressemble à un scénario catastrophe : le mur est là, avec ces échanges susceptibles de marquer le monde ; les citoyens tous utilisateurs d’IA générative sont lancés à pleine vitesse droit dans ce mur, inconscients ; les pilotes de la dynamique ne maîtrisent pas leur engin supersonique, malgré des efforts majeurs ! Pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expression ».

Le changement de culture à grande échelle ne peut que venir d’une exigence citoyenne massive. Empêcher quelques bigs techs de continuer à générer et exploiter les vulnérabilités de nos sociétés est plus que légitime. Le faire sans demi-mesure est impératif : interdire des outils numériques tout comme on peut interdire des médicaments, des produits alimentaires ou d’entretien. Il faut redonner du poids aux citoyens dans la diffusion de ces technologies et reprendre ainsi un coup d’avance, pour que la liberté d’expression ne devienne pas responsable de sa propre destruction.

Ce mouvement, le paradoxe du ChatBlanc, pourrait obliger les big techs à (re)prendre le temps d’un développement technologique approprié, avec ses bacs à sable, voire des plateformes dédiées pour les créations avec IA. Les citoyens les plus éclairés pourraient avoir un rôle d’alerte connu, reconnu et effectif pour décrédibiliser ceux qui perdent la maîtrise de leurs outils. Au final, c’est peut-être la sauvegarde d’un Internet libre qui se joue !

Ce paradoxe du ChatBlanc, censurer les outils d’expression pour préserver la liberté d’expression à tout prix trouvera sans aucun doute de très nombreux opposants. L’expérimenter en lançant le mois du ChatBlanc à l’image du dry january permettrait d’appréhender le sujet à un niveau raisonnable tout en accélérant nos apprentissages au service d’une transformation culturelle mondiale.

 

Lucal Bisognin, Sylvie Blanco, Stéphanie Gauttier, Emmanuelle Heidsieck (Grenoble Ecole de Management) ; Kai Wang (Grenoble INP / GIPSALab / UGA), Sophie Guicherd (Guicherd Avocat), David Gal-Régniez, Philippe Wieczorek (Minalogic Auvergne-Rhône-Alpes), Ronan Le Hy (Probayes), Cyril Labbe (Université Grenoble Alpes / LIG), Amaury Habrard (Université Jean Monnet / LabHC), Serge Miguet (Université Lyon 2 / LIRIS) / Iuliia Tkachenko (Université Lyon 2 / LIRIS), Thierry Fournel (Université St Etienne), Eric Jouseau (WISE NRJ).

La super-conductivité à température ambiante, nouvelle frontière technologique ?

Quelle serait la prochaine découverte d’envergure, comme le pétrole ou la semi-conductivité du silicium ? Il se pourrait bien que ce soit la super-conductivité à température ambiante. Celle-ci est de nature à révolutionner les modes de production et le confort individuel dans les années à venir.

 

Une conduction électrique parfaite

La conductivité d’un matériau représente sa capacité à résister au courant. Les matériaux conducteurs comme l’or ou le cuivre laissent facilement passer le courant. Alors que les matériaux isolants comme le caoutchouc le bloquent.

Toute l’électronique repose sur les matériaux semi-conducteurs, comme le silicium. Leur résistance est pilotable en jouant sur leur propriété. Les super-conducteurs sont des matériaux sans la moindre résistance au courant. Ces matériaux existent déjà, comme le niobium-titane, mais cette propriété intervient uniquement à la température de -263°C (pour le niobium-titane).

 

Un courant sans limites

Un matériau exploitable sans perte de courant permet un phénomène spectaculaire : la lévitation magnétique. Un train est en construction au Japon (SCMaglev) en remplacement des trains magnétiques par bobine, mais encore une fois, il faut refroidir le matériau. Un super-conducteur à température ambiante permettra de généraliser ces nouveaux trains.

Un autre phénomène spectaculaire de la superconduction est l’apparition d’effets quantiques à notre échelle, telle la jonction Josephson, alors que les effets quantiques sont plutôt réservés à l’échelle de l’atome. La généralisation des matériaux super-conducteurs généralisera aussi les ordinateurs quantiques.

Même de bons conducteurs comme l’or ou le cuivre subissent des pertes qui engendrent de la chaleur par effet Joule. Dès lors que le courant devient trop fort, le métal fond. Ce phénomène est utilisé dans l’industrie pour usiner (EDM ou forge par induction). Cependant, il s’agit bien souvent d’une contrainte qui impose une limite de courant capable de transiter dans un câble. Avec un câble super-conducteur, l’électricité de tout Paris pourrait passer dans un seul câble électrique !

Le courant peut circuler indéfiniment dans une boucle superconductrice, on peut donc l’utiliser pour stocker de l’électricité (SMES). Mais encore une fois, ce réservoir à électron nécessite des températures extrêmes, ce qui le rend trop coûteux pour une utilisation grand public.

En déverrouillant la limite du courant dans un câble, on déverrouille également les champs magnétiques à haute énergie. Ces champs vont permettre d’accroître la précision des scanners médicaux IRM, leurs résolutions étant corrélées à la puissance du champ magnétique produit. L’armée pourrait s’intéresser au canon de Gauss dans lequel un projectile est catapulté par un champ magnétique.

 

Le monde du plasma

Enfin, le champ magnétique permet la manipulation du plasma. Le plasma est le quatrième état de la matière, il se produit à haute température quand les électrons se détachent des atomes et circulent librement dans le gaz, qui devient sensible aux champs magnétiques.

Un champ magnétique permet de manipuler un plasma aussi bien en le cloisonnant dans un volume donné, en le mettant en mouvement, ou en faisant varier sa température. Les superconducteurs à température ambiante vont donc faire avancer tous les domaines autour du plasma comme le laser, la fusion nucléaire, les canons à plasma ou la recherche fondamentale.

Le super-conducteur à température ambiante représente une nouvelle frontière technologique. Il permet de faire circuler des courants sans perte et donc sans limite dans un matériau. Cela ouvre les portes des champs magnétiques à haute énergie, et avec eux le monde des plasmas.

Chacune de ces étapes représente un progrès pour l’humanité.

Sécurité aérienne : une piste pour détecter les turbulences avec des lasers

Les auteurs : Olivier Emile, enseignant chercheur en physique, Université de Rennes. Janine Emile, professeur en physique, Université de Rennes

 

En novembre 2001, un Airbus A300 d’American Airlines parti de New York s’est écrasé deux minutes après le décollage, provoquant la mort des 260 personnes à bord. C’était peu de temps après les attentats aériens du World Trade Center, mais cette fois, l’accident avait des causes bien différentes : des turbulences de sillages, c’est-à-dire des structures tourbillonnantes fortes générées par le passage des avions, ce jour-là créées par un Boeing 747 de Japan Airlines qui avait décollé peu auparavant.

Plus récemment, un avion d’affaire Bombardier Challenger 604 a subi une chute de 3000 mètres dans le sillage d’un A380. Plusieurs passagers ont été blessés et l’intérieur de l’avion a été détruit. Si des incidents sans gravité sont assez fréquents (un par mois), des accidents sérieux surviennent en moyenne tous les deux ans.

En plus d’être responsables de plusieurs catastrophes aériennes, elles sont un frein au développement aérien. En effet, afin de limiter leurs effets, un délai de sécurité arbitraire est imposé entre chaque avion au décollage et à l’atterrissage. Une distance de sécurité minimale doit aussi être respectée en vol – distance que n’ont probablement pas respecté Maverick et Goose dans Top Gun, perdant ainsi le contrôle de leur F-14.

Détecter directement ces turbulences de sillage et leur évolution pourrait permettre de réduire considérablement ces délais et distances, et d’optimiser la fréquentation des pistes des aéroports – renforçant la sécurité aérienne et réduisant les coûts d’utilisation. Malheureusement, arriver à caractériser complètement un tourbillon, surtout un tourbillon gazeux, est assez difficile.

Si, dans le registre fictionnel, les chasseurs de tornades de Twisters avaient dû sacrifier une voiture, au péril de leurs vies, pour que des billes puissent être aspirées par la tornade et ainsi permettre, par leur écho électromagnétique, de caractériser complètement la tornade, dans la réalité, ce sont des avions avec un équipage qui vont collecter les informations au cœur des dépressions, dans des conditions évidemment très difficiles.

Pour éviter ces dangers, nous cherchons à développer un dispositif capable de sonder à distance ces tourbillons. Un tel dispositif pourrait aussi avoir un intérêt pour l’astronautique, en météorologie, mais aussi pour caractériser des sillages des éoliennes, si dangereux pour les oiseaux et qui peuvent s’étendre sur plusieurs centaines de mètres.

Nous proposons dans notre étude récente d’exploiter un phénomène physique, l’effet Doppler rotationnel, pour mesurer la vitesse et l’évolution de ces tourbillons. Ceci pourrait se faire à relativement faible coût puisque cela nécessite l’emploi d’un simple laser et d’un détecteur, et serait adaptable aux sillages des éoliennes et à la mesure de tornades.

 

L’effet Doppler rotationnel

L’effet Doppler « usuel » est relatif au décalage en fréquence d’une onde (acoustique ou électromagnétique) lorsque l’émetteur et le récepteur sont en mouvement l’un par rapport à l’autre. Ce décalage est proportionnel à la vitesse relative entre eux. Il est utilisé notamment pour détecter les excès de vitesse par la maréchaussée, en utilisant des ondes radio ou optiques. Il est aussi utilisé en médecine, entre autres, pour la mesure des flux dans les vaisseaux sanguins, à l’aide, cette fois-ci, d’une onde acoustique.

Il existe aussi un effet Doppler rotationnel, moins connu, qui est le pendant de l’effet Doppler usuel pour des objets en rotation. Philéas Fogg s’en est bien aperçu dans Le Tour du monde en quatre-vingts jours. En effet, la période du voyage, normalement de 80 jours, a été modifiée par la rotation propre de la Terre. Suivant le sens de parcours du tour du monde, cette période passe à 79 ou 81 jours.

Cela peut aussi se comprendre, à des temps plus courts, en regardant une horloge posée sur un tourne-disque en rotation. L’horloge ne tourne pas à la même vitesse si l’on se place sur le tourne-disque ou dans la pièce dans laquelle il est placé.

Pour pouvoir utiliser l’effet Doppler rotationnel avec des ondes, celles-ci doivent « tourner ». Ce n’est pas le cas avec les ondes habituelles (planes). Par contre, il existe des ondes qui ressemblent aux pâtes italiennes fusilli, et qui tournent à une vitesse proportionnelle à la fréquence de l’onde. Elles sont appelées ondes à moment angulaire orbital ou OAM en anglais.

La lumière rétrodiffusée par des objets en rotation ne tourne plus. Elle n’a plus la forme d’un fusilli. De plus, elle se trouve être décalée en fréquence d’une quantité proportionnelle à la fréquence de rotation de l’objet et aux caractéristiques du fusilli. En mesurant ce décalage, il est possible de mesurer la vitesse de rotation du tourbillon.

 

Sonder à distance les tourbillons

Notre équipe travaille depuis quelques années sur les ondes fusilli, leur génération, leur détection et leur utilisation pour faire tourner des objets à l’aide de la lumière.

Nous avons récemment réussi à complètement caractériser un tourbillon liquide « modèle » généré par un agitateur magnétique dans un récipient, en utilisant des ondes optiques en forme de fusilli générées par un laser, et en étudiant la fréquence de la lumière diffusée par l’eau du tourbillon.

Le décalage Doppler rotationnel de la lumière diffusée par le liquide en rotation permet de remonter à la distribution des vitesses dans le tourbillon.

En particulier, nous avons mesuré la distribution des vitesses angulaires à l’intérieur du tourbillon et, en même temps, nous pouvons effectuer une cartographie dans l’axe du tourbillon. En d’autres termes, nous pouvons connaître la distribution des vitesses de rotation du tourbillon en trois dimensions.

Actuellement, en laboratoire, nous essayons de reprendre cette expérience sur un tourbillon gazeux généré par une dépression avant d’effectuer ces expériences en situation réelle.

 

Vous pouvez retrouver cet article sur The Conversation

Une start-up française prévoit une mise en service de microréacteurs nucléaires d’ici 2030

Par : Michel Gay

La start-up française Naarea a réalisé « une première mondiale » dans la course aux microréacteurs nucléaires de quatrième génération à neutrons rapides et à sel fondu. C’est un petit pas encourageant pour la France, même si ce n’est pas encore un grand bond pour l’humanité.

 

La société Naarea

La société Naarea (Nuclear Abundant Affordable Resourceful Energy for All) a embauché son premier employé en 2022. Elle vient de réaliser une innovation importante en faisant tourner un sel fondu à 700°C dans une boucle entièrement en carbure de silicium contenant du graphène. Cette avancée est une étape préliminaire pour permettre la mise au point d’un petit réacteur nucléaire modulaire.

Selon Naarea, cette céramique en carbure de silicium qui résiste à la corrosion est idéale pour le cœur d’un petit réacteur en production de masse.

Le carbure de silicium est déjà utilisé dans l’industrie, notamment dans les moteurs de fusées et les satellites. Ce matériau a l’avantage de pouvoir être synthétisé et usiné en France et d’être abondant et recyclable. Il résiste mieux que l’acier inoxydable aux températures extrêmes.

La société Naarea, lauréate de l’appel à projets « Réacteurs Nucléaires Innovants », bénéficiant d’une enveloppe de 500 millions d’euros du plan d’investissement « France 2030 », développe un petit réacteur nucléaire de quatrième génération.

Sa technologie repose sur de nouveaux types de sel fondus produisant de l’énergie à partir de combustibles nucléaires usagés, d’uranium appauvri, et de plutonium.

L’îlot nucléaire, dont le poids lui permet d’être transportable par des moyens conventionnels, tient dans un volume équivalant à un conteneur de la taille d’un autobus (un conteneur traditionnel de 40 pieds). Il pourra produire 40 mégawatts (MW) d’électricité ou 80 MW de chaleur.

Selon Naarea, ce micro réacteur « permettra la fermeture complète du cycle du combustible nucléaire, le Graal absolu ! ».

Mais il y a encore loin de la coupe aux lèvres…

Selon Jean-Luc Alexandre, président et cofondateur de l’entreprise :

« Le projet Naarea est né du constat que les besoins croissants en énergie et en électricité bas carbone font du nucléaire une solution incontournable […]. La demande électrique mondiale sera a minima multipliée par quatre entre 2020 et 2050. Quand nous avons analysé les 17 objectifs de développement durable (ODD), fixés par les Nations unies, nous nous sommes rendu compte que tout ramenait à l’énergie d’une manière ou d’une autre, qu’il s’agisse de l’agriculture, de la faim dans le monde ou de la biodiversité ».

À partir de ce constat a été fondée l’entreprise Naarea pour construire ce microréacteur nucléaire afin de fournir une électricité stable et bas carbone pouvant remplacer les énergies fossiles presque partout dans le monde.

 

Sans eau et presque sans déchets

Le refroidissement du système, qui fonctionnera à pression atmosphérique, s’affranchit de l’eau aujourd’hui utilisée pour refroidir les grands réacteurs actuels plus puissants, et la turbine est entraînée par du CO2 « supercritique » (permettant un rendement d’environ 50 %).

N’étant pas astreint à la proximité d’une rivière ou d’une mer, ce module prévu pour être fabriqué en série en usine pourrait être installé sur n’importe quel îlot industriel sécurisé répondant aux normes de sécurité Seveso, avec peu de génie civil.

De plus, il permet d’éliminer les déchets les plus radioactifs de haute activité à vie longue (HAVL) dont la durée est de plusieurs centaines de milliers d’années en les consommant. Ce microréacteur les transforme en produits de fission dont la durée de vie radioactive serait d’environ 250 ans, plus facilement gérables.

Ces microréacteurs pourraient donc venir en complément des réacteurs actuels à eau pressurisée de troisième génération en consommant leurs « résidus ».

 

Un jumeau numérique

Naarea s’appuie sur un « jumeau numérique » de leur microréacteur, une plateforme digitale collaborative qui offre une représentation du réacteur en 3D permettant d’en faire fonctionner les composants et de mesurer des paramètres inaccessibles dans le monde réel. Il sert également d’outil de démonstration en matière de sûreté et de sécurité, auprès notamment de l’ASN (Autorité de sûreté nucléaire) en France et d’autres autorités internationales.

C’est aussi un outil pédagogique et de formation qui accélère la conception du réacteur en facilitant la collaboration.

Les responsables de Naarea ne souhaitent pas vendre la technologie de leur réacteur, mais uniquement son usage.

L’entreprise met en avant sa volonté d’être « concepteur, fabricant et exploitant » pour devenir un fournisseur d’énergie (chaleur et/ou électricité) aux consommateurs isolés (îles, déserts électriques, …), ou souhaitant décarboner leurs productions.

 

Naarea et le nucléaire recrutent

Aujourd’hui, l’écosystème nucléaire en France a besoin de 100 000 personnes sur les dix prochaines années, soit 10 000 recrutements par an.

Naarea contribue à cette dynamique en accueillant des personnes venant d’horizons divers et en les intégrant à la filière nucléaire pour bénéficier d’une « fertilisation croisée » en adoptant les meilleures pratiques des autres secteurs pour s’en nourrir mutuellement.

Le but est de produire des centaines de réacteurs en série en utilisant l’impression en 3D pour la fabrication du cœur et des pièces. Cette approche est économiquement viable en production de masse. C’est d’autant plus réalisable sur des pièces de petite taille : le cœur du réacteur est de la taille d’une machine à laver.

Ce microréacteur répond aux mêmes exigences de sécurité et de sûreté que les centrales nucléaires traditionnelles. La réaction de fission est intrinsèquement autorégulée par la température (si elle augmente, la réaction diminue) afin que le réacteur soit toujours dans un « état sûr » grâce aux lois de la physique.

Étant de plus télécommandé à distance, ce microréacteur pourra être neutralisé (« suicidé ») pour contrer un acte malveillant.

 

Une mise en service en 2030 ?

Naarea travaille sur une maquette à échelle un qui devrait être prête d’ici la fin de 2023. Elle continue à embaucher à un rythme soutenu : elle vise 200 employés à la fin de cette année, et 350 l’année prochaine où un démonstrateur fonctionnel devrait voir le jour.

Naarea envisage un prototype opérationnel autour de 2027-2028 pour une mise en service en 2030.

De nombreux autres petits réacteurs modulaires sont actuellement en développement dans d’autres pays pour répondre à l’énorme demande énergétique future afin d’atteindre l’objectif zéro émission à l’horizon 2050. Certains d’entre eux ont une puissance de 250 à 350 MW, plus adaptés pour de petits réseaux électriques, mais pas pour les besoins spécifiques des industriels et de petites communautés dans des lieux isolés.

Ces microréacteurs pourront répondre à des usages décentralisés de sites industriels ou à l’alimentation de communautés isolées.

Selon le président de Naarea :

« Un réacteur de 40 MW permet de produire de l’eau potable pour environ deux millions d’habitants en dessalant de l’eau de mer, d’alimenter 2700 bus pendant une année […] ou une centaine de milliers de foyers en énergie ».

 

Nouveaux besoins, nouveau marché mondial

L’entreprise russe Rosatom propose aux Brics (Brésil, Russie, Inde, Chine et Afrique du sud), et notamment aux pays d’Afrique et d’Asie, de petites centrales nucléaires flottantes ou à terre, clés en mains, avec tous les services associés (fabrication du combustible, entretien, et retraitement du combustible usagé) à un prix compétitif.

La Russie utilise l’argent de son gaz et du pétrole pour financer son expansionnisme nucléaire et politique.

Nul besoin d’une infrastructure industrielle préexistante : la Russie s’occupe de tout, de la fourniture des équipements à la formation du personnel. Son offre inclut aussi le financement (crédit total) de l’opération. Les pays acheteurs n’ont donc rien à débourser initialement. Ils ne paient que l’électricité ou un remboursement annuel.

Rosatom a ainsi écarté la France du marché des grandes centrales nucléaires en Afrique du Sud où elle était pourtant bien implantée, puisque les deux premiers réacteurs nucléaires en Afrique (deux fois 900 MW) ont été construits par Framatome. C’est aussi le cas au Vietnam et dans d’autres pays.

Pourtant, la France est le seul pays au monde (autre que la Russie et bientôt la Chine) à pouvoir proposer pour l’instant une offre complète incluant le combustible et le retraitement.

Les États-Unis ne retraitent plus leur combustible nucléaire, ni pour eux-mêmes ni pour l’exportation, depuis 1992.

 

Une carte maîtresse

La France a donc une carte maîtresse à jouer dans le domaine des microréacteurs pour nouer de nouveaux liens privilégiés utiles pour l’avenir.

En effet, les pays qui achètent des centrales nucléaires deviennent dépendants du vendeur pendant des décennies pour leur approvisionnement en électricité.

Le vendeur et l’acheteur doivent donc rester « amis » et deviennent des partenaires privilégiés pour d’autres contrats de construction d’infrastructures civiles (aéroports, ponts, autoroutes, génie civil, équipements publics…) ou militaires, et ce pendant près d’un siècle (construction, durée de vie de la centrale nucléaire supérieure à 60 ans, et déconstruction).

Pour autant, nos dirigeants ne répondent pas, ou maladroitement et de manière incomplète, aux demandes et aux besoins des pays voulant accéder au nucléaire.

La Russie, la Corée du Sud et la Chine s’empressent de combler à leur avantage la demande de coopération nucléaire à laquelle la France répond mal. Elle rate de belles opportunités nucléaires, mais aussi diplomatiques et politiques, pour établir des liens durables avec de nombreux pays en les aidant à développer leur parc nucléaire.

De plus, son offre n’est parfois pas compétitive par rapport à celle de la Russie qui, elle, inclut le financement.

À noter que l’offre des Russes comprend aussi la formation dans leurs écoles d’ingénieurs d’un excellent niveau à Moscou, mais aussi à Tomsk en Sibérie, et dans une demi-douzaine d’autres villes. Des milliers de futurs opérateurs et d’ingénieurs nucléaires en herbe des Brics arrivant dans ces écoles apprennent aussi le russe. Un jour, ils apprendront peut-être le français en France, ou chez eux ?

 

Un foisonnement de compétences

Compte tenu des contraintes techniques et administratives à surmonter, la date annoncée par Naarea pour la mise en service de leur premier réacteur en 2030 est probablement (très ?) optimiste.

Toutefois, ce foisonnement de compétences et de talents dans ce nucléaire innovant doit être encouragé, surtout en France, même si c’est un projet qui ne sera transformé industriellement que dans 30 ans, 50 ans ou… 100 ans.

Dans l’intervalle, de jeunes ingénieurs s’enthousiasmeront, et c’est bien !

Et ces nouveaux talents qui forgent ce microréacteur nucléaire de quatrième génération peuvent bénéficier d’une conjoncture internationale favorable, d’une réglementation simplifiée, et de soudaines avancées technologiques et découvertes.

Nul n’est à l’abri d’un coup de chance !

Sinon, ces ingénieurs et techniciens pourront toujours ensuite se recycler dans le nucléaire « classique » des puissants réacteurs EPR (ou RNR) pour succéder à la génération précédente ayant développé l’extraordinaire parc nucléaire qui fonctionne parfaitement aujourd’hui en France, et pour encore des décennies.

La crise immobilière est fabriquée par l’État

La crise immobilière qui sévit actuellement en France ne tombe pas du ciel, et l’État en est grandement responsable. Son interventionnisme tous azimuts a eu finalement raison de la baisse de la construction de logements neufs et de la réduction du parc de logements accessible aux plus démunis. Certes, l’augmentation des taux d’intérêt a sa part de responsabilité dans l’effondrement du marché immobilier, mais la main très lourde de l’État a également sa part, et sûrement pas la plus petite.

Après des hausses très importantes ces dernières années, les prix de l’immobilier baissent enfin depuis un an dans la plupart des grandes villes françaises, y compris à Paris.

A priori, c’est une bonne nouvelle pour ceux qui veulent acheter, surtout les primo-accédants, mais un peu moins pour ceux qui veulent vendre. Ces derniers essayent de résister tant qu’ils peuvent à la baisse et contribuent à bloquer le marché. C’est ainsi que le nombre de transactions s’effondre. Selon Meilleurs Agents, la barre du million de transactions devrait être enfoncée à la fin de l’année 2023. Du côté des locataires, la situation n’est pas plus rose. En effet, de plus en plus de ménages ne sont plus en mesure de trouver un logement correspondant à leurs besoins, que ce soit en termes de superficie ou de localisation, surtout dans les métropoles.

Comme souvent, les origines d’une crise sont multiples. Passons en revue ces différents facteurs qui ont enrayé le marché immobilier :

  • la hausse des taux d’intérêt,
  • la fiscalité immobilière,
  • les injonctions concernant la rénovation énergétique,
  • l’avalanche de normes pour la construction,
  • la gestion de l’urbanisme par les communes,
  • l’encadrement des loyers.

 

La hausse des taux d’intérêt

Afin de combattre l’inflation, les banques centrales ont sorti l’arme des taux d’intérêt, ce qui a naturellement impacté les taux des crédits immobiliers.

Ainsi, selon l’Observatoire du Crédit Logement, les taux des crédits immobiliers moyen ont triplé en un an du 1ᵉʳ trimestre 2022 à 2023, voire davantage. Alors qu’il était possible d’emprunter à un peu plus de 1 % en 2021, c’est maintenant 4 % qu’il faut compter. Cette augmentation considérable du coût du crédit pour les emprunteurs rend naturellement plus onéreuse l’acquisition d’un bien immobilier, surtout pour les jeunes ménages.

À cette augmentation du coût du crédit, il faut ajouter également le renforcement des garanties demandées par les banques auprès des emprunteurs. Tout cela a pour conséquence de diminuer la demande des primo-accédants et reporte sur le marché locatif la demande de logements. Mais encore faut-il que les investisseurs privés répondent présents. Or, pour eux, l’équation est un peu la même : la hausse des taux d’intérêt rabote la rentabilité de leurs investissements. À cela s’ajoute le poids de la fiscalité immobilière.

 

La fiscalité immobilière

L’immobilier est devenu une véritable vache à lait pour l’État et les collectivités locales. Les impôts qui pèsent sur les propriétaires bailleurs sont considérables. Il y a naturellement l’impôt sur les revenus fonciers, mais également les taxes foncières qui ont fortement augmenté, et pour les plus chanceux l’impôt sur la fortune immobilière (IFI).

Tout cela fait qu’aujourd’hui de nombreux petits propriétaires qui avaient investi pour compléter leurs retraites, ont du mal à tirer un revenu net d’impôts satisfaisant de leur investissement. Beaucoup regrettent et ne sont pas prêts à remettre une pièce dans la pierre. Certes, le dispositif de défiscalisation Pinel a été prolongé, mais cela reste bien insuffisant pour compenser les contraintes liées à ce type d’investissement (absence de liquidité, blocage des fonds à très long terme, administration des biens, etc.). Avec cette fiscalité et les contraintes liées au statut de bailleur, les propriétaires voient de moins en moins l’intérêt de louer, et nombreux pensent à sortir du marché ou à louer dans le cadre d’un meublé touristique, style Airbnb. Ce faisant, l’offre locative a tendance à baisser.

 

La rénovation énergétique et les nouvelles normes de construction

La baisse de la construction de logements neufs s’explique aussi par le fait que les promoteurs sont pris en étau entre d’une part la hausse des coûts de construction, provoquée par les prix des matériaux et des normes environnementales toujours plus exigeantes ; transition énergétique oblige.

A cela s’ajoute la chasse aux « passoires thermiques » qui s’inscrit dans le cadre du diagnostic de performance énergétique (DPE). Imposé par Bruxelles dès 2006, le DPE classe les logements selon leur consommation énergétique de la lettre A à G. L’objectif est d’atteindre un parc immobilier de catégorie A ou B d’ici 2050 pour respecter la réglementation européenne.

Dans l’immédiat et depuis le 1er janvier 2023, les logements dont la consommation énergétique est supérieure à 450 kWh par m² sont interdits à la location. Pour réduire l’offre de logements à la location on ne fait pas mieux. Et à partir du 1er janvier 2028, tous les bâtiments neufs devront être à émissions « quasi nulles » en vertu d’une nouvelle directive sur la performance énergétique des bâtiments. Les petits propriétaires doivent donc s’adapter à toujours plus d’obstacles pour louer leurs biens, et certains préfèrent jeter l’éponge.

 

La gestion de l’urbanisme par les communes

De l’avis de nombreux promoteurs immobiliers, la gestion de l’urbanisme par les communes constitue un frein au développement de leurs activités.

Ce constat est partagé par le Sénat qui relève :

« Le droit de l’urbanisme est le droit du paradoxe. Fondé en théorie sur le principe d’économie du territoire, il ne permet cependant pas de gérer de façon souple les conflits d’usages qui résultent en permanence de l’appropriation du sol. Entre le « gel  » des espaces naturels et assimilés, destiné à assurer une protection absolue, et le laisser aller le plus nonchalant -notamment à proximité des villes- il ne parvient pas définir, puis à maintenir un juste équilibre ».

 

L’encadrement des loyers et les difficultés liées à la location

Avec le développement des métropoles, est apparu le concept de zones tendues.

Il s’agit de communes où le nombre de logements proposés à la location est très inférieur au nombre de personnes qui veulent devenir locataires pour en faire leur résidence principale.

Dans ces communes, l’encadrement des loyers pose une limite au loyer que fixe le propriétaire lors de la mise en location d’un logement, loué avec un bail d’habitation (y compris bail mobilité). C’est ainsi que de nombreuses grandes villes voient leurs loyers encadrés. Si cet encadrement est naturellement favorable aux locataires qui ont trouvé un logement (pas les autres), il ne fait pas le bonheur des propriétaires bailleurs qui voient la rentabilité de leur investissement baisser à long terme. En effet, avec l’inflation et le coût des travaux, maintenir des loyers inférieurs au prix du marché est le meilleur moyen pour détruire à long terme un parc immobilier. Toutes les études sur les expériences de blocage des loyers dans tous les pays qui l’ont pratiqué sont unanimes sur le sujet[1].

Mais l’encadrement des loyers n’est pas la seule restriction du droit de propriété des bailleurs.

Il faut également rappeler les difficultés juridiques que rencontrent les propriétaires face à des locataires indélicats. Cette insécurité juridique les pousse souvent à sortir leur logement du parc locatif traditionnel et à le mettre sur des plateformes de location saisonnières comme Airbnb.

 

En conclusion

La crise immobilière que nous connaissons n’a rien de surprenant. Certes, la hausse des taux d’intérêts a contribué à son aggravation, mais beaucoup d’autres facteurs ont favorisé cette crise qui vient essentiellement, comme nous l’avons montré, de l’interventionnisme croissant de l’État sur ce secteur. De ce point de vue, l’État n’est pas la solution, mais le problème.

[1] Voir M. Albouy, Finance Immobilière et Gestion de Patrimoine, 2e éd. Economica, Paris, 2020.

L’Europe spatiale peine à rattraper SpaceX

Les 6 et 7 novembre, les ministres des 22 États-membres de l’ESA, réunis en sommet interministériel à Séville, ont tenté une mise à jour (au sens de l’anglais reset) de leur organisation. Il est plus que temps, car l’Europe spatiale s’est littéralement effondrée. Le problème est de savoir s’il n’est pas trop tard.

 

Quelques chiffres résument la situation

Arianespace, pour le compte de l’ESA (Agence Spatiale Européenne), a lancé, entre le premier vol en 1979 et aujourd’hui, 261 fusées Ariane (catégorie « 5 » depuis 2003) produit par la société ArianeGroup, dont seulement deux Ariane-5 en 2023 et trois Ariane-5 en 2022. Les meilleures années d’Ariane ont été l’an 2000 avec doue lancements réussis, et 2002 avec one lancements réussis. Depuis, jusqu’en 2020, le nombre tournait autour de cinq ou six par an. De son côté, SpaceX, le rival d’ArianeGroup, a lancé entre le premier vol en 2010 et aujourd’hui, 272 Falcon dont 60 en 2022, et 78 depuis le début de l’année 2023.

Aujourd’hui, il n’y a plus de lanceur moyen Ariane-5 (le dernier lancement a eu lieu en juillet 2023) et la mise en service de son remplaçant Ariane-6 est sans cesse retardée. Son complément, le lanceur européen léger, Vega-C, est, lui, cloué au sol après l’échec de son premier vol commercial du fait d’un défaut de conception de la tuyère de son second étage.

Le motif officiel du sommet était (en langage européen) de « déterminer comment rehausser les ambitions spatiales de l’Europe. À cette occasion, l’ESA devait élaborer une stratégie européenne pour l’exploration, le transport et le développement durable dans et depuis l’espace. Les raisons en étant qu’exploiter tout le potentiel de l’espace pour améliorer la vie sur Terre devait contribuer à garantir la prospérité, la compétitivité et le talent de l’Europe et ses citoyens, et permettre à l’Europe d’affirmer la place qui lui revient dans le monde ».

Qu’en termes pompeux ces choses-là furent dites !

 

Une administration multinationale n’a pas de stratégie

Le communiqué parle de « stratégie européenne », et là commence le problème, l’Europe n’est pas une entreprise, l’Europe n’est pas un État, l’Europe est une administration commune à plusieurs pays ayant des ambitions différentes. L’ESA est le reflet de cette nature composite, et il n’y a rien de plus frileux et opposé à la prise de risque qu’une administration multinationale. Pour un projet aussi ambitieux que le spatial, ce n’est vraiment pas le cadre idéal.

Certes, l’attrait du gain n’est évidemment pas absent dans l’esprit des Européens puisque, dit-on, le marché du spatial orbital (donc sans le spatial lointain) pourrait être de l’ordre de 150 milliards de dollars dans les dix ans qui viennent. Mais le Spatial n’est pas un business comme un autre.

Dès l’exposé des motifs, on voit que quelque chose ne va pas. « Exploiter tout le potentiel de l’espace » ne peut avoir en premier lieu pour objet « d’améliorer la vie sur Terre » en étant « plus vert ».

Exploiter le potentiel de l’espace, c’est regarder vers les planètes et les étoiles, et non d’abord vers la Terre, c’est porter le rêve de la conquête spatiale, c’est une exigence et une ascèse, donc une économie de moyens pour un maximum de résultats, pas pour « créer des emplois », mais pour créer de la vraie richesse, c’est-à-dire investir, comme l’ont été toutes les grandes aventures humaines, et surtout pour réaliser un rêve. Bien sûr qu’il y aura des retombées de la conquête spatiale pour la vie sur la Terre, mais Magellan n’est pas parti dans son tour du monde pour améliorer la vie en Espagne ou au Portugal. Et à notre époque Elon Musk se soucie peu d’améliorer la vie sur Terre, il veut donner à l’Homme la possibilité de vivre sur la planète Mars, ce qui ne l’empêche pas de gagner beaucoup d’argent dans l’effort rationnel qu’il a entrepris.

Un seul motif cité par le communiqué m’intéresse en tant qu’économiste libéral, c’est « garantir la compétitivité de l’Europe et de ses citoyens » (quoi que je n’aime pas le terme « garantir » qui présuppose qu’on puisse figer un avantage dans une compétition, alors que la compétition est une lutte sans merci et sans garde-fou, et que dans ce contexte, on ne peut compter sur quelque avantage acquis ou « rente » que ce soit).

Après ce préambule, voyons ce qui a été décidé à ce sommet.

 

Décisions au sommet

D’après le directeur général de l’ESA Josef Aschbacher, un « soutien financier » permettra d’assurer « la viabilité économique et la compétitivité des fusées Ariane 6 et Vega-C, stratégiques pour l’accès autonome de l’Europe à l’espace ».

Il s’agit d’« une subvention annuelle d’un maximum de 340 millions d’euros pour Ariane-6 et de 21 millions d’euros pour Vega-C ».

Quand on sait qu’un lancement d’Ariane-6 devrait coûter 100 millions d’euros (mais cela dépendra beaucoup de l’économie d’échelle fonction du nombre), et qu’un lancement de Falcon-9 coûte 50 millions d’euros, on voit bien l’inanité de la subvention européenne. NB : le coût de développement de l’Ariane-6 a été de l’ordre de 4 milliards d’euros ; celui du Falcon-9, de 400 millions de dollars. Plus que l’argent, ce sont les objets pour lesquels il est dépensé et l’organisation de l’entreprise qui est en jeu.

Par ailleurs, la fusée Ariane-6 ne sera toujours pas réutilisable. Avec ce nouveau lanceur l’Europe continuera à « jeter à la poubelle son Airbus après avoir traversé l’Atlantique » (image personnelle que je trouve très parlante !).

Chez le compétiteur SpaceX, un des Falcon-9 a déjà été réutilisé 18 fois !

Jusqu’à tout récemment, l’ESA ou ArianeGroup ne voulaient pas de réutilisation, car il fallait consacrer entre 10 à 15 % d’ergols à la redescente sur Terre du lanceur, et parce que cela aurait rendu plus coûteuse à l’unité une production de moteurs qui auraient été moins nombreux du fait de leur réutilisation. C’est un raisonnement valable dans une économie statique, mais pas dans une économie en développement. De ce fait SpaceX a produit plus de moteurs qu’ArianeGroup car elle a construit plus de fusées, même réutilisables, et sa consommation d’ergols supplémentaire a été totalement négligeable par rapport au gain obtenu par les économies d’échelle résultant du nombre de vols. Par ailleurs produire des lanceurs pour les « jeter à la poubelle » n’est pas l’expression d’un souci particulier de l’environnement, comme prétendent avoir ESA et ArianeGroup.

Enfin, la capacité de transport d’Ariane-6 ne sera pas énorme, 20 tonnes en orbite basse. Ce n’est vraiment pas une révolution. Si le Starship vole il pourra porter 100 tonnes à la même altitude, le Falcon Heavy, porte effectivement 64 tonnes et le Falcon-9, 22 tonnes.

Une note positive cependant.

L’Allemagne a obtenu que la fourniture des équipements et prestations soient soumise à la concurrence. Vous avez bien lu le mot « concurrence ». Jusqu’à aujourd’hui les pays membres se répartissaient politiquement les contributions du fait de leur participation à l’ESA (on appelait ça le géo-retour). Ce n’était pas la meilleure incitation à produire mieux et moins cher, puisque chaque pays avait son petit domaine assuré et protégé.

Désormais, des appels d’offres seront lancés, et les meilleures offres seront retenues, indépendamment de la nationalité du fournisseur. Indirectement, cela donnera toutes leurs chances au NewSpace européen, c’est-à-dire aux indépendants, notamment allemands, qui avec des moyens très limités ont décidé de se mesurer aux sociétés officielles aujourd’hui protégées. La NASA le fait depuis « toujours » (depuis la première présidence Obama mais cela fait déjà longtemps).

Quel progrès ce sera pour l’Europe, mais il est plus que temps !

Airbus-Safran (ArianeGroup) profitera sans danger de cette concurrence car elle est de loin la plus puissante en Europe. Par contre, les Italiens de l’entreprise Avio, avec le VEGA-C (anciennement produit par ArianeEspace), vont se trouver en concurrence réelle très vite avec les petites sociétés du NewSpace européens, notamment l’allemande « Isar Aerospace » dont le premier lanceur devrait voler fin 2023, mais aussi la franco-allemande « The Exploration Company » qui propose sa capsule Nyx.

C’est de là que viendra le progrès mais la progression sera rude. L’ESA prévoit une aide allant « jusqu’à 150 millions d’euros pour les projets de lanceurs les plus prometteurs ».

Vu les coûts ce ne sera qu’une grosse goutte d’eau.

 

Avec cette politique, l’Europe n’est pas sortie d’affaire

Le lanceur Ariane-6 sera toujours non réutilisable (mise à feu au sol prévue le 23 novembre. Cela devrait permettre de confirmer une date de lancement au printemps 2024. On en parle depuis 2009, et le premier vol devait avoir lieu en 2020 !). Il n’est toujours pas prévu de transport de personnes, et sur ce plan, la dépendance aux Américains restera totale.

Un tout petit espoir cependant : il est à nouveau question d’un transporteur robotique, du type SUSIE (Smart Upper Stage for Innovative Exploration), qui sera, lui, réutilisable, et qui devrait servir à aller et revenir de l’ISS (pas pour les hommes mais pour les équipements et les consommables).

La présentation du véhicule avait fait sensation à l’IAC de 2022 car elle avait donné l’impression que l’Europe se réveillait enfin. Mais on n’en avait plus entendu parler. Une somme de 75 millions d’euros y a été affectée lors de ce sommet. Il faut espérer maintenant que ce projet aille plus loin que le vaisseau cargo ATV (lancé une fois il y a 15 ans déjà, mais non réutilisable) ou que l’avion fusée Hermès (finalisé il y a 30 ans mais qui n’a jamais volé).

Cependant, il ne faut pas exagérer son importance ni ses perspectives. SUSIE ne pourra apporter que quatre tonnes dans l’ISS, et il ne pourra en rapporter que deux. Ce n’est rien comparé aux capacités du Starship (100 tonnes), et c’est moins que la capacité de la capsule Dragon de SpaceX (6 tonnes) qui fonctionne aujourd’hui.

On nous dit que ce véhicule pourrait fonctionner en 2028, mais c’est à cet horizon que l’ISS devrait être désorbitée ! Alors, ce concept va-t-il être développé jusqu’au bout, ou bien va-t-il disparaître comme l’ARV (Advanced Reentry Vehicle) qui devait succéder à l’ATV (Automated Transfer Vehicle) et qui a disparu des écrans autour de 2010 alors qu’il avait fait comme SUSIE, l’objet d’un « démonstrateur » ?

À partir de SUSIE, l’ESA dit qu’elle envisage de développer un véhicule habitable et réutilisable… mais il y a un double saut à effectuer (puissance et viabilisation) et aucune date ne peut bien sûr être avancée.

 

En résumé, on a l’impression que le constat est fait, mais que le virage prendra beaucoup de temps à se concrétiser. Peut-être trop de temps car, en attendant, SpaceX ne va pas dormir sur ses lauriers. Ariane-6 va arriver déjà démodée sur un marché ultra-concurrentiel (en dehors des Américains, il y aussi les Indiens ou les Chinois, même les Japonais) et, franchement qui va se servir de SUSIE quand Dragon donne pleinement satisfaction pour le type de transport visé ? Ce ne sera qu’un test pour autre chose (le transporteur habitable) mais probablement sans rentabilité à la clef. Que de temps et d’argent perdus par l’Europe par pur dédain des autres ou très clairement par arrogance (« parce que nous sommes les meilleurs »).

Liens :

https://www.cieletespace.fr/actualites/la-fusee-europeenne-vega-c-ne-revolera-pas-avant-octobre-2024

https://www.touteleurope.eu/economie-et-social/a-seville-le-sommet-sur-l-europe-spatiale-accouche-d-un-plan-de-sauvetage/

Non, tout n’est pas relatif !

Depuis Einstein, la théorie de la relativité a rejoint l’univers des métaphores pseudo-analytiques des sciences sociales. Aujourd’hui abondant, cet univers fait passer des images pour des raisonnements, et des procédés stylistiques pour des démonstrations intellectuelles solides. Souvent, ce sont des vues de l’esprit. Si elles n’étaient assises que sur du vent, ce ne serait pas un problème.

Mais ces petits jeux avec les concepts scientifiques ne reposent pas uniquement sur des ambitions littéraires. Ils sont fréquemment les instruments de défense de visions du monde que l’on appelle communément « idéologies ». Ainsi du relativisme, utilisé à tort, à travers et à contresens, pour défendre une cause un jour, et son opposé le lendemain.

À l’instar de Darwin qui ne projetait strictement aucun projet eugénique, Einstein n’augurait pas de la conversion sociologique de sa théorie. Pourtant, pas un jour ne passe sans que responsables politiques et chercheurs n’en fassent usage. Certes, on ne cite plus nommément Albert Einstein pour appuyer ses convictions. Mais on souscrit aisément à l’aphorisme populaire selon lequel « tout est relatif ».

Un citoyen sur 182 000 marcheurs contre l’antisémitisme exprime à la télévision « qu’il y a une importance aujourd’hui de prendre conscience du problème de l’islamisation » ?

Je n'y étais pas, je ne dirais pas que c'était représentatif du public mais à coup sûr il avait bien compris à quoi sert de manifester avec Zemmour, Le Pen, Ciotti ou Meyer Habib… https://t.co/6lmcC0o5Xg

— Aurélien Saintoul (@A_Saintoul) November 12, 2023

 

Cela permet à Antoine Léaument de justifier l’absence active de membres de La France Insoumise à la manifestation du 12 novembre :

« Défendre les juifs en attaquant les musulmans, c’est ça le projet ? ».

https://twitter.com/ALeaument/status/1723715520644432184

Dans un autre genre, le relativisme permet à Aymeric Caron de trouver matière à disserter, à relativiser sur la séquence filmée des attentats commis par le Hamas :

« Il faut quand même aussi avoir conscience que c’est un film qui est réalisé par l’armée israélienne et qu’il y a un but ».

Bientôt, les négationnistes de La France Islamiste vont nous expliquer que les films sur les camps de concentrations nazis sont à prendre avec précaution parce qu’ils ont été tournés par l’armée américaine. 🤮 https://t.co/zXTT6tM0lC

— Bertrand Martinot (@BMartinot) November 15, 2023

 

Le même qui, quelque temps plus tôt, ne voyait aucun inconvénient à comparer les moustiques à des mères qui risquent leur vie pour leurs enfants.

Toute perspective étant équivalente par ailleurs, l’usage du relativisme permet à n’importe qui de dire n’importe quoi. Il est surtout un moyen utile de défendre un agenda politique.

Un sociologue, aujourd’hui oublié de ses pairs, avait proposé en son temps une réflexion qui peut nous éclairer. Raymond Boudon distinguait deux sortes de relativisme : cognitif et culturel.

Le premier dissout la vérité objective dans la (métaphorique) construction sociale. Exemple : Louis Pasteur n’est pas l’inventeur du vaccin contre la rage. Il a été construit comme tel, car il a emporté la victoire dans la guerre (une fois encore métaphorique) qui l’opposait à ses détracteurs. Grace au dénominateur commun du « construit », les différences objectives disparaissent. Comme écrivait Boudon : « Il s’agit d’une banalité si l’on s’en tient à cette proposition ou d’une contre-vérité si on y lit un message relativiste[1] ».

Le relativisme culturel poursuit en ce sens. Il horizontalise les pratiques sociales. Toutes les cultures se valent et subséquemment, tous les types de gouvernement. De cette façon, on peut relativiser la différence entre la démocratie et la dictature, l’inscrire sur un continuum, comparer Emmanuel Macron à Caligula, et l’abaya à un symbole de respect de la femme.

Boudon s’interrogeait sur le succès de ces deux postures dans les sciences sociales.

Selon lui, « le relativisme représente l’une des thèses fondamentales de la sociologie et de l’anthropologie contemporaine[2] ».

Ce constat est encore vrai de nos jours. La littérature académique est parsemée de pièges relativistes dont il faudrait réaliser l’inventaire à la Prévert.

Bruno Latour indiquait être en désaccord avec ceux qui le considéraient comme un relativiste. Il se disait « relationniste ». La différence apparait comme purement intellectuelle. Dans La science en action, il écrivait :

« Puisque les humains doués de parole aussi bien que les non-humains muets ont des porte-parole je propose d’appeler actants tous ceux, humains ou non-humains, qui sont représentés afin d’éviter le mot d’acteur trop anthropomorphique ».

Voilà qu’à travers le mot actant, Aymeric Caron pourra quelques années plus tard, dans le plus grand des calmes, ne voir aucune différence entre une larve et un nouveau-né. Le latourisme est un relativisme. Signataire d’une tribune de soutien à Éric Piolle, repris (malgré les débats qu’il peut y susciter) par une large partie de la gauche insoumise, Bruno Latour est une de ces illustrations de la conversion du relativisme intellectuel en relativisme vulgaire.

Le 13 mai 2020, il amorçait un entretien accordé à Libération par une idée pour le moins surprenante :

« On ne peut encore cerner le virus, socialement, politiquement, collectivement. Il est une construction extrêmement labile… ».

Pourquoi ne pas s’arrêter à la première proposition ? Un virus est-il une construction ? Ou est-il d’abord ce que les autorités scientifiques disent qu’il est ?

Pour Raymond Boudon, le succès du relativisme était dû à la radicalisation du principe du tiers exclu.

Celui-ci « érige des termes contraires en termes contradictoires[3] ». Autrement dit, « si un objet n’est pas blanc, c’est qu’il est noir[4] ». Ou encore pourrait-on dire si un parti ne suit pas la ligne des Insoumis, c’est qu’il est fasciste. Le tiers exclu nous invite au manichéisme et à la simplification de la réalité entre les gentils et les méchants.

Boudon ajoutait que « l’utilité » d’une théorie, c’est-à-dire son adéquation avec les préoccupations intellectuelles du moment, était un autre facteur de succès du relativisme. Aujourd’hui, c’est un outil qui semble effectivement « utile » à un certain nombre de factions, lorsqu’il s’agit par exemple de qualifier une marche contre l’antisémitisme de manifestation d’extrême droite.

On peut raisonnablement penser que, d’un point de vue éthique ou a minima philosophique, il est utile de chercher à se mettre à la place d’une personne distincte de la nôtre pour pouvoir la comprendre. Un pas est franchi à partir du moment où cette posture est dévoyée pour en faire un sortilège de post-verité.

Boudon ne disait pas autre chose :

« Le bon [relativisme] nous permet de comprendre l’Autre. Le mauvais met tous les comportements, tous les états de choses et toutes les valeurs sur un même plan[5] ».

On pouvait difficilement rétorquer à Boudon de ne pas voir les similitudes entre de nombreux phénomènes sociaux. Il était loin de nier par exemple que la science et la religion procèdent toutes deux de croyances de la part des individus[6]. Mais il n’en inférait pas pour autant qu’aucune différence n’existait entre les deux. Faire un bon usage du relativisme, c’est en faire un usage en raison, c’est-à-dire en gardant sa capacité de juger. C’est surtout ne pas oublier que si expliquer, ce n’est pas excuser, relativiser peut parfois tendre à tolérer…

[1] Raymond Boudon, Essais sur la théorie générale de la rationalité, PUF, 2007

[2] Boudon, Raymond. Renouveler la démocratie. Éloge du sens commun. Odile Jacob, 2006

[3] Boudon, Renouveler la démocratie

[4] Ibid.

[5] Boudon, Raymond. Le relativisme. Presses Universitaires de France, 2008

[6] Boudon, Essais sur la théorie générale de la rationalité

Le complexe de l’industrie (8/8) – 12 recommandations pour enrayer la décomposition

Une traduction d’un article du Risk-Monger.

Pour lire les parties précédentes : partie 1, partie 2, partie 3, partie 4, partie 5, partie 6, partie 7.

Au cours de ma vie, les sociétés occidentales ont bénéficié d’innovations qui ont immensément amélioré la santé publique et la qualité de la vie ainsi que le progrès économique et social, la sécurité alimentaire et énergétique ; et aussi de technologies qui ont assuré une aisance bien au-delà de celle dont nos grands-parents auraient jamais rêvé. Et en dehors de l’Occident, le commerce mondial et les transferts de technologie ont amené des opportunités économiques et le développement social à des nations autrefois pauvres. Et pourtant, les entreprises et les individus qui ont pris des risques et réalisé ces avancées sont largement méprisés par un grand nombre d’influenceurs militants, de parties prenantes, de discoureurs et de décideurs politiques.

Il y a presque un an, j’ai commencé cette série d’articles sur la manière dont l’industrie paye un lourd tribut en termes de confiance du public et d’équité réglementaire en raison d’une stratégie de campagne agressive coordonnée ONG / militants / politiques. Je l’ai appelée « le complexe de l’industrie » parce que je n’arrivais pas comprendre pourquoi l’industrie ne réagissait pas à ces absurdités, et que tous les remèdes à la perte de la confiance du public devenaient plus complexes de jour en jour.

Le « complexe de l’industrie » comportait sept chapitres qui ont posé des questions qui fâchent.

Pourquoi les dirigeants de l’industrie n’ont-ils pas réagi, mais se sont-ils contentés de rester assis, comme le zèbre pas-tout-à-fait-le-plus-lent, alors que les militants anti-industrie appliquaient la même stratégie de tabassage à chaque industrie ?

Pourquoi ont-ils toléré qu’une industrie de la haine anticapitaliste contrôle le discours (qui s’est transformé en un massacre de communication bien coordonné) et détruise la confiance du public envers les entreprises ?

Pourquoi ont-ils permis à une idéologie post-industrielle naïve de se répandre dans le cadre des médias, de la politique et de la réglementation, à un point tel que l’industrie a été vilipendée et n’est plus en mesure de fonctionner dans les limites irréalistes que les gouvernements occidentaux ont créées ?

L’industrie est maintenant dans une cage bien verrouillée par un petit groupe de militants idéalistes anti-entreprises. Comment sortir de la cage ? Après sept chapitres de questions, cette conclusion tentera de fournir quelques recommandations.

 

Musclez votre discours

Au fond, le complexe de l’industrie est une crise narrative.

Les campagnes de communication réussissent si elles suivent sans faillir le discours principal. Un discours est un panier largement accepté de valeurs partagées, d’idéaux et de croyances qui façonnent les histoires que nous racontons. Les discours évoluent souvent après des générations de narration, mais peuvent parfois changer soudainement lors d’un événement extrême (une guerre, un effondrement du marché, un accident nucléaire…).

Les discours n’ont pas besoin de refléter des faits, mais ils doivent accorder les valeurs avec les perceptions. Parmi les discours dominants que les sociétés occidentales partagent actuellement on trouve le changement climatique catastrophique, l’effondrement de la biodiversité et le déclin de la santé publique. Les histoires racontées avec ces discours désignent toutes l’industrie comme la cause de ces crises. La confiance du public est étroitement associée aux héros de ces discours (les chevaliers blancs) qui combattent les méchants dissimulés sous leurs masques (l’industrie et le capitalisme).

Les discours des militants sont dirigés par la peur et la crise : selon eux, ce que l’industrie et le capitalisme ont fait à l’humanité et à l’environnement est tout simplement catastrophique.

Les histoires qui soutiennent ces discours portent généralement sur la façon dont la pollution industrielle et l’exploitation technocratique sont responsables de cette dégradation de l’environnement, de la santé humaine et des valeurs. Dans tout dialogue sociétal, il existe des discours concurrents, mais ceux qui prévalent, au fil du temps, dominent les politiques et les décisions des consommateurs.

Pourquoi les consommateurs pensent-ils que les aliments bios sont meilleurs, que l’énergie nucléaire est dangereuse, et que les produits chimiques sont mauvais ? Les histoires basées sur un discours d’innovation et de technologie résolvant des problèmes mondiaux ne parlent pas à un public qui a été amené à ne pas faire confiance aux institutions de recherche qui ont toujours le rôle des méchants et des pervers. Le message tombe dans l’oreille d’un sourd s’il ne colle pas avec les discours dominants.

Les ONG et les militants de la justice sociale ont consacré une énergie énorme à développer et à renforcer leurs discours tout en contrant activement les discours concurrents. C’est un processus long et patient, et leur coordination intensive a fini par payer. Les ONG travaillent maintenant avec des avocats américains en responsabilité civile et un petit groupe de scientifiques militants pour remodeler les histoires sur la façon dont la recherche et l’innovation devraient être menées. J’ai récemment montré comment quelques avocats spécialisés en responsabilité civile ont financé un film sur la façon dont ils sont les gentils qui se battent pour sauver l’humanité d’une industrie maléfique.

Les discours, comme les paradigmes, ne sont pas logiques mais composent le canevas (la toile) sur lequel nos histoires peuvent être brodées et nos valeurs acceptées. Les croyances façonnées par les discours des militants nous assurent que nous pouvons très bien nous passer du capitalisme, des technologies, des innovations et du commerce international. L’humanité n’aurait aucun problème à prospérer sans l’agriculture moderne ou les combustibles fossiles. Le naturel est toujours bon et le synthétique est a priori mauvais… un point c’est tout ! Les scientifiques et les acteurs industriels sont les forces du mal dans ce discours anticapitaliste avec des malédictions inattendues qui s’échappent de leurs laboratoires.

Les décideurs politiques, les journalistes et les acteurs sociaux qui ne respectent pas ces discours sociétaux dominants ont des carrières courtes. Et donc ils ignorent les solutions technologiques prometteuses à des problèmes comme le changement climatique, choisissant de renforcer les histoires sur la manière dont nous devons cesser de compter sur les innovations, freiner la croissance et le développement, et prendre des mesures de précaution.

Mais les discours évoluent avec les événements.

Après deux ans de confinements liés au coronavirus, la promotion des nouvelles technologies de vaccins à ARNm a été largement acceptée. Le discours antivax était faible pour une population prête à accepter n’importe quel risque si cela signifiait qu’elle pouvait retourner au bistrot (les taux de vaccination ont donc été très élevés). Près de 18 mois après l’invasion russe de l’Ukraine, avec l’inflation nuisant à la plupart des pays européens, le public occidental, autrefois aisé, s’est montré assez ouvert à l’augmentation de la production d’énergie nucléaire et à combustible fossile, adoptant une position plus rationnelle envers une transition énergétique plus graduelle et moins coûteuse.

 

Le pendule des technologies de communication

Je garde également espoir que les récentes révolutions des technologies de la communication (Internet, médias sociaux, IA) et les bouleversements sociétaux qu’elles apportent finiront par rétablir un équilibre à mesure que les gens se rendront compte que les déclarations de leurs chambres d’écho peuvent être ni factuelles ni dignes de confiance.

J’ai écrit par ailleurs comment chaque révolution des technologies de communication a entraîné des tensions importantes sur les institutions dominantes de l’époque (l’imprimerie menant à la Réforme protestante ; le cinéma et la radio permettant l’extrémisme politique et la propagande dans les années 1930 ; le consumérisme de masse émergeant de l’ère de la télévision des années 1950). Il n’y a jamais eu de révolution des technologies de la communication aussi importante que la numérisation et la mise en réseaux sociaux de toutes les informations.

À un moment donné, ces silos d’intolérance sur les réseaux sociaux cesseront de défier les institutions démocratiques et disparaîtront dans le bruit de fond. Mais nous devrons peut-être endurer quelques décennies d’extrémisme politique lorsque des robots d’IA personnifiés prendront le contrôle des prochains cycles électoraux dans les pays démocratiques.

Nous ne pouvons pas compter sur le hasard des événements pour sauver les innovateurs et les scientifiques des conséquences des discours hostiles et de l’extrémisme détruisant la confiance du public. Et s’appuyer sur les conséquences négatives du fascisme, des famines et des crises énergétiques pour (en fin de compte) libérer l’humanité d’une telle irrationalité est, eh bien, affreux. Les scientifiques et les innovateurs doivent apprendre de cette époque militante et jouer à long terme, comme les ONG l’ont fait, en accordant leurs messages sur plusieurs fronts pour composer un discours public plus fort sur ce que la recherche et la technologie ont fait et continueront de faire pour l’humanité. La confiance repose sur des valeurs, les scientifiques doivent donc exprimer leurs valeurs dans leurs histoires.

Il y a beaucoup d’histoires à raconter sur la manière dont la science, la technologie et le capitalisme ont rendu notre monde tellement meilleur. Mais si le récit public ne permet pas à ces histoires d’être entendues plus largement, alors les militants anti-technologie gagneront.

Est-il temps de contre-attaquer ? Cette série plutôt longue sur le complexe de l’industrie se terminera par 12 recommandations à l’industrie pour reconquérir le discours, arrêter la perte constante de confiance du public et remettre l’innovation et la technologie au cœur de ce que signifie être humain. Tous ces points ne s’appliqueront pas à toutes les industries en difficulté mais il y aura, espérons-le, de quoi relever le niveau afin que les industries aient ce débat en interne.

Voici 12 recommandations pour stopper le complexe de l’industrie.

 

1. Serrez-vous les coudes

L’un des principaux succès de communication du lobbying militant des ONG est de toujours parler d’une seule voix. Ils se joignent à eux lorsque d’autres groupes mènent des campagnes (même si elles ne sont pas liées à leurs propres objectifs), ne critiquent jamais publiquement d’autres points de vue (aussi atroces soient-ils) et amplifient leur nombre pour donner l’impression d’un front large et fort. L’industrie ne le fait pas, et même lorsqu’une industrie (ou, généralement, une entreprise) est attaquée sans relâche, les autres restent silencieuses plutôt que de rester unies pour riposter.

Attaquer l’industrie, répandre la peur et créer la méfiance sont des cibles faciles pour les groupes d’ONG qui profitent de la crainte et de l’indignation. Ils ne peuvent pas attaquer un produit sur des faits scientifiques, sa qualité ou son efficacité, alors ils l’attaquent comme un produit qui vient gonfler les bénéfices de Big Pharma, Big Oil, le cartel de l’industrie chimique… et le public gobe ça (en même temps que les produits de ces entreprises).

Et lorsque les militants pointent leurs armes vers une cible, toutes les autres entreprises, comme le zèbre pas-tout-à-fait-le-plus-lent, gardent la tête baissée, reconnaissantes de ne pas être au menu du jour des militants. Sans une réponse coordonnée contre ces artistes du dénigrement, le public se laisse convaincre par leur rhétorique. L’industrie doit retirer une des armes de la panoplie des militants et se tenir unie, s’exprimer lorsque (la plupart) des affirmations sont infondées et laisser les hypocrites se vautrer dans la fange de leurs mensonges.

Tant que l’industrie ne sera pas unie pour défendre toutes les entreprises, tant qu’elle ne luttera pas d’une seule voix contre toute accusation infondée, elle sera une proie facile pour les vautours de la confiance qui lui tournent autour.

 

2. Parlez haut et fort

L’industrie peut revendiquer certaines réalisations exceptionnelles au cours du siècle dernier, créant des produits et des procédés qui ont amélioré notre qualité de vie, notre bien-être, notre sécurité, notre santé publique, notre richesse économique et les plaisirs de la détente. Nous vivons mieux et plus longtemps grâce aux innovations et aux technologies qui sont en amélioration continue. Sans l’ingéniosité, l’efficacité et la capacité de l’industrie, nous souffririons encore des confinements liés au covid, et de nombreux autres êtres chers seraient morts.

Pourtant, nous n’entendons parler que des (très rares) revers ou des inégalités que toute technologie disruptive crée à ses débuts. Il est facile pour les critiques de donner une image biaisée de la réalité lorsque les groupes industriels ne répondent pas ou ne font pas face, et ne promeuvent pas leurs réalisations (sauf en interne). L’industrie doit parler haut et fort des avantages quotidiens dont les sociétés ont pu bénéficier grâce à leurs développements entrepreneuriaux et innovants continus.

Surtout après que tant d’entreprises se soient engagées pendant la pandémie pour trouver des solutions et des soulagements, n’est-il pas temps pour l’industrie de de dresser pour revendiquer le mérite de tout ce qu’elle a accompli ?

 

3. Luttez contre l’hypocrisie

Les acteurs de l’industrie sont tellement habitués à être critiqués au quotidien qu’ils restent silencieux, même face à la pure hypocrisie.

De grandes ONG internationales comme Greenpeace ou les Amis de la Terre ne sont pas transparentes, mentent ouvertement et se financent auprès d’acteurs peu scrupuleux, mais de tels comportements restent sans réponse comme si les règles ne s’appliquaient pas à elles. Et apparemment c’est le cas. Les groupes militants ont tellement harcelé la Commission européenne à propos de la consultation des acteurs de l’industrie que l’UE a effectivement imposé une interdiction à ses fonctionnaires de rencontrer des acteurs de l’industrie en dehors des associations professionnelles (mais cela ne s’applique pas aux rencontres avec des représentants d’ONG).

Pendant ce temps, le Parti vert européen utilise les fonds des contribuables pour que les ONG mènent des campagnes à partir du Parlement européen (et seul le Risk-Monger essaie de les interpeller pour cela). Dans le cas du dérisoire document du Pesticide Action Network sur le glyphosate, il ne s’agit pas tant de la mauvaise qualité de la recherche ou du fait qu’ils ont fait venir tant de militants à Bruxelles pour une semaine de campagnes et d’auditions au Parlement européen, mais qu’ils l’ont fait aux frais des contribuables européens grâce aux fonctionnaires du Parti vert européen. Si l’industrie tentait un tel numéro, l’enfer se déchaînerait.

L’industrie devrait s’exprimer pour exiger les mêmes règles et restrictions pour tout le monde, plutôt que de laisser les ONG avoir le champ libre dans l’arène politique. Au lieu de cela, ces petits putois rusés tentent d’interdire aux acteurs de l’industrie d’être juste présents au Parlement européen. Ils ont fait ça aux compagnies de produits chimiques et de tabac, alors pourquoi pas les autres ? Big Oil est le prochain zèbre le plus lent. Quand donc l’industrie se réveillera-t-elle toute et comprendra que cette stratégie s’applique à tous. L’industrie n’est pas la bienvenue.

 

4. Exigez de tous les acteurs des codes de bonne conduite

Lorsque j’ai rejoint Solvay, à l’époque une entreprise chimique et pharmaceutique belge, l’une des premières choses que j’ai faites a été de signer un code de bonne conduite. Compte tenu de ma formation universitaire, j’ai trouvé beaucoup d’intérêt à ce document, et j’ai été très impressionné. Les entreprises ne peuvent pas se permettre que leurs employés se comportent mal, non seulement pour des raisons de relations publiques mais aussi pour des raisons juridiques, et elles appliquent régulièrement, sinon discrètement, ces codes. Je n’ai jamais signé de code de bonne conduite dans mon université, et il est clair que ce que j’ai vu mon patron faire à des étudiantes a été une raison suffisante pour que je parte.

La plupart des ONG n’ont pas de code de bonne conduite – en fait, elles se réjouissent lorsque leurs militants enfreignent les lois, attaquent les autres ou induisent le public en erreur. Il y a une dizaine d’années, j’ai mis Greenpeace au défi d’arrêter leur hypocrisie et de développer un code, et finalement ils l’ont fait ! Mais même là il s’agit d’un vague ensemble de pontifications plutôt que de règles pour guider les actions de leurs équipes. Peu d’autres ONG se sont souciées d’en faire autant et beaucoup, comme Extinction Rebellion ou Just Stop Oil, se félicitent lorsque leurs militants enfreignent la loi.

 

5.  Reprenez le contrôle du discours

De nombreux partis de gauche en Occident ont utilisé la crise climatique comme une opportunité pour appeler à une désindustrialisation, abandonner le capitalisme, faire reculer la croissance économique et redéfinir la prospérité. « Pas de temps à perdre ! » C’est quelque chose qu’ils ne peuvent revendiquer qu’en raison de la richesse que l’industrie, le commerce international et le capitalisme ont apporté aux sociétés occidentales. Des points de vues comme cellui de Naomi Klein, selon laquelle nous ne pouvons pas avoir à la fois le capitalisme et lutter contre le changement climatique (par conséquent, pour sauver la planète, nous devons virer fortement vers la gauche). D’autres, du WEF à la Commission européenne, parlent de la remise à zéro du capitalisme ou de la décroissance comme si c’était la seule alternative.

C’est de la folie. L’atténuation du changement climatique ne peut être obtenue efficacement par une solution militante de précaution et la réduction de toute activité humaine. Comme pour d’autres crises observées dans le passé, nous devons trouver des solutions technologiques et des innovations, et pour ce faire nous avons besoin de l’industrie, d’entrepreneurs et d’investissements en capital. Ce discours est rarement entendu (à moins qu’il y ait une pandémie ou une crise sanitaire où l’on voit ces mêmes acteurs sociaux critiques implorer l’industrie de trouver une solution).

 

6. Refusez de participer à la guerre culturelle

L’industrie et le capitalisme ont été dépeints comme une malédiction de mâles blancs d’âge moyen envers l’humanité, créant une souffrance mondiale au profit de quelques-uns.

De nombreux groupes d’activistes, des Amis de la Terre à Greenpeace, ont endossé des causes de justice sociale allant des droits des femmes à la diversité raciale dans le cadre de leur lutte contre l’industrie et le capitalisme ; les agro-écologistes ont transformé le développement rural en une lutte de petits paysans contre des grandes entreprises ; Big Pharma est considérée comme négligeant les maladies des femmes et ne cherchant que des solutions rentables pour l’establishment médical occidental…

L’industrie doit raconter de nouveau son histoire, comment elle a trouvé des solutions pour les plus vulnérables, et comment elle a innové en tant que leader de la justice sociale. Des entreprises privées comme Solvay et J&J ont été les premières à garantir des pensions de retraite à leurs travailleurs, des semaines de travail plus courtes, des congés de maternité… Les entreprises figurent parmi les principaux donateurs d’aide, que ce soit via des médicaments aux pays en développement, des paiements monétaires, des écoles ou des projets d’infrastructure. Les ONG anti-industrie qui parlent beaucoup de justice sociale font peu en comparaison (au contraire, beaucoup d’entre elles pompent des finances publiques pour leurs salaires).

Pourquoi l’industrie a-t-elle permis à ces mécontents de leur voler la justice et de draper leur intolérance dans la vertu ?

 

7. Défendez la bonne science

Les entreprises industrielles dépensent des milliards pour investir dans les nouvelles technologies. Leurs travaux scientifiques doivent être corrects, ne serait-ce que pour des raisons existentielles. Leur engagement envers les bonnes pratiques de laboratoire (BPL) et la recherche responsable sont des éléments clés de leur stratégie d’innovation. Aujourd’hui, je ne peux pas imaginer une entreprise ou une industrie qui ne pratique pas la conception durable dans son approche de la recherche (une évolution de la culture de gestion de produits qui a façonné la RSE dans les années 1990).

Cinq ans de travail dans un campus de recherche d’entreprise attestent que les entreprises paient le prix fort pour faire venir les meilleurs scientifiques des programmes d’études supérieures et s’efforcent de leur fournir les moyens de développer une recherche de pointe. L’enjeu d’une bonne méthodologie est tel que l’intégrité de la recherche est gravée dans leurs codes de bonne conduite. Alors pourquoi est-ce que j’entends constamment dire que les résultats de la recherche ne sont pas fiables parce qu’ils sont soit basés sur l’industrie, soit financés par l’industrie ? Ces chercheurs de second ordre sont-ils toujours aussi aigris que leurs anciens camarades de classe aient obtenu de bons emplois et pas eux ?

 

8. Dénoncez la science militante

De leur côté, les scientifiques militants n’existent que pour essayer de créer le doute et la méfiance envers l’innovation.

Il n’y a aucune conséquence si ces tumeurs malignes de la communauté de la recherche font du picorage ou induisent le public en erreur — elles sont payées pour le faire et dans une nette majorité des cas, leurs affirmations sont fausses et finalement réfutées (non sans créer d’abord l’inquiétude et une perte de confiance dans les innovations de la recherche). Lorsque les militants essaient d’ignorer les résultats de la recherche industrielle simplement parce qu’elle est financée par l’industrie, ou lorsqu’ils essaient de discréditer des chercheurs distingués pour avoir travaillé avec l’industrie, il est temps que la communauté scientifique se dresse pour remette les pendules à l’heure.

Mais les dirigeants industriels ne dénoncent pas les pires scientifiques les plus corrompus. Ce blog a récemment montré comment un groupe de scientifiques de la réglementation anti-industrie à la retraite s’est réuni autour d’un organisme à but non lucratif axé sur les relations publiques appelé Collège Ramazzini, prenant de l’argent de dommages-intérêts des cabinets d’avocats américains en responsabilité civile poursuivant des entreprises sur la base d’allégations trompeuses qu’ils font via des canaux malléables d’influence comme le CIRC. Au lieu de cela, les entreprises transigent à l’amiable avec ces avocats prédateurs, fournissant plus de fonds pour plus de fabrication de preuves par ces lamentables scientifiques militants.

Avec le succès des ONG qui ont fait supprimer le poste de conseiller scientifique en chef auprès de l’Union européenne, il n’y a pas de voix forte pour la science dans le processus réglementaire de l’UE, de sorte que nous voyons des politiques basées sur des idéologies ambitieuses plutôt que sur la science. L’industrie doit s’exprimer en faveur d’un retour à des politiques fondées sur des données probantes appuyées sur les meilleures données scientifiques disponibles.

J’ai, avec d’autres, appelé à la création d’une sorte d’organisation scientifique bruxelloise qui puisse défendre la culture scientifique et les preuves issues de la recherche dans le cadre du processus réglementaire.

 

9. Adoptez la politique de la chaise vide

L’industrie s’en tient toujours à sa stratégie RSE des années 1990, selon laquelle le dialogue avec les parties prenantes est le meilleur moyen de gagner la confiance du public.

Écoutez et dialoguez avec ceux qui ont d’autres points de vue, et ils prendront également en compte vos points de vue, créant ainsi une atmosphère propice à un meilleur dialogue dans la démarche réglementaire. Quel tombereau de baratin cela s’est révélé être. En laissant les militants s’asseoir à table, la première chose qu’ils ont fait a été de s’efforcer d’exclure l’industrie de la salle avant de manger leur repas.

À Bruxelles dans les années 2000, les militants des ONG ont menacé de se retirer des processus participatifs tels que les plateformes technologiques européennes (ETP) à moins qu’on les écoute plus, qu’on leur donne plus d’argent et que l’industrie soit moins impliquée. L’industrie a rapidement perdu sa voix dans la démarche réglementaire, alors que les militants continuaient de discréditer les entreprises, leur interdisant souvent de rencontrer les décideurs politiques, ou même d’être autorisés à pénétrer dans des institutions comme le Parlement européen. Et personne dans l’industrie ne s’exprime lorsque d’autres industries sont attaquées ou interdites. C’est honteux.

L’industrie doit cesser de se laisser malmener par la Commission européenne et les ONG. Comme la menace des ONG de quitter les ETP, l’industrie devrait être prête à se retirer de la démarche réglementaire de l’UE jusqu’à ce que sa voix soit également prise en compte, jusqu’à ce que les règles de lobbying soient appliquées équitablement à toutes les parties, et jusqu’à ce que les ONG soient également tenues responsables de leurs mensonges et de leurs campagnes de peur. La démarche réglementaire de Bruxelles repose sur une procédure de consultation des parties prenantes ; si l’industrie refuse de jouer le jeu lorsque les règles sont contre elle, Bruxelles risque de se délégitimer (encore plus). Si l’industrie se retire, les acteurs de la réglementation seront obligés d’être équitables.

Bien sûr, les associations professionnelles européennes existent pour être cette voix à Bruxelles, donc l’initiative ne viendra jamais de ceux qui vendent encore le mantra « l’engagement est la clé ». Les leaders de l’industrie doivent se demander d’où vient la cause profonde de ce problème.

 

10. Soyez exigeant envers les acteurs de la réglementation

La démarche réglementaire (en particulier à Bruxelles) doit changer.

Le simple recours au principe de précaution et à une approche basée sur les dangers a conduit à l’incapacité des décideurs à gérer les risques. La précaution est un outil qui doit être appliqué lorsque la démarche de gestion des risques a échoué, et non à la place de l’ensemble de la démarche. L’industrie devrait abandonner la démarche réglementaire de l’UE jusqu’à ce que la Commission publie un livre blanc sur la gestion des risques. Il faut également une délimitation claire de quand et comment des approches basées sur les dangers doivent ou ne doivent pas être utilisées.

Les 7 étapes de la gestion des risques :

  1. Élaboration de scénarios. Envisager et dérouler toutes les options.
  2. Évaluation des risques. Collecter et affiner les données et les observations.
  3. Analyse des risques. Évaluer les données en termes d’avantages et de conséquences.
  4. Réduction des risques. Identifier les groupes vulnérables et réduire leur exposition.
  5. Publication des risques. Informer le public sur les risques et les moyens de protection : construire la confiance, donner au public les moyens d’agir.
  6. Aussi bas que raisonnablement atteignable. Réduire l’exposition autant que possible dans le respect du bien-être sociétal.
  7. Amélioration continue. Réduire continuellement les niveaux d’exposition afin de bénéficier des avantages avec un meilleur niveau de sûreté.

 

En dernier recours, principe de précaution. Renoncer à tous les avantages ; cette solution ne doit être envisagée que lorsque tout le reste a échoué, et elle devrait être temporaire.

La précaution, interdire toute incertitude et promettre de garder les populations « en sûreté » est en fait assez irresponsable. Il s’agit d’un échec institutionnalisé lorsque l’inaction par précaution met en péril les biens sociétaux, prive les sociétés des avantages, des innovations et des technologies dont elles ont besoin pour bien vivre, prospérer et s’assurer que les générations futures disposent des outils nécessaires pour continuer à trouver des solutions à tous les défis.

Ceux qui plaident pour la précaution plaident aussi pour amener les sociétés « au-delà de la croissance ». Ces gens sont bien nourris, jouissent d’une aisance sans précédent dans l’histoire, et ne se soucient pas de leur avenir économique. Ils sont trop égocentriques pour se rendre compte que la majeure partie de l’humanité ne peut que rêver de la bonne fortune que ces fanatiques ont reçue. L’industrie a fourni d’énormes biens sociétaux, mais il y a encore tant de manques et de besoins, et les voix du monde en développement doivent être amplifiées.

 

11. Félicitez les leaders

Il y a très peu de vrais leaders aujourd’hui dans les administrations.

La plupart prétendent pratiquer la politique de la vertu, l’inclusion et la recherche de consensus, ce qui, ironiquement, crée une société plus clivante, intolérante et inégale. Les leaders dirigent en gagnant la confiance, en inspirant et en étant des modèles. Les chefs d’entreprise ont gravi les échelons en présentant ces traits (… à moins d’être des sociopathes impitoyables et performants). Lorsque les leaders de l’industrie se mettent la tête dans le sable ou transmettent le leadership public à leurs gratte-papier ESG, le public n’identifie pas les chefs d’entreprise comme des Titans de l’industrie, créant de la valeur et changeant le monde.

L’histoire des Titans de l’entreprise – qui capturent les rêves et suscitent la confiance – est rarement racontée aujourd’hui. Lorsque Jamie Dimon de JP Morgan a un jour laissé entendre à un journaliste qu’il « ne serait pas réticent » à occuper des fonctions publiques, le lendemain, il a reçu des appels de hauts placés pour qu’il se présente à la présidence. (mais où sont les neiges d’antan ???) Il est facile de dépeindre les PDG comme des milliardaires déconnectés et avides s’ils ne montrent pas leurs talents inspirants et ne célèbrent pas leurs réussites.

Le complexe de l’industrie pourrait être traité si les chefs d’entreprise avaient le courage de se dresser pour monter en première ligne. Pour chaque Steve Jobs ou Jeff Bezos qui quitte la scène, nous trouvons des fonctionnaires et des ombres qui ne parviennent pas à être des meneurs. Sans chef d’entreprise à l’avant-plan, les jeunes se laissent inspirer par des influenceurs et des professeurs militants (dont aucun n’est là six mois plus tard).

 

12. Revenez à la realpolitik

La politique ne consiste pas à donner à chacun ce qu’il veut, mais à trouver des solutions pratiques pour que chacun puisse obtenir ce dont il a besoin.

Des décennies d’abondance post-guerre froide en Occident ont créé une forme de gouvernance de luxe et simplifié l’élaboration de la réglementation : toute incertitude ou tout risque pourrait simplement être « évacué par précaution » (nous pourrions simplement importer ce dont nous avons besoin pour l’alimentation et l’énergie, et faire un chèque à quelqu’un d’autre). Mais ce n’est pas le but de la politique et, comme nous avons dilapidé notre prospérité, nous devons revenir à des décisions difficiles, à des solutions pragmatiques et trouver des moyens de minimiser les besoins et les pénuries. Dans les années 1970 et 1980, cela s’appelait realpolitik et le concept doit revenir dans notre discours politique.

Les idéologues militants qui ne supportent pas le risque devront reconnaître que nous avons besoin de technologies innovantes, d’une énergie accessible et d’un certain niveau d’acceptation du risque social. Nous ne pouvons pas faire fonctionner des usines uniquement avec des panneaux solaires sur un toit, ou nourrir le monde avec des haricots bios cultivés sur le rebord de la fenêtre.

L’industrie doit promouvoir cette réalité politique et continuer à proposer des solutions pour réduire l’impact des sacrifices socio-économiques nécessaires.

 

Conclusion

Ces 12 recommandations ne résolvent peut-être pas tous les problèmes de confiance auxquels l’industrie est confrontée aujourd’hui, mais elles offrent un moyen potentiel d’au moins enrayer la décomposition.

Ce sont de bien meilleures réponses que la stratégie de l’autruche que nous voyons actuellement et qui n’a fait qu’aggraver le complexe de l’industrie. Il faut de la force pour essayer d’être raisonnable avec des irrationnels sans scrupule. Il faut du courage pour tenir tête à une bande d’idéologues bien financés communiquant via des campagnes astucieuses et coordonnées et des attaques personnelles.

Mais sans un tel leadership, quel avenir aura l’industrie ? Quel avenir auront les sociétés occidentales développées ?

Mars : l’inventivité et l’adaptabilité de l’humain face au problème de la poussière ultrafine

La poussière ultrafine rend difficile, déjà au stade robotique, l’exploration de Mars. Elle risque de poser de sérieux problèmes aux missions habitées et à la vie humaine. Nos ingénieurs recherchent des solutions pour la Lune. Elles bénéficieront aussi à Mars car sur ce plan les deux astres sont semblables. Récemment l’Université d’Hawaï a proposé un tissu, LiqMEST, qui moyennant la dépense d’un peu d’énergie pourrait empêcher l’adhérence aux surfaces. La NASA s’y intéresse aussi bien qu’à d’autres solutions qui lui sont complémentaires. Elle le fait dans le cadre de son initiative générale, « LSII ».

 

La poussière martienne

Rappelons ce qu’est la poussière martienne, de petites particules minérales riches en fer (mais composées aussi de toutes sortes de minéraux, dont des silicates) qui n’ont pas pu se stabiliser ou s’agglomérer parce qu’il n’y a pratiquement pas d’eau liquide sur Mars, sauf à de rares périodes de plus en plus espacées dans le temps (périodes pendant lesquelles le problème est bien sûr temporairement résolu et la diagénèse très active). Elle résulte soit des impacts de météorites, soit de la décomposition de certaines roches au grain très fin accentuée par l’érosion éolienne, soit in fine de la saltation des grains de sable (c’est-à-dire de la dégradation des plus grosses particules en plus petites du fait de leur déplacement et de leur friction avec d’autres grains ou la roche, causés par le vent).

Ainsi cette poussière peut être extrêmement fine. On la distingue du sable également présent dans d’innombrables dunes, en ce que la dimension de ses grains est inférieure à 30 µm. On a pu l’observer « de très près » avec le microscope à force atomique FAMARS* embarqué à bord de la sonde PHOENIX en 2007 et qui a observé l’environnement martien de mai à novembre 2008 par 68° de latitude Nord.

FAMARS a pu distinguer des particules jusqu’à 0,1 µm et a pu constater la très forte abondance des grains autour de 10 µm. Compte tenu de la faible érosion martienne, ces grains sont un peu moins acérés que ceux de la poussière lunaire mais quand même très anguleux. Et comme l’environnement est aride (l’humidité très basse empêche l’évacuation des charges électriques) quoiqu’un peu moins que sur la Lune, l’électricité statique est partout dans l’air et rend ces particules très collantes. On retrouve donc la poussière sur toutes les surfaces, aussi bien les équipements que les vêtements (combinaisons des astronautes).

*La thèse de doctorat de Sebastian Gautsch (Université de Neuchâtel, aujourd’hui adjoint au directeur de la section microtechnique de l’EPFL et toujours vice-président de la Mars Society Switzerland) a été consacrée à la conception de cet instrument.

Sur Mars, par rapport à ce qui se passe sur la Lune, le phénomène est aggravé par l’atmosphère. On sait que cette atmosphère est très ténue (pression de 610 pascals à l’altitude « moyenne », équivalente à celle du niveau de la mer). Mais comme les poussières sont très petites et très peu massives, elles sont portées par elle, bien sûr quand il y a du vent mais pas seulement ; une certaine quantité reste toujours en suspension dans l’air. C’est ce qui donne la coloration rouge/ocre au ciel pendant la journée.

On a pu constater également sur les différents équipements robotiques envoyés sur Mars qu’irrémédiablement et assez rapidement, les surfaces se teintent de cette même couleur, ce qui montre bien que les matériaux les plus lisses ne peuvent éviter d’être revêtus de cette matière diffuse comme s’ils en étaient imprégnés.

Pour le moment, c’est surtout gênant pour les panneaux solaires dont la capacité de captation d’énergie est altérée, et aussi pour les articulations des parties mobiles des rovers. Opportunity a été « tué » par une tempête de poussière qui l’a empêché de recueillir l’énergie minimum qui lui était nécessaire par ses panneaux photovoltaïques totalement enduits. Auparavant, ses deux roues avant avaient été immobilisées, usées certes par les aspérités du sol mais aussi complètement grippées par la poussière.

Plus tard, quand l’Homme vivra sur Mars, il risque de l’importer sur sa combinaison ou ses instruments à l’intérieur des habitats. Une fois son casque de scaphandre retiré, il respirera l’air ambiant chargé de ces particules car très difficiles à aspirer mécaniquement. Elles pourraient lui apporter la silicose et gêner le bon fonctionnement de différents appareils indispensables. Il faudra donc impérativement s’en débarrasser, au plus tard dans le sas d’accès.

 

Quelles solutions pour s’en débarrasser

On cherche donc depuis des années les solutions.

Celles qu’on envisage aujourd’hui sont de trois ordres :

  1. La structure du tissu
  2. Le nettoyage par projection de gaz
  3. Le nettoyage par polarisation électrique

 

Les recherches sont menées par la NASA (plus précisément son Space Technology Mission Directorate) dans le cadre de la LSII (Lunar Surface Innovation Initiative) par l’intermédiaire du LSIC (Lunar Surface innovation Consortium) dirigé par le John Hopkins University Applied Physics Laboratory (JHU/APL).

LSII a été créée en 2019. Il s’agit de stimuler l’intérêt et l’innovation dans les technologies de l’exploration lunaire par missions habitées (identification des besoins et évaluation des travaux, recommandations, centralisation des données et des résultats). L’action est menée via des partenariats ou des collaborations auxquels participent la NASA au côté du JHU (financièrement comme techniquement). Mars est clairement déjà nommée comme l’étape où les technologies découvertes et devenues opérationnelles seront mises en œuvre après la Lune.

L’on espère aussi des retombées sur les activités terrestres. Bien sûr la dust mitigation, que l’on pourrait traduire par « atténuation des nuisances de la poussière », n’est pas la seule ligne de recherches (key capability areas), mais c’est l’une des six qui a été choisie.

Les autres sont :

  • l’ISRU (In Situ Resources Utilization),
  • l’énergie (surface power),
  • l’extraction des minéraux et la construction (excavation and construction),
  • l’adaptation de l’homme et de ses équipements à l’environnement extrême (extreme environment)
  • la capacité d’accès aux sites difficiles (extreme access)

 

La LSIC n’est pas une petite organisation puisqu’elle comporte 2400 participants actifs au sein d’un millier d’institutions ou établissements présents dans tous les états américains et une cinquantaine de pays étrangers.

 

Première solution : la structure du tissu

Un tissu répulsif a été conçu (publication en février 23) par l’Université du Texas Austin (UTA). L’équipe a modifié la géométrie des surfaces planes pour créer un réseau serré de structures pyramidales nanométriques. Ces structures, angulaires et pointues, empêchent les particules de poussière d’adhérer au matériau. Ne pouvant coller à ce support, elles s’agglomèrent entre elles pour rouler ensuite en surface et tomber sous l’effet de la gravité.

 

Deuxième solution : le nettoyage par projection de gaz ultra-froid

Un spray a été conçu (mars 23) par l’Université de l’État de Washington (WSU). Il s’agit de projeter une pulvérisation d’azote liquide (forcément très froid) sur un tissu relativement beaucoup plus chaud que le gaz. Le nettoyage va se faire par effet Leidenfrost.

Cet effet peut être observé lorsque de l’eau froide est versée sur une poêle à frire chaude et qu’elle perle puis se déplace à la surface de la poêle. Par analogie, lorsque de l’azote liquide est pulvérisée sur une combinaison spatiale (même s’il y a isolation thermique, sa température est très largement plus élevée que celle du gaz), les particules de poussière sont extraites par le jet, s’accumulent sans pouvoir attacher et s’éloignent du tissu en flottant avec la vapeur d’azote.

 

Troisième solution, nettoyage par polarisation électrique

Un tissu très réceptif à la polarisation et en même temps souple et extensible a été conçu (octobre 23) par l’Université d’Hawaï Pacifique (PHU). Lorsqu’il est activé, ce LiqMest (Liquid Metal Electrostatic Protective Textile), génère un champ électrique qui empêche la poussière d’adhérer à sa surface. Son concepteur le Professeur Arif Rahman de l’Université de Bangkok a obtenu une subvention de 50.000 dollars de la NASA pour présenter un prototype dans le délai d’un an (mai 24). Le tissu pourrait être utilisé pour la mission Artemis III (2025 ou 2026).

Une variante de cette dernière technologie est l’EDS (Electronic Dust Shield Experiment). Elle est étudiée au sein de la NASA (Kennedy Space Center). Elle a été testée en 2019 dans l’ISS dans le cadre de la série de tests MISSE-11 (Materials International Space Station Experiments).

Elle vise la prévention de l’empoussiérage et le dépoussiérage de toutes sortes de surfaces solides : radiateurs thermiques, panneaux solaires, lentilles d’appareil photo et autre matériel nécessitant une protection contre la poussière.

Elle a fourni des données utiles sur les performances des électrodes, des revêtements et des composants électroniques qui lui sont propres. On sait que l’expérience a été positive* mais malheureusement les résultats ne sont pas encore publiés. NB le programme MISSE existe depuis 2001 (c’est tout l’intérêt de l’ISS). En octobre 2023, nous en sommes à MISSE-18.

Des essais au sol avant le vol ont montré que des électrodes posées sur des plaques de verre pouvaient éliminer « plus de 98 % de la poussière dans des conditions de vide poussé », selon une courte publication de l’équipe du Lunar Dust Workshop de février 2020 (Universities Space Research Association, à Houston).

 

Avis aux pessimistes

Avec ces technologies on a de bonnes probabilités d’obtenir une solution au problème de la poussière, non seulement pour les vêtements mais aussi pour les équipements.

Si comme je l’espère, on développe un jour l’astronomie sur Mars, l’EDS sera incontournable (elle est spécifiquement prévue pour maintenir la propreté des optiques). Mais on peut aussi concevoir de mettre les différents équipements dont on aura besoin sous une bâche de liqMEST, ou peut-être de nettoyer périodiquement les dômes et les surfaces vitrées avec un spray d’azote liquide*. Le nettoyage effectué par des robots équipés d’une caméra sera par ailleurs l’occasion de vérifier l’état du dôme ou des baies vitrées des habitats. Pour les combinaisons spatiales on utilisera probablement les trois technologies ensemble.

*L’impact du gaz sur la surface vitrée, plaques laminées de 1,5 x 2 cm d’épaisseur d’après les calculs de mon ami Richard Heidmann, serait extrêmement bref, mais mes lecteurs physiciens pourront sans doute me dire si le choc thermique serait ou non supportable.

Ceci est une réponse à tous les pessimistes qui pensent qu’aucune technologie n’est envisageable en dehors de celles qui existent déjà. J’ai confiance que des conditions environnementales autrefois rédhibitoires, comme celles de Mars, peuvent devenir vivables si le génie humain s’applique à trouver des solutions ; ceci étant dit en ayant conscience des difficultés. Les sauts technologiques sont toujours possibles mais bien qu’ils ne sortent jamais de nulle part, ils ne sont pas prévisibles et on ne pas compter sur eux.

Pour vivre sur Mars cependant, il me semble que l’on soit arrivé à un point de développement technologique tel que la base interdisciplinaire à partir de laquelle on travaille n’est pas trop éloignée du résultat que l’on veut obtenir.

Liens & références :

Cliquer pour accéder à DARPA%20NOM4D%202022.pdf

https://citeseerx.ist.psu.edu/documentrepid=rep1&type=pdf&doi=15eb88aa339e4f766ade40475a6458af47f246ef

https://interestingengineering.com/innovation/new-tech-solve-lunar-dust-problem

https://www.eurekalert.org/news-releases/980467

https://news.dayfr.com/trends/amp/2746657

https://www.hpu.edu/about-us/the-ohana/article.php nid=nc10162301

Cliquer pour accéder à 20150016160.pdf

https://www.nasa.gov/mission/station/research-explorer/investigation/?#id=8033

Sur le web.

Le spectroscope, notre clef pour déchiffrer le message des étoiles

Au début, il n’y a pas si longtemps au regard de l’histoire, l’astronome ne disposait que de l’intensité de la lumière et de ses propres yeux pour tenter de comprendre les astres qu’il contemplait la nuit.

Après une série de progrès dans la réflexion scientifique et de progrès technologiques, les spectroscopes, ces instruments dont nous disposons aujourd’hui pour décomposer la lumière, sont devenus extraordinairement raffinés. Grâce à eux on peut, non seulement analyser la lumière des étoiles proches mais aussi les atmosphères d’exoplanètes qui n’émettent aucun rayonnement visible, ou connaître la vitesse d’éloignement, donc la distance, à laquelle évoluent les galaxies les plus lointaines.

C’est grâce à ces instruments merveilleux que nous avons pu passer de l’astronomie à l’astrophysique.

Pour que la Science ait pu avancer, il a fallu des hommes qui comprennent que les silex pouvaient devenir des outils plus efficaces s’ils étaient taillés ou, plus généralement (et récemment), qui puissent concevoir des instruments en fonction des effets dont ils voulaient comprendre les causes.

Dans le domaine considéré aujourd’hui, le premier de ces hommes fut Isaac Newton. En 1672 il décrivit son expérience du prisme avec tous les détails nécessaires à la compréhension et à la répétition, démontrant que la lumière « blanche » (ou « neutre ») était constituée de toutes les couleurs que l’œil humain pouvait discerner. Il constata à la sortie du prisme « un mélange hétérogène de rayons différemment réfrangibles », ce mélange étant ce qu’il nommera lui-même un « spectre ». En langage scientifique, on dit aujourd’hui que la lumière blanche est la résultante de radiations de fréquences différentes, et que le prisme en réalise la décomposition spectrale. Mais la description moderne était déjà implicite dans les termes employés par Newton. La porte permettant d’accéder au progrès dans cette branche de la Science avait été ouverte !

C’est ensuite au début du XIXe siècle que William Herschell puis Johann Ritter perçurent la présence de rayonnements non visibles de part et d’autre du spectre lumineux. Et en 1864, James Maxwell comprit que la lumière résultait, tout comme le son qui fut étudié en premier, d’une vibration électromagnétique. On réalisa ainsi que le spectre lumineux n’était seulement qu’une toute petite partie du spectre électromagnétique qui, dans toute son ampleur, s’étendait de part et d’autre jusqu’aux limites des possibilités physiques d’oscillations, des plus courtes au plus longues, des plus rapides au plus lentes, ou des plus serrées aux plus ouvertes, selon l’image que l’on préfère pour se le représenter.

Du côté des instruments, le spectroscope de Newton, un simple prisme, évolua considérablement également à partir du début du XIXe siècle.

La première évolution fut de placer une lentille-collimateur avant l’arrivée du flux lumineux sur le prisme, pour le rendre parallèle et orthogonal au plan du prisme défini par sa hauteur.

La seconde fut de remplacer le prisme par un « réseau de diffraction », c’est-à-dire une surface opaque percée de raies étroites qui produisait le même effet, tout en donnant une image plus nette. Ce fut l’idée de l’Américain David Rittenhouse en 1786 (avec des cheveux !) puis du maître verrier/opticien bavarois, Joseph von Fraunhofer en 1815 (avec des fils métalliques). On parla de « réseau en transmission ».

Mais la diffraction n’empêchait pas les interférences. On ajouta donc un autre prisme après le réseau pour éviter la superposition de deux franges de longueurs d’onde voisines. On peaufina par la suite le  réseau avec une surface de réception composée d’une multitude de petits plans inclinés (constituant des rayures ou, mieux dit, un « réseau en réflexion »), ou en croisant deux réseaux de diffraction afin d’obtenir une multitude de points (plutôt que de fentes ou de rayures) apportant chacun son information sur la lumière reçue (cf MUSE ci-dessous).

Une autre évolution concerne l’interprétation de la lumière reçue par le spectroscope.

Fraunhofer remarqua les discontinuités sombres présentes sur tout spectre de lumière solaire (les « raies de Fraunhofer »). Mais ce n’est qu’en 1849 que Léon Foucault (le Foucault du pendule) réalisa que ces raies correspondaient à l’absorption par la lumière d’un élément chimique présent dans l’émetteur lui-même, ou dans l’atmosphère traversée (ce dont on ne s’aperçut qu’un peu plus tard) et qui annulait en quelque sorte l’émission sur la longueur d’onde de l’élément chimique concerné.

En 1859, Gustav Kirchhoff remarqua que la source émettrice devait être plus chaude que la lame du réseau qui l’absorbe (d’où beaucoup de difficultés pour obtenir les spectres de rayonnements lointains et très froids). C’est le début de la découverte d’un nombre extrêmement élevé de raies qui permettent d’identifier très précisément une multitude d’éléments chimiques (simples ou composés) par leur longueur d’onde, et par leur position par rapport aux autres raies, un outil extraordinaire pour l’exploration spatiale car il est devenu extrêmement précis.

Une autre évolution concerne l’impression de l’image reçue (à fin de conservation et de comparaisons).

Au sortir d’un spectroscope, il faut un spectrographe (que souvent on ne distingue pas du spectroscope) pour capter l’image du spectre et obtenir un spectrogramme (le document). On est passé du simple dessin, transcrivant la vue sur écran, à l’impression photographique en noir et blanc puis couleur, et enfin à la capture du rayonnement reçu par capteur CCD (Charge Coupled Device), une matrice de photodiodes extrêmement petites, quelques microns, ce qui permet une précision extraordinaire, évidemment utilisée jusqu’à l’extrême pour décomposer les rayonnements les plus faibles du fait de leur distance ou de leur abondance.

L’un des premiers « développeurs » (dirait-on aujourd’hui) du spectroscope pour l’astronomie, fut le père jésuite italien Angelo Secchi (1818 – 1878) qui inventa le premier appareil spécialement conçu pour décomposer en raies la lumière des étoiles (et non plus seulement celles du Soleil, sur lequel il travailla principalement). Il utilisa cet instrument à partir de 1863, ce qui lui permit de publier en 1870 une classification en quatre couleurs des quelques 4000 différentes sources observées en les rapprochant des éléments chimiques dominant dans leurs raies spectrales.

On était alors dans le cadre d’un univers que l’on pensait statique, mais une autre porte fut ouverte en 1868 quand l’astronome britannique William Huggins, réalisa que le décalage vers le rouge du spectre de l’étoile Sirius, par rapport à celui d’autres étoiles, était explicable par le déplacement (effet Doppler-Fizeau ou « redshift » confirmé en 1848 par Hyppolyte Fizeau après sa découverte en 1842 par Christian Doppler). Il en conclut naturellement que l’intensité et le sens du décalage pouvaient servir à calculer la vitesse radiale des astres.

Le Vaudois Charles Dufour se servit de cette découverte pour calculer des parallaxes à des distances jamais tentées, à partir des bases constituées par le rayon de rotation des étoiles doubles (avec la Terre et non plus l’astre, comme pointe de l’angle) ainsi qu’il l’expose dans le bulletin n°10 de la Société Vaudoise de sciences naturelles en 1868 : au sein du couple d’une étoile double, la variation de vitesse indiquée par l’effet Doppler va permettre de calculer l’orbite de l’« étoile satellite » autour de l’étoile principale, donc son rayon. Ceci à condition bien sûr que la lumière des deux étoiles du couple puisse être dissociée l’une de l’autre (ce qui limite la distance à laquelle on peut utiliser le calcul). On aura ainsi la base du triangle, dont on pourra mesurer le côté de l’angle au sommet duquel se trouve la Terre en prenant la tangente de l’angle lié à cette base.1

Cette utilisation de l’effet Doppler sur le spectrogramme se faisait dans la continuation des calculs de parallaxe pour estimer la distance des astres de notre environnement plus ou moins proche. Mais avec la multiplication des observations dans un volume d’espace de plus en plus grand, permises par des télescopes de plus en plus puissants, on remarqua au début du XXe siècle (1929, Hubble) que les galaxies étaient affectées d’un redshift d’autant plus élevé que leur distance à notre Voie Lactée était grande. L’estimation de la distance calculée jusque-là par d’autres moyens, les « chandelles standards » (supernovas de « type Ia », entre autres), pouvait désormais être faite (ou confirmée) par le redshift (ce qui était d’ailleurs la seule solution pour les sources de rayonnements les plus lointains).

C’est cette constatation qui permit à l’abbé Lemaître, en remontant le temps, d’en déduire (1931) que l’univers était en expansion, ou plutôt de relier cette constatation à sa théorie plus ancienne (1927) de l’« atome primitif » qu’il avait élaborée à partir de considération théorique (et de calculs) reposant sur la structure de l’atome et les rayons cosmiques.

Depuis, on précise et on raffine sans cesse.

Le dernier instrument en date, MUSE (Multi Unit Spectroscopic Explorer)2, en service depuis 2014, est placé sur un des télescopes du VLT (Very Large Telescope) de l’ESO (European Southern Observatory).

C’est une application surtout intéressante pour l’observation des sources lumineuses les plus lointaines. Par croisement des réseaux, il apporte une vision différenciée et simultanée de chaque point de lumière. On obtient ainsi non seulement une image ponctuelle, mais aussi, grâce à l’effet Doppler-Fizeau, une vitesse d’éloignement, l’orientation du mouvement, et encore un spectre donnant la composition chimique du point observé. En même temps, on obtient une vue simultanée des autres sources lumineuses (et de leurs spectres) comprises dans le champ (on parle de « spectroscopie intégrale de champ »). Cela permet d’obtenir directement une véritable carte physico-chimique immédiate du ciel en 3D.

 

Nous voyons donc là un cheminement scientifique typique, fruit de beaucoup de réflexions, de travaux et de calculs, effectués dans divers domaines (physique, acoustique, optique, chimie, maîtrise de l’énergie, travail du ver et du métal, cryogénie, informatique) et qui parviennent à un résultat synthétique, un outil extraordinaire d’observation des étoiles les plus lointaines, dans leur contexte, permettant l’analyse la plus fine de la source et de son environnement.

À toute époque, dans un domaine quelconque, la science est le fruit de progressions à partir d’un état antérieur, et finalement d’une convergence avec les progressions effectuées parallèlement dans d’autres domaines, sans oublier toujours les mathématiques qui sont au-delà de la logique, la solution pour décrire sérieusement et précisément des phénomènes théorisés et observés (comme l’écriture est indispensable pour la littérature) et le socle sur lequel on s’appuiera pour réaliser ensuite d’autres progrès.

Sur le web

  1. Lire mon article sur le sujet, dans le Bulletin de la Société Vaudoise de Sciences Naturelles (Vol 99, 2020, pages 130 et suivantes) : « Un Vaudois contributeur majeur à l’astrométrie moderne ».
  2. Mais il y en a d’autres ! J’aurais aussi bien pu me référer à l’observatoire Gaia et ses deux télescopes dotés de spectroscope, lancé en 2013 au point de Lagrange Terre-Soleil L2 pour cartographier en 3D les étoiles proches.

Mes amours avec l’Intelligence Artificielle (1) : la rupture amoureuse avec ChatGPT

Le lundi 4 septembre 2023, au retour de mes vacances aux États-Unis, et après avoir agencé tant bien que mal un petit site wix (mes capacités en design et donc, par conséquent, en création de sites grand public, ont toujours été très limitées…) pour l’accueillir, je décidai de porter sur les fonts baptismaux une intelligence artificielle générative, dédiée à des sujets d’économie et de politiques économiques, fondée en toute immodestie sur toutes mes analyses économiques (sept ans au total, d’articles, rapports, notes, livres, passages TV, vidéos YouTube, interviews radio, près de 3,5 millions de signes ou tokens comme disent les informaticiens).

Une intelligence artificielle rendant Sébastien Laye (ou du moins l’économiste Sébastien, limité tout de même par ce qu’il a pu dire par le passé, avec plus ou moins de jugements qualifiés) disponible 24 h sur 24, y compris pour les médias. Trop peu pour éviter de m’interviewer sur des sujets d’actualité, mais déjà assez pour avoir mes réponses – voire même dans certains cas mes analyses prospectives – sur une gamme de sujets d’économie et de politiques économiques.

Comment en étais-je arrivé là, à rejoindre, au cours de l’été 2023 les bidouilleurs américains panégyristes des narrow AIs et du prompt engineering ?

Tout commença en décembre 2022 avec ma découverte de ChatGPT : à l’instar du commun des mortels, à cette date, je n’avais qu’une appréhension théorique de l’IA, et alors que je suis normalement un fervent défenseur du progrès technique (comme tous les libéraux), je faisais même preuve d’un techno-scepticisme de bon aloi sur les thèses de Kurzweil, la singularité et l’avènement d’une Intelligence Artificielle Générale. Mais pour une fois que nous, grand public, pouvions tester un produit IA, avec une interface simple, aussi rudimentaire qu’elle rappelait pour moi le dernier grand changement de paradigme, l’apparition en 2000 sur mon écran d’ordinateur d’étudiant de la barre de recherche de Google…

Je fus de ceux immédiatement happés par les promesses de l’IA générative, que ce soit avec les LLM (large language models) et le texte, qu’avec l’audio (Eleven Labs), l’image (incapable de me faire à l’interface Discord brouillonne de MidJourney, je jetai mon dévolu sur Leonardo et Stable Diffusion après quelques semaines décevantes sur Dall E), la vidéo (d-ID, Runway). La floraison de startups, de nouveaux produits, de nouvelles versions, de plugins, devint difficile à suivre, même par le truchement de dizaines de newsletters (qui inventera la newsletter des newsletters.. ?).

Attelé à la rédaction d’un livre sur l’économie du métavers durant les fêtes, je ne pus m’empêcher d’intégrer un chapitre sur l’IA avec mon coauteur Emmanuel Moyrand. Et une fois passé le stade initial du coup de foudre (mon premier vrai long prompt sur ChatGPT sera homérique puisque je demandai au bot d’écrire l’histoire de Marcel mon chat à la manière de l’Odyssée), vint le temps des questions sur les applications pratiques de cette technologie.

En deux mois, utiliser ChatGPT pour résumer mes articles ou ceux des autres, puis des PDF (via ChatPDF), automatiser mes emails avec ChatGPT intégré dans mon Gmail, systématiser les posts LinkedIn gérés par le chatbot. Tout cela devenait une routine dès le printemps, alors que je rencontrai également Amaury Delloye, le fondateur d’ADN AI, qui m’éveillait au potentiel de l’audio et de la vidéo (avatars) générés par l’IA. Au niveau de l’automatisation des procédés, dans mon activité professionnelle de chef d’entreprise et d’investisseur, aucune déception.

Mais le flirt avec l’IA commença à décevoir quand j’entrepris d’interroger ChatGPT sur l’économie. Sur les questions théoriques, les réponses étaient plutôt satisfaisantes ; mais sur les politiques appliquées, les réponses étaient pauvres, et parfois affligeantes.

Comment expliquer l’inanité des arguments ?

ChatGPT utilise une gigantesque base de données, certes améliorée manuellement par OpenAI, mais qui est essentiellement le world wide web. Et sur notre bon vieux réseau, sur la matière « économie », on trouve certes de bonnes fiches Wikipédia, quelques cours en ligne ou articles d’économie, mais aussi beaucoup d’opinions, de contenu de basse qualité et de posts de réseaux sociaux. Ainsi, selon le vieil adage des pratiquants d’Excel, -en anglais dans le texte- « garbage in, garbage out ».

Quand une base de données est nourrie par de la donnée de mauvaise qualité, quelle que soit la qualité du prompt ou du LLM, le résultat final ne peut être que de mauvaise qualité. Si je continuais au début de l’été à utiliser ChatGPT, mes espoirs se retournaient vers des IA plus spécialisées (dites narrow AIs).

Le futur de ces IA paraissait évident : brancher les API de ces LLM (Claude, Bard, ChatGPT) sur des corpus spécialisés et qualifiés devrait aboutir à de meilleurs résultats. Déjà, des entreprises réalisaient en fonction de leurs besoins leur propre ChatGPT sur leurs données propriétaires, tels Bloomberg aux États-Unis…

Séisme au Maroc : les satellites peuvent aider les secours à réagir au plus vite

Par Emilie Bronner, Centre national d’études spatiales (CNES). 

 

Un séisme de magnitude 6,8 a frappé le Maroc à 11km d’Adassil le vendredi 8 Septembre 2023 à 23h11 heure locale. On déplore plus de 2 000 décès et autant de blessés avec un bilan qui pourrait encore s’alourdir.

Depuis l’espace, on peut obtenir des informations cruciales pour guider les secours et l’aide humanitaire qui convoie eau et vivres, mais qui sont inaccessibles depuis le sol, en particulier en cas de catastrophes. Il s’agit de cartographier l’état des routes, des ponts, des bâtiments, et aussi – et c’est crucial ici – de repérer les populations qui tentent d’échapper aux effets de potentielles répliques en se regroupant dans des stades ou d’autres espaces ouverts.

Afin de tourner rapidement les yeux des satellites vers les régions concernées, les Nations Unies (UNITAR) ont demandé l’activation de la charte internationale « Espace et catastrophes majeures » le samedi matin à 7h04 heure locale pour le compte de l’organisation humanitaire internationale FICR (Fédération internationale des Sociétés de la Croix-Rouge et du Croissant-Rouge).

Dans la foulée, les satellites optiques et radar les plus appropriés de huit agences spatiales ont été programmés. Pour la France, il s’agit des satellites optiques Pléiades et Pléiades Neo (de haute et très haute résolution), qui fourniront de premières images dès demain matin, lors de leur passage au-dessus de la zone, le temps de charger le plan de vol. Des satellites radar viendront compléter les informations des satellites optiques, car ils fonctionnent aussi la nuit et à travers les nuages, et peuvent imager les glissements de terrain et les changements d’altitude, même très faibles.

Chaque année, des millions de personnes partout dans le monde sont touchées par des catastrophes, qu’elles soient d’origine naturelle (cyclone, tornade, typhon, tremblement de terre, glissement de terrain, éruption volcanique, tsunami, inondation, feu de forêt, etc.) ou humaine (pollution par hydrocarbures, explosion industrielle). L’intensité et la fréquence de ces évènements s’intensifient malheureusement avec le changement climatique, créant chaque jour un peu plus de sinistrés ou d’habitats précaires.

 

Anatomie d’une catastrophe

Dans le cadre de la charte internationale « Espace et Catastrophes majeures », on définit une catastrophe comme un événement de grande ampleur, soudain, unique et incontrôlé, entraînant la perte de vies humaines ou des dommages aux biens et à l’environnement et nécessitant une action urgente d’acquisition et de fourniture de données.

Glissement de terrain à Munnar, en Inde. L’accès aux zones touchées est souvent difficile.
Rakesh Pai/Flickr, CC BY-NC-ND

Cette charte a été créée par le Centre National d’Études Spatiales et l’Agence spatiale européenne en 1999, rejoints rapidement par l’Agence spatiale canadienne. Aujourd’hui, 17 agences spatiales membres s’unissent pour offrir gratuitement des images satellites le plus rapidement possible sur la zone sinistrée. Depuis 2000, la charte a été activée 837 fois dans plus de 134 pays. Elle est depuis complétée par des initiatives similaires (Copernicus Emergency ou Sentinel Asia).

Près des trois-quarts des activations de la charte sont dues à des phénomènes hydrométéorologiques : tempêtes, ouragans et surtout inondations qui représentent à elles seules la moitié des activations. Dans ces situations de crise imprévues, quand les sols sont endommagés ou inondés et les routes impraticables, les moyens terrestres ne permettent pas toujours d’analyser l’étendue du désastre et d’organiser au mieux les secours et l’aide humanitaire. En capturant la situation vue de l’espace, avec des satellites très haute résolution, le spatial apporte rapidement des informations cruciales.

L’ouragan Harvey a provoqué des inondations au Texas en 2018, déplaçant 30000 personnes, et nécessitant le sauvetage de 17000 personnes.
Sentinel Hub/Flickr, CC BY

Dans certains cas, la charte ne peut pas être activée. Soit parce que l’objet est hors cadre de la charte (guerres et conflits armés), soit parce que l’imagerie spatiale n’est parfois pas d’un grand intérêt (canicules, épidémies), soit car les phénomènes ont une évolution lente (sècheresses) qui est incompatible avec la notion d’urgence au cœur de la mission de la charte.

Les données satellites en réponse aux crises dans le monde

Dès la survenue d’une catastrophe, les satellites sont programmés pour acquérir dans un délai très court des images au-dessus des zones impactées. Plus d’une soixantaine de satellites, optiques ou radars, sont mobilisables à toute heure.

Selon le type de catastrophes, on mobilisera différents satellites, en se basant sur des scénarii de crise préétablis – parmi eux : TerraSAR-X/Tandem-X, QuickBird-2, Radarsat, Landsat-7/8, SPOT, Pléiades, Sentinel-2 notamment.

Feux de forêt en Russie dans la région d’Irkutsk en 2017, causés par des éclairs.
Sentinel Hub/Flickr, CC BY

Les images optiques sont semblables à des photos vues de l’espace, mais les images radar par exemple sont plus difficilement interprétables par les non-initiés. Ainsi, suite à la catastrophe, les informations satellites sont retravaillées pour les rendre intelligibles et y apporter de la valeur ajoutée. Elles sont par exemple transformées en cartes d’impacts ou de changements pour les secouristes, en cartes de vigilance inondations pour les populations, en cartographie des zones brûlées ou inondées avec estimation des dégâts pour les décideurs.

Le travail collaboratif entre les utilisateurs de terrain et les opérateurs satellitaires est primordial. Des progrès ont été faits grâce aux innovations des technologies d’observation de la Terre (notamment la performance des résolutions optiques – passant de 50 à 20 mètres puis à 30 centimètres actuellement) et des logiciels de traitement des données 3D, mais également grâce au développement d’outils numériques pouvant coupler données satellites et in situ. De plus, les besoins de terrain ont contribué à l’évolution des processus d’intervention de la charte en termes de délai de livraison et de qualité des produits délivrés.

La reconstruction après les catastrophes

La gestion de l’urgence est bien sûr primordiale mais il est important pour tous les pays affectés d’envisager une reconstruction et l’avenir. En effet, dans le « cycle du risque », après le sinistre et l’urgence humanitaire, le retour à la normale va ouvrir le temps de la reconstruction, de la résilience, de la prévention et de l’alerte. On ne peut prévoir les catastrophes mais on peut mieux s’y préparer, surtout dans les pays où le malheur est récurrent, avec par exemple la construction antisismique, le déplacement des zones d’habitation en lieu sûr, la sensibilisation aux gestes de survie, la création de lieux de rassemblements sécurisés, entre autres.

Inondations à Gan dans le Béarn en 2018.
Bernard Pez/Flickr, CC BY-NC-ND

Plusieurs initiatives, appelées « Observatoires de la Reconstruction », ont été menées après des catastrophes d’envergure, par exemple à Haïti en 2021, ou suite à l’explosion de Beyrouth en 2019. Le but : planifier des acquisitions d’images satellites coordonnées pour permettre une évaluation détaillée et dynamique des dommages aux zones les plus touchées (bâti, routes, agriculture, forêts, etc.), suivre la planification des reconstructions, réduire les risques et enfin réaliser un suivi des changements à l’horizon de 3-4 ans.

 

Emilie Bronner, Représentante CNES au Secrétariat Exécutif de la Charte Internationale Espace et Catastrophes Majeures, Centre national d’études spatiales (CNES)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

Voici pourquoi nous sommes plus intelligents que les chimpanzés

Par Emmanuel A Stamatakis, Andrea Luppi  et David Menon.

L’être humain est sans égal dans le domaine de la cognition. Après tout, aucune autre espèce n’a envoyé de sondes vers d’autres planètes, produit des vaccins qui sauvent des vies ou créé de la poésie. La façon dont les informations sont traitées dans le cerveau humain pour rendre tout cela possible est une question qui suscite une immense fascination, mais qui n’a toujours pas trouvé de réponse définitive.

Notre compréhension du fonctionnement du cerveau a évolué au fil des ans. Les modèles théoriques actuels décrivent le cerveau comme un « système distribué de traitement de l’information ». Cela signifie qu’il possède des composants distincts étroitement reliés entre eux par le câblage du cerveau. Pour interagir entre elles, les différentes zones échangent de l’information grâce à un système de signaux d’entrée et de sortie.

Cela ne constitue toutefois qu’une petite partie d’une image complexe. Dans une étude publiée dans la revue scientifique Nature Neuroscience, à l’aide de données provenant de différentes espèces et de plusieurs disciplines neuroscientifiques, nous montrons qu’il n’existe pas qu’un seul type de traitement de l’information dans le cerveau. De plus, la façon dont l’information est traitée n’est pas la même chez les humains et les autres primates, ce qui pourrait expliquer pourquoi les capacités cognitives de notre espèce sont à ce point supérieures.

Nous avons repris des concepts de ce que l’on appelle le cadre mathématique de la théorie de l’information – l’étude de la mesure, du stockage et de la communication des informations numériques, qui est essentielle pour des technologies telles qu’Internet et l’intelligence artificielle – afin de comprendre comment le cerveau traite l’information. Nous avons découvert que les zones du cerveau n’ont pas toutes recours aux mêmes stratégies pour interagir entre elles.

Certaines régions du cerveau partagent des informations d’une façon très élémentaire, en utilisant des entrées et des sorties. Cela garantit que les signaux sont transmis de manière reproductible et fiable. C’est le cas des zones spécialisées dans les fonctions sensorielles et motrices (telles que le traitement des informations sonores, visuelles et liées au mouvement).

Ainsi, les yeux envoient des signaux à l’arrière du cerveau pour leur traitement. La majorité des informations sont fournies en double, puisqu’elles sont communiquées par chaque œil. En d’autres termes, la moitié d’entre elles ne sont pas nécessaires. Nous appelons « redondant » ce type de traitement de l’information entrées-sorties.

Cependant, la redondance assure solidité et fiabilité – c’est ce qui nous permet de voir encore avec un seul œil. Cette capacité est essentielle à la survie. En fait, elle est si capitale que les connexions entre ces régions du cerveau sont câblées anatomiquement dans le cerveau, un peu comme une ligne de téléphonie fixe.

Ce ne sont toutefois pas toutes les informations fournies par les yeux qui sont redondantes. La combinaison des informations transmises par les deux yeux permet au cerveau de traiter la profondeur et la distance entre les objets. Cela constitue la base de nombreux types de lunettes 3D au cinéma.

Il s’agit d’un exemple d’une manière fondamentalement différente de traiter l’information et qui se révèle plus grande que la somme de ses parties. Nous appelons « synergique » ce type de traitement de l’information où sont intégrés des signaux complexes provenant de différents réseaux cérébraux.

Le traitement synergique est le plus répandu dans les zones du cerveau qui gèrent un large éventail de fonctions cognitives complexes, telles que l’attention, l’apprentissage, la mémoire de travail, la cognition sociale et numérique. Il n’est pas câblé, ce qui signifie qu’il peut changer en fonction de nos expériences, en connectant différents réseaux de différentes manières. Cela facilite la combinaison d’informations.

Les régions à grande synergie – principalement à l’avant et au milieu du cortex (la couche externe du cerveau) – intègrent différentes sources d’information provenant de l’ensemble du cerveau. Elles sont donc plus largement et plus efficacement connectées au reste du cerveau que les régions qui traitent les informations sensorielles primaires et celles liées au mouvement.

Les zones à haute synergie qui facilitent l’intégration des informations sont aussi généralement dotées de nombreuses synapses, ces connexions microscopiques qui permettent aux cellules nerveuses de communiquer.

 

Notre particularité vient-elle de la synergie ?

Nous voulions savoir s’il y a une différence dans la capacité à accumuler et à construire des informations grâce à des réseaux complexes dans le cerveau des humains et celui des autres primates, qui sont de proches parents de nos ancêtres sur le plan de l’évolution.

Dans ce but, nous avons examiné les données d’imagerie cérébrale et les analyses génétiques de différentes espèces. Nous avons constaté que les interactions synergiques représentent une plus grande proportion du flux total d’informations dans le cerveau humain que dans celui des macaques. Par contre, les cerveaux des deux espèces sont égaux en termes de recours aux informations redondantes.

Nous avons également étudié plus particulièrement le cortex préfrontal, une zone située à l’avant du cerveau qui gère un fonctionnement cognitif complexe. Chez les macaques, le traitement des informations redondantes est plus répandu dans cette région que chez les humains, chez qui il s’agit plutôt d’une zone à forte synergie.

Le cortex préfrontal a connu une importante expansion au cours de l’évolution. En observant des données provenant de cerveaux de chimpanzés, nous avons constaté que plus la taille d’une région du cerveau humain avait augmenté au cours de l’évolution par rapport à la même région chez le chimpanzé, plus son fonctionnement reposait sur la synergie.

Nous avons également examiné des analyses génétiques de donneurs humains. Elles ont montré que les régions du cerveau associées au traitement des informations synergiques sont plus susceptibles d’exprimer des gènes qui sont uniquement humains et liés au développement et à des fonctions cérébrales, comme l’intelligence.

Cela nous a menés à conclure que le tissu cérébral humain acquis au cours de l’évolution pourrait être principalement dédié à la synergie. Il est tentant de présumer que les avantages d’une synergie accrue peuvent expliquer, en partie, les capacités cognitives supérieures de notre espèce. La synergie pourrait ajouter une pièce importante, qui manquait jusqu’ici, au casse-tête de l’évolution du cerveau humain.

En conclusion, nos travaux révèlent comment le cerveau humain navigue entre fiabilité et intégration des informations, sachant que les deux sont nécessaires. Le cadre que nous avons élaboré permettra d’apporter de nouvelles informations essentielles à de nombreuses questions neuroscientifiques, allant de la cognition générale aux troubles cognitifs.The Conversation

Emmanuel A Stamatakis, Lead, Cognition and Consciousness Imaging Group, Division of Anaesthesia, University of Cambridge; Andrea Luppi, PhD candidate in Neuroscience, University of Cambridge et David Menon, Professor, Head of Division of Anaesthesia, University of Cambridge

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

À la recherche de la matière noire galactique depuis les profondeurs de la Terre

Par Fairouz Malek. 

 

Euclid, une mission de l’Agence spatiale européenne (ESA) a quitté la Terre le 1er juillet 2023 et tentera, en particulier, de mettre en évidence la matière noire galactique.

Ce n’est que dans les années 1970 que la question de l’existence de la matière noire suscite de l’intérêt. À ce propos, matière noire est une mauvaise traduction française de « Dark Matter » en anglais qui veut plutôt dire matière « invisible » ou « non observée/cachée ». Si la matière avait été « noire », on aurait écrit en anglais « black ».

L’astronome américaine Vera Rubin, doctorante dans les années 1970, étudie la rotation des galaxies spirales (il y a trois types de galaxies : spirale, elliptique et irrégulière ; notre galaxie, la Voie lactée, est de type spirale). L’étude de Vera Rubin s’attelle à la question de savoir si la « masse lumineuse », c’est-à-dire la masse visible – qui est déduite de la présence des étoiles – est bien égale à la masse dynamique (masse totale en étudiant la dispersion des vitesses).

En décrivant la vitesse de rotation de la galaxie en fonction de la distance au centre de la même galaxie, on fait une mesure directe de la distribution globale de matière dans la galaxie. La vitesse maximale de rotation d’une galaxie spirale se trouve à quelques kiloparsecs du centre (le parsec est une unité de longueur astronomique qui équivaut à 3,26 année- lumière, 206 265 unités astronomiques ou 30 900 milliards de km environ), puis elle est censée décroître. En effet, les étoiles à la périphérie de la galaxie sont en orbite autour du centre, de la même manière que les planètes sont en orbite autour du Soleil. Les étoiles en périphérie de la galaxie ont une vitesse orbitale inférieure à celles qui sont situées plus près de son centre.

Or, Vera Rubin observe que les étoiles situées à la périphérie de la galaxie d’Andromède – comme pour d’autres galaxies spirales – semblent tourner trop vite (les vitesses restaient pratiquement constantes au fur et à mesure que l’on s’éloignait du centre). Elle arrive à la conclusion qu’il manque de la masse pour expliquer ces vitesses de rotation. De nombreuses autres observations similaires sont effectuées dans les années 1980, venant renforcer celles de Vera Rubin. La quête de la matière noire est dès lors un objectif de recherche intense en astrophysique, en astroparticules et en physique des particules.

Depuis l’observation du fond diffus cosmologique ou rayonnement fossile (résidu d’un rayonnement émis par l’Univers lorsqu’il était dans une phase très chaude et dense, au tout début, juste 380 000 ans après le Big Bang) par des satellites tel que Planck, la matière noire semble représenter une masse environ six fois supérieure à celle de la matière visible ; elle devrait constituer environ 26 % de l’Univers et donc la matière que nous connaissons et qui constitue toutes les étoiles et les galaxies ne représente que 5 % du contenu de l’Univers. La matière noire n’interagit pas, ou extrêmement peu, avec la matière « ordinaire » (notre monde connu) rendant sa détection et sa caractérisation très difficiles. Sa présence n’est détectée que par son influence gravitationnelle.

Les recherches se déroulent également en grande partie sur Terre, et je dirai même plus précisément sous Terre par exemple à l’accélérateur LHC du CERN.

 

Une recherche souterraine

L’avantage des expériences sous terre est de combiner la détection directe avec la détection indirecte de matière noire à partir des relevés astronomiques.

Par conséquent, la forte synergie entre les sondes astrophysiques (indirectes) et les laboratoires souterrains (sonde directe) peut permettre de mesurer et limiter conjointement l’effet de la matière noire. Onze laboratoires souterrains pour la recherche de la matière noire et d’autres objets astrophysiques sont opérationnels dans l’hémisphère nord.

La carte du monde des laboratoires souterrains. Onze laboratoires sont opérationnels, ils se trouvent tous dans l’hémisphère Nord (point vert). Le laboratoire australien est en cours de mise en route (point orange). Les trois autres sites dont deux dans l’hémisphère Sud (point rouge) sont encore des projets.
Fourni par l’auteur

En France, on trouve par exemple le laboratoire souterrain de Modane, près de la frontière italienne où l’expérience EDELWEISS sonde cette hypothèse de l’existence de la matière noire sous la montagne depuis quinze ans.

Les laboratoires souterrains sont plus ou moins profonds. Les plus profonds sont installés dans des anciennes mines comme SNOLAB au Canada (2000 m) ou CJPL en Chine (2400 m). Les laboratoires souterrains de Modane (LSM, France) et Gran Sasso (LNGS, Italie) se trouvent respectivement à environ 1700 m et 1400 m sous la roche de la montagne, et dans un tunnel (Frejus/Gran Sasso).

L’emplacement souterrain garantit naturellement une suppression élevée des particules de rayons cosmiques produits dans l’atmosphère et, par conséquent, de sous-produits cosmogéniques (comme les noyaux radioactifs)

 

Comment détecte-t-on la matière noire sous Terre ?

Cette matière noire, présente dans notre galaxie, est considérée comme une sorte de gaz de particules « exotiques » dans lequel nous baignerions.

La Terre se déplaçant dans la galaxie, elle rencontre directement ces particules, il n’est donc pas nécessaire d’aller la chercher bien loin. Mais pour pouvoir l’observer directement, il est nécessaire qu’elle interagisse avec la matière ordinaire.

Lorsqu’une particule de matière noire frappe un noyau de matière ordinaire, elle pourrait provoquer un recul de celui-ci. Détecter cet infime mouvement permettrait de signer son passage.

Principe de la détection directe de matière noire appelée WIMPs par scintillateur (expérience DAMA) au LNGS (Laboratoire souterrain du Gran Sasso).
Blog ça se passe là-haut, Fourni par l’auteur

Pour être sûrs de capter des événements si rares et peu expressifs, les détecteurs doivent être conçus dans un matériau très peu radioactif et protégé des radiations parasites afin de minimiser le bruit de fond qui cacherait le signal recherché. D’où l’intérêt d’installer les observatoires dans des laboratoires souterrains, pour éviter, comme déjà évoqué, un maximum de rayonnements (cosmiques et radioactifs) qui pourraient perturber les mesures.

Les recherches engagées dans les laboratoires souterrains construits dans les années 1980/1990 ont été entreprises dans le but d’étudier des phénomènes liés à la physique des hautes énergies et astroparticules (durée de vie du proton, physique des neutrinos, etc.). Le XXIe siècle a vu la mise en route d’expériences plus ambitieuses pour explorer la matière noire du cosmos.

Cependant, avec le progrès technologique et les savoir-faire sous-jacents, les laboratoires souterrains se sont vite vu très utiles à d’autres disciplines. D’où l’intérêt des pays émergents de s’engager à leur tour pour participer à développer ces infrastructures, comme les projets ANDES (Argentine/Chile) et PAUL (Afrique du Sud). Ces laboratoires sont à la pointe de la recherche en astroparticules mais aussi d’autres activités liées aux mesures de basses radioactivités pour la biologie.

Il y a aussi des opportunités immenses pour des recherches en séismologie, climatologie, glaciologie et astrobiologie. La possibilité de contrôler les conditions d’éclairage et d’autres paramètres environnementaux rend les laboratoires souterrains des lieux idéaux pour expérimenter l’agriculture hydroponique, comme pour les champignons. Ils fournissent d’autres opportunités comme de déterminer la capacité d’utiliser le sous-sol comme environnement de travail et même d’aménager les tunnels comme des environnements habitables.

D’autres hypothèses alternatives viennent expliquer le phénomène observé par Vera Rubin. La matière noire pourrait ne pas exister, et l’hypothèse de son existence peut être due à une méconnaissance partielle des lois de la gravité. D’autres théories postulent l’existence d’antigravité ou encore l’existence de masses négatives dans notre Univers, tout comme il existe des charges électriques positives et négatives. Ceci permet d’envisager un Univers sans matière noire.

En attendant les résultats des recherches, on pourra se délecter de quelques voyages dans le monde de la Science-Fiction comme avec la série TV Dark où une boule de matière noire créée par une centrale nucléaire permet de voyager dans le temps. Plus relaxant, la série Futurama où lorsque « les Nibbloniens », petites créatures méchantes, digèrent leur nourriture sous forme de boules noires denses constituées de matière noire, boules de caca qui servent aussi de carburant pour les vaisseaux spatiaux.

 

 

Fairouz Malek, Physicienne, Directrice de recherches au CNRS, Université Grenoble Alpes (UGA)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

À la découverte de l’intelligence des poulpes

Par Lisa Poncet.

Alors que l’oscar du meilleur film documentaire vient d’être attribué à La sagesse de la pieuvre, l’intelligence de ces étranges animaux fascine de plus en plus. Comment un être si particulier perçoit-il le monde ? Bien chanceux est celui qui pourra le dire avec certitude.

Les poulpes, ou pieuvres, dans le langage de Victor Hugo, sont des céphalopodes, une classe d’animaux marins faisant partie des mollusques. Dotés de huit bras couverts de ventouses et d’un corps musculeux sans os ni coquille, ils sont endémiques de nos océans. Environ 200 espèces se répartissent dans toutes les eaux marines du globe. Alors que notre dernier ancêtre commun avec eux remonte à 500 millions d’années, lorsque nous les étudions, ils présentent des similitudes troublantes avec nous, à travers leurs yeux qui nous fixent, leur cerveau au fonctionnement étonnamment proche du nôtre, ou leur curiosité et leur envie d’explorer qui nous rappellent notre propre soif de connaissances.

L’étude de ces ressemblances, que nous nommons convergences évolutives, nous permet de mieux comprendre comment l’environnement et l’évolution façonnent de façon similaire organes et comportements.

Sur ce dernier point, le comportement des poulpes semble indiquer une intelligence impressionnante. En éthologie, la science étudiant les comportements, nous étudions cette intelligence, que nous qualifions plutôt de cognition. Les capacités cognitives peuvent se définir comme les processus par lesquels des informations issues de l’environnement sont perçues, traitées, transformées, retenues puis utilisées pour prendre des décisions et agir.

D’un point de vue comportemental, la flexibilité avec laquelle les individus s’adaptent et ajustent leur comportement à des situations changeantes et nouvelles est une bonne mesure de leurs capacités cognitives. De nombreuses études sur les poulpes montrent qu’ils présentent une grande flexibilité dans leurs comportements, que ce soit dans leur milieu naturel ou en aquarium dans un laboratoire.

 

Doués pour l’attaque et la défense

Prenons d’abord l’exemple des mécanismes de défense chez les poulpes.

Face à leurs multiples prédateurs, les poulpes sont des as du camouflage, car ils peuvent imiter leur environnement en modifiant la couleur et la texture de leur peau, instantanément et de façon variée, grâce à des cellules pigmentées appelées chromatophores, et à de multiples muscles couvrant leur épiderme.

En absence de coquille, les poulpes sont très vulnérables, et ils vont chercher à se cacher, de préférence dans un abri sous forme de cavité sous un rocher : les poulpes aménagent et entretiennent leur abri en retirant du sable et en ajoutant des pierres et des coquilles pour mieux en fermer l’accès. D’autres vont préférer s’ensabler pour se cacher, ou se couvrir de coquillages, et certains vont même transporter leur abri dans leurs bras, un comportement considéré comme une utilisation d’outil. C’est le cas de la pieuvre noix de coco, qui a été observée en train de transporter une demi-coque de noix de coco afin de se cacher en dessous au moindre danger.

Les poulpes sont également eux-mêmes de redoutables prédateurs, et leurs mécanismes d’attaque s’adaptent à la grande variété de proies qu’ils consomment, à savoir tous types de coquillages et crustacés, mais aussi des poissons, et même d’autres céphalopodes. Ils peuvent utiliser leur vision et leur camouflage pour chasser, ou leurs bras pour explorer, toucher et goûter l’environnement et saisir tout aliment à leur portée. Ils peuvent entretenir des interactions interspécifiques pour chasser, et coopérer avec certains poissons, notamment des mérous, pour trouver des proies cachées. Ils apprennent à se méfier des crabes porteurs d’anémones urticantes et les attaquent prudemment sans se faire piquer.

Lorsqu’ils consomment coquillages et mollusques, les poulpes peuvent soit ouvrir de force la coquille, en glissant éventuellement un petit caillou pour en bloquer la fermeture, soit injecter une toxine paralysante qui permettra à la coquille de s’ouvrir facilement. La toxine est inoculée dans un muscle très précis après avoir foré la coquille, et les poulpes doivent apprendre et se souvenir à quel endroit forer chaque coquillage.

 

Des créatures à surveiller de près au laboratoire

Les capacités cognitives des poulpes sont aussi beaucoup étudiées en laboratoire.

Par exemple, dans notre laboratoire EthoS, nous travaillons actuellement sur la mémoire et les capacités de planification des poulpes communs. Ce sont des animaux qui se révèlent complexes à étudier, notamment à cause de leur grande force, car ils peuvent détruire facilement les dispositifs de recherche : gare aux caméras immergées, ils sont capables d’ouvrir les boîtiers étanches pour les court-circuiter ! Par ailleurs, ils sont dépourvus d’os, et peuvent s’échapper facilement par le moindre trou ; inlassablement curieux, ils attrapent mains et épuisettes au moindre entretien de leur aquarium.

L’ouverture de pots, bien qu’impressionnante et souvent utilisée pour illustrer l’intelligence des poulpes, n’est pas leur capacité la plus exceptionnelle. Cette tâche leur est facile grâce à leur dextérité et leur capacité de préhension, mais finalement les poulpes sont très lents dans l’exécution de cette tâche : même surentraîné, un poulpe met toujours plus d’une minute à ouvrir le pot et à saisir le crabe. Les poulpes restent cependant doués dans leur façon de manipuler des objets en modifiant, par exemple, leur orientation pour les glisser à travers une petite ouverture dans une paroi.

Par ailleurs, ils excellent dans l’apprentissage discriminatif : face à deux objets, ils apprennent à attaquer un objet en échange d’une récompense, en se basant sur ses caractéristiques, comme la teinte, la forme, la texture ou le goût. Ils peuvent retenir ces apprentissages pendant plusieurs mois, et sont également capables de généralisation, une tâche complexe qui nécessite d’élargir spontanément la règle apprise à de nouveaux objets en se basant sur leurs similitudes (taille, couleur, rugosité) avec ceux précédemment rencontrés. Par exemple, des poulpes ayant appris à reconnaître et attaquer une balle réelle sont capables de reproduire cet apprentissage sur un écran et ainsi d’attaquer une balle virtuelle.

Ils font preuve de discrimination conditionnelle, c’est-à-dire qu’ils peuvent modifier leur choix en fonction du contexte : par exemple, ils peuvent apprendre à attaquer un objet seulement en présence de bulles dans leur environnement, et à se réfréner d’attaquer en leur absence. Ils sont capables d’apprentissage spatial, et peuvent retrouver un refuge non visible en se remémorant sa position dans l’espace. Ils peuvent aussi utiliser des repères visuels pour savoir comment orienter leurs bras engagés dans un dispositif opaque.

Enfin, les poulpes sont capables d’apprendre en observant leurs congénères. Cela est surprenant, car ce sont des animaux décrits comme majoritairement solitaires (bien que des communautés de poulpes aient été ponctuellement observées). Cependant, après avoir observé un congénère choisir un objet particulier, le poulpe est capable de reproduire ce comportement sans apprentissage supplémentaire. Mais bien qu’impressionnants dans leurs apprentissages en laboratoire, ils restent des animaux étonnamment erratiques dans leurs réponses, notamment dans les expériences de discriminations visuelles, où leurs performances dépassent rarement 80 % de réussite quand d’autres animaux réussissent presque à la perfection.

Ainsi, si nous reprenons la définition de l’intelligence, nous observons que les poulpes valident toutes les conditions : ils font preuve d’une grande flexibilité dans l’obtention d’informations (utilisation de plusieurs sens, apprentissage social) dans le traitement de cette information (apprentissages discriminatifs et conditionnels), dans sa rétention (mémoire à long terme), et dans son utilisation (adaptation du comportement face aux différents prédateurs et proies).

Mais ne vous y méprenez pas : ce n’est pas parce qu’ils sont au centre de toutes les attentions qu’ils sont les plus intelligents de nos mers ! Dans la cour d’école des céphalopodes, le poulpe serait plutôt l’élève turbulent. La seiche, elle, serait plutôt la première de la classe. Ces cousines des poulpes sont étonnamment ignorées par le grand public, et pourtant au centre de nombreuses recherches dans les laboratoires d’éthologie du monde entier : moins touche-à-tout que les poulpes, elles ont pourtant des capacités d’apprentissages sans commune mesure, pouvant apprendre des règles complexes en très peu de temps, et une fois celles-ci acquises, elles les appliquent à la perfection.

Finalement, les céphalopodes nous montrent qu’il n’est pas nécessaire de chercher des formes de vie intelligentes dans les étoiles, car il en reste encore tant à découvrir dans nos mers !The Conversation

Lisa Poncet, Doctorante en neuroéthologie, Université de Caen Normandie

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

IBM et la NASA unissent leurs forces pour surveiller le climat grâce à l’IA

Bonne nouvelle et impressionnante innovation dans le milieu de la technologie !

IBM, en partenariat avec la NASA, a récemment dévoilé un modèle d’intelligence artificielle (IA) innovant qui viserait à améliorer le suivi des émissions de carbone et à surveiller les impacts du changement climatique.

IBM’s watsonx․ai geospatial foundation model is now openly available on @huggingface. Built with @NASAEarth, it’s the first-ever open-source #AI foundation model built with NASA & largest geospatial model on HuggingFace. Explore more: https://t.co/bxRwoFAGDV pic.twitter.com/TgEEzOOE16

— IBM News (@IBMNews) August 3, 2023

Annoncé le 3 août dernier, ce modèle révolutionnaire, appelé watsonx.ai, est basé sur des données satellitaires de la NASA et hébergé sur la plateforme d’IA open source Hugging Face.

Une collaboration qui marque une étape significative : c’est la première fois que la NASA travaille avec un fournisseur technologique pour développer un modèle d’IA.

 

La technologie et l’innovation au service de la recherche sur le changement climatique

L’initiative conjointe d’IBM et de la NASA vise à exploiter l’expertise d’IBM dans l’analyse de données scientifiques terrestres et géospatiales afin d’éclairer la recherche sur le changement climatique.

Les données satellitaires, dont des images provenant du satellite Sentinel-2 de la NASA, ont été utilisées pour former le modèle de base géospatial. Ce modèle est le fruit des efforts de recherche d’IBM et de sa plateforme watsonx.ai.

Le modèle de base géospatial a été formé sur des images harmonisées Landsat Sentinel-2 (HLS) de la NASA, couvrant une période d’un an. Ce modèle est conçu pour simplifier l’analyse des données d’images satellites et fournir des informations en temps réel sur les changements environnementaux. Il a ensuite été perfectionné à l’aide de données étiquetées pour cartographier les inondations et les zones touchées par les incendies.

Avec des ajustements supplémentaires, le modèle pourrait être amené à accomplir diverses tâches, telles que le suivi de la déforestation, la prévision des rendements agricoles et la surveillance des émissions de gaz à effet de serre.

Un défi majeur auquel sont confrontés les climatologues et les entreprises est le manque de données étiquetées accessibles. L’intelligence artificielle peut jouer un rôle crucial pour surmonter ce défi en permettant de réajuster les modèles de base sur la base de données étiquetées spécifiques.

Cela permettrait d’améliorer l’analyse et de faciliter le suivi des émissions de carbone.

 

La NASA et la science ouverte

La collaboration entre IBM et la NASA s’inscrit dans la vision plus large de la NASA pour la science ouverte. En 2023, la NASA a déclaré l' »Année de la science ouverte » pour promouvoir le partage ouvert de données, d’informations et de connaissances.

Pour la NASA, l’adoption de l’approche open source dans la recherche scientifique encourage la transparence, l’inclusivité et la collaboration, tout en accélérant les découvertes scientifiques.

Sriram Raghavan, Vice-Président d’IBM Research AI, souligne l’importance des technologies open source dans la lutte contre le changement climatique.

La combinaison des efforts d’IBM dans la création de modèles d’IA flexibles avec les données satellitaires de la NASA, mises à disposition sur Hugging Face, démontre la puissance de la collaboration pour apporter des solutions rapides et efficaces pour préserver notre planète.

Ce modèle d’IA géospatiale représente une avancée significative dans la recherche climatique et le suivi des émissions de carbone.

En partageant ce modèle sur la plateforme Hugging Face, IBM rend cet outil accessible à un large éventail de développeurs et de chercheurs, renforçant ainsi l’impact de cette collaboration novatrice entre l’industrie technologique et l’exploration spatiale.

L’utilisation de l’intelligence artificielle pour cartographier et surveiller les changements environnementaux devrait contribuer à une meilleure compréhension du climat, et à des stratégies plus efficaces pour faire face aux défis du changement climatique.

Mars : découverte d’un ancien environnement propice à l’émergence de la vie

Par Gilles Dromart.

 

Notre groupe de recherche publie aujourd’hui dans Nature les premières preuves tangibles de l’existence passée et durable d’environnements à la surface de Mars particulièrement favorables à la synthèse spontanée des premières molécules de la biologie nécessaires à l’émergence de la vie.

Nous avons découvert des structures fossiles témoins de cycles répétés et durables de séchage-mouillage de sédiments très anciens de la surface de Mars. Ce mode alternatif sec-humide promeut la concentration et polymérisation de molécules organiques simples (sucres ou acides aminés) qui pourraient avoir été contenues dans les sédiments. Ces processus constituent une étape fondamentale vers la synthèse de molécules biologiques tels que les acides nucléiques (ADN ou ARN).

La question qui préoccupe les scientifiques n’est pas tant de savoir si la vie a existé sur une autre planète que la Terre, mais bien de connaître où et comment la vie telle que nous la connaissons sur Terre s’est construite.

Depuis le milieu des années 1980, les biochimistes ont reconnu que le monde ARN fut une étape préliminaire fondamentale sur la route de la vie. L’ARN aurait constitué la molécule originale autocatalytique et porteuse de l’information génétique, avec des fonctions enzymatiques assurées par les ARNs courts. Les protéines auraient ensuite supplanté les ARNs comme enzymes en raison d’une plus grande diversité, et l’ADN remplacé l’ARN comme molécule porteuse de l’information génétique en raison d’une meilleure stabilité.

Pour accéder au monde ARN qui est une molécule complexe, il a été nécessaire de construire un enchaînement de type polymère de ribonucléotides, chacun étant composé d’un groupe phosphate, d’un sucre (le ribose) et d’une base azotée (adénine par exemple).

Ainsi, l’émergence de formes de vie primitives telle qu’elle est conçue actuellement par les scientifiques, nécessite d’abord des conditions environnementales favorables à l’agencement spontané de molécules organiques simples en molécules organiques plus complexes.

 

Des structures datées de 3,7 milliards d’années

Nous rapportons dans cet article des observations inédites transmises par l’astromobile (ou « rover ») Curiosity qui, équipé d’instruments analytiques des paysages et de la chimie et minéralogie des roches, explore depuis 2012 les pentes du Mont Sharp à l’intérieur du cratère Gale.

Lors des « sols » (jours martiens) 3154 à 3156 en juin 2021, nous avons découvert des structures singulières, exhumées au toit d’anciennes couches sédimentaires datées d’environ 3,7 milliards d’années.

Ces structures sont des rides rectilignes qui apparaissent en relief de quelques centimètres à la surface supérieure de strates sédimentaires. Ces rides vues par le haut sont jointives et sont organisées selon une géométrie parfaitement polygonale. Elles sont constituées dans le détail par l’alignement de petits nodules plus ou moins attachés les uns aux autres de roches essentiellement sulfatées. Un nodule est une petite bille qui apparaît en relief dans et à la surface des strates.

Motif fossile de rides polygonales observées et analysées par Curiosity au 3154ᵉ jour de sa progression dans les strates sédimentaires du cratère de Gale sur Mars.
NASA/JPL-Caltech/MSSS/IRAP/LGL-TPE

Ces structures polygonales représentent fondamentalement des « fentes de dessiccation », structures ô combien familières aux géologues, et similaires à celles que chacun a observées sur le fond d’une flaque d’eau boueuse asséchée. L’eau initialement contenue dans les sédiments s’évapore sous l’effet du vent et de la chaleur. Les sédiments se déshydratent et se contractent alors, engendrant ce système de fentes de retrait qui s’organise en polygones jointifs.

Des fentes de dessiccation fossiles ont déjà été ponctuellement documentées à la surface de Mars. Mais celles découvertes ici sont clairement différentes du fait de trois « détails » particuliers :

  1. Le motif polygonal est un motif en Y, formant des hexagones jointifs de type « tomette », avec des angles avoisinant 120° aux points de jonction des fentes
  2. Les fentes de retrait sont ici remplies de minéraux sulfatés (sulfate de calcium et magnésium)
  3. Ces motifs polygonaux s’observent de manière récurrente sur une épaisseur totale de 18 mètres de la colonne sédimentaire

 

De nombreux cycles de mouillage-séchage

Selon divers travaux expérimentaux menés dans les laboratoires terrestres sur des bacs à boue, ce motif en Y des jonctions des fentes est caractéristique de cycles répétés de séchage-mouillage du sédiment. Au premier séchage, les fentes de retrait s’organisent en T, formant un motif de type « carreau » avec des angles d’environ 90° aux points de jonction. Au fur et à mesure des cycles expérimentaux mouillage-séchage, les fentes se « fatiguent », et montrent des angles typiquement en Y à 120° au bout du dixième cycle.

Les sulfates sont des roches sédimentaires chimiques dites évaporitiques, c’est-à-dire résultant de la précipitation de saumures associée à l’évaporation d’eau saline. Leur présence au sein des fentes de retrait conforte l’interprétation de celles-ci en termes de fentes de dessiccation. Les nodules qui portent les sulfates sont très irréguliers en morphologie et en composition chimique, ce qui suggère également plusieurs phases de précipitation (séchage) – dissolution (mouillage) partielle des nodules.

Le fait que l’on retrouve à plusieurs reprises ces motifs polygonaux sur une épaisseur de 18 mètres d’empilement vertical des strates sédimentaires indique que cet ancien environnement de dépôt, sujet à des cycles climatiques certainement saisonniers de mouillage-séchage, s’est maintenu sur une période de plusieurs centaines de milliers d’années.

 

Le sens ultime de la découverte

Ces cycles climatiques saisonniers de mouillage-séchage des sédiments ont potentiellement permis aux molécules simples contenues dans ces mêmes sédiments d’interagir à différentes concentrations dans un milieu salin, et ce de manière répétée et durable.

Ce potentiel de polymérisation des molécules simples au sein des sédiments montrant les structures polygonales prend un sens particulier sachant que celles-ci contiennent d’une part des minéraux argileux de la famille des smectites et d’autre part une quantité significative de matière organique. Les smectites sont des argiles dites « gonflantes » pour lesquelles il a été montré expérimentalement qu’elles ont la faculté d’adsorber et de concentrer les nucléotides entre leurs feuillets constitutifs.

L’instrument SAM (Sample at Mars) a par ailleurs révélé la présence au sein de ces mêmes strates de composés organiques simples tels que des chlorobenzènes, des toluènes ou encore différents alcanes. Ces composés sont probablement d’origine météoritique, et leur quantité résiduelle peut atteindre environ 500 g par m3 de sédiments. Ces molécules ont pu dès lors servir comme certaines des « briques de base » de molécules plus complexes telles que l’ARN.

En résumé, nous déduisons de nos observations, de nos mesures sur Mars, et des différents concepts et expériences terrestres, que le bassin évaporitique de Gale a constitué un environnement très favorable et durable au développement de ce processus de polymérisation des molécules organiques simples en molécules plus complexes nécessaires à l’émergence de la vie.

Nous savons enfin que les structures ici étudiées se situent dans une unité géologique de transition verticale depuis une formation plus ancienne riche en argiles vers une formation plus récente riche en sulfates, et que cette même transition a été détectée par voie orbitale en de nombreux cratères et plaines de Mars.

En conséquence, il apparaît désormais que la probabilité que des précurseurs moléculaires biotiques aient pu se former et être fossilisés à la surface de Mars il y a environ 3,7 milliards d’années au cours de l’Hespérien n’est plus négligeable.

 

Vers un retour des échantillons martiens ?

Le paradigme actuel pour la vie terrestre est celui d’une émergence dans l’Hadéen, période de temps initiale comprise entre la formation de la Terre il y a environ 4,6 milliards d’années (Ga) par l’accrétion des météorites primitives et environ 4,0 – 3,8 Ga.

Mais le plus vieux et seul témoin d’un possible processus biologique hadéen est un graphite (carbone) inclus dans un minéral de zircon daté à 4,1 Ga, ou encore un schiste noir métamorphisé, daté à 3,8 – 3,7 Ga. De plus, l’Hadéen ne comporte actuellement qu’une infime proportion de représentants rocheux à la surface de la Terre en raison de la tectonique des plaques, et en tous cas aucune roche sédimentaire intacte, non métamorphisée. Ceci rend cette quête sous nos pieds d’une vie terrestre primitive a priori vaine.

Contrairement à la surface de la Terre, celle de la planète Mars n’est pas renouvelée, ni transformée par la tectonique des plaques. La surface de Mars a ainsi préservé quasi intactes des roches très anciennes, incluant celles formées dans un environnement et un climat propices à la construction spontanée de précurseurs moléculaires biotiques. En conséquence, autant il semble très peu probable que la vie ait pu évoluer sur Mars aussi fertilement que sur Terre – à ces environnements favorables à l’émergence de la vie à l’Hespérien ont fait suite des environnements arides et froids de l’Amazonien), autant il apparaît désormais possible et opportun d’y explorer l’origine de la vie, et d’y rechercher des composés biotiques précurseurs par le biais de retours d’échantillons prélevés dans le futur par des robots ou des astronautes sur des sites tels que ceux étudiés ici.

Notre découverte ouvre de nouvelles perspectives de recherche sur l’origine de la vie, y compris (surtout) sur d’autres planètes que la nôtre. Elle est à même également de faire reconsidérer les objectifs premiers des missions d’exploration de la planète Mars et celles en particulier du retour d’échantillons.The Conversation

Gilles Dromart, Professeur de géologie, École Normale Supérieure de Lyon

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Fermes solaires spatiales : une énergie illimitée pour une révolution écologique ?

En novembre 2022, les partenaires de l’ESA ont approuvé au niveau ministériel le financement du projet Solaris qui consiste à étudier la faisabilité de centrales utilisant le rayonnement solaire en orbite terrestre (« SBSP » Space-based Solar Power) pour alimenter en énergie les consommateurs en surface terrestre.

Cette semaine, selon ce que rapporte Le Figaro, l’ESA a choisi Thales Alenia Space (Italie, « TAS ») pour mener l’étude à la tête d’un consortium de sociétés européennes. Pour les membres du consortium, on parle de Dassault Aviation pour l’aéronautique, d’Engie (France), Enel (Italie) et Air Liquide pour l’énergie. La décision de faire devrait être prise en 2025, en fonction bien sûr des résultats de l’étude.

On voit bien l’intérêt de telles centrales (on parle de « fermes solaires ») : fournir une énergie propre à partir d’une ressource illimitée, le rayonnement solaire. Ce qui ne veut pas dire que la collecte de l’énergie et la transmission ne coûteront rien, et que toute l’énergie souhaitée sera immédiatement disponible. Cela dépendra de la surface de collecte mise en place, de la puissance du faisceau d’ondes envoyées vers la Terre et de l’importance des stations de réception au sol.

 

Quelles sont les difficultés techniques d’un tel projet ?

 

Il faudra fournir les panneaux solaires, les monter dans l’espace jusqu’à l’orbite géostationnaire (36 000 km) pour que la position de l’émetteur vers la Terre soit absolument fixe par rapport au récepteur. Il faudra, dans l’espace, les structurer robotiquement en centrale pour qu’ils puissent fonctionner ensemble (énormes surfaces possibles et souhaitées pour une quantité d’énergie maximum). Il faudra ensuite entretenir le dispositif de collecte (les micrométéorites existent !), celui permettant son orientation optimale, et bien sûr, celui du système de transmission au sol de l’énergie dans une centrale réceptrice connectée au réseau de distribution générale de l’électricité.

Avec ces premières remarques, on voit bien, au-delà de l’intérêt, la difficulté du projet qui repose évidement essentiellement dans l’assemblage en orbite des surfaces de collecte, la transmission du rayonnement collecté vers le sol en un seul faisceau, et dans la réception au sol de ce faisceau.

Le faisceau envoyé vers la Terre doit être stable pour assurer une liaison stable avec le sol pour des raisons d’efficacité (transmission de toute l’énergie sur la cible) et de sécurité (dommage possible dans l’environnement traversé et entourant la cible).

Il faut donc s’assurer de la stabilité du satellite équipé du dispositif de collecte du rayonnement et l’on sait que la simple réception d’un rayonnement peut induire un déplacement dans l’espace (voiles solaires). Le satellite devra donc être équipé d’un système de propulsion et de pilotage pour contrer les mouvements résultant de la force reçue par le rayonnement et aussi pour que la surface de collecte suive le Soleil dans sa course puisqu’elle va tourner comme la Terre sur elle-même et en orbite autour du Soleil alors qu’elle devra être toujours orthogonale aux rayonnements.

Le rayonnement reçu va être transmis au sol à partir de la centrale, par les ondes. Il faut donc prévoir d’éviter tout obstacle qui pourrait se présenter dans l’atmosphère, et en particulier les populations d’oiseaux qui pourraient interférer, ou des avions qui pourraient; par erreur ou nécessité de navigation, risquer de pénétrer dans le faisceau de transmission. Il faut aussi étudier l’impact ionisant du rayon sur les gaz atmosphériques (ce pourrait être une forme de pollution).

La longueur d’ondes de la transmission devra être finement déterminée pour ces raisons écologiques et aussi parce que les ondes les plus longues nécessiteraient des récepteurs de grandes tailles, tandis que les ondes les plus courtes seraient plus faciles à focaliser mais passeraient moins facilement au travers de l’atmosphère. On choisira probablement une solution moyenne, des micro-ondes ou des ondes millimétriques.

Avant de produire pour la Terre, il serait judicieux de tester sur la Lune. L’expérience y serait facilitée par l’absence d’atmosphère et par l’absence de risque en cas d’instabilité du faisceau.

Il ne faut pas croire que Thalès et l’ESA peuvent mener leur étude tranquillement. Les aiguilles tournent ! Elles sont en concurrence avec des entités américaines (CalTech a lancé un démonstrateur pour la transmission en janvier 23 – MAPLE – et il a fonctionné de manière satisfaisante). La Chine prévoit le sien en 2028. Le Royaume-Uni a également un projet en route.

Ceci dit, il faut être optimiste. Il n’y a pas de raison théorique pour laquelle la faisabilité serait impossible, et on ne voit pas pourquoi Thalès ne fournirait pas les solutions les plus performantes.

 

Un projet qui ouvrirait la porte à d’autres perspectives…

 

Une fois que le système fonctionnera, on voit bien l’intérêt pour la Terre, mais on le voit aussi pour l’installation de l’Homme sur la Lune et sur Mars.

En effet, les ressources énergétiques sur ces deux astres ne sont pas évidentes, puisque ni l’une ni l’autre ne disposent d’hydrocarbures, ni d’eau liquide ni de vents suffisamment puissants pour être utilisés (Mars).

De plus, l’accès à la ressource à partir du sol est très médiocre puisque la Lune connaît de longues nuits de 14 jours, et qu’en plus Mars subit au sol de fréquentes tempêtes de poussière qui enlèvent toute sécurité à l’exploitation au sol de panneaux solaires. NB : (1) L’irradiance à la distance Soleil-Mars est beaucoup plus faible qu’à la distance de la Terre (492 à 715 W/m2 contre 1360 W/m2 pour la Terre) mais elle reste quand même exploitable. (2) le faisceau d’énergie envoyé par la centrale à la surface de Mars pourra passer au travers de la poussière si les longueurs d’onde sont choisies correctement.

 

… mais il reste des obstacles à franchir

 

Restent deux problèmes.

Le premier est celui de l’acheminement d’un nombre très élevé de panneaux solaires dans l’espace. On sera dans une configuration un peu semblable à celle que l’on connaît pour les constellations, en plus difficile (masse et volume). On peut noter au passage que la mise sur orbite de ces centrales ultra-écologiques sera peu écologique, à moins que l’on développe très vite des lanceurs ne brûlant que de l’hydrogène dans l’oxygène.

Le second problème est celui de l’assemblage. On a déjà fait des assemblages dans l’espace, mais ils ont été plutôt laborieux. Relier physiquement des milliers de panneaux solaires et contrôler ensuite leur surface pour la faire évoluer en fonction du besoin fondamental d’orientation vers le Soleil tout en maintenant pleinement opérationnel le dispositif de câbles portant les commandes et centralisant l’énergie reçue n’est pas évident.

Pour Mars, une difficulté complémentaire viendra du besoin de produire les panneaux solaires sur place, car il serait surprenant que l’on consacre un nombre important de vols depuis la Terre à ce seul transport. Pour la Lune, ce ne sera pas la même chose puisque les allers et retours seront rapides (réutilisation possible des mêmes lanceurs) et pourront être aussi nombreux qu’on le voudra.

Dans le cas de Mars, si on choisit la production locale, l’exigence de pureté du silicium utilisable (99,999 %), suppose un degré de développement de l’industrie locale qui n’est pas pour demain. Cependant, déjà, la société suisse Astrostrom Gmbh envisage une telle production « locale » pour construire une centrale électrique orbitant autour de la Lune (GLPS pour « Greater Earth Lunar Power Station »).

Dans l’immédiat, pour la Terre, espérons que la concurrence qui est en place ne va pas être faussée une fois de plus par la Chine. Cela pose une question, toujours non résolue et peut-être la plus sérieuse, doit-on jouer à la concurrence avec des tricheurs ? Notre libéralisme doit-il continuer à aller jusqu’à accepter ceux qui ne respectent pas les règles ? Et si on choisit de ne pas jouer « fair-play », comment fait-on pour rester concurrentiel sur tous les produits qui sont obtenus avec des matières premières ou de l’énergie dont les coûts sont faussés ?

Liens :

https://www.esa.int/Enabling_Support/Space_Engineering_Technology/SOLARIS/SOLARIS2

https://www.esa.int/Enabling_Support/Space_Engineering_Technology/SOLARIS/ESA_developing_Space-Based_Solar_Power_plant_plans

https://www.linkedin.com/company/esa-solaris/

https://www.esa.int/Enabling_Support/Space_Engineering_Technology/SOLARIS/SOLARIS2

https://astrostrom.ch/en/astrostrom_news_october_22.php

https://www.esa.int/Enabling_Support/Preparing_for_the_Future/Discovery_and_Preparation/Help_ESA_research_key_space-based_solar_power_challenges

https://www.caltech.edu/about/news/in-a-first-caltechs-space-solar-power-demonstrator-wirelessly-transmits-power-in-space

https://www.lefigaro.fr/societes/un-reseau-de-centrales-solaires-en-orbite-le-pari-fou-sur-lequel-planche-thales-20230721

Débat : l’étatisme plombe-t-il la filière nucléaire française ?

Par Michel Villette.

Le 23 juin 2023, la loi relative à « l’accélération des procédures liées à la construction de nouvelles installations nucléaires à proximité de sites nucléaires existants et au fonctionnement des installations existantes » était publiée au Journal officiel. Elle simplifie le parcours d’autorisation des projets de construction de réacteurs : concertation du public, déclaration d’utilité publique, mise en compatibilité des documents d’urbanisme, autorisations d’urbanisme ou autorisation environnementale.

Le texte, largement adopté par le parlement à la mi-mai, vise à faciliter la construction de trois séries de deux EPR 2 à l’horizon 2035 sur les sites de Penly (Seine-Maritime), Gravelines (Nord), du Bugey (Ain) et du Tricastin (Drôme), comme le président-candidat Emmanuel Macron en avait pris l’engagement à Belfort en février 2022. Ainsi, la loi supprime l’objectif de réduction à 50 % de la part du nucléaire dans le mix électrique à l’horizon 2035, ainsi que le plafonnement de la capacité de production nucléaire à 63,2 gigawatts.

Il est remarquable d’observer que cette décision technologique majeure et cet investissement public de première importance n’ont suscité pratiquement aucun débat, aucune polémique, aucune protestation.

Pourtant, de nombreuses questions se posent : comment doit se prendre la décision d’investir ou de désinvestir dans la construction de nouvelles centrales nucléaires ? Où est l’équilibre des pouvoirs en la matière ? Y a-t-il encore un débat possible une fois que le chef de l’État, en réaction aux difficultés liées au conflit en Ukraine, déclare dans l’urgence que c’est la seule solution pour assurer l’approvisionnement énergétique de la France, et qu’un maigre débat à l’Assemblée nationale débouche sur un rapide consensus plutôt que sur des études et des discussions approfondies ?

Dans son Esprit des Lois (1748), Montesquieu rappelle souvent qu’un peuple n’est libre que quand le pouvoir y arrête le pouvoir. En démocratie, la modération dans les décisions gouvernementales est supposée provenir du cadre constitutionnel et législatif, mais aussi et surtout d’un équilibre entre des forces dont les intérêts s’opposent et s’équilibrent.

Des choix lourds de conséquences

Immobiliser une nouvelle fois une grande part des capacités d’investissement de la France dans la construction de centrales nucléaires de type réacteur à eau pressurisée (PWR) – plutôt que dans autre chose –, c’est un choix majeur aux conséquences financières, techniques, écologiques et politiques lourdes à très long terme. C’est aussi la continuation d’un état technocratique centralisé, omniscience et omnipotent.

Comment assurer l’équilibre des pouvoirs dans un tel cas ? Suivant Montesquieu, quels pouvoirs faut-il mettre en concurrence pour obtenir la décision la plus éclairée, la plus raisonnable, la plus intelligente possible ?

Souvenons-nous que ce sont des décisions autoritaires – quasi militaires – qui ont marqué le lancement du programme nucléaire français en 1973. Sans débat parlementaire sérieux, ni cadre juridique adapté, un petit groupe d’hommes politiques, de hauts fonctionnaires, et d’ingénieurs ont pris l’option radicale du tout nucléaire, en faisant deux promesses à la population : la technologie nucléaire serait sans risque et fournirait une électricité bon marché.

La suite de l’histoire mondiale de l’industrie nucléaire a montré qu’il y avait des risques. Pourtant, ce n’est que très récemment que les autorités françaises ont commencé à mettre en place des exercices d’évacuation et de protection des populations qu’impliquerait un accident majeur improbable, mais pas impossible.

Quant au bas prix de l’électricité en France entre 1975 et 2005, il s’explique surtout par une sous-estimation du coût complet du kilowatt heure, et par un report de coûts cachés sur les générations futures : remboursement des emprunts, coût du démantèlement des installations, du recyclage et du stockage des déchets, coût éventuel d’un accident majeur.

L’électricité bon marché de l’époque s’explique aussi par la non-prise en compte dans le coût du kilowatt heure de tous les projets qui ont du être abandonnés, et qui ont été financés par des dépenses publiques : la filière graphite gaz abandonnée ; le réacteur Superphénix de Creys-Malville (Isère) supposé contribuer au recyclage des déchets les plus radioactifs, définitivement arrêté en 1997, enfin, le doublement du coût des nouveaux réacteurs de Flamanville (Manche) qui ne sont toujours pas en fonctionnement.

En se comportant à la fois en entrepreneur et en garant du programme nucléaire, l’État français a contribué à entretenir l’irresponsabilité financière des opérateurs. Il s’est substitué à eux. A contrario, dans d’autres pays tout aussi tentés par la solution nucléaire – les calculs des financiers et la logique des marchés ont joué le rôle de contre-pouvoir. Aux États-Unis en particulier, de nombreux projets de construction de centrales nucléaires ont été abandonnés parce que les investisseurs privés les trouvaient trop risqués ou pas assez rentables.

Ailleurs, de plus en plus de fonds privés

Depuis le début de la guerre en Ukraine, le retour au nucléaire constitue-t-il un investissement rentable, et si oui, à quel prix du kilowatt heure ? Est-ce une solution technique porteuse d’avenir et exportable ? Pour répondre à toutes ces questions, la population ne dispose aujourd’hui que de l’avis des experts de Bercy et d’EDF. Les partis politiques ne se montrent guère en état d’exercer le rôle de contre-pouvoir. Il ne serait donc pas absurde de faire appel au secteur privé, ne serait-ce que pour tester les hypothèses économiques et technologiques retenues par les experts étatiques. Il serait intéressant et utile de comparer un investissement dans des réacteurs PWR à un investissement équivalent répartit entre des économies d’énergie, des énergies renouvelables et une accèlération des recherches de pointes dans la fusion nucléaire ou, pourquoi pas, dans l’exploitation de l’hydrogène blanc récemment découvert dans le sous-sol français. Or, tous ces programmes sont en mal de financement…

Lorsqu’on veut installer un nouveau système de chauffage chez soi, on fait faire plusieurs devis et l’on étudie plusieurs solutions techniques. L’État français pourrait faire de même, évitant ainsi ses coutumiers dépassements de budgets. C’est en se tournant vers l’international que l’on peut espérer actuellement introduire suffisamment de diversité dans les débats sur les choix nucléaires. De ce point de vue, la controverse entre les Français et les Allemands sur la question nucléaire est utile et devrait stimuler la réflexion.

Faut-il, par exemple, imiter des états autoritaires – comme l’État chinois –, qui continue à construire des centrales EPR fondées sur le principe de la fission nucléaire ? Ne faut-il pas plutôt faire confiance, au contraire, à la recherche scientifique de pointe et à l’innovation comme aux États-Unis et en Allemagne, où l’on investit fortement dans le développement des centrales de nouvelle génération, basées sur le principe de la fusion ?

Depuis 2014 et encore plus depuis 2020, les investissements privés ont bondi dans ce domaine.

Graphique montrant l’évolution des investissements (en milliards de dollars) depuis 2000
Les investissements privés dans le domaine de la fusion nucléaire sont en forte hausse depuis 2014.
Greg de Temmerman, Author provided

Aux hésitations et aux réticences de la population, tiraillée entre la peur du nucléaire, l’envie d’avoir de l’électricité bon marché, et l’envie de réduire les émissions de CO2, pourraient ainsi répondre la sagesse des marchés et le talent des scientifiques en quête de technologies nouvelles. Une réflexion sur une meilleure utilisation des fonds publics impliquerait donc que l’État français devienne plus modeste, cesse de se prendre à la fois pour un régulateur, un financeur et un entrepreneur et qu’il accepte enfin une plus sage et plus prudente répartition des rôles.The Conversation

Michel Villette, Professeur de Sociologie, Chercheur au Centre Maurice Halbwachs ENS/EHESS/CNRS
, professeur de sociologie, AgroParisTech – Université Paris-Saclay

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

Ariane 6, l’arlésienne de l’industrie spatiale européenne

On en parlait déjà en 2010, on en parle toujours en 2023, on y travaille depuis 2014.

Le premier vol prévu en 2020 a été reporté à fin 2023, et il est maintenant probable qu’il n’aura lieu qu’en 2024. La fusée Ariane 6 est bien l’arlésienne de l’industrie spatiale.

Pour comparaison, sa concurrente principale, la fusée Falcon 9 de SpaceX, a été étudiée à partir de 2005 et son premier vol a eu lieu en juin 2010. Depuis cette date, 228 lancements ont été effectués et 200 lanceurs ont été récupérés tandis que le prédécesseur d’Ariane 6, Ariane 5, n’a été lancée que 116 fois sur la période 1998 à avril 2023. Elle n’a jamais été récupérée et elle est à bout de souffle. Elle n’a effectué que trois vols par an en 2020, 2021, 2022 ; un seul en 2023 ; sept les bonnes années. Rien qu’en 2023, SpaceX a lancé 34 Falcon 9. Le dernier lancement d’Ariane 5 est prévu pour ce 16 juin et sa remplaçante, Ariane 6, qui devait être prête en 2020 n’a toujours pas fait un seul vol d’essai. Comble de la honte, l’ESA a dû se résoudre à faire appel à SpaceX pour lancer sa mission spatiale « Euclid » en juillet 2023.

Il y a visiblement inadéquation de l’offre à la demande et il y a donc urgence à y remédier.

 

Quels sont les problèmes ?

D’abord, Ariane 5 est un vieux lanceur. Conçu dans les années 1990, il est non modulable. Utilisé principalement pour placement de satellites en orbite géostationnaire, pour que le prix de son lancement déjà élevé ne soit pas prohibitif par rapport à celui de ses concurrents, américains, chinois, russes ou ukrainiens, il doit pouvoir remplir sa coiffe pour idéalement atteindre 10 tonnes de charge utile. Comme les charges unitaires sont généralement inférieures à cette masse, cela a souvent contraint à allonger les délais pour un premier client en attendant qu’un second se présente afin que le prix reste « raisonnable ».

Le deuxième étage d’Ariane 5 ne peut pas être rallumé après une première ignition alors que celui des concurrents le peuvent. Ce défaut ne permet pas les ajustements d’orbite, souvent nécessaires.

L’absence de modularité de la puissance est mal adaptée pour le placement sur des orbites très différentes GEO (orbite géostationnaire) ou LEO (Low Earth Orbit) et avec des charges de masses très différentes.

Le lanceur n’est pas réutilisable. La raison est simplement que l’ESA et les responsables d’Arianespace n’en voyaient pas l’intérêt et doutaient d’ailleurs de sa faisabilité.

Elon Musk en voulant absolument y parvenir apparaissait comme un amateur pas très sérieux. Le CNES avait certes proposé en 2010 de travailler sur un lanceur réutilisable brûlant du méthane dans de l’oxygène. Mais en 2015 l’ESA avait mis fin à cette réflexion, soi-disant parce que la réutilisabilité n’était pas viable. La base du raisonnement était que si la réutilisabilité se faisait 12 fois dans l’année, on ne produirait plus suffisamment de moteurs et qu’ils coûteraient donc trop cher (!?). Il n’y avait dans cette approche simpliste et malheureuse aucune anticipation quant à la croissance possible du marché !

Ariane 5 est le fruit de la coopération de 16 pays européens, ce qui est beaucoup trop. Même si avec Arianespace la France possède 74% du capital [1], les décisions supposent une concertation préalable, très coûteuse en fonctionnaires et en argent avec les partenaires, ce qui est très difficile. Ensuite, il découle de ce caractère multinational une dispersion des centres de production qui pose aussi des problèmes de coordination et de multiples transports. Ce qui ralentit aussi les processus et coûte cher, sans compter que si la construction et l’assemblage se font en Europe, les lancements se font en Amérique du Sud.

Le coût final d’un lancement place Ariane 5 très au-dessus du coût des fusées concurrentes. Elle ne peut voler que grâce aux subventions de l’ESA et parce que, pour une raison ou l’autre, les clients sont captifs de l’ESA. Dans les années 2020, la pression concurrentielle a fini par entraîner la réduction drastique du nombre de vols (tombés à deux ou trois par an contre sept les meilleures années).

 

Quelles sont les améliorations supposées apportées par Ariane 6 ? 

Il fallait donc passer à un nouveau lanceur baptisé Ariane 6.

La prise de décision fut longue et laborieuse et le début d’exécution encore plus long. On est maintenant « dans la dernière longueur » avant le premier vol et la mise en service de ce nouveau lanceur. Il y aurait déjà 28 pré-contrats de lancements signés (mais il faudra les honorer). Cela doit-il donner espoir aux Européens ?

La réponse est tout simplement de pallier autant que possible les difficultés mentionnées ci-dessus. Et effectivement, il y aura plusieurs modifications au niveau du système de la propulsion, mais malheureusement pas de révolution :

Le moteur du lanceur (un seul, fonctionnant à l’hydrogène liquide brûlant dans LOX) sera toujours le Vulcain d’Ariane 5 (Vulcain 2.1 au lieu de Vulcain 2). Le second étage (un seul moteur, H2 et LOX – oxygène liquide) sera équipé du nouveau moteur, Vinci (déjà prévu pour équiper la dernière version d’Ariane 5, « 5ME », arrêté en 2014). Le Vinci peut être rallumé, ce qui permettra de réduire le temps de mise sur orbite.

Il y aura deux versions du lanceur : l’une avec quatre boosters latéraux (« P120 », développés pour le petit lanceur italien Vega) au lieu de deux ce qui permettra d’adapter la poussée à la charge. Ariane 62 aura deux P120 (4,5 t in GTO et 10,35 en LEO) ; Ariane 64 aura quatre P120 (11,5 t en GTO et 22,5 t en LEO).

Voilà donc des nouveautés techniques qui n’en sont pas vraiment.

Avec cela, l’ESA et les dirigeants d’Ariane espèrent diviser par deux le coût unitaire d’un lancement et porter la capacité de lancements de 7 à 11 fusées par an. Mais on parle de concevoir et construire un lanceur réutilisable pour les années 2030.

 

Les problèmes persistants ont des causes profondes et rédhibitoires

Il est toujours question de faire mieux mais sans succès. Pour preuve le retard de trois années sur la date de lancement prévu pour Ariane 6 et le faible niveau d’innovation. Le fait que ni l’impression 3D ni la réutilisabilité ne seront encore possibles pour faire baisser les coûts en sont l’expression la plus criante.

Outre la complexité résultant de l’actionnariat et des associations multiples, la qualité de la direction est peut-être aussi une partie de l’explication. Stephane Israël, le PDG d’Arianespace, est normalien et énarque. En fait, Arianespace souffre de ne pas être dirigée par un entrepreneur. Du côté de SpaceX ou de Blue Origin les patrons prennent des décisions et assument des risques. À la tête d’entités qui sont l’expression du capitalisme étatique, les hommes passent, les discussions s’éternisent, l’argent manque toujours.

De son côté, l’ESA est l’équivalent de la NASA, une énorme administration soumise à de multiples contraintes politiques et avec des hommes à leurs têtes qui ne sont pas animés par la passion de la conquête de l’espace et certainement pas par les vols habités. Joseph Aschbacher, directeur général de l’ESA est un scientifique, docteur en sciences naturelles. Donc aucun souffle ne peut venir de ce côté-là pour diriger une révolution technologique.

Arianespace est la démonstration qu’une administration ou une entité parapublique dirigée par un énarque n’est pas et ne sera jamais une véritable entreprise. Il y a une frilosité et un manque d’imagination intrinsèques à la formation des dirigeants. Même si de temps en temps Elon Musk commet des erreurs (conception de la plateforme de tirs du Starship), SpaceX a de beaux jours devant elle et le portefeuille des Européens va continuer à saigner pour un lanceur toujours à la traîne.

 

[1] Arianespace est filiale d’ArianeGroup (anciennement Airbus Safran Launchers, co-entreprise d’Airbus et de Safran).

Les animaux, ces inventeurs de génie

Par Mathilde Tahar.

 

Les animaux ne cessent de nous étonner pour le meilleur ou pour le pire, comme on l’a vu récemment avec ces attaques d’orques contre des bateaux en Espagne dont on ne connaît pas encore les causes. Ce qui est certain c’est que les animaux sont capables de développer des comportements inhabituels, voire réellement nouveaux.

Depuis plusieurs décennies, les biologistes observent de nouveaux comportements extraordinaires. Ces comportements ne sont explicables ni seulement par la génétique ni seulement par l’interaction avec l’environnement. Il semble que les animaux les aient inventés.

Cette faculté d’invention vient donc bouleverser notre conception de l’animalité, non seulement sur le plan scientifique, mais aussi philosophique. Si la philosophie a accordé, au cours des siècles, sensibilité, faculté de choix, capacité de signifier, et même d’apprendre aux animaux, la créativité a toujours été considérée comme l’apanage de l’être humain. Pourtant, les animaux inventent. Et c’est sur ce phénomène fascinant que portent mes recherches depuis 2022. Dans un travail à la croisée entre philosophie et biologie du comportement animal, je cherche à comprendre comment les animaux inventent, ce que cela change pour eux, mais aussi pour notre compréhension du monde vivant.

 

Mésanges, macaques ou hérons : des animaux inventeurs

Depuis un siècle, les éthologues s’intéressent aux inventions et innovations animales. On parle d’invention quand les animaux manifestent un comportement nouveau. Une innovation est une invention qui s’est répandue et stabilisée dans la population.

Le premier cas d’innovation identifié est celui des mésanges et des bouteilles de lait, dans le sud de l’Angleterre. Dans les années 1920, les bouteilles de lait étaient livrées devant les maisons, scellées par des opercules. Mais bien souvent, lorsque les gens récupéraient leur bouteille, ils découvraient l’opercule percé et le lait entamé. On a fini par découvrir que des mésanges charbonnières et des mésanges bleues étaient responsables de ce méfait. Cette innovation, observée pour la première fois à Swaythling en 1921, s’est répandue sur plus de trente sites vingt ans plus tard.

Le lavage des patates douces par les macaques de l’île de Kōshima/Issekinicho.

Un autre exemple connu est celui du lavage de patates douces par les macaques de l’île de Kōshima au Japon. Pour faire sortir les macaques, les chercheurs laissaient des patates douces sur la plage. Les singes les récupéraient, enlevaient le sable, et les mangeaient. Cependant, en 1953, une jeune femelle, Imo, a été observée en train de laver ses patates dans la rivière. Ce comportement inédit s’est rapidement répandu au sein de la communauté. Et Imo ne s’est pas arrêtée là : elle a ensuite commencé à emmener ses patates à l’océan et à les plonger dans l’eau salée avant chaque bouchée (pour le goût ?), transformant ainsi sa première invention.

Depuis, les exemples se sont multipliés. On pourrait citer les hérons qui font tomber des objets dans l’eau pour attirer les poissons.

Parce que certaines inventions se répandent et se stabilisent dans la population et que quelques-unes sont adaptatives, elles jouent un rôle dans les dynamiques écologiques et transforment parfois les pressions sélectives. Ainsi, ces découvertes complexifient considérablement notre compréhension de l’évolution. Mais mes travaux cherchent également à comprendre comment elles bouleversent notre approche philosophique de l’animalité.

 

L’animal, l’invention et le jeu

Cela fait longtemps que l’on ne pense plus l’animal sur le modèle cartésien de l’animal-machine. On sait que l’animal peut sentir, signifier, et même choisir son action. On reconnaît volontiers qu’il y a bien un machiniste dans la machine. Cependant, l’animal ne saurait inventer.

La tradition philosophique veut, en effet, que l’invention soit le privilège de l’être humain. Ce privilège repose sur notre capacité à prendre de la distance et à jouer avec les éléments de notre environnement. L’invention ne peut survenir que s’il y a un décalage entre la perception et l’action, si les comportements typiques ne sont pas automatiquement déclenchés par le milieu. C’est ce décalage qui nous permet de détourner et de réinventer la relation habituelle avec l’environnement. Or, ce n’est possible que si le rapport avec le monde est ambigu, si les objets du monde n’ont pas un sens univoque, nous imposant une action unique. C’est cette non-univocité qui nous permet de faire preuve d’invention en détournant les objets de leur sens premier (par exemple lorsqu’on utilise une loupe pour faire du feu).

Et c’est justement ce que la tradition philosophique refuse aux animaux. L’animal se déplacerait dans un milieu non ambigu, sans virtualité, toujours dans le présent de son action concrète.

À l’inverse, la spécificité de notre conscience serait d’ouvrir un monde chargé d’imaginaire, de virtuel. Preuve en est : l’être humain est capable de faire semblant, c’est-à-dire de jouer avec le réel, de détourner les objets, les mots, les situations pour leur donner une signification nouvelle. Selon la logique de cette tradition philosophique, qui semble avoir oublié les pages émouvantes que Montaigne consacrait au jeu avec sa chatte, les animaux devraient être incapables de jouer.

Et pourtant ils jouent. Ou du moins la plupart d’entre eux jouent : les mammifères terrestres et marin, les oiseaux ou les reptiles, aussi bien les animaux domestiques que les animaux sauvages. Le jeu donne ainsi à voir chez des animaux cette faculté de se détacher du rapport immédiat avec l’environnement que les philosophes ont identifiée comme condition de l’inventivité et qui était censée être l’apanage de l’être humain.

 

Le jeu, terrain de recherches privilégié

Ainsi, mes recherches sur l’invention animale m’ont amenée à étudier le jeu.

Il est une activité motrice qui ne semble pas avoir de bénéfices adaptatifs à court terme, qui est initiée de façon spontanée, et dans laquelle des schémas moteurs provenant d’autres contextes sont utilisés sous des formes modifiées (les mouvements prennent une forme différente, souvent exagérée) et/ou selon une séquence temporelle altérée (les mouvements ne sont pas effectués selon l’ordre habituel). Compte tenu de son inutilité, le jeu se produit lorsque les animaux se sentent en sécurité.

Dans le jeu, les animaux se meuvent dans une situation fictive : le chat joue comme si la balle était une souris, les louveteaux jouent comme s’ils étaient en train de chasser, les hyènes jouent comme si elles étaient en train de se battre.

Ce comme si ne résulte pas d’une erreur de jugement de la part des animaux, puisque certains sont capables de communiquer la dimension fictive de la situation. C’est le cas notamment chez les hyènes : par un ensemble de signaux, notamment en présentant à leur partenaire une bouche ouverte, un peu relâchée, la hyène peut communiquer à son partenaire qu’il ne s’agit pas d’un combat réel, mais ludique.

Le jeu manifeste donc bien la création active d’un virtuel, une prise de distance avec le concret qui est la condition de possibilité de l’invention. Et en effet, dans le jeu, non seulement les comportements sont détournés de leurs fonctions, mais ils sont très flexibles, et prennent parfois des formes réellement nouvelles. Le jeu est ainsi un terrain de recherche privilégié pour étudier l’invention non humaine. Mais c’est aussi certainement un terrain de recherche privilégié pour l’animal lui-même. Étant donné que le jeu ne se produit que dans des situations non dangereuses, il permet aux animaux de tester de nouveaux comportements sans courir de risques.

 

Perspectives de recherche

Des chercheurs ont fait l’hypothèse que le jeu permettrait à l’animal d’accroître sa flexibilité comportementale, et de s’entraîner à répondre de manière innovante à des situations imprévisibles. Sans aller jusqu’à dire que le jeu a évolué pour cette fonction, mon hypothèse est qu’il est en effet probable que les activités ludiques favorisent l’adaptabilité de l’individu en développant sa capacité d’invention. Le jeu pourrait ainsi faciliter l’apparition d’innovations qui n’auraient peut-être pas vu le jour autrement.

La chasse coopérative des baleines à bosse/National Geographic Wild France.

Un exemple pour l’instant hypothétique est celui du filet de bulles utilisé par les baleines à bosse lorsqu’elles chassent en groupe. Une baleine forme un tube de bulles, à l’intérieur duquel elle piège les poissons qui ne peuvent passer au travers des bulles épaisses. Pendant ce temps, les autres baleines nagent vers la surface à l’intérieur du filet, engloutissant au passage leurs proies. Cet ingénieux piège peut prendre des formes plus ou moins sophistiquées. Si on sait que ce comportement n’est pas inné, nous n’avons pas encore identifié son origine. Mais étant donné que de nombreux cétacés utilisent des bulles pour jouer, il est vraisemblable que ce comportement prédateur ait été inventé au cours du jeu.

Si l’hypothèse se vérifiait, cela signifierait que le jeu pourrait faciliter l’apparition de nouveaux comportements adaptatifs. Ainsi, les individus (et/ou les espèces) les plus joueurs seraient aussi les plus susceptibles d’envahir de nouvelles niches. L’étude du jeu animal nous permettrait à la fois de mieux comprendre le processus d’invention chez les animaux, et d’enrichir notre compréhension des processus adaptatifs.

 

 

Mathilde Tahar, Docteure en philosophie de la biologie, ATER, Université de Lille

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

L’État entrepreneurial est une chimère

L’État entrepreneur est un concept popularisé par l’économiste Mariana Mazzucato dans un livre éponyme. Celui-ci se veut une réaction à la rhétorique courante selon laquelle un État bureaucratique et inepte s’oppose à un monde entrepreneurial dynamique. Au contraire, Mazzucato prétend que la plupart des innovations actuelles, de l’iPhone aux biotechs en passant par Internet, sont dues à l’action de l’État. Sa conclusion est claire : l’État est l’innovateur le plus important pour résoudre les grands problèmes de ce monde, et c’est un concept d’avenir si les politiques ont le courage de le défendre.

Pourtant, si l’idée est séduisante, Mazzucato joue sur les mots et tord l’histoire économique pour défendre une chimère.

« Moonshot ». L’expression est restée pour désigner un grand projet très ambitieux lancé par un visionnaire. Le nom vient de la mission Apollo, lancée à la suite d’un discours du président américain John Kennedy en 1962 visant à envoyer un homme sur la Lune en le ramenant vivant, avant 1970. Ce projet représente la quintessence du projet à mission dans lequel un leader courageux et visionnaire définit un objectif ambitieux et charge la société de le réaliser. Il fut une grande réussite avec le vol Apollo 11. Le 21 juillet 1969, le monde entier assiste en direct à l’extraordinaire spectacle de l’alunissage de la capsule et des premiers pas de Neil Armstrong sur la Lune. Ce projet est devenu la référence absolue, l’étalon-or de tous ceux qui voient en l’État le guide de l’innovation : un objectif et un pilotage par la puissance publique avec l’aide d’industriels exécutants.

 

La réussite de ce type de projet peut-elle pour autant justifier un État entrepreneur ?

Loin s’en faut, et pour plusieurs raisons.

Ce type de projet n’est pas du tout entrepreneurial

Apollo était un projet politique. Il fut décidé pour des raisons de prestige. Il s’agissait, par un coup technologique, de reprendre le leadership politique sur l’URSS qui avait humilié l’Amérique avec le lancement du satellite Sputnik, puis avec le fiasco de la baie des Cochons, et qui semblait prendre l’ascendant dans la course des grandes puissances.

D’ailleurs Kennedy le dit très honnêtement :

« Nous choisissons de le faire parce que c’est difficile. »

Cela ne signifie pas qu’il était inutile ou qu’il n’aurait pas fallu le faire, loin de là. Juste que faire quelque chose pour le prestige et pour la seule raison que c’est difficile, voilà qui n’est vraiment pas entrepreneurial.

Il ne faut pas confondre R&D et entrepreneuriat

On voit la différence avec Internet, un autre exemple cité abondamment par Mazzucato.

À l’origine, Internet (qui s’appelle alors Arpanet) est un réseau financé par l’Armée américaine. Dans les années 1970, le relai est pris par une agence de recherche civile. Indéniablement, toute la partie initiale est donc lancée par la puissance publique.

De là, peut-on conclure que c’est l’État qui a permis Internet ? Pas vraiment. Lorsque l’État américain cesse de jouer un rôle dans Internet dans les années 1980, le réseau est minuscule, équipé de moins de 100 000 nœuds, principalement des universités et quelques très grandes entreprises. Les militaires ne savaient pas quoi en faire, et l’agence civile n’avait pas beaucoup plus d’idées.

Autrement dit, si l’État a incontestablement joué un rôle dans la naissance d’Internet, ce dernier n’est guère qu’un objet technique mineur sans véritable usage lorsqu’il passe la main. Internet commencera à avoir un impact lorsque la société civile, et notamment les entrepreneurs de la Silicon Valley, puis du reste du monde, s’en empareront à partir des années 1990.

La partie en amont n’est pas plus facile que la partie en aval

Selon Mazzucato, « l’État a accepté d’investir dans les phases les plus incertaines en amont pour ensuite laisser le privé sauter dans le train en marche pour la part la plus facile du trajet en aval ».

Il y a là un biais technologique anti-marché très surprenant qui considère qu’il suffit d’inventer pour qu’un produit se vende, et que cette invention est la partie noble de l’ensemble. Si c’était vrai, les fonctions marketing et commerciales n’existeraient pas !

L’immense majorité de l’investissement total dans Internet de ses débuts à ses premières années de réseau de masse, disons l’an 2000, est privée. Elle se fait après que l’État américain a passé la main.

L’innovation produit souvent des résultats inattendus

C’est le principal risque des projets moonshot. Le temps qu’ils soient achevés, le monde a changé.

À l’origine, Internet était conçu pour être un réseau militaire résistant à une attaque nucléaire. Aujourd’hui il sert à peu près à tout : jeux, messagerie, vidéo-conférence, etc. Sauf à ça. Cela montre la limite de l’idée de moonshot, et celle selon laquelle l’action de l’État entrepreneurial devrait être définie par une mission claire. Le seul cas où la mission peut être claire et le rester, c’est si le projet est inutile et gratuit, comme avec Apollo, car la mission ne va pas dépendre des changements de marché ou de société.

 

État entrepreneurial vs état d’esprit

La limite des propos d’auteurs comme Mazzucato, c’est que l’innovation est le produit d’un état d’esprit.

Les Grecs connaissaient le principe de la vapeur et étaient, théoriquement, en capacité de s’en servir, mais ils ne l’ont pas fait. Il a fallu attendre près de 2000 ans pour cela. La révolution de la machine à vapeur ne doit rien à la recherche fondamentale, ni encore moins à l’État entrepreneurial, et tout à l’état d’esprit (modèle mental) entrepreneurial qui se développe à partir du XVIIe siècle, symbolisé entre autres par James Watt.

Autrement dit, si l’invention est nécessaire, elle n’est pas suffisante. Il ne suffit pas qu’Internet soit « inventé » par l’État entre les années 1960 et 1980 pour qu’il ait l’impact que nous lui connaissons aujourd’hui. Or, c’est l’impact qui compte, pas l’invention. Les cimetières sont remplis d’inventeurs géniaux qui n’ont jamais réussi à avoir le moindre impact.

Dans le même ordre d’idée, l’ex-URSS était un modèle de R&D pilotée par l’État, étant en pointe sur des technologies comme l’aéronautique, le nucléaire, ou l’espace. Mais hors du domaine militaire, l’impact de cette R&D de qualité a été très limité, car le pays n’avait pas de classe entrepreneuriale.

 

L’insignifiance de l’action entrepreneuriale publique ?

Alors qu’on célèbre à n’en plus finir la vision du moonshot de Kennedy, on oublie qu’au même moment naissait, très discrètement, l’industrie de l’ordinateur personnel.

Contrairement à Apollo, elle est entièrement un fait entrepreneurial.

Cette révolution n’a pas été lancée en fanfare par un État visionnaire, mais initiée par une flopée d’entrepreneurs hippies, et elle a eu autrement plus d’impact qu’Apollo. Bien sûr, la Silicon Valley a tiré parti à son origine de la présence d’industries de défense liées à la Seconde Guerre mondiale, ce qui souligne à nouveau le rôle utile de l’État. Mais c’est un rôle très indirect (en gros, ces industries permettent la création de HP qui ensuite permet la Silicon Valley).

Par ailleurs, il existe de nombreuses régions à forte présence d’industries de défense qui pourtant n’ont jamais créé de Silicon Valley. On voit donc bien que, en soi, l’investissement public ne suffit pas. S’il n’y a pas d’état d’esprit entrepreneurial, l’investissement est stérile.

Si l’action de l’État ne suffit pas, est-elle cependant nécessaire ?

Qu’elle soit utile ne fait aucun doute. Mais nécessaire ? L’argument souvent avancé est que son action est indispensable pour le développement de technologies très coûteuses que lui seul peut financer. Cela a pu être vrai dans le passé, avec le nucléaire ou le spatial. Mais ces dernières années, le monde financier privé a développé une capacité d’investissement colossale qui annule l’argument. Par exemple, SpaceX a levé 10 milliards de dollars en 29 tours successifs.

Si l’idée de l’État entrepreneurial est que les entreprises privées tirent parti de la recherche publique, cela n’a rien d’original. Et contrairement à ce qu’affirme Mazzucato, c’est un bon deal qui profite à la société tout entière. L’incroyable vitalité du tissu entrepreneurial américain, qui s’appuie sur une recherche privée et publique forte, est la source de la richesse considérable du pays. L’investissement en amont génère des emplois et des contributions fiscales en aval. Il est faux de dire que les dépenses sont faites par l’État et que les bénéfices sont accaparés par le privé. Quant à prétendre que l’iPhone n’existe que grâce à l’État, c’est confondre l’invention et la recherche de technologies fondamentales avec l’entrepreneuriat.

Dire que l’État ne doit pas être entrepreneurial ne signifie pas qu’il ne doit avoir aucun rôle, bien au contraire.

Au regard des exemples évoqués (Internet, Apollo, informatique), c’est une erreur de concevoir son rôle en tant que pilote déterminé par des objectifs précis. Envoyer un homme sur la Lune, c’est précis, c’est difficile, mais c’est à peu près inutile. Ce que suggère l’histoire de l’innovation, c’est plutôt que l’État a un rôle à jouer dans le développement de technologies fondamentales. Ces technologies nécessitent des investissements sur le long terme, et leurs applications sont très incertaines. Il y a là une part de risque et de gratuité, au sens où ça ne servira peut-être à rien, qui peut justifier un investissement public. C’est précisément lorsque le but n’est pas clair et que l’entreprise n’a aucune utilité apparente que l’État peut jouer un rôle utile.

Mais la notion d’État entrepreneurial n’est qu’un verbiage qui sert de faux nez à une tentative – une de plus – de placer l’État au centre de la vie économique. On sait que ça ne marche pas, et tordre l’histoire pour faire croire le contraire n’y changera rien.

Sur le web

Déclin des oiseaux ou déclin de l’éthique scientifique ?

Une étude scientifique pour le moins discutable a fait l’objet d’une communication scandaleuse par le CNRS. Le comble ? Le communiqué de presse contribue à jeter le doute sur l’étude.

 

Des allégations sans nuances

Les prêcheurs d’apocalypse et les agribasheurs ont été approvisionnés en munitions par le Centre National de la Recherche Scientifique (CNRS) le 16 mai 2023.

Son communiqué de presse s’intitulait péremptoirement : « L’intensification de l’agriculture est à l’origine de la disparition des oiseaux en Europe ».

Pour l’obsédé textuel, ce titre signifie que l’« intensification agricole » – une notion à définir mais qui est évocatrice pour le plus grand nombre –  est la seule responsable d’un événement. Et cet événement, c’est la « disparition » des oiseaux. Or, jusqu’à plus ample informé, il n’y a pas de disparition. Et un coupable unique est, au mieux, hautement improbable.

Les faits allégués – qu’il nous faut vérifier – sont partiellement rétablis dans les points à retenir :

« Le nombre d’oiseaux a décliné de 25 % en 40 ans [en fait, c’est 36 ans, de 1980 à 2016] sur le continent européen, voire de près de 60 % [en fait, c’est 56,8 % ± 4,9, de sorte que 55 aurait été une meilleure approximation] pour les espèces des milieux agricoles.

L’agriculture intensive est la principale pression associée au déclin des populations d’oiseaux. »

La mise en cause de l’agriculture est tout aussi cinglante sur Twitter.

https://twitter.com/CNRS/status/1658403474873221121

 

Le troisième point à retenir est un cocorico sur l’ampleur et la complexité de l’étude faisant l’objet du communiqué. La routine pour les services de communication…

Pour l’étude, il s’agit de « Farmland practices are driving bird population decline across Europe » (les pratiques agricoles sont à l’origine du déclin des populations d’oiseaux en Europe) de Stanislas Rigal, Vasilis Dakos, Vincent Devictor et 48 autres auteurs dont la contribution essentielle aura été de fournir des données (et de donner à l’étude l’apparence d’une recherche internationale). L’article avait été publié la veille (outre-Atlantique, avec décalage horaire) dans PNAS.

Ce titre est guère moins nuancé s’agissant de la responsabilité d’un « déclin » – et non plus de la « disparition » ; en revanche, il reste vague sur les « pratiques » et offre même une certaine ouverture, « farmland » ayant pour sens premier les « terres agricoles ». Mais c’est essentiellement cosmétique.

 

Le déclin des oiseaux

Le déclin des oiseaux est devenu un mantra. Pourtant…

Le communiqué de presse du CNRS comporte une série de graphiques dont le plus grand montre l’évolution de l’abondance (des effectifs) des oiseaux entre 1980 et 2016 (leur présentation, quasiment sans repères, est d’une rare indigence). Selon ce graphique, les populations ont décliné de manière abrupte, de quelque 25 %, pendant la première moitié de la décennie 1980 et se sont relativement stabilisées par la suite, c’est-à-dire sur une période de quelque 30 ans.

Il est par conséquent difficile de parler de déclin des oiseaux ! Et de chercher des coupables.


Mieux encore : les auteurs de l’étude ont produit une série de trois graphiques – mais dans les informations supplémentaires et non dans le corps de l’article – sur l’évolution de l’indice multi-espèces, de l’abondance et de la biomasse de 115 espèces d’oiseaux communes (utilisées pour les indices supranationaux parmi les 170 espèces) entre 1980 et 2016 au niveau européen (Union européenne, Norvège, Royaume-Uni et Suisse).

 

Légende des graphiques

Figure S1 : Indice multi-espèces, abondance et biomasse […] des 115 espèces d’oiseaux communes (utilisées pour les indices supranationaux parmi les 170 espèces) entre 1980 et 2016.

  1. L’indice multi-espèces d’abondance relative est calculé en attribuant un poids commun à chaque espèce, quelles que soient son abondance ou sa biomasse, et montre qu’une majorité d’espèces sont en déclin.
  2. L’abondance correspond au nombre d’individus […] La biomasse a été obtenue en multipliant le poids moyen de chaque espèce par l’abondance.
  3. La trajectoire de la biomasse montre une forme convexe interprétée comme une augmentation des oiseaux protégés et rares (souvent des espèces lourdes), tandis que les espèces plus communes (et légères) diminuent.

 

La meilleure courbe de régression pour l’indice est une droite. Mais cet indice est trompeur, car il attribue un même poids à chaque espèce, quel que soit son effectif. Il peut varier dans un sens, alors que les effectifs totaux varient dans un autre. Si une espèce A, avec un million d’individus, a augmenté de 10 %, et une espèce B, avec 10 000 individus, a diminué de 10 %, l’indice reste inchangé, alors que le nombre total d’oiseaux a augmenté de 95 000.

C’est le phénomène que tend à montrer le deuxième graphique : selon la meilleure courbe de régression présentée par les auteurs, les effectifs remontent à partir du milieu de la décennie 2000. À partir de 2000 la remontée est encore plus nette pour la biomasse. Mais l’explication des auteurs laisse un peu perplexe… Beaucoup d’agriculteurs confrontés aux dégâts des corvidés et des pigeons resteront sceptiques.

Cette évolution n’apparaît pas évidente dans les graphiques du communiqué de presse du CNRS. C’est qu’il manque un groupe d’espèces, les « généralistes », lesquels ne sont pas non plus référencés spécifiquement dans l’article scientifique. Ces « oublis » interrogent…

Les généralistes sont en hausse comme le montre un graphique souvent reproduit sur les résultats du STOC (Suivi Temporel des Oiseaux Communs) en France.

Attention : les bases 100 se rapportent à des effectifs initiaux différents. (Source)

 

Les effets de l’agriculture sur le déclin des oiseaux

Les données de l’article scientifique sur l’évolution de l’avifaune ne sont pas seulement incomplètes, mais aussi problématiques.

Ainsi, le texte annonce des déclins des abondances (sans le chiffre pour les espèces généralistes…) entre 1980 et 2016 et renvoie à des graphiques montrant des évolutions des indices multi-espèces, entre 1996 et 2016, avec des pentes moyennes (indiquées par un code couleurs) issues de courbes de variations qui peuvent être très irrégulières.

Établir des corrélations à l’échelle européenne apparaît comme une mission impossible. Les auteurs affirment pourtant avoir fait mieux, en évoquant des « quasi-causalités »…

Selon leur résumé, notamment :

« Nous constatons que l’intensification de l’agriculture, en particulier l’utilisation de pesticides et d’engrais, est la principale pression à l’origine du déclin de la plupart des populations d’oiseaux, en particulier celles qui se nourrissent d’invertébrés. »

Et, selon le communiqué de presse :

« Si les populations d’oiseaux souffrent de ce cocktail de pressions  – l’évolution des températures, de l’urbanisation, des surfaces forestières et des pratiques agricoles –, les recherches montrent que l’effet néfaste dominant est celui de l’intensification de l’agriculture, c’est-à-dire de l’augmentation de la quantité d’engrais et de pesticides utilisée par hectare. Elle a entraîné le déclin de nombreuses populations d’oiseaux, et plus encore celle des oiseaux insectivores. En effet, engrais et pesticides peuvent perturber l’équilibre de toute la chaîne alimentaire d’un écosystème. »

Ici aussi, les travaux sont problématiques.

Les auteurs ont utilisé pour l’agriculture un indicateur comptable, le High Input Farm Cover qui donne la part de surface agricole occupée par les 33 % de fermes dont les dépenses en intrants par hectare sont les plus élevées. Il y a certes un lien avec l’emploi d’engrais et de pesticides, mais lequel, précisément ?

Sur une nouvelle échelle de temps – de 2007 à 2016 – cet indicateur augmente, si nous avons bien compris le texte de l’article, de 2,1 % ± 0,9 (en fait de points de pourcentage) au niveau européen, avec une légère baisse sur quelque quatre ans suivie d’une hausse et d’un plateau à partir de 2014 (selon notre interprétation du mini-graphique). Les évolutions nationales sont très disparates (par exemple, le Danemark enregistre une forte baisse ; la courbe est grosso modo en cloche pour l’Allemagne, et en dents de scie pour le Royaume-Uni).

Libération a mis côte à côte la carte des déclins (allégués) et celle de l’intensification agricole (également alléguée). Le lien de « quasi-causalité » allégué est très loin d’être évident.

On ne saurait nier que les activités économiques et autres se déroulant en milieu rural ont un effet  complexe sur l’avifaune. Mais on voit mal l’effet des engrais et des fongicides. Tout comme un effet qui serait différencié entre les espèces dites « des milieux agricoles » et les espèces « généralistes ».

En revanche, les modifications des habitats et les disponibilités en ressources alimentaires sont des facteurs pertinents, tout comme la météo, la concurrence entre espèces, la prédation, les maladies, etc. Ces facteurs agissent dans un sens ou dans l’autre. Les auteurs ont choisi de les ignorer très largement.

Dans « Oiseaux d’Europe : les populations remontent ! (mais ce n’est pas forcément une bonne nouvelle) », M. Philippe Stoop a écrit :

« Si l’expression n’avait pas pris des connotations politiques nauséabondes, on serait tenté de dire qu’il y a un grand remplacement des espèces spécialistes par les espèces généralistes. Reste à savoir pourquoi. »

Et pour le « pourquoi », l’étude de Rigal et al. n’est pas convaincante.

 

Une étude militante

Si l’on s’en tient à leur texte, l’effet de l’urbanisation est aussi important que celui de la couverture agricole à haut niveau d’intrants (coefficient PLS pour la tendance de l’urbanisation = -0,036 ± 0,015 contre -0,037 ± 0,022 pour le volet agricole).

Mais les auteurs ont choisi de communiquer sur le volet agricole.

Selon le résumé :

« Cet article contribue au plus grand défi politique et technique auquel est confrontée la politique agricole en Europe, qui s’efforce d’équilibrer la productivité élevée des pratiques agricoles intensives avec la protection de l’environnement. Les résultats sont donc cruciaux pour les décideurs politiques, les scientifiques et le grand public concernés par les questions de biodiversité et de changement global. »

Ou encore, en conclusion du résumé, ils soulignent :

« … le besoin urgent de changements transformateurs dans la façon d’habiter le monde dans les pays européens, si l’on veut que les populations d’oiseaux aient une chance de se rétablir. »

Une chance de se rétablir ? M. Philippe Stoop s’est livré à quelques calculs pour la France.

Ils montrent par exemple que l’augmentation des effectifs et de la biomasse des pigeons ramiers depuis 2001 est supérieure à la diminution correspondante de l’ensemble des espèces des milieux agricoles. En Europe, les effectifs de pigeons ramiers ont plus que doublé entre 1980 et 2021

Quels changements ? Pour quels effets ? Nous ne saurons pas.

❌