Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

AI Act : en Europe, l’intelligence artificielle sera éthique

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’Union européenne est résolue à montrer l’exemple avec son AI Act. Le texte, dont certaines modalités de mise en œuvre restent encore à préciser, peut-il seulement s’imposer en tant que référence ?

 

L’intelligence artificielle, un enjeu économique, stratégique… et règlementaire

L’intelligence artificielle revêt un aspect stratégique de premier ordre. La technologie fait l’objet d’une compétition internationale effrénée dont les enjeux touchent aussi bien aux questions économiques que militaires et sociales, avec, bien sûr, des implications conséquentes en termes de puissance et de souveraineté. Dans un tel contexte, une nation qui passerait à côté de la révolution de l’IA se mettrait en grande difficulté.

Rapidement, la question de la réglementation de l’IA est devenue un sujet de préoccupation majeur pour les États. Et pour cause, les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables. Des inquiétudes dont les participants à l’édition 2024 du Forum économique mondial de Davos se sont d’ailleurs récemment fait l’écho.

En effet, bien que des régimes existants, comme les règles sur la protection des droits d’auteur, la protection des consommateurs, ou la sécurité des données personnelles concernent l’IA, il n’existe à ce jour pas de cadre juridique spécifique à la technologie en droit international. De plus, beaucoup de doutes subsistent quant à la façon dont les règles pertinentes déjà existantes s’appliqueraient en pratique. Face à l’urgence, plusieurs États se sont donc attelés à clarifier leurs propres réglementations, certains explorant la faisabilité d’un cadre réglementaire spécifiquement dédié à la technologie.

Dans la sphère domestique comme à l’international, les initiatives se succèdent pour dessiner les contours d’un cadre juridique pour l’IA. C’est dans ce contexte que l’Union européenne entend promouvoir sa vision de la règlementation articulée autour de règles contraignantes centrées sur la protection des droits fondamentaux.

 

Un risque de marginalisation potentiel

Le Plan coordonné dans le domaine de l’intelligence artificielle publié en 2018, et mis à jour en 2021, trace les grandes orientations de l’approche de l’Union européenne. Celui-ci vise à faire de l’Union européenne la pionnière des IA « légales », « éthiques » et « robustes » dans le monde, et introduit le concept d’« IA digne de confiance » ou trustworthy AI. Proposé en avril 2021 par la Commission européenne, le fameux AI Act est une étape décisive vers cet objectif.

L’IA Act classe les systèmes d’intelligence artificielle en fonction des risques associés à leur usage. Ainsi, l’étendue des obligations planant sur les fournisseurs de solutions d’IA est proportionnelle au risque d’atteinte aux droits fondamentaux. De par son caractère général, l’approche européenne se distingue de la plupart des approches existantes, qui, jusqu’alors, demeurent sectorielles.

Parmi les grands axes du texte figurent l’interdiction de certains usages comme l’utilisation de l’IA à des fins de manipulation de masse, et les systèmes d’IA permettant un crédit social. Les modèles dits « de fondation », des modèles particulièrement puissants pouvant servir une multitude d’applications, font l’objet d’une attention particulière. En fonction de leur taille, ces modèles pourraient être considérés à « haut risque, » une dénomination se traduisant par des obligations particulières en matière de transparence, de sécurité et de supervision humaine.

Certains États membres, dont la France, se sont montrés particulièrement réticents à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Il faut dire que l’Union européenne fait pâle figure à côté des deux géants que sont les États-Unis et la Chine. Ses deux plus gros investisseurs en IA, la France et l’Allemagne, ne rassemblent qu’un dixième des investissements chinois. Bien qu’un compromis ait été obtenu, il est clair que la phase d’implémentation sera décisive pour juger de la bonne volonté des signataires.

À première vue, le AI Act semble donc tomber comme un cheveu sur la soupe. Il convient néanmoins de ne pas réduire la conversation au poncif selon lequel la règlementation nuirait à l’innovation.

 

L’ambition d’incarner un modèle

Le projet de règlementer l’IA n’est pas une anomalie, en témoigne la flopée d’initiatives en cours. En revanche, l’IA Act se démarque par son ambition.

À l’instar du RGPD, le AI Act procède de la volonté de l’Union européenne de proposer une alternative aux modèles américains et chinois. Ainsi, à l’heure où les cultures technologiques et réglementaires chinoises et américaines sont régulièrement présentées comme des extrêmes, le modèle prôné par l’Union européenne fait figure de troisième voie. Plusieurs organismes de l’industrie créative avaient d’ailleurs appelé les États membres à approuver le texte la veille du vote, alors que la réticence de Paris faisait planer le doute quant à son adoption. Cet appel n’est pas anodin et rejoint les voix de nombreux juristes et organismes indépendants.

Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse, et serait un moyen de gagner la loyauté des consommateurs. Notons d’ailleurs que huit multinationales du digital se sont récemment engagées à suivre les recommandations de l’UNESCO en matière d’IA éthique.

L’initiative se démarque aussi par sa portée. Juridiquement, le AI Act a vocation à s’appliquer aux 27 États membres sans besoin de transposition en droit interne. Le texte aura des effets extraterritoriaux, c’est-à-dire que certains fournisseurs étrangers pourront quand même être soumis aux dispositions du règlement si leurs solutions ont vocation à être utilisées dans l’Union.

Politiquement, le AI Act est aussi un indicateur d’unité européenne, à l’heure où le projet de Convention pour l’IA du Conseil de l’Europe (qui englobe un plus grand nombre d’États) peine à avancer. Mais peut-on seulement parler de référence ? Le choix de centrer la règlementation de l’IA sur la protection des droits de l’Homme est louable, et distingue l’Union des autres acteurs. Elle en poussera sans doute certains à légiférer dans ce sens. Néanmoins, des ambiguïtés subsistent sur son application. Ainsi, pour que l’AI Act devienne une référence, l’Union européenne et ses membres doivent pleinement assumer la vision pour laquelle ils ont signé. Cela impliquera avant tout de ne pas céder trop de terrains aux industriels lors de son implémentation.

Contrer les pirates russes grâce à 3 bonnes pratiques

Article disponible en podcast ici.

La Russie est connue pour ses compétences en piratages informatiques. Elle les utilise actuellement en Ukraine et pourrait se lancer à l’assaut de l’Europe pour déstabiliser des pays comme la France.

Aussi, il est de notre devoir de ne pas faciliter la vie des pirates russes en optant pour trois bonnes pratiques.

 

Garder les systèmes à jour

Si un pirate russe tombe sur une faille, il n’y a plus rien à faire. Il peut corrompre l’ordinateur de sa victime en appuyant sur une seule touche. On en découvre fréquemment de nouvelles. Une des plus graves et aussi la plus récente. La faille Log4shell touche beaucoup de logiciels et permet de prendre le contrôle des ordinateurs à distance.

Il est déjà avéré que les pirates russes utilisent cette faille pour pirater des serveurs non mis à jour en Ukraine.

À nous donc de ne pas faciliter la vie des pirates en mettant régulièrement nos systèmes à jour afin de colmater les nouvelles failles. Que ce soit les mobiles (Android, iOS), les ordinateurs (Windows, macOS ou Linux) ou les navigateurs (Chrome, Safari, Firefox), il faut toujours garder à jour nos systèmes.

Évidemment que le piratage d’un serveur d’entreprise est la cible numéro 1 d’un pirate. Mais le piratage d’un ordinateur de particulier est important. C’est depuis des ordinateurs de particuliers que les pirates lancent leurs attaques massives contre les serveurs.

De plus avec le télétravail, pirater l’ordinateur d’un particulier peut très facilement mener aux réseaux d’entreprises. Nous avons donc un rôle majeur à jouer en gardant nos systèmes à jour.

 

Protéger vos comptes en ligne

Les mots de passe du type piano123 ou marseille13! ne sont pas de bon mot de passe. Un pirate peut les retrouver facilement.

De même si on utilise le même mot de passe pour notre club de sport et notre boîte Gmail. Le pirate a juste, pour lire vos mails, à pirater le modeste site web de votre club de sport au lieu de Google. On lui mâche le travail !

Dans ce cas, la bonne pratique est d’utiliser un gestionnaire de mot de passe comme Bitwarden (gratuit et open source). Il va générer un mot de passe compliqué et différent pour chaque compte en ligne.

Tous vos mots de passe sont chiffrés dans le cloud pour être synchronisés sur vos appareils. Si le cloud ne vous tente pas, un carnet d’adresses est parfait pour conserver vos mots de passe en fonction du site web.

Cependant, ce n’est pas tout ! Les attaques par hameçonnage se multiplient. Le pirate envoie un mail urgent imitant le code graphique de votre banque. Le mail stipule que vous devez au plus vite vous connecter et il n’oublie pas de vous donner le lien.

Or ce lien est frauduleux. Il vous entraîne vers un faux site web ressemblant à votre banque. Lorsque vous entrez vos identifiants, ils seront récupérés par le pirate russe.

Évidemment dans ce cas, la première chose à faire est de ne jamais cliquer sur le lien d’un mail suspect.

Mais personne n’est infaillible. Aussi depuis quelques années est apparu le second facteur d’authentification (2FA). En plus d’entrer votre mot de passe, votre banque vous demande un code qui change à chaque connexion. Le code peut venir d’une application mobile, d’un mail ou d’un SMS.

Ainsi même en possession du mot de passe, le pirate ne pourra pas se connecter à votre compte. Le 2FA est réputé réduire de 99 % les usurpations de compte. Il est donc indispensable de l’utiliser pour votre banque, messagerie, réseau social, drive, etc.

 

Faire des sauvegardes

L’attaque informatique en pleine tendance est le rançongiciel. Le pirate s’introduit sur l’ordinateur et lance un logiciel qui va chiffrer toutes vos données contre votre gré.

Seul le pirate dispose de la clé pour déchiffrer, qu’il vous donne (ou pas) contre une rançon.

À partir du moment où vous êtes victime d’un rançongiciel, vous pouvez considérer vos données comme perdues. Le fait de payer la rançon garantit d’alimenter un réseau criminel, mais ne garantit pas de retrouver vos données.

Aussi dans ce cas, la solution est l’anticipation. Il faut faire des sauvegardes de vos appareils sur des disques durs externes. Heureusement, cela est devenu très facile. Maintenant tous les systèmes Android, iOS, Windows, macOS ou Linux proposent des outils de sauvegarde automatique. Il suffit de se procurer un disque dur externe et de prendre le temps de configurer.

En résumé pour compliquer la vie d’un pirate russe, c’est très simple. Il faut :

  • garder ses appareils et logiciels à jour
  • utiliser un gestionnaire de mot de passe et activer le second facteur d’authentification partout où c’est possible
  • faire des sauvegardes régulières sur un disque dur externe.

 

Des choses très simples qui vont rendre le pirate fou et vous mettre à l’abri de bien des problèmes.

 

Article publié initialement le 13 mars 2022.

L’agriculture française face à de graves problèmes de stratégie

Le Salon de l’agriculture s’est ouvert à Paris le 24 février.

Nous sommes dans l’attente des réponses que le gouvernement va donner aux agriculteurs, suite à la révolte qui a éclaté dans ce secteur en janvier dernier. Pour la déclencher, il a suffi d’une simple augmentation du prix du GNR, le gas-oil utilisé pour leurs exploitations, et elle a embrasé subitement toute la France.

Tous les syndicats agricoles se sont entendus pour mobiliser leurs troupes, et des quatre coins du pays, des milliers de tracteurs ont afflué vers Paris pour tenter de bloquer le marché de Rungis qui alimente la capitale. Jamais encore on avait vu une révolte d’une telle ampleur dans ce secteur. Nos agriculteurs considèrent que leur situation n’est plus tenable et qu’ils sont délaissés par les gouvernants.

Ils veulent donc se faire entendre, et pour cela ils ont décidé d’agir très vigoureusement en voulant mettre le gouvernement au pied du mur. Ils se plaignent de ne pas parvenir à gagner leur vie malgré tout le travail qu’ils fournissent. Leur revendication est simple : « nous voulons être payés pour notre travail ». Ils expliquent que leur métier est très contraignant, les obligeant à se lever tôt, faire de longues journées de travail, et prendre très peu de vacances. Ils se révoltent pour que, collectivement, des solutions soient trouvées à leurs problèmes. Des barrages routiers ont été érigés à travers tout le pays.

Un parallèle peut être fait avec le secteur industriel : après s’être mis en grève sans succès pour obtenir des augmentations de salaire, les ouvriers vont occuper leur usine alors que leur entreprise est en train de déposer son bilan.

Dans un cas comme dans l’autre, nous sommes confrontés à des problèmes sans solution, des personnes désespérées qui n’ayant plus rien à perdre.

Pourquoi le secteur agricole français est-il dans une telle situation ?

 

Des chiffres alarmants

Que s’est-il donc passé ? On avait jusqu’ici le sentiment que la France était toujours une grande nation agricole, la première en Europe. Les agriculteurs nous disent maintenant qu’ils ne parviennent pas à gagner leur vie. Ils sont au bord du désespoir, et effectivement, un agriculteur se suicide chaque jour, selon la Mutualité sociale agricole.

Un premier constat : le pays a perdu 100 000 fermes en dix années, parmi lesquelles beaucoup d’exploitants qui ne parviennent pas à se rémunérer au SMIC, la survie de l’exploitation étant assurée par des aides de l’Europe via la PAC, et par le salaire de l’épouse lorsqu’elle travaille à l’extérieur.

Un deuxième constat : 20 % de ce que nous consommons quotidiennement provient de produits importés. En effet, les importations agricoles augmentent dans tous les secteurs :

  • 50 % pour le poulet
  • 38 % pour la viande de porc
  • 30 % pour la viande de bœuf
  • 54 % pour le mouton
  • 28 %  pour les légumes
  • 71 % pour les fruits (dont 30 % à 40 % seulement sont exotiques)

 

Notre agriculture est-elle donc à ce point incapable de pourvoir à tous nos besoins alimentaires ?

Par ailleurs, les Pays-Bas et l’Allemagne devancent maintenant la France dans l’exportation de produits agricoles et agroalimentaires, alors qu’elle était jusqu’ici en tête.

Un rapport du Sénat, du 28 septembre 2022 tire la sonnette  d’alarme :

« La France est passée en 20 ans du deuxième rang au cinquième des exportateurs mondiaux de produits  agricoles et agroalimentaires […] L’agriculture française subit une lente érosion. La plupart des secteurs sont touchés : 70 % des pertes de parts de marché s’expliquent par la perte de compétitivité de notre agriculture ».

ll s’agit donc de problèmes de compétitivité, et donc de stratégie qui n’ont pas été traités en temps voulu dans chacun des secteurs, ni par les responsables syndicaux ni par les pouvoirs publics.

 

Des problèmes de stratégie non résolus

Depuis la fin de la Seconde Guerre mondiale, le développement de l’agriculture française s’est effectué sans que les dirigeants des divers secteurs d’activité aient développé la moindre stratégie pour guider leur action.

L’agriculture française avait alors un urgent besoin de se moderniser : augmentation de la taille des exploitations, mécanisation des cultures, recours aux engrais et aux produits phytosanitaires, amélioration de la formation des agriculteurs.

Mais elle a évolué homothétiquement par rapport au passé, sans aucune pensée stratégique de la part des instances gouvernementales en charge de ce secteur.

Aujourd’hui, les exploitations sont plus grandes qu’autrefois (69 Ha en moyenne), mais ne permettent pas aux exploitants de gagner leur vie correctement. Ils ont pu survivre grâce aux aides européennes via le mécanisme de la Politique agricole commune (PAC) mis en place en 1962, avec pour objectif d’obtenir l’autosuffisance alimentaire de l’Union européenne. La France est le pays qui a le plus bénéficié de ces aides, soit 9,5 milliards d’euros en 2022, accordées au prorata des surfaces. L’objectif d’autosuffisance de l’Europe a bien été atteint, mais ces aides n’ont fait que retarder le moment de se poser des questions sur la façon de faire évoluer chacune des branches de notre agriculture pour rendre nos productions concurrentielles. On ne peut rien faire de bon avec des exploitations de 69 Ha : elles sont soit trop grandes soit trop petites si on reste bloqués sur les manières de cultiver d’autrefois.

 

Les exemples hollandais et danois

Nos voisins ont généralement bien mieux résolu leurs problèmes, tout spécialement les Pays-Bas et le Danemark.

 

Le cas de la Hollande

Malgré la dimension très faible de son territoire, les Pays-Bas sont devenus de très gros exportateurs de produits agricoles et agroalimentaires. Les exploitants sont intégrés verticalement au sein d’organismes qui assurent la commercialisation.

Les Pays-Bas ont résolu le problème des petites exploitations en les équipant de serres où tous les paramètres (chaleur, lumière et humidité) sont contrôlés en permanence par des ordinateurs. C’est ainsi que sont équipés les maraîchers et les horticulteurs. Il s’agit d’une agriculture de précision, numérique : la région du Westland, notamment, est couverte de serres équipées de lampes led, au spectre lumineux spécifique.

La Hollande est devenue le numéro un mondial dans le domaine de l’horticulture : elle détient 60 % du commerce mondial des fleurs. Royal Flora Holland est le leader mondial de la floriculture avec plus de 10 millions de fleurs et plantes vendues chaque jour. Au plan technique, les Hollandais sont très avancés, et le salon GreenTech à Amsterdam rencontre chaque année beaucoup de succès. Par exemple, dans le domaine floral, les Hollandais ont réussi à créer des roses noires, des rosiers sans épines, des roses qui ne fanent pas, etc. Dans le même temps, la France a perdu 50 % de ses exploitations horticoles en dix ans, et 90 % en 50 ans.

 

Le cas du Danemark

Le Danemark s’est spécialisé dans la production porcine et l’agrobiologie.

Ce petit pays est devenu le second exportateur mondial de porcs, après les États-Unis, les exportations représentant 90 % de la production nationale. Ramenées à la population du pays, les exportations représentent 338 kg/habitant au Danemark, contre 167 kg pour l’Allemagne qui est aussi un très gros exportateur de porcs, et 7 kg pour la France.

La qualité des porcs danois est mondialement réputée, et la productivité des truies est exceptionnelle : 33,6 porcelets sevrés en moyenne par truie. Aussi, DanBred, le grand spécialiste danois de la génétique porcine, vient de s’installer en France (à Ploufragan, en Bretagne) pour aider les producteurs bretons de porcs à améliorer leur productivité. Le porc danois est appelé « cochon à pompons » (pie noir) : c’est un animal musclé, très rustique, et particulièrement prolifique.

 

Le problème français

Dans le cas de l’agriculture française, la question de l’orientation à donner à chacun des grands secteurs de notre agriculture n’a jamais été posée.

Ni les ministres successifs, ni les dirigeants de la FNSEA, le principal organisme syndical des agriculteurs français, n’ont envisagé d’élaborer une stratégie pour chacun des grands secteurs, c’est-à-dire faire des choix en raisonnant en stratèges. On a laissé les choses aller d’elles-mêmes, et on a abouti aux résultats constatés aujourd’hui.

Deux secteurs seulement ont une stratégie précise de différenciation : la viticulture et la fromagerie.

Dans ces deux secteurs, les produits sont très différenciés de ceux de leurs concurrents, et cette différenciation choisie est reconnue mondialement. Les vins français sont réputés et se vendent sur les marchés étrangers à des prix supérieurs à la concurrence. Les fromages français sont très différenciés de leurs concurrents, la façon de les produire est réglementée par la profession, et chaque terroir procède à des actions de promotion nécessaires pour en assurer la promotion.

Dans tous les autres secteurs, il n’y a pas de stratégie, ou du moins ils sont acculés à mener une stratégie de coût sans l’avoir délibérément choisie, donc le dos au mur.

Les pouvoirs publics vont devoir comprendre pourquoi. Nous donnerons deux exemples illustrant ce manque de pertinence dans la façon d’opérer.

 

Le secteur laitier 

Aujourd’hui, dans ce secteur, la norme est à des gigafermes de 1000 vaches laitières, c’est la dimension qu’il faut atteindre pour être compétitif. Ce sont des stratégies de coût. Cette manière de produire du lait de vache est venue des États-Unis, où toutes les fermes laitières ont cette dimension, et parfois bien plus encore. Cette norme s’est imposée en Europe, notamment en Allemagne, avec les vaches Holstein, une race particulièrement productive en lait, et dont la mamelle est adaptée à la traite mécanique.

En France, il n’y a aucune ferme laitière de 1000 vaches. Michel Ramery, un industriel du bâtiment (classé 387e fortune française), a tenté cette aventure, mais a du finalement y renoncer. En 2011, il a voulu créer une mégaferme laitière de 1000 vaches dans la Somme : l’administration a donné son accord, mais très vite des obstacles ont surgi, à commencer de la part de la Confédération paysanne qui refuse l’industrialisation de l’agriculture. La population locale s’est également dressée contre ce projet, suivie de l’opinion publique, puis Ségolène Royal et le ministre de l’Agriculture de l’époque, Stéphane Le Foll, qui a déclaré : « Ce projet est contraire à l’orientation du gouvernement ». Finalement, Michel Ramery, qui avait réduit son projet à 500 ou 600 vaches laitières, déçu et las de tous ces combats stériles, a fermé son exploitation.

En France, les fermes laitières sont familiales, elles élèvent 80 à 100 vaches, quelques rares exploitations 250 ou 300 laitières. Les coûts de production sont donc élevés.

Le rapport de l’European Milk Board de 2019 donne les chiffres suivants :

  • 52,54 cent/kg en France
  • 47,44 cent/kg en Allemagne
  • 44,54 cent/kg en Hollande
  • 41,44 cent/kg au Danemark

 

La France importe donc de plus en plus de lait, comme le note l’IDELE dans son numéro 537 de février 2023 : « Les importations ont explosé en 2022, +38 % par rapport à 2021 ».

Toutefois, nous restons des exportateurs importants de produis dérivés du lait.

 

Le secteur de la production porcine 

L’Europe est un très gros consommateur de viande porcine. Les deux plus gros producteurs sont l’Allemagne, avec 5,2 MT, et l’Espagne avec 4,6 MT. La France vient en troisième position, loin derrière, avec 2,2 MT seulement.

Selon Pleinchamp :

« La filière porcine est structurellement déficitaire sous l’effet d’un déséquilibre entre l’exportation de produits bruts et l’importation de produits transformés ».

Nous nous approvisionnons tout spécialement en Espagne, qui a développé spectaculairement le domaine du porc ces dernières années, et qui exporte maintenant 60 % de sa production.

Nos éleveurs se sont bien sûr modernisés et spécialisés, mais la moyenne, en Bretagne (région spécialisée dans le porc) est de 3000 têtes/exploitation, contre 5200 au Danemark. En Espagne, 2000 exploitations ont même plus de 8000 cochons, et au Danemark, 4 % des exploitations ont plus de 10000 porcs.

Selon un article de 2012 de Viandes et Produits carnés :

« La filière porcine française est à la peine : elle a un urgent besoin de stratégies concertées faisant appel à des investissements importants au niveau agricole et industriel ».

Selon la coopérative Cooperl :

« Le manque de rentabilité porte en germe des difficultés de renouvellement des éleveurs, avec en filigrane le risque d‘une perte de production à moyen et long terme ».

Certes, dans le secteur porcin, les opérateurs porcins sont de taille beaucoup plus petite que leurs concurrents étrangers : Vion en Hollande, Danish-Crown au Danemark (22 millions de porcs/an), Campofrio en Espagne, etc.

 

Les enjeux de demain

L’agriculture française a fortement besoin de se restructurer et doit pour cela s’organiser elle-même,  car rien n’est à attendre de Bruxelles, sinon des contraintes.

La nouvelle PAC (2023-2027) qui n’a pas moins de dix objectifs divers et variés, et très généraux, est à caractère essentiellement écologique. Bruxelles se soucie avant tout de « renforcer les actions favorables à l’environnement et au climat ». Il n’y a donc rien, au plan stratégique, concernant l’agriculture du pays.

Les difficultés françaises, déjà grandes, vont être amplifiées par l’arrivée de l’Ukraine à qui l’Europe ouvre maintenant grand ses portes. C’est un pays agricole immense dont la surface agricole utilisée est de 41,5 millions d’hectares (contre 26,7 Ha pour la France), avec des terres extrêmement riches (60 % des surfaces sont du tchernoziom). Ce pays a hérité de la période soviétique de structures lui permettant d’être très compétitif, d’autant que la main-d’œuvre y est bon marché.

 

Quelles solutions ?

Pour être compétitifs, il faudrait faire grandir nos exploitations et les transformer en mégafermes pour jouer sur l’abaissement des prix par les volumes, c’est-à-dire chaque fois que des solutions existent, tirer parti des économies d’échelle.

Les Français y sont opposés, et on se heurte, de surcroît, en permanence à Greenpeace qui est très actif. Cette ONG a publié une carte des fermes usines en France, soit autant de combats à mener contre l’« industrialisation » de l’agriculture. Partout, en France comme en Europe, les écologistes veillent au grain. Il faudra donc réhabiliter les produits issus des mégafermes dans l’esprit des Français, car ils se sont laissé convaincre que ces productions nuisent à la santé.

Sur les petites surfaces, et comme l’ont fait nos voisins Hollandais, les exploitants ont la solution de recourir aux serres : tomates, poivrons concombres, fraises, floriculture, etc. C’est de la culture très intensive aux rendements extrêmement élevés, et sans aléas, car tous les paramètres sont contrôlés : par exemple, dans le cas de la tomate, 490 tonnes de tomates par hectare, contre 64 tonnes en plein air, en Italie. Et, à la manière des Hollandais, il faudra que les exploitants s’intègrent dans des structures verticales leur indiquant ce qu’ils doivent produire, et prennent en charge la commercialisation des productions.

Pour l’élevage, pour autant de vaches laitières, de porcs, que de volailles, il y a la solution des fermes-usines.

Pour le lait, la norme est à des mégafermes de 1000 vaches, voire bien plus encore.

Pour les volailles, les élevages intensifs sont la règle, ce qui n’exclut pas que, marginalement, certains fermiers puissent adopter une stratégie de différenciation, comme c’est le cas, par exemple, avec les poulets de Bresse élevés en plein air.

En Espagne, à Sinarcas (près de Valence) a été créée une ferme comprenant sept batteries de 12 étages qui logent 150 000 poules pondeuses, soit un million de poules, les équipements ayant été fournis par Big Deutchman, une firme allemande de Basse-Saxe.

Pour les porcs, les mégafermes sont, là aussi, la solution : en Espagne, il existe un bon nombre de macrogranjas de 2200 truies et 40 000 porcelets.

La Chine, très gros consommateur de viande de porc, en est au gigantisme. Par exemple, à Ezhou, une entreprise privée (Yangseiang) a édifié la plus grande porcherie du monde : un bâtiment de 26 étages pouvant loger 650 000 porcs. La firme Muyuan gère une ferme de 84 000 truies qui produit 2,1 millions de porcelets par an.

Enfin, pour les grandes cultures : blé, orge, avoine, maïs, colza, tournesol nécessitent des exploitations de 250 Ha, et pas moins, car c’est la dimension indispensable pour amortir les gros matériels : tracteurs surpuissants, moissonneuses batteuses, etc.

 

La politique du statu quo

Pour répondre à la révolte des agriculteurs, Gabriel Attal s’est prononcé en faveur de notre souveraineté alimentaire.

Nous n’en sommes pas là, mais des solutions existent pour avoir des prix compétitifs. Le chantier de restructuration de l’agriculture française est colossal. Quels pourraient bien être les acteurs de cette gigantesque révolution ? Il est à craindre que trop peu d’acteurs disposent des moyens financiers voulus. Nos dirigeants, tout comme la FNSEA, paraissent complètement dépassés par l’ampleur des problèmes à résoudre.

Nous allons donc rester là où nous en sommes, plutôt que se lancer dans ce colossal remue-ménage. Cela nécessite simplement que l’on continue à subventionner nos agriculteurs (la PAC, dont la France est le premier bénéficiaire), et que les Français veuillent bien payer plus cher les productions françaises que les produits importés. Ce n’est pas ce qu’ils font, car se posent à eux des problèmes de pouvoir d’achat et de fin de mois. Il faudrait, par conséquent, ériger des barrières douanières pour protéger notre agriculture des importations étrangères : mais l’ Europe l’interdit. C’est la quadrature du cercle ! Alors, que faire ? On ne sait pas ! Pour l’instant, rien ne sera résolu, c’est plus reposant.

On va simplement parer au plus pressé :

  • repousser de dix ans l’interdiction d’emploi du glyphosate,
  • faire une pause dans l’application du Plan Ecophyto,
  • suspendre la mesure de gel de 4 % des surfaces agricoles,
  • reporter à plus tard la signature des accords avec le Mercosur, etc.

 

On demandera aux fonctionnaires de Bruxelles de bien vouloir alléger les procédures pour la taille des haies et le curage des fossés : un pansement sur une jambe de bois !

La France dans la bataille européenne pour les méga-usines 

En février 2023, je publiais l’étude « Méga-usines : 5 grandes implantations industrielles que la France ne doit pas rater en 2023 ». Alors que la France avait vu de gros projets industriels lui passer sous le nez au cours des années précédentes (Tesla, Intel), je souhaitais montrer que de nouvelles grandes implantations industrielles étaient à l’étude en Europe, et que la France ne devait pas rater cette séance de rattrapage.

Notre pays a aujourd’hui d’autant plus besoin d’accueillir les prochaines méga-usines prévues en Europe qu’elle s’est nettement plus désindustrialisée que ses voisins. Attirer ces méga-usines s’inscrit dans une bataille pour la réindustrialisation qui est encore loin d’être gagnée : le poids de l’industrie manufacturière dans le PIB français a continué de baisser pour s’établir à 9,5 % en 2022, contre 14,8 % dans la zone euro et 18,4 % en Allemagne.

Je précise que je n’oppose pas l’accueil d’investissements industriels étrangers au soutien au tissu industriel national existant : notre pays doit jouer sur les deux tableaux s’il veut remonter la pente.

 

Une année 2023 en demi-teinte

Le bilan de la France en 2023 dans la compétition pour les grandes implantations industrielles (investissements étrangers supérieurs à 500 millions d’euros) en Europe est mitigé.

D’un côté, la tendance est plutôt positive par rapport aux années précédentes : la France gagne de plus en plus d’arbitrages sur des projets importants. Le fabricant taïwanais de batteries nouvelle génération ProLogium a choisi Dunkerque pour implanter sa gigafactory de batteries (le port français était en compétition avec un site hollandais et un site allemand pour cet investissement de 5 milliards d’euros) et le géant pharmaceutique danois Novo Nordisk va investir 2,1 milliards d’euros pour agrandir son site de Chartres.

Néanmoins, deux défaites viennent assombrir le tableau : BYD, le n°1 mondial de la voiture électrique et TSMC, le n°1 mondial des puces, ont annoncé leur première usine européenne cette année, et aucun n’a choisi la France. Le constructeur automobile chinois construira son usine européenne en Hongrie, et le fabricant taiwanais de semi-conducteurs a choisi l’Allemagne.

Le tableau ci-dessous récapitule les victoires et les défaites de la France en 2023 :

 

L’année 2024 sera décisive 

Après une année 2023 mitigée, la France a l’opportunité d’attirer cette année plusieurs méga-usines sur son sol : six grands projets industriels représentant 6,5 milliards d’investissements et 5500 emplois devraient voir leur lieu d’implantation décidé en 2024. Il s’agit de :

Moderna

L’entreprise américaine a déclaré vouloir construire son usine européenne de vaccins en France, mais les négociations avec le gouvernement ne sont pas encore achevées. Moderna veut que l’État s’engage à acheter à long terme la production de la future usine.

Tesla

Elon Musk envisage une seconde gigafactory européenne et une usine de batteries à haute puissance. La concurrence est rude : l’Espagne serait en pole position pour accueillir une usine d’assemblage Tesla.

Skeleton Technologies

La start-up estonienne veut construire une usine à 550 millions d’euros pour produire ses batteries à haute puissance. Finlande, Allemagne et France sont dans la short list.

Umicore

Le groupe industriel belge hésite entre la Belgique et le nord de la France pour implanter son usine de recyclage de batterie à 500 millions d’euros.

Alteo-Wscope

Le fournisseur français d’alumine Alteo et le sud-coréen Wscope ont annoncé en novembre 2022 vouloir investir 600 millions d’euros dans les Hauts-de-France pour construire une usine de production de films de séparateurs (éléments clés de la batterie, situés entre la cathode et l’anode) de batteries électriques. Mais l’investissement n’a toujours pas été confirmé : les États-Unis seraient aussi en lice.

Une usine automobile chinoise

Soyons clair : je ne me réjouis pas de l’essor des constructeurs automobiles chinois. BYD a par exemple annoncé vouloir « détruire les vieilles légendes de l’automobile », ciblant ainsi les marques européennes. J’espère voir Renault réussir son audacieux pari industriel : en créant le pôle industriel Electricity, la marque au losange veut produire un million de véhicules électriques dans le nord de la France en 2030 (j’en parle ici).

Mais je suis pragmatique : comme l’ont fait les constructeurs japonais et coréens, les constructeurs chinois vont se faire une place sur le marché européen. Après avoir échoué à attirer BYD, il s’agit pour la France de récupérer un de ces futurs sites de production pour éviter de creuser son déficit commercial automobile. Je pense en particulier aux trois constructeurs qui ont annoncé vouloir construire une usine en Europe : SAIC MG, Chery et Great Wall Motors. D’après l’hebdomadaire Challenges, SAIC MG étudierait le site d’Hambach en Moselle : l’arrêt de la production de la SMART rend le site disponible dès cette année.

 

Attirer trois de ces six projets constituerait un résultat honorable pour la France :

  • On peut se permettre d’être optimiste concernant l’usine Moderna : l’entreprise a déclaré vouloir faire son usine européenne en France et attend une réponse du gouvernement ;
  • Attirer Skeleton Technologies, Umicore ou Alteo-Wscope permettrait de conforter l’écosystème de la Vallée de la batterie des Hauts-de-France ;
  • Réitérer le succès « Toyota Valenciennes » en gagnant une usine automobile chinoise permettrait de consolider la production automobile française et de réduire un déficit commercial automobile qui a atteint 20 milliards d’euros en 2022 ;
  • Enfin, attirer une usine Tesla serait une victoire prestigieuse, l’entreprise d’Elon Musk étant à l’avant-garde de l’automobile électrique.

 

Ces six projets d’implantation sont représentatifs des industries clés des décennies à venir : vaccins ARN, batteries et véhicules électriques. Les attirer permettrait à la France et l’Europe de se positionner sur les industries qui feront la souveraineté et la prospérité des années 2030 et 2040. Mais pour convaincre ces industriels, la France doit continuer à améliorer son attractivité. La Loi industrie verte, promulguée en octobre 2023, devrait ramener les délais d’implantation de sites industriels dans la moyenne européenne. Surtout, les industriels implantés en France bénéficient d’une électricité décarbonée grâce au nucléaire.

Mais beaucoup reste à faire : l’Hexagone dispose de peu de grands terrains industriels rapidement constructibles, et continue à surtaxer son appareil productif. Les impôts pesant sur la production demeurent à un niveau très élevé : après prise en compte des nouvelles baisses de CVAE de 2023 et 2024, l’écart restera de l’ordre de 30 milliards d’euros par rapport à la moyenne de l’Union européenne, et de 60 milliards par rapport à l’Allemagne.

Nous verrons si le prochain sommet Choose France, prévu en mai 2024, apporte son lot de bonnes nouvelles…

Pour plus de détails, voici le lien vers l’étude complète « Les 6 méga-usines que la France ne doit pas rater en 2024 ».

Autopiégés par les deepfakes : où sont les bugs ?

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhaite demander à mes étudiants en 12 heures. J’ai créé un nouveau service, basé sur des caméras high tech et de l’intelligence artificielle embarquée, pour des activités sportives avec des illustrations de situations concrètes, dans le monde réel, et un logo, comme si c’était vrai ! Je me mettrai au moins 18/20 ».

Cet échange peut paraître parfaitement anodin, mais la possibilité de produire des histoires et des visuels fictifs, perçus comme authentiques – des hypertrucages (deepfakes en anglais) – puis de les diffuser instantanément à l’échelle mondiale, suscitant fascination et désillusion, voire chaos à tous les niveaux de nos sociétés doit questionner. Il y a urgence !

En 2024, quel est leur impact positif et négatif ? Faut-il se prémunir de quelques effets indésirables immédiats et futurs, liés à un déploiement massif de son utilisation et où sont les bugs ?

 

Deepfake : essai de définition et origine

En 2014, le chercheur Ian Goodfellow a inventé le GAN (Generative Adversarial Networks), une technique à l’origine des deepfakes.

Cette technologie utilise deux algorithmes s’entraînant mutuellement : l’un vise à fabriquer des contrefaçons indétectables, l’autre à détecter les faux. Les premiers deepfakes sont apparus en novembre 2017 sur Reddit où un utilisateur anonyme nommé « u/deepfake » a créé le groupe subreddit r/deepfake. Il y partage des vidéos pornographiques avec les visages d’actrices X remplacés par ceux de célébrités hollywoodiennes, manipulations reposant sur le deep learning. Sept ans plus tard, le mot deepfake est comme entré dans le vocabulaire courant. Le flux de communications quotidiennes sur le sujet est incessant, créant un sentiment de fascination en même temps qu’une incapacité à percevoir le vrai du faux, à surmonter la surcharge d’informations de manière réfléchie.

Ce mot deepfake, que l’on se garde bien de traduire pour en préserver l’imaginaire technologique, est particulièrement bien choisi. Il contient en soi, un côté positif et un autre négatif. Le deep, de deep learning, c’est la performance avancée, la qualité quasi authentique de ce qui est produit. Le fake, c’est la partie trucage, la tromperie, la manipulation. Si on revient à la réalité de ce qu’est un deepfake (un trucage profond), c’est une technique de synthèse multimédia (image, son, vidéos, texte), qui permet de réaliser ou de modifier des contenus grâce à l’intelligence artificielle, générant ainsi, par superposition, de nouveaux contenus parfaitement faux et totalement crédibles. Cette technologie est devenue très facilement accessible à tout un chacun via des applications, simples d’utilisations comme Hoodem, DeepFake FaceSwap, qui se multiplient sur le réseau, des solutions pour IOS également comme : deepfaker.app, FaceAppZao, Reface, SpeakPic, DeepFaceLab, Reflect.

 

Des plus et des moins

Les deepfakes peuvent être naturellement utilisés à des fins malveillantes : désinformation, manipulation électorale, diffamation, revenge porn, escroquerie, phishing…

En 2019, la société d’IA Deeptrace avait découvert que 96 % des vidéos deepfakes étaient pornographiques, et que 99 % des visages cartographiés provenaient de visages de célébrités féminines appliqués sur le visage de stars du porno (Cf. Deep Fake Report : the state of deepfakes landscape, threats, and impact, 2019). Ces deepfakes malveillants se sophistiquent et se multiplient de façon exponentielle. Par exemple, vous avez peut-être été confrontés à une vidéo où Barack Obama traite Donald Trump de « connard total », ou bien celle dans laquelle Mark Zuckerberg se vante d’avoir « le contrôle total des données volées de milliards de personnes ». Et bien d’autres deepfakes à des fins bien plus malveillants circulent. Ce phénomène exige que chacun d’entre nous soit vigilant et, a minima, ne contribue pas à leur diffusion en les partageant.

Si l’on s’en tient aux effets médiatiques, interdire les deepfakes pourrait sembler une option.
Il est donc important de comprendre qu’ils ont aussi des objectifs positifs dans de nombreuses applications :

  • dans le divertissement, pour créer des effets spéciaux plus réalistes et immersifs, pour adapter des contenus audiovisuels à différentes langues et cultures
  • dans la préservation du patrimoine culturel, à des fins de restauration et d’animation historiques 
  • dans la recherche médicale pour générer des modèles de patients virtuels basés sur des données réelles, ce qui pourrait être utile dans le développement de traitements 
  • dans la formation et l’éducation, pour simuler des situations réalistes et accroître la partie émotionnelle essentielle à l’ancrage des apprentissages

 

Ainsi, selon une nouvelle étude publiée le 19 avril 2023 par le centre de recherche REVEAL de l’université de Bath :

« Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant ». (Clarke & al., 2023)

Comment en sommes-nous arrivés là ?

Comment avons-nous mis au point et démocratisé des outils technologiques de manière aussi peu appropriée, au sens de E.F. Schumacher (1973) dans son ouvrage Small is Beautiful : A Study of Economics as If People Mattered.

L’idée qu’il défend est celle d’une technologie scientifiquement éprouvée, à la fois adaptable aux besoins spécifiques de groupes d’utilisateurs clairement identifiés, et acceptables par toutes les parties prenantes de cette utilisation, tout au long de son cycle de vie, sans dégrader l’autonomie des communautés impliquées.

Considérons la période covid. Elle a très nettement favorisé une « aliénation des individus et des organisations à la technologie », entraînant des phénomènes de perte de contrôle et de confiance face à des utilisations non appropriées du numérique profitant de la vulnérabilité des citoyens (multiplication des arnaques santé par exemple). Ils se sont trouvés sur-sollicités et noyés sous un déluge de contenus, sans disposer des ressources nécessaires pour y faire face de manière pérenne et sécurisée. Avec l’IA générative et la prolifération des deepfakes, le défi d’échapper à la noyade et d’éviter d’être victime de manipulations devient démesuré !

La mécanique allant de la technologie à la société est (toujours) bien ancrée dans la théorie de Schumpeter datant du début du XXe siècle : les efforts et les investissements dans la technologie génèrent du développement économique par l’innovation et la productivité, qui se traduit ensuite en progrès social, par exemple, par la montée du niveau d’éducation. La question de l’adoption de la technologie par le marché de masse est un élément central de la réussite des acteurs économiques.

Comme le souligne très bien le philosophe Alain Damasio, les citoyens adoptent les solutions numériques (faciles d’utilisation et accessibles) et se réfugient dans un « techno-cocon » pour trois raisons principales :

  1. La paresse (les robots font à leur place)
  2. La peur associée à l’isolement (on a un réseau mondial d’amis)
  3. Les super-pouvoirs (le monde à portée de main avec son smartphone)

 

Cela s’applique parfaitement à l’IA générative : créer des contenus sans effort, presque instantanément, avec un résultat d’expert. Ainsi, dans le fantasme collectif, eu égard à la puissance réelle et exponentielle des outils disponibles, nous voilà bientôt tous écrivains, tous peintres, tous photographes, tous réalisateurs… nous voilà capables de produire en quelques minutes ce qui a priori nous aurait demandé des heures. Et dans le même temps, nous servons à l’amélioration continue des performances de ces technologies, au service de quelques grandes entreprises mondiales.

 

Deepfakes : où est le bug ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfake ? L’analyse des mécanismes de diffusion fait apparaître deux bugs principaux.

Le premier bug

Il s’apparente à ce que Nunes et al. (2014) appelle le phénomène « big bang disruption ».

La vitesse extrêmement rapide à laquelle se déploient massivement certaines applications technologiques ne laisse pas le temps de se prémunir contre ses effets indésirables, ni de se préparer à une bonne appropriation collective. On est continuellement en mode expérimentation, les utilisateurs faisant apparaître des limites et les big techs apportant des solutions à ces problèmes, le plus souvent technologiques. C’est la course à la technologie – en l’occurrence, la course aux solutions de détection des deepfakes, en même temps que l’on tente d’éduquer et de réglementer. Cette situation exige que l’on interroge notre capacité à sortir du système établi, à sortir de l’inertie et de l’inaction – à prendre le risque de faire autrement !

Le second bug

Selon Schumpeter, la diffusion technologique produit le progrès social par l’innovation et l’accroissement de la productivité ; mais cette dynamique ne peut pas durer éternellement ni s’appliquer à toutes technologies ! Si l’on considère par exemple la miniaturisation des produits électroniques, à un certain stade, elle a obligé à changer les équipements permettant de produire les puces électroniques afin qu’ils puissent manipuler des composants extrêmement petits. Peut-on en changer l’équipement qui sert à traiter les contenus générés par l’IA, c’est-à-dire nos cerveaux ? Doivent-ils apprendre à être plus productifs pour absorber les capacités des technologies de l’IA générative ? Il y a là un second bug de rupture cognitive, perceptive et émotionnelle que la société expérimente, emprisonnée dans un monde numérique qui s’est emparée de toutes les facettes de nos vies et de nos villes.

 

Quid de la suite : se discipliner pour se libérer du péril deepfake ?

Les groupes de réflexion produisant des scénarii, générés par l’IA ou par les humains pleuvent – pro-techno d’une part, pro-environnemental ou pro-social d’autre part. Au-delà de ces projections passionnantes, l’impératif est d’agir, de se prémunir contre les effets indésirables, jusqu’à une régression de la pensée comme le suggère E. Morin, tout en profitant des bénéfices liés aux deepfakes.

Face à un phénomène qui s’est immiscé à tous les niveaux de nos systèmes sociaux, les formes de mobilisation doivent être nombreuses, multiformes et partagées. En 2023 par exemple, la Région Auvergne-Rhône-Alpes a mandaté le pôle de compétitivité Minalogic et Grenoble École de management pour proposer des axes d’action face aux dangers des deepfakes. Un groupe d’experts* a proposé quatre axes étayés par des actions intégrant les dimensions réglementaires, éducatives, technologiques et les capacités d’expérimentations rapides – tout en soulignant que le levier central est avant tout humain, une nécessité de responsabilisation de chaque partie prenante.

Il y aurait des choses simples que chacun pourrait décider de mettre en place pour se préserver, voire pour créer un effet boule de neige favorable à amoindrir significativement le pouvoir de malveillance conféré par les deepfakes.

Quelques exemples :

  • prendre le temps de réfléchir sans se laisser embarquer par l’instantanéité associée aux deepfakes 
  • partager ses opinions et ses émotions face aux deepfakes, le plus possible entre personnes physiques 
  • accroître son niveau de vigilance sur la qualité de l’information et de ses sources 
  • équilibrer l’expérience du monde en version numérique et en version physique, au quotidien pour être en mesure de comparer

 

Toutefois, se pose la question du passage à l’action disciplinée à l’échelle mondiale !

Il s’agit d’un changement de culture numérique intrinsèquement long. Or, le temps fait cruellement défaut ! Des échéances majeures comme les JO de Paris ou encore les élections américaines constituent des terrains de jeux fantastiques pour les deepfakes de toutes natures – un chaos informationnel idoine pour immiscer des informations malveillantes qu’aucune plateforme media ne sera en mesure de détecter et de neutraliser de manière fiable et certaine.

La réalité ressemble à un scénario catastrophe : le mur est là, avec ces échanges susceptibles de marquer le monde ; les citoyens tous utilisateurs d’IA générative sont lancés à pleine vitesse droit dans ce mur, inconscients ; les pilotes de la dynamique ne maîtrisent pas leur engin supersonique, malgré des efforts majeurs ! Pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expression ».

Le changement de culture à grande échelle ne peut que venir d’une exigence citoyenne massive. Empêcher quelques bigs techs de continuer à générer et exploiter les vulnérabilités de nos sociétés est plus que légitime. Le faire sans demi-mesure est impératif : interdire des outils numériques tout comme on peut interdire des médicaments, des produits alimentaires ou d’entretien. Il faut redonner du poids aux citoyens dans la diffusion de ces technologies et reprendre ainsi un coup d’avance, pour que la liberté d’expression ne devienne pas responsable de sa propre destruction.

Ce mouvement, le paradoxe du ChatBlanc, pourrait obliger les big techs à (re)prendre le temps d’un développement technologique approprié, avec ses bacs à sable, voire des plateformes dédiées pour les créations avec IA. Les citoyens les plus éclairés pourraient avoir un rôle d’alerte connu, reconnu et effectif pour décrédibiliser ceux qui perdent la maîtrise de leurs outils. Au final, c’est peut-être la sauvegarde d’un Internet libre qui se joue !

Ce paradoxe du ChatBlanc, censurer les outils d’expression pour préserver la liberté d’expression à tout prix trouvera sans aucun doute de très nombreux opposants. L’expérimenter en lançant le mois du ChatBlanc à l’image du dry january permettrait d’appréhender le sujet à un niveau raisonnable tout en accélérant nos apprentissages au service d’une transformation culturelle mondiale.

 

Lucal Bisognin, Sylvie Blanco, Stéphanie Gauttier, Emmanuelle Heidsieck (Grenoble Ecole de Management) ; Kai Wang (Grenoble INP / GIPSALab / UGA), Sophie Guicherd (Guicherd Avocat), David Gal-Régniez, Philippe Wieczorek (Minalogic Auvergne-Rhône-Alpes), Ronan Le Hy (Probayes), Cyril Labbe (Université Grenoble Alpes / LIG), Amaury Habrard (Université Jean Monnet / LabHC), Serge Miguet (Université Lyon 2 / LIRIS) / Iuliia Tkachenko (Université Lyon 2 / LIRIS), Thierry Fournel (Université St Etienne), Eric Jouseau (WISE NRJ).

La proposition de loi NGT : une avancée, mais minime

1983-2014. Les biotechnologies végétales en Europe, de l’enthousiasme au suicide technologique

Pour comprendre le vote récent du Parlement européen sur ce que l’Union européenne nomme les nouvelles techniques génomiques (NGT), il faut remonter à l’invention de la transgénèse végétale en 1983. C’est-à-dire la possibilité de transférer directement un gène (un fragment d’ADN) d’un organisme quelconque, d’où ce gène a été isolé, vers une plante (c’est aujourd’hui possible pour presque toutes les espèces végétales cultivées). Cette dernière portera ainsi un nouveau caractère héréditaire. Par exemple, une résistance à certains insectes ravageurs, ou à des virus, ou encore une tolérance à un herbicide. Le champ des possibles de la sélection de nouvelles lignées de plantes s’est ainsi fortement accru.

En 1990, l’Europe (le Conseil des ministres) a publié une Directive destinée à encadrer l’utilisation hors-laboratoire de telles plantes transgéniques.

Pourquoi pas ? Seulement, cette Directive a de nombreux défauts que des scientifiques se sont évertués à pointer, sans être écoutés. Cette Directive inventa le concept juridique d’organisme génétiquement modifié (OGM). Ainsi, un terme générique, les « modifications génétiques », qui sont fréquentes dans la nature (elles ont permis l’évolution des espèces et ont créé la biodiversité) est utilisé dans un sens restrictif, pour viser réglementairement une technologie (la transgénèse) pour la seule raison qu’elle est nouvelle. De plus, la définition légale d’un OGM au sens européen inclut le concept de non « naturel », alors que le transfert de gènes existe dans la nature (en fait les biotechnologies végétales ont largement copié la nature). Le public est ainsi incité à penser que ces « modifications génétiques » sont uniquement le produit d’une opération humaine entièrement inédite et de plus contre-nature.

Jusqu’au milieu des années 1990, ni la presse ni le public ne se sont intéressés aux OGM. Tout changea lors de la crise de la « vache folle », dont le début coïncida, en 1996, avec l’arrivée des premiers cargos de soja transgénique en provenance des États-Unis. Les OGM furent assimilés à des pratiques productivistes et contre-nature, comme celle qui a conduit à l’épizootie l’encéphalopathie spongiforme bovine. Le lynchage médiatique ne pourra être stoppé… En réalité, il a été favorisé par la sotte Directive de 1990. Avec OGM, pas besoin de détailler les propriétés (favorables) de la plante transgénique : sans en savoir plus, les trois lettres suffisent pour inciter au rejet.

Celui-ci a été alimenté par une puissante coalition d’acteurs qui imposa les termes du débat : OGM = profit pour les seules « multinationales » + manque de recul, donc catastrophes sanitaires et environnementales certaines. Cette galaxie anticapitaliste, jamais à court de mensonges, incluait les organisations de l’écologie politique et altermondialistes, des organisations « paysannes » opposées à l’intégration de l’agriculture dans l’économie de marché, ainsi que des associations de consommateurs qui voyaient une occasion de justifier leur existence.

À l’origine, les partis politiques français de gouvernement affichaient un soutien aux biotechnologies végétales, jugées stratégiques (seuls les écologistes et une partie de l’extrême gauche, ainsi que le Front national y étaient opposés). Peu à peu, par soumission idéologique ou calculs électoralistes (ou les deux…), les responsables politiques firent obstacle au développement des plantes transgéniques. La culture des maïs transgéniques fut interdite par une loi en 2014.

 

L’Europe engluée dans le précautionnisme

Par une législation adaptée, par exemple, les États-Unis ont su récolter les bénéfices des biotechnologies végétales, tout en maîtrisant raisonnablement les risques. Dans une perspective de puissance, la Chine a investi massivement dans ces biotechnologies (avec cependant un frein au niveau des autorisations).

L’Europe s’est, elle, engluée dans les querelles et tractations politiques autour des OGM, mais surtout dans le précautionnisme, c’est-à-dire une interprétation du principe de précaution qui impose de démontrer le risque zéro avant d’utiliser une technologie.

Il faut voir cette dérive comme une composante de l’idéologie postmoderne, celle de la culpabilité universelle de la civilisation occidentale. Et notamment d’avoir utilisé des technologies en polluant, en causant des accidents industriels et sanitaires, et même pour produire des armes de destruction massive. Tout cela est vrai, mais par un retour du balancier déraisonnable et même suicidaire, l’idéologie postmoderne impose ainsi de nouvelles vertus, qu’il conviendra d’afficher encore et toujours, sur tous les sujets, quitte à s’autodétruire.

J’analyse cette idéologie postmoderne dans mon dernier livre, De la déconstruction au wokisme. La science menacée.

 

Une certaine prise de conscience en Europe

L’évènement majeur des dernières années est l’avènement des nouvelles biotechnologies, aussi appelées « édition de gènes » ou NGT.

Cette invention a rapidement suscité un vif intérêt par ses possibilités nouvelles pour la recherche. Elle est relativement simple à mettre en œuvre par rapport à d’autres techniques de mutagénèse (modifications des « lettres » qui compose l’ADN). Sans surprise, les opposants aux OGM ont le même regard sur ces nouvelles biotechnologies, et produisent une argumentation visant à créer des peurs. Au contraire, des États membres de l’Union européenne se sont inquiétés d’une nouvelle débâcle en Europe pour ces biotechnologies, en raison d’une réglementation OGM inadaptée.

En juillet 2023, la Commission européenne a présenté une proposition de loi sur les NGT. La première motivation de la Commission était que les végétaux NTG contribuent aux objectifs de son Pacte Vert et des stratégies « De la ferme à la table » et en faveur de la biodiversité. En fait, la Commission craint que ses objectifs, fortement marqués par l’idéologie, et non par la prise en compte de la réalité, ne puissent être atteints sans le concours des biotechnologies.

Le cadre idéologique de la proposition de la Commission reste cependant postmoderne, c’est-à-dire ancré dans une utopie du « sans tragique » étendue aux risques technologiques (principe de précaution) au détriment de la puissance de l’Europe, et où la notion de progrès s’est diluée.

Il faut cependant noter que, par rapport à des textes antérieurs, le texte de la proposition de loi de la Commission a, dans une certaine mesure, pris conscience de la réalité. Il y est dit que « la pandémie de Covid-19 et la guerre d’agression menée par la Russie contre l’Ukraine ont aggravé la situation de l’agriculture et de la production alimentaire européennes en mettant au jour les dépendances de l’Union à l’égard de l’extérieur en ce qui concerne des intrants critiques pour l’agriculture ».

 

La proposition de loi NGT : une avancée, mais minime

Malgré l’inadaptation de la Directive OGM (reconnue par certains dans la Commission), celle-ci n’est pas modifiée. Les insertions d’ADN étranger (souvent les plus utiles) qui peuvent aussi être réalisées par la technologie NGT, resteront soumises à cette Directive.

Pour les autres produits des NGT, c’est-à-dire des modifications plus ponctuelles des lettres de l’ADN (mutagénèse), deux catégories seront créées en fonction de l’étendue de la mutagénèse, qui allègent soit fortement, soit plus modérément, les obligations imposées par la réglementation.

La catégorie NGT-1 concerne les lignées de plantes considérées comme équivalentes à celles qui auraient pu être obtenues (en théorie) par sélection de plantes par des méthodes dites conventionnelles, en statuant (sans aucune base scientifique) que le nombre de lettres modifiées ne doit pas dépasser 20 (pourquoi 20 et pas 21 ?). Sinon, le produit est classé dans la catégorie NGT-2, donc impossible à commercialiser en Europe en raison du coût exorbitant de l’évaluation des risques imposée par la Directive OGM, même partiellement alléguée.

Sont en revanche exclues d’office de la catégorie 1, selon les amendements du Parlement, les plantes tolérantes à un herbicide, par pure idéologie antipesticide, sans distinction au cas par cas (par exemple si la variété biotechnologique permet d’utiliser un herbicide plus respectueux de l’environnement que ce qui est pratiqué conventionnellement).

Est en revanche inclus dans la catégorie 1, l’insertion d’ADN (y compris de plus de 20 lettres) si cet ADN provient d’un organisme qui aurait pu servir dans des croisements opérés par les sélectionneurs. Un choix, là aussi sans base scientifique, qui procède de l’idée fausse que si le produit aurait pu être obtenu (en théorie) par des méthodes conventionnelles – comprendre naturelles pour la Commission – alors ce produit ne nécessite pas d’évaluation des risques.

Le texte amendé du Parlement introduit à de nombreuses reprises « Conformément au principe de précaution », ce qui laisse augurer des contentieux devant les cours de justice, qui pourraient prendre argument que l’autorisation d’une lignée NGT n’est pas conforme à ce principe.

 

L’Europe ne rattrapera pas son décrochage

390 produits issus des biotechnologies végétales (dans le jargon scientifique, on parle d’évènements de transformation) ont été autorisés dans le monde depuis 1995. Dont seulement deux dans l’Union européenne (dont un qui n’est plus commercialisé, et l’autre uniquement cultivé en Espagne, un maïs résistant à certains insectes ravageurs).

Si l’on examine les brevets (comme reflet de la vitalité inventive dans un domaine, en l’occurrence biotechnologique), l’Europe a largement décroché par rapport aux États-Unis et à la Chine (le lecteur est invité à voir la figure 1 de notre publication dans un journal scientifique, qui concerne les brevets basés sur la technologie NGT la plus utilisée). On peut parler d’un contexte idéologique en Europe en défaveur des brevets, et donc de l’innovation, au moins en ce qui concerne les biotechnologies. Les amendements introduits par le Parlement dans le projet de loi NBT en « rajoute même une couche » dans l’obsession anti-brevet, alors que la législation sur les brevets biotechnologiques est équilibrée en Europe, et ne menace aucunement les agriculteurs (en Europe, les variétés de plantes ne sont pas brevetables, seules les inventions biotechnologiques en amont le sont ; l’agriculteur peut ressemer des graines, même de variétés issues des biotechnologies…).

Comme seule une toute petite partie des inventions potentiellement produites par les NGT pourra trouver grâce aux yeux de la législation européenne, il est illusoire de penser que la situation des biotechnologies s’améliorera significativement dans l’Union. De plus, le 7 février 2024, le projet de loi n’a obtenu qu’une courte majorité des eurodéputés (307 voix pour, 236 contre), ce qui laisse augurer d’autres batailles de tranchées visant à bloquer les biotechnologies végétales.

*L’auteur de ces lignes n’a pas de revenus liés à la commercialisation de produits biotechnologiques. Ses propos ne refètent pas une position officielle de ses employeurs.

La stratégie de Bruxelles sur l’IA bénéficiera-t-elle d’abord au Royaume-Uni ?

Par : Jason Reed

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l’Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d’innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l’Union européenne perçoivent différemment l’industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d’innovation. L’Union européenne, quant à elle, poursuit une réglementation antitrust agressive sur plusieurs fronts.

 

La Déclaration de Bletchley

Cette tendance apparaît clairement dans le domaine de l’intelligence artificielle, peut-être le domaine d’innovation technologique le plus attrayant pour un organisme de réglementation. Rishi Sunak, Premier ministre britannique, est un féru de technologie et se sentirait comme un poisson dans l’eau dans la Silicon Valley. On le retrouve d’ailleurs régulièrement en Californie où il passe ses vacances. Cette vision du monde se reflète dans l’approche du gouvernement britannique en matière d’IA.

En novembre 2023, Rishi Sunak a même accueilli le premier sommet mondial sur la sécurité de l’IA, le AI Safety Summit. À cette occasion, des représentants du monde entier – y compris des États-Unis, de l’Union européenne et de la France – ont signé au nom de leur gouvernement ce qu’on appelle la « Déclaration de Bletchley ».

Sur la Déclaration de Bletchley, le gouvernement britannique adopte un ton modéré.

Le communiqué officiel indique :

« Nous reconnaissons que les pays devraient tenir compte de l’importance d’une approche de gouvernance et de réglementation pro-innovation et proportionnée qui maximise les avantages et prend en compte les risques associés à l’IA ».

En d’autres termes, la Grande-Bretagne n’a pas l’intention de laisser libre cours à l’IA sur un marché non réglementé, mais ne considère pas non plus l’innovation comme une menace. Elle reconnaît que ne pas exploiter les opportunités de l’IA reviendrait à faire une croix sur les bénéfices que les générations actuelles et futures pourraient en tirer. La Déclaration de Bletchley incarne une approche réfléchie de la réglementation de l’IA, qui promet de surveiller de près les innovations afin d’en détecter menaces liées à la sécurité, mais évite de laisser le gouvernement décider de ce que l’IA devrait ou ne devrait pas faire.

 

Rishi Sunak, Elon Musk et l’avenir de la Grande-Bretagne

La position britannique adopte donc un ton très différent de celui des régulateurs du reste du monde, qui semblent considérer toute nouvelle percée technologique comme une occasion de produire de nouvelles contraintes. Dans l’Union européenne, par exemple, ou aux États-Unis de Biden, les régulateurs sautent sur l’occasion de se vanter de « demander des comptes aux entreprises technologiques », ce qui signifie généralement freiner la croissance économique et l’innovation.

La Grande-Bretagne est sur une voie qui pourrait, si elle reste fidèle à sa direction actuelle, l’amener à devenir un des principaux pôles technologiques mondiaux. Rishi Sunak a même profité du sommet pour interviewer Elon Musk. « Nous voyons ici la force la plus perturbatrice de l’histoire », a déclaré Musk à Sunak lors de leur discussion sur l’IA. « Il arrivera un moment où aucun emploi ne sera nécessaire – vous pourrez avoir un travail si vous le souhaitez pour votre satisfaction personnelle, mais l’IA fera tout. »

De SpaceX à Tesla en passant par Twitter, Elon Musk, bien qu’il soit souvent controversé, est devenu un symbole vivant du pouvoir de l’innovation technologique et du marché libre. En effet, demander à un Premier ministre, tout sourire, de venir le rejoindre sur scène avait sûrement vocation à envoyer un signal au monde : la Grande-Bretagne est prête à faire des affaires avec l’industrie technologique.

 

Bruxelles, Londres : des stratégies opposées sur l’IA

L’approche britannique plutôt modérée de l’IA diffère radicalement de la stratégie européenne. Bruxelles se targue avec enthousiasme d’avoir la première réglementation complète au monde sur l’intelligence artificielle. Sa loi sur l’IA, axée sur la « protection » des citoyens fait partie de sa stratégie interventionniste plus large en matière d’antitrust. Le contraste est limpide.

Si la Grande-Bretagne, en dehors de l’Union européenne, a réussi à réunir calmement les dirigeants mondiaux dans une pièce pour convenir de principes communs raisonnables afin de réglementer l’IA, le bloc européen était plutôt déterminé à « gagner la course » et à devenir le premier régulateur à lancer l’adoption d’une loi sur l’IA.

 

Les résultats de la surrèglementation de l’UE

La Grande-Bretagne post-Brexit est loin d’être parfaite, mais ces deux approches opposées de la gestion de l’IA montrent à quelle vitesse les choses peuvent mal tourner lorsqu’une institution comme l’Union européenne cherche à se distinguer par la suproduction normative. Une attitude qui tranche avec le comportement adopté par les ministres du gouvernement britannique à l’origine du projet de loi sur la sécurité en ligne, qui ont récemment abandonné leur promesse irréalisable d’« espionner » tout chiffrement de bout en bout.

Les résultats de la surrèglementation de l’Union européenne sont déjà évidents. OpenAI, la société à l’origine de ChatGPT soutenue par Microsoft, a choisi de placer sa première base internationale à Londres. Au même moment, c’est Google, autre géant de la technologie mais également leader du marché dans la course aux pionniers de l’IA via sa filiale DeepMind, qui a annoncé son intention de construire un nouveau centre de données d’un milliard de dollars au Royaume-Uni. Ces investissements auraient-ils été dirigés vers l’Union européenne si Bruxelles n’avait pas ainsi signalé aux entreprises technologiques à quel point le fardeau réglementaire y serait si lourd à porter ?

 

Se rapprocher de Washington ?

Malgré des discours d’ouverture et des mesures d’encouragement spécifiques destinés à attirer les startupeurs du monde entier, les bureaucrates européens semblent déterminés à réglementer à tout-va. En plus d’avoir insisté sur la nécessité de « protéger » les Européens de l’innovation technologique, ils semblent également vouloir recueillir l’assentiment d’officiels Américains sur leurs efforts de réglementation.

Le gigantesque Digital Markets Act et le Digital Services Act de l’Union européenne semblaient bénéficier de l’approbation de certains membres de l’administration Biden. La vice-présidente exécutive de la Commission européenne, Margrethe Vestager, a été photographiée souriant aux côtés des fonctionnaires du ministère de la Justice, après une visite aux États-Unis pour discuter de ses efforts antitrust.

 

Un scepticisme partagé à l’égard de la technologie

Lors du voyage transatlantique de Margrethe Vestager, il s’est révélé évident que l’Union européenne et les États-Unis adoptaient une approche similaire pour attaquer la technologie publicitaire de Google par crainte d’un monopole. Travaillaient-ils ensemble ? « La Commission [européenne] peut se sentir enhardie par le fait que le ministère de la Justice [américain] poursuive pratiquement la même action en justice », a observé Dirk Auer, directeur de la politique de concurrence au Centre international de droit et d’économie.

Lina Khan, la présidente de la Federal Trade Commission des États-Unis, connue pour avoir déjà poursuivi des entreprises technologiques en justice pour des raisons fallacieuses, a également indiqué qu’elle partageait le point de vue de l’Union européenne selon lequel la politique antitrust doit être agressive, en particulier dans l’industrie technologique.

Elle a récemment déclaré lors d’un événement universitaire :

« L’une des grandes promesses de l’antitrust est que nous avons ces lois séculaires qui sont censées suivre le rythme de l’évolution du marché, des nouvelles technologies et des nouvelles pratiques commerciales […] Afin d’être fidèles à cette [promesse], nous devons nous assurer que cette doctrine est mise à jour. »

 

Les électeurs européens sanctionneront-ils la stratégie de Bruxelles sur l’IA en juin prochain ?

La volonté de Bruxelles d’augmenter de manière exponentielle le fardeau réglementaire pour les investisseurs et les entrepreneurs technologiques en Europe profitera au Royaume-Uni en y orientant l’innovation.

Malgré son immense bureaucratie, l’Union européenne manque de freins et de contrepoids à son pouvoir de régulation. Des membres clés de son exécutif – comme les dirigeants de la Commission européenne, telle qu’Ursula von der Leyen – ne sont pas élus. Ils se sentent toutefois habilités à lancer des croisades réglementaires contre les industries de leur choix, souvent technologiques. Peut-être, cependant, seront-ils surpris et changeront-ils d’attitude à la vue des résultats des élections européennes qui auront lieu en juin prochain.

Will the EU AI Act benefit the UK first ?

Par : Jason Reed

It has been four years since the UK formally left the European Union. Since Brexit, Britain has been through three prime ministers and countless government crises. Nonetheless, despite the chaos of Westminster, it is already becoming clear how differently regulators in the UK and EU view the technology industry. The UK is a mixed bag, with some encouraging signs emerging for fans of freedom and innovation. The EU, meanwhile, is pursuing a path of aggressive antitrust regulation on various fronts.

 

AI ‘Bletchley Declaration’

Nowhere is this trend clearer than in artificial intelligence, perhaps the most inviting area of innovation in tech for a regulator to get their teeth into. Rishi Sunak, Britain’s prime minister, is tech-savvy and would not look out of place in Silicon Valley. He is even found holidaying regularly in California. This worldview filters through into the British government’s approach to AI.

Sunak hosted the world’s first AI Safety Summit in November 2023. Representatives from all over the world – including from the US, EU, and France – signed a document he created called the “Bletchley Declaration” on behalf of their governments.

In describing the Bletchley Declaration, the British government strikes a tone of moderation. “We recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI,” says the official statement.

In other words, Britain has no intention of allowing AI to run wild in an unregulated marketplace, but it also does not see innovation as a threat. It recognises that failing to harness the opportunities of AI would mean letting down current and future generations who might benefit from it. The Bletchley Declaration represents a thoughtful approach to regulating AI which promises to monitor innovations closely for signs of threats to safety but avoids placing government at the centre of the narrative and being prescriptive about what AI should or should not do.

 

Rishi Sunak, Elon Musk, and Britain’s Future

The British position, therefore, strikes a very different tone to activist regulators elsewhere in the world who appear to view any and all new technological breakthroughs as an opportunity to flex their muscles. In the EU, for example, or in Biden’s USA, regulators leap at the opportunity to boast about “holding tech companies to account”, which generally means making economic growth and innovation more difficult.

Britain is on a different path which could, if it stays true to its current direction, mark it out as a future hub of technological and economic activity. Sunak even took the opportunity during the summit to interview Elon Musk. “We are seeing the most disruptive force in history here,” said Musk to Sunak in their discussion about AI. “ »There will come a point where no job is needed – you can have a job if you want one for personal satisfaction, but AI will do everything.”

From SpaceX to Tesla to Twitter, Musk has become a harbinger of the power of technological innovation and the free market. Although he is often controversial, embracing him in this way by having a smiling prime minister speak to him on stage was surely intended to send a signal to the world that Britain is ready to do business with the tech industry.

 

Brussels does things differently

This moderate British approach to AI stands in contrast with the EU’s strategy. Brussels boasts enthusiastically that its AI Act is the world’s first comprehensive regulation on artificial intelligence, focussed on ‘protecting’ citizens from AI and forming part of the EU’s broader interventionist strategy on antitrust. The contrast is clear: Britain is willing to work with tech companies, whereas the EU believes it must suppress them.

While Britain, outside the EU, was able to calmly get world leaders in a room together to agree on sensible common principles for regulating AI, the European bloc was instead determined to ‘win the race’ and become the first regulator to break ground on passing an AI law.

 

The results of EU overregulation

Post-Brexit Britain is far from perfect, but these two contrasting approaches to dealing with AI show how quickly things can go wrong when an institution like the EU gets into its head that it has a duty to regulate more and more with each passing year. There are encouraging signs elsewhere, too. The British government ministers behind the ‘online safety bill’ finally dropped their unworkable promise to ‘spy’ on all end-to-end encryption.

The results of the EU’s overregulation are already becoming clear. OpenAI, the company behind ChatGPT which is backed by Microsoft, chose London as the location for its first international base. Meanwhile, Google, another tech giant which is also a market leader in the AI pioneering race via its DeepMind subsidiary, announced plans to build a new $1bn data centre in the UK. Would these investments have gone to the EU instead if Brussels had not sent the message to tech companies that Europe would be a harsh regulatory environment for them?

 

Cozying up to Washington?

Despite claiming to want to empower a generation of tech entrepreneurs, European bureaucrats seem determined to regulate everything in sight. No antitrust measure is off limits. As well as their insistence on the need to ‘protect’ Europeans from technological innovation, they also seem to enjoy winning attention from across the Atlantic Ocean with their regulatory endeavours.

The EU’s mammoth Digital Markets Act and Digital Services Act seemed to enjoy approval from some appointees of President Biden. European Commission executive vice president Margrethe Vestager was photographed smiling with officials in the department of justice after travelling to the US to discuss her antitrust efforts.

 

A shared scepticism of tech

Around the time of Vestager’s trans-Atlantic trip, it became apparent that the EU and the US were taking a similar approach to attacking Google’s advertising technology out of fears of a monopoly. Were they working together? “The [European] commission may feel emboldened by the fact that the [US] DOJ is pursuing virtually the same lawsuit”, observed Dirk Auer, director of competition policy at the International Center for Law and Economics.

Lina Khan, the activist chairwoman of the US Federal Trade Commission who fills her days by taking tech companies to court for spurious reasons, has also made clear that she shares the EU’s view that antitrust must be active and aggressive in its battles against the tech industry. “One of the great promises of antitrust is that we have these age-old statutes that are supposed to keep pace with market developments, new technologies and new business practices,” she said at a university event recently. “In order to be faithful to that [promise], we need to make sure that doctrine is updated.”

 

What happens next?

Whether the EU’s true motivations are genuine or political, the fact remains that Brussels’ apparent willingness to exponentially increase the regulatory burden for tech investors and entrepreneurs in Europe will only hurt Europeans, and perhaps indirectly benefit the UK by directing innovation there instead.

Despite its immense bureaucracy, the EU lacks checks and balances on its regulatory power. Key members of its executive – such as the leaders of the European Commission, like Ursula von der Leyen – are unelected. They feel empowered to launch regulatory crusades against industries of their choosing, often technological. Perhaps, though, they will be shocked into changing their ways after the results of the European parliamentary elections in a few months’ time.

La super-conductivité à température ambiante, nouvelle frontière technologique ?

Quelle serait la prochaine découverte d’envergure, comme le pétrole ou la semi-conductivité du silicium ? Il se pourrait bien que ce soit la super-conductivité à température ambiante. Celle-ci est de nature à révolutionner les modes de production et le confort individuel dans les années à venir.

 

Une conduction électrique parfaite

La conductivité d’un matériau représente sa capacité à résister au courant. Les matériaux conducteurs comme l’or ou le cuivre laissent facilement passer le courant. Alors que les matériaux isolants comme le caoutchouc le bloquent.

Toute l’électronique repose sur les matériaux semi-conducteurs, comme le silicium. Leur résistance est pilotable en jouant sur leur propriété. Les super-conducteurs sont des matériaux sans la moindre résistance au courant. Ces matériaux existent déjà, comme le niobium-titane, mais cette propriété intervient uniquement à la température de -263°C (pour le niobium-titane).

 

Un courant sans limites

Un matériau exploitable sans perte de courant permet un phénomène spectaculaire : la lévitation magnétique. Un train est en construction au Japon (SCMaglev) en remplacement des trains magnétiques par bobine, mais encore une fois, il faut refroidir le matériau. Un super-conducteur à température ambiante permettra de généraliser ces nouveaux trains.

Un autre phénomène spectaculaire de la superconduction est l’apparition d’effets quantiques à notre échelle, telle la jonction Josephson, alors que les effets quantiques sont plutôt réservés à l’échelle de l’atome. La généralisation des matériaux super-conducteurs généralisera aussi les ordinateurs quantiques.

Même de bons conducteurs comme l’or ou le cuivre subissent des pertes qui engendrent de la chaleur par effet Joule. Dès lors que le courant devient trop fort, le métal fond. Ce phénomène est utilisé dans l’industrie pour usiner (EDM ou forge par induction). Cependant, il s’agit bien souvent d’une contrainte qui impose une limite de courant capable de transiter dans un câble. Avec un câble super-conducteur, l’électricité de tout Paris pourrait passer dans un seul câble électrique !

Le courant peut circuler indéfiniment dans une boucle superconductrice, on peut donc l’utiliser pour stocker de l’électricité (SMES). Mais encore une fois, ce réservoir à électron nécessite des températures extrêmes, ce qui le rend trop coûteux pour une utilisation grand public.

En déverrouillant la limite du courant dans un câble, on déverrouille également les champs magnétiques à haute énergie. Ces champs vont permettre d’accroître la précision des scanners médicaux IRM, leurs résolutions étant corrélées à la puissance du champ magnétique produit. L’armée pourrait s’intéresser au canon de Gauss dans lequel un projectile est catapulté par un champ magnétique.

 

Le monde du plasma

Enfin, le champ magnétique permet la manipulation du plasma. Le plasma est le quatrième état de la matière, il se produit à haute température quand les électrons se détachent des atomes et circulent librement dans le gaz, qui devient sensible aux champs magnétiques.

Un champ magnétique permet de manipuler un plasma aussi bien en le cloisonnant dans un volume donné, en le mettant en mouvement, ou en faisant varier sa température. Les superconducteurs à température ambiante vont donc faire avancer tous les domaines autour du plasma comme le laser, la fusion nucléaire, les canons à plasma ou la recherche fondamentale.

Le super-conducteur à température ambiante représente une nouvelle frontière technologique. Il permet de faire circuler des courants sans perte et donc sans limite dans un matériau. Cela ouvre les portes des champs magnétiques à haute énergie, et avec eux le monde des plasmas.

Chacune de ces étapes représente un progrès pour l’humanité.

120 ans après le vol des frères Wright, quelques leçons à propos de l’innovation

Il y a 120 ans, par une froide matinée d’hiver, les frères Wright font décoller l’avion sur lequel ils travaillent depuis des mois. C’est une machine très complexe à piloter. Ce jour-là, ils réussissent à effectuer quatre vols de seulement 30 à 260 mètres qui se terminent chaque fois assez brutalement. Mais la boîte de Pandore est ouverte.

On peut tirer au moins cinq leçons de cet épisode.

 

Il est difficile d’estimer la portée d’une invention sur le long terme

Le 17 décembre 1903, personne n’imagine ce que deviendra l’aviation. Il s’agit tout au plus d’un hobby. Les frères Wright sont tout surpris lorsque la nouvelle du vol étant connue, ils reçoivent… une commande du Français Louis Ferdinand Ferber, un autre pionnier de l’aviation.

 

De grandes inventions voient le jour alors qu’elles étaient jugées impossibles

Ainsi, seulement 9 semaines avant le vol historique, le New York Times écrit un article au vitriol pour se moquer des frères Wright, estimant qu’il faudrait au moins… un million d’années pour faire voler un avion, à supposer que ce soit possible.

Nous sommes aveugles à notre capacité de progrès car nous sommes enfermés dans nos modèles mentaux.

 

Nous ne faisons pas forcément attention à ce qui est significatif, et ce à quoi nous faisons attention n’est pas le plus significatif

Il est difficile d’évaluer les conséquences à long terme des événements, à savoir distinguer ce qui compte de ce qui ne compte pas dans la montagne de faits quotidiens. Nous ne sommes pas forcément conscients que ce qui nous est présenté dans notre fil d’actualité favori est là parce qu’il a été sélectionné par quelqu’un, c’est-à-dire que nous obtenons les nouvelles à travers un filtre.

Le vol réussi des frères Wright a seulement fait quelques entrefilets dans la presse, alors qu’il s’agissait d’une révolution.

 

Les grandes inventions ont souvent été le fait d’individus à la marge

Les frères Wright sont des fabricants de vélo qui s’ennuient. Ils sont convaincus que l’on peut faire voler un avion, ce qui semble ridicule à nombre de leurs contemporains, et en particulier aux nombreux experts. L’idée qu’on puisse faire voler quelque chose de plus lourd que l’air semble une limite physique infranchissable.

 

Les inventeurs font l’objet de sarcasmes… jusqu’à ce qu’ils réussissent

On se moque de leur ambition et de leurs croyances, car ils semblent offenser quelque Dieu par leur attitude prométhéenne. On moque leur démarche qualifiée aisément de lubie de riche. On affirme que si elle réussit, leur invention ne servira à rien : qui peut imaginer utiliser un avion autrement que pour s’amuser ? On sait bien qu’il n’y a pas de demande !

 

Le vol des frères Wright, c’était il y a 120 ans, mais il semble que rien n’a changé.

Sur le web.

Sécurité aérienne : une piste pour détecter les turbulences avec des lasers

Les auteurs : Olivier Emile, enseignant chercheur en physique, Université de Rennes. Janine Emile, professeur en physique, Université de Rennes

 

En novembre 2001, un Airbus A300 d’American Airlines parti de New York s’est écrasé deux minutes après le décollage, provoquant la mort des 260 personnes à bord. C’était peu de temps après les attentats aériens du World Trade Center, mais cette fois, l’accident avait des causes bien différentes : des turbulences de sillages, c’est-à-dire des structures tourbillonnantes fortes générées par le passage des avions, ce jour-là créées par un Boeing 747 de Japan Airlines qui avait décollé peu auparavant.

Plus récemment, un avion d’affaire Bombardier Challenger 604 a subi une chute de 3000 mètres dans le sillage d’un A380. Plusieurs passagers ont été blessés et l’intérieur de l’avion a été détruit. Si des incidents sans gravité sont assez fréquents (un par mois), des accidents sérieux surviennent en moyenne tous les deux ans.

En plus d’être responsables de plusieurs catastrophes aériennes, elles sont un frein au développement aérien. En effet, afin de limiter leurs effets, un délai de sécurité arbitraire est imposé entre chaque avion au décollage et à l’atterrissage. Une distance de sécurité minimale doit aussi être respectée en vol – distance que n’ont probablement pas respecté Maverick et Goose dans Top Gun, perdant ainsi le contrôle de leur F-14.

Détecter directement ces turbulences de sillage et leur évolution pourrait permettre de réduire considérablement ces délais et distances, et d’optimiser la fréquentation des pistes des aéroports – renforçant la sécurité aérienne et réduisant les coûts d’utilisation. Malheureusement, arriver à caractériser complètement un tourbillon, surtout un tourbillon gazeux, est assez difficile.

Si, dans le registre fictionnel, les chasseurs de tornades de Twisters avaient dû sacrifier une voiture, au péril de leurs vies, pour que des billes puissent être aspirées par la tornade et ainsi permettre, par leur écho électromagnétique, de caractériser complètement la tornade, dans la réalité, ce sont des avions avec un équipage qui vont collecter les informations au cœur des dépressions, dans des conditions évidemment très difficiles.

Pour éviter ces dangers, nous cherchons à développer un dispositif capable de sonder à distance ces tourbillons. Un tel dispositif pourrait aussi avoir un intérêt pour l’astronautique, en météorologie, mais aussi pour caractériser des sillages des éoliennes, si dangereux pour les oiseaux et qui peuvent s’étendre sur plusieurs centaines de mètres.

Nous proposons dans notre étude récente d’exploiter un phénomène physique, l’effet Doppler rotationnel, pour mesurer la vitesse et l’évolution de ces tourbillons. Ceci pourrait se faire à relativement faible coût puisque cela nécessite l’emploi d’un simple laser et d’un détecteur, et serait adaptable aux sillages des éoliennes et à la mesure de tornades.

 

L’effet Doppler rotationnel

L’effet Doppler « usuel » est relatif au décalage en fréquence d’une onde (acoustique ou électromagnétique) lorsque l’émetteur et le récepteur sont en mouvement l’un par rapport à l’autre. Ce décalage est proportionnel à la vitesse relative entre eux. Il est utilisé notamment pour détecter les excès de vitesse par la maréchaussée, en utilisant des ondes radio ou optiques. Il est aussi utilisé en médecine, entre autres, pour la mesure des flux dans les vaisseaux sanguins, à l’aide, cette fois-ci, d’une onde acoustique.

Il existe aussi un effet Doppler rotationnel, moins connu, qui est le pendant de l’effet Doppler usuel pour des objets en rotation. Philéas Fogg s’en est bien aperçu dans Le Tour du monde en quatre-vingts jours. En effet, la période du voyage, normalement de 80 jours, a été modifiée par la rotation propre de la Terre. Suivant le sens de parcours du tour du monde, cette période passe à 79 ou 81 jours.

Cela peut aussi se comprendre, à des temps plus courts, en regardant une horloge posée sur un tourne-disque en rotation. L’horloge ne tourne pas à la même vitesse si l’on se place sur le tourne-disque ou dans la pièce dans laquelle il est placé.

Pour pouvoir utiliser l’effet Doppler rotationnel avec des ondes, celles-ci doivent « tourner ». Ce n’est pas le cas avec les ondes habituelles (planes). Par contre, il existe des ondes qui ressemblent aux pâtes italiennes fusilli, et qui tournent à une vitesse proportionnelle à la fréquence de l’onde. Elles sont appelées ondes à moment angulaire orbital ou OAM en anglais.

La lumière rétrodiffusée par des objets en rotation ne tourne plus. Elle n’a plus la forme d’un fusilli. De plus, elle se trouve être décalée en fréquence d’une quantité proportionnelle à la fréquence de rotation de l’objet et aux caractéristiques du fusilli. En mesurant ce décalage, il est possible de mesurer la vitesse de rotation du tourbillon.

 

Sonder à distance les tourbillons

Notre équipe travaille depuis quelques années sur les ondes fusilli, leur génération, leur détection et leur utilisation pour faire tourner des objets à l’aide de la lumière.

Nous avons récemment réussi à complètement caractériser un tourbillon liquide « modèle » généré par un agitateur magnétique dans un récipient, en utilisant des ondes optiques en forme de fusilli générées par un laser, et en étudiant la fréquence de la lumière diffusée par l’eau du tourbillon.

Le décalage Doppler rotationnel de la lumière diffusée par le liquide en rotation permet de remonter à la distribution des vitesses dans le tourbillon.

En particulier, nous avons mesuré la distribution des vitesses angulaires à l’intérieur du tourbillon et, en même temps, nous pouvons effectuer une cartographie dans l’axe du tourbillon. En d’autres termes, nous pouvons connaître la distribution des vitesses de rotation du tourbillon en trois dimensions.

Actuellement, en laboratoire, nous essayons de reprendre cette expérience sur un tourbillon gazeux généré par une dépression avant d’effectuer ces expériences en situation réelle.

 

Vous pouvez retrouver cet article sur The Conversation

La surveillance devient le prix à payer pour vivre en France

Article disponible en podcast ici.

Jadis, seuls les criminels se retrouvaient sur écoute. La traque du citoyen par les bureaucrates était une exception. Les surveillances de masse étaient réservées aux régimes totalitaires, impensables dans nos démocraties.

Or depuis le 11 septembre, nos gouvernements nous considèrent tous comme des potentiels criminels qu’il faut espionner constamment. Et toute comparaison aux régimes totalitaires fera glousser nos fonctionnaires devant une telle allusion.

J’ai déjà longuement commenté cette dérive à travers les dernières actualités comme la volonté d’interdire les VPN, de mettre un mouchard dans nos navigateurs, d’interdire le chiffrement, de l’égaliser la reconnaissance faciale, d’interdire les cryptomonnaies.

Tous ces abandons de nos droits ont été faits en 2023, vous pouvez constater l’imagination sans limites de nos bureaucrates dans nos privations de liberté.

 

Une nouvelle dérive de surveillance à la française

Aujourd’hui j’aimerais porter l’attention sur une nouvelle dérive de surveillance à la française. L’État français profite de nos nombreux impôts, taxes, redevances, cotisations, charges pour justifier une surveillance afin d’éviter les fraudes.

D’un côté, on va créer un impôt inquisiteur, pour de l’autre mettre en place une surveillance pour cet impôt. Double punition pour le citoyen.

L’impôt sur le revenu permet de légitimer une surveillance de notre train de vie sur les réseaux sociaux par le fisc.

La taxe sur les piscines permet de légitimer une surveillance par satellite des maisons françaises par le fisc.

L’URSAFF peut demander vos conversations de votre téléphone professionnel, si elle juge son usage trop personnel, votre téléphone devient un avantage en nature dissimulé, et vous êtes bon pour un redressement.

L’impôt sur la fortune permet à l’État de connaître tous nos comptes bancaires y compris à l’étranger, ainsi que tous nos biens immobiliers et mobiliers.

Vous devez maintenant déclarer les occupants de vos logements, directement aux impôts, pour vérifier l’impôt sur le revenu de l’immobilier.

Et si par miracle, toute cette surveillance ne suffit pas, je rappelle que le fisc analyse toute transaction supérieure à 1000 euros à travers tracfin, sachant que l’État a par ailleurs rendu illégale toute transaction en espèces supérieure à 1000 euros. L’État interdit donc toute transaction non traçable par lui au-dessus de cette somme.

 

Deux poids, deux mesures

Fort heureusement, il existe encore des moyens d’éviter la surveillance.

Si vous continuez de louer une HLM alors que vous ne remplissez plus les critères, vous pouvez dormir tranquille. L’État ne semble pas inquiet, d’ailleurs il souhaite 25 % de HLM partout, plutôt que de réguler l’existant.

Si vous réclamez votre chômage depuis vos vacances à l’étranger, là aussi, soyez rassuré, il ne se passera rien.

L’État est capable de repérer les piscines par intelligence artificielle depuis l’espace, mais ne parvient pas à bloquer le site pôle-emploi aux adresses IP en dehors de France.

Si vous fraudez la sécurité sociale, ne vous troublez pas. Aux dernières nouvelles, il y a 2,6 millions de cartes vitales actives de plus qu’il y a d’inscrits à la sécurité sociale.

Le mieux est encore d’être dans l’État. Mon patrimoine intrigue le fisc, mais après avoir été banquier d’affaires durant quatre années, le maigrichon patrimoine de Macron n’a déclenché aucune investigation.

Savoir quel locataire habite chez moi semble hautement important. Mais Cahuzac, qui proposait ses services de consultant à BigPharma à travers son EURL Cahuzac Conseil, tout en travaillant au ministère de la Santé, ne semble pas choquer. Cette double activité, en plein conflit d’intérêts, ne lui a pas été reprochée, seul un compte en banque suisse alimenté par ses « missions » auprès de BigPharma lui a valu condamnation. Il n’a passé qu’un an en prison, il est à l’heure actuelle médecin en Corse.

En résumé, être innocent ou coupable ne dépend plus de vos agissements. Vous serez constamment innocent si vous participez au pillage de l’État.

Mais si vous vous tenez à l’écart de l’État, alors vous voilà un citoyen présumé coupable à perpétuité. Afin de vous disculper du terroriste, pédophile, trafiquant, fraudeur qui sommeille en vous, une surveillance de tous vos faits et gestes devient nécessaire.

Conflits d’intérêts et politiques de dépenses : le dessous des cartes économiques

La plateforme Spotify annonce le licenciement de 1500 employés, soit le sixième du total. Twilio, la plateforme d’hébergement de sites web, annonce le licenciement de 5 % de ses salariés. En plus de baisses des cours depuis deux ans, les entreprises perdent l’accès à des financements pour les pertes sur les opérations. Les levées de fonds, à travers le monde, baissent de 100 milliards de dollars par rapport aux niveaux de 2021.

Ainsi, les entreprises ont moins de moyens à disposition. Les gérants gagnent moins de primes. Les actionnaires subissent des pertes en Bourse. Un dégonflement de bulle a lieu depuis le début de hausse des taux.

À présent, l’espoir du retour à l’assouplissement par les banques centrales remet de l’air dans les marchés. La bulle reprend de l’éclat. Selon Reuters, le marché s’attend à une baisse de taux par la Banque centrale européenne de 1,40 % à fin 2024.

En France, le rendement sur les obligations du Trésor baisse depuis octobre. Sur les emprunts à dix ans de maturité, les taux passent d’un sommet de 3,6 %, le 4 octobre, à 2,8 % à présent.

Un retour des assouplissements plaît aux entreprises et aux marchés. Le Nasdaq prend 12 % depuis le sommet pour les taux, en octobre. Le CAC 40 grimpe de 9 %. Les autorités remettent en marche la création d’argent. Pourtant, selon les communications dans la presse, le gouvernement continue la lutte contre les hausses de prix.

Il annonce à présent le gel des tarifs de trains. Il a pris le contrôle des tarifs d’électricité. Il empêche les hausses de prix des péages.

Des ONG demandent davantage de contrôles sur les prix en magasins, avec des limites sur les marges. Les autorités – à l’origine de la création d’argent – prennent le rôle de sauveteurs contre les hausses de prix !

 

Plans de relance : retour des assouplissements

Les plans de relance ont de nouveau la cote autour du monde.

Les taux sur les obligations américaines à dix ans passent de 5 % en octobre, à 4,1 % à présent, en réponse aux déclarations de la Fed sur l’évolution de la politique de taux.

Autour du monde, les autorités préparent des incitations à l’endettement. En Chine, le gouvernement augmente le déficit à 4 % de la taille du PIB, et fournit davantage de garanties au secteur de l’immobilier. Selon la société d’analyse Gavekal, les promoteurs de projets d’immobilier chinois ont des impayés à hauteur de 390 milliards de dollars – envers des sous-traitants, fournisseurs, ouvriers, et créanciers.

La perspective d’un emballement de la dette du gouvernement – en raison des soutiens à l’immobilier – pousse Moody’s à une dégradation de la note de crédit.

Bloomberg donne des détails :

« L’économie de la Chine cherche à reprendre pied cette année, durant laquelle le rebond de l’économie – après la levée des restrictions du zéro covid – a déçu les attentes, et la crise de l’immobilier sème le doute. Les données économiques montrent que l’activité, à la fois dans les services, et l’industrie, chutent sur le mois de novembre, ce qui augmente les chances d’une politique de soutien de la part du gouvernement.

[…]

En octobre, le président chinois, Xi Jinping, a signalé qu’un ralentissement soudain de la croissance, et les risques de déflation, ne vont pas être tolérés, ce qui mène le gouvernement à tirer le déficit au niveau le plus élevé en trois décennies. »

Après un peu de répit à la dévaluation des devises, les autorités mettent à nouveau en marche les planches à billets, via les déficits et l’enfoncement des taux d’intérets.

 

Conflits d’intérêts sur les programmes de dépense

Le gouvernement français vient en aide à l’immobilier. Les ministres créent des mesures d’aide aux emprunteurs. La presse les présente comme un sauvetage du secteur face à la crise.

Vous ne verrez pas beaucoup de questions sur la nécessité de mesures. Peu de gens remettent en cause les programmes de dépenses. En effet, les mesures créent des conflits d’intérêts, en particulier dans la presse, les entreprises, et Think Tanks.

Les entreprises de bâtiment gagnent de l’argent sur la construction de logements. Des promoteurs font des bénéfices sur les volumes de vente aux particuliers. Les journaux font de la publicité et attirent des lecteurs sur le thème de l’investissement en immobilier. Les banques et courtiers génèrent des frais sur l’émission de crédits. Les sociétés de conseil proposent des études et rapports – sur l’impact des mesures – au gouvernement. Les particuliers voient dans l’accès au crédit une forme d’aide à l’achat.

Le même genre de conflit d’intérêts touche la plupart des programmes et interventions. Par exemple, la cybersécurité et l’IA créent des opportunités pour des contrats avec le gouvernement, et des sources de revenus pour les entreprises.

La société CapGemini publie un rapport au sujet de l’entrée en vigueur des normes de l’UE sur les services digitaux.

Dans l’introduction :

« En somme, le règlement DORA est prévu pour résoudre les risques de cybersécurité et de défaillances informatiques, en mitigeant la menace des activités illégales, et la disruptions aux services digitaux, avec des conséquences directes sur l’économie et la vie des gens. »

CapGemini n’ose pas les critiques de la loi. En effet, la société tire beaucoup d’argent des programmes du gouvernement. Selon Le Monde, la société de conseil a tiré 1,1 milliard d’euros de revenus grâce aux contrats avec le gouvernement, de 2017 à 2022 ! Elle ne veut pas courir le risque de perdre des contrats avec les autorités à l’avenir. Le groupe a ainsi un conflit d’intérêts dans l’analyse des décisions par les gouvernements.

De même, avec le projet d’un cadre de normes autour de l’IA, les entreprises et la presse ont des conflits d’intérêts. Elles les passent en général sous silence. Par exemple, Les Échos publie une tribune en soutien à la création de normes sur l’IA.

Selon l’auteur, le projet de loi crée « un cadre nécessaire à la protection et l’innovation ».

Il précise :

« Grâce au projet de règlement sur l’intelligence artificielle (AI Act), le législateur européen a l’opportunité de doper les investissements dans les secteurs de la culture et de l’innovation en Europe, et de montrer au monde la manière dont les entreprises d’IA peuvent prospérer au bénéfice de tous. »

L’auteur présente la loi comme une protection des artistes et créateurs de contenus contre la réutilisation par des IA, sans rémunération. Les régulations reviennent à bloquer l’activité des gens sous couvert de leur protection, incluant les consommateurs et les artistes.

L’auteur de la tribune, Robert Kyncl, a le même genre de conflit d’intérêts que les sociétés de conseil au sujet des projets du gouvernement. Il occupe le poste de PDG chez Warner Music Group. La société détient les droits d’auteur des catalogues de groupes comme Daft Punk ou David Bowie. Le groupe travaille aussi sur l’exploitation de l’IA pour tirer davantage de revenus des catalogues d’artistes. Il a en préparation un film sur la vie de la chanteuse, Édith Piaf, à base d’IA.

Les règles sur l’usage de l’IA, et la possibilité de barrières à l’entrée, présentent donc un intérêt pour M. Kyncl. Il a un avantage à la création de complications pour la concurrence. Les géants de la musique mettent à profit l’hystérie de la presse autour de l’IA – et l’envie de contrôle de la part des bureaucrates et représentants.

 

Climat : enjeux de centaines de milliards d’euros

L’Ademe publie une étude sur les coûts des dégâts faits à l’économie en raison de la hausse du carbone dans l’atmosphère. Ils estiment le bilan à 260 milliards d’euros par an à l’avenir. Comme le rapporte la presse, l’étude fait partie d’une commande du gouvernement.

Elle revient à une forme de communication en faveur des programmes – et des dépenses à hauteur de 110 milliards d’euros par an, selon les estimations du gouvernement, après 2030.

Une info-lettre que je reçois, au sujet du climat, effectue une campagne de dons. Des journalistes sont présents aux Émirats pour la COP28.

Dans la missive, de la part de Inside Climate News, l’auteur écrit : « Les journalistes sont des témoins. Nous sommes des diseurs de vérités. »

Sur le sujet du climat, les journalistes rapportent les décisions des dirigeants sans beaucoup de scepticisme. L’argent des programmes remplit beaucoup de poches.

(Suivez mes idées du moment sur la Bourse et les placements. Cliquez ici.)

Déclaration de biens immobiliers et embrouilles fiscales : amateurisme ou filouterie ?

Année après année, mesure après mesure, étape par étape, technologie après technologie, le fisc augmente son pouvoir, sa surface de jeu, et son « efficacité » de collecte pour l’État, toujours en manque d’argent.

 

Le prélèvement à la source de l’impôt sur le revenu

Souvenons-nous du prélèvement automatique des impôts sur le revenu, une mission dont l’ambitieux Gérald Darmannin s’est brillamment acquitté, confortant ainsi l’État dans son assurance d’être payé, dans le coût de sa collecte (maintenant déléguée aux employeurs qu’il ne rémunère pas pour cela), dans la gestion de son cash-flow (maintenant plus rapide de plusieurs mois par rapport à avant). Qui plus est, il a eu le mérite, pour les tenants du pouvoir, de faire passer cela pour un bénéfice pour le contribuable : c’est un souci de moins. Enfin, pour les prêteurs à l’État, qui lui font notamment confiance grâce à la capacité supposée de ponctionner l’argent du peuple, par un coup de force si besoin le jour venu (attention, assurance vie sans doute dans le viseur), il a magistralement montré qu’en effet, l’État savait plumer un peu plus l’oie contribuable sans qu’elle crie.

Et pourtant, malgré l’argument selon lequel cela se fait déjà ailleurs, on peut avoir une opinion radicalement différente de celle des pouvoirs en place et de ceux qui lui prêtent de l’argent à gaspiller ; on peut voir dans cette affaire une privation supplémentaire de liberté, et une mise en danger du citoyen, contraire à l’esprit de la démocratie (le gouvernement du Peuple, par le Peuple, pour le Peuple).

En effet, avec un prélèvement automatique, on enlève au citoyen l’occasion de calculer avec attention ce qu’il doit, on dote le pouvoir d’un accès permanent et incontrôlable au cash flow individuel (ouvrant ainsi une brèche universelle, une pompe permanente et continue d’accès aux salaires, pour y prélever une somme arbitraire par loi ou décret si besoin un jour), on anesthésie le citoyen dans son énergie de vigilance et contestation.

Par expérience des pratiques de facturation et prélèvement des diverses administrations, je suis plutôt de l’avis des méfiants. Vous verrez plus en détail pourquoi dans ma dernière mésaventure.

 

Un espion dans mon jardin

Autre exemple de prouesse du fisc : l’emploi de l’intelligence artificielle pour trouver des biens à taxer qui lui auraient échappé.

Un cas a fait couler pas mal d’encre ces derniers mois : la détection de piscines par traitement d’images, à partir des photos satellite. Une piscine de plus de 10 m2 est en effet taxable, au titre de la taxe foncière (celle qui subsiste et explose). Et le montant de la taxe se calcule comme la valeur nominale (250 euros/m2 en 2023), multipliée par la surface, multipliée par un taux communal – 4 % en moyenne entre 1 % et 5 %), et un taux départemental -1,5 % en moyenne (quand la soupe est bonne, tout le monde y vient ; la région devrait sans doute suivre un jour – il n’y a pas de raison). Soit, pour 20 m2, 275 euros par an.

Or, avec le traitement par intelligence artificielle, les services fiscaux reportaient mi 2022 la détection de 20 000 piscines non déclarées dans neuf départements, pour un montant de plus de 10 millions d’euros de taxes, et annonçaient que le dispositif allait être généralisé.

Il l’a été en effet, avec des effets retard remarqués pour la Corse et l’Outre-mer, territoires dont on a pu se demander s’ils bénéficiaient d’une faveur pour une raison inavouable, ou juste, comme l’a prétendu le gouvernement, d’un délai à obtenir les photos nécessaires… Par contre, pas un mot sur les éventuels constats de piscines déclarées dans le passé et ayant disparu, converties par leurs propriétaires à d’autres usages. Un phénomène rare peut-être, mais pas inexistant, puisque je connais un citoyen qui a couvert en dur sa piscine pour en faire une terrasse. Il n’a jamais été informé par le fisc qu’il ne devait plus rien, et qu’il serait même remboursé pour les années passées (trois ans rétroactifs, me semble-t-il).

Le fisc aurait-il cette vertu spontanée, ou attendrait-il que le contribuable s’en aperçoive enfin de lui-même ? Quand on est ministre des Finances ou dirigeant des services fiscaux, la réponse à cette question révèle une considération particulière du rapport entre le pouvoir et le peuple, et de qui doit être au service honnête de l’autre. On attend de savoir, peut-être un jour.

En attendant, un incident récent laisse à soupçonner que peut-être, hélas…

 

La chasse aux biens immobiliers

Tous les contribuables ont en effet vu récemment que leur patrimoine immobilier faisait soudain l’objet d’une attention redoublée et très détaillée.

À l’origine de ce nouveau coup de zoom, sans doute le désarroi d’un État affolé par la montée du coût de la dette et son incapacité à maîtriser les vraies dépenses (pas cellles, ironiquement classées ainsi par les calculateurs de Bercy, des remises d’impôts/ niches fiscales, mais les vrais coûts des actions des gouvernants, toutes ces politiques jamais ou mal évaluées, où se sont engouffrés des milliards sans résultat) et l’effet de l’intenable promesse démagogique d’Emmanuel Macron de la suppression de la taxe d’habitation, promesse dont l’effet boomerang continue d’engendrer des pompages dérivatifs dans d’autres poches du budget, des usines à gaz de calculs compensatoires, et une explosion de la taxe foncière, dernière ressource autonome significative des communes.

De fait, comme pour les piscines, un des premiers usages de ce recensement de la population immobilière est la chasse aux biens qui pourraient « bénéficier » d’une taxe d’habitation perdue lors de la prise de pouvoir par En Marche.

Et, à ce titre, un citoyen que je connais a eu la surprise de recevoir cette année, pour la première fois depuis des années, un avis de taxe d’habitation de près de 1000 euros pour un bâtiment situé à la même adresse que sa résidence principale, une ancienne maison de gardien reconvertie en gîte rural, pour lequel il est loueur professionnel, et paye à ce titre des impôts sur les sociétés comme la CFE (Cotisation Foncière des Entreprises). Or :

  • On ne saurait être à la fois imposé comme une entreprise (CFE) et comme un particulier (taxe d’habitation) pour le même bien.
  • Le fisc est toujours le premier bénéficiaire de toutes les avancées techniques possibles pour améliorer le service public. En particulier, il paraît certain que toutes ses bases de données sont connectées entre elles, et qu’un bien donné avec une adresse connue doit pouvoir sans problème être détecté comme déjà soumis à la CFE.

 

Aussi cette taxe d’habitation d’un bien, connu comme soumis à la CFE, pose clairement question.

Ce citoyen taxé, plus éveillé et moins docile sans doute que beaucoup d’entre nous, a soulevé la question auprès des services fiscaux qui ont reconnu une erreur, et l’ont invité à faire une demande d’annulation. On se demande bien comment, avec tous les moyens dont il dispose, le fisc a pu commettre cette erreur. Oubli involontaire de contrôle dans les bases de données disponibles (une erreur de débutant en science des données) ou oubli volontaire/conscient pour aller à la pêche ?

 

Les erreurs des citoyens/entrepreneurs dans leurs déclarations au fisc, URSSAF ou autres sont en général surtaxées de 10 %, sauf (depuis peu) en cas d’erreur de bonne foi (dont l’appréciation revient au collecteur).

Alors on pourrait aussi attendre que l’agent du fisc qui reconnaît l’erreur fasse lui-même les démarches de demande d’annulation/rectification, et que le fisc soit pénalisé d’une amende de 10 % du montant demandé, sauf si le citoyen considère qu’il s’agit d’une erreur de bonne foi (ce qui en l’occurrence paraît soit incertain, soit inacceptable compte tenu des accès aux données dont le fisc dispose).

 

Alors, nos services fiscaux, amateurs ou filous ? Monsieur le ministre, exprimez-vous et convainquez-nous. En attendant, citoyens, contribuables, à vous de juger.

Notre horizon économique plombé par la faillite des bonnes idées

Sommes-nous heureux ? Qu’allons-nous devenir ? Pourquoi j’existe ?

Des questions bien trop nébuleuses pour le penseur de l’économie, des questions qu’il préférera résumer en une seule : quel PIB par habitant ? Un indicateur critiquable, mais quantifiable.

Le PIB par habitant reste l’indicateur le plus utilisé pour évaluer nos progrès, notre rang, notre niveau de vie. Or, c’est justement sa mesure qui inquiète aujourd’hui. Le PIB par habitant croît toujours, mais de moins en moins vite, et l’horizon pourrait s’assombrir davantage encore.

En cause, le nombre de bonnes idées, promis à un avenir funeste. Sans bonnes idées, pas de progrès. Et sans progrès, le PIB par habitant est dans l’impasse. Sommes-nous au crépuscule de notre bien-être économique ?

Au cours du dernier Jackson Hole, rendez-vous annuel des grands penseurs de la politique économique, la question du long terme a été au centre des débats, un horizon qui dépasse les aléas conjoncturels et autres chocs contemporains, pour s’interroger sur ce que nous deviendrons demain.

Inévitablement, la question du PIB par habitant a été posée.

En hausse de près de 2 % par an aux États-Unis sur les 150 dernières années (« The Outlook for Long- Term Economic Growth », Charles I. Jones, 2023), le PIB par habitant ne croîtrait plus que de 1 % par an depuis la fin des années 1990. En Europe, on peut dresser le même constat, notamment en France où la croissance du PIB par habitant ne serait plus que de 0,6 % contre 1,5 % jusqu’alors. Partout dans le monde, le PIB par habitant serait pantelant.

Un constat d’autant plus troublant, qu’au même moment les nouvelles technologies de l’information vampirisent progressivement notre quotidien. Davantage de connexions, de données, de traitement de données, et toujours pas de progrès mesuré dans les statistiques économiques. La nouvelle ère a-t-elle perdu sa virginité ? Il est probablement trop tôt pour se prononcer. Mais si l’on prolonge le trait, alors la thèse désenchantée a quelques arguments.

Le progrès technique n’aurait pas fini de ralentir sa course. Car les ingrédients nécessaires à la découverte, à l’innovation, se feraient plus rares. Et ces ingrédients se sont les bonnes idées (Paul Romer, prix Nobel d’économie en 2018). Des bonnes idées dont le nombre devrait continuer de croître, mais de moins en moins vite. La faillite des bonnes idées anticiperait alors un âge sombre du progrès technique. Or, sans progrès point de salut pour le PIB par habitant. Et notre niveau de vie cale.

Le nombre de bonnes idées menace de croître de moins en moins vite pour deux raisons majeures :

  1. La croissance des idées trouvées devrait décélérer (effet quantité).
  2. Parmi les idées trouvées, celles de qualité devraient être plus rares encore (effet qualité).

 

Un effet quantité défavorable

Le nombre d’idées dépend du nombre de personnes qui cherchent. Or, nos démographes prévoient une croissance de la population mondiale de plus en plus faible, voire négative pour les années à venir. Surtout dans les économies dites développées qui sont aussi celles où l’on cherche le plus.

Mais le nombre d’idées dépend aussi du nombre d’idées à trouver. C’est la thèse de l’économiste Robert Gordon, qui postule que les plus grandes idées ont déjà été trouvées, car elles étaient les plus accessibles. Et que désormais, il ne reste que les plus difficiles.

Si l’on suit ce raisonnement, alors le potentiel d’idées trouvées semble bridé pour longtemps.

 

Un effet qualité aussi défavorable

La qualité des idées trouvées dépend de la qualité des chercheurs, en quelque sorte.

Or, la contrainte du publish or perish s’est imposée comme la feuille de route à suivre du chercheur. Il est mis en demeure de trouver un résultat à publier, le but de la recherche étant accessoire. Des résultats oui, mais surtout pas des résultats négatifs, ceux-là qui concluraient sur un échec, au bout d’une longue recherche. Enfin, on pourrait citer la qualité des institutions comme facteur favorable à la production d’idées de qualité. De ce point de vue, les démocraties dites libérales seraient dites les mieux armées pour offrir un cadre indépendant et protecteur au chercheur.

Cette lecture du progrès technique par le nombre de bonnes idées nous éclaire, mais ce qu’elle donne à voir n’est donc pas très réjouissant. En panne de bonnes idées, le progrès patine. Et sans progrès pour le sublimer, le PIB par habitant ne peut pas faire de grands projets. Notre niveau de vie a augmenté de manière insolente au cours des 150 dernières années.

La lune de miel est peut être terminée. À moins que l’intelligence artificielle nous décharge de l’insupportable tâche de trouver de bonnes idées ?

Une start-up française prévoit une mise en service de microréacteurs nucléaires d’ici 2030

Par : Michel Gay

La start-up française Naarea a réalisé « une première mondiale » dans la course aux microréacteurs nucléaires de quatrième génération à neutrons rapides et à sel fondu. C’est un petit pas encourageant pour la France, même si ce n’est pas encore un grand bond pour l’humanité.

 

La société Naarea

La société Naarea (Nuclear Abundant Affordable Resourceful Energy for All) a embauché son premier employé en 2022. Elle vient de réaliser une innovation importante en faisant tourner un sel fondu à 700°C dans une boucle entièrement en carbure de silicium contenant du graphène. Cette avancée est une étape préliminaire pour permettre la mise au point d’un petit réacteur nucléaire modulaire.

Selon Naarea, cette céramique en carbure de silicium qui résiste à la corrosion est idéale pour le cœur d’un petit réacteur en production de masse.

Le carbure de silicium est déjà utilisé dans l’industrie, notamment dans les moteurs de fusées et les satellites. Ce matériau a l’avantage de pouvoir être synthétisé et usiné en France et d’être abondant et recyclable. Il résiste mieux que l’acier inoxydable aux températures extrêmes.

La société Naarea, lauréate de l’appel à projets « Réacteurs Nucléaires Innovants », bénéficiant d’une enveloppe de 500 millions d’euros du plan d’investissement « France 2030 », développe un petit réacteur nucléaire de quatrième génération.

Sa technologie repose sur de nouveaux types de sel fondus produisant de l’énergie à partir de combustibles nucléaires usagés, d’uranium appauvri, et de plutonium.

L’îlot nucléaire, dont le poids lui permet d’être transportable par des moyens conventionnels, tient dans un volume équivalant à un conteneur de la taille d’un autobus (un conteneur traditionnel de 40 pieds). Il pourra produire 40 mégawatts (MW) d’électricité ou 80 MW de chaleur.

Selon Naarea, ce micro réacteur « permettra la fermeture complète du cycle du combustible nucléaire, le Graal absolu ! ».

Mais il y a encore loin de la coupe aux lèvres…

Selon Jean-Luc Alexandre, président et cofondateur de l’entreprise :

« Le projet Naarea est né du constat que les besoins croissants en énergie et en électricité bas carbone font du nucléaire une solution incontournable […]. La demande électrique mondiale sera a minima multipliée par quatre entre 2020 et 2050. Quand nous avons analysé les 17 objectifs de développement durable (ODD), fixés par les Nations unies, nous nous sommes rendu compte que tout ramenait à l’énergie d’une manière ou d’une autre, qu’il s’agisse de l’agriculture, de la faim dans le monde ou de la biodiversité ».

À partir de ce constat a été fondée l’entreprise Naarea pour construire ce microréacteur nucléaire afin de fournir une électricité stable et bas carbone pouvant remplacer les énergies fossiles presque partout dans le monde.

 

Sans eau et presque sans déchets

Le refroidissement du système, qui fonctionnera à pression atmosphérique, s’affranchit de l’eau aujourd’hui utilisée pour refroidir les grands réacteurs actuels plus puissants, et la turbine est entraînée par du CO2 « supercritique » (permettant un rendement d’environ 50 %).

N’étant pas astreint à la proximité d’une rivière ou d’une mer, ce module prévu pour être fabriqué en série en usine pourrait être installé sur n’importe quel îlot industriel sécurisé répondant aux normes de sécurité Seveso, avec peu de génie civil.

De plus, il permet d’éliminer les déchets les plus radioactifs de haute activité à vie longue (HAVL) dont la durée est de plusieurs centaines de milliers d’années en les consommant. Ce microréacteur les transforme en produits de fission dont la durée de vie radioactive serait d’environ 250 ans, plus facilement gérables.

Ces microréacteurs pourraient donc venir en complément des réacteurs actuels à eau pressurisée de troisième génération en consommant leurs « résidus ».

 

Un jumeau numérique

Naarea s’appuie sur un « jumeau numérique » de leur microréacteur, une plateforme digitale collaborative qui offre une représentation du réacteur en 3D permettant d’en faire fonctionner les composants et de mesurer des paramètres inaccessibles dans le monde réel. Il sert également d’outil de démonstration en matière de sûreté et de sécurité, auprès notamment de l’ASN (Autorité de sûreté nucléaire) en France et d’autres autorités internationales.

C’est aussi un outil pédagogique et de formation qui accélère la conception du réacteur en facilitant la collaboration.

Les responsables de Naarea ne souhaitent pas vendre la technologie de leur réacteur, mais uniquement son usage.

L’entreprise met en avant sa volonté d’être « concepteur, fabricant et exploitant » pour devenir un fournisseur d’énergie (chaleur et/ou électricité) aux consommateurs isolés (îles, déserts électriques, …), ou souhaitant décarboner leurs productions.

 

Naarea et le nucléaire recrutent

Aujourd’hui, l’écosystème nucléaire en France a besoin de 100 000 personnes sur les dix prochaines années, soit 10 000 recrutements par an.

Naarea contribue à cette dynamique en accueillant des personnes venant d’horizons divers et en les intégrant à la filière nucléaire pour bénéficier d’une « fertilisation croisée » en adoptant les meilleures pratiques des autres secteurs pour s’en nourrir mutuellement.

Le but est de produire des centaines de réacteurs en série en utilisant l’impression en 3D pour la fabrication du cœur et des pièces. Cette approche est économiquement viable en production de masse. C’est d’autant plus réalisable sur des pièces de petite taille : le cœur du réacteur est de la taille d’une machine à laver.

Ce microréacteur répond aux mêmes exigences de sécurité et de sûreté que les centrales nucléaires traditionnelles. La réaction de fission est intrinsèquement autorégulée par la température (si elle augmente, la réaction diminue) afin que le réacteur soit toujours dans un « état sûr » grâce aux lois de la physique.

Étant de plus télécommandé à distance, ce microréacteur pourra être neutralisé (« suicidé ») pour contrer un acte malveillant.

 

Une mise en service en 2030 ?

Naarea travaille sur une maquette à échelle un qui devrait être prête d’ici la fin de 2023. Elle continue à embaucher à un rythme soutenu : elle vise 200 employés à la fin de cette année, et 350 l’année prochaine où un démonstrateur fonctionnel devrait voir le jour.

Naarea envisage un prototype opérationnel autour de 2027-2028 pour une mise en service en 2030.

De nombreux autres petits réacteurs modulaires sont actuellement en développement dans d’autres pays pour répondre à l’énorme demande énergétique future afin d’atteindre l’objectif zéro émission à l’horizon 2050. Certains d’entre eux ont une puissance de 250 à 350 MW, plus adaptés pour de petits réseaux électriques, mais pas pour les besoins spécifiques des industriels et de petites communautés dans des lieux isolés.

Ces microréacteurs pourront répondre à des usages décentralisés de sites industriels ou à l’alimentation de communautés isolées.

Selon le président de Naarea :

« Un réacteur de 40 MW permet de produire de l’eau potable pour environ deux millions d’habitants en dessalant de l’eau de mer, d’alimenter 2700 bus pendant une année […] ou une centaine de milliers de foyers en énergie ».

 

Nouveaux besoins, nouveau marché mondial

L’entreprise russe Rosatom propose aux Brics (Brésil, Russie, Inde, Chine et Afrique du sud), et notamment aux pays d’Afrique et d’Asie, de petites centrales nucléaires flottantes ou à terre, clés en mains, avec tous les services associés (fabrication du combustible, entretien, et retraitement du combustible usagé) à un prix compétitif.

La Russie utilise l’argent de son gaz et du pétrole pour financer son expansionnisme nucléaire et politique.

Nul besoin d’une infrastructure industrielle préexistante : la Russie s’occupe de tout, de la fourniture des équipements à la formation du personnel. Son offre inclut aussi le financement (crédit total) de l’opération. Les pays acheteurs n’ont donc rien à débourser initialement. Ils ne paient que l’électricité ou un remboursement annuel.

Rosatom a ainsi écarté la France du marché des grandes centrales nucléaires en Afrique du Sud où elle était pourtant bien implantée, puisque les deux premiers réacteurs nucléaires en Afrique (deux fois 900 MW) ont été construits par Framatome. C’est aussi le cas au Vietnam et dans d’autres pays.

Pourtant, la France est le seul pays au monde (autre que la Russie et bientôt la Chine) à pouvoir proposer pour l’instant une offre complète incluant le combustible et le retraitement.

Les États-Unis ne retraitent plus leur combustible nucléaire, ni pour eux-mêmes ni pour l’exportation, depuis 1992.

 

Une carte maîtresse

La France a donc une carte maîtresse à jouer dans le domaine des microréacteurs pour nouer de nouveaux liens privilégiés utiles pour l’avenir.

En effet, les pays qui achètent des centrales nucléaires deviennent dépendants du vendeur pendant des décennies pour leur approvisionnement en électricité.

Le vendeur et l’acheteur doivent donc rester « amis » et deviennent des partenaires privilégiés pour d’autres contrats de construction d’infrastructures civiles (aéroports, ponts, autoroutes, génie civil, équipements publics…) ou militaires, et ce pendant près d’un siècle (construction, durée de vie de la centrale nucléaire supérieure à 60 ans, et déconstruction).

Pour autant, nos dirigeants ne répondent pas, ou maladroitement et de manière incomplète, aux demandes et aux besoins des pays voulant accéder au nucléaire.

La Russie, la Corée du Sud et la Chine s’empressent de combler à leur avantage la demande de coopération nucléaire à laquelle la France répond mal. Elle rate de belles opportunités nucléaires, mais aussi diplomatiques et politiques, pour établir des liens durables avec de nombreux pays en les aidant à développer leur parc nucléaire.

De plus, son offre n’est parfois pas compétitive par rapport à celle de la Russie qui, elle, inclut le financement.

À noter que l’offre des Russes comprend aussi la formation dans leurs écoles d’ingénieurs d’un excellent niveau à Moscou, mais aussi à Tomsk en Sibérie, et dans une demi-douzaine d’autres villes. Des milliers de futurs opérateurs et d’ingénieurs nucléaires en herbe des Brics arrivant dans ces écoles apprennent aussi le russe. Un jour, ils apprendront peut-être le français en France, ou chez eux ?

 

Un foisonnement de compétences

Compte tenu des contraintes techniques et administratives à surmonter, la date annoncée par Naarea pour la mise en service de leur premier réacteur en 2030 est probablement (très ?) optimiste.

Toutefois, ce foisonnement de compétences et de talents dans ce nucléaire innovant doit être encouragé, surtout en France, même si c’est un projet qui ne sera transformé industriellement que dans 30 ans, 50 ans ou… 100 ans.

Dans l’intervalle, de jeunes ingénieurs s’enthousiasmeront, et c’est bien !

Et ces nouveaux talents qui forgent ce microréacteur nucléaire de quatrième génération peuvent bénéficier d’une conjoncture internationale favorable, d’une réglementation simplifiée, et de soudaines avancées technologiques et découvertes.

Nul n’est à l’abri d’un coup de chance !

Sinon, ces ingénieurs et techniciens pourront toujours ensuite se recycler dans le nucléaire « classique » des puissants réacteurs EPR (ou RNR) pour succéder à la génération précédente ayant développé l’extraordinaire parc nucléaire qui fonctionne parfaitement aujourd’hui en France, et pour encore des décennies.

Innovation : les technologies de rupture, ça n’existe pas

Le monde du management est noyé sous les mots-valises, les expressions à la mode et les concepts creux. C’est un problème parce que mal nommer un phénomène, c’est s’empêcher de pouvoir l’appréhender correctement, et donc de pouvoir le gérer.

Un bon exemple est celui de l’expression technologie de rupture, très trompeur.

Je discutais récemment avec le responsable innovation d’une grande institution, qui me confiait :
« La grande difficulté que nous avons est d’identifier parmi toutes les technologies nouvelles celles qui sont vraiment les technologies de rupture. »

Car la course aux technologies de ruptures est lancée, celles qui vont vraiment faire la différence sur le terrain, qu’il soit économique, social ou militaire.

Or, cette course repose pourtant sur une erreur, car la technologie de rupture ça n’existe pas.

 

La différence réside dans son utilisation

Ce qui fait qu’une technologie va avoir un effet de rupture, c’est la façon dont elle est utilisée. Une technologie peut être radicalement nouvelle et n’avoir aucun impact de rupture.

Par exemple, lorsque les médecins sont passés du carnet à spirales au micro-ordinateur dans leur cabinet, il y a eu un changement technologique important, qui a entraîné une amélioration de leur efficacité. Mais il n’y a eu aucun changement dans leur modèle de fonctionnement (façon dont le cabinet est organisé, le modèle économique, la structure des acteurs impliqués, etc.).

En substance, c’est la même chose, en plus efficace. C’est une amélioration dite de soutien (sustaining), au sens où elle soutient et renforce le modèle existant. Inversement, on peut entraîner une rupture très importante dans un secteur sans technologie nouvelle. EasyJet, par exemple, est un pionnier du low cost dans le domaine aérien. La rupture que cette compagnie a créée ne repose sur aucune technologie propriétaire ou nouvelle : mêmes avions, mêmes pilotes, mais un modèle de fonctionnement différent.

Ce qui va faire la différence, c’est donc la façon dont la nouvelle technologie est utilisée.

Dans le domaine militaire, le char était une invention majeure qui a émergé à la fin de la Première Guerre mondiale. L’Armée française l’a mis au service de l’infanterie, le dispersant dans les unités, en soutien de son organisation existante. Les Allemands, eux, ont constitué des unités spéciales (De Gaulle avait la même idée mais n’a pas été suivi). Ils ont repensé leur modèle tactique autour de cette nouvelle technologie. Ils en ont fait une innovation de rupture, par la façon dont ils l’ont utilisée, avec les résultats que l’on sait. Autrement dit, une technologie est de rupture en fonction du modèle qu’on développe autour d’elle pour en tirer parti.

 

La tentation du bourrage

Lorsqu’une nouvelle technologie émerge, la tentation est toujours de la mobiliser autour du modèle existant, considéré comme un invariant. C’est ce qu’on appelle le bourrage : on la force, en quelque sorte, à entrer dans le modèle existant. Ce modèle devient alors une forme de prison intellectuelle qui empêche l’innovation.

On a des chars, mais la façon dont on les utilise fait qu’on n’en tire qu’une toute petite partie du potentiel. Pour faire entrer le carré dans le rond, il faut couper tous les coins. Autrement dit, pour qu’une nouvelle technologie entre dans le modèle, il faut ignorer tout ce qui pourrait servir à créer un modèle différent.

Cela explique aussi pourquoi une nouvelle technologie est plus facilement mobilisée par un nouvel entrant pour créer une rupture : le nouvel entrant n’est pas enfermé par les modèles existants, il n’a pas d’activité historique à défendre, il n’a pas de rond dans lequel il faudrait faire entrer le carré. Il construit le rond autour du carré précisément de façon que le rond soit une rupture.

Google travaille depuis des années sur l’IA mais ne veut pas risquer son rond (son activité liée à son moteur de recherche). OpenAI, une jeune startup créée initialement comme une association à but non lucratif, le prend par surprise en utilisant l’IA de façon tout à fait différente.

L’obsession pour les technologies de rupture a des conséquences importantes : on se concentre davantage sur la technologie que sur ses applications possibles, on se consacre à l’art pour l’art. On oublie que les Allemands n’avaient pas inventé les chars, mais ce sont eux qui ont compris comment en tirer parti.

La véritable innovation ne réside donc pas dans la technologie, même si celle-ci est fondamentale. Elle réside dans la façon dont on l’utilise pour créer un avantage. Il s’agit de contester les modèles existants pour en inventer de nouveaux. Moins qu’une capacité d’invention, c’est donc l’adoption d’une posture entrepreneuriale qui permet la création d’une rupture.

Voir sur le web.

Adoption de la vidéosurveillance algorithmique : un danger sur les libertés

Le 23 mars 2023, l’Assemblée nationale approuvait l’article 7 du projet de loi olympique, qui se fixait entre autres buts d’analyser les images captées par des caméras ou des drones, pour détecter automatiquement les faits et gestes potentiellement à risques.

Pour être plus précis, l’article adopté prévoyait « l’utilisation, à titre expérimental, de caméras dont les images seront analysées en temps réel par l’IA. Ces caméras pourront détecter, en direct, des événements prédéterminés susceptibles de présenter ou de révéler des actes de violence, des vols, mais aussi de surveiller des comportements susceptibles d’être qualifiés de terroristes. »

Un article extrêmement controversé.

 

De la vidéosurveillance algorithmique

Il existe de nombreuses solutions technologiques permettant d’analyser et d’exploiter les données vidéo pour des applications de sécurité, de surveillance et d’optimisation opérationnelle. La vidéosurveillance algorithmique (VSA) est ainsi conçue pour extraire des informations significatives à partir de grandes quantités de données vidéo.

Ces solutions offrent des fonctionnalités telles que : la recherche vidéo avancée, la détection d’événements, l’analyse des comportements, et d’autres outils permettant aux utilisateurs de tirer des insights exploitables à partir de leurs systèmes de vidéosurveillance…

Comme l’indique sur son site la Société BriefCam, évoquant l’une de ses solutions VSA :

« Vidéo synopsis » : « La fusion unique des solutions VIDEO SYNOPSIS® et Deep Learning permet un examen et une recherche rapides des vidéos, la reconnaissance des visages, l’alerte en temps réel et des aperçus vidéo quantitatifs. »

Dans le cadre des JO 2024, de nombreux groupes étaient alors dans l’attente de la promulgation de cette loi pour se positionner, des groupes connus comme Thales et Idemia, et d’autres moins connus, comme XXII, Neuroo, Datakalab, Two-I ou Evitech. Il ne faut pas oublier que dans la fuite en avant du capitalisme de la surveillance (de masse), outre la sécurité promise de façon récurrente, pour ne pas dire fantasmée, des lobbys font pression et il y a des enjeux financiers. En 2022 « l’État projetait ainsi d’investir près de 50 millions d’euros pour les caméras de vidéoprotection, ce qui correspond à 15 000 nouvelles caméras ». En mai 2023, l’appel d’offres était lancé  par le ministère de l’Intérieur.

 

La VSA, une technologie très controversée et des lois expérimentales ?

L’usage de la Vidéo Surveillance Algorithmique censée détecter automatiquement, via une intelligence artificielle, un comportement « dangereux ou suspect », a suscité la réaction de nombreux défenseurs des libertés publiques et d’experts en tout genre. Les arguments sont multiples :

  • La VSA n’est pas infaillible et peut commettre des erreurs liées à des biais algorithmiques.
  • Les agences gouvernementales qui déploient des systèmes de VSA peuvent tout à fait ne pas divulguer pleinement la manière dont les technologies sont utilisées.
  • Aux problèmes du manque de transparence (qu’est-ce qu’un comportement suspect ?), viennent s’ajouter des « difficultés » liées à la vie privée, la discrimination, la surveillance de masse et à d’autres implications éthiques…
  • Par-delà le cadre officiel supposé cadrer son usage (cf. La publication fin août 2023 au Journal officiel du décret fixant les conditions de mise en œuvre) cette expérimentation sera possible jusqu’en 2025.

 

La vidéosurveillance change de nature, franchit un nouveau cap attentatoire aux libertés publiques. Elle nie une fois de plus toutes les études démontrant qu’elle est une sécurité fantasmée qui a été vendue aux citoyens. Il ne faut pas perdre de vue que le capitalisme de la surveillance est avant tout un véritable business fondé sur la peur.

Combien de fois faudra-t-il répéter (réécrire) que c’est un misérable leurre ?

Même une étude commanditée par la gendarmerie nationale conclut « à un apport très marginal de la vidéosurveillance dans la résolution des enquêtes judiciaires, mais aussi dans la dissuasion ».

De telles études ne sont pas médiatisées : « There’s no business like fear business ».

Et c’est ainsi qu’une surveillance de masse de plus en plus inacceptable poursuit sereinement son chemin… offrant aux pouvoirs s’autoproclamant démocratiques des outils terrifiants s’ils sont un jour dévoyés.

Pour autant, le mercredi 12 avril 2023, le Sénat adoptait définitivement la « LOI n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses diverses autres dispositions » !

Et le 24 mai 2023, par-delà les alertes de nombreux acteurs, comme la Quadrature du Net, et la saisie du Conseil constitutionnel par plus d’une soixantaine de députés, la vidéosurveillance intelligente aux JO était déclarée conforme à la Constitution. Cette validation figure désormais dans l’article 10 de la Loi relative aux jeux olympiques et paralympiques de 2024, autorisant à titre expérimental l’utilisation de la vidéosurveillance intelligente, notamment au moyen de drones. (cf. LOI n° 2023-380 du 19 mai 2023 relative aux jeux olympiques et paralympiques de 2024 et portant diverses autres dispositions)… : Chapitre III … (Articles 9 à 19) NDLA.

L’histoire de cette loi et de cet article très polémique n’est peut-être pas encore finie… En effet cette décision pourrait ne pas être en conformité avec le futur « Artificial Intelligence Act », en cours de discussion au Parlement européen.

 

Déploiement de systèmes de reconnaissance faciale depuis 2015 ? Vers un scandale d’État ?

La Commission nationale de l’informatique et des libertés (CNIL) a annoncé le 15 novembre 2023 engager « une procédure de contrôle vis-à-vis du ministère de l’Intérieur suite à la publication d’une enquête journalistique informant d’une possible utilisation par la police nationale d’un logiciel de vidéosurveillance édité par Briefcam et de fonctionnalités de ses solutions strictement interdites sur le territoire français : la reconnaissance faciale ».

Le 20 novembre 2023, réagissant à la publication d’informations du site d’investigation Disclose qui  affirme s’être appuyée sur des documents internes de la police, a révélé – sans conditionnel – l’usage par ces derniers d’un système de vidéosurveillance dit « intelligent » répondant au nom de « vidéo synopsis » depuis… 2015.

Du côté de la place Beauvau, s’il n’y a pas eu de démenti formel, quelques jours plus tard, pour donner suite aux révélations de Disclose, le 20 novembre 2023 le ministre de l’Intérieur déclarait sur France 5 avoir lancé une enquête administrative. Ce dernier a par ailleurs déclaré à Ouest-France « qu’un rapport avait été réclamé aux directeurs de l’administration pour qu’on lui confirme l’absence de reconnaissance faciale couplée à la vidéoprotection.

Notons que si Gérald Darmanin a toujours prôné l’usage de systèmes VSA comme outil de surveillance… il a toujours affirmé être opposé à la reconnaissance faciale !

Il avait ainsi déclaré en 2022 devant le Sénat :

« Je ne suis pas pour la reconnaissance faciale, un outil qui relève d’un choix de société et qui comporte une part de risque » et d’ajouter : « car je crois que nous n’avons pas les moyens de garantir que cet outil ne sera pas utilisé contre les citoyens sous un autre régime ».

Après avoir voulu intégrer la VSA dans la loi Sécurité Globale, puis dans la LOPMI, sans y parvenir, les JO 2024 ont été un nouveau prétexte… Et le pouvoir en place est arrivé à ses fins. Sans revenir sur les éléments que j’ai pu évoquer, sur l’efficacité discutable d’une surveillance de masse qui ne cesse de s’accroître en changeant de nature avec l’arrivée du VSA, et qui, pour reprendre les propos du ministre, comprend également une part de risque pour les citoyens, il ne faudrait pas oublier que :

« La VSA et la reconnaissance faciale reposent sur les mêmes algorithmes d’analyse d’images et de surveillance biométrique. La seule différence est que la première isole et reconnaît des corps, des mouvements ou des objets, lorsque la seconde détecte un visage ».

Quant à la part de risque qu’évoque le ministre, si l’affaire soulevée par Disclose est avérée, usage de fonctionnalité prohibée par des serviteurs de l’État dont les valeurs sont de « faire preuve de loyauté envers les institutions républicaines et être garant de l’ordre et de la paix publics »… ?

 

Et si c’était vrai…

La situation du ministre de l’Intérieur est dans cette affaire pour le moins extrêmement délicate.

En tant que « premier flic de France » comme il aime à se définir, en reprenant – pour l’anecdote – Clemenceau – le Premier ministre de l’Intérieur à s’être qualifié ainsi – il serait pour le moins dérangeant, pour ne pas dire grave, que les affirmations de Disclose soient confirmées, et que ces faits se soient déroulés dans son dos. Cela acterait un dysfonctionnement majeur et inacceptable place Beauveau, puisque ne garantissant plus un fonctionnement démocratique dont il est le garant. Ce scénario serait grave, et il serait encore plus terrible que l’enquête démontre que le ministre, contrairement à ses allégations, en ait été informé.

À ce jour une enquête administrative, lancée par ce dernier est en cours.

Pour rappel, ce type d’enquête « vise à établir la matérialité de faits et de circonstances des signalements reçus et ainsi dresser un rapport d’enquête restituant les éléments matériels collectés auprès de l’ensemble des protagonistes. Sur la base de ces éléments, la collectivité décide des suites à donner au signalement ».

Dans le même temps, le groupe LFI a indiqué le 21 novembre être en train de saisir la justice au titre de l’article 40 du Code de procédure pénale et a réclamé une commission d’enquête parlementaire sur le « scandale de la reconnaissance faciale » ! Enfin, La CNIL, autorité indépendante gardienne de la vie privée des Français, a annoncé le 22 novembre le lancement d’une procédure de contrôle visant le ministère de l’Intérieur.

Au milieu de cette effervescence et de cet émoi légitime, que cela soit le ministère de l’intérieur, une partie de l’opposition, la CNIL… chacun est dans son rôle !

La sagesse est donc de patienter. Toutefois, il me semble que la seule porte de sortie du ministère dans la tourmente soit que les faits reportés soient faux ou au moins pire, extrêmement marginaux. Il serait fâcheux pour notre démocratie et pour reprendre les propos du ministre que « cet outil (sa fonctionnalité de reconnaissance faciale) ait été utilisé contre les citoyens ».

Ce serait encore plus dramatique si la reconnaissance faciale avait été utilisée en connaissance et avec l’aval des plus hautes instances. Alors se poserait une effroyable question – pour reprendre à nouveau les propos du ministre de l’Intérieur –  « aurions-nous changé de régime ? ».

La mort de l’internet ouvert : comment l’IA redéfinit notre monde numérique

L’Internet est mort, tout du moins est-il en voie de disparition, pour le meilleur et pour le pire.

Il est établi que des États ont opté pour le Splinternet. Ils ont en effet décidé de formater des intranets nationaux qui « n’altèrent » pas la saine pensée de leurs compatriotes, à l’instar de l’Iran, de la Russie, de la Chine… Si vous ne concevez pas la chose, imaginez dès lors – pour les utilisateurs de ces pays – un Internet partitionné comme le serait un disque dur ; un « Internet » entre les mains de dirigeants qui donnent accès aux ressources qu’ils considèrent comme acceptables.

Il va de soi que, fût-ce dans ces pays, des solutions existent pour contourner les interdictions, à l’instar des VPN qui, pour faire très simple, confèrent à votre ordinateur une autre géolocalisation que celle qui vous est attribuée par votre pays d’appartenance, mais elles sont bien évidemment proscrites. Notons que dans certains pays, cette interdiction ne concerne pas certains profils. En Chine par exemple, « le gouvernement a décrit de manière explicite quels profils sont autorisés à utiliser ce genre de service et dans quel but. »

 

Mort ou seulement mort-vivant ?

L’Internet originel tel qu’il a été pensé n’est plus !

Pour autant, il semblerait (et j’utilise à escient le conditionnel) encore temps pour les usagers en ayant la possibilité de réagir de façon massive pour – s’ils le souhaitent – arrêter de se faire tracer et redevenir les maîtres de leur Internet « accessible », non pas un Internet paupérisé et façonné par leurs requêtes.

Je parle ici naturellement d’avoir à nouveau un accès libre, total, et sans la moindre « coercition » de la partie émergée d’Internet et de sa partie immergée, le Darknet*. L’accès à cet Internet demeure sur le papier possible. Pour ce faire, l’utilisation de VPN, l’utilisation de navigateur anonymisant comme TOR, sont des solutions pour surfer sans être tracé et assailli de publicités et de recommandations… Anonyme pour autant ? Rien n’est moins sûr, c’est un a priori. C’est vrai d’une certaine façon, oui, nous pouvons recouvrer la liberté de surfer sur Internet sans être exposé à des contenus systématiquement conformes à nos attentes. Mais c’est devenu une liberté qui a un prix, nous y reviendrons.

 

L’Internet originel n’est plus, mais à qui la faute ?

L’Internet tel qu’il a été pensé n’est plus !

La vaste porte-fenêtre originelle ouverte sur le monde s’est, au fil du temps, progressivement étiolée puis refermée, jusqu’à devenir pour les plus chanceux un œil de bœuf. Je ne parle pas naturellement des usagers dont l’Internet s’est presque transformé, comme j’ai pu l’évoquer, en un intranet, ou, tout du moins un ersatz d’Internet, cf. le Splinternet.

Au demeurant, si j’affirme que l’Internet originel n’est plus, c’est qu’il s’est progressivement effacé, puis a disparu au profit d’un InternetIA de plus en plus sophistiqué, qui participe au Splinternet à sa façon et de manière plus insidieuse. Dès qu’un usager commence des requêtes sur un moteur, l’utilisation de l’IA sous couvert d’améliorer l’expérience client – ce qui est un fait mercantile – n’a eu de cesse de l’enfermer dans son monde plutôt que de lui permettre de… s’ouvrir sur le monde !

Mais à qui en incombe véritablement la responsabilité ? Il est certes des acteurs qui sont plus responsables que les autres : les États, les marchands ; mais nous autres usagers ne sommes pas non plus innocents, petit à petit à grand renfort d’algorithmes de « client side scanning », etc. nous sommes passés de l’Internet à « l’InternetIA » !

 

Qu’est-ce que l’InternetIA ?

L’internetIA tel que je le conçois est un Internet étriqué, un Internet rabougri, mais conforme aux attentes de chacun, un Internet nous enfermant, si nous n’y prenons garde, dans nos convictions, nos croyances… L’InternetIA, c’est une personnalisation de l’expérience jusqu’à l’outrance.

Sont concernés : les moteurs de recherche traditionnels, les sites web, les applications et les plateformes en ligne qui utilisent des algorithmes pour personnaliser l’expérience utilisateur. Ces algorithmes peuvent être basés sur vos préférences, vos habitudes de navigation, vos historiques d’achat et d’autres données. L’IA aide à analyser ces données en temps réel et à recommander le contenu qui vous conviendra, qu’il soit informationnel ou marchand.

 

Échapper au traçage, possible, oui, mais…

Dès qu’un utilisateur ouvre un moteur de recherche, il sera, de façon de plus en plus affinée en fonction de ses recherches, confronté à des publicités ciblées, des recommandations de contenu, des optimisations de recherches (vous n’êtes pas sans savoir que les moteurs de recherche utilisent des algorithmes d’IA pour comprendre l’intention de recherche des utilisateurs et leur fournir des résultats de recherche plus pertinents et précis), de l’assistance virtuelle (les assistants virtuels basés sur l’IA, tels que Siri, Alexa et Google Assistant, personnaliseront leurs réponses et leurs recommandations en fonction des habitudes et des préférences de l’utilisateur).

Mais aussi du Machine Learning et Apprentissage Automatique permettant aux systèmes en ligne d’apprendre des comportements passés des utilisateurs, et de s’ajuster en conséquence pour fournir une expérience davantage personnalisée. Tout ça ? Oui et naturellement, je ne suis pas exhaustif, alors naturellement tous les prestataires vous diront que c’est avec l’acceptation de l’usager. Toutefois, cette acceptation n’est, d’une part, pas toujours transparente par-delà les lois ; d’autre part, pour avoir accès à tous les services des prestataires, les usagers en mesurent-ils les conséquences ?

Je ne le pense pas.

 

Le pire est déjà là, et depuis « longtemps »…. Refuser d’être tracé… c’est être suspect

Si l’on s’en réfère à l’expérience qu’a mené la sociologue Janet Vertesi, professeur de sociologie à l’université de Princeton, aux États-Unis en 2014, ne pas être tracé à un prix : celui de la suspicion.

Cette sociologue, enceinte, a en effet voulu échapper au traçage de ses données afin de ne pas être exposée au matraquage publicitaire. Elle a donc mené une sorte de double vie, n’achetant rien qui puisse l’identifier sur les sites s’y prêtant, allant jusqu’à supprimer des messages et bannir de ses contacts un proche qui la félicitait… Nous sommes alors en 2014, mais déjà, c’est une attitude étrange qui n’a pas échappé à l’IA… « Comptant acheter une poussette à 500 dollars en cartes-cadeaux, elles-mêmes achetées sur Amazon, la sociologue a vu la transaction refusée par le site Rite Aid, tenu de signaler les transactions excessives aux autorités », peut-on lire dans un article du journal Le Point. La future maman s’est retrouvée sous surveillance policière !

Aussi, en lisant cet article, faites comme bon vous semble. Sachez que dans ce monde de l’enfermement, si vous refusez d’être tracé, vous serez « possiblement » considéré comme suspect. L’internet est de fait non seulement mort, mais depuis longtemps bien enterré.

« Un homme pur doit être libre et suspect. » Jean Cocteau

*Le darknet est une partie émergée qui n’intègre pas le Darknet. Pour rappel, malgré son nom et l’image qu’en donnent régulièrement les médias, le darknet n’a originellement pas été pensé pour la délinquance, mais bien au contraire pour ceux ayant la nécessité – pour des raisons essentiellement politique –  d’avoir recours à tous les outils et services traditionnels du net (création de site, messagerie etc ) en étant parfaitement anonymes.

L’Europe spatiale peine à rattraper SpaceX

Les 6 et 7 novembre, les ministres des 22 États-membres de l’ESA, réunis en sommet interministériel à Séville, ont tenté une mise à jour (au sens de l’anglais reset) de leur organisation. Il est plus que temps, car l’Europe spatiale s’est littéralement effondrée. Le problème est de savoir s’il n’est pas trop tard.

 

Quelques chiffres résument la situation

Arianespace, pour le compte de l’ESA (Agence Spatiale Européenne), a lancé, entre le premier vol en 1979 et aujourd’hui, 261 fusées Ariane (catégorie « 5 » depuis 2003) produit par la société ArianeGroup, dont seulement deux Ariane-5 en 2023 et trois Ariane-5 en 2022. Les meilleures années d’Ariane ont été l’an 2000 avec doue lancements réussis, et 2002 avec one lancements réussis. Depuis, jusqu’en 2020, le nombre tournait autour de cinq ou six par an. De son côté, SpaceX, le rival d’ArianeGroup, a lancé entre le premier vol en 2010 et aujourd’hui, 272 Falcon dont 60 en 2022, et 78 depuis le début de l’année 2023.

Aujourd’hui, il n’y a plus de lanceur moyen Ariane-5 (le dernier lancement a eu lieu en juillet 2023) et la mise en service de son remplaçant Ariane-6 est sans cesse retardée. Son complément, le lanceur européen léger, Vega-C, est, lui, cloué au sol après l’échec de son premier vol commercial du fait d’un défaut de conception de la tuyère de son second étage.

Le motif officiel du sommet était (en langage européen) de « déterminer comment rehausser les ambitions spatiales de l’Europe. À cette occasion, l’ESA devait élaborer une stratégie européenne pour l’exploration, le transport et le développement durable dans et depuis l’espace. Les raisons en étant qu’exploiter tout le potentiel de l’espace pour améliorer la vie sur Terre devait contribuer à garantir la prospérité, la compétitivité et le talent de l’Europe et ses citoyens, et permettre à l’Europe d’affirmer la place qui lui revient dans le monde ».

Qu’en termes pompeux ces choses-là furent dites !

 

Une administration multinationale n’a pas de stratégie

Le communiqué parle de « stratégie européenne », et là commence le problème, l’Europe n’est pas une entreprise, l’Europe n’est pas un État, l’Europe est une administration commune à plusieurs pays ayant des ambitions différentes. L’ESA est le reflet de cette nature composite, et il n’y a rien de plus frileux et opposé à la prise de risque qu’une administration multinationale. Pour un projet aussi ambitieux que le spatial, ce n’est vraiment pas le cadre idéal.

Certes, l’attrait du gain n’est évidemment pas absent dans l’esprit des Européens puisque, dit-on, le marché du spatial orbital (donc sans le spatial lointain) pourrait être de l’ordre de 150 milliards de dollars dans les dix ans qui viennent. Mais le Spatial n’est pas un business comme un autre.

Dès l’exposé des motifs, on voit que quelque chose ne va pas. « Exploiter tout le potentiel de l’espace » ne peut avoir en premier lieu pour objet « d’améliorer la vie sur Terre » en étant « plus vert ».

Exploiter le potentiel de l’espace, c’est regarder vers les planètes et les étoiles, et non d’abord vers la Terre, c’est porter le rêve de la conquête spatiale, c’est une exigence et une ascèse, donc une économie de moyens pour un maximum de résultats, pas pour « créer des emplois », mais pour créer de la vraie richesse, c’est-à-dire investir, comme l’ont été toutes les grandes aventures humaines, et surtout pour réaliser un rêve. Bien sûr qu’il y aura des retombées de la conquête spatiale pour la vie sur la Terre, mais Magellan n’est pas parti dans son tour du monde pour améliorer la vie en Espagne ou au Portugal. Et à notre époque Elon Musk se soucie peu d’améliorer la vie sur Terre, il veut donner à l’Homme la possibilité de vivre sur la planète Mars, ce qui ne l’empêche pas de gagner beaucoup d’argent dans l’effort rationnel qu’il a entrepris.

Un seul motif cité par le communiqué m’intéresse en tant qu’économiste libéral, c’est « garantir la compétitivité de l’Europe et de ses citoyens » (quoi que je n’aime pas le terme « garantir » qui présuppose qu’on puisse figer un avantage dans une compétition, alors que la compétition est une lutte sans merci et sans garde-fou, et que dans ce contexte, on ne peut compter sur quelque avantage acquis ou « rente » que ce soit).

Après ce préambule, voyons ce qui a été décidé à ce sommet.

 

Décisions au sommet

D’après le directeur général de l’ESA Josef Aschbacher, un « soutien financier » permettra d’assurer « la viabilité économique et la compétitivité des fusées Ariane 6 et Vega-C, stratégiques pour l’accès autonome de l’Europe à l’espace ».

Il s’agit d’« une subvention annuelle d’un maximum de 340 millions d’euros pour Ariane-6 et de 21 millions d’euros pour Vega-C ».

Quand on sait qu’un lancement d’Ariane-6 devrait coûter 100 millions d’euros (mais cela dépendra beaucoup de l’économie d’échelle fonction du nombre), et qu’un lancement de Falcon-9 coûte 50 millions d’euros, on voit bien l’inanité de la subvention européenne. NB : le coût de développement de l’Ariane-6 a été de l’ordre de 4 milliards d’euros ; celui du Falcon-9, de 400 millions de dollars. Plus que l’argent, ce sont les objets pour lesquels il est dépensé et l’organisation de l’entreprise qui est en jeu.

Par ailleurs, la fusée Ariane-6 ne sera toujours pas réutilisable. Avec ce nouveau lanceur l’Europe continuera à « jeter à la poubelle son Airbus après avoir traversé l’Atlantique » (image personnelle que je trouve très parlante !).

Chez le compétiteur SpaceX, un des Falcon-9 a déjà été réutilisé 18 fois !

Jusqu’à tout récemment, l’ESA ou ArianeGroup ne voulaient pas de réutilisation, car il fallait consacrer entre 10 à 15 % d’ergols à la redescente sur Terre du lanceur, et parce que cela aurait rendu plus coûteuse à l’unité une production de moteurs qui auraient été moins nombreux du fait de leur réutilisation. C’est un raisonnement valable dans une économie statique, mais pas dans une économie en développement. De ce fait SpaceX a produit plus de moteurs qu’ArianeGroup car elle a construit plus de fusées, même réutilisables, et sa consommation d’ergols supplémentaire a été totalement négligeable par rapport au gain obtenu par les économies d’échelle résultant du nombre de vols. Par ailleurs produire des lanceurs pour les « jeter à la poubelle » n’est pas l’expression d’un souci particulier de l’environnement, comme prétendent avoir ESA et ArianeGroup.

Enfin, la capacité de transport d’Ariane-6 ne sera pas énorme, 20 tonnes en orbite basse. Ce n’est vraiment pas une révolution. Si le Starship vole il pourra porter 100 tonnes à la même altitude, le Falcon Heavy, porte effectivement 64 tonnes et le Falcon-9, 22 tonnes.

Une note positive cependant.

L’Allemagne a obtenu que la fourniture des équipements et prestations soient soumise à la concurrence. Vous avez bien lu le mot « concurrence ». Jusqu’à aujourd’hui les pays membres se répartissaient politiquement les contributions du fait de leur participation à l’ESA (on appelait ça le géo-retour). Ce n’était pas la meilleure incitation à produire mieux et moins cher, puisque chaque pays avait son petit domaine assuré et protégé.

Désormais, des appels d’offres seront lancés, et les meilleures offres seront retenues, indépendamment de la nationalité du fournisseur. Indirectement, cela donnera toutes leurs chances au NewSpace européen, c’est-à-dire aux indépendants, notamment allemands, qui avec des moyens très limités ont décidé de se mesurer aux sociétés officielles aujourd’hui protégées. La NASA le fait depuis « toujours » (depuis la première présidence Obama mais cela fait déjà longtemps).

Quel progrès ce sera pour l’Europe, mais il est plus que temps !

Airbus-Safran (ArianeGroup) profitera sans danger de cette concurrence car elle est de loin la plus puissante en Europe. Par contre, les Italiens de l’entreprise Avio, avec le VEGA-C (anciennement produit par ArianeEspace), vont se trouver en concurrence réelle très vite avec les petites sociétés du NewSpace européens, notamment l’allemande « Isar Aerospace » dont le premier lanceur devrait voler fin 2023, mais aussi la franco-allemande « The Exploration Company » qui propose sa capsule Nyx.

C’est de là que viendra le progrès mais la progression sera rude. L’ESA prévoit une aide allant « jusqu’à 150 millions d’euros pour les projets de lanceurs les plus prometteurs ».

Vu les coûts ce ne sera qu’une grosse goutte d’eau.

 

Avec cette politique, l’Europe n’est pas sortie d’affaire

Le lanceur Ariane-6 sera toujours non réutilisable (mise à feu au sol prévue le 23 novembre. Cela devrait permettre de confirmer une date de lancement au printemps 2024. On en parle depuis 2009, et le premier vol devait avoir lieu en 2020 !). Il n’est toujours pas prévu de transport de personnes, et sur ce plan, la dépendance aux Américains restera totale.

Un tout petit espoir cependant : il est à nouveau question d’un transporteur robotique, du type SUSIE (Smart Upper Stage for Innovative Exploration), qui sera, lui, réutilisable, et qui devrait servir à aller et revenir de l’ISS (pas pour les hommes mais pour les équipements et les consommables).

La présentation du véhicule avait fait sensation à l’IAC de 2022 car elle avait donné l’impression que l’Europe se réveillait enfin. Mais on n’en avait plus entendu parler. Une somme de 75 millions d’euros y a été affectée lors de ce sommet. Il faut espérer maintenant que ce projet aille plus loin que le vaisseau cargo ATV (lancé une fois il y a 15 ans déjà, mais non réutilisable) ou que l’avion fusée Hermès (finalisé il y a 30 ans mais qui n’a jamais volé).

Cependant, il ne faut pas exagérer son importance ni ses perspectives. SUSIE ne pourra apporter que quatre tonnes dans l’ISS, et il ne pourra en rapporter que deux. Ce n’est rien comparé aux capacités du Starship (100 tonnes), et c’est moins que la capacité de la capsule Dragon de SpaceX (6 tonnes) qui fonctionne aujourd’hui.

On nous dit que ce véhicule pourrait fonctionner en 2028, mais c’est à cet horizon que l’ISS devrait être désorbitée ! Alors, ce concept va-t-il être développé jusqu’au bout, ou bien va-t-il disparaître comme l’ARV (Advanced Reentry Vehicle) qui devait succéder à l’ATV (Automated Transfer Vehicle) et qui a disparu des écrans autour de 2010 alors qu’il avait fait comme SUSIE, l’objet d’un « démonstrateur » ?

À partir de SUSIE, l’ESA dit qu’elle envisage de développer un véhicule habitable et réutilisable… mais il y a un double saut à effectuer (puissance et viabilisation) et aucune date ne peut bien sûr être avancée.

 

En résumé, on a l’impression que le constat est fait, mais que le virage prendra beaucoup de temps à se concrétiser. Peut-être trop de temps car, en attendant, SpaceX ne va pas dormir sur ses lauriers. Ariane-6 va arriver déjà démodée sur un marché ultra-concurrentiel (en dehors des Américains, il y aussi les Indiens ou les Chinois, même les Japonais) et, franchement qui va se servir de SUSIE quand Dragon donne pleinement satisfaction pour le type de transport visé ? Ce ne sera qu’un test pour autre chose (le transporteur habitable) mais probablement sans rentabilité à la clef. Que de temps et d’argent perdus par l’Europe par pur dédain des autres ou très clairement par arrogance (« parce que nous sommes les meilleurs »).

Liens :

https://www.cieletespace.fr/actualites/la-fusee-europeenne-vega-c-ne-revolera-pas-avant-octobre-2024

https://www.touteleurope.eu/economie-et-social/a-seville-le-sommet-sur-l-europe-spatiale-accouche-d-un-plan-de-sauvetage/

Les sept raisons pour lesquelles vous êtes (déjà) en train de rater le virage de l’IA

À moins que vous n’ayez vécu sur Mars ces derniers mois, vous n’avez pu ignorer l’énorme écho médiatique autour du développement de l’intelligence artificielle (IA).

Ce développement est fulgurant, chaque exploit succédant au précédent, avec des réalisations qui auraient semblé impossibles il n’y a pas si longtemps. Il est vrai que le monde de la technologie a tendance à exagérer l’importance de ses inventions, et certaines ne durent que le temps d’un matin, mais on peut dire avec une assez grande assurance que ce n’est pas le cas avec l’IA.

Après des années de bouillonnement, son développement est véritablement entré dans une phase exponentielle. Pourtant, et malgré des résultats souvent impressionnants, beaucoup d’acteurs restent attentistes.

Dans mon expérience, il y a sept raisons qui expliquent cet attentisme, et qui correspondent chacune à un modèle mental bien ancré. Examinons ces raisons pour montrer en quoi elles sont fallacieuses.

Sept raisons qui expliquent cet attentisme

1 – L’IA va massivement supprimer des emplois »

Derrière cette raison il y a la vieille crainte que l’automatisation supprime des emplois.

Or, ce n’est pas ce qu’on constate historiquement. L’automatisation augmente la productivité, ce qui abaisse les coûts et permet de développer le marché, ce qui, en retour alimente la croissance et le besoin en emplois.

2 – « L’IA va remplacer les humains »

L’IA est un outil puissant qui ne fonctionne que s’il est bien utilisé. Depuis toujours, l’être humain a utilisé la technologie pour faire mieux certaines choses (productivité) et aussi pouvoir en faire des nouvelles (innovation).

L’IA ne remplacera pas les humains, elle trouvera son plein potentiel dans la façon dont les humains l’utiliseront. Ceux qui gagneront seront ceux qui apprendront à bien l’utiliser, comme ceux qui ont gagné dans le passé étaient ceux qui ont maîtrisé le feu et la fabrication de flèches.

3 – « Avec l’IA, les moins qualifiés seront largués »

Bien au contraire, l’IA est la chance des moins qualifiés.

Elle permet par exemple à ceux qui n’ont pas pu apprendre de langue étrangère de se débrouiller malgré cela grâce à un traducteur automatique. Elle est le grand facteur de remise à niveau de ceux qui n’ont pas pu faire d’études. L’IA, c’est 150 ans d’études dans votre poche.

4 – « L’IA n’est qu’une techno »

Sous-entendu, cela ne concerne pas la direction générale qui ne s’abaisse pas à parler cuisine. Grosse erreur.

Bien sûr, l’IA est une technologie, mais ce serait une erreur de la mettre simplement au service de ce qui existe déjà pour l’améliorer. La bonne approche est de repenser entièrement son métier, ou son activité, à partir de l’IA. Comme la presse il y a vingt ans qui s’est demandée : « C’est quoi être un journal à l’heure d’Internet quand on peut trouver l’info gratuitement sur Google ? »

L’IA, c’est une techno, certes, mais d’importance stratégique.

5 – « L’IA n’est pas au point, il vaut mieux attendre… »

Aucune techno n’est jamais au point. On n’a jamais attendu qu’aucune le soit pour l’utiliser.

L’automobile a mis des années avant d’être à peu près utilisable par le commun des mortels. Pourtant cela n’a pas empêché qu’elle soit utilisée avec un très gros impact. Si vous attendez que l’IA soit au point, à supposer que ce soit définissable, il sera trop tard quand vous vous y mettrez.

6 – « On ne sait pas comment l’IA fonctionne vraiment, donc c’est dangereux »

C’est quelque chose qu’on entend beaucoup, notamment des professeurs de morale, qui supposent qu’on ne peut utiliser quelque chose que si on le comprend parfaitement. Mais c’est faux.

La plupart des innovations humaines ont été intuitives, et on n’a souvent compris comment elles marchaient que bien plus tard. Sait-on parfaitement comment fonctionne un juge d’instruction ou un comptable ? Non. Et pourtant ils sont très utiles. Lady Montaigu a diffusé la pratique de la variolisation au début du XVIIIe siècle, ancêtre de nos vaccins. Elle ne savait pas expliquer comment ça marchait, mais ça marchait, et c’est ce qui comptait.

7 – « L’IA je n’y comprends rien, je vais attendre que les choses s’éclaircissent… »

Ici, l’erreur est de penser qu’on ne peut comprendre quelque chose que lorsque tout devient clair.

Or, pour quelque chose d’aussi complexe que l’IA (qui est un champ d’innovations multiples à lui tout seul), ce ne sera jamais le cas. La seule façon de se faire une idée de ce qu’est l’IA, c’est de pratiquer. Et pratiquer ne veut pas dire poser une question à ChatGPT et raconter le résultat à ses voisins. Pratiquer, c’est investir du temps pour s’exercer sur des cas réels, et ainsi pouvoir mesurer les forces et les faiblesses de la technologie. Cela permet aussi de mieux imaginer les possibilités (cf. raison 4).

 

Petites victoires

Comme je le disais récemment à une audience d’experts inquiets du développement de l’IA, il ne s’agit pas d’interrompre vos activités et de vous mettre à plein temps sur l’IA.

Il s’agit d’y consacrer un peu de temps, mais de manière systématique.

Par exemple demander à l’un des collaborateurs de devenir le « monsieur ou madame IA » avec quelques heures par semaine. Ce temps doit être garanti par la direction générale et mesuré comme un investissement, pas considéré comme un loisir.

Il constitue une perte acceptable : si cela ne donne rien, ce n’est pas grave, car ce temps est limité d’entrée de jeu (mais comment cela pourrait-il ne rien donner ?).

Si cela donne quelque chose, on peut décider d’investir plus. On procède ainsi par petites victoires : on avance, on construit quelque chose, mais en contrôlant le risque en procédant par petits pas. Ne ratez pas le virage de l’IA en tombant dans des pièges vieux comme le monde.

Sur le web.

EELV contre la rénovation de l’École polytechnique : haro sur le progrès

Tout, absolument tout est bon pour protester en France. Même quand il s’agit de projets positifs. Ainsi, jeudi 9 novembre, une trentaine d’anciens élèves de la prestigieuse École polytechnique se sont réunis pour… manifester. Ils ont, à la manière des syndicalistes, déployé des banderoles et soulevé des pancartes pour s’opposer à la poursuite des travaux prévus pour la création d’un futur centre de conférence international, projet qu’ils jugent « pharaonique et inutile ». Ils ont bien sûr reçu le soutien de quelques élus Europe Ecologie Les Verts du Ve arrondissement parisien, l’école se trouvant au 5, rue Descartes.

Le site, aujourd’hui occupé par le ministère de l’Enseignement supérieur et de la Recherche, est devenu le QG de l’association des anciens élèves en 1976, après la délocalisation du campus à Saclay dans l’Essonne. Quelques élèves, une trentaine sur plusieurs centaines au fil des ans, ont donc décidé de manifester contre un projet financé sur fonds privés qui prévoit, oh malheur, la construction d’un amphithéâtre de 500 places. Pharaonique, c’est bien le terme… Les protestataires formulent d’autres reproches, arguant que la transformation du bâtiment irait à « contre-courant » des enjeux fixés par la ville de Paris dans le cadre de son Plan local d’urbanisme bioclimatique…

Tous ces arguments ne seraient-ils pas plutôt d’opportunité face à la crainte des anciens élèves et des élus de la gauche parisienne de voir le groupe LVMH et la famille Arnault présider à l’avenir de l’école ? Le front s’est en tout cas constitué, avec pour première ligne la présidente du groupe écologiste du Conseil de Paris, madame Fatoumata Kondé qui a déposé un vœu pour que l’adjoint à l’urbanisme Emmanuel Grégoire « prenne position sur le sujet ». Mais en France, il existe des procédures légales, et cet acte de mécénat proposé par Bernard Arnault en tant qu’ancien élève, et approuvé par la direction de l’école, a été concrétisé par la délivrance d’un permis de construire en 2019.

Les fouilles archéologiques ayant été achevées, le chantier est donc lancé.

Il n’y a ici d’ailleurs, à en juger par les déclarations constantes des mécènes confirmées par la direction de l’école, aucune velléité commerciale du groupe LVMH, puisque le lieu transformé servira de Centre de conférence international dans l’idée de faire rayonner l’excellence de la formation de Polytechnique, et par là même de la France, si la chose compte encore. Mieux encore, les installations deviendront la pleine propriété de l’École polytechnique, sans que l’État, et donc le contribuable, ne dépensent un euro pour cela. On se doute d’ailleurs bien que le bâtiment respectera scrupuleusement les normes les plus strictes en matière de respect de l’environnement…

Bref, voici une opération qui ne peut que bénéficier à Paris, à Polytechnique, mais aussi à la France. Qu’un centre d’activités moderne et restauré existe en plein cœur du Quartier Latin ne pourra qu’attirer les plus grands scientifiques, capitaines d’industrie, innovateurs et artistes. Le tout « gratuitement ». De quoi se plaignent donc les écologistes parisiens et les anciens élèves ? Leur déconnexion du monde actuel n’a d’égale que leur dogmatisme.

Le communisme électrique planifié par le gouvernement

Un article de l’IREF.

Ceux qui craignaient que les compteurs Linky soient un instrument d’intrusion de l’État dans nos foyers avaient raison. Alors que l’État subventionne à tout-va l’électricité et incite à grands frais les Français à rouler en véhicule électrique, il s’inquiète d’une possible pénurie d’électricité. D’ores et déjà, il veut expérimenter des solutions pour réduire à distance et autoritairement, sans leur accord, la puissance électrique des usagers domestiques.

Le journal La Tribune a publié un projet de décret préparé par le ministère de la Transition énergétique, et à valider par la Première ministre, qui prévoit une « expérimentation d’une mesure de limitation de puissance des clients résidentiels raccordés au réseau public de distribution d’électricité ». L’objectif, indique ce projet, est de déterminer s’il est possible techniquement de mettre en œuvre une nouvelle mesure hors marché en cas de déséquilibre anticipé entre l’offre et la demande d’électricité, par exemple pendant l’hiver, si la disponibilité des moyens de production d’électricité est moindre. Une telle mesure, est-il écrit, pourrait permettre de réduire ou d’éviter le recours au délestage qui reste la solution ultime pour assurer l’équilibrage du réseau électrique. Elle pourrait contribuer ainsi à la sécurité d’approvisionnement pour les foyers français.

Le décret s’appuie sur l’article 37-1 de la Constitution, selon lequel « La loi et le règlement peuvent comporter, pour un objet et une durée limités, des dispositions à caractère expérimental ».

Mais il est juridiquement mal fondé. Il fait référence à l’article L121-1 du Code de l’énergie : 

« Le service public de l’électricité a pour objet de garantir, dans le respect de l’intérêt général, l’approvisionnement en électricité sur l’ensemble du territoire national […] Matérialisant le droit de tous à l’électricité, produit de première nécessité, le service public de l’électricité est géré dans le respect des principes d’égalité, de continuité et d’adaptabilité et dans les meilleures conditions de sécurité, de qualité, de coûts, de prix et d’efficacité économique, sociale et énergétique ».

Pourtant, le décret voudrait réduire arbitrairement l’accès à l’électricité des uns ou des autres. L’inverse de ce que garantit l’article L 121-1 cité.

Il invoque encore, comme motivation, l’article L341-4 du même code :

« Les gestionnaires des réseaux publics de transport et de distribution d’électricité mettent en œuvre des dispositifs permettant aux fournisseurs de proposer à leurs clients des prix différents suivant les périodes de l’année ou de la journée et incitant les utilisateurs des réseaux à limiter leur consommation pendant les périodes où la consommation de l’ensemble des consommateurs est la plus élevée ».

Mais le projet de décret ne veut pas inciter, il veut réduire l’alimentation électrique sans demander leur autorisation aux usagers.

On pourrait comprendre que le gouvernement veuille renforcer les mesures incitant à consommer moins lors des périodes de tension et plus dans les autres. Ce que recommande précisément cet article L 341-4 : « La structure et le niveau des tarifs d’utilisation des réseaux de transport et de distribution d’électricité sont fixés afin d’inciter les clients à limiter leur consommation aux périodes où la consommation de l’ensemble des consommateurs est la plus élevée ».

Et ces mesures de tarification incitatives existent déjà.

Mais non, le décret voudrait autoriser les gestionnaires du réseau électrique à gérer à distance les compteurs Linky pour « mettre en œuvre, à titre expérimental et dans les conditions définies par le présent décret, une mesure de limitation temporaire de la puissance soutirée par des clients résidentiels raccordés au réseau public de distribution d’électricité, de puissance inférieure ou égale à 36 kVA ».

Bon enfant, cette expérimentation laissera aux usagers une puissance de 3 kVA (correspondant à un radiateur, un ordinateur portable en charge, un réfrigérateur), et ne durera pas plus de 4 heures par jour entre 6 h 30 et 13 h 30 et entre 17 h 30 et 20 h 30. Les clients concernés en seront avisés, mais ils ne pourront pas s’y opposer, et ne seront pas indemnisés !

Certes, le ministère se veut rassurant en disant que ce serait une option ultime. Il ajoute qu’il a peu de craintes de manquer d’énergie cet hiver. Il n’empêche qu’il aimerait que cette expérimentation soit possible d’ici la fin mars 2024. Il voudrait juste faire un test.

En réalité, ce projet de décret révèle, s’il en était besoin, l’état d’esprit quasiment totalitaire de nos dirigeants et de leur technocratie, qui tordent les textes pour soumettre les individus à leur bon vouloir. Bien sûr, il ne s’agirait que d’une expérimentation, mais c’est sans doute le moyen d’habituer les Français à une telle coercition avant de la généraliser. Il serait sans doute temps que l’État s’occupe moins de produire et distribuer l’énergie, et davantage de faire régner la justice qui veut que les contrats soient respectés.

Si ce décret était mis en œuvre, il serait plus que souhaitable que des usagers s’unissent pour attaquer l’État devant les tribunaux.

Sur le web.

Qui gouvernera l’IA ? La course des nations pour réguler l’intelligence artificielle

Un article de Fan Yang, Research fellow at Melbourne Law School, & Ausma Bernot, Postdoctoral Research Fellow, Australian Graduate School of Policing and Security.

L’intelligence artificielle (IA) est un terme très large : il peut désigner de nombreuses activités entreprises par des machines informatiques, avec ou sans intervention humaine. Notre familiarité avec les technologies d’IA dépend en grande partie de là où elles interviennent dans nos vies, par exemple dans les outils de reconnaissance faciale, les chatbots, les logiciels de retouche photo ou les voitures autonomes.

Le terme « intelligence artificielle » est aussi évocateur des géants de la tech – Google, Meta, Alibaba, Baidu – et des acteurs émergents – OpenAI et Anthropic, entre autres. Si les gouvernements viennent moins facilement à l’esprit, ce sont eux qui façonnent les règles dans lesquelles les systèmes d’IA fonctionnent.

Depuis 2016, différentes régions et nations férues de nouvelles technologies en Europe, en Asie-Pacifique et en Amérique du Nord, ont mis en place des réglementations ciblant l’intelligence artificielle. D’autres nations sont à la traîne, comme l’Australie [ndlr : où travaillent les autrices de cet article], qui étudie encore la possibilité d’adopter de telles règles.

Il existe actuellement plus de 1600 politiques publiques et stratégies en matière d’IA dans le monde. L’Union européenne, la Chine, les États-Unis et le Royaume-Uni sont devenus des figures de proue du développement et de la gouvernance de l’IA, alors que s’est tenu un sommet international sur la sécurité de l’IA au Royaume-Uni début novembre.

 

Accélérer la réglementation de l’IA

Les efforts de réglementation de l’IA ont commencé à s’accélérer en avril 2021, lorsque l’UE a proposé un cadre initial de règlement appelé AI Act. Ces règles visent à fixer des obligations pour les fournisseurs et les utilisateurs, en fonction des risques associés aux différentes technologies d’IA.

Alors que la loi européenne sur l’IA était en attente, la Chine a proposé ses propres réglementations en matière d’IA. Dans les médias chinois, les décideurs politiques ont évoqué leur volonté d’être les premiers à agir et d’offrir un leadership mondial en matière de développement et de gouvernance de l’IA.

Si l’UE a adopté une approche globale, la Chine a réglementé des aspects spécifiques de l’IA les uns après les autres. Ces aspects vont des « recommandations algorithmiques » (par exemple des plateformes comme YouTube) à la synthèse d’images ou de voix, ou aux technologies utilisées pour générer des deepfake et à l’IA générative.

La gouvernance chinoise de l’IA sera complétée par d’autres réglementations, encore à venir. Ce processus itératif permet aux régulateurs de renforcer leur savoir-faire bureaucratique et leur capacité réglementaire, et laisse une certaine souplesse pour mettre en œuvre une nouvelle législation face aux risques émergents.

 

Un avertissement pour les États-Unis ?

Les avancées sur la réglementation chinoise en matière d’IA ont peut-être été un signal d’alarme pour les États-Unis. En avril, un législateur influent, Chuck Shumer, a déclaré que son pays ne devrait pas « permettre à la Chine de prendre la première position en termes d’innovation, ni d’écrire le code de la route » en matière d’IA.

Senators Rounds, Heinrich, Young, and I had a great meeting with President Biden at the White House today on his executive order on AI, working for bipartisan AI legislation in Congress, and investing so that we can outcompete the Chinese government on AI. pic.twitter.com/xsFm0c5fKo

— Chuck Schumer (@SenSchumer) October 31, 2023

Le 30 octobre 2023, la Maison Blanche a publié un décret (executive order) sur l’IA sûre, sécurisée et digne de confiance. Ce décret tente de clarifier des questions très larges d’équité et de droits civiques, en abordant également des applications spécifiques de la technologie.

Parallèlement aux acteurs dominants, les pays dont le secteur des technologies de l’information est en pleine expansion, comme le Japon, Taïwan, le Brésil, l’Italie, le Sri Lanka et l’Inde, ont également cherché à mettre en œuvre des stratégies défensives pour atténuer les risques potentiels liés à l’intégration généralisée de l’IA.

Ces réglementations mondiales en matière d’IA reflètent une course contre l’influence étrangère. Sur le plan géopolitique, les États-Unis sont en concurrence avec la Chine, que ce soit économiquement ou militairement. L’UE met l’accent sur l’établissement de sa propre souveraineté numérique et s’efforce d’être indépendante des États-Unis.

Au niveau national, ces réglementations peuvent être considérées comme favorisant les grandes entreprises technologiques en place face à des concurrents émergents. En effet, il est souvent coûteux de se conformer à la législation, ce qui nécessite des ressources dont les petites entreprises peuvent manquer.

Alphabet, Meta et Tesla ont soutenu les appels en faveur d’une réglementation de l’IA. Dans le même temps, Google, propriété d’Alphabet, a comme Amazon investi des milliards dans Anthropic, le concurrent d’OpenAI ; tandis qu’xAI, propriété d’Elon Musk, le patron de Tesla, vient de lancer son premier produit, un chatbot appelé Grok.

 

Une vision partagée

La loi européenne sur l’IA, les réglementations chinoises sur l’IA et le décret de la Maison Blanche montrent que les pays concernés partagent des intérêts communs. Ensemble, ils ont préparé le terrain pour la « déclaration de Bletchley », publiée le 1er novembre, dans laquelle 28 pays, dont les États-Unis, le Royaume-Uni, la Chine, l’Australie et plusieurs membres de l’UE [ndlr : dont la France et l’Union européenne elle-même], se sont engagés à coopérer en matière de sécurité de l’IA.

Les pays ou régions considèrent que l’IA contribue à leur développement économique, à leur sécurité nationale, et à leur leadership international. Malgré les risques reconnus, toutes les juridictions s’efforcent de soutenir le développement et l’innovation en matière d’IA.

Selon une estimation, d’ici 2026, les dépenses mondiales consacrées aux systèmes centrés sur l’IA pourraient dépasser les 300 milliards de dollars américains. D’ici 2032, selon un rapport de Bloomberg, le marché de l’IA générative pourrait valoir à lui seul 1,3 billion de dollars américains.

De tels chiffres tendent à dominer la couverture médiatique de l’IA, ainsi que les bénéfices supposés de l’utilisation de l’IA pour les entreprises technologiques, les gouvernements et les sociétés de conseil. Les voix critiques sont souvent mises de côté.

 

Intérêts divergents

Au-delà des promesses économiques, les pays se tournent également vers les systèmes d’IA pour la défense, la cybersécurité et les applications militaires.

Lors du sommet international sur la sécurité de l’IA au Royaume-Uni, les tensions internationales étaient manifestes. Alors que la Chine a approuvé la déclaration de Bletchley faite le premier jour du sommet, elle a été exclue des événements publics le deuxième jour.

L’un des points de désaccord est le système de crédit social de la Chine, qui fonctionne de manière peu transparente. Le AI Act européen considère que les systèmes de notation sociale de ce type créent un risque inacceptable.

Les États-Unis perçoivent les investissements de la Chine dans l’IA comme une menace pour leurs sécurités nationale et économique, notamment en termes de cyberattaques et de campagnes de désinformation. Ces tensions sont bien sûr susceptibles d’entraver la collaboration mondiale sur des réglementations contraignantes en matière d’IA.

 

Les limites des règles actuelles

Les réglementations existantes en matière d’IA présentent également des limites importantes. Par exemple, il n’existe pas de définition claire et commune d’une juridiction à l’autre des différents types de technologies d’IA.

Les définitions juridiques actuelles de l’IA ont tendance à être très larges, ce qui soulève des inquiétudes quant à leur applicabilité en pratique, car les réglementations couvrent en conséquence un large éventail de systèmes qui présentent des risques différents, et pourraient mériter des traitements différents.

De même, de nombreuses réglementations ne définissent pas clairement les notions de risque, de sécurité, de transparence, d’équité et de non-discrimination, ce qui pose des problèmes pour garantir précisément une quelconque conformité juridique.

Nous constatons également que les juridictions locales lancent leurs propres réglementations dans le cadre national, afin de répondre à des préoccupations particulières et d’équilibrer réglementation et développement économique de l’IA.

Ainsi, la Californie a introduit deux projets de loi visant à réglementer l’IA dans le domaine de l’emploi. Shanghai a proposé un système de classement, de gestion et de supervision du développement de l’IA au niveau municipal.

Toutefois, une définition étroite des technologies de l’IA, comme l’a fait la Chine, présente le risque que les entreprises trouvent des moyens de contourner les règles.

 

Aller de l’avant

Des ensembles de « bonnes pratiques » pour la gouvernance de l’IA émergent de juridictions locales et nationales et d’organisations transnationales, sous le contrôle de groupes tels que le conseil consultatif de l’ONU sur l’IA et le National Institute of Standards and Technology des États-Unis. Les formes de gouvernance qui existent au Royaume-Uni, aux États-Unis, en Europe et, dans une moindre mesure, en Chine, sont susceptibles de servir de cadre de travail à une gouvernance globale.

La collaboration mondiale sur la gouvernance de l’IA sera sous-tendue par un consensus éthique et, plus important encore, par des intérêts nationaux et géopolitiques.

Lire sur le site de The Conversation

Le complexe de l’industrie (8/8) – 12 recommandations pour enrayer la décomposition

Une traduction d’un article du Risk-Monger.

Pour lire les parties précédentes : partie 1, partie 2, partie 3, partie 4, partie 5, partie 6, partie 7.

Au cours de ma vie, les sociétés occidentales ont bénéficié d’innovations qui ont immensément amélioré la santé publique et la qualité de la vie ainsi que le progrès économique et social, la sécurité alimentaire et énergétique ; et aussi de technologies qui ont assuré une aisance bien au-delà de celle dont nos grands-parents auraient jamais rêvé. Et en dehors de l’Occident, le commerce mondial et les transferts de technologie ont amené des opportunités économiques et le développement social à des nations autrefois pauvres. Et pourtant, les entreprises et les individus qui ont pris des risques et réalisé ces avancées sont largement méprisés par un grand nombre d’influenceurs militants, de parties prenantes, de discoureurs et de décideurs politiques.

Il y a presque un an, j’ai commencé cette série d’articles sur la manière dont l’industrie paye un lourd tribut en termes de confiance du public et d’équité réglementaire en raison d’une stratégie de campagne agressive coordonnée ONG / militants / politiques. Je l’ai appelée « le complexe de l’industrie » parce que je n’arrivais pas comprendre pourquoi l’industrie ne réagissait pas à ces absurdités, et que tous les remèdes à la perte de la confiance du public devenaient plus complexes de jour en jour.

Le « complexe de l’industrie » comportait sept chapitres qui ont posé des questions qui fâchent.

Pourquoi les dirigeants de l’industrie n’ont-ils pas réagi, mais se sont-ils contentés de rester assis, comme le zèbre pas-tout-à-fait-le-plus-lent, alors que les militants anti-industrie appliquaient la même stratégie de tabassage à chaque industrie ?

Pourquoi ont-ils toléré qu’une industrie de la haine anticapitaliste contrôle le discours (qui s’est transformé en un massacre de communication bien coordonné) et détruise la confiance du public envers les entreprises ?

Pourquoi ont-ils permis à une idéologie post-industrielle naïve de se répandre dans le cadre des médias, de la politique et de la réglementation, à un point tel que l’industrie a été vilipendée et n’est plus en mesure de fonctionner dans les limites irréalistes que les gouvernements occidentaux ont créées ?

L’industrie est maintenant dans une cage bien verrouillée par un petit groupe de militants idéalistes anti-entreprises. Comment sortir de la cage ? Après sept chapitres de questions, cette conclusion tentera de fournir quelques recommandations.

 

Musclez votre discours

Au fond, le complexe de l’industrie est une crise narrative.

Les campagnes de communication réussissent si elles suivent sans faillir le discours principal. Un discours est un panier largement accepté de valeurs partagées, d’idéaux et de croyances qui façonnent les histoires que nous racontons. Les discours évoluent souvent après des générations de narration, mais peuvent parfois changer soudainement lors d’un événement extrême (une guerre, un effondrement du marché, un accident nucléaire…).

Les discours n’ont pas besoin de refléter des faits, mais ils doivent accorder les valeurs avec les perceptions. Parmi les discours dominants que les sociétés occidentales partagent actuellement on trouve le changement climatique catastrophique, l’effondrement de la biodiversité et le déclin de la santé publique. Les histoires racontées avec ces discours désignent toutes l’industrie comme la cause de ces crises. La confiance du public est étroitement associée aux héros de ces discours (les chevaliers blancs) qui combattent les méchants dissimulés sous leurs masques (l’industrie et le capitalisme).

Les discours des militants sont dirigés par la peur et la crise : selon eux, ce que l’industrie et le capitalisme ont fait à l’humanité et à l’environnement est tout simplement catastrophique.

Les histoires qui soutiennent ces discours portent généralement sur la façon dont la pollution industrielle et l’exploitation technocratique sont responsables de cette dégradation de l’environnement, de la santé humaine et des valeurs. Dans tout dialogue sociétal, il existe des discours concurrents, mais ceux qui prévalent, au fil du temps, dominent les politiques et les décisions des consommateurs.

Pourquoi les consommateurs pensent-ils que les aliments bios sont meilleurs, que l’énergie nucléaire est dangereuse, et que les produits chimiques sont mauvais ? Les histoires basées sur un discours d’innovation et de technologie résolvant des problèmes mondiaux ne parlent pas à un public qui a été amené à ne pas faire confiance aux institutions de recherche qui ont toujours le rôle des méchants et des pervers. Le message tombe dans l’oreille d’un sourd s’il ne colle pas avec les discours dominants.

Les ONG et les militants de la justice sociale ont consacré une énergie énorme à développer et à renforcer leurs discours tout en contrant activement les discours concurrents. C’est un processus long et patient, et leur coordination intensive a fini par payer. Les ONG travaillent maintenant avec des avocats américains en responsabilité civile et un petit groupe de scientifiques militants pour remodeler les histoires sur la façon dont la recherche et l’innovation devraient être menées. J’ai récemment montré comment quelques avocats spécialisés en responsabilité civile ont financé un film sur la façon dont ils sont les gentils qui se battent pour sauver l’humanité d’une industrie maléfique.

Les discours, comme les paradigmes, ne sont pas logiques mais composent le canevas (la toile) sur lequel nos histoires peuvent être brodées et nos valeurs acceptées. Les croyances façonnées par les discours des militants nous assurent que nous pouvons très bien nous passer du capitalisme, des technologies, des innovations et du commerce international. L’humanité n’aurait aucun problème à prospérer sans l’agriculture moderne ou les combustibles fossiles. Le naturel est toujours bon et le synthétique est a priori mauvais… un point c’est tout ! Les scientifiques et les acteurs industriels sont les forces du mal dans ce discours anticapitaliste avec des malédictions inattendues qui s’échappent de leurs laboratoires.

Les décideurs politiques, les journalistes et les acteurs sociaux qui ne respectent pas ces discours sociétaux dominants ont des carrières courtes. Et donc ils ignorent les solutions technologiques prometteuses à des problèmes comme le changement climatique, choisissant de renforcer les histoires sur la manière dont nous devons cesser de compter sur les innovations, freiner la croissance et le développement, et prendre des mesures de précaution.

Mais les discours évoluent avec les événements.

Après deux ans de confinements liés au coronavirus, la promotion des nouvelles technologies de vaccins à ARNm a été largement acceptée. Le discours antivax était faible pour une population prête à accepter n’importe quel risque si cela signifiait qu’elle pouvait retourner au bistrot (les taux de vaccination ont donc été très élevés). Près de 18 mois après l’invasion russe de l’Ukraine, avec l’inflation nuisant à la plupart des pays européens, le public occidental, autrefois aisé, s’est montré assez ouvert à l’augmentation de la production d’énergie nucléaire et à combustible fossile, adoptant une position plus rationnelle envers une transition énergétique plus graduelle et moins coûteuse.

 

Le pendule des technologies de communication

Je garde également espoir que les récentes révolutions des technologies de la communication (Internet, médias sociaux, IA) et les bouleversements sociétaux qu’elles apportent finiront par rétablir un équilibre à mesure que les gens se rendront compte que les déclarations de leurs chambres d’écho peuvent être ni factuelles ni dignes de confiance.

J’ai écrit par ailleurs comment chaque révolution des technologies de communication a entraîné des tensions importantes sur les institutions dominantes de l’époque (l’imprimerie menant à la Réforme protestante ; le cinéma et la radio permettant l’extrémisme politique et la propagande dans les années 1930 ; le consumérisme de masse émergeant de l’ère de la télévision des années 1950). Il n’y a jamais eu de révolution des technologies de la communication aussi importante que la numérisation et la mise en réseaux sociaux de toutes les informations.

À un moment donné, ces silos d’intolérance sur les réseaux sociaux cesseront de défier les institutions démocratiques et disparaîtront dans le bruit de fond. Mais nous devrons peut-être endurer quelques décennies d’extrémisme politique lorsque des robots d’IA personnifiés prendront le contrôle des prochains cycles électoraux dans les pays démocratiques.

Nous ne pouvons pas compter sur le hasard des événements pour sauver les innovateurs et les scientifiques des conséquences des discours hostiles et de l’extrémisme détruisant la confiance du public. Et s’appuyer sur les conséquences négatives du fascisme, des famines et des crises énergétiques pour (en fin de compte) libérer l’humanité d’une telle irrationalité est, eh bien, affreux. Les scientifiques et les innovateurs doivent apprendre de cette époque militante et jouer à long terme, comme les ONG l’ont fait, en accordant leurs messages sur plusieurs fronts pour composer un discours public plus fort sur ce que la recherche et la technologie ont fait et continueront de faire pour l’humanité. La confiance repose sur des valeurs, les scientifiques doivent donc exprimer leurs valeurs dans leurs histoires.

Il y a beaucoup d’histoires à raconter sur la manière dont la science, la technologie et le capitalisme ont rendu notre monde tellement meilleur. Mais si le récit public ne permet pas à ces histoires d’être entendues plus largement, alors les militants anti-technologie gagneront.

Est-il temps de contre-attaquer ? Cette série plutôt longue sur le complexe de l’industrie se terminera par 12 recommandations à l’industrie pour reconquérir le discours, arrêter la perte constante de confiance du public et remettre l’innovation et la technologie au cœur de ce que signifie être humain. Tous ces points ne s’appliqueront pas à toutes les industries en difficulté mais il y aura, espérons-le, de quoi relever le niveau afin que les industries aient ce débat en interne.

Voici 12 recommandations pour stopper le complexe de l’industrie.

 

1. Serrez-vous les coudes

L’un des principaux succès de communication du lobbying militant des ONG est de toujours parler d’une seule voix. Ils se joignent à eux lorsque d’autres groupes mènent des campagnes (même si elles ne sont pas liées à leurs propres objectifs), ne critiquent jamais publiquement d’autres points de vue (aussi atroces soient-ils) et amplifient leur nombre pour donner l’impression d’un front large et fort. L’industrie ne le fait pas, et même lorsqu’une industrie (ou, généralement, une entreprise) est attaquée sans relâche, les autres restent silencieuses plutôt que de rester unies pour riposter.

Attaquer l’industrie, répandre la peur et créer la méfiance sont des cibles faciles pour les groupes d’ONG qui profitent de la crainte et de l’indignation. Ils ne peuvent pas attaquer un produit sur des faits scientifiques, sa qualité ou son efficacité, alors ils l’attaquent comme un produit qui vient gonfler les bénéfices de Big Pharma, Big Oil, le cartel de l’industrie chimique… et le public gobe ça (en même temps que les produits de ces entreprises).

Et lorsque les militants pointent leurs armes vers une cible, toutes les autres entreprises, comme le zèbre pas-tout-à-fait-le-plus-lent, gardent la tête baissée, reconnaissantes de ne pas être au menu du jour des militants. Sans une réponse coordonnée contre ces artistes du dénigrement, le public se laisse convaincre par leur rhétorique. L’industrie doit retirer une des armes de la panoplie des militants et se tenir unie, s’exprimer lorsque (la plupart) des affirmations sont infondées et laisser les hypocrites se vautrer dans la fange de leurs mensonges.

Tant que l’industrie ne sera pas unie pour défendre toutes les entreprises, tant qu’elle ne luttera pas d’une seule voix contre toute accusation infondée, elle sera une proie facile pour les vautours de la confiance qui lui tournent autour.

 

2. Parlez haut et fort

L’industrie peut revendiquer certaines réalisations exceptionnelles au cours du siècle dernier, créant des produits et des procédés qui ont amélioré notre qualité de vie, notre bien-être, notre sécurité, notre santé publique, notre richesse économique et les plaisirs de la détente. Nous vivons mieux et plus longtemps grâce aux innovations et aux technologies qui sont en amélioration continue. Sans l’ingéniosité, l’efficacité et la capacité de l’industrie, nous souffririons encore des confinements liés au covid, et de nombreux autres êtres chers seraient morts.

Pourtant, nous n’entendons parler que des (très rares) revers ou des inégalités que toute technologie disruptive crée à ses débuts. Il est facile pour les critiques de donner une image biaisée de la réalité lorsque les groupes industriels ne répondent pas ou ne font pas face, et ne promeuvent pas leurs réalisations (sauf en interne). L’industrie doit parler haut et fort des avantages quotidiens dont les sociétés ont pu bénéficier grâce à leurs développements entrepreneuriaux et innovants continus.

Surtout après que tant d’entreprises se soient engagées pendant la pandémie pour trouver des solutions et des soulagements, n’est-il pas temps pour l’industrie de de dresser pour revendiquer le mérite de tout ce qu’elle a accompli ?

 

3. Luttez contre l’hypocrisie

Les acteurs de l’industrie sont tellement habitués à être critiqués au quotidien qu’ils restent silencieux, même face à la pure hypocrisie.

De grandes ONG internationales comme Greenpeace ou les Amis de la Terre ne sont pas transparentes, mentent ouvertement et se financent auprès d’acteurs peu scrupuleux, mais de tels comportements restent sans réponse comme si les règles ne s’appliquaient pas à elles. Et apparemment c’est le cas. Les groupes militants ont tellement harcelé la Commission européenne à propos de la consultation des acteurs de l’industrie que l’UE a effectivement imposé une interdiction à ses fonctionnaires de rencontrer des acteurs de l’industrie en dehors des associations professionnelles (mais cela ne s’applique pas aux rencontres avec des représentants d’ONG).

Pendant ce temps, le Parti vert européen utilise les fonds des contribuables pour que les ONG mènent des campagnes à partir du Parlement européen (et seul le Risk-Monger essaie de les interpeller pour cela). Dans le cas du dérisoire document du Pesticide Action Network sur le glyphosate, il ne s’agit pas tant de la mauvaise qualité de la recherche ou du fait qu’ils ont fait venir tant de militants à Bruxelles pour une semaine de campagnes et d’auditions au Parlement européen, mais qu’ils l’ont fait aux frais des contribuables européens grâce aux fonctionnaires du Parti vert européen. Si l’industrie tentait un tel numéro, l’enfer se déchaînerait.

L’industrie devrait s’exprimer pour exiger les mêmes règles et restrictions pour tout le monde, plutôt que de laisser les ONG avoir le champ libre dans l’arène politique. Au lieu de cela, ces petits putois rusés tentent d’interdire aux acteurs de l’industrie d’être juste présents au Parlement européen. Ils ont fait ça aux compagnies de produits chimiques et de tabac, alors pourquoi pas les autres ? Big Oil est le prochain zèbre le plus lent. Quand donc l’industrie se réveillera-t-elle toute et comprendra que cette stratégie s’applique à tous. L’industrie n’est pas la bienvenue.

 

4. Exigez de tous les acteurs des codes de bonne conduite

Lorsque j’ai rejoint Solvay, à l’époque une entreprise chimique et pharmaceutique belge, l’une des premières choses que j’ai faites a été de signer un code de bonne conduite. Compte tenu de ma formation universitaire, j’ai trouvé beaucoup d’intérêt à ce document, et j’ai été très impressionné. Les entreprises ne peuvent pas se permettre que leurs employés se comportent mal, non seulement pour des raisons de relations publiques mais aussi pour des raisons juridiques, et elles appliquent régulièrement, sinon discrètement, ces codes. Je n’ai jamais signé de code de bonne conduite dans mon université, et il est clair que ce que j’ai vu mon patron faire à des étudiantes a été une raison suffisante pour que je parte.

La plupart des ONG n’ont pas de code de bonne conduite – en fait, elles se réjouissent lorsque leurs militants enfreignent les lois, attaquent les autres ou induisent le public en erreur. Il y a une dizaine d’années, j’ai mis Greenpeace au défi d’arrêter leur hypocrisie et de développer un code, et finalement ils l’ont fait ! Mais même là il s’agit d’un vague ensemble de pontifications plutôt que de règles pour guider les actions de leurs équipes. Peu d’autres ONG se sont souciées d’en faire autant et beaucoup, comme Extinction Rebellion ou Just Stop Oil, se félicitent lorsque leurs militants enfreignent la loi.

 

5.  Reprenez le contrôle du discours

De nombreux partis de gauche en Occident ont utilisé la crise climatique comme une opportunité pour appeler à une désindustrialisation, abandonner le capitalisme, faire reculer la croissance économique et redéfinir la prospérité. « Pas de temps à perdre ! » C’est quelque chose qu’ils ne peuvent revendiquer qu’en raison de la richesse que l’industrie, le commerce international et le capitalisme ont apporté aux sociétés occidentales. Des points de vues comme cellui de Naomi Klein, selon laquelle nous ne pouvons pas avoir à la fois le capitalisme et lutter contre le changement climatique (par conséquent, pour sauver la planète, nous devons virer fortement vers la gauche). D’autres, du WEF à la Commission européenne, parlent de la remise à zéro du capitalisme ou de la décroissance comme si c’était la seule alternative.

C’est de la folie. L’atténuation du changement climatique ne peut être obtenue efficacement par une solution militante de précaution et la réduction de toute activité humaine. Comme pour d’autres crises observées dans le passé, nous devons trouver des solutions technologiques et des innovations, et pour ce faire nous avons besoin de l’industrie, d’entrepreneurs et d’investissements en capital. Ce discours est rarement entendu (à moins qu’il y ait une pandémie ou une crise sanitaire où l’on voit ces mêmes acteurs sociaux critiques implorer l’industrie de trouver une solution).

 

6. Refusez de participer à la guerre culturelle

L’industrie et le capitalisme ont été dépeints comme une malédiction de mâles blancs d’âge moyen envers l’humanité, créant une souffrance mondiale au profit de quelques-uns.

De nombreux groupes d’activistes, des Amis de la Terre à Greenpeace, ont endossé des causes de justice sociale allant des droits des femmes à la diversité raciale dans le cadre de leur lutte contre l’industrie et le capitalisme ; les agro-écologistes ont transformé le développement rural en une lutte de petits paysans contre des grandes entreprises ; Big Pharma est considérée comme négligeant les maladies des femmes et ne cherchant que des solutions rentables pour l’establishment médical occidental…

L’industrie doit raconter de nouveau son histoire, comment elle a trouvé des solutions pour les plus vulnérables, et comment elle a innové en tant que leader de la justice sociale. Des entreprises privées comme Solvay et J&J ont été les premières à garantir des pensions de retraite à leurs travailleurs, des semaines de travail plus courtes, des congés de maternité… Les entreprises figurent parmi les principaux donateurs d’aide, que ce soit via des médicaments aux pays en développement, des paiements monétaires, des écoles ou des projets d’infrastructure. Les ONG anti-industrie qui parlent beaucoup de justice sociale font peu en comparaison (au contraire, beaucoup d’entre elles pompent des finances publiques pour leurs salaires).

Pourquoi l’industrie a-t-elle permis à ces mécontents de leur voler la justice et de draper leur intolérance dans la vertu ?

 

7. Défendez la bonne science

Les entreprises industrielles dépensent des milliards pour investir dans les nouvelles technologies. Leurs travaux scientifiques doivent être corrects, ne serait-ce que pour des raisons existentielles. Leur engagement envers les bonnes pratiques de laboratoire (BPL) et la recherche responsable sont des éléments clés de leur stratégie d’innovation. Aujourd’hui, je ne peux pas imaginer une entreprise ou une industrie qui ne pratique pas la conception durable dans son approche de la recherche (une évolution de la culture de gestion de produits qui a façonné la RSE dans les années 1990).

Cinq ans de travail dans un campus de recherche d’entreprise attestent que les entreprises paient le prix fort pour faire venir les meilleurs scientifiques des programmes d’études supérieures et s’efforcent de leur fournir les moyens de développer une recherche de pointe. L’enjeu d’une bonne méthodologie est tel que l’intégrité de la recherche est gravée dans leurs codes de bonne conduite. Alors pourquoi est-ce que j’entends constamment dire que les résultats de la recherche ne sont pas fiables parce qu’ils sont soit basés sur l’industrie, soit financés par l’industrie ? Ces chercheurs de second ordre sont-ils toujours aussi aigris que leurs anciens camarades de classe aient obtenu de bons emplois et pas eux ?

 

8. Dénoncez la science militante

De leur côté, les scientifiques militants n’existent que pour essayer de créer le doute et la méfiance envers l’innovation.

Il n’y a aucune conséquence si ces tumeurs malignes de la communauté de la recherche font du picorage ou induisent le public en erreur — elles sont payées pour le faire et dans une nette majorité des cas, leurs affirmations sont fausses et finalement réfutées (non sans créer d’abord l’inquiétude et une perte de confiance dans les innovations de la recherche). Lorsque les militants essaient d’ignorer les résultats de la recherche industrielle simplement parce qu’elle est financée par l’industrie, ou lorsqu’ils essaient de discréditer des chercheurs distingués pour avoir travaillé avec l’industrie, il est temps que la communauté scientifique se dresse pour remette les pendules à l’heure.

Mais les dirigeants industriels ne dénoncent pas les pires scientifiques les plus corrompus. Ce blog a récemment montré comment un groupe de scientifiques de la réglementation anti-industrie à la retraite s’est réuni autour d’un organisme à but non lucratif axé sur les relations publiques appelé Collège Ramazzini, prenant de l’argent de dommages-intérêts des cabinets d’avocats américains en responsabilité civile poursuivant des entreprises sur la base d’allégations trompeuses qu’ils font via des canaux malléables d’influence comme le CIRC. Au lieu de cela, les entreprises transigent à l’amiable avec ces avocats prédateurs, fournissant plus de fonds pour plus de fabrication de preuves par ces lamentables scientifiques militants.

Avec le succès des ONG qui ont fait supprimer le poste de conseiller scientifique en chef auprès de l’Union européenne, il n’y a pas de voix forte pour la science dans le processus réglementaire de l’UE, de sorte que nous voyons des politiques basées sur des idéologies ambitieuses plutôt que sur la science. L’industrie doit s’exprimer en faveur d’un retour à des politiques fondées sur des données probantes appuyées sur les meilleures données scientifiques disponibles.

J’ai, avec d’autres, appelé à la création d’une sorte d’organisation scientifique bruxelloise qui puisse défendre la culture scientifique et les preuves issues de la recherche dans le cadre du processus réglementaire.

 

9. Adoptez la politique de la chaise vide

L’industrie s’en tient toujours à sa stratégie RSE des années 1990, selon laquelle le dialogue avec les parties prenantes est le meilleur moyen de gagner la confiance du public.

Écoutez et dialoguez avec ceux qui ont d’autres points de vue, et ils prendront également en compte vos points de vue, créant ainsi une atmosphère propice à un meilleur dialogue dans la démarche réglementaire. Quel tombereau de baratin cela s’est révélé être. En laissant les militants s’asseoir à table, la première chose qu’ils ont fait a été de s’efforcer d’exclure l’industrie de la salle avant de manger leur repas.

À Bruxelles dans les années 2000, les militants des ONG ont menacé de se retirer des processus participatifs tels que les plateformes technologiques européennes (ETP) à moins qu’on les écoute plus, qu’on leur donne plus d’argent et que l’industrie soit moins impliquée. L’industrie a rapidement perdu sa voix dans la démarche réglementaire, alors que les militants continuaient de discréditer les entreprises, leur interdisant souvent de rencontrer les décideurs politiques, ou même d’être autorisés à pénétrer dans des institutions comme le Parlement européen. Et personne dans l’industrie ne s’exprime lorsque d’autres industries sont attaquées ou interdites. C’est honteux.

L’industrie doit cesser de se laisser malmener par la Commission européenne et les ONG. Comme la menace des ONG de quitter les ETP, l’industrie devrait être prête à se retirer de la démarche réglementaire de l’UE jusqu’à ce que sa voix soit également prise en compte, jusqu’à ce que les règles de lobbying soient appliquées équitablement à toutes les parties, et jusqu’à ce que les ONG soient également tenues responsables de leurs mensonges et de leurs campagnes de peur. La démarche réglementaire de Bruxelles repose sur une procédure de consultation des parties prenantes ; si l’industrie refuse de jouer le jeu lorsque les règles sont contre elle, Bruxelles risque de se délégitimer (encore plus). Si l’industrie se retire, les acteurs de la réglementation seront obligés d’être équitables.

Bien sûr, les associations professionnelles européennes existent pour être cette voix à Bruxelles, donc l’initiative ne viendra jamais de ceux qui vendent encore le mantra « l’engagement est la clé ». Les leaders de l’industrie doivent se demander d’où vient la cause profonde de ce problème.

 

10. Soyez exigeant envers les acteurs de la réglementation

La démarche réglementaire (en particulier à Bruxelles) doit changer.

Le simple recours au principe de précaution et à une approche basée sur les dangers a conduit à l’incapacité des décideurs à gérer les risques. La précaution est un outil qui doit être appliqué lorsque la démarche de gestion des risques a échoué, et non à la place de l’ensemble de la démarche. L’industrie devrait abandonner la démarche réglementaire de l’UE jusqu’à ce que la Commission publie un livre blanc sur la gestion des risques. Il faut également une délimitation claire de quand et comment des approches basées sur les dangers doivent ou ne doivent pas être utilisées.

Les 7 étapes de la gestion des risques :

  1. Élaboration de scénarios. Envisager et dérouler toutes les options.
  2. Évaluation des risques. Collecter et affiner les données et les observations.
  3. Analyse des risques. Évaluer les données en termes d’avantages et de conséquences.
  4. Réduction des risques. Identifier les groupes vulnérables et réduire leur exposition.
  5. Publication des risques. Informer le public sur les risques et les moyens de protection : construire la confiance, donner au public les moyens d’agir.
  6. Aussi bas que raisonnablement atteignable. Réduire l’exposition autant que possible dans le respect du bien-être sociétal.
  7. Amélioration continue. Réduire continuellement les niveaux d’exposition afin de bénéficier des avantages avec un meilleur niveau de sûreté.

 

En dernier recours, principe de précaution. Renoncer à tous les avantages ; cette solution ne doit être envisagée que lorsque tout le reste a échoué, et elle devrait être temporaire.

La précaution, interdire toute incertitude et promettre de garder les populations « en sûreté » est en fait assez irresponsable. Il s’agit d’un échec institutionnalisé lorsque l’inaction par précaution met en péril les biens sociétaux, prive les sociétés des avantages, des innovations et des technologies dont elles ont besoin pour bien vivre, prospérer et s’assurer que les générations futures disposent des outils nécessaires pour continuer à trouver des solutions à tous les défis.

Ceux qui plaident pour la précaution plaident aussi pour amener les sociétés « au-delà de la croissance ». Ces gens sont bien nourris, jouissent d’une aisance sans précédent dans l’histoire, et ne se soucient pas de leur avenir économique. Ils sont trop égocentriques pour se rendre compte que la majeure partie de l’humanité ne peut que rêver de la bonne fortune que ces fanatiques ont reçue. L’industrie a fourni d’énormes biens sociétaux, mais il y a encore tant de manques et de besoins, et les voix du monde en développement doivent être amplifiées.

 

11. Félicitez les leaders

Il y a très peu de vrais leaders aujourd’hui dans les administrations.

La plupart prétendent pratiquer la politique de la vertu, l’inclusion et la recherche de consensus, ce qui, ironiquement, crée une société plus clivante, intolérante et inégale. Les leaders dirigent en gagnant la confiance, en inspirant et en étant des modèles. Les chefs d’entreprise ont gravi les échelons en présentant ces traits (… à moins d’être des sociopathes impitoyables et performants). Lorsque les leaders de l’industrie se mettent la tête dans le sable ou transmettent le leadership public à leurs gratte-papier ESG, le public n’identifie pas les chefs d’entreprise comme des Titans de l’industrie, créant de la valeur et changeant le monde.

L’histoire des Titans de l’entreprise – qui capturent les rêves et suscitent la confiance – est rarement racontée aujourd’hui. Lorsque Jamie Dimon de JP Morgan a un jour laissé entendre à un journaliste qu’il « ne serait pas réticent » à occuper des fonctions publiques, le lendemain, il a reçu des appels de hauts placés pour qu’il se présente à la présidence. (mais où sont les neiges d’antan ???) Il est facile de dépeindre les PDG comme des milliardaires déconnectés et avides s’ils ne montrent pas leurs talents inspirants et ne célèbrent pas leurs réussites.

Le complexe de l’industrie pourrait être traité si les chefs d’entreprise avaient le courage de se dresser pour monter en première ligne. Pour chaque Steve Jobs ou Jeff Bezos qui quitte la scène, nous trouvons des fonctionnaires et des ombres qui ne parviennent pas à être des meneurs. Sans chef d’entreprise à l’avant-plan, les jeunes se laissent inspirer par des influenceurs et des professeurs militants (dont aucun n’est là six mois plus tard).

 

12. Revenez à la realpolitik

La politique ne consiste pas à donner à chacun ce qu’il veut, mais à trouver des solutions pratiques pour que chacun puisse obtenir ce dont il a besoin.

Des décennies d’abondance post-guerre froide en Occident ont créé une forme de gouvernance de luxe et simplifié l’élaboration de la réglementation : toute incertitude ou tout risque pourrait simplement être « évacué par précaution » (nous pourrions simplement importer ce dont nous avons besoin pour l’alimentation et l’énergie, et faire un chèque à quelqu’un d’autre). Mais ce n’est pas le but de la politique et, comme nous avons dilapidé notre prospérité, nous devons revenir à des décisions difficiles, à des solutions pragmatiques et trouver des moyens de minimiser les besoins et les pénuries. Dans les années 1970 et 1980, cela s’appelait realpolitik et le concept doit revenir dans notre discours politique.

Les idéologues militants qui ne supportent pas le risque devront reconnaître que nous avons besoin de technologies innovantes, d’une énergie accessible et d’un certain niveau d’acceptation du risque social. Nous ne pouvons pas faire fonctionner des usines uniquement avec des panneaux solaires sur un toit, ou nourrir le monde avec des haricots bios cultivés sur le rebord de la fenêtre.

L’industrie doit promouvoir cette réalité politique et continuer à proposer des solutions pour réduire l’impact des sacrifices socio-économiques nécessaires.

 

Conclusion

Ces 12 recommandations ne résolvent peut-être pas tous les problèmes de confiance auxquels l’industrie est confrontée aujourd’hui, mais elles offrent un moyen potentiel d’au moins enrayer la décomposition.

Ce sont de bien meilleures réponses que la stratégie de l’autruche que nous voyons actuellement et qui n’a fait qu’aggraver le complexe de l’industrie. Il faut de la force pour essayer d’être raisonnable avec des irrationnels sans scrupule. Il faut du courage pour tenir tête à une bande d’idéologues bien financés communiquant via des campagnes astucieuses et coordonnées et des attaques personnelles.

Mais sans un tel leadership, quel avenir aura l’industrie ? Quel avenir auront les sociétés occidentales développées ?

Mars : l’inventivité et l’adaptabilité de l’humain face au problème de la poussière ultrafine

La poussière ultrafine rend difficile, déjà au stade robotique, l’exploration de Mars. Elle risque de poser de sérieux problèmes aux missions habitées et à la vie humaine. Nos ingénieurs recherchent des solutions pour la Lune. Elles bénéficieront aussi à Mars car sur ce plan les deux astres sont semblables. Récemment l’Université d’Hawaï a proposé un tissu, LiqMEST, qui moyennant la dépense d’un peu d’énergie pourrait empêcher l’adhérence aux surfaces. La NASA s’y intéresse aussi bien qu’à d’autres solutions qui lui sont complémentaires. Elle le fait dans le cadre de son initiative générale, « LSII ».

 

La poussière martienne

Rappelons ce qu’est la poussière martienne, de petites particules minérales riches en fer (mais composées aussi de toutes sortes de minéraux, dont des silicates) qui n’ont pas pu se stabiliser ou s’agglomérer parce qu’il n’y a pratiquement pas d’eau liquide sur Mars, sauf à de rares périodes de plus en plus espacées dans le temps (périodes pendant lesquelles le problème est bien sûr temporairement résolu et la diagénèse très active). Elle résulte soit des impacts de météorites, soit de la décomposition de certaines roches au grain très fin accentuée par l’érosion éolienne, soit in fine de la saltation des grains de sable (c’est-à-dire de la dégradation des plus grosses particules en plus petites du fait de leur déplacement et de leur friction avec d’autres grains ou la roche, causés par le vent).

Ainsi cette poussière peut être extrêmement fine. On la distingue du sable également présent dans d’innombrables dunes, en ce que la dimension de ses grains est inférieure à 30 µm. On a pu l’observer « de très près » avec le microscope à force atomique FAMARS* embarqué à bord de la sonde PHOENIX en 2007 et qui a observé l’environnement martien de mai à novembre 2008 par 68° de latitude Nord.

FAMARS a pu distinguer des particules jusqu’à 0,1 µm et a pu constater la très forte abondance des grains autour de 10 µm. Compte tenu de la faible érosion martienne, ces grains sont un peu moins acérés que ceux de la poussière lunaire mais quand même très anguleux. Et comme l’environnement est aride (l’humidité très basse empêche l’évacuation des charges électriques) quoiqu’un peu moins que sur la Lune, l’électricité statique est partout dans l’air et rend ces particules très collantes. On retrouve donc la poussière sur toutes les surfaces, aussi bien les équipements que les vêtements (combinaisons des astronautes).

*La thèse de doctorat de Sebastian Gautsch (Université de Neuchâtel, aujourd’hui adjoint au directeur de la section microtechnique de l’EPFL et toujours vice-président de la Mars Society Switzerland) a été consacrée à la conception de cet instrument.

Sur Mars, par rapport à ce qui se passe sur la Lune, le phénomène est aggravé par l’atmosphère. On sait que cette atmosphère est très ténue (pression de 610 pascals à l’altitude « moyenne », équivalente à celle du niveau de la mer). Mais comme les poussières sont très petites et très peu massives, elles sont portées par elle, bien sûr quand il y a du vent mais pas seulement ; une certaine quantité reste toujours en suspension dans l’air. C’est ce qui donne la coloration rouge/ocre au ciel pendant la journée.

On a pu constater également sur les différents équipements robotiques envoyés sur Mars qu’irrémédiablement et assez rapidement, les surfaces se teintent de cette même couleur, ce qui montre bien que les matériaux les plus lisses ne peuvent éviter d’être revêtus de cette matière diffuse comme s’ils en étaient imprégnés.

Pour le moment, c’est surtout gênant pour les panneaux solaires dont la capacité de captation d’énergie est altérée, et aussi pour les articulations des parties mobiles des rovers. Opportunity a été « tué » par une tempête de poussière qui l’a empêché de recueillir l’énergie minimum qui lui était nécessaire par ses panneaux photovoltaïques totalement enduits. Auparavant, ses deux roues avant avaient été immobilisées, usées certes par les aspérités du sol mais aussi complètement grippées par la poussière.

Plus tard, quand l’Homme vivra sur Mars, il risque de l’importer sur sa combinaison ou ses instruments à l’intérieur des habitats. Une fois son casque de scaphandre retiré, il respirera l’air ambiant chargé de ces particules car très difficiles à aspirer mécaniquement. Elles pourraient lui apporter la silicose et gêner le bon fonctionnement de différents appareils indispensables. Il faudra donc impérativement s’en débarrasser, au plus tard dans le sas d’accès.

 

Quelles solutions pour s’en débarrasser

On cherche donc depuis des années les solutions.

Celles qu’on envisage aujourd’hui sont de trois ordres :

  1. La structure du tissu
  2. Le nettoyage par projection de gaz
  3. Le nettoyage par polarisation électrique

 

Les recherches sont menées par la NASA (plus précisément son Space Technology Mission Directorate) dans le cadre de la LSII (Lunar Surface Innovation Initiative) par l’intermédiaire du LSIC (Lunar Surface innovation Consortium) dirigé par le John Hopkins University Applied Physics Laboratory (JHU/APL).

LSII a été créée en 2019. Il s’agit de stimuler l’intérêt et l’innovation dans les technologies de l’exploration lunaire par missions habitées (identification des besoins et évaluation des travaux, recommandations, centralisation des données et des résultats). L’action est menée via des partenariats ou des collaborations auxquels participent la NASA au côté du JHU (financièrement comme techniquement). Mars est clairement déjà nommée comme l’étape où les technologies découvertes et devenues opérationnelles seront mises en œuvre après la Lune.

L’on espère aussi des retombées sur les activités terrestres. Bien sûr la dust mitigation, que l’on pourrait traduire par « atténuation des nuisances de la poussière », n’est pas la seule ligne de recherches (key capability areas), mais c’est l’une des six qui a été choisie.

Les autres sont :

  • l’ISRU (In Situ Resources Utilization),
  • l’énergie (surface power),
  • l’extraction des minéraux et la construction (excavation and construction),
  • l’adaptation de l’homme et de ses équipements à l’environnement extrême (extreme environment)
  • la capacité d’accès aux sites difficiles (extreme access)

 

La LSIC n’est pas une petite organisation puisqu’elle comporte 2400 participants actifs au sein d’un millier d’institutions ou établissements présents dans tous les états américains et une cinquantaine de pays étrangers.

 

Première solution : la structure du tissu

Un tissu répulsif a été conçu (publication en février 23) par l’Université du Texas Austin (UTA). L’équipe a modifié la géométrie des surfaces planes pour créer un réseau serré de structures pyramidales nanométriques. Ces structures, angulaires et pointues, empêchent les particules de poussière d’adhérer au matériau. Ne pouvant coller à ce support, elles s’agglomèrent entre elles pour rouler ensuite en surface et tomber sous l’effet de la gravité.

 

Deuxième solution : le nettoyage par projection de gaz ultra-froid

Un spray a été conçu (mars 23) par l’Université de l’État de Washington (WSU). Il s’agit de projeter une pulvérisation d’azote liquide (forcément très froid) sur un tissu relativement beaucoup plus chaud que le gaz. Le nettoyage va se faire par effet Leidenfrost.

Cet effet peut être observé lorsque de l’eau froide est versée sur une poêle à frire chaude et qu’elle perle puis se déplace à la surface de la poêle. Par analogie, lorsque de l’azote liquide est pulvérisée sur une combinaison spatiale (même s’il y a isolation thermique, sa température est très largement plus élevée que celle du gaz), les particules de poussière sont extraites par le jet, s’accumulent sans pouvoir attacher et s’éloignent du tissu en flottant avec la vapeur d’azote.

 

Troisième solution, nettoyage par polarisation électrique

Un tissu très réceptif à la polarisation et en même temps souple et extensible a été conçu (octobre 23) par l’Université d’Hawaï Pacifique (PHU). Lorsqu’il est activé, ce LiqMest (Liquid Metal Electrostatic Protective Textile), génère un champ électrique qui empêche la poussière d’adhérer à sa surface. Son concepteur le Professeur Arif Rahman de l’Université de Bangkok a obtenu une subvention de 50.000 dollars de la NASA pour présenter un prototype dans le délai d’un an (mai 24). Le tissu pourrait être utilisé pour la mission Artemis III (2025 ou 2026).

Une variante de cette dernière technologie est l’EDS (Electronic Dust Shield Experiment). Elle est étudiée au sein de la NASA (Kennedy Space Center). Elle a été testée en 2019 dans l’ISS dans le cadre de la série de tests MISSE-11 (Materials International Space Station Experiments).

Elle vise la prévention de l’empoussiérage et le dépoussiérage de toutes sortes de surfaces solides : radiateurs thermiques, panneaux solaires, lentilles d’appareil photo et autre matériel nécessitant une protection contre la poussière.

Elle a fourni des données utiles sur les performances des électrodes, des revêtements et des composants électroniques qui lui sont propres. On sait que l’expérience a été positive* mais malheureusement les résultats ne sont pas encore publiés. NB le programme MISSE existe depuis 2001 (c’est tout l’intérêt de l’ISS). En octobre 2023, nous en sommes à MISSE-18.

Des essais au sol avant le vol ont montré que des électrodes posées sur des plaques de verre pouvaient éliminer « plus de 98 % de la poussière dans des conditions de vide poussé », selon une courte publication de l’équipe du Lunar Dust Workshop de février 2020 (Universities Space Research Association, à Houston).

 

Avis aux pessimistes

Avec ces technologies on a de bonnes probabilités d’obtenir une solution au problème de la poussière, non seulement pour les vêtements mais aussi pour les équipements.

Si comme je l’espère, on développe un jour l’astronomie sur Mars, l’EDS sera incontournable (elle est spécifiquement prévue pour maintenir la propreté des optiques). Mais on peut aussi concevoir de mettre les différents équipements dont on aura besoin sous une bâche de liqMEST, ou peut-être de nettoyer périodiquement les dômes et les surfaces vitrées avec un spray d’azote liquide*. Le nettoyage effectué par des robots équipés d’une caméra sera par ailleurs l’occasion de vérifier l’état du dôme ou des baies vitrées des habitats. Pour les combinaisons spatiales on utilisera probablement les trois technologies ensemble.

*L’impact du gaz sur la surface vitrée, plaques laminées de 1,5 x 2 cm d’épaisseur d’après les calculs de mon ami Richard Heidmann, serait extrêmement bref, mais mes lecteurs physiciens pourront sans doute me dire si le choc thermique serait ou non supportable.

Ceci est une réponse à tous les pessimistes qui pensent qu’aucune technologie n’est envisageable en dehors de celles qui existent déjà. J’ai confiance que des conditions environnementales autrefois rédhibitoires, comme celles de Mars, peuvent devenir vivables si le génie humain s’applique à trouver des solutions ; ceci étant dit en ayant conscience des difficultés. Les sauts technologiques sont toujours possibles mais bien qu’ils ne sortent jamais de nulle part, ils ne sont pas prévisibles et on ne pas compter sur eux.

Pour vivre sur Mars cependant, il me semble que l’on soit arrivé à un point de développement technologique tel que la base interdisciplinaire à partir de laquelle on travaille n’est pas trop éloignée du résultat que l’on veut obtenir.

Liens & références :

Cliquer pour accéder à DARPA%20NOM4D%202022.pdf

https://citeseerx.ist.psu.edu/documentrepid=rep1&type=pdf&doi=15eb88aa339e4f766ade40475a6458af47f246ef

https://interestingengineering.com/innovation/new-tech-solve-lunar-dust-problem

https://www.eurekalert.org/news-releases/980467

https://news.dayfr.com/trends/amp/2746657

https://www.hpu.edu/about-us/the-ohana/article.php nid=nc10162301

Cliquer pour accéder à 20150016160.pdf

https://www.nasa.gov/mission/station/research-explorer/investigation/?#id=8033

Sur le web.

Syndrome VEXAS : quand la révolution génomique permet de vaincre l’invisible

La découverte d’une nouvelle maladie, le syndrome VEXAS, au moyen des technologies de la génomique, montre la puissance de celle-ci et les progrès considérables qu’elle permettra en biologie et en médecine, dans un contexte de mondialisation croissante. Moins que jamais, il ne faut céder aux sirènes de l’irrationalisme, car la méthode scientifique issue des Lumières, appliquée à la médecine, soulage et guérit dans des proportions inconnues jusqu’alors.

Le syndrome VEXAS est une maladie récemment identifiée grâce aux progrès de la génomique. Elle est causée par des mutations sur un gène dans les cellules souches de la moelle osseuse qui sont à l’origine de toutes les cellules du sang (macrophages, lymphocytes, neutrophiles, globules rouges, plaquettes, etc.). Ces mutations entraînent des anomalies en cascade dans le sang et dans l’organisme.

 

Un acronyme qui en dit long

Le nom « VEXAS », qui sonne un peu bizarrement en français, est un acronyme purement descriptif de cette maladie, dont l’acte de naissance est un article de décembre 2020 de la revue médicale mondialisée New England Journal of Medicine. Il signifie :

V comme « Vacuoles » : ce sont de petites enclaves inertes, anormales, souvent observées dans les cellules sanguines de ces patients.

E comme « Enzyme E1 » : une enzyme essentielle au bon fonctionnement des cellules qui est inactivée par la mutation du gène UBA1 qui planifie sa fabrication. Cette mutation constitue, autant qu’on puisse en juger aujourd’hui, la cause première de la maladie.

X comme « Chromosome », car ce gène UBA1 muté se trouve placé sur ce chromosome. Les hommes ont, comme on sait, un seul chromosome X, leur autre chromosome sexuel étant le chromosome Y. Les femmes, qui ont deux chromosomes X disposent ainsi d’un chromosome de secours quand l’un de leur chromosome X fonctionne mal. Ceci explique que le syndrome VEXAS va se produire surtout chez les individus de sexe masculin.

A comme « Auto-inflammatoire » qui décrit le mécanisme des manifestations cliniques de la maladie : il s’agit d’une agression inflammatoire aberrante du système immunitaire de l’individu contre ses propres tissus, en l’absence de toute agression étrangère à lui-même.

S comme « Somatiques » : les mutations du gène UBA1 sont dites «  somatiques » et non « germinales » c’est-à-dire qu’elles sont acquises au cours de la vie et non héritées, ce qui signifie que le syndrome VEXAS n’est pas héréditaire. Il n’y a pas de familles « VEXAS ».

 

Signes et symptômes du syndrome VEXAS

Par ses manifestations cliniques, le syndrome VEXAS se situe aux frontières de deux spécialités médicales : la rhumatologie, qui soigne les maladies liées à l’appareil locomoteur, c’est-à-dire aux os, aux muscles, aux tendons, aux ligaments et aux articulations, et l’hématologie, qui s’occupe des maladies du sang et des organes qui fabriquent les cellules du sang.

Les patients, qui sont dans leur grande majorité, des hommes de plus de 50 ans, peuvent montrer différents symptômes, seuls ou associés :

  • fièvres élevées récidivantes sans cause, avec fatigue importante,
  • affections de la peau avec notamment des éruptions inexpliquées,
  • rougeurs et gonflements de l’oreille et du nez, appelés chondrites,
  • arthrites, douleurs inflammatoires des articulations des membres,
  • atteintes pulmonaires avec essoufflements,
  • thromboses veineuses, avec phlébites,
  • atteintes des yeux,
  • symptômes gastro-intestinaux avec douleurs, diarrhées…

 

Ce syndrome est aussi à l’origine d’affections hématologiques caractéristiques et potentiellement graves :

  • anémie, manque de globules rouges nécessitant parfois des transfusions ;
  • syndrome myélodysplasique, caractérisé par une production insuffisante de cellules sanguines matures normales par la moelle osseuse ;
  • myélome multiple, forme de cancer qui se développe aux dépens de certains globules blancs ;
  • enfin, on trouve dans certaines cellules de la moelle osseuse des éléments spécifiques de cette maladie, les vacuoles mentionnées dans le nom de la maladie (V de VEXAS).

 

Diagnostic et traitement

La seule façon de poser le diagnostic de façon certaine est un test génétique avec séquençage du génome qui met en évidence la mutation du gène UBA 1 sur le chromosome X. Ce séquençage du génome humain, réalisé pour la première fois en 2001 après 5 ans d’efforts, peut être obtenu aujourd’hui en cinq jours !

Actuellement, il n’existe pas de traitement standardisé pour cette maladie qui touche un homme sur 4000 et une femme sur 26 000, celles-ci étant atteintes en général de formes bénignes.

Les traitements disponibles ne sont pas curatifs et la mortalité par VEXAS reste élevée puisque l’espérance de vie des hommes n’est que de 10 ans après les premiers symptômes.

Les signes inflammatoires sont généralement traités avec des corticoïdes à forte dose, qui provoquent, comme on sait, de nombreuses complications.

Certains patients peuvent être candidats à une greffe de moelle osseuse, traitement très lourd pouvant entraîner des effets indésirables graves.

Mais cette disette thérapeutique ne saurait durer : l’identification de la maladie et le diagnostic reconnu sur de nombreux patients jusqu’alors non diagnostiqués a déclenché une fièvre de recherches thérapeutiques au niveau mondial.

En particulier, des études cliniques sont en cours pour tester l’efficacité de traitements actifs sur des maladies inflammatoires voisines du VEXAS, ce qui permet d’espérer la découverte de traitements efficaces dans un proche avenir.

 

La puissance de la génomique

Quels enseignements peut-on tirer de cette aventure médicale, dont l’importance a été un peu éclipsée par la pandémie de Covid-19 ?

En premier lieu, elle illustre de façon concrète la puissance potentielle de la génomique pour identifier de nouvelles maladies.

En effet, ce syndrome maintenant nommé VEXAS, n’a pas attendu d’avoir un nom pour faire souffrir, et tuer, car il s’agit d’une maladie mortelle. Il existait déjà, mais les personnes atteintes traînaient leur maladie pendant des années sans diagnostic, ou avec des diagnostics erronés, avec des tentatives de traitements à l’aveugle, beaucoup de souffrances et d’angoisses liées à l’inconnu.

La génomique seule a permis aux chercheurs américains d’intégrer des données de mutations génétiques à grande échelle à des informations sur les symptômes des patients porteurs de maladies inflammatoires non diagnostiquées, et de découvrir, dans un premier temps, 25 personnes dont les caractéristiques cliniques étaient comparables et qui présentaient des mutations du gène UBA1 lié à l’X.

À n’en pas douter, cette méthodologie « genotype first », puisqu’on a identifié les malades par enquête à partir de l’anomalie génétique et non l’inverse, permettra de découvrir dans un avenir proche de nombreuses autres maladies.

 

La mondialisation… pour le meilleur !

En second lieu, comme on l’a constaté lors de la pandémie de Covid-19, la première publication identifiant le syndrome VEXAS a initié un effort mondial intense et les communautés médicales de nombreux pays se sont mis à la recherche des patients non diagnostiqués pouvant relever du VEXAS.

Une collaboration internationale s’est très vite mise en place pour compiler les différents cas repérés, accroître notre connaissance de la maladie, et partager les idées et expériences de nouveaux traitements. Les médecins français se sont très vite coordonnés à l’échelle nationale, et cela leur a permis de publier une étude sur 116 nouveaux cas, série la plus importante jusqu’à ce jour.

Outre le petit cocorico, mérité, on constate qu’à rebours de la fragmentation politique du monde à laquelle on a l’impression d’assister aujourd’hui, la communauté scientifique et médicale sait se mondialiser quand l’urgence le réclame.

 

Gardons le cap des Lumières

Enfin, de façon un peu plus théorique, cette découverte montre à quel point la méthode anatomoclinique n’a rien perdu de son actualité. Celle-ci, définie par Charcot au milieu du XIXe siècle comme « l’étude soigneuse des symptômes associée à la constatation du siège anatomique des lésions » peut être considérée comme une déclinaison médicale de la rationalité des Lumières. Dans le domaine qui nous occupe, la lésion du gène se révèle causalement responsable des symptômes des maladies, comme, naguère, les constatations d’autopsie permettaient d’en découvrir les mécanismes.

Combinée à la médecine expérimentale fondée sur les preuves, cette bonne vieille méthode des Morgagni, Laënnec, Bichat, Charcot et bien d’autres est plus vigoureuse que jamais pour soulager et guérir.

C’est pourquoi nous devons rester vigilants face aux sirènes de l’irrationalisme qui ont pu resurgir, y compris au sein du corps médical, lors des débats autour de la pandémie de Covid-19.

Transhumanisme : la recherche de l’immortalité a-t-elle un sens ?

Par Caroline Cuny & Yannick Chatelain

L’immortalité numérique est désormais à portée. Avec les prodigieuses avancées de l’Intelligence artificielle (IA), nous sommes maintenant en mesure de nous fabriquer un avatar virtuel pour après notre mort. C’est indéniablement « un petit pas pour un homme » vers une immortalité plus « aboutie ». Est-ce pour autant « un bond de géant » pour notre humanité ?

Savoir si la recherche de l’immortalité a un sens est un débat on ne peut plus d’actualité et particulièrement complexe, qui engage tant la philosophie que l’éthique. Or, c’est une question qui va sera de plus en plus souvent posée au regard des progrès médicaux et technologiques inédits des dernières décennies visant à prolonger et améliorer la vie de l’Homme. Avec des arguments en sa faveur qui ne peuvent être ignorés, des arguments « contre » qui ne peuvent non plus être passés sous silence, au cœur de ce questionnement se trouve la condition humaine.

Ceci étant dit, comme le note le biologiste franco-croate Miroslav Radman, si l’on parle d’immortalité, les choses sont très relatives : « le seul candidat est la vie même qui dure déjà entre 3,5 et 4 milliards d’années. Mais la vie n’est pas une entité, c’est un processus robuste qui génère ses produits fragiles – les organismes vivants. »

L’homme est ainsi un produit « fragile » mais qui apparaîtra immortel par rapport à un ver qui ne vit que deux semaines.

 

L’ambition de ne plus mourir

Pour autant, la quête de l’immortalité, au sens strict de ne jamais mourir, est au cœur des préoccupations de certains hommes. En juin 2023, Neuralink, start-up de neurotechnologie dirigée par Elon Musk annonçait avoir reçu l’autorisation des autorités sanitaires américaines pour commencer les essais cliniques de ses puces cérébrales (des implants visant à améliorer les capacités cérébrales humaines et soigner certaines maladies comme celle de Parkinson) sur des humains.

Ces avancées ne peuvent que réjouir la communauté transhumaniste qui revêt – selon les groupes – divers ambitions et objectifs, dont l’amélioration des capacités humaines, mais pas seulement.

Selon les transhumanistes, la quête de l’immortalité passe par le développement de technologies qui prolongent la durée de vie humaine de manière significative, ce grâce à des avancées médicales – les travaux de NeuroLink vont dans ce sens – la régénération des tissus, et éventuellement le transfert de conscience vers des substrats artificiels.

 

Des être humains sans corps ?

La doctrine philosophique transhumaniste vise à « libérer l’humanité de ses limites biologiques en surmontant l’évolution naturelle. Changer l’humain serait positif, car cela pourrait signifier la libération des contraintes de la nature, comme la maladie ou la mort. »

Comme le souligne le sociologue français David Le Breton certains transhumanistes ont même pour ambition de se passer définitivement de toute enveloppe corporelle et organique. Ils voient désormais l’incarnation comme un obstacle majeur à l’épanouissement de soi et, au-delà, au déploiement de la technoscience. Le corps est à leurs yeux une limite tragique qui alimente la vulnérabilité inhérente à la condition humaine. Sans le corps, pensent-ils, ils seraient immortels, imperméables à toute maladie, sans limites, étrangers au vieillissement, uniquement sous l’égide de leurs propres pensées.

Cette position peut être discutée. De quoi dépend l’épanouissement personnel ? Est-il vraiment indépendant du corps et des sens ? Si l’on se réfère aux théories de l’énaction, qui s’intéressent à la manière dont les organismes et les esprits humains s’organisent eux-mêmes en interaction avec l’environnement, les processus cognitifs sont fondamentalement enracinés dans les états corporels et dans les systèmes sensori-moteurs activés dans le cerveau.

Est-ce qu’entrer en relation avec les autres et l’extérieur, sans corps, ne changerait pas totalement notre conscience de nous-mêmes ? Les arguments en faveur de cette quête d’immortalité sont multiples et argumentés, mais ils mettent de côté une partie non négligeable de notre humanité, le corps sensible.

 

Quel sens pour la vie pour les immortels ?

Des opposants à cette quête comme Miroslav Radman, qui se définit comme un biocrate, est un défenseur de la biologie humaine. Il avance que le « rêve transhumaniste » ne relève pas du domaine du naturel, et que, si l’on suit cet « idéal », « le corps humain risque de devenir un simple « châssis » biologique pour les prothèses artificielles ».

D’autres problématiques verraient par ailleurs le jour : d’un point de vue plus pragmatique se pose le problème des ressources naturelles et de la surpopulation. Une surpopulation qui pourrait être gérée par la variable financière, discriminant les mortels des immortels. La question serait alors de savoir qui peut s’offrir l’immortalité.

Dans certaines traditions par exemple slaves et chinoises : un corps enjambé par un animal, particulièrement un chat ou un chien, peut devenir un mort-vivant. De même, un corps blessé et non traité au moyen d’eau bouillante peut devenir un vampire. Dans la littérature également, l’immortalité est souvent associée à une déshumanisation à travers l’image du vampire, transmutation d’un individu ordinaire en un cadavre vivant, marginal dénué de tout sens moral, capable de transformer les autres en monstres comme lui.

L’immortalité impliquerait-elle la perte de son humanité, à l’instar des morts-vivants, c’est-à-dire une déshumanisation au sens propre, biologique comme figuré, une abolition de l’éthique et de la liberté ? Si tel était le cas, vu les mœurs peu amènes des vampires tels qu’ils sont décrits dans de nombreuses œuvres, cela signerait une abolition de l’espoir, tant la vie est faite de sensorialité, de joie, de peine, de remords, de regrets… Si un jour la formule de l’immortalité est trouvée, il faudra veiller à la manier avec sagesse, car les « hommes » qui souhaiteraient en faire usage pourraient prendre le risque de devenir des monstres sans âme.

Sur le web.

Pourquoi l’innovation ne peut être planifiée : l’histoire du transistor

Article disponible en podcast ici.

L’innovation ne peut guère être planifiée, encore moins par un État. Par exemple, une simple amélioration sur les radios a permis l’essor de toute l’électronique et de l’informatique.

 

Le long parcours du transistor

L’étude de l’électricité a rangé les matériaux selon leur résistance au courant. Ceux qui ont une résistance basse sont des conducteurs comme le cuivre, ils laissent passer l’électricité. Ceux qui ont une résistance élevée seront des isolants, comme le caoutchouc.

Cependant, on remarque que dans certains cas cette résistance est pilotable.

En 1833, Faraday s’est rendu compte que la résistance d’un métal décroît avec la température. Edwin Hall découvrit l’effet Hall en 1879 : la résistance d’un métal change en fonction du champ magnétique.

En 1904, John Ambrose Fleming invente le premier tube à vide. Cet appareil permet d’amplifier un courant. Autrement dit, un courant de puissance faible peut faire varier la résistance d’un composant dans lequel circule un courant fort.

La possibilité qu’un faible courant pilote un plus gros courant est la clé de voûte de la radio-télécommunication. Une radio capte un signal électromagnétique dans l’air et doit l’amplifier pour l’utiliser dans un haut-parleur. Le tube à vide est l’élément clé entre l’antenne et le haut-parleur de la radio.

En 1947, des chercheurs américains découvrent les propriétés semi-conductrices du silicium pour fabriquer le premier transistor. Un transistor est un amplificateur de courant comme le tube à vide, mais plus simple, plus fiable, plus petit, et moins coûteux. Il remplaça le tube à vide dans les radios et radars.

 

La force vient du nombre

Le transistor de 1947 ne mesure que quelques millimètres, et ses transitions d’états sont presque instantanées. Aussi une propriété mathématique devient intéressante.

Un transistor reçoit la puissance à piloter sur une entrée (A), le signal pilote sur l’entrée (B) et le signal amplifié sur la sortie (C). Dans une logique binaire, avec des entrées soient ouvertes soient fermées, il faut que A et B soient ouverts pour ouvrir C. Le transistor peut donc aussi être vu comme un opérateur mathématique élémentaire que l’on nomme AND. Une variante du transistor existe aussi en opposé qu’on nomme NAND (not-AND).

Il a été prouvé qu’avec suffisamment d’opérateurs NAND intégrés les uns aux autres, il est possible de concevoir un circuit réalisant n’importe quelle fonction logique.

On peut donc concevoir des mémoires, des additions, des multiplications et autres à partir de NAND. Or justement en 1958, le premier circuit intégré est produit. Il s’agit d’un processus industriel permettant de concevoir de minuscules transistors directement sur une plaque de silicium.

On peut facilement chaîner des milliers de NAND sur quelques centimètres, et ainsi réaliser n’importe quelle fonction logique.

 

Toujours plus de transistors

On peut concevoir n’importe quelle fonction logique à condition de chaîner suffisamment de transistors NAND. Un premier phénomène d’émergence est présent avec quelques centaines pour faire des calculatrices. Ou plus généralement un calcul précis.

En passant vers le millier de transistors, on arrive à concevoir des fonctions logiques programmables. Un même circuit intégré peut maintenant avoir plusieurs usages, en fonction de comment on le programme.

En 1971, Intel sort le Intel 4004, le premier microcontrôler programmable avec 2300 transistors. Aujourd’hui, il y a 65 milliards de transistors dans le processeur Apple M2.

Cette évolution spectaculaire du nombre de transistors a corroboré la prédiction du président d’Intel Gordon Moore qui envisageait un doublement du nombre de transistors dans les ordinateurs tous les six mois. Cette explosion a ouvert la voie à l’informatique. Cette fonction logique présente dans nos processeurs permet maintenant de programmer n’importe quel cas d’usage.

L’informatique a été possible, car un élément fort simple comme un opérateur NAND a pu être fabriqué et assemblé par milliers, puis millions et maintenant milliards sur une plaque de silicium de quelques centimètres.

Par sa multitude, l’opérateur NAND peut devenir n’importe quelle fonction logique, y compris des fonctions logiques programmables pour faire fonctionner nos ordinateurs et nos smartphones.

Le rôle du transistor aujourd’hui se retrouve très éloigné du simple remplacement du tube à vide dans les radios.

Traitement du cancer : la révolution ne fait que commencer

Aujourd’hui encore le mot « cancer » est porteur d’une charge émotionnelle, personnelle et sociale considérable pour les personnes atteintes et pour leur entourage. Il est vrai que cette maladie fait peser sur la santé publique un poids qui ne semble pas s’alléger avec le temps, bien au contraire.

Mais la révolution arrive… D’ailleurs, elle est déjà là.

 

Le cancer n’est plus une fatalité

En effet, que de progrès accomplis en une seule génération !

Il y a trente ans, tous types de cancers confondus, le taux de survie à dix ans des patients ne dépassait pas 25 %, aujourd’hui il s’élève à plus de 50 %, et il augmente régulièrement ; certains cancers, comme les cancers de la thyroïde ou des testicules sont presque tous guéris. Ce sont plusieurs dizaines de milliers de vies qui sont ainsi épargnées chaque année.

 

Personnalisation et précision

Deux concepts-clefs expliquent pour l’essentiel ces progrès :

  1. La personnalisation des traitements
  2. La précision des traitements

 

La seconde étant pour l’essentiel fonction de la première.

La personnalisation s’exerce à deux niveaux : celui des patients, dont on sait aujourd’hui qu’ils ne reçoivent pas l’agression tumorale de la même façon, mais aussi, et peut-être surtout, au niveau des cancers eux-mêmes dont les variations cellulaires sont pratiquement infinies : on ne devrait plus jamais écrire le mot « cancer » au singulier.

C’est donc à un couple individualisé « cancer – patient » qu’ont affaire les thérapeutes, dont la tâche a cru en complexité mais aussi en précision, celle-ci permettant à la fois d’augmenter l’efficacité des traitements, mais aussi de limiter les effets secondaires : plus on frappe juste, plus on frappe fort, et plus on limite les dégâts collatéraux.

 

Personnalité tumorale

Ce ne sont donc pas tant les traitements des cancers qui ont changé que la façon dont ils sont finement adaptés à chaque personnalité tumorale, et à chaque patient.

Prenons l’exemple des leucémies des enfants : voici 40 ans, sur dix jeunes malades, un ou deux étaient sauvés, on en perdait donc huit à neuf. De nos jours, la proportion s’est inversée et ce, en l’absence de chimiothérapies vraiment nouvelles.

Comment cela a-t-il été possible, et surtout ces succès vont-ils durer ?

 

La fin de la résignation

Là, comme ailleurs, le premier facteur est le facteur humain : d’une part les médecins ne se résignent pas à voir souffrir et mourir leurs patients atteints d’un cancer, et toutes les pistes sont bonnes pour trouver des moyens de les soigner ; d’autre part, les malades eux-mêmes, et la société, n’acceptent plus la fatalité du cancer. Ils se mobilisent pour trouver les moyens de lutter contre la maladie.

Et bien sûr, ne pas se résigner consiste en premier lieu à lutter contre les addictions au tabac et à l’alcool qui sont responsables de 42 % des cancers en France, et à promouvoir les dépistages précoces des cancers du sein, du col de l’utérus, du côlon, de la peau…

 

Un progrès technique exponentiel

Pour progresser dans la découverte de nouveaux traitements, les chercheurs utilisent les ressources d’un progrès technique exponentiel en termes de biotechnologies, d’informatique, d’ingénierie et d’imagerie.

Grâce en particulier au développement du séquençage à haut débit et aux big data, ils peuvent désormais compiler et croiser les informations concernant les malades et leurs tumeurs, au niveau des cellules, des molécules et du génome, informations que l’intelligence artificielle permet d’analyser.

 

La recherche clinique

Ces outils permettent à la recherche clinique de proposer des protocoles de plus en plus élaborés, comme l’explique l’INCa, Institut National du Cancer :

« Parmi les essais cliniques, les essais thérapeutiques doivent notamment évaluer :

  • de nouveaux médicaments ou associations de médicaments (contre la maladie ou ses effets secondaires), comparés dans certains cas aux traitements existants ;
  • de nouvelles façons de les administrer (par comprimés plutôt que par injections, par exemple) ;
  • de nouvelles techniques de traitement (nouveau type d’opération chirurgicale ou de radiothérapie, par exemple).

D’autres essais cliniques peuvent porter sur de nouvelles techniques de diagnostic (nouveau test biologique, par exemple) ou de prévention.

Les essais cliniques sont indispensables pour faire progresser et améliorer la prise en charge des cancers et, en conséquence, le parcours de soins des patients ».

 

Et le capitalisme mondialisé !

Enfin, et il n’aurait pas été abusif de mettre ce facteur en premier : seules les ressources financières considérables fournies par le capitalisme mondialisé, appuyé sur la veille marketing de tout marché libre, à l’affût des innovations rentables, rendent possible le financement de toute la chaîne de recherche.

Rappelons en effet que les médicaments anticancéreux occupent la première place du marché pharmaceutique mondial, représentant 14 % de ce marché, en hausse constante.

 

La triade chirurgie/radiologie/chimiothérapie

Si d’authentiques innovations ont contribué à ces avancées – nous en reparlerons – les principes de base du traitement n’ont pas changé : aujourd’hui comme naguère ils reposent pour l’essentiel sur la triade chirurgie / radiologie / chimiothérapie.

On enlève au scalpel le plus possible de tissu tumoral, on brûle les résidus avec des radiations, et on injecte dans le corps des médicaments destinés à tuer les cellules cancéreuses qui survivent.

Une chirurgie plus fine et moins invasive

Pour les tumeurs dites solides, par opposition aux cancers du sang et de la lymphe, dits liquides, la chirurgie est le plus souvent le traitement de premier recours.

La chirurgie est plus fine, moins invasive et donc beaucoup plus sûre : anesthésies partielles, cœlioscopie, c’est-à-dire une intervention via de petites incisions et une caméra, chirurgie au laser, aux ultrasons, par radiofréquence, voire cryochirurgie, qui utilise le froid, rivalisent d’innovations pour des interventions toujours plus légères et efficaces.

La radiothérapie plus précise

La radiothérapie est elle aussi une technique ancienne pour traiter les cancers, mais les radiologues d’antan n’y retrouveraient pas leurs rayons.

La radiothérapie d’aujourd’hui est plus précise. Elle permet de guérir un plus grand nombre de patients en limitant les effets indésirables ­: modulation de l’intensité des doses, délivrance de doses différentielles au sein de la tumeur, contrôle par l’image, utilisation de nouvelles énergies comme les protons, qui permettent de cibler précisément la tumeur en milieu fragile (cancers du cerveau).

Une chimiothérapie ciblée

La chimiothérapie a pour but de détruire ou d’empêcher la prolifération des cellules cancéreuses. Ce traitement est capable de dégrader l’ADN des cellules tumorales, de cibler ses composants essentiels, d’inhiber les enzymes et molécules permettant à ces cellules de bien fonctionner, ou encore de bloquer la division cellulaire.

Beaucoup des médicaments utilisés sont restés les mêmes, mais ils sont associés et dosés de façon ciblée en fonction de l’analyse cellulaire du « couple tumeur – patient », ce qui permet d’augmenter leur efficacité tout en limitant leurs effets indésirables.

Mais le progrès en cancérologie ne s’est pas borné à améliorer les traitements existants. Il a aussi profité, et profitera de plus en plus, d’innovations radicales, à commencer par l’immunothérapie.

 

L’immunothérapie, une révolution en cours

Le système immunitaire permet de protéger notre organisme des virus et bactéries pathogènes, mais il permet aussi de détruire les cellules dangereuses, inutiles, malformées ou cancéreuses.

Certains cancers sont capables de s’adapter et d’échapper à la vigilance du système immunitaire.

Le principe de l’immunothérapie est d’aider le système immunitaire du patient à s’adapter lui aussi et à éliminer les cellules cancéreuses.

Des molécules efficaces sont déjà utilisées avec succès contre les mélanomes, les cancers du rein, du poumon, les leucémies. Ils le seront très bientôt dans les cancers du sein, du foie, de la vessie, de la prostate, du colon, des os, et dans les lymphomes.

 

Les vaccins thérapeutiques en oncologie

Ils représentent une voie très prometteuse dans la lutte contre les cancers.

Le vaccin fonctionne en éduquant le système immunitaire à lutter contre des éléments propres à la tumeur. Ce n’est donc pas un vaccin préventif pour les personnes en bonne santé, il est destiné aux personnes déjà touchées par le cancer. Il s’agit d’un traitement ultra-personnalisé, puisqu’on va identifier les antigènes spécifiques des cellules cancéreuses du patient, puis les réintroduire dans l’organisme pour l’entraîner à reconnaître ses cibles et à les combattre.

Des études cliniques très encourageantes ont été publiées cette année dans le traitement des cancers du pancréas, devant lesquels les thérapeutes sont souvent démunis, et dans les mélanomes cutanés.

 

Les thérapies cellulaires à cellules CAR-T

La production des cellules CAR-T consiste à extraire des lymphocytes T par leucaphérèse, un prélèvement sanguin ciblant les globules blancs du patient, puis à les modifier génétiquement en laboratoire afin qu’ils puissent reconnaître les cellules cancéreuses. On réinjecte ensuite ces cellules activées au patient, qui vont aller se fixer sur les cellules cancéreuses et les détruire.

Ce traitement est déjà utilisé avec succès dans les lymphomes et certaines leucémies, notamment chez l’enfant et le jeune adulte.

 

La greffe de moelle osseuse

Citons enfin la greffe de moelle osseuse, utilisée contre certains cancers du sang où elle permet parfois des guérisons complètes chez des patients auparavant considérés comme perdus.

La moelle osseuse, à ne pas confondre avec la moelle épinière, contient des cellules dans les os longs qui fabriquent les éléments essentiels du sang. Ces cellules dites « hématopoïétiques » peuvent être altérées, soit par un cancer soit par les chimiothérapies. La greffe consiste à remplacer la moelle déficiente du malade par celle d’un donneur sain compatible.

Ainsi, dans le meilleur des cas, la moelle se remet à produire du sang normal avec les cellules du donneur.

 

Enfin, une révolution de velours

Néanmoins, une autre révolution, de velours celle-là, moins spectaculaire mais non moins efficace, a transformé la vie des patients atteints de cancers.

C’est celle de la communication sur la maladie, le parcours de soins et l’accompagnement des patients et de leur famille.

Il y a 40 ans, les médecins dissimulaient le diagnostic d’une maladie vécue comme une condamnation à mort. Aujourd’hui, l’information sur la maladie et son traitement sont la règle, faisant du malade et de ses proches des intervenants à part entière dans le processus de soins. Ainsi, l’image sociale de la maladie s’améliore peu à peu pour rejoindre celle des autres maladies chroniques, cardiovasculaires ou rhumatismales.

La multidisciplinarité autour de ces maladies complexes, l’accompagnement psychologique et social, la collaboration entre les professionnels de santé libéraux, hospitaliers ou associatifs, remettent le patient au centre du système et lui donnent le pouvoir sur sa maladie.

Cette révolution-là n’est pas la plus facile !

 

Nuit de l’écologie : LR en quête d’une écologie de droite

C’est dans un parc des expositions de la porte de Versailles en pleine modernisation, à quelques mois des JO de Paris, et avec une vue imprenable sur une tour Eiffel qui n’était toutefois plus illuminée aux couleurs du drapeau israélien, que s’est tenue ce mardi 10 octobre la Nuit de l’écologie.

Durant plus de quatre heures, un parterre de 250 militants et sympathisants Les Républicains a été invité à définir l’écologisme de droite.

Au programme : changement climatique, neutralité carbone, adaptation et fiscalité verte. Le tout lié par une opposition déclarée à la logique de la décroissance.

 

Les Verts réfractaires au débat

Ces quatre heures d’orchestre ont eu pour chefs deux hommes : Geoffroy Didier et Antoine Vermorel-Marques, député de la Loire, chef de file de la tendance écologiste du parti, et parmi les plus fervents partisans d’un accord de gouvernement avec la Macronie.

Si le duo a bien tenté d’inviter des membres d’EELV, ses principales têtes d’affiche ont décliné. La soirée était toutefois animée par une douzaine de pontes du parti gaulliste sous le regard d’Emmanuelle Mignon, nouvelle vice-présidente du parti en charge du projet et des idées.

Parmi les invités extérieurs se trouvaient notamment Robert Vautard, membre du Laboratoire des Sciences du Climat et de l’Environnement (LSCE) et coprésident du GIEC, mais également le plus médiatique des apôtres de la décroissance, l’ingénieur civil, créateur du bilan carbone et président du Schift Project Jean-Marc Jancovici, connu notamment pour avoir récemment proposé de limiter le nombre de trajets aériens à 4 par personne et par vie.

 

Définir une doctrine

En conclusion d’une conférence donnée à l’Université de Haute-Alsace ce jeudi 12 octobre, l’ancien Premier ministre, et désormais membre du Conseil constitutionnel Alain Juppé a appelé la jeunesse, et en particulier les étudiants de son auditoire, à se saisir de deux sujets majeurs : le numérique et le changement climatique.

Deux thématiques désormais centrales dans le débat public, et ce n’est pas pour rien si la Nuit de l’écologie, organisée par son ancien parti politique, s’inscrit dans un travail de refondation doctrinale initiée depuis maintenant plus d’un an.

Chez les jeunes en particulier, des sondages nous montrent que la préoccupation environnementale chez nos électeurs est désormais au-dessus de celle de la sécurité », estime d’ailleurs Geoffroy Didier chez nos confrères du journal Le Monde.

 

Une droite déjà en pointe sur le sujet

Le thème serait d’autant plus important à aborder que LR serait suspecté de se laisser aller à une tentation climatosceptique depuis la présence du docteur d’État en science politique et docteur en philosophie Yves Roucaute lors d’une journée de formation auprès des jeunes cadres du parti le 9 septembre dernier. L’auteur de L’Obscurantisme vert : la véritable histoire de la condition humaine, paru l’année dernière aux éditions du Cerf, estime en effet que la contribution anthropique au changement climatique serait « dérisoire ».

Pourtant, le passif de la droite gaulliste en matière d’environnement n’est plus à démontrer, qu’il s’agisse de son combat pour le nucléaire depuis bientôt sept décennies ou le Grenelle de l’environnement créé par Nicolas Sarkozy en 2007.

Néanmoins, les nouveaux enjeux de sociétés appellent à la définition d’une doctrine environnementale claire, à laquelle la droite ne saurait échapper.

 

Cartographie de l’écologisme

Cet environnementalisme de droite se distingue de trois autres formes : l’écologisme de gauche, l’écologisme d’extrême droite, et l’écologisme libéral.

Si l’idée que le clivage gauche-droite est obsolète court dans les discussions de café du commerce depuis plusieurs décennies, il existe un invariant distinctif : la droite conserve l’acquis occidental auquel la gauche s’oppose avec plus ou moins de vigueur selon le degré. Cet acquis peut être lié au christianisme, au libéralisme ou au républicanisme, auxquels la gauche oppose l’anticléricalisme, le socialisme, et la discrimination positive.

Il n’est donc pas étonnant que l’écologisme de gauche se base sur une contre-religion, avec sa divinité, ses blasphèmes, ses sacrifices médiatiques, son apocalypse, ses commandements précis appliqués à la vie quotidienne, son rigorisme, son prométhéïsme et son millénarisme. Selon ses tenants, cette contre-religion justifie l’application d’une pensée planiste, voire tout simplement socialiste.

Cet écologisme s’oppose, mais se rapproche de l’écologisme d’extrême droite. Ce dernier, théorisé par des philosophes allemands entre le XIXe siècle et l’avènement du IIIe Reich, se fonde essentiellement le mouvement « Blut und Boden » (le sang et la terre) théorisé par Oswald Spengler.

Si la législation environnementale nazie a servi d’exemple aux législations actuelles sur le sujet, l’écologisme d’extrême droite se fonde avant tout sur l’exaltation du monde rural et de la pureté fantasmée de la nature qui rejoint celle de la race.

De façon évidente, cet écologisme s’oppose également à l’écologisme libéral, fondé sur la logique d’assurance et de propriété privée comme moyen d’une gestion « de bon père de famille » des ressources naturelles à la manière d’un capital à faire fructifier.

 

Un écologisme croissantiste

De son côté, LR propose un écologisme de droite « responsable et supportable » et reprenant l’idée d’une co-prospérité homme-nature. Cet écologisme se veut naturellement pragmatique, pro-nucléaire et pro-libertés individuelles. Surtout, il s’oppose vigoureusement à la décroissance des deux premières formes d’écologisme évoquées plus haut.

Ce n’est pas pour rien si Éric Ciotti estime que cet écologisme est financé « par la croissance ».

Ce n’est donc pas un hasard si l’invité phare de la soirée n’était autre que Jean-Marc Jancovici, dont le discours économique se fonde sur l’idée que la croissance serait liée à la consommation d’énergies fossiles.

Or, la science se fonde sur le débat.

Pour cause, cette thèse est fortement discutée. Cette corrélation l’est notamment par Lucas Bretschger, professeur au Centre de recherche économique de l’université de Zurich.

Même son de cloche du côté de Gaël Giraud dans une entrevue pour le journal du CNRS parue en 2015. S’il estime effectivement qu’il existe une corrélation entre croissance et consommation d’énergies en général, l’économiste concède que la croissance actuelle se fonde sur « d’autres types d’énergie que des énergies fossiles ».

Cette idée est confirmée par Peter Newman, professeur de développement durable à l’Université Curtin, en Australie, qui constate le découplage du PIB et de l’émission de gaz à effets de serre et anticipe une explosion de la part des énergies renouvelables dans les 25 prochaines années, tout en soutenant la croissance du PIB mondial.

 

Contre les décroissants

Nous, libéraux, sommes régulièrement accusés d’être des fanatiques d’une croissance économique que les penseurs autrichiens critiquent pourtant eux-mêmes bien davantage que quiconque.

Cependant, l’écologisme rime de moins en moins avec décroissance.

L’extrême gauche devra donc trouver un autre moyen de légitimer sa volonté de nous ramener à l’Âge de pierre.

Dans ce sens, et comme le notait dans nos colonnes l’ingénieur et expert à l’Institut Sapiens Philippe Charlez au début du mois, la droite doit s’opposer vigoureusement à cette logique.

Les Républicains semblent donc avoir répondu favorablement à cet appel.

[PODCAST] Ôde au sublime et révolutionnaire Bitcoin ! Avec Faune Radio

Épisode #42 

Fauno le Faune est un passionné de Bitcoin qui anime la chaîne Faune Radio sur YouTube.

Ses vidéos abordent des questions diverses autour de Bitcoin en tant qu’objet politique, sociologique, médiatique, historique, philosophique, etc. Dans cet entretien nous parlons du rapport que peuvent entretenir avec Bitcoin des personnes qui ne viennent pas d’une tradition intellectuelle libérale. Enregistré à Paris le 19 septembre 2023. Production et réalisation par Pierre Schweitzer.

Pour soutenir l’émission en utilisant Bitcoin, vous pouvez faire un don en BTC à l’adresse suivante : bc1qgf48xvqq25xsaqz7vae7l5v8azhl2suden98nv, ou encore en Lightning à l’adresse contrepoints_donate@lnmarkets.com

Pour écouter l’épisode, utilisez le lecteur ci-dessous. Si rien ne s’affiche, rechargez la page ou cliquez directement ici.

Programme : 

Introduction – 0:00

Présentation de l’invité – 1:45

Pourquoi Bitcoin plutôt que « les cryptos » ? – 6:44

Venez pour la technologie, restez pour la philosophie ? – 12:26

« Je suis assez peu perméable à la poésie de la liberté » – 15:25

« Le Bitcoin ? C’est avant tout des rencontres » – 19:31

Bitcoin comme institution – 23:16

La théorie économique autrichienne est-elle hégémonique au sein de Bitcoin ? – 24:46

Pourquoi la gauche libertaire ne s’empare-t-elle pas du phénomène Bitcoin ? – 27:34

Quel est l’aspect le moins bien compris du public dans Bitcoin ? – 33:43

D’où vient la valeur de Bitcoin ? – 36:28

Ne faut-il pas protéger les investisseurs trop crédules ? – 40:19

Bitcoin peut-il survivre à une intégration au système financier ? – 43:16

Bitcoin et le complotisme – 45:12

Quelques conseils pour débuter – 51:53

Quel futur pour la chaîne Faune Radio ? – 54:52

 

Ressources complémentaires : 

Pierre Schweitzer invité sur le live de Faune Radio

La monnaie acéphale (J. Favier, A. Takkal-Bataille)

La voie du Bitcoin

Totem et Tabou de Yorick de Mombynes  

Les conférences de Mael Rolland

L’article d’Alexandre Stachtchenko sur Bitcoin et l’environnement

Contrepoints Podcast avec Ludovic Lars

Contrepoints Podcast avec Yorick de Mombynes 

Bitcoin « White Paper », l’article originel de Satoshi Nakamoto

Pour nous suivre : 

Chaîne YouTube Faune Radio

Twitter de Fauno :

Twitter Contrepoints

Twitter Pierre Schweitzer

Facebook – Contrepoints ⁠

YouTube – Contrepoints ⁠

 

La cathédrale finalement… faut-il des leaders impossibles pour accomplir de grandes choses ?

Dans sa fameuse interview de 1995 que j’ai citée dans d’autres articles (c’est une mine d’or), Steeve Jobs revient longuement sur cet épisode de la création du Macintosh.

 

Le contexte

Après l’incroyable réussite de ses débuts, Apple vit sur sa rente et, au début des années 1980, est devenue une grosse entreprise bureaucratique qui a du mal à se renouveler. Classique.

Steve Jobs, pourtant cofondateur de l’entreprise, a été peu à peu marginalisé. Il réussit à monter une équipe pour se lancer dans un projet fou : créer un petit ordinateur avec une interface entièrement graphique. Avec Lisa, Apple a déjà un projet similaire à l’époque, très officiel, mais qui vise à créer un ordinateur professionnel. Ce sera un échec cuisant.

Il crée son équipe dans un bâtiment isolé sur le toit duquel il plante un drapeau de pirate. Tout est dit. Il recrute une équipe de personnes exceptionnellement talentueuses. Si l’interface graphique est devenue banale aujourd’hui, elle est entièrement nouvelle à l’époque, et peu y croient vraiment. C’est un pari fou. Tout est à inventer. Les problèmes techniques sont innombrables. Le projet sera incroyablement difficile, une « marche de la mort »,  pour reprendre une expression que l’on rencontre parfois dans certains projets où l’avancée se fait à un coût très important pour l’équipe, et où tout le monde n’arrive pas vivant à la fin (métaphoriquement parlant).

Le journaliste Bob Cringley a interviewé plusieurs des membres de cette équipe, et tous disent la même chose : le projet a été une expérience d’une incroyable intensité, qui les a marqués à jamais, mais qu’ils ne seraient sans doute pas en mesure de recommencer. On retrouve dans ces témoignages des expressions similaires à ceux qui ont vécu la guerre : un mélange d’horreur et d’excitation, quelque chose d’indicible, dont on est content d’être sorti, mais que d’une certaine façon on se sent privilégié d’avoir pu vivre.

Jobs en a parfaitement conscience, de même qu’il a parfaitement conscience d’être un leader extrêmement exigeant, voire impossible (odieux est peut-être plus exact). L’empathie, ce n’est pas son truc. Il est connu pour sa dureté de jugement du travail de ses équipes. « C’est de la merde » est sa réaction typique lorsque quelqu’un lui présente son travail.

Qu’en dit-il dix ans après ?

Il en dit la chose suivante :

« Lorsque vous travaillez avec des gens talentueux (il les nomme A people par opposition à B), vous n’avez pas besoin de gérer leur ego. Vous pouvez vous concentrer sur la substance ».

Le journaliste tend une perche pour que Jobs adoucisse son propos :

« Quand vous dites que le développeur a fait de la merde, que voulez-vous vraiment lui dire ? »

Jobs ne fléchit pas : « Eh bien, généralement, que ce qu’il a fait, c’est de la merde ».

La dureté est ici une forme d’exigence, une forme de respect qui n’a de sens que parce que la personne qu’il critique – ou qu’il attaque, plus exactement – est quelqu’un de talentueux, et qui le sait. Avec un médiocre, il faudrait être beaucoup plus circonspect, beaucoup moins honnête, et quelque part beaucoup moins respectueux : « C’est bien ce que tu fais, mais tu peux mieux faire de telle ou telle façon. Bravo, c’est l’effort qui compte. »

Mais Jobs ne travaille pas avec des médiocres, seulement avec des personnes exceptionnelles. Il estime donc ne pas avoir à s’embarrasser de fioritures. C’est du lourd, c’est du direct, il les a choisis pour ça.

L’œuvre signée (Source: Wikipedia)

La cathédrale

Et au bout de la marche de la mort, il y a la cathédrale : le Macintosh.

Lorsqu’il sort en 1984, c’est une révolution. Il est cher, il n’a pas assez de mémoire, ce qui le rend difficilement utilisable, mais il change le paradigme de l’informatique, même si comme beaucoup d’autres révolutions avant lui, l’effet n’est pas immédiat.

Je me souviens du choc que j’ai ressenti lorsque je l’ai vu et utilisé pour la première fois, en juin 1984. J’avais un Apple II à l’époque, et du jour au lendemain, je ne l’ai plus touché. Le futur de l’informatique, c’était ça, aucun doute. Il faudra dix ans pour que le monde du PC adopte le même paradigme après l’avoir longtemps dénigré. À l’intérieur du Mac, invisible pour les acheteurs, les membres de l’équipe signent de leur main, avec le peu d’énergie qu’il leur reste, sur la coque, comme une œuvre d’art que le Mac est, d’une certaine façon.

On pense qu’un leader comme Steve Jobs ne peut être entouré que d’exécutants sans personnalité, que de médiocres obéissants. C’est notamment la thèse de Jim collins.

Ce n’est pas nécessairement vrai.

Jobs le dit lui-même: son équipe était constituée de « Joueurs A », d’ingénieurs exceptionnellement talentueux, qui auraient sans difficulté pu trouver un travail au moins aussi bien payé et beaucoup plus tranquille dans une autre entreprise. Mais ce n’est visiblement pas la tranquillité d’esprit qu’ils recherchaient.

Mais alors que cherchaient-ils ? Sans doute la cathédrale, le fait de savoir qu’ils travaillaient sur un produit qui allait changer le cours de l’histoire de l’informatique, du moins l’espéraient-ils, car rien n’était sûr. Sans doute aussi pour l’expérience elle-même. Jobs l’évoque dans l’interview. Les joueurs A veulent être avec d’autres joueurs A. L’incroyable motivation d’être avec des pairs, des gens aussi talentueux que vous, l’émulation qui en résulte qui tire tout le monde vers le haut, et de travailler ensemble sur un projet incroyablement difficile. L’expérience même avec son extrême intensité. L’exaltation de résoudre des problèmes radicalement nouveaux et complexes.

« Rien de grand ne s’est fait sans de grands hommes, et ceux-ci le sont pour l’avoir voulu », écrivait Charles de Gaulle.

Des leaders impossibles permettent de faire des choses a priori impossibles. Est-ce pour autant que seuls de tels leaders permettent des révolutions ? Pas nécessairement, bien sûr.

De même, cette forme de leadership a évidemment des côtés sombres, et peut être parfois une cause d’échec. Mais compte tenu des obstacles que rencontre toute innovation radicale, qu’elle soit technologique, sociale ou politique, il est difficile de penser qu’elle puisse réussir sans un leader avec, au moins, une forte personnalité. C’est un domaine dans lequel l’eau tiède est un handicap. Si la question du leadership et des limites et des dangers de certaines de ses formes est loin d’être tranchée, il faut sans doute admettre que le côté sombre est peut-être le prix à payer pour la révolution. Le danger étant, bien sûr, que le côté sombre est certain, alors que la révolution ne l’est pas.

Pour une nuance sur le propos, lire mon article « Est-il nécessaire de vouloir bâtir une cathédrale pour donner un sens à son travail ? »

Voir sur le web.

🎧 Cet article est disponible en format audio podcast: Apple Podcast – Google Podcast – Tumult – Deezer – Spotify – Podinstall

Et si l’IA était la chance des moins qualifiés ?

Il y a de cela déjà quelques années, je suis allé dispenser une formation en Russie.

Arrivé à l’aéroport, je monte dans un taxi réservé par le client. Je ne parle pas russe, et le chauffeur m’a vite fait comprendre qu’il ne parlait ni français ni anglais. Mais il avait mon nom, et savait visiblement où me déposer, et nous voilà partis.

Je m’attendais donc à un parcours silencieux, mais au bout de quelques minutes, il s’est mis à parler. Interloqué, je me suis demandé ce qui lui prenait. Quelle n’a pas été ma surprise d’entendre quelques secondes après une charmante voix féminine m’indiquer, en anglais, que sur la droite se tenait tel musée construit par Pierre le Grand, sur la gauche le monument dédié aux anciens combattants de la Seconde Guerre mondiale, etc.

En fait, le chauffeur parlait dans son téléphone équipé de Google Translate. L’application reconnaissait sa parole, la traduisait, et la ressortait en anglais. Je n’en suis toujours pas vraiment revenu. Google Translate lui permet de transporter des clients dont il ne parle pas la langue. Il peut faire plus, avec moins d’énergie, malgré son manque de qualification évident. Sans Google Translate, il aurait dû se contenter de passagers locaux, moins rémunérateurs. En clair, son manque de qualification a été compensé par l’IA. Grâce à elle, le chauffeur de taxi peut parler 30 langues, ou peut-être 150.

Dans un article précédent, j’évoquais l’image qu’utilisait Steve Jobs pour montrer les effets de la révolution du logiciel lorsqu’il déclarait que l’ordinateur était une « bicyclette pour l’esprit ».

Par cela, il voulait dire que l’Homme avait inventé un outil lui permettant de faire beaucoup plus qu’il ne pouvait faire naturellement. Il concluait : la principale différence entre les humains et les animaux est que les humains fabriquent des outils pour faire plus avec moins d’énergie, et ainsi démultiplier leurs capacités naturelles pourtant limitées. L’intelligence artificielle, c’est la bicyclette… puissance 10. Elle va permettre aux humains de faire plus, considérablement plus, avec moins d’énergie.

 

Suffisant

Chaque fois que je raconte cette anecdote, il se trouve quelqu’un pour me rétorquer que le chauffeur ne « parle » pas anglais, que Google Translate ne remplace pas l’apprentissage des langues. Et que va devenir le monde si nous cessons d’apprendre les langues étrangères ?

Mais c’est se tromper de question.

Évidemment qu’il faut continuer à apprendre les langues étrangères (et les langues mortes). Quelqu’un qui apprend une langue découvre aussi une culture. Mais l’alternative ici pour le chauffeur n’est pas entre apprendre ou ne pas apprendre une langue. Parce que cette alternative, il l’a déjà de facto résolue il y a vingt ou trente ans lorsqu’il était à l’école, et qu’il n’a pas appris l’anglais (parce qu’il n’a pas pu, parce qu’il n’a pas voulu ou pas su, peu importe).

Lorsqu’il m’accueille à l’aéroport, l’alternative est entre pouvoir et ne pas pouvoir me parler. Autrement dit, l’alternative à l’IA, c’est rien. Et là, l’IA, quelles que soient ses limites, c’est mieux que rien. Ce qui importe pour une nouvelle technologie, ce n’est donc pas qu’elle soit parfaite, ou qu’elle soit aussi bien que le naturel (apprendre une langue), c’est qu’elle soit suffisante pour celui qui, sans elle, ne pourrait rien faire.

On ne doit donc pas la juger vue d’en haut, à partir d’un critère de perfection – « Ah mais monsieur, rien ne remplace l’apprentissage du russe pour comprendre Pouchkine », mais à partir du bas : « Grâce à Google Translate je peux parler avec mon client et lui faire une visite guidée même si l’anglais n’est pas terrible ». Pas terrible, c’est mieux que rien.

 

Une école dans la poche

À tous les prophètes de malheur qui nous assènent ce qu’ils pensent être des évidences avec force courbes et slogans marquants (« demain tous au chômage ? »), à savoir que l’IA déclassera les moins qualifiés, on peut donc opposer l’idée selon laquelle, au contraire, comme ce chauffeur de taxi russe, elle permettra aux moins qualifiés de cesser d’être pénalisés.

Ils auront à tout moment leur « école » universelle sous la main. L’IA est donc profondément subversive. Grâce à elle, la connaissance deviendra une commodité, et ne sera plus réservée à une petite élite. Il ne faut donc pas s’étonner que l’élite lui soit hostile.

Car comme le disait Chris Anderson dans son ouvrage La nouvelle révolution industrielle :

« Le changement révolutionnaire se produit lorsque les industries se démocratisent, lorsqu’elles sont arrachées au seul domaine des entreprises, des gouvernements et des institutions et cédées aux gens ordinaires. »

Au lieu d’être une grande soustraction, l’IA est peut-être au contraire la grande addition ultime qui va mettre fin à l’inégalité résultant de la formation.

Et si l’IA était la chance des gens ordinaires ?

Sur le web

(I/IV) Jean-Marc Jancovici se trompe : voici pourquoi le trafic aérien va exploser au XXIe siècle

Dans les débats sur la transition énergétique, la figure de Jean-Marc Jancovici est incontournable : à l’écouter, si nous voulons limiter les dégâts, il est urgent de réduire notre consommation d’hydrocarbures, et dans tous les cas, ceux-ci ne seront plus aussi abondants que par le passé. Par exemple, il aime répéter que le pic de production mondiale du pétrole conventionnel a été atteint en 2008.

Compte tenu, d’une part, des difficultés à déployer en masse énergies renouvelables et nucléaire, et d’autre part, du problème de l’intermittence pour les énergies renouvelables non-pilotables, on n’aura le choix au XXIe siècle, dit-il, qu’entre les privations subies ou choisies : pauvreté ou sobriété.

Entre autres renoncements, oubliez l’avion comme moyen de transport intercontinental bon marché pour les masses.

C’était un raisonnement pertinent jusqu’à récemment.

Nous avons depuis quelques années assez de recul sur certaines tendances de fond pour pouvoir dire qu’il comporte des failles majeures quant à l’après 2050.

En résumé :

  1. Le prix de l’énergie solaire photovoltaïque baisse de façon quasi continue depuis 1970.
  2. Au rythme actuel, avant 2040, il sera moins cher de produire des hydrocarbures de synthèse neutres en carbone grâce à l’air ambiant et au solaire photovoltaïque que de les extraire du sol dans la plupart des cas.
  3. Il y a assez de matières premières et de surfaces ensoleillées dans le monde pour construire et installer un parc de panneaux potovoltaïques à même de générer chaque année l’équivalent en gaz de synthèse de notre consommation actuelle en énergies fossiles.
  4. Au rythme actuel des déploiements des panneaux, avec un parc total installé qui double tous les deux ans, on pourrait atteindre la taille critique avant 2040.

 

Nous allons publier cette série en quatre parties.

On en conclura à la fin que l’abondance énergétique verte et pilotable est en vue avant 2050, ce qui permettrait de faire chuter d’ici là à quasi zéro les émissions nettes mondiales de CO2, soit l’objectif fixé par le GIEC pour le CO2 en 2050 pour contribuer à limiter la hausse du réchauffement climatique aux fameux 1,5°C.

Les incitations économiques se mettent en place pour cela, mais tout effort de sobriété et investissement supplémentaire dans les autres énergies décarbonées est plus que bienvenu pour limiter plus encore la casse d’ici à 2050.

Voici la première partie.

 

La vertigineuse chute du coût de l’énergie solaire photovoltaïque

Le coût de production de l’électricité solaire photovoltaïque a décliné de 89 % en 10 ans, entre 2009 à 2019.

On parle bien ici du coût LCOE, pour Levelized Cost Of Energy, qui prend le coût initial de construction d’une infrastructure, et l’ajoute aux coûts d’opération et de maintenance (dont les coûts financiers, le loyer) sur toute sa durée de vie, et divise ce tout par la quantité totale d’énergie produite, pour arriver à un coût complet par unité d’énergie produite.

Cette chute spectaculaire a fait mentir les pronostics de l’Agence Internationale de l’Énergie.

En 2010, elle prévoyait qu’en 2019 l’énergie solaire photovoltaïque coûterait autour de 0,23 dollar/kWh, près de six fois plus que la réalité, 0,04 dollar/kWh !

Cette chute se poursuit : en avril 2020, un chantier aux Émirats arabes unis a reçu et retenu une offre à 0,0135 dollar/kWh LCOE. On parle bien de 1,35 cent le kWh ! Offre faite par un consortium composé du fabricant chinois de panneaux solaires Jinko et de… cocorico, EDF !

Un an plus tard, en avril 2021, une installation en Arabie saoudite « vendra de l’électricité à un prix record mondial de 0,0104 dollar/kWh ».

Vous voyez le sens de l’histoire ?

 

Pourquoi les prix de l’énergie solaire photovoltaïque ont-ils chuté à ce point ?

Du fait des progrès techniques, innovations et économies d’échelle réalisés à mesure que la quantité de panneaux solaires produite chaque année augmente !

Un cycle vertueux a été enclenché : plus leur coût de fabrication baisse, plus on en installe, et plus on en installe, plus on investit dans la recherche et plus on apprend à les faire plus efficacement, et plus leur coût de fabrication baisse, et ainsi de suite.

Les panneaux solaires se prêtent à la loi de Wright, une loi empirique qui décrit cette tendance des produits construits en masse, et dont la demande n’est pas saturée à voir leur coût baisser d’un pourcentage à peu près constant à chaque doublement de la production totale cumulée, du fait de l’innovation, de la concurrence et des économies d’échelle.

On connaît bien le nom de cette loi pour les microprocesseurs, la loi de Moore ; elle porte aussi un nom pour les panneaux solaires, la loi de Swanson.

De 1970 à 2020, le coût d’un panneau solaire a ainsi été divisé par 500, passant de 100 dollars/watt à 0,2 dollar/watt. Cette chute des prix est en fait unique dans l’histoire du déploiement d’infrastructures physiques, selon l’expert en énergie Ramez Naam. On peut calculer que le prix a baissé en moyenne de 20 % à chaque doublement du parc total installé sur cette période.

Et si on en revient au coût de l’énergie solaire photovoltaïque produite, le Levelized Cost Of Energy, l’Agence Internationale pour les Énergies Renouvelables a calculé qu’il baisse de 38 % à chaque doublement du parc total installé. La conséquence est qu’on assiste à une explosion des installations et de la production année après année.

La capacité installée totale cumulée dans le monde croît également de façon exponentielle, au sens où elle double à intervalle de temps régulier. C’est même mieux que cela, cet intervalle de temps se réduit ! Il a fallu quatre années pour arriver au doublement en 2015, seulement trois années pour le doublement en 2018, et moins de deux années pour le dernier doublement achevé en 2023.

Cette explosion a en fait surpris tout le monde.

Il est intéressant d’en revenir aux prévisions de l’Agence Internationale de l’Énergie : elle s’est systématiquement trompée. Son rapport de 2019 prévoyait qu’en 2021 on installerait moins de 125 GW de panneaux solaires. En réalité 180 GW ont été installés cette année, et l’explosion du déploiement se poursuit à ce jour !

 

Pourquoi les prix de l’énergie solaire photovoltaïque continueraient-ils à baisser les prochaines années ?

Car hausse de la demande, augmentation des volumes et baisse des prix s’autoalimentent, et que les ressources nécessaires pour produire les panneaux sont suffisamment abondantes (cf partie 3).

L’énergie solaire photovoltaïque est déjà moins chère que ses concurrentes dans certains endroits du monde, où il est maintenant plus rentable d’installer et d’opérer un nouveau champ de panneaux solaires que de continuer à opérer une centrale existante au charbon ou au gaz.

Compte tenu de l’appétit insatiable de nos économies modernes pour l’énergie, et plus encore pour une énergie propre et bon marché, à mesure que les coûts baissent, il sera rentable de produire cette énergie renouvelable dans de plus en plus d’endroits sur Terre. La demande ne peut donc que continuer à exploser tant que les prix baissent.

Et les prix baisseront en parallèle, du fait des économies d’échelle réalisées grâce aux volumes de production toujours plus grands, grâce aux investissements en R&D, aux améliorations apportées aux processus de fabrication des panneaux et de leur installation, exploitation et maintenance.

 

Les prix vont-ils continuer à baisser indéfiniment ?

Non bien sûr. Mais en réalité, il suffit juste qu’ils baissent encore quelques années au rythme actuel pour qu’on puisse produire du gaz et autres hydrocarbures de synthèse neutres en carbone à un prix compétitif d’abord, mais ensuite rapidement plus bas que ceux du marché, quasiment partout sur Terre.

Cela permettra à l’explosion des installations de continuer jusqu’à saturation de la demande et élimination quasi totale des énergies fossiles !

Une fois ce niveau atteint, estimé à 0,01 dollar/kWh (déjà quasi atteint dans certains endroits), les prix du solaire photovoltaïque pourront continuer à baisser, mais ce ne sera même pas nécessaire pour éclipser les hydrocarbures extraits du sol, c’est-à-dire fossiles.

Pour lire la deuxième partie de cet article, cliquer ici.


Disclaimer : Thomas Jestin, n’est actionnaire, ni directement ni indirectement, d’aucune des entreprises citées dans cette série.

Une bicyclette pour l’esprit ou la formidable puissance de l’inventivité humaine

Quel lien entre un condor et une bicyclette ? Non, ce n’est pas une blague. La réponse à cette question est fournie par Steve Jobs, et elle nous en apprend beaucoup sur l’inventivité humaine, et pourquoi elle peut être une source d’optimisme.

 

Dans sa remarquable interview de 1995, Steve Jobs souligne la puissance de l’inventivité humaine.

Il évoque un article qu’il a lu dans Scientific American dans lequel un chercheur étudiait l’efficacité du mouvement de différentes espèces. Il mesurait le nombre de calories que chacune consomme pour avancer d’un kilomètre. Le gagnant ? Le condor. L’Homme ? Bien plus bas dans la liste. Pas très surprenant finalement que la marche soit moins efficace que le vol. Mais, ajoute Jobs, le chercheur a eu l’idée brillante de mesurer un humain… sur une bicyclette. Le résultat ? La performance dépasse de loin celle du condor ! Un humain sur une bicyclette a une incroyable efficacité énergétique (0,15 calorie par gramme et par kilomètre).

Et Jobs conclut :

Les humains sont des fabricants d’outils. Nous construisons des outils qui peuvent énormément amplifier nos aptitudes naturelles.

Pour Jobs, l’ordinateur est l’un de ces formidables outils.

D’où sa métaphore de l’ordinateur comme une « bicyclette pour l’esprit » : un incroyable multiplicateur de potentiel humain.

 

Des outils pour compenser

Mais on peut généraliser bien au-delà du seul cas de l’ordinateur, avec des exemples qui peuvent sembler triviaux, mais seulement parce qu’ils sont devenus si évidents que nous ne les voyons plus : les habits chauds, plus efficaces que se coller autour d’un feu, et qui permettent de se déplacer, le livre qui libère le cerveau de l’apprentissage par cœur et permet la transmission du savoir de façon exponentielle.

Et dès lors, le fait que nos aptitudes naturelles ne soient pas très bonnes ne compte plus vraiment. Nous ne courons pas très vite, nous ne voyons pas très loin, notre capacité olfactive est minable, mais tout ça ne compte pas. Nous sommes moyens en tout par rapport aux autres animaux, mais nous fabriquons des outils pour compenser cela, et pour l’amplifier.

Car aussi extraordinaire qu’il soit, le condor n’améliorera jamais sa performance de déplacement ni son efficacité en tant qu’individu. Son seul espoir serait de compter sur l’évolution naturelle en quelques milliers, ou plutôt millions d’années pour ses descendants.

L’Homme, lui, est capable de progrès considérables dans sa propre vie. Ces progrès sont possibles parce que nous ne confions pas notre évolution à l’espèce, ce qui est trop lent et non contrôlé. Nous la déléguons aux outils que nous créons, ce qui est au contraire incroyablement rapide et puissant.

C’est grâce aux outils que nous nageons mieux que les poissons (bateau), que nous voyons mieux que n’importe quel animal (radar, longue-vue), que nous volons mieux que les oiseaux, etc. Nous inventons même des outils qui permettent de mieux inventer des outils (le livre, l’organisation, l’ordinateur, la R&D)

Tous les êtres vivants sont confrontés aux contraintes de leur environnement.

La plupart n’ont quasiment aucune influence dessus. Les castors construisent des barrages, les singes utilisent des tiges pour attraper des fourmis, mais ces actions intelligentes et utiles sont cependant rares et limitées. La construction des barrages est instinctive et l’héritage d’une longue évolution (mettez un castor dans un appartement, il essaiera de construire un barrage avec ce qu’il trouve, même si ça n’a aucun sens). L’Homme construit des outils aussi bien pour résoudre les problèmes auxquels il est confronté, mais aussi par l’effet de sa curiosité naturelle : il invente les habits parce qu’il a froid, mais il invente aussi un ordinateur, et découvre seulement ensuite à quoi il peut servir.

 

Le pari gagnant de l’optimisme

Cette incroyable capacité d’inventer des outils signifie qu’il n’y a aucune fatalité face aux problèmes que nous rencontrons.

Au regard de l’histoire humaine, des problèmes formidablement difficiles ont été résolus. Nous ne sommes pas condamnés à espérer un salut de notre espèce par la seule évolution. En fait, nous ne dépendons plus d’elle, nous l’avons battue. Cette capacité n’est évidemment jamais une garantie de réussite, rien ne dit que nous saurons toujours capables de résoudre nos problèmes grâce à notre inventivité, mais elle devrait cependant être une source d’optimisme.

En tout cas, le pari vaut la peine d’être tenté. Il vaut toujours mieux que la résignation et le pessimisme.

Sur le web

« Agora » : nouveau gadget pseudo-(anti)démocratique gouvernemental

Après les Grands débats, les Conventions citoyennes, le préférendum, les cahiers de doléances dans les mairies, ou encore un débat organisé hors enceinte parlementaire entre le président et les chefs de partis, le gouvernement sort un nouveau gadget pseudo-démocratique : l’application Agora, nouvelle attaque contre la démocratie représentative, au lendemain d’un échec lors des élections sénatoriales.

Je lance Agora, une application pour vous consulter sur les sujets qui vous concernent.
Aidez-nous à construire les grandes décisions pour notre pays, interrogez-nous directement, votez pour les questions auxquelles les ministres répondront. pic.twitter.com/lcOvw0i4wD

— Olivier Véran (@olivierveran) September 28, 2023

 

Le projet, présenté ce jeudi 28 septembre par Olivier Véran, se veut une pratique innovante pour rapprocher les citoyens de la politique, et lutter contre l’abstention. Celui-ci a indiqué vouloir faire d’Agora un « TripAdvisor de la démocratie » qui « transcende les clivages politiques ».

 

L’application propose deux fonctionnalités

Le recueil des avis des Français sur une thématique bien précise

Concrètement, depuis cette application, les Français pourront, pendant un mois, répondre à des questions ouvertes ou à choix multiples sur un thème déterminé.

Le gouvernement viendra ensuite interagir depuis cette application pour apporter des réponses.

Les trois premières seront consacrées aux transitions écologique et énergétique, ainsi qu’au renouveau démocratique. L’emploi, la santé, la sécurité ou l’école devraient suivre.

La possibilité de poser des questions au gouvernement

« C’est-à-dire que les Français peuvent poser des questions sur l’application » et « peuvent voter pour la ou les questions qui seront directement posées au ministre en charge, qui répondra dans l’application », a détaillé Olivier Véran sur France 2.

Chaque semaine, les ministres répondront à la question la plus populaire. Reste à savoir si cet outil de consultation sera vraiment utilisé, à la fois par les citoyens et les politiques.

 

Les réactions politiques

Elles ne se sont pas fait attendre.

« L’agora le matin. 49-3 le soir. La start-up nation, c’est l’AppStore plutôt que le Parlement », a réagi François Ruffin.

La députée écologiste Marie Pochon parle, elle, d’une « appli pour contourner le Parlement », et son collègue insoumis Hadrien Clouet s’est quant à lui directement adressé à Olivier Véran, non sans ironie : « Si vous cherchez l’adresse de l’Assemblée, c’est au 126 rue de l’Université (entrée du public), Paris. Là, vous trouverez 577 personnes, non pas à consulter dans une tambouille secrète sur Internet, mais à faire voter », a-t-il écrit sur X (ex-Twitter).

Au Rassemblement national, l’application a aussi suscité la moquerie. « Le gouvernement des numéros verts passe maintenant aux applications. »

« Sinon, il y a un truc qui marchait et était plutôt bien respecté avant 2005 : le référendum ! », a ironisé le député Thomas Ménagé.

 

Emmanuel Macron et ses ministres ne savent plus quoi inventer pour relancer le quinquennat et masquer leur incapacité à faire face aux vrais problèmes de notre société : inflation, crise du logement, insécurité publique, précarité, crise migratoire, dette publique, séparatisme islamique, éducation, harcèlement…

À cette liste non exhaustive s’ajoute la place de la France en Europe et dans le monde : guerre en Ukraine, Françafrique, déficit chronique de la balance du commerce extérieur, influence de la France au Moyen-Orient ou dans le Pacifique…

Évidemment, le président de la République n’est pas le seul à l’origine du déclin français mais, depuis six ans, la situation n’a fait que se détériorer.

 

Ce nouveau gadget fragilise notre démocratie et la met en danger. L’examen de la réforme des retraites a montré combien le Parlement avait un rôle secondaire. La stabilité de notre vie politique, instaurée par la Constitution de la Cinquième République, est remis en cause. L’opposition se joue désormais dans la rue.

Mes amours avec l’Intelligence Artificielle (3) : le futur d’une relation plus mature

Retrouvez la première partie de cette série ici
Retrouvez la seconde partie de cette série ici

 

Sans se perdre dans les abimes du deus ex machina, je ne cachais pas ma fierté en portant sur les fonts baptismaux ma petite IA, immodestement appelée Sébastien Laye EcoBot, la version Robotech (pour les plus âgés d’entre vous) ou Transformers de ma personne, du moins en tant qu’économiste. Cette expérience, destinée également à préparer les futurs services d’ADN AI, sera, j’en suis persuadé, aussi courante qu’un compte email ou un site internet d’ici trois-quatre ans.

Citons certaines start ups, comme Momento AI ou Inflection AI (à venir) qui travaillent sur l’idée de scanner tous nos documents et d’être notre IA personnalisée à tout moment, des sortes de super assistants afin de décupler notre productivité. Durant la création de mon IA personnelle d’économiste, je n’ai eu de cesse d’avoir l’intérêt de certaines connaissances (devenues depuis clients) pour répliquer cette machine à leurs propres centres d’intérêts, et dans un cercle de proches ce fut mon épouse qui fut rapidement la plus enthousiaste.

Experte elle aussi dans un domaine (la sémiologie), elle utilisera les mêmes outils pour créer elodie-mielczareck.com, un chatbot branché sur ses ouvrages, articles, notes de recherche. Avec une attention au détail de l’expression peut-être plus fine que la mienne, car en réalité, en matière de programmation d’IA, la sémantique joue un rôle important. Ainsi, aux États-Unis, les sociétés d’IA s’arrachent désormais des profils plutôt littéraires : linguistes, auteurs, poètes…

En dépit de l’attrait business et intellectuel de ces IA personnalisées, génératrices de texte intelligent, on se retrouve tout de même toujours dans le vieil internet froid et plat des bots et du texte. Je n’en suis que plus convaincu, après mon expérience, que le futur de l’Internet ne peut passer que par la voix, la vidéo, voire la 3D (je suis le co-auteur d’un livre sur les métavers).

Ces bots seront bientôt, non pas uniquement du texte, mais de l’audio reproduisant votre voix ou utilisant des voix d’acteurs pré enregistrées, mais aussi des vidéos avec votre avatar animé. Ce marché de la vidéo générée par IA, déjà estimé à deux milliards d’euros, ne cesse de croître de mois en mois, avec des sociétés comme Runway, Synthesia, D-ID, HeyGen, et ADN AI.

Influenceurs, enseignants, conférenciers, mais aussi très prochainement les entreprises elles-mêmes (pour de l’engagement client, du marketing ou de la publicité) vont transformer leur contenu textuel plat, en texte intelligent, en audio et en vidéo, sans les coûts de réalisation d’un podcast ou d’un studio YouTube. Le contenu textuel va devenir incroyablement riche.

Imaginez votre arrivée sur le site de Contrepoints : en plus d’un accès linéaire et classique aux articles, vous allez pouvoir converser avec eux, et découvrir ce contenu via un chatbot, possiblement un chatbot qui prendra la forme d’un avatar de l’auteur ou du journaliste, échangeant avec vous ou récitant son analyse. Contrepoints instantanément consommable sous forme de podcast ou de chatbot. Une chaine YouTube Contrepoints automatisée sans coûts de production faramineux…

Avec l’IA, le futur de l’Internet et de la communication sera radicalement différent !

 

Agriculture : pourquoi les OGM seront indispensables

Par Aymeric Belaud.
Un article de l’IREF

 

L’agriculture affronte de multiples défis cruciaux à l’échelle planétaire.

La population mondiale continue de croître, elle pourrait atteindre 11 milliards d’individus en 2100 selon l’ONU (elle était de 8 milliards en 2022 et de 2,6 milliards en 1950). Elle doit s’adapter à des conditions climatiques changeantes depuis plusieurs années, à une pression des maladies et des insectes ravageurs qui ne faiblit pas voire augmente.

L’opinion publique la pousse à être plus vertueuse pour l’environnement en utilisant moins de produits phytosanitaires, parfois à raison. Aussi, pour répondre efficacement à tout cela, les organismes génétiquement modifiés (OGM) ne sont-ils pas qu’une simple option, mais l’occasion de prendre un tournant décisif.

 

Résistance aux maladies et aux ravageurs

La banane antillaise pourrait être sauvée par les OGM. Un champignon responsable de la maladie de la cercosporiose noire fait des ravages sur la variété Cavendish, qui représente 50 % de la production mondiale. De nombreux produits phytosanitaires existent pour lutter contre ce fléau, mais ils sont de moins en moins efficaces. Les pertes de rendement peuvent aller jusqu’à près de 50 %. Les entreprises israéliennes Rahan Meristem et Evogene travaillent sur la création d’une variété Cavendish génétiquement modifiée qui serait résistante à cette cercosporiose noire. Actuellement testée en champ, elle devrait être disponible fin 2024 ou début 2025. La production de bananes en Martinique et en Guadeloupe dépend de cette banane génétiquement modifiée : l’Union européenne doit maintenant modifier sa réglementation afin d’autoriser les produits issus des nouvelles techniques génomiques.

C’est tout une économie locale qui attend cette décision, et les répercussions seront mondiales.

Autre maladie, cette fois pour le sorgho, qui provoque une perte de 50 % des rendements : l’anthracnose. Pour elle aussi existe une solution génétiquement modifiée. Des scientifiques du service de recherche agricole du département américain de l’agriculture et de l’université Purdue ont découvert, dans cette plante, un gène qui pourrait mieux la défendre. L’impact serait considérable : le sorgho est la cinquième céréale la plus produite dans le monde. Cette découverte permettrait de développer des variétés génétiquement modifiées de sorgho résistantes à l’anthracnose, et donc de protéger, voire augmenter, les récoltes, en préservant une bonne qualité de grains. Toujours pour le sorgho, un partenariat public-privé intitulé Striga Smart Sorghum for Africa (SSSfA) a été créé fin 2022 au Kenya et en Éthiopie afin d’utiliser la technologie d’édition du génome CRISPR pour lancer de nouvelles variétés résistantes au Striga, plante parasite pouvant détruire entièrement une récolte. Beaucoup de pays africains, continent le plus touché par la malnutrition, s’intéressent de plus en plus aux OGM.

C’est aussi grâce aux OGM que l’on peut bonifier le profil nutritionnel de certains aliments.

En Inde, désormais pays le plus peuplé au monde, l’Institut national des biotechnologies agroalimentaires travaille sur l’amélioration nutritionnelle des bananes afin de combattre l’anémie et la carence en vitamine A.

Au Royaume-Uni, des biologistes de l’université de Bristol et de Curtis Analytics Limited travaillent avec la technologie CRISPR-Cas9 pour inactiver un gène impliqué dans la synthèse de l’asparagine. Cet acide aminé présent dans le blé cultivé en plein champ peut, quand il atteint 120 degrés, produire de l’acrylamide, agent classé comme « probablement cancérigène ». Les premiers tests notent une production d’acrymalide inférieure de 45 % quand on fait griller du pain, et donc une réduction du risque de cancer.

 

La nécessaire adaptation à l’évolution climatique

Dans ce qui suit, nous reprenons les propos de divers intervenants du colloque de l’Association française des biotechnologies végétales (AFBV) qui s’est tenu en octobre 2022.

Jacques Le Gouis, directeur de recherche à l’INRAE, attire l’attention sur le fait que les rendements moyens nationaux du blé stagnent depuis les années 1990.

La cause est identifiée :

« L’augmentation de la fréquence de conditions climatiques défavorables avec une faible disponibilité en eau et de fortes températures durant le remplissage du grain. »

Il signale différents points auxquels la recherche doit s’intéresser, et nous apprend notamment que des travaux sont en cours sur le développement du système racinaire et le recours à la mycorhization afin que le blé puisse mieux extraire l’eau et les élements minéraux du sol. Il se félicite de la commercialisation, en Argentine, d’un blé transgénique tolérant à la sécheresse, qui vient d’être autorisé pour la culture également au Brésil.

Il n’y a pas que le blé dont les rendements ne progressent plus depuis les années 1990, d’autres cultures françaises sont aussi touchées.

Il est évident pour Philippe Gate que « ce dérèglement climatique bouleverse la croissance des espèces que nous cultivons ».

L’analyse de ces nouvelles et instables conditions permet toutefois d’identifier les traits génétiques à améliorer afin d’obtenir des plantes qui s’y adapteront. M. Gate l’affirme, « le seul levier génétique restera majeur mais malgré tout insuffisant ». Les cultures génétiquement modifiées devront être combinées à de nouvelles pratiques agronomiques, posséder des outils performants d’aide à la décision, et se doter d’un meilleur accès à l’eau via la création de nouvelles ressources. Il est indispensable de développer le recyclage de l’eau, secteur dans lequel la France est en retard par rapport à d’autres pays, notamment pour des raisons de réglementation.

La tolérance au déficit hydrique est un défi majeur.

Christophe Sallaud rappelle que des approches biotechnologiques sont étudiées depuis une vingtaine d’années, et que de nouvelles variétés tolérantes à ce stress ont été créées, tel le maïs OGM MON87460. Néanmoins, la recherche a encore beaucoup à faire, vu la multiplicité des facteurs génétiques qui entrent en jeu.

 

Produire plus et mieux

Toujours lors du colloque de l’AFBV, Thierry Langin explique :

« L’agriculture est confrontée à un double défi : s’adapter aux changements globaux de façon à garantir la sécurité alimentaire, tout en réduisant son empreinte environnementale ».

Pour lui, « la sélection végétale représente un des enjeux majeurs » et les biotechnologies végétales ouvrent de nouvelles voies.

Par exemple, les NGT (New Genomic Techniques) « représentent des outils puissants et complémentaires des outils classiques d’amélioration variétale, par leur capacité à générer une diversité génétique originale, à faciliter le transfert d’informations acquises sur des plantes modèles vers des plantes cultivées, à rendre possible la construction de génotypes difficiles à obtenir par des méthodes classiques. »

Parfois, un gène qui permet de résister à un effet indésirable peut en provoquer un autre.

Par exemple, pour plusieurs espèces végétales, le gène nommé mlo donne une résistance à l’oïdium, mais la croissance est plus lente et les rendements inférieurs. Avec la nouvelle technologie CRISPR, il est possible de conserver une croissance et des rendements normaux tout en rendant la plante résistante à l’oïdium. Une grande avancée.

L’un des buts des OGM est d’augmenter les rendements des cultures tout en diminuant l’usage d’intrants.

Dans un article publié dans European Scientist, Christophe Robaglia, professeur à l’université d’Aix-Marseille, donne des chiffres clés sur ce point.

La culture des plantes génétiquement modifiées « a permis d’augmenter le rendement du soja et du maïs de 330 millions de tonnes et de 595 millions de tonnes, respectivement, pour la période 1996-2020, conduisant à un bénéfice pour les agriculteurs de 261 milliards de dollars ».

Qui plus est, cette culture de plantes génétiquement modifiées a provoqué une baisse des intrants, c’est-à-dire un moindre usage des produits phytosanitaires, des engrais, de l’eau et des engins agricoles.

En Inde, le coton génétiquement modifié résistant aux insectes ravageurs a contribué à une hausse comprise entre 44 et 63 % des rendements.

En Chine, grâce à ce même coton génétiquement modifié, on a pu diminuer de moitié l’usage des insecticides.

Le professeur rappelle également que la production de plantes génétiquement modifiées « résistantes à l’herbicide glyphosate permet d’éviter le labour, générateur de gaz à effet de serre, à cause de l’énergie fossile consommée et de la respiration des microorganismes. Ainsi, au Saskatchewan [au Canada], en 1991-1994, l’hectare moyen était un émetteur de carbone, alors que sur la période 2016-2019, il est devenu un puits de carbone, stockant 0,12 t/an du fait de l’abandon du labour et de l’augmentation de capture de CO2 due au rendement plus élevé. »

De nombreux autres exemples démontrent ce fait.

Des chercheurs chinois ont identifié dans le riz un gène impliqué dans la photosynthèse et l’absorption de l’azote. Des plants disposant d’une copie supplémentaire de ce gène ont été soumis à diverses expérimentations en champ. On s’est aperçu qu’ils produisent plus de grains, de plus grosse taille : les rendements sont ainsi supérieurs de 41 à 68 %, et cela avec moins d’azote ajouté. Pour le sorgho, mentionné tout à l’heure, la version génétiquement modifiée américaine rendrait la culture moins dépendante aux fongicides, et réduirait ainsi les coûts de production. Car, rappelons-le ici, les produits phytosanitaires sont chers. Si les agriculteurs pouvaient s’en passer, ils le feraient sans hésiter.

La recherche dans les OGM est donc cruciale, d’un point de vue environnemental, humain et financier. La route est encore longue, mais l’avenir est prometteur. Il est primordial que l’Union européenne et la France revoient leurs copies et créent un climat propice à l’innovation végétale.

Si quelques OGM sont autorisés à la commercialisation au sein de l’UE, seul le maïs MON 810 est cultivé, en Espagne et au Portugal. La France, elle, reste bloquée dans un principe de précaution inepte.

Sur le web

Le bitcoin met en évidence le problème des subventions à l’innovation

Par Dave Birnbaum.

 

Avez-vous entendu parler de l’économie de l’innovation ?

Cette école de pensée relativement nouvelle s’éloigne des théories économiques traditionnelles et met l’accent sur l’esprit d’entreprise, l’innovation technologique et, vous l’avez peut-être déjà deviné, l’intervention de l’État en tant que principaux moteurs de la croissance économique.

Étant donné que l’un des membres du Conseil des gouverneurs de la Réserve fédérale souscrit au concept de l’économie de l’innovation, la compréhension de cette école de pensée peut nous aider à interpréter, ou même à anticiper les décisions des décideurs politiques qui nous affecteront tous.

Enraciné dans les idées de penseurs tels que Joseph Schumpeter, ce cadre cherche à reconnaître l’importance de l’innovation pour une économie, et pas seulement la gestion des ressources, et fournit un cadre théorique sur la façon d’encourager et d’accélérer la création de nouvelles technologies, de nouveaux produits et de nouveaux services.

Contrairement à l’économie classique, qui se concentre sur l’équilibre, l’économie de l’innovation considère les économies comme dynamiques et en constante évolution. S’il est vrai que l’économie est un système dynamique, ses partisans vont plus loin en affirmant qu’un soutien gouvernemental ciblé peut stimuler le progrès technologique, la croissance de la productivité et le progrès économique.

Cette approche a façonné les politiques des États-Unis au cours des vingt dernières années. Les partisans de cette approche citent comme résultats notables l’America COMPETES Act, les initiatives en matière d’enseignement des STIM, et les subventions à la recherche et au développement technologiques.

 

Cependant, lorsqu’on sort du jargon, il devient clair que l’économie de l’innovation n’est qu’un nouveau vernis sur un concept vieux comme le monde : le gouvernement qui choisit les gagnants et les perdants. Il s’agit d’une politique industrielle centralisée qui s’est enrichie des attributs du XXIe siècle, et qui se résume à une autre forme de capitalisme d’État.

La preuve en est un lieu improbable : le bitcoin.

Monnaie numérique décentralisée qui améliore radicalement l’économie mondiale, l’histoire du bitcoin est remarquable. En l’espace de 15 ans, un projet ambitieux visant à créer un registre honnête universel a été adopté par des centaines de millions de personnes, et même par des États-nations. Il s’agit d’une monnaie saine qui peut être envoyée partout dans le monde, et qui promet des changements que les deux côtés de l’allée politique pourraient soutenir, qu’il s’agisse d’une concurrence saine dans le secteur financier ou de la protection des populations des pays pauvres contre l’exploitation.

Paradoxalement, le bitcoin serait un candidat idéal pour une subvention à l’innovation, compte tenu de l’impact positif considérable qu’il pourrait avoir une fois les principaux problèmes techniques résolus. Son potentiel de révolution du système financier, d’amélioration de la vie privée et de démocratisation de la finance change la donne. Bien qu’il existe un solide écosystème commercial et industriel qui évolue naturellement autour du bitcoin, il ne fait aucun doute que cet écosystème se développerait plus rapidement s’il était subventionné.

Cependant, les avantages offerts par le bitcoin ont un coût pour le pouvoir des appareils d’État, qui dépendent du seigneuriage (profit tiré de l’impression de monnaie) comme levier clé du pouvoir. Quoi que l’on pense du bitcoin et de ses perspectives à long terme, il ne fait aucun doute que s’il réussissait, il rendrait inutile les monnaies fiduciaires contrôlées par l’État et les banques centrales qui les émettent, et réduirait le pouvoir de l’État sur l’économie.

Par conséquent, même si les subventions au bitcoin semblent compatibles avec l’objectif déclaré de l’économie de l’innovation d’aider les indvidus, le bitcoin ne recevra jamais de soutien gouvernemental, précisément parce qu’il va à l’encontre de l’intérêt du gouvernement à maintenir le contrôle sur la monnaie fiduciaire.

Cela met en évidence un défaut congénital de l’économie de l’innovation : elle doit être biaisée pour préserver le pouvoir et le contrôle de ceux qui décident ce qu’il faut subventionner.

Cela nous amène à une question plus large à laquelle le lecteur doit réfléchir. Si le bitcoin est un cas spécifique qui révèle le défaut général de l’économie de l’innovation, quelles autres opportunités sont supprimées ou manquées parce que le capital est mal alloué par les subventions à l’innovation ?

L’histoire du bitcoin, une innovation qui a émergé et prospéré sans le soutien des pouvoirs publics, nous rappelle que l’innovation véritable suit souvent son propre chemin.

En outre, il n’est pas possible pour le gouvernement de choisir les gagnants et les perdants dans la course à l’innovation sans préjugés ni intérêts personnels. Si l’économie de l’innovation a des promesses séduisantes et peut mettre en évidence des réussites spécifiques, elle n’échappe pas aux préjugés et aux conflits qui découlent inévitablement de l’intervention de l’État.

Malgré sa façade moderne et ses prétendues réussites, la théorie de l’économie de l’innovation n’est pas en mesure d’offrir une voie impartiale et efficace vers l’innovation technologique. Le cas spécifique du bitcoin, associé au risque général d’opportunités manquées en raison d’une allocation de capital biaisée, remet en question les fondements mêmes de cette approche. Les décideurs politiques et les économistes feraient bien d’examiner attentivement ces failles.

Sur le web

L’Europe à la traîne dans la course mondiale à l’IA

Il ne faut « pas sous-estimer les menaces très réelles » de l’intelligence artificielle a déclaré la présidente de la Commission européenne, Ursula von der Leyen allant jusqu’à évoquer un « risque d’extinction » de l’humanité… Or si l’IA présente des défis, elle offre également d’énormes opportunités pour la société et l’économie.

 

L’Europe qui criait au loup

La représentation de l’intelligence artificielle (IA) dans les films, et la crainte qu’elle puisse un jour remplacer l’espèce humaine est un thème récurrent dans la science-fiction.

Cependant, il est important de se rappeler que ces scénarios sont généralement basés sur des conjectures et des spéculations dramatiques pour créer du suspense et de l’intrigue.

Dans la réalité, la possibilité que l’IA remplace complètement l’espèce humaine est hautement improbable, et relève davantage de la fiction que de la réalité comme le relève la scientifique Aurélie Jean. Les technologies évoluent, mais les valeurs, la créativité et la complexité humaines restent irremplaçables. Il faut également noter que la plupart des experts en IA et des organisations travaillent déjà à développer des normes éthiques et des mécanismes de contrôle pour garantir que l’IA soit utilisée de manière responsable et bénéfique pour la société.

 

À quand une approche équilibrée ?

Une vision alarmiste pourrait continuer d’entraver le développement et l’adoption de l’IA en Europe.

Or, les investissements dans la recherche et le développement en IA en Europe sont déjà inférieurs à ceux effectués aux États-Unis et en Chine. Les géants technologiques américains et chinois ont consacré d’énormes sommes d’argent à l’IA, ce qui leur a permis de prendre une longueur d’avance. Car contrairement aux États-Unis, qui abritent des géants technologiques tels que Google, Facebook et Amazon, et à la Chine, où des entreprises comme Alibaba et Tencent sont dominantes, l’Europe n’a pas produit de grandes entreprises technologiques leaders mondiales dans le domaine de l’IA. Et ce n’est pas du côté d’ATOS dirigé un temps par Thierry Breton, l’actuel Commissaire Européen (notamment chargé du numérique) qu’il faudra espérer des progrès.

 

Le retard considérable de l’Europe 

L’Union européenne privilégie résolument une approche normative en matière numérique, ce qui n’est pas sans poser de nouveaux risques économiques et démocratiques.

L’objectif de la régulation numérique poursuivie par l’Union européenne est d’encadrer les pratiques des technologies numériques afin de promouvoir une société ouverte et démocratique permettant de protéger le citoyen et le consommateur européen.

Or, pour créer des IA, il faut à fois de la puissance de calcul, c’est une question d’argent, l’accès à des talents, c’est une question d’éducation, et des données pour l’entraînement des algorithmes, c’est notamment la question du RGPD. Lorsque les entreprises sont soumises à des réglementations strictes et à des contrôles excessifs, elles sont moins incitées à innover.

À la fin, sans maîtrise de la technologie, cette règlementation toujours plus poussée pourrait aussi être vouée à nous rendre plus dépendants.

 

 L’Europe doit rester compétitive ! 

« Le pire scénario, ce serait que l’Europe investisse beaucoup moins que les Américains et les Chinois, mais commence par créer de la régulation » déclarait Emmanuel Macron le 15 juin lors du salon Vivatech de Paris.

Ce scénario est pourtant en train de se concrétiser.

Certes, la réglementation est nécessaire pour garantir la sécurité et l’éthique de l’IA, mais l’Europe a déjà beaucoup de normes. Les réglementations excessivement strictes en Europe ont déjà pu freiner l’innovation et le développement de l’IA par rapport à des pays comme les États-Unis, où l’approche est souvent moins contraignante sur la base de principes plutôt que de règles spécifiques pour chaque situation.

En se concentrant sur les risques immédiats, l’Europe risque surtout de manquer de précieuses opportunités de développement technologique, d’innovation et de leadership mondial dans le domaine de l’IA.

 

Garantir un avenir prospère pour l’Europe dans l’ère de l’IA

Les gouvernements, les entreprises et les universités doivent aussi collaborer étroitement pour stimuler l’innovation en IA.

Cela inclut le financement de projets de recherche de pointe, la formation de chercheurs et la création de centres d’excellence en IA. Les systèmes d’IA représentent d’énormes opportunités en permettant d’analyser des grandes quantités de données pour prévoir des tendances, prendre des décisions basées sur ces données en temps réel, et optimiser les processus.

En matière de santé, l’IA peut par exemple être utilisée pour diagnostiquer des maladies, personnaliser les traitements médicaux, surveiller les patients à distance et aider les professionnels de la santé à prendre des décisions plus éclairées.

En matière d’éducation, l’IA pourrait également permettre d’améliorer l’apprentissage en fournissant des contenus éducatifs personnalisés.

 

Investir dans la formation aujourd’hui

Maîtriser l’IA revient déjà à pouvoir dicter sa norme, et, par extension, sa vision du monde.

Au lieu de s’épuiser à ré-inventer des principes qui existent déjà, et qui ne seront pas forcément opérants sans la maitrise des technologies, une sensibilisation massive des politiques comme du grand public est indispensable. Il est urgent de démystifier l’IA et nous permettre collectivement d’appréhender les enjeux de cette discipline. Il faut également investir massivement dans la formation pour augmenter le volume d’ingénieurs et de chercheurs en IA diplômés dans nos grandes écoles et universités.

Bref, il est temps d’appeler l’Europe à l’action pour que les Européens embrassent l’IA comme une opportunité économique plutôt que de nourrir la crainte d’une nouvelle menace existentielle.

Une journée avec Ange, mon assistant intelligent 2.0

Un article du Risk-Monger

Mardi 12 septembre 2028, 07 h 34.

Ange, mon robot assistant personnel robotisé 2.0, m’a réveillé à la fin d’une phase de sommeil léger avec une musique douce de ma playlist déterminée en fonction de ma fréquence cardiaque. Mon lit a été remonté dans une position confortable pour m’aider à me lever. J’ai reçu plusieurs rappels pour la journée, quelques anniversaires, la météo et des nouvelles légères.

Suivant les données collectées pendant la nuit par mes capteurs (tension, glycémie, inflammation, stress…) combinées avec ce que j’ai consommé au cours des dernières 24 heures, Ange a ajusté mes médicaments du matin et déterminé le menu optimal du petit-déjeuner. Il m’a également recommandé un programme de remise en forme pour la journée, tout en sachant parfaitement que je suis rarement ses conseils.

Pendant le petit-déjeuner, Ange m’a lu les titres des journaux tout en surveillant mon niveau de stress pour s’assurer que ma digestion ne serait pas perturbée. Concernant les marchés financiers, il m’a informé des mouvements de mon portefeuille et, en analysant les dernières données publiées, m’a recommandé plusieurs ajustements d’investissement. J’ai validé et Ange a effectué les transactions au meilleur moment.

Après une brève séance de sport avec une musique inspirante adaptée à ma tension artérielle et à mon niveau de stress, Ange m’a informé des messages importants de la journée, et nous avons rédigé les réponses. Aujourd’hui, je vais prendre un café avec John, un vieil ami. Ange a été en contact avec son assistant personnel 2.0, Providence, et ils ont déterminé à partir de nos humeurs et nos niveaux d’énergie, que nous nous retrouverions dans un certain café (Providence et Ange ont réservé pour nous).

J’ai branché Ange sur ma voiture et il m’a conduit au café en suivant le meilleur itinéraire. En chemin, nous sommes passés à proximité d’une amie commune. Providence et Ange nous ont proposé de l’inviter à nous rejoindre au café. John a refusé et Providence a informé Ange qu’il avait été très stressé ces derniers temps. J’ai bloqué le partage de mon humeur et de mes informations de santé avec d’autres assistants personnels. John n’en a pas fait autant car il suit une thérapie.

Comme je suis à la retraite, Ange m’aide à occuper mes journées, à suivre un régime alimentaire équilibré et à rester en bonne santé. John travaille toujours, et Providence lui a été d’une grande aide pour mieux gérer son temps et se tenir informé. Je commence à montrer des signes de vieillissement. Ange m’aide à garder mon cerveau actif, en me rappelant les noms des personnes qui s’approchent de moi, en surveillant ma santé et mon état mental. Dans quelques années, lorsque je déciderai enfin d’emménager dans une résidence avec services, Ange sera un élément clé de mes soins de santé et de mon bien-être général (connecté à l’Assistant Personnel 2.0 de la résidence).

Après le café, j’ai passé quelques heures à lire et à surfer en ligne. Lorsque je lui demande, Ange me propose du contexte sur les sujets et m’avise de la crédibilité et des sources de financement des sites. Lorsque je doute de certaines informations, je le lui signale, et il m’amène vers d’autres sites, ou bien me fournit des informations pertinentes. Contrairement à la plupart des gens, j’ai réglé Ange pour qu’il me prévienne lorsqu’il croit que je me trompe.

Plus tard dans l’après-midi, j’ai fait une séance de course / marche rapide. Compte tenu de mes niveaux de glucides et de protéines, des relevés de qualité de l’air et des conditions météorologiques, Ange a recommandé l’itinéraire et a surveillé mes constantes à distance. Je pourrais emporter mon robot (il est assez petit), mais j’avais aussi besoin de temps pour moi. J’ai envie de courir un 10 km et, d’après mes données, Ange le détecte. Je sais, étant donné mon état de forme actuel, que je ne devrais pas le faire, mais si je décide de faire cette course, Ange sera mon entraîneur personnel.

À mon retour, les courses pour le dîner sont arrivées conformément au programme nutritionnel que Ange m’a recommandé. Il me donne le choix en fonction des saveurs particulières dont je voudrais profiter, mais après des années de telles décisions, ses algorithmes sont plutôt bons pour prédire ce que j’aime. Après le dîner, mes constantes ralentissent et Ange détecte qu’une sieste serait bienvenue, donc il atténue lentement les lumières et joue de la musique d’ambiance. Je me réveille d’une phase de sommeil léger avec l’odeur du café et un programme d’informations. Ange transmet mon commentaire sur un événement local, et nous évaluons un service que nous avons reçu.

Compte tenu de ma journée, de mes données de santé physique et mentale et de mon alimentation, Ange propose plusieurs émissions en streaming à regarder, des articles à lire et de la musique à écouter. C’est organisé de sorte que je tombe progressivement dans un état de repos, prêt pour un sommeil optimal. Les lumières et la température de la pièce s’ajustent progressivement à mesure que mes capteurs indiquent que je m’endors.

Fin de journée à 23 h 27.

*******

Contrairement aux jeunes qui utilisent leurs assistants personnels pour se divertir, aller à l’école ou au travail et rencontrer de nouvelles personnes, Ange a été primordial pour me maintenir sur un chemin de qualité de vie stable, en bonne santé et heureux. Mes enfants, occupés par leur vie à l’autre bout du monde, sont régulièrement informés et Ange organise des appels avec leurs assistants personnels lorsque le moment et l’humeur sont les mieux adaptés. Il y a certaines choses que Ange a été chargé de ne pas leur communiquer (et ils me mentent aussi). Je garde fermement le contrôle de Ange mais je reconnais (et apprécie) également la richesse des données et des informations qu’il gère pour moi.

Il y a cinq ans, lorsque toutes les technologies ont commencé à converger sous le terme général alors connu sous le nom d’IA, de nombreuses personnes ont mis en garde contre les dangers de cette technologie et ses effets sur l’humanité. Ces critiques étaient similaires à celles du début des années 1900, qui prévenaient que le téléphone allait détruire la société. Ils ont fait tout ce qu’ils pouvaient pour essayer d’arrêter ou de ralentir le processus, mais ils se donnaient le luxe de protéger des populations aisées, alors que d’autres vivaient dans le besoin. Alors que notre société vieillissante manque de main-d’œuvre pour prendre soin des personnes âgées (ainsi que pour l’éducation et les services de base), ces assistants personnels sont devenus essentiels, voire vitaux.

Je ne pourrais pas imaginer ma vie sans mon Ange.

 

 

Le spectroscope, notre clef pour déchiffrer le message des étoiles

Au début, il n’y a pas si longtemps au regard de l’histoire, l’astronome ne disposait que de l’intensité de la lumière et de ses propres yeux pour tenter de comprendre les astres qu’il contemplait la nuit.

Après une série de progrès dans la réflexion scientifique et de progrès technologiques, les spectroscopes, ces instruments dont nous disposons aujourd’hui pour décomposer la lumière, sont devenus extraordinairement raffinés. Grâce à eux on peut, non seulement analyser la lumière des étoiles proches mais aussi les atmosphères d’exoplanètes qui n’émettent aucun rayonnement visible, ou connaître la vitesse d’éloignement, donc la distance, à laquelle évoluent les galaxies les plus lointaines.

C’est grâce à ces instruments merveilleux que nous avons pu passer de l’astronomie à l’astrophysique.

Pour que la Science ait pu avancer, il a fallu des hommes qui comprennent que les silex pouvaient devenir des outils plus efficaces s’ils étaient taillés ou, plus généralement (et récemment), qui puissent concevoir des instruments en fonction des effets dont ils voulaient comprendre les causes.

Dans le domaine considéré aujourd’hui, le premier de ces hommes fut Isaac Newton. En 1672 il décrivit son expérience du prisme avec tous les détails nécessaires à la compréhension et à la répétition, démontrant que la lumière « blanche » (ou « neutre ») était constituée de toutes les couleurs que l’œil humain pouvait discerner. Il constata à la sortie du prisme « un mélange hétérogène de rayons différemment réfrangibles », ce mélange étant ce qu’il nommera lui-même un « spectre ». En langage scientifique, on dit aujourd’hui que la lumière blanche est la résultante de radiations de fréquences différentes, et que le prisme en réalise la décomposition spectrale. Mais la description moderne était déjà implicite dans les termes employés par Newton. La porte permettant d’accéder au progrès dans cette branche de la Science avait été ouverte !

C’est ensuite au début du XIXe siècle que William Herschell puis Johann Ritter perçurent la présence de rayonnements non visibles de part et d’autre du spectre lumineux. Et en 1864, James Maxwell comprit que la lumière résultait, tout comme le son qui fut étudié en premier, d’une vibration électromagnétique. On réalisa ainsi que le spectre lumineux n’était seulement qu’une toute petite partie du spectre électromagnétique qui, dans toute son ampleur, s’étendait de part et d’autre jusqu’aux limites des possibilités physiques d’oscillations, des plus courtes au plus longues, des plus rapides au plus lentes, ou des plus serrées aux plus ouvertes, selon l’image que l’on préfère pour se le représenter.

Du côté des instruments, le spectroscope de Newton, un simple prisme, évolua considérablement également à partir du début du XIXe siècle.

La première évolution fut de placer une lentille-collimateur avant l’arrivée du flux lumineux sur le prisme, pour le rendre parallèle et orthogonal au plan du prisme défini par sa hauteur.

La seconde fut de remplacer le prisme par un « réseau de diffraction », c’est-à-dire une surface opaque percée de raies étroites qui produisait le même effet, tout en donnant une image plus nette. Ce fut l’idée de l’Américain David Rittenhouse en 1786 (avec des cheveux !) puis du maître verrier/opticien bavarois, Joseph von Fraunhofer en 1815 (avec des fils métalliques). On parla de « réseau en transmission ».

Mais la diffraction n’empêchait pas les interférences. On ajouta donc un autre prisme après le réseau pour éviter la superposition de deux franges de longueurs d’onde voisines. On peaufina par la suite le  réseau avec une surface de réception composée d’une multitude de petits plans inclinés (constituant des rayures ou, mieux dit, un « réseau en réflexion »), ou en croisant deux réseaux de diffraction afin d’obtenir une multitude de points (plutôt que de fentes ou de rayures) apportant chacun son information sur la lumière reçue (cf MUSE ci-dessous).

Une autre évolution concerne l’interprétation de la lumière reçue par le spectroscope.

Fraunhofer remarqua les discontinuités sombres présentes sur tout spectre de lumière solaire (les « raies de Fraunhofer »). Mais ce n’est qu’en 1849 que Léon Foucault (le Foucault du pendule) réalisa que ces raies correspondaient à l’absorption par la lumière d’un élément chimique présent dans l’émetteur lui-même, ou dans l’atmosphère traversée (ce dont on ne s’aperçut qu’un peu plus tard) et qui annulait en quelque sorte l’émission sur la longueur d’onde de l’élément chimique concerné.

En 1859, Gustav Kirchhoff remarqua que la source émettrice devait être plus chaude que la lame du réseau qui l’absorbe (d’où beaucoup de difficultés pour obtenir les spectres de rayonnements lointains et très froids). C’est le début de la découverte d’un nombre extrêmement élevé de raies qui permettent d’identifier très précisément une multitude d’éléments chimiques (simples ou composés) par leur longueur d’onde, et par leur position par rapport aux autres raies, un outil extraordinaire pour l’exploration spatiale car il est devenu extrêmement précis.

Une autre évolution concerne l’impression de l’image reçue (à fin de conservation et de comparaisons).

Au sortir d’un spectroscope, il faut un spectrographe (que souvent on ne distingue pas du spectroscope) pour capter l’image du spectre et obtenir un spectrogramme (le document). On est passé du simple dessin, transcrivant la vue sur écran, à l’impression photographique en noir et blanc puis couleur, et enfin à la capture du rayonnement reçu par capteur CCD (Charge Coupled Device), une matrice de photodiodes extrêmement petites, quelques microns, ce qui permet une précision extraordinaire, évidemment utilisée jusqu’à l’extrême pour décomposer les rayonnements les plus faibles du fait de leur distance ou de leur abondance.

L’un des premiers « développeurs » (dirait-on aujourd’hui) du spectroscope pour l’astronomie, fut le père jésuite italien Angelo Secchi (1818 – 1878) qui inventa le premier appareil spécialement conçu pour décomposer en raies la lumière des étoiles (et non plus seulement celles du Soleil, sur lequel il travailla principalement). Il utilisa cet instrument à partir de 1863, ce qui lui permit de publier en 1870 une classification en quatre couleurs des quelques 4000 différentes sources observées en les rapprochant des éléments chimiques dominant dans leurs raies spectrales.

On était alors dans le cadre d’un univers que l’on pensait statique, mais une autre porte fut ouverte en 1868 quand l’astronome britannique William Huggins, réalisa que le décalage vers le rouge du spectre de l’étoile Sirius, par rapport à celui d’autres étoiles, était explicable par le déplacement (effet Doppler-Fizeau ou « redshift » confirmé en 1848 par Hyppolyte Fizeau après sa découverte en 1842 par Christian Doppler). Il en conclut naturellement que l’intensité et le sens du décalage pouvaient servir à calculer la vitesse radiale des astres.

Le Vaudois Charles Dufour se servit de cette découverte pour calculer des parallaxes à des distances jamais tentées, à partir des bases constituées par le rayon de rotation des étoiles doubles (avec la Terre et non plus l’astre, comme pointe de l’angle) ainsi qu’il l’expose dans le bulletin n°10 de la Société Vaudoise de sciences naturelles en 1868 : au sein du couple d’une étoile double, la variation de vitesse indiquée par l’effet Doppler va permettre de calculer l’orbite de l’« étoile satellite » autour de l’étoile principale, donc son rayon. Ceci à condition bien sûr que la lumière des deux étoiles du couple puisse être dissociée l’une de l’autre (ce qui limite la distance à laquelle on peut utiliser le calcul). On aura ainsi la base du triangle, dont on pourra mesurer le côté de l’angle au sommet duquel se trouve la Terre en prenant la tangente de l’angle lié à cette base.1

Cette utilisation de l’effet Doppler sur le spectrogramme se faisait dans la continuation des calculs de parallaxe pour estimer la distance des astres de notre environnement plus ou moins proche. Mais avec la multiplication des observations dans un volume d’espace de plus en plus grand, permises par des télescopes de plus en plus puissants, on remarqua au début du XXe siècle (1929, Hubble) que les galaxies étaient affectées d’un redshift d’autant plus élevé que leur distance à notre Voie Lactée était grande. L’estimation de la distance calculée jusque-là par d’autres moyens, les « chandelles standards » (supernovas de « type Ia », entre autres), pouvait désormais être faite (ou confirmée) par le redshift (ce qui était d’ailleurs la seule solution pour les sources de rayonnements les plus lointains).

C’est cette constatation qui permit à l’abbé Lemaître, en remontant le temps, d’en déduire (1931) que l’univers était en expansion, ou plutôt de relier cette constatation à sa théorie plus ancienne (1927) de l’« atome primitif » qu’il avait élaborée à partir de considération théorique (et de calculs) reposant sur la structure de l’atome et les rayons cosmiques.

Depuis, on précise et on raffine sans cesse.

Le dernier instrument en date, MUSE (Multi Unit Spectroscopic Explorer)2, en service depuis 2014, est placé sur un des télescopes du VLT (Very Large Telescope) de l’ESO (European Southern Observatory).

C’est une application surtout intéressante pour l’observation des sources lumineuses les plus lointaines. Par croisement des réseaux, il apporte une vision différenciée et simultanée de chaque point de lumière. On obtient ainsi non seulement une image ponctuelle, mais aussi, grâce à l’effet Doppler-Fizeau, une vitesse d’éloignement, l’orientation du mouvement, et encore un spectre donnant la composition chimique du point observé. En même temps, on obtient une vue simultanée des autres sources lumineuses (et de leurs spectres) comprises dans le champ (on parle de « spectroscopie intégrale de champ »). Cela permet d’obtenir directement une véritable carte physico-chimique immédiate du ciel en 3D.

 

Nous voyons donc là un cheminement scientifique typique, fruit de beaucoup de réflexions, de travaux et de calculs, effectués dans divers domaines (physique, acoustique, optique, chimie, maîtrise de l’énergie, travail du ver et du métal, cryogénie, informatique) et qui parviennent à un résultat synthétique, un outil extraordinaire d’observation des étoiles les plus lointaines, dans leur contexte, permettant l’analyse la plus fine de la source et de son environnement.

À toute époque, dans un domaine quelconque, la science est le fruit de progressions à partir d’un état antérieur, et finalement d’une convergence avec les progressions effectuées parallèlement dans d’autres domaines, sans oublier toujours les mathématiques qui sont au-delà de la logique, la solution pour décrire sérieusement et précisément des phénomènes théorisés et observés (comme l’écriture est indispensable pour la littérature) et le socle sur lequel on s’appuiera pour réaliser ensuite d’autres progrès.

Sur le web

  1. Lire mon article sur le sujet, dans le Bulletin de la Société Vaudoise de Sciences Naturelles (Vol 99, 2020, pages 130 et suivantes) : « Un Vaudois contributeur majeur à l’astrométrie moderne ».
  2. Mais il y en a d’autres ! J’aurais aussi bien pu me référer à l’observatoire Gaia et ses deux télescopes dotés de spectroscope, lancé en 2013 au point de Lagrange Terre-Soleil L2 pour cartographier en 3D les étoiles proches.

Mes amours avec l’Intelligence Artificielle (2) : mes nuits avec mon AI

Première partie ici

Dès le mois de juin 2023, la conversation technologique, notamment aux États-Unis, tournait autour de la possibilité de créer « son propre chatGPT », selon la formule consacrée par les vulgarisateurs.

Techniquement, l’enjeu est de connecter l’API d’un des grands Large Language Models sur le marché (Bard, Claude, Chat GPT…) sur sa propre base de données, et de l’entraîner sur un échantillon plus restreint et qualifié. Plusieurs sociétés et startups se sont lancées sur le marché des outils pour réaliser ces mini IAs rapidement, comme ADN AI en France. Le coût initial annoncé par des développeurs en juin (plusieurs dizaines de milliers d’euros) a été nettement réduit par ces avancées et nouvelles offres commerciales, même si une grande partie de la valeur (que ces compagnies offriront à coup sûr aussi en termes de services et conseils connexes à la mise en place) réside en fait dans la sélection, la curation, et l’entrainement des données.

 

Mes nuits avec l’IA

C’est ce que j’ai découvert au mois d’août. Il n’y a pas de coup de foudre dans le domaine de l’intelligence artificielle.

Une fois passée la stupeur de la découverte des produits (avec le panégyrique habituel de réactions, « cela ressemble un humain », « c’est rapide », « il pense comme moi »), il faut vraiment investir ses nuits d’été pour arriver à un produit commercial.

Et encore, dans mon cas, je n’avais pas l’ambition sur ce premier essai de vendre un service, mais uniquement d’offrir au grand public une autre voie d’accès à mes réflexions économiques. Par acte d’amour, j’entends ici le soin que l’on doit apporter à la sélection de la data.

Il suffit de se pencher d’ailleurs sur l’histoire de ChatGPT pour comprendre qu’en plus de son traitement des pages Internet, Open AI a du scanner, numériser, récupérer ou acheter de vastes bases de données ou publications. Et donc si théoriquement, techniquement, dès le 5 août, mon IA existait, il aura fallu trois semaines de nuits moites (aux États-Unis) estivales pour parfaire sa capacité d’analyse.

Le premier sujet délicat dans le choix de la donnée et son utilisation par l’IA est la question des erreurs et hallucinations.

Elles sont généralement dues aux conflits entre chiffres ou points de vue. Ce point, fréquent sur les IAs généralistes, aurait dû être réglé par le choix du corpus dans le cas de mon expérience estivale : a priori, sauf schizophrénie, je suis cohérent avec moi-même, et malgré des variations de langage ou de points de vue sur l’actualité, mes approches et interprétations sur les grands sujets économiques (croissance, retraites, pauvreté, progrès technologique, finances publiques) ne varient pas.

Dans le cas des premiers tests de www.sebastienlayeecobot.com, c’est la perspective temporelle qui brisait parfois la logique des raisonnements. J’avais pu donner des interviews fin 2016 où je donnais mon avis sur l’évolution de l’économie en 2017. L’IA paraissait tantôt répondre comme si elle était effectivement en fin 2016, tantôt en réintégrant des arguments et jugements obsolètes dans un discours contemporain. Il a fallu se résoudre à retirer du corpus les interviews anciennes et prospectives. Cet inconvénient était compensé par la capacité de l’IA à reprendre un prisme d’analyse ancien (par exemple mon interprétation de la crise financière de 2008) pour l’appliquer à une situation contemporaine.

Le second sujet d’inquiétude fut le caractère circonscrit du corpus de donnée.

Avec initialement 3,3 millions de signes ou tokens dans la base de données (l’équivalent d’une petite centaine de livres standards), je n’avais pas abordé tous les sujets économiques. En testant le bot avec certains amis, une question sur trois n’avait pas de réponse, le bot se contentant d’indiquer que Sébastien Laye n’avait jamais traité du sujet.

Rappelons ici que nous aurions pu corriger le tir en « rebranchant » l’IA sur le web comme ChatGPT, mais cela aurait dégradé la qualité de la réponse et trahi la promesse du bot. Depuis lors, mon traitement de ce sujet a été d’écrire des fiches ou des notes reflétant mes idées et analyses sur les sujets non traités dans mes livres, tribunes ou rapports, afin de compenser les trous noirs de cette IA. La base de données est ainsi plus proche des 3,7 millions de tokens ces jours-ci, et je continuerai la mise à jour sur le long terme.

Enfin, le troisième sujet – le plus important –  fut la définition du style, de la manière de raisonner et de poursuivre un jugement analytique.

En aucun cas le simple fait d’utiliser une base de données faites de mes écrits ne garantissait la cohérence de l’analyse ou la ressemblance avec mon style. Il a fallu travailler ce qu’on appelle en IA la persona, c’est-à-dire les caractéristiques du bot. Comme pour le prompt engineering, cette phase est en train de devenir un métier aux États-Unis. Après quelques semaines de tâtonnements, la persona du bot est définie par environ 40 lignes et 50 critères. Et je l’avouerai, il y a un seul biais – que vous me pardonnerez-, il est indiqué que le bot doit avoir une approche libérale des sujets économiques (tout comme le vrai Sébastien Laye). Comme certaines personnes sont payées 1000 dollars de l’heure pour ce type de travail, ma persona peut encore être améliorée !

 

La Chine s’émancipe : un tournant dans la guerre technologique

Selon le Wall Street Journal du 6 septembre, après la Russie, la Chine a décidé d’interdire les iPhone et autres smartphones de marques étrangères à l’ensemble de ses fonctionnaires, lorsqu’ils sont au travail.

Autant dire que pour Apple, la nouvelle n’est pas à ranger dans le dossier des bonnes nouvelles. Cette décision a fait l’effet d’une bombe à fragmentation dans la mesure où elle ne cible pas Apple spécifiquement, mais elle est un moyen pour mettre à mal la stratégie de l’administration américaine dans sa volonté d’hégémonie technologique.

 

Conséquences pour la firme

Cette décision n’est pas sans lourdes conséquences pour la firme.

Le marché chinois représente 19 % des revenus de l’entreprise, et la Chine est également son principal centre de production.

Après l’annonce du gouvernement chinois, depuis le mercredi 6 septembre, « la capitalisation boursière d’Apple a fondu de plus de 200 milliards de dollars, pour s’établir à 2776 milliards de dollars ».

Nonobstant ce coût financier, la firme cherche à trouver d’autres implantations pour sa production, notamment en Inde (dans une usine située dans l’État du Tamil Nadu) et au Vietnam… Cela ne consolera guère les dirigeants et les salariés de la firme Apple, qui ne sont ni responsables ni coupables – selon la formule – de leurs déboires commerciaux.

 

Les dessous politiques d’une telle décision

Le fait est que la firme Apple paye une politique agressive à l’encontre des entreprises chinoises menée depuis plusieurs années par l’administration américaine.

Cette attaque n’est que la partie – de mon point de vue – émergée de l’Iceberg.

Qui cible véritablement le gouvernement chinois en s’en prenant ainsi à Apple me semble être la bonne question. Et pourquoi ? Plus encore, pourquoi maintenant ? Si nous allons plus loin, il est évident que pour l’administration américaine, cette décision de la Chine constitue un très lourd revers. Elle remet profondément en cause sa stratégie en matière de technologies, et sa politique ostensiblement anti-Chine.

 

Le retour de flamme de la stratégie « mondiale » anti-Huawei

Ayant, depuis la période Trump, sans jamais le formuler explicitement, désigné la Chine comme ennemi technologique n° 1, l’administration de Joe Biden aurait dû s’attendre à une réplique extrêmement offensive de l’empire du Milieu.

Rappelons à toutes fins utiles qu’en novembre 2022, dans la continuité de la stratégie de l’administration Trump, l’administration Biden avait interdit « la vente sur le territoire américain de nouveaux équipements de télécommunication par les groupes chinois Huawei Technologies et ZTE en raison d’un « risque inacceptable » pour la sécurité nationale des États-Unis ».

L’administration américaine aurait bien fait de s’inspirer d’un adage tiré de L’art de la guerre de Sun Tzu :

« Celui qui excelle à vaincre ses ennemis triomphe avant que les menaces de ceux-ci ne se concrétisent ».

Les États-Unis et leurs alliés se sont, à mon sens, montrés très « agressifs » (depuis la période Trump) et très (trop) présomptueux, pour ne pas dire naïfs vis-à-vis de la Chine à propos de sa puissance et sa capacité à contre-attaquer.

 

La Chine : du suivisme au leadership technologique… voire hégémonique

Pour rappel, la guerre ouverte commerciale et technologique entre les États-Unis et la Chine a été lancée en 2018 par Donald Trump.

La stratégie de l’administration Trump visait, autant que faire se peut, à laisser la Chine derrière elle d’un point de vue technologique, qu’elle soit cantonnée, par isolationnisme, à un rôle de fabricant-exécutant.

Dans cette dynamique, les États-Unis avaient été suivis (appuyés) par de nombreux États alliés qui ont tout fait pour nuire au développement de nombreuses firmes chinoises, à l’instar de l’emblématique Huawei pour ce qui est – entre autres – de la technologie 5G.

Tous ont adopté le même narratif vis-à-vis de leurs concitoyens, évoquant sans relâche la sécurité nationale, la protection des données, la souveraineté numérique, etc.

Ainsi, en 2018 l’Australie avait banni Huawei et ZTE de son réseau 5G.

En 2020, c’était au tour du Royaume-Uni d’annoncer qu’il interdirait désormais l’achat de nouveaux équipements Huawei pour les réseaux 5G, et exigerait que les équipements Huawei existants soient retirés d’ici 2027…

En 2022, la Commission fédérale des communications des États-Unis avait prohibé « la vente de tout nouveau produit sur le sol américain à plusieurs firmes chinoises », et ajouté des restrictions importantes sur l’utilisation des produits et services d’une demi-douzaine d’entreprises chinoises, dont Huawei et ZTE.

Ces restrictions comprenaient des interdictions d’achat de matériel de télécommunications chinois par les agences gouvernementales américaines. Dans cette dynamique « anti-techno chinoise » en juin 2023, la Commission européenne estimait à son tour que les fournisseurs de télécoms chinois, Huawei et ZTE, représentaient un risque pour la sécurité de l’Union européenne. Bruxelles avait alors « appelé les 27 pays membres et les opérateurs télécoms à exclure ces équipements de leurs réseaux mobiles. »

 

Problème de sécurité nationale, ou d’hégémonie technologique ?

Tandis que l’ensemble des acteurs concernés évoque des problématiques de data, de protections de données, de protections de citoyens, etc., ce qui est certes audible, notons toutefois que tous autant qu’ils sont disposent des moyens pour pirater qui ils veulent, et lorsqu’ils le veulent !

Certes, sur certaines applications comme TikTok ou d’autres réseaux, des exigences peuvent être émises pour une modération adaptée et non pernicieuse (cf. dysmorphie).

Pour le reste, ce discours demeure l’arbre qui cache la forêt. L’enjeu de ce « technodrame » technologique qui fait aujourd’hui la Une des médias est à mon sens autre, et d’une tout autre dimension.

Il s’agit ni plus ni moins pour les États, ici la Chine, de prendre le leadership sur les technologies, toutes les technologies ! Celui qui aura le leadership dominera le monde.

N’est-ce pas ce qu’avait déclaré Poutine au sujet de l’IA :

« Celui qui réalisera une percée marquante en intelligence artificielle dominera le monde. »

Voilà l’enjeu et le combat des puissances mondiales : dans le domaine technologique au sens large, 5G, IA, il s’agit de poser le premier pas sur cette planète en perpétuelle mutation, d’en avoir le contrôle, ce qui passe par une autonomie technologique totale !

Le pied de nez de la Chine, face à ce qui peut être considéré objectivement comme des agressions commerciales, aura été, par-delà les coups portés, la poursuite du développement d’entreprises chinoises comme Huwaei, que les États-Unis comptaient bien mettre à genoux.

 

La Chine s’éveille et s’émancipe technologiquement

Si vous ne saviez pas comment la Chine s’éveillerait, maintenant, vous le savez.

Pékin vise l’autosuffisance technologique sur 70 % des composants et matériaux-clés à l’horizon 2025, comme l’énonce l’ambitieux programme Made in China 2025. Le lancement par la firme du Huawei Mate 60 Pro en est la preuve. S’agit-il de coïncidence de calendrier ? Nullement !

Comme le dit fort justement le journaliste Thomas Estimbre  (JDG), ce smartphone est ni plus ni moins « le nouveau cauchemar des États-Unis ».

D’une part, son lancement se fait dans un timing pour le moins opportun ; d’autre part, s’il a provoqué l’ire de Washington, c’est que le géant chinois a sorti un produit doté d’une puce qu’il n’était pas censé être capable de fabriquer, et ce « en raison des sanctions américaines pesant sur les exportations de certains composants vers la Chine ».

Il se trouve que la Chine peut se révéler taquine ! Outre la décision de boycott d’Apple, le dévoilement en grande pompe de l’Huawei Mate 60 Pro par la société Huawei est intervenu le 29 août 2023, damant ainsi le pion à Apple qui n’a présenté sa nouvelle gamme d’iPhone, l’iPhone 15 Pro et l’iPhone 15 Pro Max que le 12 septembre 2023 ! Hasard ? Peut-être… Notons que ce hasard est stratégiquement habile.

Quand la Chine s’éveille et s’émancipe, elle frappe, et le moins que l’on puisse dire c’est qu’elle a frappé fort. Si elle a beaucoup subi, elle a patienté, et comme le disait Balzac, « la puissance ne consiste pas à frapper fort ou souvent, mais à frapper juste ».

Par l’intermédiaire de la société Huawei, la Chine, qui n’a eu de cesse d’être ostracisée par les États-Unis depuis le mandat de Donald Trump, puis par l’Europe (une Europe dont l’entreprise espérait le soutien) a frappé un grand coup dans la course à l’hégémonie technologique.

Les États-Unis, leurs alliés – dont l’Europe – qui se sont tant mobilisés pour freiner son autonomie technologique seraient dès lors bien avisés de repenser en profondeur et en urgence leur stratégie vis-à-vis de l’empire du Milieu…

Une mise en échec, c’est une chose, mais ne faut-il pas en tirer les leçons, à moins de poursuivre la même stratégie pour finir échec et mat ? Si tant est qu’en matière d’hégémonie technologique les jeux ne soient déjà faits.

« La première fois, c’est une erreur, la seconde c’est qu’on le fait exprès. » Proverbe chinois.

Conquête de l’espace : le Japon fait d’une pierre deux coups

Dans la nuit du mercredi 6 au jeudi 7 septembre, à 01 h 42 du matin (08 h 42 au Japon), une fusée H-IIA (H-2A) a quitté la Terre, du centre spatial de Kanegashima1, emportant à son bord deux missions spatiales.

La première, SLIM (Smart Lander for Investigating Moon), a pour objet l’atterrissage d’une sonde sur la Lune ; la seconde, XRISM (X-Ray Imaging and Spectroscopy Mission) a pour objet le positionnement d’un capteur de rayons X « mous » (tout est relatif) en orbite terrestre basse (550 km). Le couplage des deux missions organisé par l’agence spatiale japonaise, la JAXA, a été décidé simplement pour réduire les coûts du lancement.

Le lanceur H-IIA est relativement peu puissant puisqu’il ne peut mettre que 15 tonnes en LEO et 6 tonnes en GEO (comparé à 21 tonnes en LEO et 10 tonnes en GEO pour Ariane 5 ECA, et à peu près les mêmes masses pour une Falcon 9). Il est construit par Mitshubishi Heavy Industries et Ishikawajima-Harima Heavy Industries (spécialiste en ingénierie spatiale). C’est une fusée qui a une longue histoire (47 lancements dont un seul échec depuis 2001) et qui ne pose aucun problème.

La masse des charges utiles embarquées est de 590 kg dont 200 kg pour l’atterrisseur SLIM, et 2300 kg pour XRISM. Pour comparaison, l’atterrisseur avec son lanceur Chandrayaan 3 avait une masse de 3900 kg dont 2148 kg pour le module de propulsion, et 1752 kg pour l’atterrisseur, dont 26 kg pour le rover.

 

SLIM

On voit tout de suite le choix qui a été fait pour SLIM, celui d’aller tout doucement vers la Lune, sur une très longue trajectoire, du fait d’une dotation en énergie très limitée (il faut toujours choisir entre masse transporté et énergie consommée).

Elle n’y parviendra en effet qu’en février 2024, après un voyage de six mois alors que Chandrayaan, partie le 14 juillet y est arrivée le 23 août. Cela dit clairement ce qu’est SLIM : un test d’atterrissage sur la Lune pour une nation spatiale qui n’a jamais tenté cette expérience (la tentative d’ispace en décembre – et son échec – était privée). Et la JAXA l’a précisé, ce sera tout de suite un atterrissage d’ultra précision qu’elle appelle « pinpoint landing » (ellipse de 100 mètres seulement).

Le site d’atterrissage lui-même n’a pas d’intérêt particulier, il est situé près de l’équateur, par 13°N. Outre sa propre masse et quelques équipements scientifiques, la sonde apportera deux rovers.

Les deux véhicules sont aussi des tests et ils sont très originaux.

Le premier, tout petit (250 grammes), LEV-1, est décrit comme « roulant ». En fait, il pourrait être décrit comme « roulant-rampant » (voir image) car composé d’une boule dont les deux hémisphères s’éloignent ce qui les transforment en roues.

L’autre, LEV-2, est encore plus petit (masse de 26 grammes) et se déplace par sauts, mode très adapté pour la Lune compte tenu du terrain non préparé à la locomotion roulante et de la faible pesanteur (0,16 g, soit la moitié de celle que la masse de la planète Mars exerce à sa surface).

Une autre particularité de la mission est le déploiement après atterrissage (voir illustration de titre). Comme toutes les sondes sur les astres ne disposant pas d’atmosphère suffisamment portante, elle va se poser par rétropropulsion, donc à la verticale. Mais ensuite, après avoir écrasé ses cinq pattes imprimées en 3D dans un matériau compressible (« lattice »), elle va pivoter pour se mettre à l’horizontale (on pourrait dire s’allonger).

Cerise sur le gâteau, elle ne va pas se poser sur un terrain plat, mais sur une pente (ce que permet l’écrasement des pieds), celle d’un petit cratère, relativement récent, Shioli. Cela lui permettra un meilleur contact avec le sol pour ses observations (caméra et spectromètre pour l’analyse du sol) et surtout une évacuation plus facile pour ses deux rovers (qui partiront du sommet qui va s’ouvrir au niveau du sol alors que la base de la sonde qui va toucher en premier le sol est occupée par le dispositif de propulsion et de premier contact).

Il va sans dire qu’après ces tests, le Japon a bien l’intention d’envoyer d’autres missions sur la Lune ou ailleurs, et qu’elle pourra utiliser ces nouvelles technologies. Rappelons que pour l’instant les seuls  débarquements des Japonais ont eu lieu sur des astéroïdes.

 

XRISM

XRISM qui est un partenariat de la JAXA2 avec la NASA et l’ESA, a un autre objectif : celui de relayer les anciens capteurs de rayons X « mous » (longueurs d’onde > 0,2 nm) en attendant que les nouveaux soient en service.

En effet, les capteurs actuels, Chandra (NASA, lancé en 1999 pour 5 ans !), XMM Newton (ESA, lancé également en 1999), vieillissent. Et les nouveaux (ATHENA3, lancement prévu par l’ESA en 2035), qui seront utilisés pour les rayons X mous, ne sont pas encore prêts à être lancés.

Le télescope NuSTAR couvre, lui, les rayons X durs (longueurs d’onde < 0,2nm). Hitomi, un autre télescope japonais, couvrant les rayons X durs et mous, a bien été lancé en février 2016 et placé en orbite. Mais il a été détruit en mars de la même année avant d’entrer en service, en raison de la déficience de son système de contrôle d’attitude.

Afin qu’il n’y ait pas de trou dans notre vision de l’espace, il nous faut absolument continuer à observer le ciel dans les longueurs d’onde de ces rayons X mous (puisque les durs sont couverts désormais, depuis 2018, par NuSTAR). XRISM va aussi nous servir à valider certaines technologies qui doivent être utilisées sur ATHENA et qui ont été fournies à cette mission par l’ESA (ce qui donne à cette dernière un temps d’observation de 8 %). Le temps de vie minimum de XRISM est de 3 ans (mais on espère beaucoup plus !).

Pour nous permettre d’effectuer l’observation de ces rayons X, XRISM portera deux instruments, Resolve et Xtend.

Resolve est un microcalorimètre développé par la NASA (Goddard Space Flight Center), capable de déceler des températures très proches du zéro absolu (générées par les impacts de rayons X). Le minimum n’est que de 0,05K !

Xtend est une caméra CCD sensible aux rayons X.

Les deux ont leur propre télescope, en parallèle l’un de l’autre, avec une longueur focale de 5,8 mètres.

Rappelons que les rayons X sont émis par les événements les plus violents de l’Univers. Ils sont donc un complément indispensable aux autres signaux reçus de l’espace, en quelque sorte une dimension particulière (NB : au-delà des rayons X, à l’extrémité du spectre électromagnétique, du côté ondes courtes, nous avons les rayons gamma, mais cela est une autre histoire).

D’une manière générale on ne peut pas observer ces rayonnements depuis la surface de la Terre puisqu’heureusement pour la vie, ils sont arrêtés par l’atmosphère terrestre. Une autre difficulté résultant des très petites longueurs d’onde, est qu’on est obligé d’adapter fortement nos modes de capture. Il n’est bien sûr pas question d’utiliser des miroirs mais pas question non plus d’utiliser des antennes. Les antennes plates ou légèrement concaves orthogonales aux rayonnements ne verraient rien, mais des surfaces quasi perpendiculaires aux rayonnements (avec une pente extrêmement faible) et longues peuvent transmettre le maximum d’informations. Ceci explique la forme inhabituelle de ces télescopes particuliers, et leur aspect quand on les regarde par la tranche (exposée la première aux rayonnements) puisqu’ils ressemblent davantage à des tubes constitués par de multiples feuillets très rapprochés les uns des autres, qu’à des miroirs de télescope classique.

Avec ces deux missions le Japon continue sa participation et sa contribution à haut niveau à l’exploration spatiale. Ce n’est pas un partenaire mineur de la communauté scientifique, ni qui cherche à faire de l’esbrouffe. La communication n’est pas sa priorité. Le pays suit un chemin particulier toujours innovateur et utile au monde entier, pour la science.

 

 

Sources :

https://parabolicarc.com/2023/08/15/launch-roundup-japan-aims-moon-landing/

https://global.jaxa.jp/projects/sas/slim/

https://en.wikipedia.org/wiki/X-Ray_Imaging_and_Spectroscopy_Mission

https://www.nasa.gov/feature/goddard/2023/jaxa-nasa-xrism-mission-ready-for-liftoff

https://en.wikipedia.org/wiki/Smart_Lander_for_Investigating_Moon

https://www.youtube.com/watch?v=Ej4ZMp4a2xw

https://www.isas.jaxa.jp/en/missions/spacecraft/developing/slim.html

https://www.space.com/moon-sniper-slim-japan-launch-august-2023?utm_source=notification

https://www.livemint.com/science/news/japan-postpones-moon-landing-here-s-why-slim-missions-rocket-launch-has-to-wait-11693187340855.html

https://www.esa.int/Space_in_Member_States/France/La_prochaine_grande_mission_en_rayons_X_devrait_etre_lancee_prochainement

https://www.space.com/moon-sniper-slim-japan-launch-august-2023?utm_source=notification

  1. petite île, la plus méridionale de l’archipel Nippon, à la latitude 30°23 N. Partir de là permet au Japon d’être au plus près de l’équateur tout en restant sur son territoire national, afin de bénéficier au maximum de l’effet de fronde de la Terre.
  2. plus précisément sa division « ISAS » (Institute of Space and Astronautical Sciences).
  3. Advanced Telescope for High Energy Astrophysics

Procès de Google : guerre contre les monopoles ou régulation contre-productive ?

Le procès contre Google pour abus de position sur le marché des moteurs de recherche prend place aux États-Unis.

Le gouvernement vise des amendes et un démantèlement du groupe, dans le but – en apparence – de réduire un excès de concentration dans le marché.

Selon la théorie des dirigeants, la séparation d’une entité comme Google en une poignée de sociétés en concurrence mène à un abaissement des prix de marché et l’amélioration de la qualité des services.

On peut lire dans le quotidien Les Échos :

« Le gouvernement et les États plaignants considèrent que les accords commerciaux passés avec les navigateurs (comme Mozilla), les équipementiers (Apple, Samsung…) et les opérateurs des télécoms pour installer par défaut le moteur de recherche de Google sur les ordinateurs et les smartphones ont illicitement entravé le développement des autres moteurs de recherche – Bing (Microsoft) ou DuckDuckGo n’ont de fait jamais réussi à prendre l’ascendant. »

Selon les médias, à peu près toute société de taille importante dans la technologie a brisé des lois afin d’atteindre son succès. Le marché, disent-ils, requiert l’intervention des autorités contre le succès d’une poignée de géants du web.

Le New York Times rapporte :

« Les litiges [contre Google] font partie d’un vaste effort par le gouvernement de M. Biden et des États afin de rappeler à l’ordre les plus grosses sociétés de technologie.

[Le gouvernement] poursuit aussi un litige séparé d’abus de monopole contre Meta [maison-mère de Facebook]. Des préliminaires pour des procès sont également en préparation pour abus de monopole contre Amazon et Apple. »

Dans l’intervention contre les entreprises, aux États-Unis comme dans l’UE, les dirigeants cherchent en général des sources de statut et d’influence. Ils reçoivent l’attention des médias, et forcent la coopération d’entreprises au moyen de pression et de lois.

Aux États-Unis, la théorie pour l’instauration contrainte de la concurrence remonte au moins aux lois Antitrust de 1890.

En 1911, le gouvernement américain force la scission du géant Standard Oil, le groupe pétrolier sous contrôle de Rockefeller. En résulte une trentaine d’entités, et en principe un accroissement de la concurrence.

En pratique, Standard Oil n’a pas joui de monopole sur le marché du pétrole américain. Il atteint une part de marché de 91 % en 1906, mais chute à 64 % du marché cinq ans plus tard, en raison de centaines de concurrents sur le marché de la production et du raffinage.

Rien ne montre d’impact dans la réalité de la dissolution d’une société, sous l’influence des dirigeants. En somme, l’organisation de l’économie ne requiert pas l’avis des élus sur la taille des entreprises, et le nombre de participants au marché.

 

Normes et paperasse, aux dépens de la concurrence

Par contre, comme la plupart des interventions des dirigeants dans l’activité des entreprises, le procès contre Google crée des opportunités pour le renforcement de l’emprise des dirigeants dans l’économie.

Du côté de l’UE aussi, les procès et amendes contre les géants de la tech, et les régulations sur les produits d’informatique (la Digital Services Act) génèrent des surcoûts et paperasse.

Comme aux États-Unis, les dirigeants accusent les groupes de la tech de monopole. Selon eux, les interventions réduisent la concentration de pouvoir, et fournissent plus d’opportunités à l’émergence de la concurrence.

Un communiqué de la Commission européenne explique :

« La Commission estime donc à titre préliminaire que seule la cession obligatoire, par Google, d’une partie de ses services permettrait d’écarter ses préoccupations en matière de concurrence. »

Les normes contre les sociétés de technologie ont certes des effets. La société de l’iPhone, Apple, vient d’introduire un changement de chargeurs de téléphone pour le lancement du modèle 15, en réponse aux menaces d’interdiction des smartphones sur le continent.

Dans l’ensemble, les géants comme Apple ou Meta ont le plus de moyens pour protéger ou adapter leur activité au gré des demandes de l’UE. Les sociétés moins importantes souffrent en fait le plus des régulations, car elles ont moins de marge de manœuvre et d’influence auprès des élus.

Une étude sur les effets du GDPR, la régulation de 2018 sur le consentement aux cookies, entre autres, réduit les bénéfices de sociétés de petite taille, et n’a pas d’impact apparent sur les géants de la tech.

Selon VoxEU :

« Nous trouvons que les sociétés soumises au GDPR ont connu une baisse moyenne des bénéfices de 8 %, et une baisse des ventes de 2 %. Ces conséquences négatives étaient principalement subies par des sociétés petites ou moyennes. À l’inverse, rien n’indique d’impact négatif quelconque sur les ventes ou les bénéfices chez les plus grosses sociétés de technologie, dont Facebook et Google. »

L’accroissement du nombre de règles pour un domaine d’activité tend à alourdir la paperasse, et les coûts de la mise en conformité.

Les dirigeants donnent les apparences d’une lutte contre les excès des puissants. En réalité, l’ajout de régulations et d’amendes nuit davantage à l’émergence de la concurrence, qui n’a pas les moyens de supporter les demandes des régulateurs.

De plus, les grosses entreprises profitent de la proximité avec le gouvernement, et des contacts avec les régulateurs et législateurs.

En effet, les gouvernements fournissent aussi des baisses d’impôt, subventions et autorisations à une poignée de favoris.

Le quotidien Les Echos rapporte :

« Sur 157 milliards [d’aides aux entreprises en France] en 2019, on dénombre 32 milliards de subventions proprement dites et 125 milliards de baisses de prélèvements obligatoires dont 25 milliards sur les impôts de production, 35 sur l’impôt sur les sociétés et plus de 60 sur les charges sociales. »

Les subventions aux entreprises de semi-conducteurs, batteries, et de voitures électriques au prétexte du climat ajoutent des avantages aux relations avec les élus.

En échange, les politiciens y gagnent des sources de financement de la part d’entreprises en recherche de protection contre des lois ou l’émergence de la concurrence. Les dirigeants des gouvernements – ministres, commissaires de l’UE, ou bureaucrates de carrière – jouissent de l’attention des entreprises et de la presse.

En somme, les autorités cherchent en général des opportunités pour le capitalisme de connivence, et les relations d’influence et d’entraide avec les gérants d’entreprises.

 

Dirigeants européens en quête d’influence

Depuis l’annonce d’une série de restrictions contre les transferts de données hors du continent, au prétexte de risques de piratage en outre-Atlantique, les dirigeants au sommet de l’UE croient monter en statut.

Selon Le Figaro, les propos du commissaire Thierry Breton sur la loi sur les services informatiques :

« La nouvelle loi européenne sur le numérique signe la fin d’une ère de non-droit ».

Le changement d’ère requerrait bien plus de surveillance et de direction de la part de M. Breton…

Le commissaire semble mettre en application son gain d’importance : il impose une visite en personne aux quartiers généraux des géants de la technologie au cours de l’été.

En juin, Euractiv rapporte :

« Le commissaire européen chargé de l’application d’un nouveau texte européen sur les contenus en ligne, Thierry Breton, se rend à San Francisco jeudi (22 juin) pour s’assurer que les plateformes comme Facebook, Instagram et Twitter sont prêtes à le respecter. »

Les dirigeants de la Commission font des coups de théâtre. Ils organisent des réunions avec les célébrités de la Silicon Valley.

Le journal continue :

« Thierry Breton doit rencontrer Mark Zuckerberg, le patron de Meta (Facebook et Instagram), ainsi qu’Elon Musk, qui défend une liberté d’expression à tous crins depuis qu’il a pris la tête de Twitter l’an dernier, y compris quand les contenus sont offensants ou alimentent la désinformation. »

L’UE vise non seulement la régulation de l’usage de données, mais le contrôle des contenus !

« Le commissaire européen prévoit aussi de rencontrer sur la côte ouest des États-Unis Sam Altman, le directeur général d’OpenAI, la start-up derrière le robot conversationnel ChatGPT qui fait sensation depuis son lancement auprès du grand public fin 2022, ainsi que Jensen Huang, le patron du fabricant de processeurs indispensables à cette nouvelle technologie, Nvidia. »

Les startups de l’IA ou le domaine de semi-conducteurs comme Nvidia ne font pas partie du Digital Services Act.

Par contre, les réunions ajoutent peut-être une couche d’importance à la visite des personnalités de la Commission.

En échange, les sociétés peuvent bénéficier de protections contre l’émergence de la concurrence – qui court plus de risques de tomber en travers du nombre de règles et de normes en croissance sans arrêt.

(Vous pouvez me suivre pour des analyses et conseils réguliers sur la Bourse, en vous inscrivant gratuitement)

Mes amours avec l’Intelligence Artificielle (1) : la rupture amoureuse avec ChatGPT

Le lundi 4 septembre 2023, au retour de mes vacances aux États-Unis, et après avoir agencé tant bien que mal un petit site wix (mes capacités en design et donc, par conséquent, en création de sites grand public, ont toujours été très limitées…) pour l’accueillir, je décidai de porter sur les fonts baptismaux une intelligence artificielle générative, dédiée à des sujets d’économie et de politiques économiques, fondée en toute immodestie sur toutes mes analyses économiques (sept ans au total, d’articles, rapports, notes, livres, passages TV, vidéos YouTube, interviews radio, près de 3,5 millions de signes ou tokens comme disent les informaticiens).

Une intelligence artificielle rendant Sébastien Laye (ou du moins l’économiste Sébastien, limité tout de même par ce qu’il a pu dire par le passé, avec plus ou moins de jugements qualifiés) disponible 24 h sur 24, y compris pour les médias. Trop peu pour éviter de m’interviewer sur des sujets d’actualité, mais déjà assez pour avoir mes réponses – voire même dans certains cas mes analyses prospectives – sur une gamme de sujets d’économie et de politiques économiques.

Comment en étais-je arrivé là, à rejoindre, au cours de l’été 2023 les bidouilleurs américains panégyristes des narrow AIs et du prompt engineering ?

Tout commença en décembre 2022 avec ma découverte de ChatGPT : à l’instar du commun des mortels, à cette date, je n’avais qu’une appréhension théorique de l’IA, et alors que je suis normalement un fervent défenseur du progrès technique (comme tous les libéraux), je faisais même preuve d’un techno-scepticisme de bon aloi sur les thèses de Kurzweil, la singularité et l’avènement d’une Intelligence Artificielle Générale. Mais pour une fois que nous, grand public, pouvions tester un produit IA, avec une interface simple, aussi rudimentaire qu’elle rappelait pour moi le dernier grand changement de paradigme, l’apparition en 2000 sur mon écran d’ordinateur d’étudiant de la barre de recherche de Google…

Je fus de ceux immédiatement happés par les promesses de l’IA générative, que ce soit avec les LLM (large language models) et le texte, qu’avec l’audio (Eleven Labs), l’image (incapable de me faire à l’interface Discord brouillonne de MidJourney, je jetai mon dévolu sur Leonardo et Stable Diffusion après quelques semaines décevantes sur Dall E), la vidéo (d-ID, Runway). La floraison de startups, de nouveaux produits, de nouvelles versions, de plugins, devint difficile à suivre, même par le truchement de dizaines de newsletters (qui inventera la newsletter des newsletters.. ?).

Attelé à la rédaction d’un livre sur l’économie du métavers durant les fêtes, je ne pus m’empêcher d’intégrer un chapitre sur l’IA avec mon coauteur Emmanuel Moyrand. Et une fois passé le stade initial du coup de foudre (mon premier vrai long prompt sur ChatGPT sera homérique puisque je demandai au bot d’écrire l’histoire de Marcel mon chat à la manière de l’Odyssée), vint le temps des questions sur les applications pratiques de cette technologie.

En deux mois, utiliser ChatGPT pour résumer mes articles ou ceux des autres, puis des PDF (via ChatPDF), automatiser mes emails avec ChatGPT intégré dans mon Gmail, systématiser les posts LinkedIn gérés par le chatbot. Tout cela devenait une routine dès le printemps, alors que je rencontrai également Amaury Delloye, le fondateur d’ADN AI, qui m’éveillait au potentiel de l’audio et de la vidéo (avatars) générés par l’IA. Au niveau de l’automatisation des procédés, dans mon activité professionnelle de chef d’entreprise et d’investisseur, aucune déception.

Mais le flirt avec l’IA commença à décevoir quand j’entrepris d’interroger ChatGPT sur l’économie. Sur les questions théoriques, les réponses étaient plutôt satisfaisantes ; mais sur les politiques appliquées, les réponses étaient pauvres, et parfois affligeantes.

Comment expliquer l’inanité des arguments ?

ChatGPT utilise une gigantesque base de données, certes améliorée manuellement par OpenAI, mais qui est essentiellement le world wide web. Et sur notre bon vieux réseau, sur la matière « économie », on trouve certes de bonnes fiches Wikipédia, quelques cours en ligne ou articles d’économie, mais aussi beaucoup d’opinions, de contenu de basse qualité et de posts de réseaux sociaux. Ainsi, selon le vieil adage des pratiquants d’Excel, -en anglais dans le texte- « garbage in, garbage out ».

Quand une base de données est nourrie par de la donnée de mauvaise qualité, quelle que soit la qualité du prompt ou du LLM, le résultat final ne peut être que de mauvaise qualité. Si je continuais au début de l’été à utiliser ChatGPT, mes espoirs se retournaient vers des IA plus spécialisées (dites narrow AIs).

Le futur de ces IA paraissait évident : brancher les API de ces LLM (Claude, Bard, ChatGPT) sur des corpus spécialisés et qualifiés devrait aboutir à de meilleurs résultats. Déjà, des entreprises réalisaient en fonction de leurs besoins leur propre ChatGPT sur leurs données propriétaires, tels Bloomberg aux États-Unis…

Séisme au Maroc : les satellites peuvent aider les secours à réagir au plus vite

Par Emilie Bronner, Centre national d’études spatiales (CNES). 

 

Un séisme de magnitude 6,8 a frappé le Maroc à 11km d’Adassil le vendredi 8 Septembre 2023 à 23h11 heure locale. On déplore plus de 2 000 décès et autant de blessés avec un bilan qui pourrait encore s’alourdir.

Depuis l’espace, on peut obtenir des informations cruciales pour guider les secours et l’aide humanitaire qui convoie eau et vivres, mais qui sont inaccessibles depuis le sol, en particulier en cas de catastrophes. Il s’agit de cartographier l’état des routes, des ponts, des bâtiments, et aussi – et c’est crucial ici – de repérer les populations qui tentent d’échapper aux effets de potentielles répliques en se regroupant dans des stades ou d’autres espaces ouverts.

Afin de tourner rapidement les yeux des satellites vers les régions concernées, les Nations Unies (UNITAR) ont demandé l’activation de la charte internationale « Espace et catastrophes majeures » le samedi matin à 7h04 heure locale pour le compte de l’organisation humanitaire internationale FICR (Fédération internationale des Sociétés de la Croix-Rouge et du Croissant-Rouge).

Dans la foulée, les satellites optiques et radar les plus appropriés de huit agences spatiales ont été programmés. Pour la France, il s’agit des satellites optiques Pléiades et Pléiades Neo (de haute et très haute résolution), qui fourniront de premières images dès demain matin, lors de leur passage au-dessus de la zone, le temps de charger le plan de vol. Des satellites radar viendront compléter les informations des satellites optiques, car ils fonctionnent aussi la nuit et à travers les nuages, et peuvent imager les glissements de terrain et les changements d’altitude, même très faibles.

Chaque année, des millions de personnes partout dans le monde sont touchées par des catastrophes, qu’elles soient d’origine naturelle (cyclone, tornade, typhon, tremblement de terre, glissement de terrain, éruption volcanique, tsunami, inondation, feu de forêt, etc.) ou humaine (pollution par hydrocarbures, explosion industrielle). L’intensité et la fréquence de ces évènements s’intensifient malheureusement avec le changement climatique, créant chaque jour un peu plus de sinistrés ou d’habitats précaires.

 

Anatomie d’une catastrophe

Dans le cadre de la charte internationale « Espace et Catastrophes majeures », on définit une catastrophe comme un événement de grande ampleur, soudain, unique et incontrôlé, entraînant la perte de vies humaines ou des dommages aux biens et à l’environnement et nécessitant une action urgente d’acquisition et de fourniture de données.

Glissement de terrain à Munnar, en Inde. L’accès aux zones touchées est souvent difficile.
Rakesh Pai/Flickr, CC BY-NC-ND

Cette charte a été créée par le Centre National d’Études Spatiales et l’Agence spatiale européenne en 1999, rejoints rapidement par l’Agence spatiale canadienne. Aujourd’hui, 17 agences spatiales membres s’unissent pour offrir gratuitement des images satellites le plus rapidement possible sur la zone sinistrée. Depuis 2000, la charte a été activée 837 fois dans plus de 134 pays. Elle est depuis complétée par des initiatives similaires (Copernicus Emergency ou Sentinel Asia).

Près des trois-quarts des activations de la charte sont dues à des phénomènes hydrométéorologiques : tempêtes, ouragans et surtout inondations qui représentent à elles seules la moitié des activations. Dans ces situations de crise imprévues, quand les sols sont endommagés ou inondés et les routes impraticables, les moyens terrestres ne permettent pas toujours d’analyser l’étendue du désastre et d’organiser au mieux les secours et l’aide humanitaire. En capturant la situation vue de l’espace, avec des satellites très haute résolution, le spatial apporte rapidement des informations cruciales.

L’ouragan Harvey a provoqué des inondations au Texas en 2018, déplaçant 30000 personnes, et nécessitant le sauvetage de 17000 personnes.
Sentinel Hub/Flickr, CC BY

Dans certains cas, la charte ne peut pas être activée. Soit parce que l’objet est hors cadre de la charte (guerres et conflits armés), soit parce que l’imagerie spatiale n’est parfois pas d’un grand intérêt (canicules, épidémies), soit car les phénomènes ont une évolution lente (sècheresses) qui est incompatible avec la notion d’urgence au cœur de la mission de la charte.

Les données satellites en réponse aux crises dans le monde

Dès la survenue d’une catastrophe, les satellites sont programmés pour acquérir dans un délai très court des images au-dessus des zones impactées. Plus d’une soixantaine de satellites, optiques ou radars, sont mobilisables à toute heure.

Selon le type de catastrophes, on mobilisera différents satellites, en se basant sur des scénarii de crise préétablis – parmi eux : TerraSAR-X/Tandem-X, QuickBird-2, Radarsat, Landsat-7/8, SPOT, Pléiades, Sentinel-2 notamment.

Feux de forêt en Russie dans la région d’Irkutsk en 2017, causés par des éclairs.
Sentinel Hub/Flickr, CC BY

Les images optiques sont semblables à des photos vues de l’espace, mais les images radar par exemple sont plus difficilement interprétables par les non-initiés. Ainsi, suite à la catastrophe, les informations satellites sont retravaillées pour les rendre intelligibles et y apporter de la valeur ajoutée. Elles sont par exemple transformées en cartes d’impacts ou de changements pour les secouristes, en cartes de vigilance inondations pour les populations, en cartographie des zones brûlées ou inondées avec estimation des dégâts pour les décideurs.

Le travail collaboratif entre les utilisateurs de terrain et les opérateurs satellitaires est primordial. Des progrès ont été faits grâce aux innovations des technologies d’observation de la Terre (notamment la performance des résolutions optiques – passant de 50 à 20 mètres puis à 30 centimètres actuellement) et des logiciels de traitement des données 3D, mais également grâce au développement d’outils numériques pouvant coupler données satellites et in situ. De plus, les besoins de terrain ont contribué à l’évolution des processus d’intervention de la charte en termes de délai de livraison et de qualité des produits délivrés.

La reconstruction après les catastrophes

La gestion de l’urgence est bien sûr primordiale mais il est important pour tous les pays affectés d’envisager une reconstruction et l’avenir. En effet, dans le « cycle du risque », après le sinistre et l’urgence humanitaire, le retour à la normale va ouvrir le temps de la reconstruction, de la résilience, de la prévention et de l’alerte. On ne peut prévoir les catastrophes mais on peut mieux s’y préparer, surtout dans les pays où le malheur est récurrent, avec par exemple la construction antisismique, le déplacement des zones d’habitation en lieu sûr, la sensibilisation aux gestes de survie, la création de lieux de rassemblements sécurisés, entre autres.

Inondations à Gan dans le Béarn en 2018.
Bernard Pez/Flickr, CC BY-NC-ND

Plusieurs initiatives, appelées « Observatoires de la Reconstruction », ont été menées après des catastrophes d’envergure, par exemple à Haïti en 2021, ou suite à l’explosion de Beyrouth en 2019. Le but : planifier des acquisitions d’images satellites coordonnées pour permettre une évaluation détaillée et dynamique des dommages aux zones les plus touchées (bâti, routes, agriculture, forêts, etc.), suivre la planification des reconstructions, réduire les risques et enfin réaliser un suivi des changements à l’horizon de 3-4 ans.

 

Emilie Bronner, Représentante CNES au Secrétariat Exécutif de la Charte Internationale Espace et Catastrophes Majeures, Centre national d’études spatiales (CNES)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

La vidéosurveillance automatisée, déjà gagnante de la Coupe du monde de rugby en France

Par Yoann Nabat et Elia Verdon.

Ce vendredi 8 septembre 2023, débutera en France la Coupe du monde de rugby organisée dans dix villes hôtes réparties dans le territoire. L’enjeu est bien sûr sportif et économique… mais il est aussi sécuritaire.

En ce sens, l’événement sera l’occasion pour les pouvoirs publics d’expérimenter pour la première fois en France l’usage de la vidéosurveillance automatisée ou algorithmique (VSA).

Le principe de cette technique est de pouvoir détecter en temps réel et de manière automatisée (grâce au recours à des logiciels), des comportements ou des situations définies comme à risque.

Il peut s’agir, par exemple, de détecter un bagage abandonné ou un mouvement de foule. Cette technique se distingue de la reconnaissance faciale qui permet d’identifier biométriquement une personne et qui a été exclue pour le moment.

 

Un cadre légal permissif

Le recours à ce type de dispositif, jusqu’alors impossible, a été permis par l’article 10 de la Loi du 19 mai 2023 « relative aux jeux olympiques et paralympiques de 2024 et portant diverses autres dispositions ». Celui-ci autorise le traitement automatisé d’images issues des caméras de vidéosurveillance déjà implantées (ou qui le seront, par exemple près des stades ou des fans zones) et celles des caméras installées sur les drones qui pourront survoler les foules.

Si les débats ont été nombreux et les contestations associatives importantes, est ainsi désormais autorisé « à titre expérimental », le traitement algorithmique de ces images, afin d’assurer la sécurité des manifestations sportives, récréatives ou culturelles qui, « par l’ampleur de leur fréquentation ou par leurs circonstances, sont particulièrement exposées à des risques d’actes de terrorisme ou d’atteintes graves à la sécurité des personnes ». Ce sont ainsi des logiciels, le plus souvent développés par des entreprises privées, qui permettent cette analyse automatisée des vidéos.

Malgré le titre du texte adopté par le Parlement, cette expérimentation s’étend bien au-delà des Jeux de 2024. Déjà entrées en vigueur, ces dispositions autorisent les pouvoirs publics à user de ce nouveau dispositif dès maintenant, dès lors que les circonstances prévues sont réunies. Or, tel semble être le cas pour l’organisation d’une compétition internationale comme la Coupe du monde de rugby en France. Il faut également noter que l’article du 10 de la loi prévoit la fin de l’expérimentation, pour le moment, au 31 mars 2025, soit environ sept mois après la fin des compétitions olympiques à Paris.

Les termes employés par l’article 10 sont peu précis, notamment lorsqu’il s’agit de « manifestations récréatives ». Cette indéfinition pourrait permettre juridiquement de voir s’appliquer la VSA à d’autres événements comme des festivals, des concerts ou d’autres rassemblements comme les traditionnels marchés de Noël.

 

Une expérimentation risquée

Le risque de telles expérimentations permises largement réside, précisément, dans l’abandon de leur caractère exceptionnel et temporaire, tel que la loi le précise actuellement. En ce sens, l’organisation des grands événements comme la Coupe du monde de rugby en France peut constituer un accélérateur de ces politiques exceptionnelles qui se voient ensuite pérennisées. Les exemples étrangers ne manquent pas comme l’adoption de lois controversées, à l’image d’une loi « anti-conspiration » par le Japon à l’occasion des précédents Jeux olympiques.

En France, l’exemple de PARAFE, dispositif de reconnaissance faciale pour le passage de frontière, est particulièrement parlant. Expérimenté en 2005, il a été pérennisé en 2007 puis étendu en 2016.

Dès lors, il est possible de douter du caractère réellement expérimental du recours à ces dispositifs de surveillance. Ce constat est d’autant plus préoccupant qu’il sera difficile de tirer un bilan à ce titre après l’organisation de ces grands rassemblements sportifs. En effet, en l’absence (évidemment souhaitable) de tout événement dramatique, on ne manquera sans nul doute de saluer l’efficacité de ces outils — alors même que cette réussite serait sans doute expliquée par bien d’autres facteurs — tandis que s’il devait advenir un quelconque incident, on soulignerait la pertinence de renforcer ces dispositifs de surveillance et de contrôle.

Ainsi, le dispositif technosécuritaire aurait toujours raison et ce d’autant plus que l’organisation de telles compétitions peut apparaître comme une « vitrine sécuritaire  » pour les États concernés aux yeux du monde.

L’accoutumance à ces outils, comme l’effet cliquet — selon lequel il est difficile de revenir en arrière une fois un cap passé — rendent tout retour en arrière encore plus invraisemblable.

 

Un dispositif biaisé

Sur le fond, le but de la vidéosurveillance automatisée est de permettre la détection « en temps réel, des événements prédéterminés susceptibles de présenter ou de révéler ces risques » à partir des images de vidéosurveillance, dont les règles d’usage et de conservation ne sont pas modifiées. Ces alertes sont alors ensuite transmises aux services de sécurité (au sein des postes de commandement ou dans des centres de vidéosurveillance) qui prennent les mesures nécessaires.

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Un tel fonctionnement permet aux défenseurs de ces techniques de soutenir le caractère subsidiaire de ces outils qui ne viseraient qu’à renforcer l’efficacité des forces de sécurité qui demeurent seuls décisionnaires. La vidéosurveillance automatisée ne serait en ce sens pas plus dangereuse pour les libertés que la vidéosurveillance classique.

Or, une telle présentation nous semble en réalité peu réaliste. En effet, deux biais importants peuvent, à notre sens, être mis en évidence.

D’une part, en amont, utiliser la VSA impose aux concepteurs de ces outils ou aux donneurs d’ordre de définir très précisément et à l’avance les comportements à risque qui devront être recherchés par les caméras au-delà de la liste relativement générale adoptée par décret. Or, ces « patterns » ne correspondent pas nécessairement — voire rarement — à des infractions pénales puisqu’il peut s’agir du simple fait de ne pas respecter le sens de circulation majoritaire. En ce sens, leur définition revient à ériger une forme de norme sociale nouvelle renforçant encore davantage le sentiment de contrôle et l’intériorisation par les individus de cette norme.

D’autre part, en aval, si l’action humaine est toujours nécessaire (la VSA n’autorise heureusement pas les arrestations automatiques), celle-ci se trouve particulièrement biaisée par la manière dont fonctionnent ces dispositifs. En effet, la VSA conduit à une forme de « présomption de risque » auquel il appartient ensuite à la personne soupçonnée de répondre (« pourquoi avez-vous l’air anxieux ? »). Le rôle de la police est alors profondément modifié et la garantie des droits, comme la présomption d’innocence, mise à mal.

 

Une incarnation du mythe du « risque zéro »

En définitive, présentée comme une nécessité induite par l’impossibilité pour des agents humains de garder un œil attentif sur des dizaines d’écrans (là où deux autres solutions seraient envisageables : réduire le nombre de caméras ou recruter davantage d’agents), la vidéosurveillance automatisée contribue à renforcer le mythe d’un « risque zéro » impossible à atteindre.

Plus encore, cette course en avant permanente impose un autorenforcement impossible à limiter. Très concrètement, pour permettre à la VSA de fonctionner effectivement, les pouvoirs publics ont investi également très largement dans le renforcement du parc de caméras de vidéosurveillance qui, elles-mêmes, nécessiteront toujours davantage d’automatisation. Le ministre de l’Intérieur annonçait il y a peu en ce sens 44 millions d’euros en 2024 pour la vidéosurveillance, soit environ 15 000 nouvelles caméras dont l’emplacement est décidé en grande majorité par les municipalités. Le piège est d’autant plus grand que s’y engouffrent les industriels et géants de la sécurité et du numérique, heureux de vendre leurs solutions aux collectivités.

Derrière le bel événement que représente l’organisation en France de la Coupe du monde de rugby, et bientôt celle des Jeux olympiques et paralympiques, il faut ainsi toujours rester sur ses gardes quant à l’avènement de techniques de surveillance ou de contrôle qui, présentés comme efficaces voire nécessaires pour garantir la sécurité de telles compétitions sportives, n’en demeurent pas moins dangereuses pour nos libertés et la démocratie.The Conversation

Yoann Nabat, Enseignant-chercheur en droit privé et sciences criminelles, Université de Bordeaux et Elia Verdon, Doctorante en droit public et en informatique, CERCCLE (EA 7436) et LaBRI (UMR 5800), Université de Bordeaux

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

❌