Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

Jean-Marc Jancovici au Sénat : omissions et approximations

Je viens d’écouter l’audition d’une petite heure de Jean-Marc Jancovici au Sénat, qui a eu lieu le 12 février dernier dans le cadre de la « Commission d’enquête sur les moyens mobilisés et mobilisables par l’État pour assurer la prise en compte et le respect par le groupe TotalEnergies des obligations climatiques et des orientations de la politique étrangère de la France ».

Beaucoup d’informations exactes, qui relèvent d’ailleurs bien souvent du bon sens, mais aussi quelques omissions et approximations sur lesquelles je souhaite revenir ici.

Je tiens à préciser d’entrée que j’ai beaucoup de respect pour Jean-Marc Jancovici, dont j’ai vu un nombre incalculable de vidéos sur YouTube, notamment la série de huit cours donnés à l’école des Mines. J’ai aussi lu avec intérêt le livre résumant Le plan de transformation de l’économie française publié par le Shift Project, think tank qu’il a cofondé.

Entendons-nous déjà sur le constat qu’on peut facilement partager avec lui avant d’en venir aux différents points d’achoppement.

Oui, il est urgent d’amener à zéro les émissions nettes de gaz à effet de serre au maximum, et le plus vite possible.

Oui, en l’état, il semble impossible de limiter la hausse moyenne des températures à 1,5 °C au-dessus du niveau préindustriel.

Et oui, nous semblons bien partis pour dépasser la limite des 2°C.

La question comme toujours demeure : « Que faire et comment ? ». Comme à son habitude, Jean-Marc Jancovici prêche d’abord et avant tout pour une sobriété massive en France, la « pauvreté choisie » selon ses mots, afin de montrer l’exemple au reste du monde dans l’espoir de l’inspirer, « son pari pascalien », dit-il.

C’est déprimant. Si la sobriété peut avoir un rôle à jouer, elle ne suffira pas à elle seule. Le progrès technologique accéléré par l’économie de marché ne trouve pas grâce à ses yeux, c’est son angle mort.

Mes remarques.

 

Oubli d’une pompe à carbone amenée à jouer un rôle majeur

Je note déjà une erreur scientifique dès sa prise de parole, ce qui est assez surprenant de sa part. Il explique qu’il n’y a que deux façons pour le CO2 de quitter l’atmosphère : soit en étant absorbé par l’océan par « équilibrage de pressions partielles » ; soit en étant transformé, avec d’autres intrants, en biomasse suite à l’action de la photosynthèse des plantes.

Il oublie un phénomène qui a son importance, on va le voir, l’érosion chimique des roches silicatées : quand le CO2 de l’atmosphère se mêle à la pluie pour produire de l’acide carbonique (H2CO3), qui va ensuite réagir avec ces roches pour donner d’un côté un minéral carbonaté (contenant les atomes de carbone) et de l’autre du sable en général (contenant les atomes de silicium). Les minéraux carbonatés ainsi produits sont ensuite emportés par les rivières et fleuves jusqu’au fond des océans où il se déposent. Leurs atomes de carbone sortent alors de l’atmosphère pour le très long terme. C’est ce qu’on appelle le cycle lent du carbone.

Si Jean-Marc Jancovici n’en parle pas, c’est sans doute car, si sur le temps géologique long il peut induire des changements climatiques très marqués, à notre échelle temporelle il n’a que peu d’impact : on considère qu’il retire de l’atmosphère chaque année environ 300 millions de tonnes de CO2, et il est contrebalancé par les émissions de CO2 des volcans qui rejettent, eux, environ 380 millions de tonnes de CO2 chaque année au maximum. Ce cycle géologique semble donc ajouter en net du carbone dans l’atmosphère, à hauteur de 80 millions de tonnes de CO2 par an, soit 0,2 % des émissions de CO2 d’origine humaine (autour de 40 milliards de tonnes/an).

Un oubli pardonnable donc. Mais cela traduit en fait la courte vue de Jean-Marc Jancovici, car ce phénomène, l’érosion chimique des roches silicatées, représente a priori le moyen le plus économique de capturer et stocker pour le très long terme et à très grande échelle le CO2 en excès dans l’atmosphère.

S’il nous faut absolument cesser d’émettre des gaz à effet de serre au plus tôt, l’inertie de nos économies fait que cela prendra du temps, même si les solutions sont réelles. Nous allons donc continuer à pourrir la planète pendant encore un certain temps. Il est urgent de réfléchir à comment retirer pour de bon l’excès de carbone dans l’atmosphère, à hauteur de 1500 milliards de tonnes de CO2, pour réparer le mal déjà commis, et limiter au maximum la casse.

Un certain nombre de solutions sont envisagées.

Celles consistant à embrasser la photosynthèse sont difficiles à généraliser à grande échelle, on manque de place pour ajouter assez d’arbres par exemple, et quand bien même, on n’est pas sûr de pouvoir les maintenir en état dans un monde en réchauffement. D’autres pensent aux algues, mais le résultat est difficile à mesurer. L’autre classe de solution est la capture du CO2 ambiant grâce à des machines et son stockage en sous-sol.

Le problème de toutes ces solutions, quand elles sont pensées pour être durables, est in fine leur scalability et leur coût. Elles sont beaucoup trop chères, on peine à voir comment tomber en dessous des 100 dollars par tonne de CO2 capturé et séquestré. Comme ce CO2 capturé ne rapporte rien directement, il s’agit en fait d’une taxe que les contribuables du monde doivent se préparer à payer. Avec 1500 milliards de tonnes de CO2 en excès, un coût de 100 dollars par tonne et plus rend tout simplement l’opération inconcevable, on parle d’environ deux fois le PIB mondial ! Même réparti sur 20 ans, on tombe à 10 % du PIB mondial par an, une taxe bien trop lourde.

Démultiplier l’érosion chimique de roches silicatées, notamment l’olivine, semble offrir un moyen de faire tomber ce coût à 5 dollars par tonne, tel que le détaille cette projection.

L’olivine est assez abondante et accessible sur Terre pour capturer les 1500 milliards de tonnes de CO2 en excès dans notre atmosphère. L’idée consiste à extraire ces roches, les concasser en fine poudre à déverser dans la mer où leur constituant principal, la fostérite de formule Mg2SiO4, réagira avec l’acide carbonique de l’océan (formé par réaction de l’eau avec le CO2) pour précipiter notamment du bicarbonate de magnésium Mg2(HCO3qui pourra se déposer au fond des mers, séquestrant au passage ses atomes de carbone. Bien sûr, il faudra pour cela beaucoup de machines qui utiliseront possiblement des carburants hydrocarbonés, (même pas en fait à terme), mais leur impact sera largement compensé par le CO2 séquestré. On parle là d’un chantier vertigineux, sur au moins vingt années, mais à 5 dollars par tonne de CO2, cela devient une taxe digeste à la portée de l’humanité.

Ainsi, plutôt que d’être passablement ignorée comme l’a fait Jean-Marc Jancovici, cette pompe à CO2 méritait au contraire d’être citée, et devrait faire l’objet de beaucoup d’attention, d’études complémentaires et expérimentations, préalables aux investissements à suivre.

 

Non, notre siècle ne sera pas un monde d’énergie rare

Jean-Marc Jancovici part du postulat que nous entrons dans une ère de pénurie d’énergie du fait du tarissement de la production de pétrole et de gaz, et de la nécessité absolue de se passer des énergies fossiles pour minimiser la catastrophe climatique.

De là, il prévoit que nous ne pourrons plus produire autant d’engrais aussi bon marché qu’aujourd’hui, ce qui veut dire que la nourriture sera plus rare et plus chère. Couplé à la hausse des coûts du transport, il en conclut qu’il deviendra prohibitif d’approvisionner en nourriture une ville comme Paris (deux millions d’habitants) et qu’à l’avenir, la taille idéale d’une ville serait plutôt de l’ordre de celle de Cahors (20 000 habitants).

Mais pourquoi s’arrêter en si bon chemin ? Si ce postulat et les premières étapes du raisonnement sont valides pour ce siècle, alors il y a bien pire à prévoir que de voir Paris se vider et fleurir des Cahors.

Continuons ce reductio ad absurdum.

Si l’on pense véritablement qu’on ne pourra pas produire autant de nourriture qu’aujourd’hui, que les rendements agricoles vont baisser drastiquement, et que la nourriture coûtera bien plus cher à l’avenir, alors le premier des problèmes n’est pas le redimensionnement des villes. Non, c’est d’abord et avant tout le fait que la Terre ne pourra pas faire vivre huit milliards d’êtres humains. Ce qui voudrait dire que des milliards d’entre nous sont d’ores et déjà condamnés à mourir de faim au XXIe siècle ! Autant que Jean-Marc Jancovici le dise clairement !

Ce bien sinistre tableau ne tient pas la route, nous allons voir pourquoi.

Mais demandons-nous d’abord quelles sont les raisons profondes derrière le postulat initial de Jean-Marc Jancovici ?

Il considère que d’une part, pour satisfaire à tous les usages électrifiables, on ne parviendra pas à développer assez vite les infrastructures de production d’électricité pour en produire en quantité suffisante à prix abordable. Car construire du nucléaire prend trop de temps, et le renouvelable souffre d’après lui de problèmes rédhibitoires : intermittence, contrainte sur les matériaux et les sols, et enfin prix acceptables envisagés non crédibles, car permis justement par la dépendance aux machines fonctionnant aux carburants fossiles, dont il faudrait se débarrasser.

D’autre part, il explique qu’il n’y a pas de solution alternative aussi abordable que les énergies fossiles pour les usages qu’on ne pourra pas électrifier, notamment l’aviation long courrier et le transport maritime en haute mer. Annonçant ainsi la fin de la mondialisation et les joies du voyage en avion.

Ce raisonnement a tenu un temps. Mais des tendances de fond, dont on pouvait effectivement encore douter jusqu’il y a quelques années, sont aujourd’hui impossibles à ignorer, et nous font dire que le XXIe siècle sera bien au contraire un monde d’abondance énergétique !

Ces tendances, les voici :

• Chute continue du coût de l’énergie solaire photovoltaïque (PV), et en parallèle, la croissance exponentielle des déploiements, même trajectoire pour les batteries qui permettent notamment la gestion de l’intermittence sur le cycle diurne (jour/nuit).

• De nouvelles études montrent qu’il y aura assez de matériaux pour assurer la transition énergétique.

• Du fait du premier point, il sera possible de produire à grande échelle des carburants de synthèse carbonés avec le CO2 de l’atmosphère (aux émissions nettes nulles donc) à un tarif compétitif, puis plus bas que les énergies fossiles importées à peu près partout sur Terre d’ici à 2035-2040.

Le dernier point va justement permettre de verdir et faire croître l’aviation et le transport maritime, et de tordre le cou à l’objection du renouvelable abordable seulement du fait de la dépendance aux énergies fossiles. On ne se passera pas des énergies carbonées, mais on fera en sorte qu’elles ne soient plus d’origine fossile.

Détaillons.

 

Chute continue du coût du solaire PV et des batteries

Pour se donner une idée, un mégawatt-heure d’électricité solaire PV coûtait 359 dollars à produire en 2009, on est aujourd’hui autour de 25 dollars/MWh aux États-Unis sur les fermes solaires de pointe.

En avril 2021, on apprenait qu’un chantier en Arabie Saoudite vendra de l’électricité à un prix record mondial de près de 10 dollars/MWh. Il y a toutes les raisons de penser que cela va continuer à baisser au rythme actuel pour encore longtemps, pour les raisons que j’exposais dans cet article (économies d’échelles, loi de Wright, assez de matériaux). Sans surprise, le solaire PV est en plein boom. En 2023 en Europe, c’est l’équivalent en puissance d’une centrale nucléaire par semaine qui a été installée !

Ce phénomène de baisse des prix au fur et à mesure des déploiements est également à l’œuvre avec les éoliennes, dans des proportions moindres toutefois. Elles auront un rôle à jouer dans les pays les moins ensoleillés et en hiver, en complément du solaire PV.

Cette explosion des déploiements va s’accélérer grâce à la baisse parallèle du coût des batteries qui permettent de compenser les effets de l’intermittence sur la journée. Par exemple, les batteries Lithium Iron Phosphate (LFP) coûtaient autour de 110 euros/kWh en février 2023. Les industriels parlent d’atteindre 40 euros/kWh cette année, un chiffre qu’en 2021 on pensait atteindre vers 2030-2040. Tout s’accélère !

Autre exemple, Northvolt, une entreprise suédoise, a dévoilé une technologie de batterie révolutionnaire, « la première produite totalement sans matières premières rares », utilisant notamment le fer et le sodium, très abondants sur les marchés mondiaux. Son faible coût et la sécurité à haute température rendent cette technologie particulièrement attractive pour les solutions de stockage d’énergie sur les marchés émergents, notamment en Inde, au Moyen-Orient et en Afrique.

Bref, on assiste bien à la chute continue du coût des batteries couplée à la hausse continue de leur qualité (s’en convaincre en 6 graphiques ici).

Pour la gestion de l’intermittence saisonnière, on s’appuira sur un système combinant centrales nucléaires et au gaz de synthèse pour prendre le relais au besoin. On continuera à investir dans l’extension des réseaux électriques permettant par exemple d’acheminer de l’électricité solaire PV depuis le Sahara jusqu’à l’Europe.

Enfin, pour le stockage longue durée, c’est a priori le stockage hydraulique par pompage qui devrait s’imposer.

 

Nous disposons d’assez de ressources et métaux pour la transition énergétique

L’Energy Transition Commission (ETC) a publié un rapport important en juillet 2023, qui examine les besoins en minéraux de 2022 à 2050. Il repose sur un scénario ambitieux visant à atteindre zéro émission nette d’ici 2050 : électricité mondiale décarbonée, transport de passagers quasiment décarboné, industrie lourde approvisionnée en hydrogène vert, et 7 à 10 milliards de tonnes de CO2 de captage et de stockage du carbone pour les émissions restantes.

Le rapport montre que le monde possède en soi suffisamment de cuivre, nickel, lithium, cobalt et argent, même si nous devrons en rendre davantage économiquement viables, ou trouver de nouveaux gisements facilement accessibles.

Mais il faut noter que les industriels savent souvent remplacer un matériau lorsque son approvisionnement semble compromis, ou que son prix monte trop.

Par exemple, les projections sur le besoin en cobalt ont considérablement baissé à mesure que certains constructeurs de voitures électriques se sont tournés vers d’autres intrants. De la même façon, les prix élevés du cuivre entraînent une transition vers l’aluminium.

Et les estimations de l’ETC sur la demande en minéraux sont élevées par rapport à d’autres analyses. En recoupant ces hypothèses avec d’autres analyses, on constate que l’ETC est conservateur, prévoyant généralement la plus forte demande en minéraux. Citons par exemple :

L’Agence internationale de l’énergie (AIE) : « Il n’y a généralement aucun signe de pénurie dans ces domaines : malgré la croissance continue de la production au cours des dernières décennies, les réserves économiquement viables ont augmenté pour de nombreux minéraux de transition énergétique. »

Agence internationale des énergies renouvelables (IRENA) : « Les réserves de minéraux de transition énergétique ne manquent pas, mais les capacités d’extraction et de raffinage sont limitées. […] La production a augmenté pour de nombreux minéraux de transition énergétique, et les réserves extraites de sources économiquement viables ont augmenté. De plus, les innovations de rupture – telles que l’amélioration de l’efficacité et les substitutions de matériaux – sont déjà en train de remodeler la demande. »

 

Carburants carbonés de synthèse aux émissions nettes nulles

On parle d’e-carburants, ou encore d’électro-carburants, car on utilise de l’électricité pour capturer le CO2 de l’atmosphère et pour faire de l’électrolyse de l’eau permettant d’obtenir l’hydrogène H2 à faire réagir avec le CO2 capturé afin de produire ces carburants de synthèse. Il ne faut pas les confondre avec les biocarburants, sur lesquels je reviens en dernière partie.

Si l’électricité utilisée est verte, on a bien là des carburants verts, aux émissions nettes nulles, puisque le CO2 utilisé au départ provient de l’atmosphère. Brûler ces carburants n’ajoute pas de nouveau carbone à l’atmosphère tiré des entrailles de la Terre. (pour retirer en net du CO2 de l’atmosphère, il faudra, par contre, se tourner vers la solution évoquée en première partie.)

Aujourd’hui, fabriquer ces e-carburants reste prohibitif. Mais cela va bientôt changer du fait de la chute continue du coût de l’énergie solaire PV.

Pour rivaliser avec le kérosène fossile importé par exemple, il faudra que le coût de cette énergie solaire PV passe en dessous des 10 dollars/MWh.

On utilise pour cela l’électricité sur le point de production sans avoir besoin de se raccorder au réseau pour s’épargner les coûts (onduleurs, pertes en transmission) et délais associés, en intégrant bien dans le calcul l’intermittence du solaire PV, et donc l’utilisation des machines produisant ces e-carburants que 25 % du temps en moyenne. J’explique tout en détail dans cet article.

Un des freins relatifs au développement du solaire PV est l’embouteillage pour se raccorder au réseau (des années dans certains cas aux États-Unis) et la disponibilités des batteries (même si ça évolue très vite, on l’a vu). Mais cela ne s’applique pas à la production d’e-carburants : nul besoin du réseau électrique ni de batteries. Cela ne peut que contribuer à débrider plus encore l’explosion des déploiements de fermes solaire PV.

Au rythme actuel de la baisse des prix du solaire PV, les e-carburants produits sur place seront compétitifs avec les carburant fossiles importés avant 2030 dans les endroits les plus favorables et à peu près partout sur Terre d’ici à 2035-2040.

C’est inévitable.

La mondialisation soutenue par le commerce maritime ne s’arrêtera pas faute d’énergie. Et loin de ralentir, l’aviation sera en mesure d’exploser à partir des années 2040, sans que cela n’accroisse les émissions nettes de gaz à effet de serre.

Si certaines tensions seront observées sur les 10 à 15 prochaines années, le temps que ces solutions arrivent à maturité, il est clair par contre qu’ensuite, c’est bien un monde d’abondance énergétique propre qui nous attend.

 

Oui, les biocarburants sont une hérésie, mais pas que pour les raisons invoquées

Suite à une question sur la concurrence des sols entre nourriture et biocarburants, Jean-Marc Jancovici explique que d’une certaine façon, oui les terres dédiées à la production de biocarburants conduisent à de la déforestation, sous-entendant qu’il faudrait faire sans les biocarburants et réduire en conséquence le transport des hommes et marchandises, la sobriété d’abord et avant tout à nouveau.

Jean-Marc Jancovici a raison, les biocarburants sont une aberration, mais pas seulement pour les raisons qu’il donne. Ils ont vocation à rester chers car produire de la biomasse, la récolter, la transporter, la transformer, la conditionner ne se prêtera pas à des économies d’échelles suffisantes.

Et quand bien même cela pourrait devenir aussi abordable que les carburants fossiles, c’est un crime thermodynamique absolu de s’en servir pour le transport terrestre comparativement à la motorisation électrique.

Pour un moteur à combustion, sur 100 unités d’énergie au départ, seuls 20 sont transformés en mouvement, le reste est gâché en chaleur inutilisée. Pour une voiture électrique, on est proche de 89 % d’efficacité ! En réalité, pour ce qui est du transport terrestre, la messe est dite, les véhicules électriques vont éclipser tout le reste. Dans quelques années, à autonomie égale, il sera moins cher à l’achat et à l’usage d’opter pour un véhicule électrique plutôt que pour un véhicule à essence. Mêmes les engins agricoles et de minageune partie de l’aviation et le transport maritime fluvial et côtier seront électrifiés à terme !

On peut se passer des biocarburants et des énergies fossiles, mais cela ne veut pas dire que le transport doit diminuer. On l’a vu, le transport terrestre a vocation à être électrifié de bout en bout, et les solutions existent pour produire en masse à terme de l’électricité verte.

Et pour les usages où l’on ne pourra pas encore se passer des hydrocarbones, on comprend maintenant que le salut viendra non pas des biocarburants, mais des e-carburants ! Puisque Jean-Marc Jancovici parlait des sols, notons que pour une même dose de soleil reçue, l’efficacité énergétique des biocarburants est de l’ordre de 0,1 % tandis qu’on est autour des 5 % pour les e-carburants (produits avec de l’énergie solaire PV).

Autrement dit, pour une quantité égale de carburants, on aura besoin de 50 fois moins de terres avec les e-carburants, et on pourra d’ailleurs utiliser des terres arides. Oui, les biocarburants sont une hérésie sans avenir.

Voilà donc une somme de raisons d’entrevoir le futur avec le sourire, un sourire non pas benêt, mais ancré dans la conviction que l’ingéniosité humaine et les ressources de notre planète permettront bien à huit milliards d’êtres humains et plus de vivre confortablement et durablement.

Cette abondance nous tend les bras au XXIe siècle, mais le chemin pour y arriver va être tortueux pour encore une bonne décennie. En attendant, tout effort de sobriété est bienvenu, ne le nions pas non plus, mais par pitié, ouvrons aussi les yeux sur ces dernières tendances plus qu’encourageantes.

Autopiégés par les deepfakes : où sont les bugs ?

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhaite demander à mes étudiants en 12 heures. J’ai créé un nouveau service, basé sur des caméras high tech et de l’intelligence artificielle embarquée, pour des activités sportives avec des illustrations de situations concrètes, dans le monde réel, et un logo, comme si c’était vrai ! Je me mettrai au moins 18/20 ».

Cet échange peut paraître parfaitement anodin, mais la possibilité de produire des histoires et des visuels fictifs, perçus comme authentiques – des hypertrucages (deepfakes en anglais) – puis de les diffuser instantanément à l’échelle mondiale, suscitant fascination et désillusion, voire chaos à tous les niveaux de nos sociétés doit questionner. Il y a urgence !

En 2024, quel est leur impact positif et négatif ? Faut-il se prémunir de quelques effets indésirables immédiats et futurs, liés à un déploiement massif de son utilisation et où sont les bugs ?

 

Deepfake : essai de définition et origine

En 2014, le chercheur Ian Goodfellow a inventé le GAN (Generative Adversarial Networks), une technique à l’origine des deepfakes.

Cette technologie utilise deux algorithmes s’entraînant mutuellement : l’un vise à fabriquer des contrefaçons indétectables, l’autre à détecter les faux. Les premiers deepfakes sont apparus en novembre 2017 sur Reddit où un utilisateur anonyme nommé « u/deepfake » a créé le groupe subreddit r/deepfake. Il y partage des vidéos pornographiques avec les visages d’actrices X remplacés par ceux de célébrités hollywoodiennes, manipulations reposant sur le deep learning. Sept ans plus tard, le mot deepfake est comme entré dans le vocabulaire courant. Le flux de communications quotidiennes sur le sujet est incessant, créant un sentiment de fascination en même temps qu’une incapacité à percevoir le vrai du faux, à surmonter la surcharge d’informations de manière réfléchie.

Ce mot deepfake, que l’on se garde bien de traduire pour en préserver l’imaginaire technologique, est particulièrement bien choisi. Il contient en soi, un côté positif et un autre négatif. Le deep, de deep learning, c’est la performance avancée, la qualité quasi authentique de ce qui est produit. Le fake, c’est la partie trucage, la tromperie, la manipulation. Si on revient à la réalité de ce qu’est un deepfake (un trucage profond), c’est une technique de synthèse multimédia (image, son, vidéos, texte), qui permet de réaliser ou de modifier des contenus grâce à l’intelligence artificielle, générant ainsi, par superposition, de nouveaux contenus parfaitement faux et totalement crédibles. Cette technologie est devenue très facilement accessible à tout un chacun via des applications, simples d’utilisations comme Hoodem, DeepFake FaceSwap, qui se multiplient sur le réseau, des solutions pour IOS également comme : deepfaker.app, FaceAppZao, Reface, SpeakPic, DeepFaceLab, Reflect.

 

Des plus et des moins

Les deepfakes peuvent être naturellement utilisés à des fins malveillantes : désinformation, manipulation électorale, diffamation, revenge porn, escroquerie, phishing…

En 2019, la société d’IA Deeptrace avait découvert que 96 % des vidéos deepfakes étaient pornographiques, et que 99 % des visages cartographiés provenaient de visages de célébrités féminines appliqués sur le visage de stars du porno (Cf. Deep Fake Report : the state of deepfakes landscape, threats, and impact, 2019). Ces deepfakes malveillants se sophistiquent et se multiplient de façon exponentielle. Par exemple, vous avez peut-être été confrontés à une vidéo où Barack Obama traite Donald Trump de « connard total », ou bien celle dans laquelle Mark Zuckerberg se vante d’avoir « le contrôle total des données volées de milliards de personnes ». Et bien d’autres deepfakes à des fins bien plus malveillants circulent. Ce phénomène exige que chacun d’entre nous soit vigilant et, a minima, ne contribue pas à leur diffusion en les partageant.

Si l’on s’en tient aux effets médiatiques, interdire les deepfakes pourrait sembler une option.
Il est donc important de comprendre qu’ils ont aussi des objectifs positifs dans de nombreuses applications :

  • dans le divertissement, pour créer des effets spéciaux plus réalistes et immersifs, pour adapter des contenus audiovisuels à différentes langues et cultures
  • dans la préservation du patrimoine culturel, à des fins de restauration et d’animation historiques 
  • dans la recherche médicale pour générer des modèles de patients virtuels basés sur des données réelles, ce qui pourrait être utile dans le développement de traitements 
  • dans la formation et l’éducation, pour simuler des situations réalistes et accroître la partie émotionnelle essentielle à l’ancrage des apprentissages

 

Ainsi, selon une nouvelle étude publiée le 19 avril 2023 par le centre de recherche REVEAL de l’université de Bath :

« Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant ». (Clarke & al., 2023)

Comment en sommes-nous arrivés là ?

Comment avons-nous mis au point et démocratisé des outils technologiques de manière aussi peu appropriée, au sens de E.F. Schumacher (1973) dans son ouvrage Small is Beautiful : A Study of Economics as If People Mattered.

L’idée qu’il défend est celle d’une technologie scientifiquement éprouvée, à la fois adaptable aux besoins spécifiques de groupes d’utilisateurs clairement identifiés, et acceptables par toutes les parties prenantes de cette utilisation, tout au long de son cycle de vie, sans dégrader l’autonomie des communautés impliquées.

Considérons la période covid. Elle a très nettement favorisé une « aliénation des individus et des organisations à la technologie », entraînant des phénomènes de perte de contrôle et de confiance face à des utilisations non appropriées du numérique profitant de la vulnérabilité des citoyens (multiplication des arnaques santé par exemple). Ils se sont trouvés sur-sollicités et noyés sous un déluge de contenus, sans disposer des ressources nécessaires pour y faire face de manière pérenne et sécurisée. Avec l’IA générative et la prolifération des deepfakes, le défi d’échapper à la noyade et d’éviter d’être victime de manipulations devient démesuré !

La mécanique allant de la technologie à la société est (toujours) bien ancrée dans la théorie de Schumpeter datant du début du XXe siècle : les efforts et les investissements dans la technologie génèrent du développement économique par l’innovation et la productivité, qui se traduit ensuite en progrès social, par exemple, par la montée du niveau d’éducation. La question de l’adoption de la technologie par le marché de masse est un élément central de la réussite des acteurs économiques.

Comme le souligne très bien le philosophe Alain Damasio, les citoyens adoptent les solutions numériques (faciles d’utilisation et accessibles) et se réfugient dans un « techno-cocon » pour trois raisons principales :

  1. La paresse (les robots font à leur place)
  2. La peur associée à l’isolement (on a un réseau mondial d’amis)
  3. Les super-pouvoirs (le monde à portée de main avec son smartphone)

 

Cela s’applique parfaitement à l’IA générative : créer des contenus sans effort, presque instantanément, avec un résultat d’expert. Ainsi, dans le fantasme collectif, eu égard à la puissance réelle et exponentielle des outils disponibles, nous voilà bientôt tous écrivains, tous peintres, tous photographes, tous réalisateurs… nous voilà capables de produire en quelques minutes ce qui a priori nous aurait demandé des heures. Et dans le même temps, nous servons à l’amélioration continue des performances de ces technologies, au service de quelques grandes entreprises mondiales.

 

Deepfakes : où est le bug ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfake ? L’analyse des mécanismes de diffusion fait apparaître deux bugs principaux.

Le premier bug

Il s’apparente à ce que Nunes et al. (2014) appelle le phénomène « big bang disruption ».

La vitesse extrêmement rapide à laquelle se déploient massivement certaines applications technologiques ne laisse pas le temps de se prémunir contre ses effets indésirables, ni de se préparer à une bonne appropriation collective. On est continuellement en mode expérimentation, les utilisateurs faisant apparaître des limites et les big techs apportant des solutions à ces problèmes, le plus souvent technologiques. C’est la course à la technologie – en l’occurrence, la course aux solutions de détection des deepfakes, en même temps que l’on tente d’éduquer et de réglementer. Cette situation exige que l’on interroge notre capacité à sortir du système établi, à sortir de l’inertie et de l’inaction – à prendre le risque de faire autrement !

Le second bug

Selon Schumpeter, la diffusion technologique produit le progrès social par l’innovation et l’accroissement de la productivité ; mais cette dynamique ne peut pas durer éternellement ni s’appliquer à toutes technologies ! Si l’on considère par exemple la miniaturisation des produits électroniques, à un certain stade, elle a obligé à changer les équipements permettant de produire les puces électroniques afin qu’ils puissent manipuler des composants extrêmement petits. Peut-on en changer l’équipement qui sert à traiter les contenus générés par l’IA, c’est-à-dire nos cerveaux ? Doivent-ils apprendre à être plus productifs pour absorber les capacités des technologies de l’IA générative ? Il y a là un second bug de rupture cognitive, perceptive et émotionnelle que la société expérimente, emprisonnée dans un monde numérique qui s’est emparée de toutes les facettes de nos vies et de nos villes.

 

Quid de la suite : se discipliner pour se libérer du péril deepfake ?

Les groupes de réflexion produisant des scénarii, générés par l’IA ou par les humains pleuvent – pro-techno d’une part, pro-environnemental ou pro-social d’autre part. Au-delà de ces projections passionnantes, l’impératif est d’agir, de se prémunir contre les effets indésirables, jusqu’à une régression de la pensée comme le suggère E. Morin, tout en profitant des bénéfices liés aux deepfakes.

Face à un phénomène qui s’est immiscé à tous les niveaux de nos systèmes sociaux, les formes de mobilisation doivent être nombreuses, multiformes et partagées. En 2023 par exemple, la Région Auvergne-Rhône-Alpes a mandaté le pôle de compétitivité Minalogic et Grenoble École de management pour proposer des axes d’action face aux dangers des deepfakes. Un groupe d’experts* a proposé quatre axes étayés par des actions intégrant les dimensions réglementaires, éducatives, technologiques et les capacités d’expérimentations rapides – tout en soulignant que le levier central est avant tout humain, une nécessité de responsabilisation de chaque partie prenante.

Il y aurait des choses simples que chacun pourrait décider de mettre en place pour se préserver, voire pour créer un effet boule de neige favorable à amoindrir significativement le pouvoir de malveillance conféré par les deepfakes.

Quelques exemples :

  • prendre le temps de réfléchir sans se laisser embarquer par l’instantanéité associée aux deepfakes 
  • partager ses opinions et ses émotions face aux deepfakes, le plus possible entre personnes physiques 
  • accroître son niveau de vigilance sur la qualité de l’information et de ses sources 
  • équilibrer l’expérience du monde en version numérique et en version physique, au quotidien pour être en mesure de comparer

 

Toutefois, se pose la question du passage à l’action disciplinée à l’échelle mondiale !

Il s’agit d’un changement de culture numérique intrinsèquement long. Or, le temps fait cruellement défaut ! Des échéances majeures comme les JO de Paris ou encore les élections américaines constituent des terrains de jeux fantastiques pour les deepfakes de toutes natures – un chaos informationnel idoine pour immiscer des informations malveillantes qu’aucune plateforme media ne sera en mesure de détecter et de neutraliser de manière fiable et certaine.

La réalité ressemble à un scénario catastrophe : le mur est là, avec ces échanges susceptibles de marquer le monde ; les citoyens tous utilisateurs d’IA générative sont lancés à pleine vitesse droit dans ce mur, inconscients ; les pilotes de la dynamique ne maîtrisent pas leur engin supersonique, malgré des efforts majeurs ! Pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expression ».

Le changement de culture à grande échelle ne peut que venir d’une exigence citoyenne massive. Empêcher quelques bigs techs de continuer à générer et exploiter les vulnérabilités de nos sociétés est plus que légitime. Le faire sans demi-mesure est impératif : interdire des outils numériques tout comme on peut interdire des médicaments, des produits alimentaires ou d’entretien. Il faut redonner du poids aux citoyens dans la diffusion de ces technologies et reprendre ainsi un coup d’avance, pour que la liberté d’expression ne devienne pas responsable de sa propre destruction.

Ce mouvement, le paradoxe du ChatBlanc, pourrait obliger les big techs à (re)prendre le temps d’un développement technologique approprié, avec ses bacs à sable, voire des plateformes dédiées pour les créations avec IA. Les citoyens les plus éclairés pourraient avoir un rôle d’alerte connu, reconnu et effectif pour décrédibiliser ceux qui perdent la maîtrise de leurs outils. Au final, c’est peut-être la sauvegarde d’un Internet libre qui se joue !

Ce paradoxe du ChatBlanc, censurer les outils d’expression pour préserver la liberté d’expression à tout prix trouvera sans aucun doute de très nombreux opposants. L’expérimenter en lançant le mois du ChatBlanc à l’image du dry january permettrait d’appréhender le sujet à un niveau raisonnable tout en accélérant nos apprentissages au service d’une transformation culturelle mondiale.

 

Lucal Bisognin, Sylvie Blanco, Stéphanie Gauttier, Emmanuelle Heidsieck (Grenoble Ecole de Management) ; Kai Wang (Grenoble INP / GIPSALab / UGA), Sophie Guicherd (Guicherd Avocat), David Gal-Régniez, Philippe Wieczorek (Minalogic Auvergne-Rhône-Alpes), Ronan Le Hy (Probayes), Cyril Labbe (Université Grenoble Alpes / LIG), Amaury Habrard (Université Jean Monnet / LabHC), Serge Miguet (Université Lyon 2 / LIRIS) / Iuliia Tkachenko (Université Lyon 2 / LIRIS), Thierry Fournel (Université St Etienne), Eric Jouseau (WISE NRJ).

Souveraineté énergétique française : autopsie d’un suicide

Entre désamour de son parc nucléaire, illusions renouvelables, pressions allemandes et injonctions de l’Europe, la France, dont le puissant parc de production d’électricité était décarboné avant l’heure, a lentement sapé la pérennité du principal atout qu’il représentait. Après des fermetures inconsidérées de moyens pilotables, l’apparition du phénomène de corrosion sous contrainte qui a affecté les réacteurs d’EDF dès 2021 a cruellement révélé l’absence de renouvellement du parc depuis que l’ASN en avait exprimé la nécessité, en 2007. En entraînant une flambée inédite du marché du MWh, une dépendance historique des importations, la détresse des ménages et le marasme de l’industrie, l’année 2022 a imposé un électrochoc.

Un retour en arrière est nécessaire pour appréhender les tenants et les aboutissants du projet de loi sur la souveraineté énergétique présenté à la presse le 8 janvier 2024.

 

Souveraineté énergétique et contraintes européennes

La souveraineté d’un État dépend intimement de son accès à l’énergie. À ce titre, les traités de fonctionnement de l’Union européenne garantissent « le droit d’un État membre de déterminer les conditions d’exploitation de ses ressources énergétiques, son choix entre différentes sources d’énergie et la structure générale de son approvisionnement énergétique », ainsi que le rappelle l’article 194 du traité de Lisbonne.

Pour autant, le Parlement européen et le Conseil ont introduit dans son article 192 des « mesures affectant sensiblement le choix d’un État membre entre différentes sources d’énergie et la structure générale de son approvisionnement énergétique », en vue de réaliser les objectifs environnementaux énoncés dans l’article 191, qui visent à protéger la santé des personnes et améliorer la qualité de l’environnement.

C’est dans ce cadre que la politique de l’Union dans le domaine de l’énergie vise, dans ce même article 194, « à promouvoir l’efficacité énergétique et les économies d’énergie ainsi que le développement des énergies nouvelles et renouvelables »

 

Le principe de subsidiarité

Le principe de subsidiarité consiste à réserver à l’échelon supérieur – en l’occurrence, l’Union européenne – ce que l’échelon inférieur – les États membres de l’Union – ne pourrait effectuer que de manière moins efficace. C’est au nom de ce principe que l’Union européenne a fixé aux États membres des objectifs contraignants de parts d’énergies renouvelables dans leur consommation, c’est-à-dire des objectifs en termes de moyens, supposés permettre collectivement aux États membres une plus grande efficacité dans la décarbonation de l’économie européenne et la réduction de ses émissions de polluants.

L’exemple allemand montre les difficultés et les limites de ce principe, appliqué aux émissions de CO2, surtout lorsqu’il concerne la France dont l’électricité est déjà largement décarbonée depuis un quart de siècle.

 

2012-2022 : autopsie d’un suicide

La France est historiquement le plus gros exportateur d’électricité. Depuis 1990 elle a été numéro 1 MONDIAL chaque année jusqu’en 2008, et reste parmi les trois premiers depuis. Le confort de cette situation, renforcé par des aspirations d’économie d’énergie et d’efficacité énergétique, a nourri des velléités visant à remplacer des moyens pilotables par les énergies intermittentes que sont l’éolien et le solaire, contrairement à la prudence élémentaire de notre voisin allemand.

Les chiffres de puissance installée diffèrent, selon les sources, en fonction des critères retenus. Parfois même selon la même source en fonction des années, notamment RTE qui agrège différemment les unités de production supérieures à 1MW avant et après 2018 sur son site.

C’est pourquoi la rigueur exige de retenir la même source pour comparer l’évolution des capacités installées en France et en Allemagne selon les mêmes critères, en l’occurrence ceux de l’Entsoe, chargé de gérer le réseau européen. Ces chiffres Entsoe 2012 font état de 128680 MW installés en France (Net generating capacity as of 31 december 2012) dont 7449 MW éoliens et 3515 MW solaires et 145 019 MW installés en Allemagne, dont 28 254 MW éoliens et 22 306 MW solaires. Les chiffres du même Entsoe pour 2022 mentionnent 141 029 MW installés en France, dont 19 535 MW éoliens et 13 153 MW solaires, ainsi que  223 118 MW installés en Allemagne dont 63 076 MW éoliens et  57 744 MW solaires.

C’est ainsi qu’entre 2012 et 2022, l’Allemagne augmentait de 7839 MW son parc pilotable, parallèlement à une augmentation de 70 260MW d’énergies intermittentes, quand la France se permettait de supprimer 9376 MW pilotables parallèlement à une augmentation de 21 725 MW d’intermittence, tout en échafaudant officiellement des scénarios « 100 % renouvelables » qui réclamaient une accélération de l’éolien et du photovoltaïque pour faire miroiter une sortie du nucléaire.

 

La prudence allemande

Dans leur rapport de 2020 sur la période 2018-2022, les quatre gestionnaires de réseaux allemands constatent en effet que 1 % du temps, l’éolien ne produit que 1 % de sa puissance installée et constatent l’éventualité d’« une indisponibilité de 99 % pour la réinjection de l’éolien », en considérant diverses études qui montrent que l’apparition d’une période froide et sans vent (Dunkelflaute) n’est pas improbable et doit être prise en compte.

C’est notamment la raison pour laquelle l’agence des réseaux allemands (Bundesnetzagentur) vient d’interdire en décembre dernier toute fermeture de centrale à charbon jusqu’à avril 2031.

Il serait trompeur d’occulter la présence de ces centrales, comme le font certains bilans, au prétexte qu’elles ne vendraient pas sur le marché alors qu’elles sont rémunérées pour rester en réserve du réseau, prêtes à produire à la moindre sollicitation.

 

L’optimisme français

Malgré ce contexte, la loi du 17 aout 2015 avait prévu « De réduire la part du nucléaire dans la production d’électricité à 50 % à l’horizon 2025 », et interdisait, par l’article L315-5-5 du Code de l’énergie, « toute autorisation ayant pour effet de porter la capacité totale autorisée de production d’électricité d’origine nucléaire au-delà de 63,2 gigawatts », soit sa puissance de l’époque.

La date ubuesque de 2025 avait été repoussée à 2035 dans la PPE de 2018, qui actait néanmoins la fermeture de six réacteurs, dont ceux de Fessenheim, d’ici 2028, et 14 réacteurs d’ici 2035.

 

Les illusions perdues

L’année 2022 a précipité la crise, inéluctablement en germe dans ces lois, en raison du phénomène de « corrosion sous contrainte », découvert en août 2021, qui a affecté le parc nucléaire. Ce phénomène est rare dans le circuit primaire, et ne peut se détecter qu’une fois les fissures apparues. Ce qui a demandé de nombreuses découpes de tronçons de tuyauteries pour réaliser des examens destructifs, entraînant l’indisponibilité d’un grand nombre de réacteurs, tandis que d’autres étaient déjà arrêtés pour une longue période de « grand carénage » destinée à en prolonger l’exploitation au delà de 40 ans.

On ne peut mieux illustrer l’avertissement de l’ASN qui écrivait en 2007 :

« Il importe donc que le renouvellement des moyens de production électrique, quel que soit le mode de production, soit convenablement préparé afin d’éviter l’apparition d’une situation où les impératifs de sûreté nucléaire et d’approvisionnement énergétique seraient en concurrence. »

En effet, TOUS les moyens de production font l’objet de maintenances programmées, même en plein hiver ainsi que d’incidents fortuits.

RTE en tient la comptabilité et mentionne notamment 58 indisponibilités planifiées dans la seule production hydraulique au fil de l’eau et éclusée affectant le mois de janvier 2024. L’éolien en mer n’est pas épargné, avec une indisponibilité planifiée de 228 MW du parc de Guérande entre le 21 décembre 2023 et le 13 janvier 2024.

Mais la France aura préféré réduire la puissance de son parc pilotable sans qu’aucun nouveau réacteur n’ait été mis en service depuis l’avertissement de 2007. Ceux de Fessenheim ayant même été fermés alors que leurs performances en matière de sûreté nucléaire « se distinguaient de manière favorable par rapport à la moyenne du parc » selon les termes de l’ASN.

 

2022 : l’électrochoc

Pour la première fois, en 2022, la France aura dépendu de ses voisins pour se fournir en électricité, comptabilisant son premier solde importateur net sur l’année et entraînant de fait la défiance des marchés européens sur ses capacités de production, exposant particulièrement le pays à la flambée des cours.

La Commission de régulation de l’énergie (CRE) en confirme les termes :

« Bien que les incertitudes aient été généralisées en Europe, le prix français a réagi plus fortement que ses voisins européens, du fait des indisponibilités affectant le parc nucléaire. […] Le marché pourrait ainsi avoir anticipé des prix extrêmement élevés sur certaines heures, supérieurs au coût marginal de la dernière unité appelée (fixation du prix par les effacements explicites ou l’élasticité de la demande, voire atteinte du plafond à 3000 euros/MWh sur l’enchère journalière). Ce record de 3000 euros/MWh aura effectivement été atteint en France le 4 avril 2022, relevant automatiquement le plafond à 4000 euros/MWh pour l’ensemble des pays européens. »

 

Quand la pénurie d’électricité se répercute sur l’activité économique

La puissance historique du parc électrique français, sa structure nucléaire et hydraulique et le recours à la possible flexibilité de nombreux usages, tels que le chauffage des logements et de l’eau sanitaire, prédisposaient le pays à surmonter, mieux que tout autre, la crise du gaz liée à l’invasion de l’Ukraine. Au lieu de quoi, la pénurie d’électricité et l’envolée de son cours ont frappé de plein fouet les ménages et, plus encore, l’activité économique, ainsi que l’expose RTE dans le bilan 2022.

« La baisse de consommation a d’abord été observée dans l’industrie, plus exposée aux variations des prix en l’absence de protection tarifaire. Les secteurs industriels les plus intensifs en énergie, tels que la chimie, la métallurgie et la sidérurgie, ont été les plus touchés (respectivement -12 %, -10 % et -8 % sur l’année et -19 %, -20 % et -20 % entre septembre et décembre ».

 

Le discours de Belfort : une prise de conscience ?

Le discours de Belfort du 10 février 2022 a marqué la prise de conscience de la nécessité de pouvoir piloter la production d’électricité sans dépendre des caprices de la météo et du bon vouloir des pays voisins.

Ce revirement officiel s’est rapidement traduit par loi LOI n° 2023-491 du 22 juin 2023 relative à l’accélération des procédures liées à la construction de nouvelles installations nucléaires.

Celle-ci abroge l’article L. 311-5-5 du Code de l’énergie qui interdisait le dépassement du plafond de 63,2 GW, et impose, dans son article 1er, une révision, dans un délai d’un an, de la Programmation pluriannuelle de l’énergie (PPE) adoptée par le décret n° 2020-456 du 21 avril 2020, afin de prendre en compte la réorientation de la politique énergétique de la présente loi. Notamment pour y retirer la trajectoire de fermeture des 14 réacteurs existants.

 

Vers un retour de la souveraineté énergétique ?

Ce n’est que dans ce contexte qu’on peut appréhender la logique du projet de loi relatif à la souveraineté énergétique dévoilé ce 8 janvier.

Concernant les émissions de CO2, son article 1 remplace prudemment trois occurrences du mot réduire dans les objectifs de l’article 100-4 du Code de l’énergie par « tendre vers une réduction de ». Si l’ambition des objectifs à atteindre est renforcée, pour respecter les nouveaux textes européens, et notamment le « paquet législatif fit for 55 »,  cette précaution sémantique tend à protéger l’exécutif de la jurisprudence climatique ouverte en 2012 par la fondation Urgenda. En effet, selon un rapport de l’ONU de janvier 2021, pas moins de 1550 recours de ce type ont été déposés dans le monde en 2020. Et l’État français avait lui-même été condamné à compenser les 62 millions de tonnes « d’équivalent dioxyde de carbone » (Mt CO2eq) excédant le plafond d’émissions de gaz à effet de serre fixé par son premier budget carbone pour la période 2015-2018.

Notons que le 30 novembre 2023, l’Allemagne a été condamnée par la Cour administrative de Berlin-Brandebourg pour n’avoir pas respecté ses propres objectifs climatiques… après que, le 29 avril 2021, la Cour constitutionnelle fédérale a retoqué ses précédents objectifs en raison de leurs exigences insuffisantes.

Sans mettre l’État français à l’abri du juge administratif, les précautions du projet de loi semblent tenir compte de ces dux expériences.

Ce même article 1 stipule :

Les 4e à 11e du I et le I bis (de l’article 100-4 du Code de l’énergie) sont supprimés. C’est-à-dire les objectifs chiffrés de part d’énergies renouvelables, notamment 33 % de la consommation à horizon 2030, dont 40 % de celle d’électricité (4e) l’encouragement de l’éolien en mer (4e ter) de la production d’électricité issue d’installations agrivoltaïques (4e quater) et l’objectif de parvenir à 100 % d’énergies renouvelables dans les collectivités régies par l’article 73 de la Constitution.

Ces suppressions ne sont remplacées par aucun objectif chiffré en termes d’énergies renouvelables pour la production d’électricité.

 

La France et les directives de l’UE

Les États membres sont tenus de transcrire en droit national les Directives européennes.

Pour autant, le plan d’accélération des énergies renouvelables, voté par le Parlement européen, en septembre 2023, portant à 42,5 % l’objectif européen en 2030, tout comme le précédent cadre d’action en matière de climat et d’énergie à horizon 2030, qui se contentait de 27 % ne présentaient de caractère contraignant qu’au niveau européen et non pour chaque État, contrairement aux objectifs pour 2020 pour lesquels un contentieux subsiste, pour n’avoir atteint que 19,1 % de part renouvelable de la consommation au lieu des 23 % prévus dans la DIRECTIVE 2009/28/CE. C’est-à-dire globalement la même part que l’Allemagne (19,3 %), qui, elle, ne s’était engagée qu’à une part de 18 %.

En 2021, la part française était d’ailleurs plus importante en France (19,3 %) qu’en Allemagne (19,2%).

Mais, selon Le Monde, la France refuserait d’acheter les garanties d’origine (ou MWh statistiques) permettant d’atteindre les 23 % qui étaient fixés pour 2020.

Tous les électrons étant mélangés sur le réseau, ces garanties d’origine (GO), gérées par EEX peuvent être délivrées pour chaque MWh renouvelable produit, et sont valables une année. Elles se négocient indépendamment des MWh qu’elles représentent, y compris à l’international, et attestent de la quantité d’EnR consommée.

En 2e, le projet de loi fixe clairement le cap :

« En matière d’électricité, la programmation énergétique conforte le choix durable du recours à l’énergie nucléaire en tant que scénario d’approvisionnement compétitif et décarboné. »

 

Le fonctionnement du parc nucléaire historique

Les revenus du parc nucléaire historique sont régulés dans le chapitre VI « Contribution des exploitants nucléaires à la stabilité des prix » qui comprend la production du futur EPR de Flamanville, en tant qu’installation dont l’autorisation initiale a « été délivrée au plus tard le 31 décembre 2025 ». L’exploitant se voyant confier la mission de réduction et stabilisation des prix de l’électricité par le reversement d’une quote-part de ses revenus annuels calculée sur deux taux lorsque leur revente dépasse deux seuils :

  1. Un seuil S0, qui correspond à l’addition du coût comptable et des coûts encourus pour la réalisation des installations.
  2. Un seuil S1 qui ne peut être inférieur à 110 euros/MWh.

 

Le taux appliqué au delà du premier est de 50 %, et le taux additionnel au-delà du second est de 40 %.

Un dispositif de « minoration universelle », limité dans le temps d’au plus une année, est prévu dans la sous-section 1 pour toute fourniture d’électricité, afin de préserver la compétitivité du parc français.

Une volonté de surveillance des marchés se traduit notamment dans l’article 7 qui prévoit « Pour l’exercice de ses missions, le ministre chargé de l’énergie ou son représentant a accès aux informations couvertes par le secret professionnel détenues par la Commission de régulation de l’énergie sur les personnes soumises à son contrôle ».

 

Épilogue

À peine mis en consultation, cet avant projet viendrait, selon différentes sources, d’être vidé de tout objectif chiffré, tant en termes climatiques que de choix des énergies par une « saisine rectificative au projet de loi », provenant du ministère de l’Économie, désormais chargé de l’énergie depuis le remaniement ministériel du 11 janvier. Répondant au tollé provoqué au sein des associations environnementales par ce retrait, Bruno Le Maire aurait déclaré qu’il en assumait la décision, au nom du temps nécessaire à l’élaboration d’une loi de cette importance.

Selon le ministère de la Transition écologique, la loi de 2019 avait créé l’obligation de publier, avant le 1er juillet 2023, une mise à jour des objectifs en matière d’énergie, par une loi de programmation sur l’énergie et le climat (LPEC). Il apparaissait déjà que ce délai ne serait pas tenu.

Des compteurs Linky « intelligents »… pour préparer la pénurie d’électricité ?

Par : Michel Gay

Maintenant que le déploiement du compteur électrique Linky présenté comme « intelligent » est quasiment terminé, le rationnement imposé de l’électricité va pouvoir débuter… après plus de 20 ans d’impéritie.

 

C’est « intelligent »

Un projet de décret prévoit d’effectuer, dès cet hiver, un premier test en condition réelle au cours duquel la consommation d’électricité de 200 000 Français notifiés « par voie postale », et équipés d’un compteur Linky, sera plafonnée à 3 kilowatts (kW) au lieu de 6 kW (l’abonnement des particuliers en général) pendant quelques heures.

Avec ce test, le gouvernement souhaite « déterminer » s’il est « techniquement possible de mettre en œuvre un nouvel outil pour sauvegarder le réseau électrique en cas de tension extrême, pour éviter des coupures ».

Et c’est « intelligent » parce que cela aurait pu être pire…

En effet, l’entreprise ENEDIS ne limitera que la puissance délivrée au domicile des particuliers, alors qu’il aurait pu (ou dû) la couper complètement par défaut de production d’électricité !

Il faudrait se réjouir que la puissance de certains soit limitée temporairement (quelques heures pour 200 000 « cobayes ») afin d’éviter une coupure totale et généralisée… Soyons « solidaires » !

Jusqu’à récemment, avant l’ère des ruineuses énergies renouvelables intermittentes, le réseau électrique (pas intelligent) apportait à tous, à un prix raisonnable, toute l’électricité répondant au besoin de chacun, y compris en hiver lors des pointes de froid. C’était à la production électrique, notamment nucléaire, de s’adapter à la demande.

Dorénavant, ce sera à la demande (les clients) de s’adapter aux capacités de production restreintes, surtout en l’absence de vent et de soleil…

 

Idéologie verte, quand tu nous tiens

Avec de meilleures décisions politiques et moins d’idéologie verte antinucléaire peu judicieuse (idiote ?) focalisée sur le vent, le soleil, l’électricité serait toujours vendue aux particuliers aujourd’hui environ 12 centimes d’euros par kilowattheure (12 c€/kWh).

Sous la pression de la Commission européenne, des médias et de puissantes organisations écologistes infiltrées jusqu’au sommet de l’État, le prix de l’électricité augmentera jusqu’à 30 ou 40 c€/kWh… comme en Allemagne.

Cette folle tendance issue de mauvais choix stratégiques ruinera l’industrie (obligée de partir s’installer ailleurs) et les PME, et donc aussi les Français, dont beaucoup peinent déjà à régler leurs factures de chauffage et d’électricité.

Augmenter de 1000 euros (et plus) par an le prix des factures d’énergie par famille (alors que l’ouverture à la concurrence devait réduire les factures, juré promis…), puis distribuer ensuite des chèques de 100 euros ici et là pour amortir le choc des factures en prétendant faire du social est aberrant. Cela revient à appuyer sur l’accélérateur d’une voiture fonçant vers une falaise et prétendre sauver des vies en distribuant quelques airbags juste avant de s’écraser.

Dans les années 1940 jusqu’à 1949, il existait des tickets de rationnement (pas encore qualifiés d’intelligents) pour distribuer la nourriture devenue rare.

Aujourd’hui on qualifie de « smart » ou « d’intelligent » le réseau ainsi que le compteur Linky qui permettra dorénavant le rationnement… parce que de mauvaises décisions ont été prises depuis 20 ans par les gouvernements successifs.

« On n’arrête pas le progrès ! »

Il aurait peut-être été plus « smart » et « intelligent » de ne pas fermer les deux réacteurs nucléaires de 900 mégawatts (MW) de la centrale de Fessenheim en parfait état de fonctionnement ?

Les 1800 MW manquant de cette centrale représentent une puissance d’un kW pour presque 2 millions de familles… ou 3 kW pour 600 000 foyers.

 

Comment avons-nous pu en arriver là ?

Après la fermeture politique de trois réacteurs nucléaires en parfait état de fonctionnement (Superphénix en 1997 et les deux réacteurs de Fessenheim en 2020) et le retard à l’allumage de l’EPR de Flamanville, la France se prépare maintenant à gérer une pénurie d’électricité devenue rare et chère, alors qu’il aurait fallu mettre en service au moins quatre réacteurs depuis 20 ans.

En 2022, grâce à la fonctionnalité prévue à cet effet dans le compteur Linky, le gouvernement avait déjà voulu tenter de couper l’électricité à 10 000 Français, à distance, et sans leur demander leur avis.

Mais les tests effectués à « petite échelle » ont été désastreux : mécontentement de la clientèle, et surtout échec technique.

En effet, sur les 10 000 compteurs Linky coupés à distance par Enedis, 500 compteurs ne se sont pas réenclenchés automatiquement en fin de coupure volontaire d’électricité.

Résultat : 500 déplacements d’agents Enedis chez les clients concernés pour remettre le courant manuellement.

Ces réenclenchements manuels à distance n’ayant pas fonctionné dans 5 % des cas environ, Enedis n’aurait donc pas pu gérer ces coupures volontaires pour des millions de clients.

Enedis a donc abandonné (semble-t-il) cette méthode et veut maintenant en expérimenter une autre « plus douce », dont la possibilité technique est également offerte par le « compteur intelligent » Linky.

Au lieu de couper totalement le courant, il s’agit cette fois de brider à 3 kilowatts (kW) pendant deux heures la puissance du compteur Linky pour 200 000 abonnés, au moment d’une pointe de froid pendant l’hiver prochain 2023/2024.

Le test obligera les « cobayes » (qui seront, paraît-il, dédommagés de 10 euros) à couper leurs radiateurs électriques pour se limiter à 3 kW afin d’alimenter leurs autres appareils (réfrigérateur, congélateur, pompe de circulation du chauffage central, ordinateur, lumières, et une seule plaque électrique de cuisson).

 

Vous avez dit « équilibrage » ?

Actuellement, l’équilibrage du réseau repose entièrement sur les seules énergies « classiques » (nucléaire, gaz et hydraulique en France).

Le solaire photovoltaïque et l’éolien disposent d’une priorité d’accès au réseau sans rien payer pour gérer leur variabilité aléatoire ou leur intermittence : ni frais de stockage ou d’effacement lorsqu’il n’y a pas de demande, ni le renforcement du réseau nécessaire pour absorber les surplus, ni parfois les prix négatifs en cas de folles surproductions.

Aujourd’hui en France, c’est donc principalement le nucléaire qui paie la facture de l’intermittence de ces sources d’électricité.

Cela revient à faire payer à mon voisin les factures d’entretien de ma voiture, puis de me vanter ensuite que ma voiture me coûte moins cher que la sienne ! C’est bien sûr une situation biaisée.

Mais à mesure que les énergies renouvelables intermittentes (EnRI) se développent, ce coût de gestion croît, et il devient de plus en plus lourd à assumer par les Français !

Si ces EnRI devaient payer la totalité des frais inhérents à cette intermittence, alors elles deviendraient une ruine pour leurs promoteurs dans un marché non faussé par les subventions publiques.

 

Une manne dont certains se gavent

Mon voisin est très heureux de la rentabilité de ses panneaux solaires photovoltaïques sur son toit (3 kWc installés en 2010 qui lui ont coûté 10 000 euros). La revente de son électricité solaire représente pour lui un gain de 2000 euros par an environ au tarif de… 62 c€/kWh indexé sur l’inflation pendant 20 ans ! (EDF vend son électricité 4,2 c€/kWh à ses concurrents).

C’est donc pour lui un excellent placement financier qui rapporte 20 % par an (il s’agit en outre d’un revenu non imposable, sans CSG), beaucoup plus rentable qu’un placement sur un livret A (d’environ 3%)…

Mais ces 2000 euros par an représentent une perte du même montant pour ENEDIS (obligé de lui acheter à ce prix). Ce dernier la répercute sur la facture des Français qui paient dans leur tarif électrique (en augmentation) cette subvention à travers une lourde taxe intérieure sur la consommation de produits pétroliers (TICPE, ex CSPE), elle-même en constante augmentation puisque de plus en plus de Français s’équipent en panneaux photovoltaïques.

C’est aussi une perte pour l’entreprise EDF obligée de diminuer d’autant la production de ses centrales électriques (nucléaires ou non).

Mais EDF est toujours obligée de maintenir autant de centrales « classiques » (nucléaires ou autres) en activité qu’avant ces hérésies, car les jours (et les nuits) sans soleil et sans vent, le besoin d’électricité est souvent aussi important, voire davantage.

Les EnRI avec priorité d’accès au réseau enrichissent des producteurs tout en étant une perte pour la collectivité et les distributeurs. Il y a de gros gagnants malins et beaucoup de petits perdants pigeons.

Bientôt, il n’y aura peut-être plus que de gros perdants

Les punis seront-ils choisis parmi les clients des énergies dites renouvelables (ce qu’elles ne sont pas, car les matières premières qui les composent ne le sont pas), intermittentes (ce qu’elles sont) qui polluent le réseau d’électricité ?

Heureusement qu’EDF réussit encore à alimenter le réseau, principalement avec le nucléaire, pour satisfaire les besoins des clients…

 

Seul Linky doit-il être intelligent ?

Le déploiement du compteur Linky « intelligent » a coûté quasiment le prix d’un réacteur nucléaire EPR.

Or, limiter la puissance électrique de 200 000 clients permettra de gagner au mieux 600 mégawatts (MW), et probablement moins de 400 MW, soit moins du quart de la puissance d’un EPR (1650 MW).

Il aurait été plus… « intelligent » de conserver les deux réacteurs nucléaires de Fessenheim (1800 MW) et de construire plusieurs EPR… plus tôt !

Les Français subissent depuis plus de 20 ans, contraints et forcés, le cruel manque de vision pour la France de nos dirigeants politiques indignes de leur confiance.

Les libéraux, le libéralisme et l’islam

Parmi ceux qui, en France, condamnent l’islam et les musulmans, il y a les croyants et les non-croyants.

Or les croyants, d’abord, doivent se souvenir que la religion a besoin de concurrence. À peine la démonstration a-t-elle besoin d’être faite.

Dès 1684, Basnage de Beauval explique que quand une religion n’a point de concurrents à craindre, elle s’affaiblit, se corrompt.

En Angleterre, Voltaire fait cette remarque que la concurrence des religions y est extrêmement favorable à la liberté :

« S’il n’y avait en Angleterre qu’une religion, dit-il, le despotisme serait à craindre ; s’il y en avait deux, elles se couperaient la gorge ; mais il y en a trente, et elles vivent en paix et heureuses ». (Lettres sur les Anglais, 1734, 6e lettre.)

Alexis de Tocqueville consigne presque exactement les mêmes mots dans ses Carnets américains. (Œuvres complètes, t. V, vol. I, p. 70)

Enfin, dans ses Principes de politique de 1806, Benjamin Constant a un chapitre pour prouver les avantages de la concurrence des religions, en particulier sur la pureté de la morale. (Œuvres complètes, t. V, p. 278)

Ceux qui ne croient pas n’ont pas seulement, comme les autres, à dompter et à vaincre les fanatiques, qui menacent de brûler les hérétiques. Ils doivent encore éclairer les superstitieux. C’est que pour eux toute religion pose problème, étant fondée sur le principe d’autorité.

Les commandements de la Bible sont tyranniques au premier degré.

« Suivez mes lois, gardez mes commandements, mettez-les en pratique », c’est ce que le Lévitique donne à lire.

En bon français, cela signifie : que ces commandements vous paraissent bons ou mauvais, utiles ou futiles, vous les respecterez, car j’en suis l’auteur, moi, votre maître. Car le vrai vocabulaire des religions est celui des régimes d’esclavage, de servage, ou du moins de tutelle. Chez les libéraux français, on a pu débattre pour savoir si le catholicisme était compatible avec la liberté. Tocqueville la croyait surtout compatible avec un régime monarchique (Lettre à Ernest de Chabrol, 26 octobre 1831 ; Œuvres complètes, t. XVII, vol. I) ; elle aussi serait donc anti-républicaine ?

On dira que l’islam est une religion moyenâgeuse. C’est une façon de parler : car ce sont les Arabes qui, au Moyen Âge, nous ont révélé le monde gréco-latin. Mais peut-être l’islam serait-il incompatible avec le progrès, la civilisation ?

Tocqueville, qui a séjourné en Algérie, qui a lu le Coran crayon en main, ne le croyait pas :

« La propriété individuelle, l’industrie, l’habitation sédentaire n’ont rien de contraire à la religion de Mahomet […] L’islamisme n’est pas absolument impénétrable à la lumière ; il a souvent admis dans son sein certaines sciences ou certains arts. » (Œuvres complètes, t. III, vol. I, p. 325)

On dira que les musulmans sont dangereux. C’est un propos malséant, pour nous qui ne devons voir que les individus.

Au surplus, Benjamin Constant (qui a passé 30 ans à étudier les religions) enseigne que « l’autorité ne doit jamais proscrire une religion, même quand elle la croit dangereuse. Qu’elle punisse les actions coupables qu’une religion fait commettre, non comme actions religieuses, mais comme actions coupables : elle parviendra facilement à les réprimer. Si elle les attaquait comme religieuses, elle en ferait un devoir, et si elle voulait remonter jusqu’à l’opinion qui en est la source, elle s’engagerait dans un labyrinthe de vexations et d’iniquités, qui n’aurait plus de terme. » (Œuvres complètes, t. IX, p. 832)

C’est l’idée que défendait déjà Turgot un demi-siècle plus tôt, au milieu des grandes controverses religieuses du temps :

« Une religion qui aurait établi un grand nombre de dogmes faux et contraires aux principes de l’autorité politique, écrivait-il, et qui en même temps se serait fermé la voie pour revenir de ses erreurs qu’elle aurait consacrées, ou qu’elle se serait incorporées, ne serait pas faite pour être la religion publique d’un État : elle n’aurait droit qu’à la tolérance. » (Œuvres de Turgot et documents le concernant, t. I, p. 347)

Mais l’islam est éminemment politique, et les musulmans, sans doute, veulent remplacer nos lois par les leurs.

D’abord, aucune religion ne s’est jamais accommodée des lois qu’elle trouvait établies.

Dieu dit à Moïse :

« Vous n’agirez ni selon les coutumes du pays d’Égypte où vous avez demeuré, ni selon les mœurs du pays de Chanaan dans lequel je vous ferai entrer. Vous ne suivrez ni leurs lois ni leurs règles. » (Lévitique, XVIII, 3)

Naturellement, il ne faut pas le permettre. En son temps, rappelle Édouard Laboulaye, l’Église catholique, « qui était la religion, a voulu être la science, elle est arrivée un jour à être le gouvernement ; on s’est aperçu enfin qu’elle voulait tout envahir. On a secoué le joug, et elle est rentrée dans le temple. » (Histoire politique des États-Unis, 1867, t. III, p. 432)

Pour dompter et vaincre les fanatiques, qui portent atteinte aux personnes ou aux propriétés, il faut la rigueur des lois. Pour éclairer les superstitieux, il faut autre chose : des lumières, du temps et de la bienveillance. C’est-à-dire qu’il faut de la liberté : car d’un côté un « État gendarme » vaut mieux qu’un État qui se mêle de tout et ne remplit pas ses missions ; de l’autre, la diffusion des idées ne peut se faire qu’en milieu libre.

La liberté de circulation des personnes, la tolérance religieuse, sont des principes majeurs du libéralisme. L’immigration a ses inconvénients, si elle a ses avantages. Mais renier nos principes et nos valeurs historiques ne peut se faire qu’au prix d’un affaiblissement.

Capitalisme et féminisme libéral : architectes de l’émancipation des femmes

Le féminisme libéral est une revendication de justice. Il peut se définir comme l’extension aux femmes des protections de l’État de droit. À ce titre, c’est l’aboutissement d’un long processus historique.

 

Le régime de l’esclavage ou de la propriété des femmes

Aux premiers âges de l’histoire de l’humanité, la loi ou la coutume n’offre à peu près aucune protection aux femmes. Elles subissent impunément les menaces, les violences, le rapt, le viol, etc. Ce sont des bêtes de somme, des esclaves possédées par des hommes, plutôt que des individus. On les prend, les donne ou les vend, sans requérir aucunement leur consentement.

Charles Comte, dans les quatre volumes de son Traité de législation (1827-1828) livre préféré de Frédéric Bastiat —, rapporte les descriptions tracées par les voyageurs depuis les plages incultes sur lesquelles ils avaient débarqué.

Ainsi, sur l’île de Van-Diémen (la Tasmanie), les mariages se concluent de manière très expéditive. « Un jeune homme voit une femme qui lui plaît ; il l’invite à l’accompagner chez lui ; si elle refuse, il insiste, il la menace même d’en venir aux coups, et, comme il est toujours le plus fort, il l’enlève et l’emporte dans sa cabane. » (Mémoires du capitaine Péron, t. I, 1824, p. 253)

Aussitôt mariée, la femme Hottentote (Afrique du Sud) s’occupe seule de fournir la provision de son ménage et d’assurer les tâches ménagères. Le mari va à la pêche ou à la chasse pour son plaisir, plutôt que pour soulager sa femme ou ses enfants. Les occupations masculines sont de boire, de manger, de fumer et de dormir. (Kolbe, Description du Cap de Bonne-Espérance, t. I, 1743, p. 235)

Au nord du continent américain, lorsque les hommes ont tué une bête fauve, ce sont les femmes qui la rapportent jusqu’à la tente, qui l’ouvrent, qui la dépècent, etc. Quand le repas est apprêté, les femmes servent les hommes comme des domestiques : ceux-ci prennent alors ce qui leur convient, et souvent après eux ils ne laissent rien aux femmes. (Voyage de Samuel Hearne, du fort du Prince de Galles dans la baie de Hudson, à l’océan nord, t. I, 1798, p. 140)

Sur les côtes de Guinée, les femmes tâchent par des caresses de se faire aimer des hommes, sachant trop bien la sorte de dépendance dans laquelle elles se trouvent. (William Bossman, Voyage de Guinée, 1705, p. 211.) À Tahiti, les femmes portent le deuil de leur mari, mais eux ne portent pas le leur. (Bougainville, Voyage autour du monde, 1771, p. 228)

Partout enfin où on les trouve en milieu primitif, les femmes ont généralement l’air plus sombre que les hommes, et elles font voir des cicatrices qui témoignent assez des mauvais traitements qu’elles subissent. (Charles Comte, Traité de législation, 1827, t. II, p. 415 et 425)

 

Le régime de la tutelle

Dans l’Orient, ce premier régime s’est longtemps maintenu. Edmond About raconte que la femme y a une voix criarde et gémissante qui surprend au premier abord, et que ses paroles ne sont que des lamentations. (La Grèce contemporaine, 1854, p. 200). En Crimée puis à Constantinople, Gustave de Molinari décrit aussi les femmes séquestrées dans leurs maisons, voilées à n’en distinguer que les yeux, et qui sont purement et simplement des propriétés. (Lettres sur la Russie, 1861, p. 259 et suiv., p. 376)

Mais dans la France du XIXe siècle, les libéraux observent une situation déjà bien différente : c’est le régime de la tutelle.

Historiquement, on sait que ce n’est pas pour des raisons humanitaires que l’esclavage a été aboli aux États-Unis, ou qu’en Europe, il s’est transformé en servage, avant de disparaître. Cette évolution fut le fruit avant tout de la pression du progrès économique produit par le capitalisme.

C’est aussi le capitalisme qui a permis la première émancipation des femmes, en donnant une valeur sans cesse plus grande aux services de l’intelligence plutôt qu’à la seule force physique. Plus une société a de capitaux, en effet, et moins on a recours à la puissance humaine brute ; moins donc on dépend de l’homme fort. D’abord, on abattait un arbre à mains nues ; ensuite, on usa d’outils rudimentaires ; enfin vinrent les scies mécaniques : et chaque progrès capitaliste augmentait l’utilité intrinsèque du travail des femmes.

Lorsqu’aux premiers temps de l’histoire de l’humanité tout le travail s’accomplit par l’emploi de la force humaine, les femmes et les êtres plus faibles physiquement ne peuvent espérer une rémunération satisfaisante, à moins d’un talent hors pair. Les femmes sont alors économiquement dépendantes. Si l’une d’elle conçoit l’idée de quitter sa cabane pour éviter les mauvais traitements de son mari, raconte l’abbé de Saint-Pierre, et veut « tâter de la solitude », elle n’y reste pas longtemps, devant l’effroi d’une vie de dénuement, dans la crainte de mourir de faim et de froid, et de voir sa vie s’éteindre en effet en peu de temps. (Projet pour rendre la paix perpétuelle en Europe, t. II, 1713, p. 12)

Jean-Jacques Rousseau, qui a célébré l’âge d’or de la vie sauvage, a poussé plus loin l’inconvenance en jetant l’opprobre sur « le premier homme ayant enclos un terrain », etc. Pourtant, les travaux plus paisibles de l’agriculture, en fournissant un emploi suffisamment productif aux femmes, ont participé à leur meilleure conservation. (Gustave de Molinari, La viriculture, 1897, p. 36) Et tout progrès capitalistique leur a permis d’augmenter leur contribution productive.

 

Le régime de la liberté

L’adéquation entre le régime légal que les intérêts matériels d’une société rendent utiles, et la législation réelle, demande du temps et des efforts. Pour hâter cette transformation, de nombreux libéraux ont défendu la cause de l’extension complète de l’État de droit aux femmes.

Édouard Laboulaye voulait pour les femmes des droits égaux, y compris le droit électoral. (Histoire politique des États-Unis, t. III, 1866, p. 323 et suiv.)

Paul Leroy-Beaulieu pensait que « l’on pourrait juger de l’état d’une société entière d’après la situation qui y est faite à la femme ». (Populations ouvrières, 1868, p. 178) Il voulait que la femme soit protégée par la loi contre les excès de son mari, qu’elle obtienne la libre disposition de son salaire. (Discussion à l’Académie sur le code civil et les ouvriers, 1886)

Yves Guyot surtout, a mené une campagne inlassable, engagée très tôt pour la liberté égale des femmes, y compris le suffrage. « Le christianisme, disait-il, a conquis son influence en promettant à la femme de la relever. Il n’a pas tenu complètement sa promesse. Nous devons la réaliser dans nos pays et aider, chez les autres peuples, les femmes à obtenir une situation meilleure. » (Lettres sur la politique coloniale, 1885, p. 398)

Furent-ils plus nombreux, et avaient-ils en général des idées plus radicales encore ? C’est ce qu’il est permis de supposer. Avril de Sainte Croix observe en 1922 que « Monsieur Yves Guyot est probablement le doyen des féministes. Il a été un féministe quand cette qualité soulevait les railleries des gens qui se prétendaient sérieux… Il n’a cessé de réclamer l’égalité civile, l’égalité économique et l’égalité politique des femmes. » (Conférence du 30 janvier 1922 ; Fonds Guyot, Archives de Paris, D21J 65.) Or ces moqueries ont certainement pu en décourager quelques-uns.

Voyez la colonisation. Quand l’enthousiasme était presque unanime, certains cachaient leur désapprobation. Sortant du bois en 1848, Léonce de Lavergne dit par exemple : « J’avais déjà cette opinion sous la monarchie, quand les millions pour l’Afrique se donnaient sans compter, mais j’hésitais à la produire en présence de l’engouement général, j’attendais… » (Revue de deux-mondes, 1er mai 1848.)

On voit d’ailleurs dans les archives d’Edmond About qu’au seuil de son grand livre sur la liberté, il écrivait qu’elle est due tant aux hommes qu’aux femmes. Mais son éditeur a rayé cette phrase cruciale, et elle n’apparaît pas dans l’imprimé. (Bibliothèque de l’Institut, Ms. 3984)

Il faudrait prendre en compte aussi tout cela, dans la balance qu’on ferait avec les opinions antiféministes de Benjamin Constant, avec les doutes ou les atermoiements de Jules Simon, de Gustave de Molinari.

 

Pourquoi toutes les femmes devraient être libérales

La demande du féminisme libéral est assez simple. Puisque l’État est une sorte de société en commandite établie pour produire la sécurité de tous, il faut que les femmes aient une voix à l’égal des hommes et que leur protection soit assurée comme celle des hommes.

Les anti-libéraux construisent un État omnipotent (en théorie), qui prétend tout régenter, mais n’accomplit rien qui vaille. C’est un gros monsieur qui est tout à tour professeur, médecin, entrepreneur de spectacle, que sais-je encore. Comment n’en oublierait-il pas de bien assurer la sécurité, de bien rendre la justice ?

À l’inverse, la demande d’un État minimal est celle d’un État qui a peu de fonctions, mais qui les remplit. Or les femmes ont, plus encore que les hommes, besoin de cet « État gendarme », qui fasse bien son métier.

Le capitalisme, en outre, marche pour elles.

Le féminisme libéral a moins de puissance verbale que celui qui demande des privilèges de sexe ou des réparations. Il ne dira pas que ce qui est inégal est égal. Mais il protégera chacun, et placera tous et toutes sous la grande loi d’égalité et de justice de la concurrence pour la rémunération des services. Il ne lui manque que d’avoir conscience de sa force persuasive.

 

(IV/IV) Jean-Marc Jancovici se trompe : voici pourquoi le trafic aérien va exploser au XXIe siècle

Cet article est le quatrième et dernier article de cette série. Voici les liens vers la première, deuxième et troisième partie de cette série.

 

Dans cette quatrième et dernière partie, nous allons voir qu’au rythme actuel des déploiements de panneaux solaires, avec un parc total installé qui double tous les deux ans, la taille critique sera atteinte avant 2040.

 

Un parc installé d’ici 2040 ?

Combien de temps pour arriver à 236 000 GW de puissance solaire photovoltaïque totale installée ? C’est le niveau requis pour produire l’équivalent en méthane de synthèse de notre consommation mondiale actuelle en énergies fossiles.

Le parc total mondial installé à fin 2023 sera autour de 1600 GW. Nous avons vu précédemment qu’à fin 2023 il aura fallu moins de deux années pour voir doubler ce parc total. Le temps mis pour doubler s’est même réduit de doublement en doublement depuis un certain temps.

Supposons que le temps pour doubler cesse de se réduire, et même ralentisse un peu pour se stabiliser tous les deux ans. Au bout de sept doublements, en 2039, on dépasse les 400 000 GW de puissance totale installée. Même sans suivre ce tempo, il semble possible d’atteindre les 236 000 GW installés d’ici à 2050.

Soyons clairs, on parle bien là d’un chantier titanesque.

Sans l’ombre d’un doute, l’industrie des panneaux solaires va exploser. Mais rien d’impossible, au contraire : la rentabilité, l’espace, les matières premières le permettent tout à fait, nous l’avons vu dans la troisième partie de cette série. Cette révolution pourra être décalée, retardée de quelques années, mais elle paraît inéluctable, inarrêtable, et du reste déjà lancée.

Avant 2050, nous pourrions être en mesure de synthétiser, de façon neutre en carbone pour l’atmosphère, et pour moins cher qu’aujourd’hui, l’équivalent en gaz de la quantité d’énergie fossile consommée en 2022 dans le monde.

On s’en sortira avec le solaire par les prix, avec une abondance énergétique neutre en carbone en vue avant 2050, sans avoir à choisir à partir de là entre pauvreté ou sobriété ! La fusion pourra venir aussi à la rescousse pour accélérer encore ce calendrier, mais ce n’est pas indispensable. La profusion d’énergie électrique verte à venir permettra aussi de produire les hydrocarbures neutres en carbone dont nous aurons besoin pour perpétuer et amplifier le trafic maritime, aérien et même spatial. Nos enfants et petits-enfants pourront bien profiter des joies d’un transport aérien bon marché pour découvrir notre monde et bientôt au-delà.

D’ici là cependant, toutes les émissions de CO2 qui ne pourront pas être capturées et stockées, c’est-à-dire la quasi-totalité, vont continuer de pourrir l’atmosphère, il reste donc urgent de continuer à investir dans les autres « climate tech » et de prôner la sobriété autant que possible pour limiter plus encore la casse en attendant.

 

L’humanité a relevé un défi similaire il y a plus de 100 ans !

En 1898, l’homme de science Sir William Crookes tint un discours d’anthologie à la British Academy of Sciences devant tout le gratin scientifique de l’époque.

Il lança un avertissement sans concession à l’auditoire : notre planète allait bientôt manquer d’engrais naturel pour permettre à l’agriculture de fournir assez de nourriture à l’humanité. D’ici 1930-1940 au plus tard, faute d’inventer et produire en quantité suffisante des engrais de synthèse (du fumier chimique dit-il, chemical manures), la famine tuerait par centaines de millions. On sait maintenant qu’il avait raison sur toute la ligne, sans engrais de synthèse, l’agriculture naturelle sur Terre ne peut nourrir que 4 milliards de personnes environ.

Le facteur limitant étant l’azote fixé dans des molécules faciles à exploiter par les plantes : bien que notre atmosphère regorge d’azote (78 % de sa composition), celui-ci est inerte et non exploitable par les plantes par défaut. Les processus naturels qui le fixent dans des molécules exploitables sont lents, c’est tout le problème. L’avertissement de Sir William Crookes, doublé d’un appel solennel à l’innovation, fit immédiatement sensation et se répandit très vite dans la communauté scientifique et au-delà.

En 1909, le chimiste allemand Fritz Haber parvint à fixer l’azote atmosphérique en laboratoire. En 1913, à peine cinq ans plus tard, une équipe de recherche de la société BASF dirigée par Carl Bosch mit au point la première application industrielle des travaux d’Haber : le procédé Haber-Bosch. C’est ce procédé qui permet à ce jour de produire assez d’engrais de synthèse pour nourrir bientôt 8 milliards d’Homo sapiens. Il y aurait deux fois moins d’âmes sur Terre sans cela aujourd’hui. Difficile de penser à une innovation aussi capitale au XXe siècle.

Terraform Industries va capitaliser sur la chute de l’énergie solaire photovoltaïque pour populariser une technique cousine : fixer le CO2 de l’atmosphère pour produire les hydrocarbures dont nous allons avoir besoin, quoi qu’on en dise, pour offrir aux prochaines générations un monde d’abondance, et cela, à très grande échelle, sans réchauffer la planète et en battant les énergies fossiles sur les prix.


Disclaimer : Thomas Jestin, n’est actionnaire, ni directement ni indirectement, d’aucune des entreprises citées dans cette série.

(III/IV) Jean-Marc Jancovici se trompe : voici pourquoi le trafic aérien va exploser au XXIe siècle

Cet article est le troisième article d’une série de quatre. Voici les liens vers la première partie, la deuxième partie et la quatrième partie.

 

Dans cette troisième partie, nous allons voir qu’il y a assez de matières premières et de surfaces ensoleillées dans le monde pour construire et installer un parc de panneaux à même de générer chaque année le gaz de synthèse équivalent à notre consommation actuelle d’énergies fossiles.

 

Partons de la consommation mondiale annuelle totale d’hydrocarbures en 2022 qu’on peut arrondir à 140,000 TWh, c’est-à-dire 140 millions de GWh. Supposons qu’on produise tous ces hydrocarbures sous la forme de gaz de synthèse avec de l’électricité solaire photovoltaïque et les machines de Terraform Industries.

Voyons si c’est possible.

Expérimentalement, l’efficacité de la conversion d’énergie électrique en gaz est autour de 30 %, il faut donc 3,33 unités d’énergie électrique pour avoir une unité d’énergie sous forme de gaz. Il nous faudra donc produire 420 millions GWh d’énergie solaire photovoltaïque par an pour produire l’équivalent de toutes les énergies fossiles consommées dans le monde en 2022.

Il s’agit là d’un besoin probablement supérieur à celui de 2050, car en réalité la consommation mondiale d’hydrocarbures baissera à terme du fait de l’électrification, entre autres, du transport terrestre, du chauffage (pompes à chaleur) et des plaques de cuisson.

En effet, une fois électrifiées, ces activités demanderont moins d’énergie pour le même résultat :

  • Une voiture électrique transforme près de 90 % de l’énergie consommée en mouvement, contre 20 % pour une voiture thermique : à énergie égale, une voiture électrique ira plus de quatre fois plus loin !
  • Certains modèles de pompe à chaleur affichent un rendement de 400 % ou plus, ce qui signifie que 4 kWh de chaleur peuvent être créés dans une maison pour 1 kWh d’électricité consommé par la pompe. Les chaudières à gaz modernes font au mieux 90 %, et ne peuvent pas dépasser les 100 % du fait des lois de la physique.

 

Ainsi, même si toute l’électricité supplémentaire pour cette électrification est produite en brûlant des hydrocarbures, il en faudra beaucoup moins qu’on en brûle aujourd’hui pour cela dans les véhicules thermiques, les systèmes de chauffage et de cuisson.

Les économies d’énergie primaire réalisées par l’électrification devraient plus que compenser par ailleurs la hausse à venir des besoins énergétiques liés à l’essor du trafic aérien et maritime. Il y a de la marge vu que le transport routier émet aujourd’hui quatre fois plus de C02 que les transports aériens et maritimes réunis.

 

Nul besoin de batteries, et de raccorder le nouveau parc de panneaux au réseau

Comme toute l’énergie solaire photovoltaïque générée va servir directement sur place à faire du gaz de synthèse neutre en carbone, nul besoin de se poser la question du cuivre, ou des délais nécessaires pour raccorder les champs de panneaux au réseau électrique. Nul besoin non plus de se soucier de l’intermittence, nul besoin de se doter de batteries.

On se demande seulement s’il va être possible de produire chaque année toute l’énergie solaire photovoltaïque nécessaire pour synthétiser l’équivalent des énergies fossiles utilisées aujourd’hui, et à quelle échéance.

 

Commençons par la question de la surface nécessaire

On peut calculer qu’il faudrait pour cela une surface d’environ 2,2 millions de km2, soit 1,4 % des terres émergées. Les déserts australiens occupent 2,7 millions de km2. On aurait donc besoin de 80 %. Mais tout n’aura pas besoin d’être en Australie, on pourra aussi installer des infrastructures dans le Sahara (9,2 millions de km2), et les autres endroits arides et semi-arides dans le monde, en Arabie saoudite, en Chine, etc.

À vrai dire, les États-Unis ont assez de place pour subvenir à leurs besoins actuels en hydrocarbures. Et après quelques années supplémentaires de baisse du prix des panneaux solaires, on finira aussi par avoir une énergie solaire photovoltaïque suffisamment basse, même dans les zones moins ensoleillées que ces zones arides.

Bref, la place n’est pas un facteur limitant.

Quand l’énergie solaire photovoltaïque permettra de produire du gaz de synthèse pour moins cher que les énergies fossiles extraites du sol, il y aura assez de place disponible sur Terre sans problème pour se déployer jusqu’à toutes les remplacer à terme !

 

Quid des matières premières nécessaires pour le parc solaire photovoltaïque ?

On peut estimer qu’il faudra environ 700 milliards de panneaux de 350 watts, sachant qu’un panneau solaire standard de 350 watts pèse aujourd’hui autour de 20 kg dont 76 % de verre, 10 % de polymère plastique, 8 % d’aluminium, 5 % de silicium, 1 % de cuivre et moins de 0,1 % d’argent et autres métaux.

Une des raisons pour lesquelles le coût des panneaux va baisser est qu’on parviendra à les produire avec moins de matière, les besoins par watt de puissance installée ne pouvant que diminuer !

C’est le verre dont on aura le plus besoin à date. Il nécessite surtout du sable et du calcaire, qui sont suffisamment abondants. Il faut aussi beaucoup d’énergie, on en reparle au point suivant. Mais devinez quoi ? On sait déjà aujourd’hui faire des panneaux solaires sans verre ! C’est ce que fait l’entreprise Bila Solar par exemple, 350 watts à 6,4 kg, plus que trois fois plus légers que la norme aujourd’hui, et pour une même durée de vie !

La matière souvent montrée du doigt est le cuivre. Pour notre parc de panneaux solaires à même de produire l’énergie solaire photovoltaïque nécessaire pour produire tous les hydrocarbures consommés en 2022, on peut calculer qu’il faudra en tout environ 150 millions de tonnes de cuivre.

Les réserves de cuivre dans le monde sont estimées aujourd’hui à 870 millions de tonnes, et les ressources en cuivre à 5000 millions de tonnes. Les réserves sont des gisements qui ont été découverts, évalués et jugés rentables. Les ressources sont bien plus importantes et comprennent des réserves, des gisements découverts potentiellement rentables, et des gisements non découverts prévus sur la base d’études géologiques préliminaires. Le cuivre est naturellement présent dans la croûte terrestre. Pour se donner une idée, en l’an 2000, les réserves étaient estimées à moins de 350 millions de tonnes.

Pour la matière considérée comme la plus problématique, il faudra 17 % des réserves estimées à ce jour, et 3 % des ressources. Et on ne le dit pas souvent, mais dans le pire des cas on peut substituer au cuivre l’aluminium à coût et poids divisés par deux à conductivité égale. L’aluminium est 1200 fois plus abondant que le cuivre.

Le silicium quant à lui, silicon en anglais, est ultra abondant, il constitue plus de 27 % de la croûte terrestre, se trouve dans le sable et le quartz, il n’est pas un problème.

Bref, le cuivre et les autres matières premières ne seront pas non plus des facteurs limitants pour les panneaux solaires !

 

Quid des besoins en matière pour le parc de machines de Terraform Industries ?

Voyons maintenant ce qu’il en est pour le parc de machines de Terraform Industries requis, du type Terraform Mark One.

Une puissance installée totale de 236,000 GW, ou 236 millions de MW, sera associée à 236 millions de ces machines nécessitant une puissance de 1 MW. Cette machine sera comparable en masse à une automobile, nous dit Terraform Industries (mais bien moins complexe), disons deux tonnes pour être large. Il faudra donc, en tout et pour tout, 500 millions de tonnes de masse, qui pourront être recyclées. Leur machine Mark One n’utilise pas de métaux rares, c’est un impératif de conception pour l’entreprise. Juste un peu de nickel, et très peu de cuivre pour les câbles.

L’entreprise prévoit qu’il suffira d’en construire 60 millions par an pour être tranquille. Soit 120 millions de tonnes de masse par an. Supposons que ce soit principalement de l’acier, il n’y aura pas de problème, la production d’acier était de près de deux milliards de tonnes en 2022, et est largement extensible, car reposant sur le fer, parmi les éléments les plus abondants de la croûte terrestre.

Quant au nickel, on peut calculer qu’il faudra en tout et pour tout moins de 7 % des réserves mondiales estimées à ce jour, sachant que le nickel, comme le cuivre et tous les métaux, se recycle sans problème.

La construction de ces machines ne sera pas non plus un facteur limitant.

 

Quid de l’énergie nécessaire pour produire les panneaux ?

Il faut environ 200 kWh d’énergie aujourd’hui pour produire un panneau de 100 watts. En étant prudent, on peut estimer que dans les pays arides et semi-arides, un tel panneau pourra produire sur toute sa durée de vie 4,400 kWh d’électricité, transformable en 1,300 kWh d’énergie sous la forme de gaz grâce aux machines de Terraform Industries.

Il faut donc investir au départ 200 kWh en énergie au maximum pour en obtenir ensuite 1,300 kWh sur 25 ans, un investissement énergétique plus que rentable. Le déploiement va prendre un certain temps, on va le voir dans la prochaine partie, mais le besoin énergétique ne peut pas l’empêcher !


Disclaimer : Thomas Jestin, n’est actionnaire, ni directement ni indirectement, d’aucune des entreprises citées dans cette série.

La saga du nucléaire français : des années Boiteux aux débats actuels

 

Le 6 septembre dernier, Marcel Boiteux nous quittait. Cet académicien était l’un des économistes les plus respectés au monde, un héros français. Cette triste nouvelle n’a pratiquement pas transpiré dans les medias grand public. Quelle honte !

Marcel Boiteux était un vrai intellectuel, un normalien qui avait fait ses classes lors des campagnes d’Italie et de France de la Seconde Guerre mondiale, ce qui forge plus sûrement un homme d’exception que l’ENA ou la carrière médiatique de nos raisonneurs en chambre.

 

Un peu d’histoire

C’était l’époque où, avec le général de Gaulle, on avait compris très tôt l’importance de l’énergie pour la prospérité d’une nation, et l’impérieuse nécessité de la rendre le plus possible indépendante des aléas internationaux.

Sous l’impulsion de politiques clairvoyants, une équipe d’ingénieurs et de hauts fonctionnaires talentueux conçut un programme d’envergure, comprenant le nucléaire, mais aussi l’hydraulique pour encaisser la variabilité de la consommation.

L’hydraulique avait d’ailleurs un autre but : la régulation des cours d’eau et l’irrigation. On oublie que c’est à cette époque que ces travaux transformèrent le désert provençal en Eldorado maraîcher.

La suite prévoyait encore plus d’indépendance, avec les surrégénérateurs du programme Phénix.

Mais le projet était plus global encore, puisqu’il prévoyait de développer conjointement production et consommation. EDF développa ainsi le chauffage électrique, mais pas n’importe comment : pour y accéder, il fallait isoler. C’est ainsi qu’une grande partie des constructions des années 1970 sont déjà isolées, peut-être moins que celles respectant les normes actuelles, mais il y avait déjà laine de verre, double vitrage, aération contrôlée… Cela ne vous rappelle rien ? Cinquante ans après, on y retourne : voir les normes nouvelles RE 2022 pour les constructions neuves ! On reste encore pantois devant la cohérence du programme.

Marcel Boiteux faisait partie intégrante de l’action. Il mit au point également la tarification au « coût marginal », brandie maintenant comme un must par l’Union européenne… sauf que les fonctionnaires actuels n’ont rien compris aux travaux de l’économiste. Nous y reviendrons.

EDF et Framatome ont alors construit des réacteurs en série, couplant jusqu’à 8 réacteurs au réseau dans l’année. On avait judicieusement choisi la filière : les réacteurs à eau pressurisée. De bonnes bêtes, peu susceptibles de s’emballer. La suite leur a donné raison : ils sont 300 dans le monde, ils tournent depuis plus de 40 ans avec un seul accident : Three Miles Island, la fusion du cœur n’ayant même pas occasionné la moindre fuite de radioactivité à l’extérieur de la centrale.

Tchernobyl n’a rien à voir : un réacteur sans enceinte de protection, conduit en dépit du bon sens. Et Fukushima était un réacteur en fin de vie, mal entretenu, d’une conception différente, à eau bouillante, moins stable ; et il n’a fait, à ce jour, que quelques victimes, devant les 20 000 morts du tremblement de terre.

L’ensemble des projets français a été intégralement payé par les consommateurs, qui, malgré cela, ont bénéficié d’un prix parfois moitié de celui des pays voisins. EDF a tout emprunté sous son nom.

C’était trop beau, pour les Allemands, inquiets de la compétitivité apportée par le programme, pour les décroissants, qui voyaient se dessiner un avenir prospère.

Il fallait donc absolument dérégler la machine. Certains milieux industriels et financiers ont parfaitement utilisé les écolos comme idiots utiles pour faire du profit en luttant contre l’atome, ou c’est l’inverse, ou les deux… Ce qui explique la robustesse du combat contre le nucléaire.

Entretemps, le profil des politiques et des fonctionnaires avait changé : Sciences Po et l’ENA n’aident pas vraiment à comprendre comment fonctionne un réseau électrique.

Nous ne reviendrons pas sur les circonstances lamentables de la destruction systématique de l’avenir de ce beau projet. Il suffit d’aller consulter les comptes rendus de la Commission Schellenberger, ou de visionner la vidéo de Mme Voynet se vantant d’avoir torpillé le nucléaire au niveau européen, alors qu’en sa qualité de ministre, elle était mandatée pour défendre cette cause. Le point final a été l’arrêt sans aucune justification de la fermeture de Fessenheim : de l’abus de bien social pur et simple.

On se demande d’ailleurs quelles suites seront données à la Commission ayant mis en évidence incompétence, fautes caractérisées, et même, dans le cas de Mme Voynet, ce qui peut s’apparenter à une forfaiture… alors même que de nombreux experts hurlaient leur incompréhension dans le désert.

 

Une tardive prise de conscience

La réalité finit toujours par s’imposer.

L’Allemagne a installé plus de 130 GW d’éoliennes et de panneaux solaires alors que sa consommation maximale avoisine 80 GW. Malgré cela, elle continue d’ouvrir des mines de lignite. Il faudrait être aveugle et sourd pour ne pas s’en rendre compte. Son plan, à base d’énergie renouvelable et de gaz, a été réduit à néant avec la guerre en Ukraine. Et les prix de l’électricité, stupidement indexés au gaz, sont maintenant liés aux décisions d’émirs moyenâgeux.

L’actuel gouvernement français, un peu plus réaliste que les précédents, a commencé à opérer un virage. Mais c’est du en même temps : nucléaire et énergies renouvelables. On verra que c’est antagoniste. Et il diffère les nécessaires remises en cause de la loi sur l’énergie et sur la Programmation pluriannuelle (PPE). Mais c’est mieux que rien. Deux EPR tournent en Chine, un EPR en Finlande, et on espère Flamanville pour 2024… Le ciel s’éclaircirait-il pour le nucléaire ? Il y a encore beaucoup d’obstacles.

 

La bête bouge encore

Pour les opposants au nucléaire, le combat est existentiel.

La plupart des associations écologistes ont démarré sur cette opposition, en particulier la plus puissante, Greenpeace, et en ont fait leur mythe fondateur. L’Allemagne, elle, est encore imprégnée (on la comprend) d’un pacifisme absolu, et qui dit nucléaire, dit bombe… même si c’est une association douteuse. C’est la raison essentielle de l’opposition de ses dirigeants et de son opinion publique. On verra si la guerre en Ukraine change vraiment la donne.

Ces deux entités disposent encore de moyens nombreux et puissants pour continuer le combat sur plusieurs fronts.

 

Le combat réglementaire

L’Allemagne a tenté de barrer toute possibilité de subventions et d’autorisation du nucléaire via la taxonomie européenne, c’est-à-dire le « classement écologique » d’activités industrielles au droit de la finance. L’Europe est maintenant divisée entre États partisans et opposés, et le combat n’est pas fini. Les partisans ont gagné une bataille, mais pas la guerre.

 

La présentation de fausses solutions par l’Allemagne

Devant le fiasco du gaz russe et les difficultés de l’éolien, l’Allemagne se tourne vers l’hydrogène via le solaire. Celui-ci fait sans doute partie des solutions à la décarbonation, mais très partiellement. Personne n’y croit vraiment : le soleil en Allemagne, bof… et importer du Maghreb, c’est aller de Charybde en Scylla. Un réacteur nucléaire tournant à 90 % de son temps est en plus le meilleur moyen de rentabiliser un électrolyseur.

 

Le combat via le « marché libéralisé » de l’électricité

L’Union européenne a en effet adopté la théorie de Marcel Boiteux pour la fixation des prix, ce qui entraîne une forte indexation au gaz.

Ce n’est pas anormal pour l’Allemagne, mais idiot pour la France, peu dépendante du gaz. En fait, on considère que le marché est unique, ce qui est faux physiquement : les lignes d’interconnexion sont très limitées. Et dans le cas d’un marché hétérogène et volatile, comme l’est actuellement le marché européen, on montre aisément que la théorie de Marcel Boiteux ne s’applique plus. Et pour éviter un combat frontal avec l’Union européenne, la France a inventé un dispositif encore plus inepte : l’ARENH, qui oblige EDF à brader son électricité à des concurrents non producteurs.

Il y a donc en ce moment à la fois un combat intra-européen et intra-français (État, EDF, Industrie) sur les prix du nucléaire futur dont dépendra la rentabilité d’EDF, et son aptitude à emprunter les énormes fonds nécessaires aux programmes à venir. Pour tout comprendre : une excellente série de trois vidéos.

 

Des forces contraires en interne au nucléaire

  • La désindustrialisation française. Nous manquons d’ingénieurs, de soudeurs, nous n’avons plus que Technip comme grand ensemblier en France (et il est réduit à peu de choses), et nous sommes restés longtemps sans expérience de grands chantiers.
  • L’évolution des normes. L’EPR a été conçu en collaboration avec Siemens, qui, devant son opinion, voulait la ceinture et les bretelles. On a ajouté les normes françaises et allemandes dans le même produit, ce qui l’a complexifié ; et Siemens s’est défilé, après avoir semé le chaos. EDF a perdu des compétences, en métallurgie notamment. Certaines normes sont devenues presque impossibles à respecter, entraînant des irrégularités dans l’assurance qualité. L’entreprise a même accepté de soumettre les centrales existantes à de nouvelles normes, ce qui est très pénalisant pour le « grand carénage » qui vise à prolonger leur durée de vie. Cela ne se fait jamais aux USA, par exemple. C’est même vrai pour l’EPR : certaines normes ont évolué depuis sa conception, entraînant de « fausses » anomalies. Il semble bien que par peur de l’opinion publique, l’IRNS, chargée de la sécurité radiologique, entraîne l’ASN, garante de la sécurité technologique, vers des impasses.
  • Une instabilité politique : le gouvernement est encore bien timide dans son revirement. Et une partie de l’alliance de gauche est toujours bec et ongles contre le nucléaire. En outre, l’acharnement à vouloir développer l’éolien et le solaire pénalise doublement le nucléaire : les fonds utilisés seraient mieux chez lui que chez eux, et l’imposition de leur production aléatoire, quel que soit le besoin, fait arithmétiquement monter le coût du kWh nucléaire, qui est majoritairement fixe.
  • L’activisme écologique, qui peut retarder les projets. Aucun gouvernement n’a encore trouvé de remède au zadisme, qui pourrait bien ralentir les projets.

 

Se mobiliser

Ceci montre qu’il faut encore se mobiliser pour être sûrs que nos enfants et petits-enfants bénéficieront toujours d’une électricité abordable. En rejoignant par exemple PNC-France pour continuer le combat.

C’est un combat de société, Aurélien Barrau, militant écologiste et astrophysicien l’avoue lui-même :

« Le pire scénario possible : c’est de trouver une énergie nouvelle propre et infinie, par exemple la fusion nucléaire. »

Pour ceux qui pensent que les sciences dures vaccinent contre la bêtise. pic.twitter.com/i8om3FJK71

— Pulp libéral (@PulpLiberal) September 13, 2023

 

Électricité en hiver : à la merci des nuits sans vent

Luc Rémont, le PDG d’EDF, s’est déjà exprimé pour dresser le bilan de la situation en cette rentrée.

« Nous abordons l’hiver avec beaucoup plus de confiance que l’hiver précédent. »

Certes, il y aura davantage de centrales nucléaires disponibles, mais on sera loin de la totalité des capacités.

 

Arithmétique de nos capacités de production par une nuit sans vent

Ce qui arrive plusieurs fois par an, même en hiver à la pointe de consommation, et en général sur toute l’Europe.

  • Nucléaire…………. 50 GW (d’après EDF même, au mieux)
  • Gaz………………….. 10  GW (on n’a jamais fait plus)
  • Hydro………………. 15 GW (capacité 25 GW, prenons 15 GW, c’est le maxi probable)
  • Bio……………………   2 GW
  • Fioul charbon…….   3 GW (le gouvernement a annoncé qu’il renonçait provisoirement à arrêter définitivement ces centrales)
  • Éolien, solaire…….  0 GW

Total……………………….. 80 GW

 

  • Conso maxi en 2022/2023…   80 GW
  • Conso maxi en 2018/2019….   86 GW
  • Record en 2012………………… 102 GW

 

Alors, faut-il être vraiment confiant ?

 

Discussion

Tout le monde se félicite de ce que les Français auraient appris la « sobriété ». Certes, des prix multipliés par deux, voire cinq, comme chez certains vendeurs obligés de s‘approvisionner sur un marché hors de contrôle, ça fait réfléchir.

La question de savoir si c’est un progrès est un autre débat.

Mais la faiblesse de la consommation s’explique surtout par une baisse de l’activité économique, qui ne se remet pas du covid, de la guerre en Ukraine, et des prix de l’énergie. Le dernier hiver « normal » culminait à 86 GW, ce qui est supérieur à nos capacités de nuit sans vent.

Jusqu’ici, on comptait sur l’Allemagne : son charbon nous a sauvé la mise deux ou trois fois ces dernières années. Mais l’Allemagne vient de mettre à l’arrêt ses dernières centrales nucléaires. Qu’à cela ne tienne : elle viendrait encore au secours de la France ?

Qu’en est-il ?

L’Allemagne a conservé 90 GW de capacités pilotables, et 140 GW de solaire et d’éolien, comptant pour zéro les nuits sans vent (voir le site « energy charts » de Fraunhofer). Avec un fort taux de disponibilité de 90 %, cela nous fait 81 GW de disponible. C’est à peu près sa pointe de consommation de janvier 2019. Depuis, elle culmine plutôt à 75 GW.

L’ensemble des deux pays a donc au mieux une dizaine de GW de marge les nuits sans vent, à condition que l’activité économique reste morose, que l’hiver soit doux, et que les centrales fonctionnent bien. Ce n’est pas beaucoup pour garder une confiance même modérée, d’autant que la Belgique, la Suisse, l’Angleterre en sont au même point, ou pire.

 

Qui va sauver qui ?

« L’Allemagne risque de dépendre de plus en plus de l’électricité nucléaire de ses voisins ».

C’est ce qu’a affirmé Mme Agnès Pannier-Runacher, ministre de la Transition énergétique, dans une interview au quotidien économique allemand Handelsblatt.

Les chiffres montrent plutôt le contraire : l’Allemagne a encore un peu de marge, pas nous. Les autorités allemandes ont d’ailleurs protesté, arguant à juste titre que c’est un calcul économique qui la pousse à importer, pas un manque (et cerise sur le gâteau, qu’elles cachent soigneusement, cela diminue les émissions in situ, lorsque le réseau doit recourir au lignite). Et l’Allemagne a un double discours. Exemple : elle détruit des éoliennes qui gênent l’extension de ses mines de lignite.

 

Et l’avenir ?

On ne voit pas ce qui pourrait changer dans les deux à trois années qui viennent, car la disponibilité des centrales nucléaires va rester modeste, compte tenu du « grand carénage » qui demande des arrêts prolongés.

Certes, on aura l’EPR et 1,6 GW de plus, mais aucun nouvel EPR ne pourra être mis en service avant dix ans, même si tout va bien. L’hydrogène en sera à ses premiers balbutiements. Le biogaz et le bio-fuel resteront marginaux. Et on continuera à installer du solaire et de l’éolien partout en Europe, en pure perte, car cela ne change rien au problème. Cela réduira juste le temps de fonctionnement des moyens de production pilotables, augmentant leurs coûts et dissuadant les investisseurs, alors qu’en réalité, il y aura un manque de ces moyens. C’est lâcher la proie pour l’ombre.

Et même à dix ans, si on retrouve de l’ordre de 60 GW de nucléaire, on ne sera même pas au record de consommation de 2012… Espérons que le réchauffement climatique va se poursuivre avec de doux hivers.

 

Risques de blackout

On voit bien que même à dix ans, il y aura contradiction entre une volonté de ré-industrialisation et d’électrification, et les possibilités du réseau électrique.

Une étude similaire pour les autres pays de la plateforme interconnectée européenne montrerait la même situation. ENTSOE, l’observateur du réseau électrique européen, n’est pas très optimiste lorsqu’il annonce les résultats de ses modélisations.

« Des risques d’équilibrage apparaissent dans toute l’Europe. Des manques de puissance sont identifiés en 2025 en Irlande avec un manque excédant 24 h/an, suivi par Malte avec 22 h/an, ensuite Allemagne, Italie, Espagne, France et Belgique, Danemark et Hongrie de 6 à 11 h/an… Avec les hypothèses d’arrêt et de mise en service de production et d’évolution des interconnexions, le problème des insuffisances tendra à aller des zones périphériques de l’Europe en 2025 vers le centre du continent en 2030. »

Un manque de puissance disponible sur le réseau est scandaleux, mais pas catastrophique si on contrôle les délestages.

Par contre, ces chiffres montrent un risque de situation tendue sur l’ensemble de la plateforme européenne.

C’est dans ces conditions qu’un blackout peut survenir, initié par un incident même mineur. L’historique des blackout montre que c’est souvent la perte d’une ligne d’interconnexion importante qui est une cause, mais ce n’est pas la seule. Le réseau peut alors dégringoler en cascade en quelques minutes. Et sur toute l’Europe, il faudrait de nombreuses heures pour réalimenter le gros du réseau, et plusieurs jours pour rétablir complètement la situation.

Il faudra vivre avec cette épée de Damoclès encore pas mal d’années.

Et cela ne pourra prendre fin que si l’Europe change drastiquement sa politique de production, en privilégiant les investissements de moyens pilotables au détriment des moyens intermittents et aléatoires.

Banques, devises : les risques d’une perte de confiance

La cotation d’ARM pour la fin de l’année, comme l’essor du solaire depuis trois ans en France, attestent des effets d’une manne de liquidités, grâce aux mesures de soutien au marché et aides à l’industrie des renouvelables.

Le lien entre spéculations et interventions des dirigeants dans les marchés tient en place depuis des siècles. La bulle des Chemins de fer des années 1840, la bulle du Mississippi, qui a éclaté en 1720, ou la bulle des Tulipes des années 1630, ont lieu peu après la mise en place d’incitations ou de soutiens à l’endettement, en général par la banque centrale.

Ce mois-ci, la Banque du Japon surprend le marché avec encore plus de rachats d’obligations. En dépit de prix en hausse de plus de 3 % sur un an, la banque centrale continue les interventions, afin de fournir un soutien à l’endettement.

La part des obligations du Trésor japonais sur le bilan de la Banque du Japon a atteint 50 % en décembre dernier.

Elle continue de croître et dépasse à présent les 53 % des obligations du gouvernement en existence.

Le groupe japonais Softbank a foi dans le soutien des banques centrales pour encourager les paris sur la technologie. Il annonce ce mois-ci le projet de cotation de son entreprise de semi-conducteurs ARM. En vue de la cotation, le groupe rachète le restant des parts d’ARM à ses propres clients des fonds d’investissement, pour une valorisation de l’entreprise à 64 milliards de dollars.

La valorisation de Softbank du groupe dépasse de loin la norme dans les marchés, même dans la technologie. Le groupe dégage un peu plus de 500 millions dollars de bénéfices par an en 2022.

Softbank, sous le contrôle du milliardaire Masayoshi Son, espère obtenir une valorisation de marché d’environ 130 fois les bénéfices actuels ! Le ratio moyen pour les actions du Nasdaq, qui contient la plupart des actions de technologie aux États-Unis, atteint moins de 25 à ce jour.

En somme, l’investisseur japonais parie sur le genre d’optimisme que génère l’action Nvidia. Le groupe américain a atteint ce mois-ci près de 250 fois les bénéfices sur les 12 derniers mois. Suivant l’annonce des résultats du trimestre, avec une hausse des ventes en lien à ses cartes à puces spécialisées pour l’IA, le ratio baisse à 110 fois les bénéfices.

Softbank espère tirer parti de l’optimisme pour l’IA, et les valorisations pour les actions du secteur.

L’IA profite des largesses des banques centrales.

En effet, les marchés attendent des rachats d’obligations en cas de remontée des taux, comme le fait la Banque du Japon, et des sauvetages lors de faillites, comme nous l’avons vu avec les faillites de Crédit Suisse ou des banques américaines.

 

Solaire sous perfusion

Le solaire, de même, affiche une croissance en flèche depuis 3 ans. Les installations de panneaux en France, comme sur le reste du continent, battent des records.

L’essor des capacités du solaire tient à la distribution d’incitations à la population.

Le site de Engie offre un « Exemple concret de calcul de rentabilité » de l’installation d’éoliennes chez un particulier.

Le fournisseur d’électricité explique :

« Afin de comprendre parfaitement comment calculer le temps qu’il faut pour rentabiliser votre installation photovoltaïque, prenons un cas concret. Il s’agit d’un couple vivant près de Grenoble (région Rhône-Alpes), qui vit dans une maison de 65 m2. Le toit est incliné à 37°, orienté sud, et n’a pas d’ombrage. Ils ont choisi l’autoconsommation avec revente de surplus. »

En somme, Engie présente un couple avec une maison typique qui utilise un maximum de l’électricité des panneaux pour leurs besoins. Ensuite, par obligation de la loi, le distributeur d’électricité (Engie), achète l’excès de production (même lorsque le réseau n’a pas de besoin en courant).

Il continue :

« L’installation coûte 15 000 euros. Ils bénéficient d’une aide de l’État de 280 euros/kWc, soit un total de 1680 euros. Celle-ci est versée en 5 ans. Le coût total de l’installation est donc de 15 000 – 1680 = 13 320 euros. »

Engie estime que le couple réduit à zéro sa facture d’électricité annuelle, puis gagne de l’argent via la vente des surplus :

« Chaque année, ils font donc une économie et un gain cumulés de 841 euros. Pour rentabiliser leur installation, il faut un peu moins de 16 ans. Le couple peut espérer faire tourner son installation pendant encore minimum 15 ans puisque la durée de vie des panneaux solaires est de 30 à 40 ans. »

Selon le calcul d’Engie, la rentabilité des panneaux (grâce au rachat obligatoire du courant à un prix fixe) revient à environ 6 % par an.

Un investisseur ou particulier qui emprunte à 3 % (le rendement sur une assurance-vie ou une obligation du gouvernement) peut en tirer une marge dès l’installation.

De plus, le modèle d’Engie estime les aides à seulement 1680 euros. Or, selon UpEnergie, en moyenne, il est possible d’obtenir jusqu’à 5000 euros pour son installation solaire.

Un autre cas que présente Engie offre un remboursement en seulement 9 ans, soit un rendement annuel de 8 % !

En bref, l’essor des capacités du solaire tient à l’accès aux financements et aux subventions.

En l’absence de ces aides, le secteur du solaire a sans doute peu de chances de conserver le rythme d’installations. Un éclatement de la bulle et un ralentissement de l’activité attend dès la fin des mesures de soutien.

 

Inertie des épargnants

En dépit de la tendance des dirigeants sur la création d’argent et d’aides à l’octroi de crédits, les particuliers ne changent pas d’habitudes.

Les chiffres sur le placement des épargnes confirment l’inertie des particuliers face aux risques d’une dévaluation. Le montant d’épargne dans les banques et assurances-vie atteint un record.

L’encours des placements à base d’actions (compte-titres, PEA, ou assurance-vie en unités de compte) grimpe de 140 milliards d’euros sur le premier trimestre de 2023. La hausse tient à la fois des entrées d’argent, en plus du rebond des marchés.

Dans les produits de rendement, ou comptes bancaires, l’encours grimpe de 30 milliards d’euros au premier trimestre, selon la Banque de France.

Le Monde donne des détails :

« En 2022, ce patrimoine [d’épargnes] s’était alourdi de 146 milliards, contre 100 milliards seulement en 2019. Non seulement les ménages n’ont pas touché à leur cagnotte « covid », qui atteint la somme rondelette de 240 milliards d’euros, accumulés pendant la pandémie faute de pouvoir consommer, mais ils ont même accru leurs efforts pour mettre de l’argent de côté. »

Les comptes en banque et contrats d’assurance-vie fournissent une source de demande pour les obligations du Trésor.

Le gouvernement finance les déficits grâce à l’épargne des Français, et à la dévaluation de la devise par la planche à billets (les politiques de soutien de la banque centrale).

L’inertie des épargnants réduit la pression sur la devise. Elle permet aux gouvernements de poursuivre les déficits, avec moins de recours à la planche à billets.

Par contre, une perte de la confiance des épargnants, – en raison d’un retour des pénuries d’énergies, ou d’une cascade de faillites de banques, par exemple -, peut entraîner la fuite devant la monnaie.

Face à une fuite des particuliers des dépôts de banques, le gouvernement risque de manquer d’acheteurs pour la dette. Dans ce genre de situation, les autorités font alors appel à la planche à billets, ce qui mène à un effondrement en cascade de la valeur de la devise.

La fuite des épargnants retire aussi de l’argent pour les soutiens à des industries ou l’achat de panneaux solaires. En plus de peser sur la devise, elle peut mener à l’éclatement des bulles en cours.

Le projet de cotation d’ARM montre l’optimisme de Softbank pour l’humeur des marchés. Tout comme l’essor du solaire va prendre fin un jour, les marché-actions risquent de chuter de haut lors de la fin des rachats d’obligations et interventions en faveur de l’octroi de crédits.

Pour l’instant, la foi des épargnants dans la devise offre une source de financements aux déficits, et soutient les bulles de marché. Une fuite devant la monnaie, en réaction à un excès de création d’argent, ou une crise dans les banques, risque d’éclater les bulles, et mener à une inflation en spirale.

(Vous pouvez retrouver mes analyses et commentaires sur la Bourse et l’investissement, dans ma quotidienne gratuite. Cliquez ici.)

Pourquoi le solaire brade son électricité

Le quotidien Les Échos s’étonne : « Électricité : le solaire victime de son succès » (23 août 2023)

« Portée par la flambée des prix et par les mesures d’urgence prises par Bruxelles, la croissance du photovoltaïque bat tous les records en Europe. Au point que certains s’inquiètent des effets collatéraux de cette croissance : les prix négatifs sont de plus en courant, et certains pays commencent même à rationner leur production. »

Les Échos se trompe : le solaire n’est pas victime de son succès, il est victime du soleil, qui chaque jour se lève, culmine et se couche. On appelle ça de l’intermittence.

 

Étude de cas

 

Ci-dessus le diagramme des productions du mois d’août 2023 en France (source RTE France).

On remarque immédiatement que depuis trois semaines, il n’y a pas de vent sur toute l’Europe.

Il y en avait au début du mois, et on remarque aussi qu’on exportait bien plus : c’est du vent, qu’on exporte… ce qui indique, en passant, qu’on n’avait pas besoin de cette énergie, vendue d’ailleurs à bas prix puisqu’à ce moment-là, tout le monde avait du vent.

Certes, dira-t-on, mais il y a beaucoup de soleil !

Alors regardons comment ça marche : exemple le 17 août.

Le soleil a brillé de 7 heures à 21 heures. Nos 15,5 GW de solaire ont culminé à 11 GW à 13 h 45. La pente est énorme : l’équivalent de l’arrêt et du démarrage d’une dizaine de centrales nucléaires.

La consommation a culminé à peu près aussi à 13 h 45 à 43 GW. À la montée, ça ne se passe pas trop mal, et correspond à la montée de la consommation. Mais à la descente, le compte n’y est pas : il faut faire quelque chose. Alors on bricole comme on peut.

Le gaz :

L’hydraulique :

L’export :

D’après le président Emmanuel Macron, l’objectif est de 45 GW de solaire en 2028, et 100 GW en 2050.

Oui, mais dans un cas comme celui du 17 août, on aurait eu 33 GW à la pointe de production ! Pour en faire quoi ? Mettre à l’arrêt la moitié du parc nucléaire ? Et le redémarrer à 20 heures ?

On voit bien qu’a partir d’un certain niveau, le solaire est ingérable… et encore, si le vent se lève… pas de chance.

L’Allemagne est déjà dans ce cas. Si on suit le site Energy charts de Fraunhofer, on voit que depuis qu’elle a complètement mis à l’arrêt son nucléaire, elle importe massivement actuellement, pour limiter les émissions de CO2 sur son territoire. Les imports proviennent d’un peu partout, y compris d’ailleurs du nucléaire français.

C’est ainsi également qu’elle règle son problème solaire en modulant ses exportations. Mais à terme, tout le monde voudra faire pareil en Europe, non ?

On bute ainsi sur une évidence : un marché de l’électricité interconnecté doit être techniquement planifié au niveau géographique d’interconnexion sous peine, soit de manque, soit de surinvestissement.

 

Oui, mais le stockage ?

D’après Les Échos, le Syndicat des énergies renouvelables s’est ému de la question.

Il faut, dit-il, soit stocker, soit augmenter la flexibilité des clients (c’est-à-dire couper leur courant ou les obliger à consommer, ce qui est une conception nouvelle du commerce…)

Pour le stockage, mais bien sûr… Pourquoi ne pas y avoir pensé plus tôt ? Sauf qu’on ne sait pas faire.

Prenons le cas du 17 août.

Si on voulait réduire le solaire à une production de base sur toute la journée, cela équivaudrait à une production constante à 11 x 14/2 x 24 de 3,2 GW. Pour cela, on aurait installé 15,5 GW de solaire, mais aussi 15,5 GW de stockage (puissance jamais atteinte, et de loin). Soit 31 GW d’investissement pour 3 GW d’équivalent centrale thermique.

Même si c’était techniquement possible, ce serait économiquement stupide.

 

Le solaire et l’éolien ne peuvent pas être rentables par nature

Chacun dans leurs agendas, ils produisent, ou non, en même temps.

Il y aura, soit manque de produit (donc prix élevé) au moment où ils n’ont rien à vendre, soit pléthore (donc prix bradés).

Et pour le solaire, c’est au moment où la consommation est la plus importante, en hiver, qu’il manque le plus. Il faut être fou pour installer du solaire au nord de la Loire… et en Allemagne qui en est à 60 GW… il faut être… allemand ?

 

Électricité : les Français paient le prix d’une politique énergétique aberrante

Par : Michel Gay

Après une hausse de 15 % en février 2023, le prix de l’électricité augmente de 10 % au 1er août 2023.

En 2023, le tarif réglementé de vente, et toutes les offres qui y sont indexées, auront donc augmenté non pas de 25 %, mais de 26,5 % ! Et ce n’est pas fini !

Cette hausse est due principalement à l’incompétence de nos responsables politiques qui ont mené une politique énergétique insensée fondée sur les énergies renouvelables, et qui ont tergiversé pendant vingt années sur le nucléaire. Ils ont même mis à l’arrêt deux réacteurs nucléaires en parfait état de fonctionnement, à Fessenheim en 2020.

Et l’alibi du conflit en Ukraine se révèle bien pratique.

 

Jusqu’où la facture ne montera-t-elle pas ?

Par idéologie et intérêts financiers favorables surtout à l’Allemagne, depuis plus de 20 ans, la Commission européenne impose à la France une politique énergétique allemande suicidaire fondée sur des énergies renouvelables éoliennes et solaires. En acceptant passivement cette politique par incompétence de ses responsables politiques, la France se tire une balle dans le pied.

La ministre de la Transition énergétique Agnès Pannier-Runacher se débat depuis des mois pour contrer les menées de la Commission européenne, téléguidée par l’Allemagne, visant à détruire la production française d’électricité nucléaire.

Après les importantes hausses successives de ces dernières années qui ont conduit à doubler le prix de l’électricité en dix ans (sans le bouclier tarifaire payé par les contribuables), le gouvernement augmente à nouveau le prix de l’électricité de 10 % le 1er août 2023, et décide aussi la fin progressive du bouclier tarifaire en 2024.

Les Français avaient pourtant compris qu’il n’y aurait pas d’augmentation du prix de l’électricité en 2023 suite à la déclaration alambiquée du ministre de l’Économie le 30 mai 2022 qui avait dit sans le dire que les consommateurs ne verraient aucun rattrapage sur leur facture en 2023… Le site du gouvernement indiquait même le 14 septembre 2022 que la hausse de l’électricité et du gaz serait limitée à 15 % en 2023  !

Il avait annoncé que l’objectif du gouvernement était de « contenir » la hausse des prix de l’énergie nécessaire pour compenser les pertes enregistrées… par les fournisseurs d’électricité en raison des limitations du prix de l’énergie décidées par l’exécutif.

Bruno Le Maire avait annoncé au printemps 2023 que le bouclier tarifaire serait maintenu jusqu’en 2025, mais qu’il serait réduit par étapes. La réduction de la part payée par l’État aboutit à cette hausse de 10 %.

En niant les réalités, en cédant aux émotions momentanées, et en s’attaquant aux effets plutôt qu’aux causes, le gouvernement persiste dans son erreur par incompréhension du système de production d’électricité, et par idéologie mortifère du marché de l’électricité qui ne fonctionne pas. Même les plus hautes autorités de l’État le reconnaissent !

Le bouclier tarifaire, valable uniquement pour les particuliers, contribue à un endettement supplémentaire de l’État de plusieurs milliards d’euros, et masque des prix délirants pour les entreprises. La Commission de régulation de l’énergie (CRE) propose une augmentation de 75 % de la facture d’électricité !

Vouloir amoindrir les effets sans s’attaquer aux causes ne fait qu’alourdir à long terme le poids de la dette et la charge financière, aussi bien pour les particuliers que pour les entreprises dont les factures d’électricité ont triplé.

 

Quelles solutions ?

Le marché européen de l’électricité actuel est une construction technocratique artificielle établie par l’Allemagne sur le modèle de son « energiewende » créant des « fournisseurs-spéculateurs », qui ne produisent rien, ne transportent rien, et ne distribuent rien. Il fallait satisfaire l’idéologie européenne d’un « marché » censé mieux protéger le consommateur et qui, au final, enrichit des traders.

Les productions intermittentes éoliennes et solaires d’électricité « gratuites » sont largement subventionnées pour assurer une rentabilité. Leur intermittence nécessite en parallèle un autre parc de production stable, essentiellement au gaz importé dont le prix sert de référence pour assurer l’équilibre du marché.

Et c’est ainsi que le prix de vente de l’électricité pour le consommateur, particulier ou entreprise, a atteint des sommets sans rapport avec le coût de production français reposant essentiellement sur le nucléaire et l’hydroélectricité à bas coût.

L’accélération idéologique des installations des énergies éoliennes et solaires a conduit à une augmentation des prix incomprise par les consommateurs, et même par les décideurs politiques.

La volonté de ne plus s’approvisionner en Russie (gaz, pétrole) a accéléré le dérèglement des marchés de l‘énergie observable depuis quelques années. La solution consiste à sortir du marché artificiel pour revenir à des prix reflétant les coûts réels, lesquels sont bas en France, parmi les meilleurs d’Europe, grâce aux infrastructures nucléaires et hydrauliques pour l’électricité.

Et ce serait légal, car il existe des possibilités d’en sortir en cas de problème… et il y a un problème !

Au lieu de cela, la France s’est inscrite dans une discussion sans fin avec ses partenaires européens, en particulier allemands, qui ont des intérêts opposés aux nôtres car les politiques énergétiques respectives des deux pays ont divergé depuis plus de vingt ans.

Il n’y a donc pas de compromis possible ou envisageable ! C’est ce qui a conduit l’Espagne et le Portugal à s’extraire de ce marché artificiel. Si eux l’ont fait, pourquoi pas la France ?

La politique du bouclier représente donc une subvention donnée aux spéculateurs de l’électricité, alors qu’il est possible de revenir au faible coût réel de production-transport-distribution en France.

 

Sortir du marché européen ?

Tant que les responsables politiques refuseront de sortir du marché européen de l’électricité, tous les Français consommateurs et contribuables seront perdants puisqu’ils ont investi judicieusement depuis 40 ans dans des infrastructures nucléaires et hydrauliques rentables qui ne leur profitent plus à cause de mesures technocratiques européennes incompréhensibles.

Or, conformément à la loi votée par le Parlement il y a plus de dix ans, la situation exceptionnelle qui avait été envisagée est arrivée. La France peut donc se retirer du marché de l’électricité.

Cette action simple n’entre pas en contradiction avec les traités européens, car il n’y a pas de politique de l’énergie européenne !

L’Allemagne et d’autres pays peuvent avoir une autre politique, mais la Commission européenne ne doit pas imposer de mener une politique allemande suicidaire pour un autre pays.

En France, une base nucléaire et hydraulique peut fournir 85 % au moins des besoins électriques, et pour moitié moins cher que chez nos voisins.

Qu’attendent nos décideurs politiques pour décider et agir ?

 

D’importantes futures hausses des prix inévitables

Pendant les palabres européennes, les entreprises, qui alimentent la prospérité de la France s’effondrent, car, ne bénéficiant pas du bouclier, elles ne peuvent plus payer leurs factures d’électricité. Cette politique du déni de réalité est mortifère.

De plus, le sentiment général de subir toujours plus de contraintes, d’augmentations, et d’injonctions contradictoires autour de « l’industrie verte » à cause de l’impéritie du gouvernement ne va pas redonner le moral aux Français !

La France a besoin de la puissance publique pour retrouver rapidement sa compétitivité, reposant sur une électricité abondante, bon marché et souveraine, et non d’un marché européen artificiel de l’électricité créé de toutes pièces par un mix d’incompétents et de profiteurs.

Le prix du lait : les défis de la filière laitière française (3)

Première partie de cette série ici.
Seconde partie de cette série ici.

 

Quel devrait être le prix d’une bouteille de lait dans les grandes surfaces ?

Dans les deux premières parties de ce billet, nous avons vu que la question est mal formulée, et que l’analyse économique de la répartition du prix final d’un litre de lait est presque toujours biaisée.

De plus, nous avons montré que les deux principales propositions du monde syndical agricole sont, non seulement anti-économiques, mais vont profondément à l’encontre des intérêts de la profession.

Que faire ? Nous ne pouvons pas répondre à cette question sans faire un diagnostic correct de la situation économique et de son évolution récente au cours des sept ou huit dernières années.

 

Solution économique

Les difficultés de la filière tiennent essentiellement à ce que ceux qui avaient vu un moyen de faire un peu d’argent en investissant dans du cheptel ont été trompé sur l’état réel du marché à cause de l’existence des quotas européens.

Ces quotas ont créé une illusion de profits potentiels dans la filière.

L’entrepreneuriat tel qu’il est décrit par le professeur Kirzner ne peut fonctionner correctement que si les prix sont vrais, et si les quantités ne sont pas manipulées par des quotas.

Comme un quota douanier, les quotas européens ont distordu le marché et ont rendu possible, puis perpétué des activités qui n’avaient pas de sens économique, compte tenu de la vraie structure des prix.

L’abandon des quotas européens en 2015 est à la source des difficultés des agriculteurs aujourd’hui.

Un quota n’est qu’une aide temporaire et maladroite qui ne bénéficie jamais au consommateur et qui ne profite aux producteurs que l’espace d’un instant.

Comme l’expliquent les professeurs Doris Läpple, Colin A. Carter et Cathal Buckley dans un article de Agricultural Economics (2022 ; 53:125-142) :

« Lorsque les quotas laitiers ont été supprimés en avril 2015 dans la plupart des États membres de l’UE, le cheptel laitier a commencé à diminuer en raison de la baisse des prix du lait, sauf en Belgique, en Irlande et aux Pays-Bas. Une partie de l’empressement à supprimer les quotas était de permettre aux exploitations laitières européennes les plus efficaces d’augmenter leur production et de participer à la demande mondiale croissante de produits laitiers. En Irlande, la croissance de la production était principalement due à l’expansion du cheptel laitier et à l’augmentation des rendements par vache dans les exploitations existantes, avec la création de nouvelles exploitations laitières, soutenues par des mesures politiques spécifiques ».

En d’autres termes, les exploitants français se sont trouvés opposés à la concurrence de producteurs irlandais qui bénéficient du fait incontournable que leur pays est troisième au classement mondial de la liberté économique, alors que la France fait encore et toujours pâle figure à la 57e place, – entre la Macédoine, 56e, et la Serbie, 58e –, grevée qu’elle est par le poids des impôts, des réglementations, de son droit du travail, et de la taille de son gouvernement, en général.

Soyons clairs : comme nous l’avons vu dans la première partie, dans le prix d’un litre de lait français, il y a certainement plus de 60 % d’impôt foncier, de droits, d’accises, de timbres fiscaux, de charges sociales, de TVA, d’impôt sur le revenu, de CSG, d’impôt sur les sociétés, de TIPP, et autres inventions dont la France garde jalousement le secret pour ne pas allécher l’État irlandais.

Si le gouvernement voulait sérieusement sauver la filière laitière – ce dont nous pouvons douter au regard du contenu insensé de la loi Egalim – il faudrait immédiatement et massivement défiscaliser le secteur, comme, du reste, le reste de l’économie…

Les agriculteurs sont en butte aux industriels laitiers et aux grandes surfaces. Mais ni les uns ni les autres n’ont les marges suffisantes pour éventuellement donner satisfaction aux demandes farfelues du monde agricole en matière de prix.

Si le consommateur n’est prêt à payer que 90 centimes le litre, il est parfaitement impossible de donner aux agriculteurs les 55 centimes dont ils ont besoin.

Il faudrait donc drastiquement diminuer les coûts des facteurs de production des agriculteurs, des entreprises agro-alimentaires et des grandes surfaces d’au moins 10 à 15 centimes.

Il n’existe que deux recettes économiques éprouvées en la matière.

La première est l’augmentation de l’intensité en capital (automatisation la plus complète possible de la production), ce qui prend des décennies et réclame énormément de capital.

La seconde est une baisse massive des impôts en tous genres payés par tous les acteurs de la filière. L’État ne fait pas grand-chose pour aider à produire du lait. En fait, à part pour l’existence de routes – qui ne représentent quasiment rien en pourcentage de son énorme budget – la production de produits laitiers se fait malgré l’État plutôt que grâce à l’État.

L’État est le seul acteur de la filière à pouvoir radicalement réduire les coûts des facteurs de production pour les ramener à ceux de l’Irlande.

Sans cela, la taille du cheptel continuera lentement mais sûrement de diminuer.

Ceci prend du temps et sera très douloureux parce, selon une étude des professeurs Roel Jongeneel et Ana Rosa Gonzalez-Martinez dans Economic Analysis and Policy (2022 ; 73:194-209) :

« Un résultat important […] est que l’offre de lait au niveau national est inélastique, avec des élasticités (à court terme) du rendement des troupeaux et du prix du lait respectivement de 0,2 et 0,1. […] Les deux tiers de l’impact d’un changement du prix du lait résultent des changements de rendement des vaches laitières, tandis qu’un tiers résulte des changements du nombre de vaches laitières. »

 

L’exploitant face à l’État

Dans un tel contexte, l’exploitant est seul face aux forces de marché et face à l’État.

Il a été trompé jusqu’en 2015 sur l’état réel de la demande de lait par l’existence des iniques quotas de l’Union européenne.

À moins de prendre ses vaches et de partir en Irlande, il ne peut pas espérer qu’un problème créé par l’État avec les quotas européens sera réglé miraculeusement par ceux qui ont laissé la situation dégénérer.

Comme il ne faut pas compter sur un président socialiste ou un ministre des Finances qui ne sait même pas ce qu’est un hectare, il ne reste que peu de choix individuels car, comme à l’accoutumée, si la science économique nous dit exactement comment régler le problème dans un minimum de douleurs, sa pratique est si peu répandue en France qu’il n’y a aucune chance que le problème soit résolu.

Il existe cependant un espoir qui est de transformer le lait en un autre produit à forte valeur ajoutée.

Car, comme le rappelait Europe 1 en août 2016, à Beaufort, dans ma Savoie natale, le secteur laitier ne connaît pas la crise.

« Dans les Alpes du Nord, grâce à des filières fromagères de qualité, les producteurs bénéficient depuis plus de vingt ans d’un prix du lait nettement plus élevé que les autres producteurs français : en 2016, les producteurs gagnaient 840 euros la tonne. Pierre Simon possède une ferme dans le village de Villars-sur-Doron. Ses 30 vaches laitières sont en alpage, à 2000 mètres d’altitude, au col des Saisies. Tous les matins, il monte les traire et récupère environ 400 litres par jour qu’il vend à un prix qui ferait rêver tous les producteurs laitiers : « Aujourd’hui, on avoisine les 840 euros la tonne » quand Lactalis achète 260 euros les mille litres. C’est vrai qu’au niveau du litre de lait, il y a un énorme écart, concède l’éleveur. Aujourd’hui, on est quasiment à trois fois leur prix. »

Si l’on remonte 20 ans en arrière, sous le régime des quotas laitiers européens, alors que « la moyenne nationale se situait à 308 euros pour 1000 litres, le prix payé aux éleveurs en zone de production de l’Emmental et de la tomme de Savoie s’élevait à 387 euros. Il frôlait les 450 euros en zone du Reblochon et de l’Abondance, et atteignait les 542 euros en zone de Beaufort ! » (ici)

 

Kolkhoze ou marques ?

Selon Europe 1, le « secret est un fonctionnement en coopératives ».

Pourquoi pas en kolkhoze, tant qu’on y est ? Il n’y a rien de plus faux.

Le secret est le bénéfice du label Beaufort. Le « prince des gruyères » est produit sur un territoire circonscrit à 410 000 hectares – soit 4100 km2 (si Bruno me lit), et cette « marque » garantit que la concurrence est limitée à cette zone. La transformation est d’autant plus limitante qu’il faut environ 10 kilogrammes de lait cru pour élaborer un kilogramme de fromage.

Encore plus confidentiel, le Tamié n’est produit qu’avec le lait de six fermes, et en quantité limitée à moins de 200 tonnes par an. L’abbaye du même nom possède la marque.

À Rungis, le Beaufort et le Reblochon se vendent à pratiquement 10 fois le prix du lait ordinaire (ici et ), compte tenu de la quantité de lait qu’il faut pour produire un kilogramme de fromage.

Les AOC, AOP et IGP jouent le même rôle qu’une marque de luxe en restreignant la production potentielle. L’idée n’est pas nouvelle. Les Grecs et les Romains utilisaient déjà un tel stratagème pour vendre leurs produits à des prix plus élevés que leurs concurrents (ici et ).

Pour l’État, établir des AOC ne coûte quasiment rien, et la défense des droits de propriété intellectuelle est dans ses prérogatives régaliennes.

Autant il est illusoire d’espérer rapidement transformer l’économie française pour la ramener au niveau de l’Irlande, autant il serait probablement relativement politiquement expédiant de convaincre la puissance publique de créer – ou de simplement reconnaître – des zones nouvelles – ou déjà existantes – et de donner aux producteurs un moyen de rentabiliser leurs produits en intégrant verticalement leurs productions.

Le fromage n’est évidemment qu’un exemple parmi d’autres dérivés possibles, et de très nombreux agriculteurs font déjà d’énormes efforts pour essayer d’écouler leurs produits à travers des coopératives.

Mais contrairement à ce qu’en pense Europe 1, ce n’est pas la panacée, à moins que la coopérative en question bénéficie d’une marque reconnue : il est illusoire de vouloir faire mieux que Lactalis ou Danone. Le « secret » n’est pas dans l’industrialisation, mais dans la différentiation des produits : personne ne peut faire du Beaufort en dehors de la zone.

Ce ne serait pas une solution instantanée – il a fallu des décennies pour que Beaufort établisse sa suprématie économique – mais elle aurait le mérite de ne pas distordre le marché une fois de plus en créant de faux droits, tout en flouant le consommateur et le contribuable.

Nucléaire, éolien : quelle évolution du discours médiatique en France ?

Par Carine Sebi et Frédéric Bally.

 

Le discours médiatique est non seulement un reflet, mais aussi un producteur d’opinions. Ayant un contact direct avec les décideurs politiques, la presse sélectionne et échantillonne à partir d’une gamme d’informations et de sources possibles.

Par là, elle joue un rôle clé dans l’amplification sociale des risques ou des bénéfices ; les débats autour de la place du nucléaire et des énergies renouvelables dans le mix énergétique ne fait pas exception en la matière. Dans ce contexte, nous nous sommes intéressés, dans le cadre des travaux de la Chaire Energy for Society de Grenoble École de Management, aux discours émergents dans la presse française sur l’énergie nucléaire et éolienne, et leur évolution dans le temps.

Nous avons pour cela analysé plus de 34 000 articles de presse nationale (de journaux comme Le Monde, Le Figaro, Les Échos ou Libération, à la fois les plus vendus et représentatifs d’une diversité de bords politiques) publiés entre 2005 (quand l’énergie éolienne commence à être déployée en France) et 2022. Ce travail a été articulé en deux temps : une analyse textuelle algorithmique pour faire émerger les grandes classes de mots par période ; et une analyse qualitative au travers des citations d’articles les plus représentatives par classe pour mieux comprendre leur contexte de production, et donc l’image de ces infrastructures.

Nombre d’articles mentionnant au moins deux fois le terme nucléaire ou éolien faisant l’objet de notre analyse. En termes de volume, si le nombre d’articles de presse mentionnant (au moins deux fois) l’éolien ne représente en moyenne que 10 % des volumes d’article sur le nucléaire, celui-ci a été multiplié par 3,5 fois entre la période 1 et la période 3, contre 1,6 fois pour le nucléaire. 

Jusqu’en 2010, la sûreté du nucléaire en question

De 2005 à 2010, de nombreux articles évoquent la « sûreté du nucléaire » à travers des mouvements de contestation portés par les manifestations d’opposants tels que « Sortir du nucléaire », pour dénoncer les risques encourus par l’utilisation de l’énergie nucléaire, faisant référence à la catastrophe de Tchernobyl ou à la gestion des déchets radioactifs avec le projet d’enfouissement à Bure.

Évolution des classes de mots émergentes sur le corpus de presse nucléaire de 2005 à 2022. Celles relatives à la géopolitique ont ici été retirées pour simplifier la lecture. Le pourcentage associé à chaque classe correspond au poids des mots associés et utilisés dans les articles de la période concernée. Pour plus de détails voir exemple de mots associés à la classe « mix énergétique » dans les nuages de mots de la figure 3. 

« Le 25 janvier 2010, des militants de Greenpeace bloquaient ainsi par trois fois dans la Manche un convoi d’uranium en provenance de Pierrelatte. Seize personnes avaient été interpellées à l’issue de l’opération. » (Le Monde, 17 février 2010)

En 2011 avec l’accident de Fukushima-Daishi au Japon, cette question de la sûreté s’intensifie dans la presse et s’invite dans le débat politique en vue des présidentielles de 2012. Si la transparence au sujet de la gestion des centrales et des incidents locaux est accrue, la production électronucléaire n’est pas remise en cause.

« François Hollande, qui jugeait au printemps qu’un candidat socialiste ne peut prétendre sortir du nucléaire, s’engage à réduire de 75 % à 50 % la production d’électricité d’origine nucléaire à l’horizon 2025. » (Le Monde,15 septembre 2011)

 

Malgré les doutes, une relance franche du nucléaire

Les critiques émises quant à la construction de l’EPR de Flamanville qui accuse des retards et une hausse significative de son coût prennent de l’ampleur sur la dernière période 2017-2022.

« Un nouveau retard pour l’EPR de Flamanville et 400 millions d’euros de coût supplémentaire. EDF annonce ce mercredi de nouveaux retards et surcoûts pour le réacteur nucléaire EPR à la suite des problèmes de soudures rencontrés sur le chantier. » (Libération, 19 décembre 2022)

Le sujet du nucléaire prend une place de plus en plus importante dans l’« agenda politique » sur la dernière période, marquée par deux élections présidentielles. Si Emmanuel Macron fraîchement élu promet d’exécuter la promesse d’Hollande de fermer Fessenheim, son deuxième mandat débute par une crise énergétique qui l’aide à justifier son choix d’une relance franche du nucléaire.

« Pour faire face à la crise, il nous faudra une électricité puissante, pilotable, disponible à la demande et seul le nucléaire peut apporter ces solutions. » (Le Figaro, 22 septembre 2022)

Dans le même temps, on note la disparition de la classe « sûreté nucléaire », quand bien même la période se termine avec la crainte d’une catastrophe nucléaire de la centrale de Zaporijia depuis le début de la guerre en Ukraine.

 

L’émergence médiatique du renouvelable

Intéressons-nous maintenant à l’éolien.

Du fait de la forte dépendance aux énergies fossiles et d’un mix électrique déjà décarboné (en très grande partie grâce au nucléaire), la part des renouvelables (hors hydraulique) est faible en France jusqu’en 2010 (1,1 % de la production primaire d’énergie éolienne en France en 2008).

Évolution des classes de mots émergentes sur le corpus de presse éolien, de 2005 à 2022.

Les rares articles sur le sujet dans la presse nationale (environ 100 par an contre 1500 par an pour le nucléaire dans les mêmes journaux sur la période 2005-2010) mettent surtout en avant « le retard français » en matière de développement des renouvelables, dont l’éolien.

« La France reste loin derrière l’Allemagne en termes de puissance installée en éolien. » (Les Échos, 2 juillet 2008)

Ce retard français perd de l’importance entre 2011 et 2016 puis disparaît, malgré l’annonce d’une amende pour la France de 500 millions d’euros en novembre 2022, causée justement par son retard dans le développement des énergies renouvelables par rapport aux objectifs de la Commission européenne.

 

Croissance des contestations sur l’éolien

Notons, par comparaison avec le nucléaire, l’apparition d’une classe « contestations locales », qui prend de l’ampleur à mesure que les projets éoliens se développent dans le temps.

Dès 2005, l’éolien est contesté à la fois par les riverains et les professionnels (pêche, notamment offshore) qui dénoncent le développement anarchique de projets.

Entre 2011 et 2016, les contestations s’intensifient et s’étendent aux élus, l’éolien devient un objet de crispation dans les instances de consultation et de concertation locales.

« Tout un symbole : le projet de construction de ce qui pourrait être le premier parc éolien en mer de France divise élus, associations, riverains, pêcheurs. » (Libération, 7 mai 2011)

L’objet des résistances n’évolue pas sur la période suivante : impacts négatifs sur les paysages et la biodiversité, nuisances sonores et faible productivité. La sensibilité du public s’est accrue, poussée par quelques contestations emblématiques comme celle lancée en 2020 par Stéphane Bern contre l’éolien.

« La France ne peut se permettre, en plus, une politique éolienne meurtrière pour nos paysages et nos pêcheurs, inutile pour la défense du climat et bientôt insupportable pour les finances des particuliers comme pour celles de l’État. » (Le Figaro, 6 mai 2020, tribune de S. Bern)

Les contestations sont alimentées par des recours juridiques – soit par des associations, soit par des élus – contre des projets en cours de construction ou déjà réalisés et des demandes d’annulation de permis de construire.

 

Éolien vs nucléaire : polarisation du débat

Nuage de mots de la classe « mix énergétique » sur la période 2017-20022 corpus nucléaire (à gauche) et éolien (à droite). À noter que les mots renouvelable ou éolien apparaissent dans le corpus nucléaire de gauche (et inversement nucléaire pour le corpus éolien de droite) étant donné que le mix énergétique contient ces deux énergies et qu’ils sont souvent associés. 

L’analyse du corpus de texte associé aux deux énergies révèle l’apparition d’une classe majeure et récurrente au cours du temps (qui s’intensifie dans le cas de l’éolien) : celle du « mix énergétique ». Les deux énergies, décarbonées, contribuent au même titre à la transition énergétique et l’atteinte de l’objectif de neutralité carbone d’ici à 2050.

« Il s’agit de compenser rapidement le déclin de la production de pétrole et de gaz de la mer du Nord pour atteindre les objectifs ambitieux de réduction des émissions de CO2 qui passe par le développement du nucléaire et des énergies renouvelables éolien et solaire. » (Le Monde, 25 septembre 2008)

Les annonces gouvernementales à partir de 2011 remettent en question l’importance du nucléaire et de nombreux articles présentent l’éolien comme un élément essentiel de la transition énergétique souhaitée par l’État français et l’Europe.

 

Retour en grâce du nucléaire

Le point de bascule survient après 2017 avec le retour en grâce du nucléaire : si l’éolien est toujours vu comme nécessaire, ses faiblesses – qui sont celles des renouvelables en général (intermittence, faible productivité, impact sur le paysage) – sont de plus en plus récurrentes. Ces difficultés sont souvent mises en perspective avec l’Allemagne qui a déployé massivement les renouvelables en diminuant progressivement le nucléaire, mais augmenté ses consommations de gaz naturel et de charbon pour pallier les manques.

« D’autant que l’Allemagne, où les énergies renouvelables progressent, ne pourra pas remplir son objectif de réduction de 40 % de ses émissions de gaz à effet de serre en 2020 par rapport à 1990 en raison de sa forte consommation de charbon. » (Le Monde, 16 novembre 2017)

Le nucléaire tend, lui, à s’imposer comme la solution privilégiée, avec toujours en toile de fond la comparaison et la critique implicite de l’éolien ou des ENR. Il est promu comme une énergie complétant l’intermittence des énergies renouvelables.

« Autant les pro-gaz que les pro-nucléaire s’entendent pour faire valoir que les énergies renouvelables éolien et solaire déjà labellisées par la commission souffrent de production intermittente et ne permettront pas dans les prochaines années de fournir une électricité à bas prix et dont on peut maîtriser la production : nous devrons donc avoir recours au nucléaire. » (Le Figaro, 1 janvier 2022)

 

Discours sur le nucléaire : une exception française ?

De nombreux scénarios prospectifs démontrent qu’avec ou sans énergie nucléaire, il est nécessaire d’augmenter en France nos capacités de production d’énergie renouvelable. À ce titre, la décentralisation de la production d’énergie renouvelable conduit à la multiplication des projets d’aménagement et donc à l’augmentation mécanique des points de friction avec la société civile – dont la sensibilité s’est accrue ces dernières années.

Le « permis social d’opération » est devenu aujourd’hui une question centrale dans l’élaboration de la stratégie des opérateurs d’infrastructures énergétiques renouvelables comme l’éolien. D’après notre analyse, l’opposition à ce dernier s’intensifie et se structure, à l’inverse du nucléaire qui bénéficie dans le même temps d’un regain d’intérêt (outre les références à l’EPR).

[Plus de 85 000 lecteurs font confiance aux newsletters de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

L’analyse des articles de presse sur ces 17 dernières années reflète l’attachement historique du pays au nucléaire. La stratégie énergétique annoncée dernièrement par le président l’inscrit dans le long terme.

Le nucléaire a su maintenir en France une place dominante dans le débat énergétique malgré des stigmates forts (déchets, retards de l’EPR ou accident de Fukushima). Un phénomène qui relate la prépondérance persistante (dans les médias) des certitudes et du discours technique des « nucléocrates ».

 

 

Carine Sebi, Professeure associée et coordinatrice de la chaire « Energy for Society », Grenoble École de Management (GEM) et Frédéric Bally, Post-doctorant, Grenoble École de Management (GEM)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

La fusion nucléaire pour sortir des énergies fossiles ?

Grand économiste du début du XXe siècle, Joseph Schumpeter fût le premier à proposer une vision dynamique de la croissance économique. Elle s’appuie sur l’idée de la « destruction créatrice » énonçant que toute innovation détruisant la technologie précédente est source de croissance.

La société préindustrielle était une société d’énergies renouvelables.

On se chauffait, on cuisinait et on s’éclairait au bois (biomasse), on moulait le grain grâce à l’hydraulique (moulin à eau) et l’éolien (moulin à vent), on se déplaçait sur les mers à la force du vent et à terre sur le dos d’un cheval nourri à l’avoine (biomasse). Hélas, cette société fut incapable d’offrir à nos aïeux la croissance économique nécessaire à leur développement.

Il s’agissait là de renouvelables « non technologiques ».

Aussi, durant une bonne partie du XIXe siècle, de grands scientifiques tentèrent de « techniciser » les énergies renouvelables : pile de Volta (batterie), électrolyse de Nicholson (production d’hydrogène vert), voiture électrique de Stratingh, pile à combustible de Schönbein, effet photoélectrique de Hertz (ancêtre du panneau photovoltaïque), utilisation d’huile d’arachide et d’alcool (bicarburants) dans les premiers moteurs thermiques.

Bien que la plupart des technologies renouvelables aient été découvertes avant la fin du XIXe siècle, nos illustres ancêtres ne les ont jamais industrialisées, considérant le charbon, puis le pétrole et le gaz bien plus efficaces pour assurer leur développement. Dans le jargon Schumpeterien, les énergies fossiles apparaissent donc comme la « destruction créatrice » des énergies renouvelables.

La croissance verte cherche à inverser le processus et à faire des énergies renouvelables la destruction créatrice des fossiles : mission impossible.

Fut-elle propre et renouvelable, une énergie non pilotable comme le solaire ou l’éolien (réserves infinies à l’échelle humaine) ne peut être destruction créatrice d’une énergie pilotable, même si cette dernière n’est pas renouvelable (consommatrice de ressources naturelles finies) et émettrice de CO2. Seule une énergie pilotable, renouvelable et non émettrice de déchets pourrait être destruction créatrice des fossiles.

 

Mais cette énergie existe-t-elle vraiment ?

Le nucléaire de seconde (réacteurs actuels à eau pressurisée et à neutrons lents) et de troisième (EPR) génération est pilotable et n’émet pas ou très peu de CO2.

En revanche, il est consommateur de ressources naturelles (uranium235) contenues en quantités limitées dans l’écorce terrestre et il génère des déchets radioactifs (uranium appauvri et plutonium) qu’il faudra traiter, voire entreposer durant plusieurs millénaires dans des stockages géologiques. Il ne coche donc pas les cases de la destruction créatrice.

Le nucléaire de quatrième génération (surgénération à neutrons rapide) utilise du plutonium239 (n’existant pas à l’état naturel, mais fabriqué directement dans le réacteur à partir d’uranium238) comme matériau fissile. L’uranium238 étant 140 fois moins rare que l’uranium235, le combustible nucléaire deviendrait de ce fait pratiquement inépuisable à l’échelle humaine. À ce jour, il n’existe que trois surgénérateurs : deux en Russie de 560 et 820 MW et un expérimental de 20 MW en Chine près de Pékin. La France fut pourtant pionnière en la matière avec le prototype Superphénix (puissance de 1,2 GW). Mis en service en 1986, il fût définitivement abandonné par le gouvernement de gauche plurielle de Lionel Jospin. Superphénix renaquit de ses cendres en 2006 avec le projet ASTRID (600 MW). Avec les mêmes arguments, les Verts eurent la peau d’ASTRID en 2018.

 

Petit frère de l’uranium238 avec des ressources naturelles 4 fois supérieures, le thorium232 est un autre élément se prêtant à la surgénération nucléaire. S’il n’existe pas aujourd’hui de surgénérateur au thorium dans le monde, la Chine vient d’annoncer la mise en service d’un prototype expérimental. Pour être développée à une échelle industrielle, cette filière prometteuse nécessitera encore de nombreuses années de recherches et d’investissements. La France, dont le granite de Quintin en Bretagne contient d’abondantes réserves de thorium, n’a malheureusement aujourd’hui aucun projet de surgénération au thorium dans ses cartons.

 

Le Graal de la perfection se trouve dans le cœur du soleil

Une fois de plus, l’Europe obsédée par un « Green Deal » purement moral fait fausse route.

Alors que les réacteurs à neutrons rapides français ont été reportés aux calendes grecques, les grandes puissances nucléaires (Chine, Russie, États-Unis, Inde) s’engagent sur cette voie qui coche presque toutes les cases de la destruction créatrice des fossiles : ressources pratiquement infinies (et donc renouvelables) et bien moins de déchets hautement radioactifs.

Le Graal de la perfection se trouve dans le cœur du soleil : c’est la fusion nucléaire. Alors que la fission (classique ou surgénération) cherche à produire de l’énergie en cassant un gros atome fissile (uranium, plutonium, thorium), la fusion cherche au contraire à combiner deux atomes légers, (deux isotopes de l’hydrogène – deutérium et tritium) pour produire un atome plus lourd (de l’hélium) tout en libérant des neutrons.

Comparée à tous ses confrères énergétiques, la fusion nucléaire coche toutes les cases de l’énergie parfaite : elle est pilotable et n’émet pas de déchets (l’hélium n’est pas radioactif). Par ailleurs, compte tenu des réserves quasi illimitées de deutérium dans l’eau de mer et des quantités substantielles de tritium pouvant être produites par irradiation du lithium, la disponibilité en combustibles serait assurée pour plusieurs dizaines de milliers d’années. La fusion nucléaire pourrait donc être considérée à l’échelle humaine comme une énergie renouvelable. Enfin, dans la mesure où il ne s’agit pas d’une réaction en chaîne, un dysfonctionnement du réacteur arrête immédiatement le processus. La fusion élimine toutes les externalités négatives de la fission : ressources, déchets et risque d’accident majeur.

Installé près de Cadarache dans la vallée de la Durance, le projet ITER vise à démontrer la possibilité de produire de l’électricité nucléaire à partir de la fusion. ITER pourrait libérer pour quelques millénaires l’humanité de sa geôle énergétique, pérenniser la société de croissance et renvoyer aux oubliettes les passions tristes des collapsologues décroissantistes.

Hélas, les chiffres parlent d’eux-mêmes : depuis dix ans, l’humanité a investi 5000 milliards de dollars dans les renouvelables contre moins de 20 milliards de dollars dans ITER. Sans commentaires !

❌