Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

Contrepoints fait une pause

Chers lecteurs, chers libéraux,

Les dernières années, marquées par l’effondrement des partis de gouvernement, la recomposition de la scène politique et la pandémie de covid, ont été une période de forte mutation du paysage intellectuel et idéologique français. De nouvelles lignes de fracture ont émergé, le militantisme politique traditionnel est moribond, et le milieu libéral français, si optimiste en 2016, n’a pas été préservé.

Les habitudes de consommation des médias ont aussi changé. Après un rebond lors de la folie des confinements, l’industrie a connu un fort déclin, et les réseaux sociaux sont désormais la principale source d’information. À cet égard, l’essor de TikTok est remarquable.

Contrepoints, qui se situe au carrefour de ces transformations, n’a pas été épargné. Notre levée de fonds de fin d’année n’a pas donné les résultats escomptés, et notre formule ne trouve pas son public. Nous n’avons pas su régénérer le journal ni prendre le virage des réseaux sociaux. Afin de nous permettre le temps de la réflexion sur la raison d’être de Contrepoints, ainsi que les options stratégiques qui s’offrent à nous pour la mener à bien, j’ai décidé de mettre – temporairement – en pause le journal.

Je vous tiendrai informés des futures évolutions de votre journal, et je vous remercie une fois de plus pour votre soutien et votre fidélité.

Gabriel Attal : déjà dans l’impasse ?

Notre nouveau et brillant Premier ministre se trouve propulsé à la tête d’un gouvernement chargé de gérer un pays qui s’est habitué à vivre au-dessus de ses moyens. Depuis une quarantaine d’années notre économie est à la peine et elle ne produit pas suffisamment de richesses pour satisfaire les besoins de la population : le pays, en conséquence, vit à crédit. Aussi, notre dette extérieure ne cesse-t-elle de croître et elle atteint maintenant un niveau qui inquiète les agences de notation. La tâche de notre Premier ministre est donc loin d’être simple, d’autant que, sitôt nommé,  il se trouve devoir faire face à une révolte paysanne, nos agriculteurs se plaignant d’être soumis à des réglementations bruxelloises absurdes qui entravent leurs activités et assombrissent leur horizon.

Nous allons voir que, par divers signes qui ne trompent pas, tant dans le domaine agricole que dans le domaine industriel, notre pays se trouve en déclin, et la situation devient critique. Le mal vient de ce que nous ne produisons pas suffisamment de richesses et, curieusement, les habitants paraissent l’ignorer. Notre nouveau Premier ministre, dans son discours de politique générale du 30 janvier dernier, n’a rien dit de l’urgence de remédier à ce mal qui affecte la France.

 

Dans le domaine agricole, tout d’abord :

La France, autrefois second exportateur alimentaire mondial, est passée maintenant au sixième rang. Le journal l’Opinion, du 8 février dernier, titre : « Les exportations agricoles boivent la tasse, la souveraineté trinque » ; et le journaliste nous dit : « Voilà 20 ans que les performances à l’export de l’alimentation française déclinent ». Et, pour ce qui est du marché intérieur, ce n’est pas mieux : on recourt de plus en plus à des importations, et parfois dans des proportions importantes, comme on le voit avec les exemples suivants :

On est surpris : la France, grand pays agricole, ne parvient-elle donc pas à pourvoir aux besoins de sa population en matière alimentaire ? Elle en est tout à fait capable, mais les grandes surfaces recourent de plus en plus à l’importation car les productions françaises sont trop chères ; pour les mêmes raisons, les industriels de l’agroalimentaire s’approvisionnent volontiers, eux aussi, à l’étranger, trouvant nos agriculteurs non compétitifs. Aussi, pour défendre nos paysans, le gouvernement a-t-il fini par faire voter une loi qui contraint les grandes surfaces et les industriels à prendre en compte les prix de revient des agriculteurs, leur évitant ainsi le bras de fer auquel ils sont soumis, chaque année, dans leurs négociations avec ces grands acheteurs qui tiennent les marchés. Il y a eu Egalim 1, puis Egalim 2, et récemment Egalim 3. Mais, malgré cela, les agriculteurs continuent à se plaindre : ils font valoir qu’un bon nombre d’entre eux ne parviennent même pas à se rémunérer au niveau du SMIC, et que beaucoup sont conduits, maintenant, au désespoir. 

 

Dans le domaine industriel, ensuite : 

La France est un gros importateur de produits manufacturés, en provenance notamment de l’Allemagne et de la Chine. Il s’est produit, en effet, depuis la fin des Trente Glorieuses, un effondrement de notre secteur industriel, et les pouvoirs publics n’ont pas réagi. La France est ainsi devenue le pays le plus désindustrialisé d’Europe, la Grèce exceptée. Notre production industrielle, calculée par habitant, selon les données de la Banque mondiale (qui incorpore la construction dans sa définition de l’industrie) est faible, comme le montre le tableau ci-dessous :

Nous nous situons en dessous de l’Italie, et nous sommes à 50 % de l’Allemagne. 

Autre signe préoccupant : la France, depuis des années, a une balance commerciale déficitaire, et ce déficit va en s’aggravant, d’année en année :

En 2023, notre déficit commercial a été extrêmement important : 99,6 milliards d’euros. Les commentateurs de la vie politique ont longtemps incriminé des éléments conjoncturels : augmentation du prix du baril de pétrole, baisse des commandes chez Airbus, le Covid-19, etc… Ils ont fini par réaliser que la véritable raison tient à la dégradation de notre secteur industriel.

 

Des pouvoirs publics sans cesse impuissants : 

Les pouvoirs publics, depuis une quarantaine d’années, se sont montrés impuissants à faire face à la dégradation de notre économie : ils ne sont pas parvenus à faire que notre économie puisse assurer le bien être de la population selon les normes qui sont celles des pays les plus avancés. Cela vient de ce qu’ils n’ont pas vu que la cause fondamentale des difficultés que nous rencontrions provenait de la dégradation de notre secteur industriel. Ce qui s’est produit, c’est que nos dirigeants se sont laissés piéger par le cliché qui s’était répandu dans nos sociétés, avec des sociologues fameux comme Alain Touraine, selon lequel une société moderne est une société « postindustrielle », une société « du savoir et de la connaissance » où les productions industrielles sont reportées sur les pays en voie de développement qui ont une main d’œuvre pas chère et corvéable à merci. Jean Fourastié avait formulé « la loi des trois secteurs de l’économie » dans son ouvrage « Le grand espoir du XXe siècle » (Population – 1949) qui connut un succès considérable. Une société, quand elle se développe, passe du secteur agricole (le secteur primaire) au secteur industriel (le secteur secondaire), puis ensuite du secteur industriel au secteur des services (le secteur tertiaire) : on en a conclu qu’une société moderne n’avait plus d’activités industrielles. C’est bien sûr une erreur : le secteur industriel reste toujours présent avec, certes, des effectifs réduits, mais qui sont extrêmement productifs, c’est-à-dire à haute valeur ajoutée par emploi. Nos dirigeants ont donc laissé notre secteur industriel se dégrader, sans broncher, voyant dans l’amenuisement de ce secteur le signe même de la modernisation du pays. Ainsi, on est-on arrivé à ce qu’il ne représente  plus, aujourd’hui, que 10% du PIB : en Allemagne, ou en Suisse, il s’agit de 23 % ou 24 %.

 

Des dépenses sociales phénoménales 

Le pays s’appauvrissant du fait de l’amenuisement de son secteur industriel, il a fallu que les pouvoirs publics accroissent régulièrement leurs dépenses sociales : des dépenses faites pour soutenir le niveau de vie des citoyens, et elles sont devenues considérables. Elles s’élèvent, maintenant, à 850 milliards d’euros, soit 31,5 % du PIB, ce qui est un chiffre record au plan mondial. Le tableau ci-dessous indique comment nous nous situons, en Europe :

Le graphique suivant montre comment nos dépenses sociales se situent par rapport aux autres pays européens :

La corrélation ci-dessus permet de chiffrer l’excès actuel des dépenses sociales françaises, comparativement aux autres pays de cet échantillon : 160 milliards d’euros, ce qui est un chiffre colossal, et ce sont des dépenses politiquement impossibles à réduire en démocratie car elles soutiennent le niveau de vie de la population. 

 

Un endettement du pays devenu structurel :

Autre conséquence de l’incapacité des pouvoirs publics à maitriser la situation : un endettement qui augmente chaque année et qui est devenu considérable. Faute de créer une richesse suffisante pour fournir à la population un niveau de vie correct, l’Etat recourt chaque année à l’endettement et notre dette extérieure n’a pas cessé d’augmenter, comme l’indique le tableau ci-dessous :

Notre dette dépasse à présent le montant du PIB, et les agences de notation commencent à s’en inquiéter car elles ont bien vu qu’elle est devenue structurelle. Le graphique ci-dessous montre combien est anormal le montant de notre dette, et il en est de même pour la Grèce qui est, elle aussi, un pays fortement désindustrialisé.

 

 

Quelle feuille de route pour Gabriel Attal ?

Notre jeune Premier ministre a une feuille de route toute tracée : il faut de toute urgence redresser notre économie et cela passe par la réindustrialisation du pays.

Nous avons, dans d’autres articles, chiffré à 350 milliards d’euros le montant des investissements à effectuer par nos entreprises pour porter notre secteur industriel à 17 % ou 18 % du PIB, le niveau à viser pour permettre à notre économie de retrouver ses grands équilibres. Ce montant est considérable, et il faudra, si l’on veut aller vite, des aides importantes de l’Etat, comme cela se fait actuellement aux Etats Unis avec les mesures prises par le Président Joe Biden. Nous avons avancé le chiffre de 150 milliards d’euros pour ce qui est des aides à accorder pour soutenir les investissements, chiffre à comparer aux 1.200 milliards de dollars du côté américain, selon du moins les chiffres avancés par certains experts. Il faut bien voir, en effet, que les industriels, aujourd’hui, hésitent à investir en Europe : ils ont avantage à aller aux Etats-Unis où existe l’IRA et où ils bénéficient d’une politique protectionniste efficace. 

Emmanuel Macron a entrepris, finalement, de réindustrialiser le pays. On notera qu’il a fallu que ce soit la crise du Covid-19 qui lui fasse prendre conscience de la grave désindustrialisation de notre pays, et il avait pourtant été, précédemment, ministre de l’économie !  Il a donc  lancé, le 12 octobre 2021, le Plan « France 2030 », avec un budget, pour soutenir les investissements, de 30 milliards d’euros auquel se rajoutent 24 milliards restants du Plan de relance. Ce plan vise à « aider les technologies innovantes et la transition écologique » : il a donc un champ d’application limité.

Or, nous avons un besoin urgent de nous réindustrialiser, quel que soit le type d’industrie, et cela paraît échapper aux autorités de Bruxelles qui exigent que l’on n’aide que des projets bien particuliers, définis selon leurs normes, c’est à dire avant tout écologiquement corrects. Il faudra donc se dégager de ces contraintes bruxelloises, et cela ne sera pas aisé. La Commission européenne sait bien, pourtant, que les conditions pour créer de nouvelles industries en Europe ne sont guère favorables aujourd’hui : un coût très élevé de l’énergie, et il y a la guerre en Ukraine ; et, dans le cas de la France, se rajoutent un coût de la main d’œuvre particulièrement élevé et des réglementations très tatillonnes. Il va donc falloir ouvrir très largement  le champ des activités que l’on va aider, d’autant que nous avons besoin d’attirer massivement les investissements étrangers, les entreprises françaises n’y suffisant pas.

Malheureusement, on va buter sur le fait que les ministres des Finances de la zone euro, lors de leur réunion du 18 décembre dernier, ont remis en vigueur les règles concernant les déficits budgétaires des pays membres et leurs dettes extérieures : on conserve les mêmes ratios qu’auparavant, mais on en assouplit l’application.

Notre pays va donc devoir se placer sur une trajectoire descendante afin de remettre ses finances en ordre, et, ceci, d’ici à 2027 : le déficit budgétaire doit être ramené en dessous de 3 % du PIB, et la dette sous la barre des 60 % du PIB. On voit que ce sera impossible pour la France, d’autant que le taux de croissance de notre économie sur lequel était bâti le budget de 2024 était trop optimiste : Bruno le Maire vient de nous le dire, et il a annoncé que les pouvoirs publics allaient procéder à 10 milliards d’économies, tout de suite.

L’atmosphère n’est donc pas favorable à de nouvelles dépenses de l’Etat : et pourtant il va falloir trouver 150 milliards pour soutenir le plan de réindustrialisation de la France ! Où notre Premier ministre va-t-il les trouver ? C’est la quadrature du cercle ! Il est donc dos au mur. Il avait dit aux députés qu’il allait œuvrer pour que la France « retrouve pleinement la maîtrise de son destin » : c’est une bonne intention, un excellent projet, mais, malheureusement, il n’a pas d’argent hélicoptère pour le faire.

Jean-Marc Jancovici au Sénat : omissions et approximations

Je viens d’écouter l’audition d’une petite heure de Jean-Marc Jancovici au Sénat, qui a eu lieu le 12 février dernier dans le cadre de la « Commission d’enquête sur les moyens mobilisés et mobilisables par l’État pour assurer la prise en compte et le respect par le groupe TotalEnergies des obligations climatiques et des orientations de la politique étrangère de la France ».

Beaucoup d’informations exactes, qui relèvent d’ailleurs bien souvent du bon sens, mais aussi quelques omissions et approximations sur lesquelles je souhaite revenir ici.

Je tiens à préciser d’entrée que j’ai beaucoup de respect pour Jean-Marc Jancovici, dont j’ai vu un nombre incalculable de vidéos sur YouTube, notamment la série de huit cours donnés à l’école des Mines. J’ai aussi lu avec intérêt le livre résumant Le plan de transformation de l’économie française publié par le Shift Project, think tank qu’il a cofondé.

Entendons-nous déjà sur le constat qu’on peut facilement partager avec lui avant d’en venir aux différents points d’achoppement.

Oui, il est urgent d’amener à zéro les émissions nettes de gaz à effet de serre au maximum, et le plus vite possible.

Oui, en l’état, il semble impossible de limiter la hausse moyenne des températures à 1,5 °C au-dessus du niveau préindustriel.

Et oui, nous semblons bien partis pour dépasser la limite des 2°C.

La question comme toujours demeure : « Que faire et comment ? ». Comme à son habitude, Jean-Marc Jancovici prêche d’abord et avant tout pour une sobriété massive en France, la « pauvreté choisie » selon ses mots, afin de montrer l’exemple au reste du monde dans l’espoir de l’inspirer, « son pari pascalien », dit-il.

C’est déprimant. Si la sobriété peut avoir un rôle à jouer, elle ne suffira pas à elle seule. Le progrès technologique accéléré par l’économie de marché ne trouve pas grâce à ses yeux, c’est son angle mort.

Mes remarques.

 

Oubli d’une pompe à carbone amenée à jouer un rôle majeur

Je note déjà une erreur scientifique dès sa prise de parole, ce qui est assez surprenant de sa part. Il explique qu’il n’y a que deux façons pour le CO2 de quitter l’atmosphère : soit en étant absorbé par l’océan par « équilibrage de pressions partielles » ; soit en étant transformé, avec d’autres intrants, en biomasse suite à l’action de la photosynthèse des plantes.

Il oublie un phénomène qui a son importance, on va le voir, l’érosion chimique des roches silicatées : quand le CO2 de l’atmosphère se mêle à la pluie pour produire de l’acide carbonique (H2CO3), qui va ensuite réagir avec ces roches pour donner d’un côté un minéral carbonaté (contenant les atomes de carbone) et de l’autre du sable en général (contenant les atomes de silicium). Les minéraux carbonatés ainsi produits sont ensuite emportés par les rivières et fleuves jusqu’au fond des océans où il se déposent. Leurs atomes de carbone sortent alors de l’atmosphère pour le très long terme. C’est ce qu’on appelle le cycle lent du carbone.

Si Jean-Marc Jancovici n’en parle pas, c’est sans doute car, si sur le temps géologique long il peut induire des changements climatiques très marqués, à notre échelle temporelle il n’a que peu d’impact : on considère qu’il retire de l’atmosphère chaque année environ 300 millions de tonnes de CO2, et il est contrebalancé par les émissions de CO2 des volcans qui rejettent, eux, environ 380 millions de tonnes de CO2 chaque année au maximum. Ce cycle géologique semble donc ajouter en net du carbone dans l’atmosphère, à hauteur de 80 millions de tonnes de CO2 par an, soit 0,2 % des émissions de CO2 d’origine humaine (autour de 40 milliards de tonnes/an).

Un oubli pardonnable donc. Mais cela traduit en fait la courte vue de Jean-Marc Jancovici, car ce phénomène, l’érosion chimique des roches silicatées, représente a priori le moyen le plus économique de capturer et stocker pour le très long terme et à très grande échelle le CO2 en excès dans l’atmosphère.

S’il nous faut absolument cesser d’émettre des gaz à effet de serre au plus tôt, l’inertie de nos économies fait que cela prendra du temps, même si les solutions sont réelles. Nous allons donc continuer à pourrir la planète pendant encore un certain temps. Il est urgent de réfléchir à comment retirer pour de bon l’excès de carbone dans l’atmosphère, à hauteur de 1500 milliards de tonnes de CO2, pour réparer le mal déjà commis, et limiter au maximum la casse.

Un certain nombre de solutions sont envisagées.

Celles consistant à embrasser la photosynthèse sont difficiles à généraliser à grande échelle, on manque de place pour ajouter assez d’arbres par exemple, et quand bien même, on n’est pas sûr de pouvoir les maintenir en état dans un monde en réchauffement. D’autres pensent aux algues, mais le résultat est difficile à mesurer. L’autre classe de solution est la capture du CO2 ambiant grâce à des machines et son stockage en sous-sol.

Le problème de toutes ces solutions, quand elles sont pensées pour être durables, est in fine leur scalability et leur coût. Elles sont beaucoup trop chères, on peine à voir comment tomber en dessous des 100 dollars par tonne de CO2 capturé et séquestré. Comme ce CO2 capturé ne rapporte rien directement, il s’agit en fait d’une taxe que les contribuables du monde doivent se préparer à payer. Avec 1500 milliards de tonnes de CO2 en excès, un coût de 100 dollars par tonne et plus rend tout simplement l’opération inconcevable, on parle d’environ deux fois le PIB mondial ! Même réparti sur 20 ans, on tombe à 10 % du PIB mondial par an, une taxe bien trop lourde.

Démultiplier l’érosion chimique de roches silicatées, notamment l’olivine, semble offrir un moyen de faire tomber ce coût à 5 dollars par tonne, tel que le détaille cette projection.

L’olivine est assez abondante et accessible sur Terre pour capturer les 1500 milliards de tonnes de CO2 en excès dans notre atmosphère. L’idée consiste à extraire ces roches, les concasser en fine poudre à déverser dans la mer où leur constituant principal, la fostérite de formule Mg2SiO4, réagira avec l’acide carbonique de l’océan (formé par réaction de l’eau avec le CO2) pour précipiter notamment du bicarbonate de magnésium Mg2(HCO3qui pourra se déposer au fond des mers, séquestrant au passage ses atomes de carbone. Bien sûr, il faudra pour cela beaucoup de machines qui utiliseront possiblement des carburants hydrocarbonés, (même pas en fait à terme), mais leur impact sera largement compensé par le CO2 séquestré. On parle là d’un chantier vertigineux, sur au moins vingt années, mais à 5 dollars par tonne de CO2, cela devient une taxe digeste à la portée de l’humanité.

Ainsi, plutôt que d’être passablement ignorée comme l’a fait Jean-Marc Jancovici, cette pompe à CO2 méritait au contraire d’être citée, et devrait faire l’objet de beaucoup d’attention, d’études complémentaires et expérimentations, préalables aux investissements à suivre.

 

Non, notre siècle ne sera pas un monde d’énergie rare

Jean-Marc Jancovici part du postulat que nous entrons dans une ère de pénurie d’énergie du fait du tarissement de la production de pétrole et de gaz, et de la nécessité absolue de se passer des énergies fossiles pour minimiser la catastrophe climatique.

De là, il prévoit que nous ne pourrons plus produire autant d’engrais aussi bon marché qu’aujourd’hui, ce qui veut dire que la nourriture sera plus rare et plus chère. Couplé à la hausse des coûts du transport, il en conclut qu’il deviendra prohibitif d’approvisionner en nourriture une ville comme Paris (deux millions d’habitants) et qu’à l’avenir, la taille idéale d’une ville serait plutôt de l’ordre de celle de Cahors (20 000 habitants).

Mais pourquoi s’arrêter en si bon chemin ? Si ce postulat et les premières étapes du raisonnement sont valides pour ce siècle, alors il y a bien pire à prévoir que de voir Paris se vider et fleurir des Cahors.

Continuons ce reductio ad absurdum.

Si l’on pense véritablement qu’on ne pourra pas produire autant de nourriture qu’aujourd’hui, que les rendements agricoles vont baisser drastiquement, et que la nourriture coûtera bien plus cher à l’avenir, alors le premier des problèmes n’est pas le redimensionnement des villes. Non, c’est d’abord et avant tout le fait que la Terre ne pourra pas faire vivre huit milliards d’êtres humains. Ce qui voudrait dire que des milliards d’entre nous sont d’ores et déjà condamnés à mourir de faim au XXIe siècle ! Autant que Jean-Marc Jancovici le dise clairement !

Ce bien sinistre tableau ne tient pas la route, nous allons voir pourquoi.

Mais demandons-nous d’abord quelles sont les raisons profondes derrière le postulat initial de Jean-Marc Jancovici ?

Il considère que d’une part, pour satisfaire à tous les usages électrifiables, on ne parviendra pas à développer assez vite les infrastructures de production d’électricité pour en produire en quantité suffisante à prix abordable. Car construire du nucléaire prend trop de temps, et le renouvelable souffre d’après lui de problèmes rédhibitoires : intermittence, contrainte sur les matériaux et les sols, et enfin prix acceptables envisagés non crédibles, car permis justement par la dépendance aux machines fonctionnant aux carburants fossiles, dont il faudrait se débarrasser.

D’autre part, il explique qu’il n’y a pas de solution alternative aussi abordable que les énergies fossiles pour les usages qu’on ne pourra pas électrifier, notamment l’aviation long courrier et le transport maritime en haute mer. Annonçant ainsi la fin de la mondialisation et les joies du voyage en avion.

Ce raisonnement a tenu un temps. Mais des tendances de fond, dont on pouvait effectivement encore douter jusqu’il y a quelques années, sont aujourd’hui impossibles à ignorer, et nous font dire que le XXIe siècle sera bien au contraire un monde d’abondance énergétique !

Ces tendances, les voici :

• Chute continue du coût de l’énergie solaire photovoltaïque (PV), et en parallèle, la croissance exponentielle des déploiements, même trajectoire pour les batteries qui permettent notamment la gestion de l’intermittence sur le cycle diurne (jour/nuit).

• De nouvelles études montrent qu’il y aura assez de matériaux pour assurer la transition énergétique.

• Du fait du premier point, il sera possible de produire à grande échelle des carburants de synthèse carbonés avec le CO2 de l’atmosphère (aux émissions nettes nulles donc) à un tarif compétitif, puis plus bas que les énergies fossiles importées à peu près partout sur Terre d’ici à 2035-2040.

Le dernier point va justement permettre de verdir et faire croître l’aviation et le transport maritime, et de tordre le cou à l’objection du renouvelable abordable seulement du fait de la dépendance aux énergies fossiles. On ne se passera pas des énergies carbonées, mais on fera en sorte qu’elles ne soient plus d’origine fossile.

Détaillons.

 

Chute continue du coût du solaire PV et des batteries

Pour se donner une idée, un mégawatt-heure d’électricité solaire PV coûtait 359 dollars à produire en 2009, on est aujourd’hui autour de 25 dollars/MWh aux États-Unis sur les fermes solaires de pointe.

En avril 2021, on apprenait qu’un chantier en Arabie Saoudite vendra de l’électricité à un prix record mondial de près de 10 dollars/MWh. Il y a toutes les raisons de penser que cela va continuer à baisser au rythme actuel pour encore longtemps, pour les raisons que j’exposais dans cet article (économies d’échelles, loi de Wright, assez de matériaux). Sans surprise, le solaire PV est en plein boom. En 2023 en Europe, c’est l’équivalent en puissance d’une centrale nucléaire par semaine qui a été installée !

Ce phénomène de baisse des prix au fur et à mesure des déploiements est également à l’œuvre avec les éoliennes, dans des proportions moindres toutefois. Elles auront un rôle à jouer dans les pays les moins ensoleillés et en hiver, en complément du solaire PV.

Cette explosion des déploiements va s’accélérer grâce à la baisse parallèle du coût des batteries qui permettent de compenser les effets de l’intermittence sur la journée. Par exemple, les batteries Lithium Iron Phosphate (LFP) coûtaient autour de 110 euros/kWh en février 2023. Les industriels parlent d’atteindre 40 euros/kWh cette année, un chiffre qu’en 2021 on pensait atteindre vers 2030-2040. Tout s’accélère !

Autre exemple, Northvolt, une entreprise suédoise, a dévoilé une technologie de batterie révolutionnaire, « la première produite totalement sans matières premières rares », utilisant notamment le fer et le sodium, très abondants sur les marchés mondiaux. Son faible coût et la sécurité à haute température rendent cette technologie particulièrement attractive pour les solutions de stockage d’énergie sur les marchés émergents, notamment en Inde, au Moyen-Orient et en Afrique.

Bref, on assiste bien à la chute continue du coût des batteries couplée à la hausse continue de leur qualité (s’en convaincre en 6 graphiques ici).

Pour la gestion de l’intermittence saisonnière, on s’appuira sur un système combinant centrales nucléaires et au gaz de synthèse pour prendre le relais au besoin. On continuera à investir dans l’extension des réseaux électriques permettant par exemple d’acheminer de l’électricité solaire PV depuis le Sahara jusqu’à l’Europe.

Enfin, pour le stockage longue durée, c’est a priori le stockage hydraulique par pompage qui devrait s’imposer.

 

Nous disposons d’assez de ressources et métaux pour la transition énergétique

L’Energy Transition Commission (ETC) a publié un rapport important en juillet 2023, qui examine les besoins en minéraux de 2022 à 2050. Il repose sur un scénario ambitieux visant à atteindre zéro émission nette d’ici 2050 : électricité mondiale décarbonée, transport de passagers quasiment décarboné, industrie lourde approvisionnée en hydrogène vert, et 7 à 10 milliards de tonnes de CO2 de captage et de stockage du carbone pour les émissions restantes.

Le rapport montre que le monde possède en soi suffisamment de cuivre, nickel, lithium, cobalt et argent, même si nous devrons en rendre davantage économiquement viables, ou trouver de nouveaux gisements facilement accessibles.

Mais il faut noter que les industriels savent souvent remplacer un matériau lorsque son approvisionnement semble compromis, ou que son prix monte trop.

Par exemple, les projections sur le besoin en cobalt ont considérablement baissé à mesure que certains constructeurs de voitures électriques se sont tournés vers d’autres intrants. De la même façon, les prix élevés du cuivre entraînent une transition vers l’aluminium.

Et les estimations de l’ETC sur la demande en minéraux sont élevées par rapport à d’autres analyses. En recoupant ces hypothèses avec d’autres analyses, on constate que l’ETC est conservateur, prévoyant généralement la plus forte demande en minéraux. Citons par exemple :

L’Agence internationale de l’énergie (AIE) : « Il n’y a généralement aucun signe de pénurie dans ces domaines : malgré la croissance continue de la production au cours des dernières décennies, les réserves économiquement viables ont augmenté pour de nombreux minéraux de transition énergétique. »

Agence internationale des énergies renouvelables (IRENA) : « Les réserves de minéraux de transition énergétique ne manquent pas, mais les capacités d’extraction et de raffinage sont limitées. […] La production a augmenté pour de nombreux minéraux de transition énergétique, et les réserves extraites de sources économiquement viables ont augmenté. De plus, les innovations de rupture – telles que l’amélioration de l’efficacité et les substitutions de matériaux – sont déjà en train de remodeler la demande. »

 

Carburants carbonés de synthèse aux émissions nettes nulles

On parle d’e-carburants, ou encore d’électro-carburants, car on utilise de l’électricité pour capturer le CO2 de l’atmosphère et pour faire de l’électrolyse de l’eau permettant d’obtenir l’hydrogène H2 à faire réagir avec le CO2 capturé afin de produire ces carburants de synthèse. Il ne faut pas les confondre avec les biocarburants, sur lesquels je reviens en dernière partie.

Si l’électricité utilisée est verte, on a bien là des carburants verts, aux émissions nettes nulles, puisque le CO2 utilisé au départ provient de l’atmosphère. Brûler ces carburants n’ajoute pas de nouveau carbone à l’atmosphère tiré des entrailles de la Terre. (pour retirer en net du CO2 de l’atmosphère, il faudra, par contre, se tourner vers la solution évoquée en première partie.)

Aujourd’hui, fabriquer ces e-carburants reste prohibitif. Mais cela va bientôt changer du fait de la chute continue du coût de l’énergie solaire PV.

Pour rivaliser avec le kérosène fossile importé par exemple, il faudra que le coût de cette énergie solaire PV passe en dessous des 10 dollars/MWh.

On utilise pour cela l’électricité sur le point de production sans avoir besoin de se raccorder au réseau pour s’épargner les coûts (onduleurs, pertes en transmission) et délais associés, en intégrant bien dans le calcul l’intermittence du solaire PV, et donc l’utilisation des machines produisant ces e-carburants que 25 % du temps en moyenne. J’explique tout en détail dans cet article.

Un des freins relatifs au développement du solaire PV est l’embouteillage pour se raccorder au réseau (des années dans certains cas aux États-Unis) et la disponibilités des batteries (même si ça évolue très vite, on l’a vu). Mais cela ne s’applique pas à la production d’e-carburants : nul besoin du réseau électrique ni de batteries. Cela ne peut que contribuer à débrider plus encore l’explosion des déploiements de fermes solaire PV.

Au rythme actuel de la baisse des prix du solaire PV, les e-carburants produits sur place seront compétitifs avec les carburant fossiles importés avant 2030 dans les endroits les plus favorables et à peu près partout sur Terre d’ici à 2035-2040.

C’est inévitable.

La mondialisation soutenue par le commerce maritime ne s’arrêtera pas faute d’énergie. Et loin de ralentir, l’aviation sera en mesure d’exploser à partir des années 2040, sans que cela n’accroisse les émissions nettes de gaz à effet de serre.

Si certaines tensions seront observées sur les 10 à 15 prochaines années, le temps que ces solutions arrivent à maturité, il est clair par contre qu’ensuite, c’est bien un monde d’abondance énergétique propre qui nous attend.

 

Oui, les biocarburants sont une hérésie, mais pas que pour les raisons invoquées

Suite à une question sur la concurrence des sols entre nourriture et biocarburants, Jean-Marc Jancovici explique que d’une certaine façon, oui les terres dédiées à la production de biocarburants conduisent à de la déforestation, sous-entendant qu’il faudrait faire sans les biocarburants et réduire en conséquence le transport des hommes et marchandises, la sobriété d’abord et avant tout à nouveau.

Jean-Marc Jancovici a raison, les biocarburants sont une aberration, mais pas seulement pour les raisons qu’il donne. Ils ont vocation à rester chers car produire de la biomasse, la récolter, la transporter, la transformer, la conditionner ne se prêtera pas à des économies d’échelles suffisantes.

Et quand bien même cela pourrait devenir aussi abordable que les carburants fossiles, c’est un crime thermodynamique absolu de s’en servir pour le transport terrestre comparativement à la motorisation électrique.

Pour un moteur à combustion, sur 100 unités d’énergie au départ, seuls 20 sont transformés en mouvement, le reste est gâché en chaleur inutilisée. Pour une voiture électrique, on est proche de 89 % d’efficacité ! En réalité, pour ce qui est du transport terrestre, la messe est dite, les véhicules électriques vont éclipser tout le reste. Dans quelques années, à autonomie égale, il sera moins cher à l’achat et à l’usage d’opter pour un véhicule électrique plutôt que pour un véhicule à essence. Mêmes les engins agricoles et de minageune partie de l’aviation et le transport maritime fluvial et côtier seront électrifiés à terme !

On peut se passer des biocarburants et des énergies fossiles, mais cela ne veut pas dire que le transport doit diminuer. On l’a vu, le transport terrestre a vocation à être électrifié de bout en bout, et les solutions existent pour produire en masse à terme de l’électricité verte.

Et pour les usages où l’on ne pourra pas encore se passer des hydrocarbones, on comprend maintenant que le salut viendra non pas des biocarburants, mais des e-carburants ! Puisque Jean-Marc Jancovici parlait des sols, notons que pour une même dose de soleil reçue, l’efficacité énergétique des biocarburants est de l’ordre de 0,1 % tandis qu’on est autour des 5 % pour les e-carburants (produits avec de l’énergie solaire PV).

Autrement dit, pour une quantité égale de carburants, on aura besoin de 50 fois moins de terres avec les e-carburants, et on pourra d’ailleurs utiliser des terres arides. Oui, les biocarburants sont une hérésie sans avenir.

Voilà donc une somme de raisons d’entrevoir le futur avec le sourire, un sourire non pas benêt, mais ancré dans la conviction que l’ingéniosité humaine et les ressources de notre planète permettront bien à huit milliards d’êtres humains et plus de vivre confortablement et durablement.

Cette abondance nous tend les bras au XXIe siècle, mais le chemin pour y arriver va être tortueux pour encore une bonne décennie. En attendant, tout effort de sobriété est bienvenu, ne le nions pas non plus, mais par pitié, ouvrons aussi les yeux sur ces dernières tendances plus qu’encourageantes.

AI Act : en Europe, l’intelligence artificielle sera éthique

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’Union européenne est résolue à montrer l’exemple avec son AI Act. Le texte, dont certaines modalités de mise en œuvre restent encore à préciser, peut-il seulement s’imposer en tant que référence ?

 

L’intelligence artificielle, un enjeu économique, stratégique… et règlementaire

L’intelligence artificielle revêt un aspect stratégique de premier ordre. La technologie fait l’objet d’une compétition internationale effrénée dont les enjeux touchent aussi bien aux questions économiques que militaires et sociales, avec, bien sûr, des implications conséquentes en termes de puissance et de souveraineté. Dans un tel contexte, une nation qui passerait à côté de la révolution de l’IA se mettrait en grande difficulté.

Rapidement, la question de la réglementation de l’IA est devenue un sujet de préoccupation majeur pour les États. Et pour cause, les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables. Des inquiétudes dont les participants à l’édition 2024 du Forum économique mondial de Davos se sont d’ailleurs récemment fait l’écho.

En effet, bien que des régimes existants, comme les règles sur la protection des droits d’auteur, la protection des consommateurs, ou la sécurité des données personnelles concernent l’IA, il n’existe à ce jour pas de cadre juridique spécifique à la technologie en droit international. De plus, beaucoup de doutes subsistent quant à la façon dont les règles pertinentes déjà existantes s’appliqueraient en pratique. Face à l’urgence, plusieurs États se sont donc attelés à clarifier leurs propres réglementations, certains explorant la faisabilité d’un cadre réglementaire spécifiquement dédié à la technologie.

Dans la sphère domestique comme à l’international, les initiatives se succèdent pour dessiner les contours d’un cadre juridique pour l’IA. C’est dans ce contexte que l’Union européenne entend promouvoir sa vision de la règlementation articulée autour de règles contraignantes centrées sur la protection des droits fondamentaux.

 

Un risque de marginalisation potentiel

Le Plan coordonné dans le domaine de l’intelligence artificielle publié en 2018, et mis à jour en 2021, trace les grandes orientations de l’approche de l’Union européenne. Celui-ci vise à faire de l’Union européenne la pionnière des IA « légales », « éthiques » et « robustes » dans le monde, et introduit le concept d’« IA digne de confiance » ou trustworthy AI. Proposé en avril 2021 par la Commission européenne, le fameux AI Act est une étape décisive vers cet objectif.

L’IA Act classe les systèmes d’intelligence artificielle en fonction des risques associés à leur usage. Ainsi, l’étendue des obligations planant sur les fournisseurs de solutions d’IA est proportionnelle au risque d’atteinte aux droits fondamentaux. De par son caractère général, l’approche européenne se distingue de la plupart des approches existantes, qui, jusqu’alors, demeurent sectorielles.

Parmi les grands axes du texte figurent l’interdiction de certains usages comme l’utilisation de l’IA à des fins de manipulation de masse, et les systèmes d’IA permettant un crédit social. Les modèles dits « de fondation », des modèles particulièrement puissants pouvant servir une multitude d’applications, font l’objet d’une attention particulière. En fonction de leur taille, ces modèles pourraient être considérés à « haut risque, » une dénomination se traduisant par des obligations particulières en matière de transparence, de sécurité et de supervision humaine.

Certains États membres, dont la France, se sont montrés particulièrement réticents à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Il faut dire que l’Union européenne fait pâle figure à côté des deux géants que sont les États-Unis et la Chine. Ses deux plus gros investisseurs en IA, la France et l’Allemagne, ne rassemblent qu’un dixième des investissements chinois. Bien qu’un compromis ait été obtenu, il est clair que la phase d’implémentation sera décisive pour juger de la bonne volonté des signataires.

À première vue, le AI Act semble donc tomber comme un cheveu sur la soupe. Il convient néanmoins de ne pas réduire la conversation au poncif selon lequel la règlementation nuirait à l’innovation.

 

L’ambition d’incarner un modèle

Le projet de règlementer l’IA n’est pas une anomalie, en témoigne la flopée d’initiatives en cours. En revanche, l’IA Act se démarque par son ambition.

À l’instar du RGPD, le AI Act procède de la volonté de l’Union européenne de proposer une alternative aux modèles américains et chinois. Ainsi, à l’heure où les cultures technologiques et réglementaires chinoises et américaines sont régulièrement présentées comme des extrêmes, le modèle prôné par l’Union européenne fait figure de troisième voie. Plusieurs organismes de l’industrie créative avaient d’ailleurs appelé les États membres à approuver le texte la veille du vote, alors que la réticence de Paris faisait planer le doute quant à son adoption. Cet appel n’est pas anodin et rejoint les voix de nombreux juristes et organismes indépendants.

Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse, et serait un moyen de gagner la loyauté des consommateurs. Notons d’ailleurs que huit multinationales du digital se sont récemment engagées à suivre les recommandations de l’UNESCO en matière d’IA éthique.

L’initiative se démarque aussi par sa portée. Juridiquement, le AI Act a vocation à s’appliquer aux 27 États membres sans besoin de transposition en droit interne. Le texte aura des effets extraterritoriaux, c’est-à-dire que certains fournisseurs étrangers pourront quand même être soumis aux dispositions du règlement si leurs solutions ont vocation à être utilisées dans l’Union.

Politiquement, le AI Act est aussi un indicateur d’unité européenne, à l’heure où le projet de Convention pour l’IA du Conseil de l’Europe (qui englobe un plus grand nombre d’États) peine à avancer. Mais peut-on seulement parler de référence ? Le choix de centrer la règlementation de l’IA sur la protection des droits de l’Homme est louable, et distingue l’Union des autres acteurs. Elle en poussera sans doute certains à légiférer dans ce sens. Néanmoins, des ambiguïtés subsistent sur son application. Ainsi, pour que l’AI Act devienne une référence, l’Union européenne et ses membres doivent pleinement assumer la vision pour laquelle ils ont signé. Cela impliquera avant tout de ne pas céder trop de terrains aux industriels lors de son implémentation.

Parc des Princes : l’urgence de la privatisation

Mardi 27 février, Florian Grill, le président de la Fédération française de rugby, menaçait de délocaliser les matchs du XV de France hors du Stade de France à l’occasion d’un entretien à l’AFP. Le bras de fer entre la mairie de Paris et le PSG au sujet du Parc des Princes avait, lui aussi, connu un nouveau rebondissement le mois dernier : l’adjoint écologiste à la mairie de Paris, David Belliard, ne souhaitait pas le voir vendu au Qatar. Le président du PSG Nasser Al-Khelaïfi s’en était ému, accusant à demi-mot la mairie de Paris de racisme. Après avoir menacé de s’installer au Stade de France, le PSG serait désormais à la recherche d’un endroit pour construire un nouveau stade. Cette opération serait une catastrophe pour les Parisiens qui subissent déjà depuis dix ans la fuite en avant financière de la mairie socialiste.

Source : journaldunet.com

Depuis que la coalition socialo-communo-écolo a porté au pouvoir Anne Hidalgo a la tête de la mairie de Paris il y a dix ans, la situation financière de la ville s’est considérablement dégradée.

Profitant des taux exceptionnellement bas, la maire socialiste a dépensé sans compter, et l’endettement de la ville de Paris a été multiplié par deux en dix ans pour atteindre près de huit milliards d’euros. La réalité a commencé à rattraper les Parisiens, et la ville a augmenté la taxe foncière de 62 % l’année dernière pour essayer de colmater les brèches.

Ce n’est pas suffisant : la très forte augmentation des taux d’intérêts pour lutter contre l’inflation causée par des années de taux ultra-bas, et les déficits massifs enregistrés depuis la crise financière et renforcés par le « quoi qu’il en coûte » imposent un rapide désendettement de la ville de Paris. C’est la condition pour éviter d’écraser les Parisiens d’impôts supplémentaires. Il faut donc que la ville de Paris vende vite et bien le Parc des Princes, et cela veut dire le céder au PSG.

Source : journaldunet.com

Le Paris Saint-Germain est un des rares clubs majeurs européens qui n’est pas propriétaire de son stade. L’acquérir permettrait à la fois de renforcer la position financière du club grâce à un important actif immobilier, ainsi que son contrôle sur les revenus de billetterie et d’hospitalité. Le club deviendrait aussi maître de ses investissements, pouvant les planifier sans interférence de la mairie de Paris.

Du côté de la mairie de Paris, il est essentiel que le PSG devienne acquéreur du Parc pour ancrer le club à Paris. La valeur du Parc des Princes tient essentiellement au fait que le PSG en soit le club résident. Perdre le PSG, c’est s’asseoir sur l’activité que les matchs génèrent et sur la valeur du Parc des Princes. Ce raisonnement s’applique aussi au PSG : un PSG propriétaire du stade ne peut en déménager qu’à condition d’accepter une forte dépréciation de la valeur de cet actif. Ce n’est pas grâce aux concerts qui sont en concurrence directe avec le Stade de France et Bercy que le Parc ne deviendra pas un poids mort pour les Parisiens.

Le Parc des Princes n’est pas le seul actif sportif que la ville de Paris doit céder pour accélérer son désendettement. Elle est aussi propriétaire de Roland Garros, du stade Charlety et du stade Jean Bouin. Ce n’est pas le rôle de la mairie de Paris d’être propriétaire d’infrastructures essentiellement utilisées par des entreprises commerciales au rayonnement national et international. La ville doit rapidement enclencher les discussions pour céder ce parc immobilier à la Fédération Française de Tennis, au Paris FC et au Stade Français, et affecter les revenus à son désendettement.

L’État donne pour une fois l’exemple en cherchant à céder le Stade de France. Une bonne privatisation de celui-ci mettrait fin au modèle de la concession et le cèderait à un consortium composé de la Fédération Française de Football, de Rugby, d’Athlétisme et d’une entreprise spécialisée (comme Vinci). Cela permettrait aux fédérations sportives d’améliorer les revenus tirés de leurs évènements et de les diversifier grâce aux spectacles. L’entreprise concessionnaire apporterait son savoir-faire et probablement une meilleure tenue des comptes que si ceux-ci étaient laissés entièrement aux fédérations.

Privatiser ces infrastructures, c’est faire gagner la France plusieurs fois : des organisations sportives plus solides, des finances publiques assainies et des administrations publiques qui peuvent se concentrer sur leurs tâches essentielles. Pour l’État, comme pour la mairie de Paris, c’est notamment la sécurité des biens et des personnes qui se dégrade de façon inquiétante.

Contrer les pirates russes grâce à 3 bonnes pratiques

Article disponible en podcast ici.

La Russie est connue pour ses compétences en piratages informatiques. Elle les utilise actuellement en Ukraine et pourrait se lancer à l’assaut de l’Europe pour déstabiliser des pays comme la France.

Aussi, il est de notre devoir de ne pas faciliter la vie des pirates russes en optant pour trois bonnes pratiques.

 

Garder les systèmes à jour

Si un pirate russe tombe sur une faille, il n’y a plus rien à faire. Il peut corrompre l’ordinateur de sa victime en appuyant sur une seule touche. On en découvre fréquemment de nouvelles. Une des plus graves et aussi la plus récente. La faille Log4shell touche beaucoup de logiciels et permet de prendre le contrôle des ordinateurs à distance.

Il est déjà avéré que les pirates russes utilisent cette faille pour pirater des serveurs non mis à jour en Ukraine.

À nous donc de ne pas faciliter la vie des pirates en mettant régulièrement nos systèmes à jour afin de colmater les nouvelles failles. Que ce soit les mobiles (Android, iOS), les ordinateurs (Windows, macOS ou Linux) ou les navigateurs (Chrome, Safari, Firefox), il faut toujours garder à jour nos systèmes.

Évidemment que le piratage d’un serveur d’entreprise est la cible numéro 1 d’un pirate. Mais le piratage d’un ordinateur de particulier est important. C’est depuis des ordinateurs de particuliers que les pirates lancent leurs attaques massives contre les serveurs.

De plus avec le télétravail, pirater l’ordinateur d’un particulier peut très facilement mener aux réseaux d’entreprises. Nous avons donc un rôle majeur à jouer en gardant nos systèmes à jour.

 

Protéger vos comptes en ligne

Les mots de passe du type piano123 ou marseille13! ne sont pas de bon mot de passe. Un pirate peut les retrouver facilement.

De même si on utilise le même mot de passe pour notre club de sport et notre boîte Gmail. Le pirate a juste, pour lire vos mails, à pirater le modeste site web de votre club de sport au lieu de Google. On lui mâche le travail !

Dans ce cas, la bonne pratique est d’utiliser un gestionnaire de mot de passe comme Bitwarden (gratuit et open source). Il va générer un mot de passe compliqué et différent pour chaque compte en ligne.

Tous vos mots de passe sont chiffrés dans le cloud pour être synchronisés sur vos appareils. Si le cloud ne vous tente pas, un carnet d’adresses est parfait pour conserver vos mots de passe en fonction du site web.

Cependant, ce n’est pas tout ! Les attaques par hameçonnage se multiplient. Le pirate envoie un mail urgent imitant le code graphique de votre banque. Le mail stipule que vous devez au plus vite vous connecter et il n’oublie pas de vous donner le lien.

Or ce lien est frauduleux. Il vous entraîne vers un faux site web ressemblant à votre banque. Lorsque vous entrez vos identifiants, ils seront récupérés par le pirate russe.

Évidemment dans ce cas, la première chose à faire est de ne jamais cliquer sur le lien d’un mail suspect.

Mais personne n’est infaillible. Aussi depuis quelques années est apparu le second facteur d’authentification (2FA). En plus d’entrer votre mot de passe, votre banque vous demande un code qui change à chaque connexion. Le code peut venir d’une application mobile, d’un mail ou d’un SMS.

Ainsi même en possession du mot de passe, le pirate ne pourra pas se connecter à votre compte. Le 2FA est réputé réduire de 99 % les usurpations de compte. Il est donc indispensable de l’utiliser pour votre banque, messagerie, réseau social, drive, etc.

 

Faire des sauvegardes

L’attaque informatique en pleine tendance est le rançongiciel. Le pirate s’introduit sur l’ordinateur et lance un logiciel qui va chiffrer toutes vos données contre votre gré.

Seul le pirate dispose de la clé pour déchiffrer, qu’il vous donne (ou pas) contre une rançon.

À partir du moment où vous êtes victime d’un rançongiciel, vous pouvez considérer vos données comme perdues. Le fait de payer la rançon garantit d’alimenter un réseau criminel, mais ne garantit pas de retrouver vos données.

Aussi dans ce cas, la solution est l’anticipation. Il faut faire des sauvegardes de vos appareils sur des disques durs externes. Heureusement, cela est devenu très facile. Maintenant tous les systèmes Android, iOS, Windows, macOS ou Linux proposent des outils de sauvegarde automatique. Il suffit de se procurer un disque dur externe et de prendre le temps de configurer.

En résumé pour compliquer la vie d’un pirate russe, c’est très simple. Il faut :

  • garder ses appareils et logiciels à jour
  • utiliser un gestionnaire de mot de passe et activer le second facteur d’authentification partout où c’est possible
  • faire des sauvegardes régulières sur un disque dur externe.

 

Des choses très simples qui vont rendre le pirate fou et vous mettre à l’abri de bien des problèmes.

 

Article publié initialement le 13 mars 2022.

Les vrais chiffres de la balance commerciale 2023 

Comme chaque année, les chiffres de la balance commerciale sont minorés et présentés en retirant les frais de transport du montant de nos importations.

Les frais de transport sont pourtant une partie intégrante du coût de revient et sont répercutés sur le prix de vente au consommateur. Mais pourtant, ils sont retraités afin de les comparer aux chiffres des exportations qui, eux, n’intègrent pas les frais de transport. L’opération semble contestable…

Les « vrais » chiffres de la balance commerciale de 2022 avaient ainsi frôlé les 200 milliards d’euros de déficit pour se « rétablir » en 2023 à -135 milliards d’euros.

Rappelons qu’en 2019, c’est-à-dire avant la crise sanitaire et avant la guerre déclenchée par la Russie contre l’Ukraine, la balance commerciale s’établissait à un déficit de 77 milliards (quand l’Allemagne dépassait les 200 milliards d’excédent commercial).

Pour résumer, en l’espace de deux ans : 2019 à 2022, notre déficit commercial a quasiment triplé et le déficit de 2023 est maintenant équivalent au double de celui de 2019.

 

Une lueur d’espoir ? L’éternelle marotte de la solution par les exportations 

Face à des résultats accablants, l’idée selon laquelle la progression de nos exportations viendrait redresser la balance commerciale continue de perdurer et d’être promue comme la solution de reconquête de notre souveraineté. Est-ce bien réaliste ? Avec des exportations qui progressent mollement (+3 % en un an) et dont la hausse intègre nécessairement l’inflation, peut-on vraiment penser qu’elles seront à même de compenser notre dépendance structurelle aux importations sur la quasi-totalité des secteurs industriels ?

Pour comprendre la réalité de la balance commerciale, reprenons chaque secteur en distinguant les secteurs déficitaires des rares secteurs excédentaires.

 

Les secteurs déficitaires… Toujours plus déficitaires

Énergie : un déficit de 75 milliards, ou comment la France fait passer les intérêts de ses partenaires commerciaux avant les siens

Rappelons que dans les années 2000, date à laquelle la balance commerciale passe dans le rouge, le déficit énergétique s’affiche déjà à près de 25 milliards. En vingt ans, il double pour atteindre les 50 milliards en 2019. Puis de 2019 à 2022, il double à nouveau (quasiment 120 milliards !) et se redresse en 2023 à près de 75 milliards soit 50 % de plus qu’en 2019…

Si l’on entre dans les détails, on comprend bien la folie de notre politique énergétique qui nous place en position de dépendance vis-à-vis du gaz naturel que nous importons à des prix toujours plus élevés, sans pouvoir tirer profit de l’électricité que nous vendons… Au prix auquel nous la produisons !

Prenons notre premier poste d’importations énergétiques : les hydrocarbures naturels (gaz dont gaz de schiste et huiles brutes de pétrole) qui affichent à eux seuls un déficit de 56 milliards d’euros.

La guerre en Ukraine a lourdement marqué notre balance en matière d’hydrocarbures naturels avec une flambée des prix et un recours aux États-Unis très marqué et coûteux : le coût de nos importations a ainsi quasiment triplé de 2019 à 2022 avec un déficit atteignant les 75 milliards en 2022. Déficit qui s’est redressé à plus de 56 milliards en 2023. La situation est donc loin d’être rétablie.

Second poste du déficit énergétique, les produits pétroliers, a quant à lui doublé sur la période 2019-2022 passant de 15 à 30 milliards pour se rétablir à 20 milliards en 2023.

Si notre dépendance en hydrocarbures et produits pétroliers a toujours été avérée, notre force nucléaire, en revanche a toujours constitué un atout majeur.

Malheureusement, pour ce qui est de l’électricité, troisième grand poste de nos dépenses énergétiques, il est clair que nous ne tirons absolument pas avantage de notre force nucléaire dans laquelle nous avons tant investi. En 2022, le mécanisme de l’ARENH nous a fait atteindre une situation ubuesque de déficit commercial en électricité (8 milliards) en devant acheter plus cher à des fournisseurs étrangers un produit que nous devons leur vendre au prix coûtant. En 2023, les choses se rétablissent avec un excédent de 3 milliards qui, on le comprend bien, si nous n’étions pas entrés dans l’ARENH, devrait être nettement supérieur.

En synthèse, l’énergie que nous vendons et achetons se traduit par un solde déficitaire de 50 milliards. Notre position de leader nucléaire historique ne permet en rien de redresser ces résultats du fait des mécanismes de prix fixés par l’ARENH.

 

Le textile et l’habillement

Un redressement en demi-teinte porté par la croissance des exportations de produits de luxe.

Le déficit avait atteint les 12 milliards en 2019, frôlé les 13 milliards en 2022 et s’est contracté à 8 milliards en 2023. Ce rétablissement est entièrement porté par la progression des exportations sur le seul secteur du cuir/bagages/chaussures. En revanche, pour le reste de l’habillement, le montant des importations est en progression avec l’apparition marquée d’acteurs étrangers intervenant en vente directe, sans intermédiation, comme l’emblématique Shein.

 

Le déficit ancré de l’agro-alimentaire : une perte de souveraineté confirmée

Les résultats sont chaque année présentés comme positifs… À tort. En effet, les boissons (vins et spiritueux) viennent corriger ce qui est devenu un déficit structurel de la balance commerciale sur la totalité des produits à l’exception des produits laitiers. Corrigés des seuls chiffres des boissons les résultats sont alarmants : la dépendance aux produits étrangers, pour ce qui est de notre consommation de viande, de conserves, de fruits et légumes, et d’huiles est bel et bien confirmée. Tous ces secteurs sont déficitaires, entre 2 et 4 milliards chacun.

La balance commerciale du secteur agro-alimentaire marque donc, en réalité, un déficit de 10 milliards d’euros (soit 3 milliards de déficit supplémentaire par rapport à 2019).

Ce déficit n’est pas corrigé par la balance commerciale agricole, qui, après une progression en 2022 enregistre un excédent de 1,4 milliard. On peut donc dire que le secteur agricole, hors spiritueux, enregistre des déficits records, proches de 9 milliards !

 

Métallurgie, électronique, machines… : la chute libre

De nombreux autres secteurs historiquement déficitaires continuent leur plongée respective comme l’industrie métallurgique (doublement du déficit de 2019 à 2023 pour atteindre 15 milliards d’euros), les produits en plastique (-10 milliards), les produits informatiques (+50 % de déficit soit -10 milliards), la fabrication d’équipements électriques et de machines (-21 milliards).

 

Les rares secteurs excédentaires… En très fort recul

De façon encore plus inquiétante, on voit également se contracter des secteurs qui avait su rester excédentaires.

Premier concerné : l’industrie du transport (automobile, aérospatiale, navire) qui est passé de 15 milliards d’excédent en 2019 à… 6 milliards ! Cet effondrement est principalement corrélé à l’effondrement du secteur automobile dont le déficit passe de 15 à 25 milliards d’euros et dont les résultats de l’aérospatiale ne parviennent pas à compenser.

Deuxième secteur historiquement fort : l’industrie pharmaceutique qui voit un effondrement dans la balance commerciale que toute personne ayant besoin de se soigner peut constater. L’excédent de 6 milliards de 2019 s’est amoindri à moins d’un milliard en 2023.

Enfin l’industrie chimique, toujours présentée en bonne santé, doit à l’instar du secteur agro-alimentaire et des boissons, être retraitée de la cosmétique. Le solde le plus excédentaire de la balance commerciale, 20 milliards en 2023, se réduit à la peau de chagrin de 2,5 milliards une fois les cosmétiques retirés…

Globalement, sur 2023, en dépit de la contraction du déficit, les tendances lourdes se confirment et semblent ancrées de façon indélébiles dans les chiffres de la balance commerciale et dans la réalité de notre consommation quotidienne.

Au-delà des aides, des subventions, et des « encouragements », il est temps que l’industrie redevienne réellement une priorité nationale. La France doit revoir les normes et dispositifs dans lesquelles elle s’est enfermée au profit de ses partenaires et au détriment de ses propres intérêts commerciaux.

Croissance vs Emploi : les élites marocaines au cœur d’une énigme économique

Le Maroc est un pays dynamique, son économie est diversifiée, son système politique présente une certaine stabilité dans une région en proie à des crises à répétition. Ce pays a fait montre d’une résilience étonnante face aux chocs exogènes. La gestion remarquée de la pandémie de covid et la bonne prise en main du séisme survenu dans les environs de Marrakech sont les exemples les plus éclatants.

 

Pays dynamique

Sa diplomatie n’est pas en reste. La question du Sahara occidental, « la mère des batailles », continue à engranger des succès. Le ralliement d’un certain nombre de pays qui comptent dans l’échiquier politique international à la position marocaine en est la preuve. L’organisation de la prochaine Coupe d’Afrique des Nations en 2025, comme en 2030, celle de la Coupe du monde de football, avec l’Espagne et le Portugal, constituent à n’en pas douter des victoires à mettre au profit de ce dynamisme. Sans oublier la prouesse de l’équipe nationale marocaine à la faveur de la dernière Coupe du monde de football organisée au Qatar.

La diversification de l’économie est un puissant facteur de résilience face aux crises à répétition. L’agriculture se modernise, l’industrie s’affirme avec un secteur automobile dont l’intégration locale dépasse les 60 %, et l’aéronautique prend son envol avec un taux d’intégration de près de 40 %. Le tourisme, moteur essentiel de la croissance, attire un flot continu de visiteurs malgré les secousses mondiales. Les atouts du pays, entre patrimoine culturel riche, paysages diversifiés du désert à la montagne, des plages aux plateaux, et une infrastructure de pointe (ports, aéroport, train à grande vitesse, autoroutes), demeurent indéniables.

Par ailleurs, le pays s’est toujours distingué par une ouverture très prononcée de son économie, particulièrement vers les pays occidentaux, comme en témoignent les nombreux accords d’association signés avec certains pays (Union européenne, États-Unis etc.). Les relations avec la France sont fortes et diversifiées. Le Maroc est le premier partenaire commercial de la France en Afrique, et le second dans la région MENA (Afrique du Nord et Moyen-Orient). 

Depuis peu, cette ouverture s’est poursuivie vers d’autres contrées, surtout africaines. Les investissements marocains dans certains de ces pays (Sénégal, Côte d’Ivoire par exemple) connaissent une évolution ascendante. Pour accompagner ces orientations, les banques marocaines n’ont pas hésité à s’installer dans ces pays, et la compagnie aérienne marocaine (Royal Air Maroc) a tissé un réseau solide, connectant Casablanca, la capitale économique du royaume, à plusieurs villes africaines.  

Les investissements directs étrangers connaissent certes un fléchissement ces dernières années, mais la dynamique d’ensemble demeure, somme toute, positive. Il est à signaler que la France reste l’un des principaux investisseurs étrangers (premier en termes de stock) au royaume du Maroc, dans l’industrie (avec la réussite éclatante du projet structurant de Renault), mais aussi dans l’immobilier, les services et le commerce. 

L’inflation a battu des records en 2022 comme dans la plupart des pays, suite au conflit russo-ukrainien, mais elle a commencé à se stabiliser en 2023. Le déficit budgétaire diminue d’année en année et commence à se consolider (4 % prévu en 2024), et ce malgré les différents chocs internes (sécheresse à répétition, séisme) et externes (covid, guerre). La dette publique demeure soutenable (70 % du PIB), avec une maturité confortable (six ans en moyenne). La diaspora marocaine continue de déverser un flux ininterrompu d’argent pour aider sa famille et participer au développement du pays. Les remises de fonds ont dépassé dix milliards de dollars en 2023, ce qui constitue un record ! La croissance se situe dans la tranche supérieure des pays MENA (pays du Moyen-Orient et d’Afrique du Nord), même si le pays ne converge pas vers son sentier de croissance potentielle déterminé par la croissance de la population et celle de la productivité du travail.

 

Un trou dans la raquette

Tout baigne alors. Hé bien non ! Il y a un trou dans la raquette. La croissance marocaine ne crée pas assez d’emplois et même, fait étonnant, elle en détruit !

Malgré tous les atouts précédemment cités, le volume de l’emploi a baissé de 297 000 postes entre le troisième trimestre de 2022 et le troisième trimestre de 2023. Ces données sont aussi inquiétantes qu’inédites. Les conséquences sont immédiates sur le taux de chômage qui demeure préoccupant et le taux d’activité dramatiquement faible. Si le taux de chômage officiel est de 13,5 %, celui des jeunes (15 à 24 ans) enregistre un taux record de 38,2 %, et les diplômés de presque 20 %. Cela signifie que le Maroc ne parvient pas à intégrer sa jeunesse dans le marché du travail malgré une main-d’œuvre riche, entravant ainsi la croissance.

Le Maroc, ayant déjà achevé sa transition démographique, s’apprête à affronter les défis du vieillissement de sa population. L’allongement de l’espérance de vie et la diminution de la fécondité mettent en péril son système de retraite par répartition. Des problèmes de riches dans un pays pauvre. Par ailleurs, les chiffres du chômage contredisent la théorie économique selon laquelle le capital humain protège contre le chômage. Au Maroc, être diplômé accroît la probabilité de chômage, risquant d’encourager le décrochage scolaire, surtout chez les familles défavorisées.

Les inégalités liées au genre aggravent la situation. Celles-ci se reflètent dans les écarts dans le volume de travail annuel et les rémunérations. Une proportion significative de femmes est souvent moins en emploi ou à temps partiel, accentuant ainsi l’inégalité salariale. Cette dernière découle de la distribution inégale des professions entre les sexes, où les emplois féminins diffèrent généralement de ceux occupés par les hommes, tant au niveau des secteurs d’activité que des échelons de rémunération. Cette situation n’est évidemment pas l’apanage exclusif du Maroc.

Si l’on s’en tient au taux de chômage, il avoisine les 20 % pour les femmes contre 13,5 % au niveau national. De plus, le taux d’activité féminine est parmi les plus bas au monde (18,4 % contre 68,7 % pour les hommes), en dépit des preuves empiriques soulignant la productivité accrue des femmes. Quand ces dernières gèrent le foyer, les résultats, en termes de scolarité des enfants ou de la gestion des deniers du ménage, sont largement supérieurs à ceux obtenus par les hommes. De même, les entreprises gérées par les femmes s’en sortent mieux que celles gérées par les hommes. 

Avec une croissance de 3 % en 2023, l’économie marocaine détruit près de 300 000 emplois. Alors qu’auparavant, 1 % de croissance générait 50 000 emplois, aujourd’hui, 1 % de croissance en détruit 100 000. Dès lors, ne faut-il pas se concentrer sur la création d’emplois au lieu de se focaliser sur ce mantra de la croissance économique ? 

 

Mauvaise allocation des ressources 

La création de richesse nécessite capital et travail. Le Maroc possède une main-d’œuvre jeune, bien formée, et pour ne rien gâcher, bon marché. Avec un taux d’investissement impressionnant, l’un des plus élevés au monde (34 %), les ingrédients de la croissance sont a priori réunis. Seulement, on oublie le troisième élément qui a son importance, à savoir la façon de les combiner, une alchimie délicate de valorisation et d’ajustement des facteurs de production. C’est là où le bât blesse. 

D’abord, bien qu’élevé, le taux d’investissement ne reflète pas pleinement l’effort du pays à transformer l’épargne en investissement productif, dépendant de la qualité de cet investissement.

Ensuite, les investisseurs privés ne prenant pas de risque, l’essentiel de l’investissement national est du ressort de l’État, créant ainsi une disjonction entre investissement public et privé. Enfin, quand les investissements directs étrangers augmentent, les investissements privés les suivent (par la création de joint-ventures par exemple). Ces derniers font supporter le risque aux investisseurs étrangers. Une complémentarité s’installe dès lors entre investissement étranger et investissement marocain.

La stratégie marocaine mise sur l’attraction des investissements directs étrangers, en créant un écosystème industriel concentré sur un nombre restreint d’entreprises, négligeant ainsi les PME-PMI, représentant pourtant 90 % des entreprises et la majorité des emplois. Malgré les incitations gouvernementales, telles que des baisses d’impôts sur les sociétés et sur les dividendes, les résultats escomptés tardent à se manifester, créant un paradoxe au cœur de cette stratégie pro-business.

En outre, l’omniprésence et l’omnipotence du secteur informel, absorbant 60 % des emplois, maintiennent les jeunes, en particulier ceux de 18 à 25 ans, issus de zones rurales ou de quartiers défavorisés des grandes villes, dans une fragilité grandissante et une précarité sans nom. Cette mauvaise allocation des ressources n’est en aucun cas le fruit du hasard, loin s’en faut. 

 

Les racines du mal

Ce constat révèle le manque de confiance d’un acteur clé dans le processus de croissance, à savoir le secteur privé. Connaissant les rouages de la création de richesse, il opte pour des investissements dans des niches peu risquées et peu propices à la création d’emplois, reproduisant ainsi le comportement d’une économie rentière.

Attaquer les racines du mal implique de lever les multiples contraintes qui entravent le secteur privé, tel que préconisé par les instances internationales. Ces obstacles comprennent les barrières à l’entrée, les difficultés d’accès aux terrains industriels, les lourdeurs bureaucratiques, un système judiciaire trop complexe, des procédures de marchés publics trop lentes, et un capital social limité. Derrière cette terminologie, se cache le cœur même de toute forme de croissance, la substantifique moelle de tout processus de développement : le système de la prise de décision.

Pour réussir à croître de manière significative et à créer des emplois durables, il est essentiel d’avoir des institutions inclusives, partageant équitablement les opportunités entre les citoyens. Le pouvoir de décision ne devrait pas être l’apanage d’une élite politico-économique cherchant à améliorer son propre bien-être, mais plutôt partagé par le plus grand nombre. Cette distribution équilibrée du pouvoir facilite l’accès à une éducation de qualité pour tous, tout en réduisant les tensions au sein de la société.

L’histoire démontre que les groupes d’intérêt s’opposent généralement à un tel partage. La tâche de construire des institutions inclusives revient aux citoyens eux-mêmes. Un défi colossal, mais un programme nécessaire pour une véritable révolution économique.

Présidentielle 2024 : coup dur pour la campagne de Biden

La campagne de Joe Biden ne se déroule pas bien. Bien qu’il semble se diriger vers la nomination de son parti, sa cote de popularité ne cesse de chuter, laissant croire que Donald Trump le vaincra s’il obtient la nomination. Son bilan économique mitigé ne sera pas la seule raison pour laquelle plusieurs de ses électeurs en 2020 s’abstiendront ou changeront de camp.

En effet, le récent rapport d’un procureur spécial affirme que Biden a bel et bien été négligent avec des documents confidentiels qu’il a conservés secrètement. Et à l’instar d’Hillary Clinton en 2016, Robert Hur suggère de ne pas entamer de procédures judiciaires… parce qu’un jury ne condamnerait pas « un vieil homme sympathique à la mémoire défaillante. »

De la vice-présidente à la (quasi) totalité des médias, Robert Hur est accusé de parti pris et d’avoir parlé gratuitement de l’état mental du président – alors que c’est la raison pour laquelle il ne suggère aucune accusation. Certains esquivent le problème et pensent que l’âge est une vertu ; d’autres font des courbettes à rendre jaloux le Cirque du Soleil.

La Maison-Blanche n’est pas opposée à la publication des entrevues menées, mais ne ferme pas non plus la porte à la censure de certains passages. Mais l’avocat de Biden ne le fera pas sans se battre.

 

Combat contre la démocratie

Toujours au sujet du Parti démocrate, ses membres martèlent sans cesse que la prochaine élection sera cruciale car, entre les mains de la « mauvaise personne », elle pourrait se terminer en dictature. Mais à voir leurs agissements, pour citer mes parents, ils ne prêchent certainement pas par l’exemple.

Vendredi 10 février, ils ont porté plainte auprès de la commission électorale fédérale en accusant Robert Francis Kennedy Jr. (neveu de John Fitzgerald) de collusion avec un super PAC afin qu’il puisse apparaître sur les bulletins de vote. Il est certain que s’il a vraiment coordonné des actions avec un super PAC, il a commis une faute grave. Par contre, considérant que la collusion alléguée soit simplement pour que Kennedy puisse être sur les bulletins de vote, les Démocrates s’engagent dans un combat anti-démocratique et futile. 

En effet, même s’ils réussissent à franchir les obstacles souvent insurmontables de paraître sur les bulletins de vote, les candidats « autres » peinent à recevoir un pourcentage significatif des votes, bien que leur présence est souvent blâmée pour certaines défaites.

Et même en ce qui concerne Trump, plusieurs États (surtout Démocrates) se battent pour l’exclure du scrutin, plaidant qu’il est exclu, en vertu du 14e amendement de la Constitution qui a bloqué des officiels confédérés de participer au gouvernement.

Malheureusement pour eux, la Cour suprême semble unanimement sceptique face à ces actions – le groupe du Colorado qui a réussi à exclure Trump tente de plaider sa cause. La décision n’est pas arrêtée, contrairement à ce que dit ce tweet, mais tous – y compris les juges nommés par des Démocrates – ont longuement questionné le bien-fondé d’une décision étatique aux répercussions nationales. 

 

Creuser sa tombe

Ainsi, le méchant homme orange n’aurait pas à craindre d’être exclu du scrutin et, tel que mentionné en introduction, se dirige allègrement vers la victoire. Elle est tellement décisive que sa seule autre concurrente, Nikki Haley, a perdu contre « aucun de ces candidats » lors de la primaire au Nevada

Toutefois, une récente attaque de Trump contre l’ancienne gouverneure de la Caroline du Sud pourrait lui coûter cher. Il est reconnu pour ses attaques personnelles contre tous ceux qui ne sont pas 100 % avec lui. Mais depuis quelque temps, il n’en a que pour l’absence du mari de Nikki… qui est en mission militaire. S’il y a un groupe immunisé contre la critique, surtout dans les milieux conservateurs, c’est bien l’armée et toutes ses branches.

Au sujet des militaires, il semble que Trump persiste à dire que les membres de l’OTAN doivent payer leur « juste part » des dépenses de défense. Sinon, il laisse sous-entendre qu’il ne défendrait non seulement pas les « fautifs », mais encouragerait leur invasion. Il y a une marge entre plaider pour davantage de dépenses et carrément espérer la destruction d’un allié…

Bref, si la tendance se maintient, nous aurons droit à une répétition de l’élection de 2020, soit entre un homme au déclin cognitif de plus en plus évident et un autre qui parle avant de réfléchir. Et bien que ce dernier a tendance à se tirer dans le pied, ses adversaires font tout pour attirer la sympathie des indécis.

Une fuite récente suggère que Biden peste discrètement contre son ministre de la Justice de ne pas avoir décidé d’entamer des procédures contre Trump plus tôt. De quoi alimenter le moulin à conspirations de la chasse aux sorcières. Il semble que Taylor Swift soit son seul espoir…

La France dans la bataille européenne pour les méga-usines 

En février 2023, je publiais l’étude « Méga-usines : 5 grandes implantations industrielles que la France ne doit pas rater en 2023 ». Alors que la France avait vu de gros projets industriels lui passer sous le nez au cours des années précédentes (Tesla, Intel), je souhaitais montrer que de nouvelles grandes implantations industrielles étaient à l’étude en Europe, et que la France ne devait pas rater cette séance de rattrapage.

Notre pays a aujourd’hui d’autant plus besoin d’accueillir les prochaines méga-usines prévues en Europe qu’elle s’est nettement plus désindustrialisée que ses voisins. Attirer ces méga-usines s’inscrit dans une bataille pour la réindustrialisation qui est encore loin d’être gagnée : le poids de l’industrie manufacturière dans le PIB français a continué de baisser pour s’établir à 9,5 % en 2022, contre 14,8 % dans la zone euro et 18,4 % en Allemagne.

Je précise que je n’oppose pas l’accueil d’investissements industriels étrangers au soutien au tissu industriel national existant : notre pays doit jouer sur les deux tableaux s’il veut remonter la pente.

 

Une année 2023 en demi-teinte

Le bilan de la France en 2023 dans la compétition pour les grandes implantations industrielles (investissements étrangers supérieurs à 500 millions d’euros) en Europe est mitigé.

D’un côté, la tendance est plutôt positive par rapport aux années précédentes : la France gagne de plus en plus d’arbitrages sur des projets importants. Le fabricant taïwanais de batteries nouvelle génération ProLogium a choisi Dunkerque pour implanter sa gigafactory de batteries (le port français était en compétition avec un site hollandais et un site allemand pour cet investissement de 5 milliards d’euros) et le géant pharmaceutique danois Novo Nordisk va investir 2,1 milliards d’euros pour agrandir son site de Chartres.

Néanmoins, deux défaites viennent assombrir le tableau : BYD, le n°1 mondial de la voiture électrique et TSMC, le n°1 mondial des puces, ont annoncé leur première usine européenne cette année, et aucun n’a choisi la France. Le constructeur automobile chinois construira son usine européenne en Hongrie, et le fabricant taiwanais de semi-conducteurs a choisi l’Allemagne.

Le tableau ci-dessous récapitule les victoires et les défaites de la France en 2023 :

 

L’année 2024 sera décisive 

Après une année 2023 mitigée, la France a l’opportunité d’attirer cette année plusieurs méga-usines sur son sol : six grands projets industriels représentant 6,5 milliards d’investissements et 5500 emplois devraient voir leur lieu d’implantation décidé en 2024. Il s’agit de :

Moderna

L’entreprise américaine a déclaré vouloir construire son usine européenne de vaccins en France, mais les négociations avec le gouvernement ne sont pas encore achevées. Moderna veut que l’État s’engage à acheter à long terme la production de la future usine.

Tesla

Elon Musk envisage une seconde gigafactory européenne et une usine de batteries à haute puissance. La concurrence est rude : l’Espagne serait en pole position pour accueillir une usine d’assemblage Tesla.

Skeleton Technologies

La start-up estonienne veut construire une usine à 550 millions d’euros pour produire ses batteries à haute puissance. Finlande, Allemagne et France sont dans la short list.

Umicore

Le groupe industriel belge hésite entre la Belgique et le nord de la France pour implanter son usine de recyclage de batterie à 500 millions d’euros.

Alteo-Wscope

Le fournisseur français d’alumine Alteo et le sud-coréen Wscope ont annoncé en novembre 2022 vouloir investir 600 millions d’euros dans les Hauts-de-France pour construire une usine de production de films de séparateurs (éléments clés de la batterie, situés entre la cathode et l’anode) de batteries électriques. Mais l’investissement n’a toujours pas été confirmé : les États-Unis seraient aussi en lice.

Une usine automobile chinoise

Soyons clair : je ne me réjouis pas de l’essor des constructeurs automobiles chinois. BYD a par exemple annoncé vouloir « détruire les vieilles légendes de l’automobile », ciblant ainsi les marques européennes. J’espère voir Renault réussir son audacieux pari industriel : en créant le pôle industriel Electricity, la marque au losange veut produire un million de véhicules électriques dans le nord de la France en 2030 (j’en parle ici).

Mais je suis pragmatique : comme l’ont fait les constructeurs japonais et coréens, les constructeurs chinois vont se faire une place sur le marché européen. Après avoir échoué à attirer BYD, il s’agit pour la France de récupérer un de ces futurs sites de production pour éviter de creuser son déficit commercial automobile. Je pense en particulier aux trois constructeurs qui ont annoncé vouloir construire une usine en Europe : SAIC MG, Chery et Great Wall Motors. D’après l’hebdomadaire Challenges, SAIC MG étudierait le site d’Hambach en Moselle : l’arrêt de la production de la SMART rend le site disponible dès cette année.

 

Attirer trois de ces six projets constituerait un résultat honorable pour la France :

  • On peut se permettre d’être optimiste concernant l’usine Moderna : l’entreprise a déclaré vouloir faire son usine européenne en France et attend une réponse du gouvernement ;
  • Attirer Skeleton Technologies, Umicore ou Alteo-Wscope permettrait de conforter l’écosystème de la Vallée de la batterie des Hauts-de-France ;
  • Réitérer le succès « Toyota Valenciennes » en gagnant une usine automobile chinoise permettrait de consolider la production automobile française et de réduire un déficit commercial automobile qui a atteint 20 milliards d’euros en 2022 ;
  • Enfin, attirer une usine Tesla serait une victoire prestigieuse, l’entreprise d’Elon Musk étant à l’avant-garde de l’automobile électrique.

 

Ces six projets d’implantation sont représentatifs des industries clés des décennies à venir : vaccins ARN, batteries et véhicules électriques. Les attirer permettrait à la France et l’Europe de se positionner sur les industries qui feront la souveraineté et la prospérité des années 2030 et 2040. Mais pour convaincre ces industriels, la France doit continuer à améliorer son attractivité. La Loi industrie verte, promulguée en octobre 2023, devrait ramener les délais d’implantation de sites industriels dans la moyenne européenne. Surtout, les industriels implantés en France bénéficient d’une électricité décarbonée grâce au nucléaire.

Mais beaucoup reste à faire : l’Hexagone dispose de peu de grands terrains industriels rapidement constructibles, et continue à surtaxer son appareil productif. Les impôts pesant sur la production demeurent à un niveau très élevé : après prise en compte des nouvelles baisses de CVAE de 2023 et 2024, l’écart restera de l’ordre de 30 milliards d’euros par rapport à la moyenne de l’Union européenne, et de 60 milliards par rapport à l’Allemagne.

Nous verrons si le prochain sommet Choose France, prévu en mai 2024, apporte son lot de bonnes nouvelles…

Pour plus de détails, voici le lien vers l’étude complète « Les 6 méga-usines que la France ne doit pas rater en 2024 ».

La fin du miracle économique chinois

Depuis plusieurs dizaines d’années, les analyses convergent sur la continuité de la croissance chinoise et la projection d’un premier rang économique mondial. Mais les bambous ne montent pas jusqu’au ciel. Un certain nombre de signaux négatifs apparaissent dans l’économie chinoise. Sont-ils conjoncturels ou plutôt structurels ? Le ralentissement économique, la démographie, la dette des entreprises, ne seront pas passagers. Le retournement de l’économie chinoise commence sous nos yeux.

Quand on vit des dizaines d’années de forte croissance, on se laisse aller à imaginer que celle-ci sera éternelle. L’histoire nous enseigne que la vie économique relève de cycles.

 

La décélération de la croissance

En étudiant la courbe de la croissance économique chinoise depuis 60 ans, on s’aperçoit qu’elle se découpe en trois phases :

  1. Une croissance accélérée, pendant 30 ans, des années 1960 jusqu’au début des années 1990, avec une pointe proche de 20 %
  2. Une croissance stable, les 15 années suivantes, en moyenne autour des 10 %
  3. Une décélération de la croissance, amorcée en 2008, passant de 10 % à  « autour » de 5 % (vocabulaire officiel)

 

Des prévisions réalistes des prochaines années prolongent ce dernier chiffre vers 4 %, puis 3 %.

La décroissance est donc à l’œuvre depuis 15 ans… Elle s’explique par la hausse des coûts, la baisse des gains de productivité, et le manque de dépenses des ménages chinois, préférant l’épargne.

Cette décroissance sera alimentée par un paramètre additionnel, le repli démographique.

 

Une triple peine démographique

Le choix de l’enfant unique décidé en 1979 a atteint l’objectif de réduire la forte croissance de la population au moment où le pays devait relever le défi alimentaire. Cette politique maintenue jusqu’en 2016 a préparé un tsunami démographique.

Ce déficit de naissances sur une longue période, première peine, a mis en place la baisse décalée du vieillissement de la population, deuxième peine.

Début 2023, le pouvoir politique a eu la plus grande difficulté à admettre une baisse de population d’environ 200 000 personnes, en 2022. La baisse de 2023 se situe à deux millions.

Probablement en 2028, la Chine repassera sous la barre des 1,4 milliard d’habitants puis, dans une génération, en 2050, en dessous de 1,2 milliard.

Ce rétrécissement de population s’accompagne d’un vieillissement accéléré, déjà inscrit dans la structure de la pyramide des âges.

La population de plus de 60 ans atteignait 241 millions en 2017 ; elle est passée à 280 millions en 2020, et se dirige vers 420 millions en 2050. Cet accroissement spectaculaire aura deux impacts : l’un sur le marché intérieur, l’autre sur le marché du travail.

La disparition de 200 millions de personnes du marché du travail ne pourra conduire qu’à un renchérissement de la main-d’œuvre, même en intégrant l’impact de l’automatisation.

Un retraité dispose de moins de revenus qu’un actif. Des conséquences significatives sur la vitalité du marché intérieur sont donc à prévoir.

La troisième peine démographique concerne la jeunesse. Après un parcours dans un système éducatif très exigeant, elle se trouve face à un marché de l’emploi très compétitif, et des conditions de travail difficiles. Apparaît donc un phénomène de désenchantement, qui se traduit par deux phénomènes inattendus : l’exode intérieur et l’exil.

Le départ des grandes villes conduit à un exode vers des villes moyennes ou la campagne. Il s’explique par le cumul du coût de l’habitat urbain, le niveau de pollution, et les difficultés d’emploi.

L’autre dynamique de la jeunesse se traduit par un exil caché. Il est étonnant de découvrir que la quatrième nationalité des migrants à la frontière sud des États-Unis est la nationalité chinoise.

Ce retournement démographique global est porteur de conséquences économiques et financières très substantielles.

 

Le poids des dettes

Ces nouvelles tendances impactent la construction et le BTP, qui représentent presque 25 % du PIB.

Pendant plusieurs décennies, la hausse de la demande de logements neufs, urbains, a conduit les sociétés majeures du secteur à poursuivre leur endettement pour alimenter cette « croissance éternelle ». Le ralentissement économique, et le rétrécissement/vieillissement de la population ont provoqué une baisse de la demande, dans une situation où l’offre de logements continuait d’augmenter.

Le groupe Evergrande, un des plus grands groupes immobiliers chinois, à la tête de plus de 300 milliards de dollars de dettes s’est déclaré en faillite aux États-Unis pendant l’été 2023, et vient d’être mis en liquidation par une décision d’un tribunal de Hong Kong, le 4 février 2024.

À l’automne dernier, l’autre géant du secteur, Country Garden, n’a pas été en mesure d’honorer un paiement de 60 millions de dollars.

Le niveau des capitaux engagés provoque naturellement des effets sur le secteur financier. Le groupe Zhongzhi, géant de la finance parallèle, très exposé au marché immobilier, affiche une dette de 64 milliards de dollars. Il s’est déclaré en faillite au début du mois de janvier 2024.

Cette triple fissure, décroissance, démographie, dette, se traduit naturellement dans les indicateurs boursiers. Le repli de la bourse de Shanghai atteint 12 % depuis six mois. Depuis fin janvier 2024, la capitalisation boursière de Hong Kong, est dépassée par celle de Bombay…

Ces nouvelles tendances clés de la réalité chinoise ne sont pas conjoncturelles, mais structurelles.

 

Des conséquences globales

La rigueur idéologique du Parti communiste chinois est-elle adaptée à cette nouvelle phase de l’économie chinoise ? Face à cette situation nouvelle, il faut de la créativité, de l’ouverture, de l’innovation, de nouvelles politiques, et des décisions atypiques afin de faire face à des réalités totalement nouvelles.

Ceci constitue un autre défi, idéologique, et structurel lui aussi, porté directement au cœur du système du PCC.

L’objectif de rattraper et dépasser les États-Unis apparaît de moins en moins probable. Au 1er octobre 2029, 80e anniversaire de la République Populaire de Chine, cela pourrait même apparaître impossible.

Il nous faut absolument réfléchir aux conséquences intérieures et internationales de cette « nouvelle » Chine.

Quand la Chine s’éveillera…. Quand la Chine s’essoufflera…

Une balance commerciale impossible à redresser ?

Le service des douanes vient de faire connaître le résultat de notre commerce extérieur pour 2023 : à nouveau un solde négatif important de 99,6 milliards d’euros. Certes, c’est mieux que l’année précédente où le déficit avait été supérieur à cause de l’envolée des prix de l’énergie causée par la guerre en Ukraine, mais le solde est négatif, une fois de plus.

La balance du commerce extérieur français est donc régulièrement déficitaire depuis 2005, c’est-à-dire depuis maintenant une vingtaine d’années. Ce solde négatif a plutôt tendance à s’aggraver, comme le montre le tableau ci-dessous :

Selon le journal La Tribune du 7 février dernier, annonçant les résultats de notre commerce extérieur pour l’année 2023 :

« Les années se suivent et se ressemblent pour la balance commerciale française : le déficit commercial de 99,6 milliards est le deuxième plus élevé de l’histoire ».

On ne peut évidemment que s’inquiéter d’une telle évolution, d’autant que les autres pays de l’Union européenne dont les balances commerciales étaient également déficitaires dans les années 1970-80, sont parvenus à redresser la barre, comme le montre le tableau suivant :

Autre constat : c’est la balance des biens qui est particulièrement dégradée, les services étant là pour rattraper quelque peu le grave déséquilibre des biens :

 

Le rôle déterminant du secteur industriel

Longtemps, les commentateurs de notre vie économique ont expliqué le déficit du commerce extérieur par des éléments conjoncturels, généralement des variations des prix de l’énergie, la France étant un gros importateur d’hydrocarbures. Mais, à présent, chacun a bien compris que le déficit de la balance du commerce provient du déclin industriel français. En effet, l’industrie joue un rôle déterminant dans la balance commerciale des pays développés, intervenant pour environ 75 % dans les échanges commerciaux.

Aussi, si l’on examine la relation existant dans les pays développés entre l’importance de leur production industrielle et le résultat de leur balance commerciale, on voit que les pays à production industrielle faible ont des balances commerciales déficitaires, alors que les pays à production industrielle élevée présentent des balances commerciales positives.

C’est ce que montre le tableau ci-dessous où figurent, dans la première colonne, les productions industrielles des pays comptées en valeur ajoutée par habitant, comme le font les comptabilités nationales des pays, et selon les données de la BIRD, qui incorpore la construction dans la définition de l’industrie :

Le graphique ci-dessous indique la corrélation existant entre ces données :

L’équation de la droite de corrélation indique que pour avoir une balance commerciale équilibrée il faut que la production industrielle s’élève à 11 265 dollars par habitant. C’est une probabilité statistique qui peut souffrir chaque année des écarts par rapport à la moyenne.

Or, la France ne dispose que de 7200 dollars de production industrielle par personne. Il faudrait donc l’accroître de 56 % pour que la balance commerciale soit à l’équilibre. En se basant sur les ratios d’intensité capitalistique des entreprises industrielles existant déjà en France, cela signifie un effectif industriel passant de 2,7 millions de personnes à 4,2 millions : soit 1,5 million d’emplois industriels à créer pour que, demain, la balance commerciale soit régulièrement en équilibre. Les effectifs industriels de l’Allemagne étant bien plus élevés, de l’ordre de 7 millions de personnes, sa balance commerciale est régulièrement excédentaire. En fait, avec la quatrième révolution industrielle en cours, baptisée industrie 4.0, les intensités capitalistiques sont devenues extrêmement élevées : il va plutôt s’agir de la création de seulement environ un million d’emplois.

La corrélation mise en évidence permet de comprendre que le solde déficitaire de notre balance commerciale, rappelé plus haut, se soit régulièrement dégradé à mesure que notre secteur industriel faiblissait : entre la fin des Trente Glorieuses et aujourd’hui, l’industrie qui intervenait pour 24 % à 25% dans la formation du PIB n’intervient plus que pour 10 % seulement. La France est devenue le pays européen qui est le plus désindustrialisé, la Grèce mise à part. Avec la crise du covid, nos dirigeants ont finalement compris qu’il était nécessaire de réindustrialiser le pays, et Emmanuel Macron a lancé le Plan France 2030. Mais il sera extrêmement difficile de remonter la pente.

Dans le Figaro-économie du 12 février dernier, Anne de Guigné énonce :

« Après des années de délitement, l’industrie française a cessé de dépérir. Mais crier victoire paraît très exagéré quand les deux indicateurs les plus robustes du secteur, l‘évolution de la production manufacturière et celle de la valeur ajoutée de l’industrie demeurent en zone grise ».

Le Plan France 2030 est très insuffisant, car les moyens financiers manquent pour épauler le redressement de notre industrie, comme le font si bien maintenant les Américains avec l’IRA, un dispositif d’aide à l’investissement qui dispose d’un budget de 369 milliards de dollars.

 

Les PME appelées à la rescousse

Pour redresser rapidement notre commerce extérieur, le gouvernement a appelé les PME à la rescousse afin qu’elles exportent. Il veut faire passer le nombre d’entreprises exportatrices de 145 700 à 200 000. Dans son discours de Roubaix le 23 février 2018, Édouard Philippe avait annoncé la création de Team France Export, afin d’encourager les PME  à « chercher des aventures à l’étranger ». Team France Export est un dispositif au service des entreprises qui regroupe les services de l’État s’occupant d’exportation, Business France, Bpifrance, et les diverses CCI existant en France. Cet organisme dispose de 13 guichets régionaux, disséminés sur tout le territoire, et un réseau de 750 conseillers installés à l’étranger dans 65 pays. Précédemment, avait été créée en 2015, « Business France », une agence nationale ayant pour mission d’« aider les PME et les ETI à se projeter à l’international ». Nos entreprises ne sont donc pas dépourvues de conseillers pour les aider à exporter, et elles peuvent bénéficier de divers soutiens financiers pour prospecter à l’étranger et exporter.

Cette ambition de faire de nos petites PME industrielles, des entreprises exportatrices, n’est en fait pas très raisonnable : c’est leur faire courir beaucoup de risques et les détourner de leur tâche principale qui est, à ce stade de leur croissance, de développer et renforcer leurs avantages compétitifs. Hors les grandes entreprises, qui, elles, disposent du personnel voulu pour exporter, et dont les reins sont assez solides pour faire face aux aléas des opérations à mener dans des pays lointains que l’on connait mal, seules les ETI, (250 à 500 employés), sont capables d’avoir une politique suivie à l’exportation.

En matière d’exportation, le drame de la France est qu’elle dispose de relativement peu d’ETI, à la différence de l’Allemagne ou de la Grande-Bretagne : elles sont 5760 en France, contre 12 500 en Allemagne et 10 000 en Grande-Bretagne, et ne sont pas toutes dans le secteur industriel, loin de là. Pour exporter des biens industriels, il faut généralement avoir à l’étranger des accords avec des entreprises locales qui aideront les consommateurs à utiliser ces équipements et assureront l’après- vente, car faire de l’après-vente à partir de la France est une gageure. Ces partenaires étrangers exigeront que l’entreprise avec laquelle ils vont collaborer ait une certaine dimension : s’il s’agit d’une PME de taille modeste, ils ne seront pas partants et auront tendance à aller chercher ailleurs un exportateur plus solide avec lequel s’allier. Une PME peut exporter aisément, sans risque, des produits ne nécessitant aucune collaboration avec l’acheteur, et notamment pas d’après-vente, comme par exemple, la cristallerie ou les articles de porcelaine.

Augmenter les exportations et avoir une balance commerciale à l’équilibre sont donc des missions extrêmement ardues :

  • le secteur industriel s’est considérablement amenuisé, l’industrie manufacturière ne représente plus que 10 % du PIB, contre 23 % ou 24 % pour l’Allemagne.
  • le pays manque d’entreprises de taille intermédiaire, soit deux fois moins que l’Allemagne.

 

Rééquilibrer notre balance du commerce extérieur, mission qui est confiée au ministre chargé du Commerce extérieur, est une tâche de très longue haleine qui va demander de très nombreuses années, c’est-à-dire le temps que nos dirigeants mettront pour accroître de 56 % la production du secteur industriel.

SNCF : les conditions d’une privatisation réussie

Le principe de privatisation n’est ni bon ni mauvais en soi. Ce sont les conditions de sa réalisation qui en font un bon ou un mauvais choix.

Multiplier les opérateurs sur les lignes hyper rentables, comme la compagnie espagnole Renfe sur le trajet Paris-Lyon-Marseille, par exemple, ne pourra jamais développer le rail sur le territoire national. Au contraire, affaiblir les recettes de la SNCF en la laissant seule gestionnaire des lignes locales et secondaires, est le meilleur moyen pour que ces dernières ne soient plus exploitées ou ne vivent plus que sous perfusion d’argent public (abondé par les régions, les départements…).

Mais la privatisation des lignes secondaires est déjà en route : les régions PACA et Normandie ont déjà engagé le processus. Oui, mais avec toutes les chances réunies pour un échec en beauté.

D’abord, parce qu’aucun plan directeur de développement du rail n’a été élaboré ou n’est en cours d’élaboration. Ensuite, parce que nous nous dirigeons tranquillement vers une privatisation sur le mode concessionnaire et non open access.

Or, quels enseignements pouvons-nous tirer de l’expérience britannique ?

Le modèle concessionnaire choisi par nos voisins d’outre-Manche, malgré toutes les réussites de la privatisation, n’a ni permis de diminuer la charge qui pèse sur les finances publiques ni provoqué une baisse des tarifs pour les passagers. C’est logique, car le système concessionnaire remplace un monopole par un autre. C’est d’ailleurs le modèle open access que la France semble avoir choisi pour les lignes à fortes rentabilité comme Paris-Lyon-Marseille, alors pourquoi s’arrêter en si bon chemin et ne pas appliquer ce même modèle aux lignes secondaires, voire locales ? Parce que l’état des infrastructures et la rentabilité théorique seraient de nature à repousser d’éventuels acteurs privés ?

 

Quelques pistes de réflexion pour imaginer une privatisation intelligente…

Un schéma national de développement

Il est nécessaire d’établir avant tout un schéma national de développement de l’infrastructure du rail afin d’atteindre, à une échéance de 10 à 15 ans, un maillage de la quasi totalité des agglomérations françaises.

Rappelons qu’entre la nationalisation de 1938 et aujourd’hui, ce sont 16 000 km de voies ferrées qui ont été démolies au nom du « service public ». Il est impératif de reconstituer un maillage du territoire national permettant d’utiliser le rail pour se rendre d’une commune à une autre sans être obligé de transiter par Paris, ou de payer trois fois plus que le prix de ce même trajet en automobile.

 

Une société unique, mixte, de gestion des infrastructures

L’exécution et la gestion de cette infrastructure (réseaux et gares) devraient être confiées à une entité unique, nationale, afin d’éviter les redondances, d’assurer une totale interconnexion et de définir les priorisations.

Cette société serait renforcée sur la plan capitalistique par l’apport de capitaux privés (ce que les statuts de « SNCF gares et connexions » permet), y compris et surtout de la part des sociétés privées qui souhaiteraient être présentes sur le marché du rail. Ainsi, toute société privée désireuse d’exploiter un tronçon du réseau ferré français, se verrait tenue de participer au financement des investissements en devenant actionnaire de la société nationale. Cela n’est bien sûr pas exclusif, et si des sociétés non exploitantes voulaient investir dans le réseau, elles devraient pouvoir le faire.

Pour des raisons stratégiques, le contrôle de cette société devrait rester aux mains de l’État. Si, pour certains, cette idée pourrait sembler désuète ou anachronique, la réalité de certaines situations advenant chez certains de nos voisins devraient les amener à réfléchir sur le rôle que peut jouer un réseau ferré en cas de conflit.

Enfin, l’économie de cette entité serait assurée par les droits de péage versés par les exploitants. Actuellement, ces droits sont démesurément lourds. Cette situation est le fruit d’une gestion technocratique, d’un trafic exsangue et du quasi monopole des exploitants.

D’où les points suivants :

Une privatisation en open access

Pour les raisons évoquées précédemment, si nous voulons éviter la reconstitution de monopoles, qu’ils soient privés ou publics importe peu, tous les opérateurs qui le souhaitent devraient pouvoir exploiter une ligne. La société gérant les infrastructures devrait alors émettre des droits de trafic avec des créneaux horaires, sur le modèle de ce qui existe pour le trafic aérien. C’est la condition sine qua non pour que la concurrence joue son rôle.

Une diversification des matériels

Une des raisons pour lesquelles les trains régionaux coûtent aujourd’hui si cher est l’équipement imposé par la SNCF. Or, certaines dessertes peuvent être assurées par des matériels plus légers nécessitant des investissements moins lourds (Bluetram par exemple pour la réouverture de lignes locales dont les rails ont été démontés) ou des matériels anciens reconditionnés (comme Transdev sur la ligne Carhaix-Paimpol), et une gestion du personnel plus souple.

Développer le trafic marchandises

S’il est un point sur lequel les impératifs économiques et écologiques se rejoignent, c’est sur la nécessité de développer le trafic de marchandises par le rail. La solution la plus efficace et la plus rapide pour y parvenir serait d’ imposer de manière progressive le ferroutage ou transport combiné.

Cette mesure pourrait s’appliquer de manière progressive, d’abord sur le trafic en transit, puis sur des distances de plus en plus courtes, réduisant, à terme, l’usage du camion à un rayon de 100 km.

Outre la diminution de la pollution que le ferroutage engendrerait (les camions sont la première source de rejets de microparticules et de gommes), cette solution permettrait le désengorgement des infrastructures routières, le ralentissement de leur usure et la diminution des accidents routiers. Elle permettrait de créer un marché du fret ferroviaire propice à la baisse de ses coûts et donc du prix des droits de péage. Le développement de ce marché participerait à la rentabilisation de « SNCF gares et connexions ».

Conditionner l’octroi de droits d’exploitation des lignes à fortes rentabilité

Il s’agit ici de déterminer un principe de conditionnement de l’octroi de droits d’exploitation des lignes à fortes rentabilités (TGV, grandes lignes) à l’exploitation de lignes locales et régionales.

Par exemple, l’exploitation ou la réouverture de lignes locales ou régionales permettraient l’octroi de plus ou moins de « droits » (en fonction du niveau de non-rentabilité à court, moyen et long terme) sur les lignes à forte rentabilité. L’exploitation de ces lignes n’intéressant pas forcément l’exploitant, ces  « droits » pourraient être négociables sous forme de vente ou de location, et donc permettre d’améliorer la rentabilité des petites lignes sans faire appel à des subventions publiques.

 

Oui, la privatisation peut être vertueuse

Un dispositif tel que décrit précédemment permettrait de développer le rail par l’apport de capitaux privés dans la société gestionnaire des infrastructures. Plus de lignes, plus de communes desservies, plus de trains, plus de lignes transversales, plus de trafic marchandises, tout en garantissant le principe de continuité territoriale.

Il ne s’agit pas de privatiser seulement ce qui est rentable, mais de faire de la privatisation un élément de dynamisation du trafic ferroviaire, tout en soulageant les finances publiques, car ces dernières ne seraient, comme il se doit, engagées que dans les investissements et non dans le fonctionnement.

Lyon-Turin : un projet ferroviaire titanesque, des opposants à couteaux tirés – Entretien avec le délégué général de la Transalpine

Baisses d’impôts : quand les promesses d’Attal se fracasseront sur le mur de la réalité

Lors de son discours de politique générale, Gabriel Attal a annoncé deux milliards d’euros de baisses d’impôts pour les classes moyennes, financées par la solidarité nationale.

En langage courant, cela signifie payé par les riches. Les classes moyennes ne devraient pas se réjouir trop tôt : François Hollande avait déjà opéré ce type de transfert fiscal au début de son quinquennat et pour lui, être riche commençait à 4000 euros par mois. Le jeune Gabriel Attal était à cette époque membre du cabinet de Marisol Touraine. Le fruit ne tombe pas loin de l’arbre.

Le gouvernement dispose de trois pistes pour déshabiller Paul afin d’habiller Pierre.

La première – et la pire – est l’abolition ou l’augmentation de la flat tax sur les revenus du capital. En pénalisant l’investissement dans l’économie réelle et en punissant les investisseurs qui réallouent leur capital vers de nouveaux projets, c’est la croissance déjà atone de la France qui ralentirait, et avec elle les salaires et les recettes futures de l’État. Ce qui apparaît à court terme fiscalement neutre se révèle à long terme coûteux. Nul doute que la facture finale reviendrait aux classes moyennes.

La seconde piste est l’augmentation de l’IFI, mais considérant que cela nécessiterait de le doubler, il est peu probable que le gouvernement s’engage sur cette voie.

La dernière piste est l’augmentation des tranches supérieures de l’impôt sur le revenu, voire la création d’une nouvelle. Or, s’il y a un impôt par lequel la soi-disant solidarité nationale s’exerce particulièrement, c’est bien l’impôt sur le revenu.

En effet, en 2022, le montant moyen payé par 82,5 % des foyers est inférieur à 300 euros, 13 millions de foyers recevant même de l’argent plutôt que d’en payer. À l’inverse, les 1,3 % des ménages les plus riches s’acquittaient de près de 36 % de la facture totale de l’impôt sur le revenu : 30 milliards d’euros. Le gouvernement prévoit-il d’augmenter leur contribution de 6 % pour essayer de sauver les élections européennes ? Ce serait une bien mauvaise nouvelle pour la France.

Dans son étude comparative de la fiscalité des pays européens parue en 2023, la Tax Foundation a classé la France dernière. Parmi les critères utilisés pour dresser ce classement se trouve la fiscalité individuelle. Bien que n’ayant pas les taux affichés les pires d’Europe (le Danemark et l’Autriche décrochent cette triste médaille), la France se situe dans le bas du classement à cause de sa fiscalité qui punit fortement le travail. Le rapport entre le coût marginal – celui de gagner un euro de plus – de la fiscalité du travail et le taux moyen est de 1,55 en France. L’augmentation de la progressivité de l’impôt sur le revenu accentuera ce mauvais résultat. L’augmentation de la fiscalité des classes supérieures – celles qui épargnent le plus – aurait les mêmes conséquences sur la croissance que l’abolition de la flat tax. Comment Gabriel Attal compte-t-il « desmicardiser la France » si l’impôt encourage les bas revenus et freine la progression des salaires ?

Gabriel Attal promet que cette baisse d’impôt sera entièrement financée.

Tout observateur sérieux sait que c’est au mieux un mensonge, au pire, une incompétence crasse. Tout d’abord, comme le constate le rapporteur général de la commission des Finances du Sénat, Jean-Francois Husson, le budget de 2024 consacre l’entrée de la France dans l’ère des déficits extrêmes.

Comment le Premier ministre peut-il prétendre que cette mesure sera entièrement financée quand 30% du budget de l’État ne l’est pas ? Le PLF 2024 prévoit 491 milliards d’euros de dépenses pour 350 milliards de recettes, c’est-à-dire que 141 milliards d’euros de dépenses ne sont pas financées.

Cela soulève deux questions.

Tout d’abord, pourquoi le gouvernement ne choisit-il pas tout simplement d’augmenter le déficit de l’État de 1,4 %, ce qui aurait moins d’impact sur les recettes futures qu’une mauvaise hausse d’impôt ?

Surtout, pourquoi est-il incapable de réduire les dépenses d’un pitoyable 0,4 % pour réellement financer sa baisse d’impôt ? Ce ne sont pourtant pas les coupes faciles qui manquent, à commencer par les ubuesques primes pour rapiécer les vêtements, réparer les vélos ou les lave-linges. Le tentaculaire audiovisuel public coûte à lui seul 3,8 milliards d’euros par an, il suffirait d’en privatiser la moitié pour financer la mesure.

La Cour des comptes publie quasi quotidiennement un rapport qui nous rappelle le gaspillage et la gestion hasardeuse des deniers publics.

Une réforme de l’impôt sur le revenu est nécessaire pour relancer la France et récompenser le travail, et c’est possible à périmètre fiscal constant.

La plus audacieuse d’entre elles est la suppression de l’impôt sur le revenu financé par l’élargissement de la base de la TVA. Selon la Tax Foundation, la TVA ne perçoit que la moitié de son potentiel, de nombreux produits étant soumis à un taux réduit, voire nul.

Une seconde réforme moins audacieuse reviendrait à instaurer une flat tax sur l’ensemble des revenus. Avec 1322 milliards de revenus déclarés, son taux ne s’élèverait qu’à 7,1 % ! Bien sûr, la vraie réforme serait de baisser tout simplement les dépenses publiques de 6 %, ce qui serait toujours supérieur à l’avant covid.

Impossible pour Gabriel Attal, incapable qu’il est de trouver deux milliards.

Les champions (franco)africains du french bashing

« Je déteste tous les Français »

Le 3 février dernier, un immigré malien de 32 ans, Sagou Gouno Kassogue, a attaqué au couteau et blessé grièvement des passagers de la Gare de Lyon. Finalement maîtrisé par l’action conjuguée des passants, des agents de sécurité et des membres de la police ferroviaire, l’homme en garde à vue a été mis en examen pour tentative d’assassinat aggravée et violence avec armes aggravée.

Les premiers éléments de l’enquête dévoilés par le préfet de police de Paris révèlent les discours conspirationnistes d’un individu ayant visiblement prémédité son acte, comme le montre l’activité d’un compte Tik-Tok et d’un compte Facebook à son nom, ainsi que des dizaines de messages postés sur les réseaux sociaux. Il est pourtant encore présenté comme psychiatriquement fragile. Fragile mais capable de préméditer.

Sur son compte Tik-Tok et sur son compte Facebook la même boue habituelle, victimaire et antioccidentale charriée par la fachosphère ouest-africaine : « la France paye, par ce crime, pour le pillage des ressources durant la colonisation », « la France finance le terrorisme », « Emmanuel Macron a fait alliance avec le diable ».

En retour, des déclarations à « son excellence Vladimir Poutine ».

On en passe et des meilleures.

Ce discours on le connaît. Il inonde la Toile depuis des années, parfois émanant de personnes naturalisées ou binationales mais résidant en France : on se demande ce que fait la Justice française devant ce déferlement de haine anti-française…

Ce discours on le connaît aussi parce qu’il est porté depuis des années par des associations ayant pignon sur rue, on le connaît surtout parce que c’est celui des juntes militaires malienne, burkinabé et nigérienne. On le connaît enfin parce que c’est celui que Abdoulaye Diop et Abdoulaye Maïga, membres du gouvernement militaire malien, ont tenu tous deux, sans honte, à la tribune des Nations Unies.

L’attaque au couteau de la gare de Lyon ne sort pas de nulle part et encore moins des brumes cérébrales d’un immigré perturbé.

Cette attaque est l’aboutissement d’un long et lent processus viral né et métastasé sur le Net. Et qui s’est brusquement défictionnalisé en s’incarnant dans une tragédie.

La première sans doute d’une série.

Retour sur les enjeux de la guerre informationnelle menée contre la France, et donc depuis le 3 février, contre chaque Français.

 

Ils vous connaissent mieux que vous ne vous connaissez vous-même… 

Quatre milliards d’humains votent en 2024, soit la moitié de l’humanité : un fait sans précédent dans son histoire, qui laisse certains penser que la démocratie s’étend dans le monde. Pour autant, toutes les démocraties ne se valent pas, en effet beaucoup de régimes étant des « démocratures », des régimes à élection mais sans les garanties de libertés individuelles qu’offre le système de Westminster.

Encore faut-il rappeler que ces élections vont se dérouler dans un contexte numérique de désinformation massive, également sans précédent dans l’histoire de la démocratie libérale.

Non seulement la désinformation peut influer sur les déterminants du vote et favoriser telle ou telle famille d’idées politiques, mais elle peut aussi renverser des régimes : en Afrique de l’Ouest, notamment, où quatre régimes politiques sont tombés (Mali, Burkina Faso, Guinée-Conakry et Niger), largement sous les coups portés à l’idéal démocratique par des réseaux sociaux alimentant les fausses nouvelles à un rythme effréné.

Derrière ces campagnes de désinformation, des personnalités, des mécanismes, des éléments de langage qu’on arrive maintenant à bien connaître car le Sahel en a été dans le monde francophone un des laboratoires les plus prolifiques et aussi les plus prolixes.

Anti-Français, anti-démocratie, antilibéraux, adeptes de toutes les théories du complot les plus rétrogrades, quand ils ne les fabriquent pas eux-mêmes, ces influenceurs et activistes du Net sont entrés dans une « guerre sans fumée » contre la France. Ils sont capables de faire tomber des gouvernements, voire, comme au Sahel, de renverser des régimes politiques.

Qui a dit à la Radio Télévision Suisse : « […] Chaque soldat français qui tombe en Afrique, c’est un ennemi qui tombe […] » ? Nathalie Yamb, « La Dame de Sotchi ».

Qui a dit : « […] « La seule chose qui nous rapproche des nazis, et que je ne renie pas, c’est qu’ils aimaient l’Allemagne plus que l’Allemagne s’aimait elle-même » […] » ? Stellio Capo Chichi, alias Kemi Seba, « L’Étoile Noire », dans un entretien (Rapporté par Jean Chichizola et Gabrielle Gabizon dans Le Figaro, 30/05/2006) ; et il ajoute une charge contre « […] les macaques de l’amitié judéo-noire […] » (2004) précisant ensuite son propos « […] Nous combattons tous ces macaques qui trahissent leurs origines, de Stéphane Pocrain à Christiane Taubira en passant par Mouloud Aounit. […] Les nationalistes sont les seuls Blancs que j’aime. […] » (Propos rapportés par Mourad Guichard, Libération, 18 janvier 2008).

Vous ne les connaissez pas, mais ils vous connaissent très bien et ont fait de vous les boucs émissaires à l’origine de tous les problèmes du monde. Enquêtes au cœur de la galaxie de l’absurde assassin.

 

Choc des civilisations et menace existentielle

Ces gens, ces propos, ne restent pas inertes, cantonnés à la sphère virtuelle : la porosité entre le virtuel et le réel est forte, comme en témoigne par exemple l’alliance de circonstance entre la Ligue de Défense Noire Africaine, mouvement suprémaciste noir microscopique en termes d’adhérents, mais très largement présent sur les réseaux sociaux, et l’association « Vérité pour Adama », dans les manifestations organisées par cette dernière contre les « violences policières ».

Les propos tenus en ligne par les ténors du french bashing se diffusent via les réseaux sociaux bien au-delà des cercles géographiques ou culturels initiaux dans lesquels ils sont produits : par capillarité ils irriguent des sphères voisines, puis se diffusent par le jeu des commentaires et des reposts dans des sphères de plus en plus éloignées. Et finissent dans les cités par donner un vernis idéologique et anti- démocratique à des malaises sociaux ou sociétaux, mais aussi à la haine de la République, de la laïcité, de l’école.

Si les atteintes à la laïcité dans les écoles et les lycées, mais aussi les universités, se multiplient, c’est aussi parce que les réseaux sociaux démultiplient à l’infini les thèses les plus extrémistes, dont beaucoup sont destinées préférentiellement aux populations du Sahel, mais sont récupérées au passage par des membres de diasporas, qui restent à l’écoute de ce qui se passe dans leur pays d’origine, et en irriguent ensuite les conversations à la maison, transmettant en France via leurs enfants jeunes adultes ou adolescents le narratif d’intolérance et de haine qui sont le pain quotidien de ces réseaux sociaux.

Il n’y a plus du frontière entre le local et le global : ce qui est local est global, ce qui est global s’incarne dans du local. Comme il n’y a plus de frontière entre le virtuel et le réel. Nous sommes entrés dans un monde hyper-performatif : hier on disait « dire c’est faire ! » aujourd’hui nous sommes dans un âge où « Lire c’est faire ! » comme les assassinats de Samuel Paty et Dominique Bernard nous l’ont montré.

Les voies migratoires sont autant de canaux de diffusion physiques des propos anti-démocratiques, anti-occidentaux et anti-mondialistes tenus sur les réseaux sociaux et auxquels sont littéralement biberonnés les jeunes des grandes métropoles du Sahel, mais aussi ceux des « quartiers », c’est-à-dire les grandes banlieues des métropoles françaises.

Les propos tenus sur les réseaux sociaux destinés aux populations sahéliennes sont rarement produits au Sahel : ainsi Alain Foka, ancien journaliste de Radio France Internationale (RFI), qui après avoir soutenu la chute des régimes démocratiques au Burkina Faso, au Mali et au Niger, et avoir lui aussi fait le déplacement à Bamako, et après son récent départ de RFI s’est illustré au Togo, dictature familiale de la famille Gnasimbé, y a inauguré sa nouvelle entreprise de média, s’interroge ou feint de s’interroger : « Pourquoi la jeunesse africaine rejette l’Occident ? ».

Ou bien @La guêpe, sur X, installée aux États-Unis, ou Fenelon Massala (@rfemassala sur X) installé en Belgique…

La fabrique du french bashing et de la haine de l’Occident est largement produite en Occident. Le cas d’Alain Foka est loin d’être un cas isolé : Claudy Siarr, chroniqueur culture sur RFI et animateur de l’emblématique émission de RFI « Couleurs tropicales » s’est, lui aussi, sur les réseaux sociaux fait une spécialité de défendre le narratif russe dans la guerre en Ukraine, comme de soutenir le régime dictatorial en Centrafrique…

 

La coalescence des galaxies du french bashing : le suprémacisme noir…

Ils sont légion. Mais ils ne sont ni inconnus ni insaisissables. Derrière l’armée des petites mains qui officie sous pseudos sur les réseaux sociaux, et bien sûr derrière l’armée des bots issus des fermes à trolls souvent d’obédience russe (mais parfois chinois ou même iraniens), il y a des têtes d’affiche du french bashing. Et ceux-là, non seulement sont très connus, mais vivent et existent grâce à leurs outrances sur les réseaux sociaux.

Certains d’entre eux vivent et s’enrichissent de cette guerre informationnelle. Par le biais de partis politiques et d’organisations non gouvernementales (ONG) comme Urgences panafricanistes du franco-béninois Stellio Capo Chichi alias Kemi Seba (« L’Étoile Noire »), ou d’association comme L’Institut de l’Afrique des Libertés du franco-camerounais Franklin Nyamsi, ou par le biais de sociétés : Nathalie Yamb est spécialiste en la matière, ayant fondé en Suisse, dans le Canton de Zoug, une société de consulting, et dans le Delaware, paradis fiscal aux États-Unis, une société écran révélée (2021) par les Panama papers, Hutchinson Hastings Partners LLC.

Ils évoluent cependant dans des galaxies hier déconnectées, aujourd’hui en voie de coalescence.

Les tenants du kémitisme et du suprémacisme noir

La galaxie du suprémacisme noir est la première à avoir émergé sur la scène médiatique et numérique francophone. Cette galaxie est représentée en France par une myriade d’associations et quelques leaders qui se sont progressivement imposés sur une scène médiatique élargie, alors même que leurs militants se compte sur les doigts de la main. L’audience numérique d’un Sylvain Dodji Afoua, Franco-Togolais qui se fait appeler « Egountchi Behanin » du nom d’un ancien roi du Dahomey, est sans commune mesure avec le nombre d’adhérents de sa Ligue de Défense Noire Africaine (LDNA), moins de 250 adhérents lors de sa dissolution.

L’un des parrains de cette galaxie est le docteur Franklin Nyamsi, Franco-Camerounais, arrivé en France pour y poursuivre ses études supérieures, docteur en philosophie, professeur de l’Éducation nationale, temporairement mis à pied en 2023 pour ses propos tenus en classe, mais maintenu dans la fonction publique. Il vitupère sur les réseaux sociaux contre la France, accusée de tous les maux du continent africain. Sous le pseudonyme de Nyamsi Wa Kamerun Wa Afrika, ses vidéos de moins d’une minute sur Tik Tok, le réseau social chinois, sont vues des centaines de milliers de fois.

Sur sa chaîne YouTube (Plus de 300 000 abonnés) il se présente :

« […] La liberté, la dignité, Le bien- être intégral de l’humanité dans une planète harmonieuse sont mes rêves éveillés. Je veux promouvoir ici comme ailleurs, La justice. […] ».

Jamais en mal d’emphase sur lui-même, le professeur de l’Académie de Rouen n’en n’attise pas moins un feu continu sur le pays qui l’a formé et l’accueille.

C’est ainsi qu’en janvier 2024 sur sa chaîne YouTube où il rappelle son séjour au Niger et sa réception en grande pompe par les autorités militaires qui viennent de renverser le président élu Mohamed Bazoum, il présente son retour à Bamako, « Capitale de l’Alliance des États du Sahel ». Les louanges dans les commentaires sont à la mesure de l’enflure de l’ego de Franklin Nyamsi : ainsi @ognok4196 qui affirme : « […] Soyez béni, Prof Inbougique pour votre contribution louable […] » et ajoute « […] Comme toujours, vive la Russie et le GRAND POUTINE, le président du siècle […] ».

Si après, on conteste encore l’influence russe derrière la sphère suprémaciste noire…

La haine de la France n’est d’ailleurs jamais loin :

« […] nous ne pardonnons jamais à ces locodermes (sic) [Pour leucodermes id est les Blancs], qui ont osés souillés la terre de l’homme et son humanité ! Hotep professeur ! […] » déclare @deazolowry4473 tandis que @Africa_infoTV1994 affirme espérer « […] Les pays de L’A.E.S Transition jusqu’en 2100 […] ». C’est-à-dire pas d’élection jusqu’en 2100 !

Le triptyque haine des Blancs, haine de la démocratie et délire égyptologique est posé. Il fonde le discours du suprémacisme noir. Derrière ces figures d’intellectuels de l’afrocentrisme, émergent des figures plus rustres mais tout aussi populaires de militants. Comme Sylvain Dodji Afoua ou Stellio Capo Chichi.

Sylvain Dodji Afoua, né au Togo, arrivé en France à l’âge de 14 ans après le décès de son père au Togo. Il rassemble autour de son association LDNA plus de 50 000 followers sur Instagram, presque autant sur Facebook : condamné pour viol sur personne vulnérable en 2014, et incarcéré, puis pour intimidation en 2019 envers un élu public, Sylvain Dodji Afoua s’est ensuite régulièrement affiché dans les pays enclavés du Sahel victimes des coups d’État militaires, dont le Mali où il pose aux côtés d’un manifestant portant une pancarte « Mort à la France ».

Stellio Capo Chichi, connu sur les réseaux sociaux sous l’alias de Kemi Seba (« L’Étoile Noire »), est lui aussi un récidiviste des condamnations, en règle générale pour incitation à la haine raciale et antisémitisme.

Il déclarait notamment :

« [Les institutions internationales comme le FMI, la Banque mondiale ou l’Organisation mondiale de la santé sont] tenues par les sionistes qui imposent à l’Afrique et à sa diaspora des conditions de vie tellement excrémentielles que le camp de concentration d’Auschwitz peut paraître comme un paradis sur Terre. » (2009).

Les médias africains souvent situés dans l’opposition ne sont pas avares de louanges pour Stellio Capo Chichi, confinant parfois à l’admiration homo érotique.

Ainsi Joseph Akoutou (2018) dans BeninWebTV qui déclare :

« […] Ce Franco-Béninois a un physique imposant par sa taille élancée, son épaule rectangulaire, sa démarche de guerrier, son visage grave où l’on lit la fermeté, la colère, la révolte, la rage, une revendication. […] ».

L’éternel retour de la figure de l’homme providentiel.

Engagé dans la branche européenne de Nation of Islam du leader musulman américain Louis Farrakhan, il quitte plusieurs fois le mouvement et décide finalement de rompre avec les religions révélées et fonde divers groupuscules dont Tribu Ka, et maintenant l’ONG Urgences Panafricanistes. Expulsé du Sénégal puis de Côte d’Ivoire, il s’installe au Bénin, et apporte ensuite son soutien aux régimes militaires malien, puis burkinabè, et enfin nigérien. Il organise d’ailleurs un meeting à Niamey dans la foulée du coup d’État militaire perpétré contre le président élu Mohamed Bazoum.

L’ONG Urgences Panafricanistes est fondée en 2015 en partenariat avec Toussaint Alain, ancien conseiller de Laurent Gbagbo et alors en exil, et c’est sans doute là que, dans la sphère suprémaciste noire, les rapprochements commencent avec l’autre galaxie anti-France et anti-démocratie, celle des orphelins de la crise ivoirienne.

Les orphelins de la crise ivoirienne : un composite instable mais soudé par la haine de la France et une survie médiatique sur les réseaux sociaux

La galaxie des influenceurs Web issue de la crise ivoirienne est composite : pour partie elle est constituée des militants de Laurent Gbagbo, ancien président de Côte d’Ivoire, déféré puis acquitté par la Cour Pénale Internationale (CPI) ; pour partie par les partisans de Guillaume Soro, ennemi de Laurent Gbagbo, mais revenu à de meilleurs sentiments lorsqu’il échoua à son tour dans son coup de force contre le président élu Alassane Dramane Ouattara.

Une galaxie bien fragile en apparence, mais soudée par la haine de la France et très active sur les réseaux sociaux – exil oblige – et architecturée autour de la commune haine contre Alassane Dramane Ouattara (ADO pour ses supporters). Et donc qui verse dans la haine de la France, considérée comme la garante du pouvoir et de la longévité du président ADO.

Alors qu’elle tempête en permanence sur le climat de dictature qui règnerait en Côte d’Ivoire, nombre des artisans de cette galaxie anti-France, résident pourtant en Côte d’Ivoire ou y ont résidé : c’est le cas, on l’a dit, de Stellio Capo Chichi, finalement expulsé, de Nathalie Yamb, expulsée elle aussi, c’est le cas sur X de @amir_nourdine, dit Amir Nourdine Elbachir, qui regroupe plus de 120 000 followers sur X, ou de @DelphineSankara, dit Issa Sissoko Elvis, un homme, en dépit de son pseudonyme, qui vit comme animateur de radio communautaire dans le nord de la Côte d’Ivoire.

Nathalie Yamb illustre à elle seule les contours très flous d’une galaxie largement inféodée au narratif russe.

Elle est impliquée dans le scandale aux cryptomonnaies organisé par la société Global Investment Trading de Émile Parfait Simb, un autre Camerounais actuellement en fuite. Elle fait l’objet d’une plainte collective des clients de Simb Group dans l’affaire Liyeplimal, une plainte adressée au parquet fédéral du New Jersey, dans laquelle elle figure comme co-accusée aux côtés de personnalités politiques et médiatiques camerounaises. Il lui est reproché d’avoir vanté les mérites de Liyeplimal, gigantesque pyramide de Ponzi numérique, alors que les autorités de régulations financières d’Afrique centrale avaient déjà averti les usagers des irrégularités commises par les sociétés de Simb Group.

Émile Parfait Simb, actuellement mis en examen au Cameroun, et dont la société a son siège social à Dubaï, bénéficie d’un passeport diplomatique de la Centrafrique, premier pays francophone à tomber dans l’escarcelle de Wagner. Il a quitté l’Afrique, d’abord pour la Russie, puis pour une destination inconnue. Ange-Félix Taoudéra, dont les liens avec la société parapublique Wagner et avec la Russie sont forts, est étonnamment exempt de toute critique de la part de Nathalie Yamb.

Surnommée « La Dame de Sotchi » depuis son intervention en 2019 à la première édition du Forum Russie-Afrique où elle a fustigé la France, Nathalie Yamb a depuis apporté son soutien aux juntes militaires burkinabè, malienne et nigérienne, se rendant à Niamey, la capitale politique du Niger, au mois de décembre 2023 où elle est reçue en grande pompe par les nouvelles autorités militaires.

Nathalie Yamb est d’ailleurs souvent citée dans les plaintes qui la visent aux côtés de Jean-Jacques Moiffo, dit Jacky : autre ressortissant Camerounais installé en région parisienne, animateur et fondateur de la Web TV modestement appelée JMTV. Il est arrivé en France à 25 ans et est également impliqué dans la plainte déposé aux États-Unis contre Global Investment Trading SA dans le cadre du scandale Liyeplimal.

La haine de l’Occident sur les réseaux sociaux se fabrique donc d’abord en Occident, par des immigrés qui y sont accueillis et installés, et qui ne comptent visiblement pas s’installer ailleurs…

 

Les prébendiers, intellectuels et artistes en perte de vitesse : le « syndrome Maître Gims »

La recette est assez simple ; quand tu es un artiste ou un intellectuel et que tu perds de l’audience, dis une connerie et tu retrouveras ton audience et ta popularité.

On se souvient des propos lunaires de Maître Gims sur l’électricité et les anciens Égyptiens, sur les tableaux de chevaliers noirs cachés sous le Vatican dans des catacombes (?). La même chose existe bien évidemment au Sahel. Une galaxie de prébendiers de la politique s’est réveillée pour se mettre au service des régimes militaires, c’est-à-dire diffuser le narratif anti-démocratique et anti-français.

Les artistes qui se refont une seconde carrière sur le french bashing

Dernière galaxie à s’agréger à cette nébuleuse du french bashing, celle des artistes et intellectuels sahéliens, plus ou moins ringardisés, et dont la notoriété à été revigorée par leurs prises de positions publiques haineuses à l’égard de la France.

Il en est ainsi du dernier arrivé dans la galaxie des has been de la culture ouest-africaine : Doumbia Moussa Fakoly, dit Tikken Jah Fakoly, reggae man ivoirien, habitué des scènes françaises, n’en n’est pas moins un adversaire acharné, non seulement de la France, mais également de la démocratie. Dernière sortie en date, non pas un album mais une déclaration tonitruante en faveur des régimes militaires du Burkina Faso, du Mali et du Niger. Quand on sait le sort réservé aux militaires ivoiriens envoyés dans le cadre de la MINUSMA pour protéger la base aérienne de l’ONU au Mali et retenus en otages par les autorités maliennes pendant de longs mois, le ralliement du reggae man étonne… Mais la « jeunesse » ouest-africaine est sensible à ces déclarations à l’emporte-pièces anti-françaises et anti-démocratiques.

Il n’est pas le seul artiste à avoir rallié les régimes militaires : Salif Keïta, qui avait par ses déclarations largement discrédité la démocratie malienne, a intégré le Conseil National de la Transition (CNT) institué par les putschistes maliens avant de s’en retirer pour des raisons de santé trois ans plus tard. Il n’a pourtant jamais cessé, ni avant son entrée au CNT ni après, de vitupérer contre la France et les démocraties sahéliennes, usant de son aura internationale de musicien et de chanteur pour donner une forme de légitimité populaire à la junte militaire malienne.

Las, il a dû aussi annuler en catastrophe un concert prévu à… Abidjan, capitale de la Côte d’Ivoire devant la bronca des réseaux sociaux ivoiriens, ulcérés de voir un des principaux propagandistes de la junte militaire malienne oser paraître devant le public ivoirien, alors que cette même junte avait retenu de longs mois des militaires ivoiriens en otages.

L’entrée de Tikken Jah Fakoly le reggae man sur la scène pro-putschiste avait aussi pour ambition de rallier le public des jeunes Ivoiriens au narratif anti-Ouattara développé par les militaires maliens : les crimes en série commis par Wagner contre les populations civiles, majoritairement peules et touarègues, les coupures d’électricité incessantes dans tout le Mali et notoirement à Bamako, le coût de l’utilisation de Wagner (près de 200 millions de dollars par an au lieu des 120 annoncés initialement, et payés essentiellement en or malien) ont toutefois largement discrédité le régime militaire de Bamako.

Des intellectuels ont également apporté une aide inattendue mais inespérée aux putschistes, notamment au Mali où une large partie de l’intelligentsia s’est ralliée au régime militaire. Aminata Dramane Traoré s’est ainsi ralliée assez facilement au régime militaire. L’Occident francophone, dans les années 1990 et 2000,  avait porté cette femme aux nues pour ses romans et essais anti-occidentaux, culture woke avant le wokisme, et on avait célébré son antimondialisme. Bien qu’elle fasse paraître la totalité de ses ouvrages en France où se trouve l’essentiel de son public, Aminata Dramane Traoré s’est fait une spécialité de dénoncer les supposés méfaits de l’Occident et de la mondialisation en Afrique et notamment au Mali.

Si son ralliement à la junte militaire malienne a surpris, c’est parce que l’engouement initial autour de ses publications avait sans doute masqué une constante dans la trajectoire politique d’Aminata Dramane Traoré : elle a servi tous les régimes et toutes les institutions : étudiante en France, professeur en Côte d’Ivoire, puis fonctionnaire de l’ONU, puis ministre de la jeune démocratie malienne, elle sert aujourd’hui le régime militaire. Il est vrai qu’Aminata Dramane Traoré a toujours su se servir et servir sa famille avant de servir la communauté.

 

Une immense lâcheté

Au Sahel aussi les consciences se sont relâchées comme des ventres. La France a soutenu, et soutient encore, nombre de personnalités qui se sont retournées contre elle, et au-delà, contre les valeurs universelles que sont la démocratie, la protection des minorités, la tolérance, et on en passe. Via des subventions, des visas, des colloques et des conférences financées sur les fonds de l’aide au développement, d’aides à la création culturelle, la France a largement contribué à nourrir des officines et des personnalités qui lui sont désormais hostiles.

En Côte d’Ivoire la situation est la même. Les propagandistes ouvertement profrançais ont fait l’objet d’une répression judiciaire qui apparaît étrange : les propagandistes prorusses sont largement préservés, seules les petites mains sont l’objet d’une surveillance et de poursuites tandis que les ténors restent aussi virulents. La faute en revient d’abord à la crainte qu’ont les régimes de s’aliéner une jeunesse désœuvrée, et qu’on espère distraire en la laissant se nourrir de haine contre un ennemi lointain. Par peur de devoir affronter le courroux de la rue si la France et au-delà l’Occident cessaient d’être le bouc émissaire commode qu’ils sont devenus.

Au-delà de la situation spécifique du Sahel et de ses relations avec la France, c’est toute une politique policière et judiciaire vis-à-vis de la diffusion et de la propagation exponentielle des fausses informations qui doit être revue.

Encore aujourd’hui, la menace que représente pour la démocratie libérale la diffusion massive de fausses informations est considérée comme une menace mineure, alors même que la presse écrite ou les émissions de radio ou de télévision, pourtant devenues des supports marginaux dans l’acte de s’informer, sont l’objet d’une surveillance tatillonne.

La loi existe pourtant pour punir ces dérives informationnelles. Encore faut-il la faire appliquer. Et bien évidemment cesser de laisser la bride sur le cou des services de coopération et d’action culturelle (et les institutions universitaires) afin de resserrer les cordons de la bourse. Lénine avait coutume de dire que le capitalisme vendrait la corde qui servirait à le pendre, au Sahel la France finance et donne les verges qui servent à la battre.

Stratégie française pour l’énergie et le climat : une fuite en avant vers la décroissance

La nécessité de décarboner à terme notre économie, qui dépend encore à 58 % des énergies fossiles pour sa consommation d’énergie, est incontestable, pour participer à la lutte contre le réchauffement climatique, et pour des raisons géopolitiques et de souveraineté liées à notre dépendance aux importations de pétrole et de gaz, la consommation de charbon étant devenue marginale en France.

Cependant, la voie à emprunter doit être pragmatique et ne doit pas mettre en danger la politique de réindustrialisation de la France, qui suppose une croissance durable avec un accès à un approvisionnement énergétique abondant, à un prix accessible, et résilient aux aléas de toutes natures (sécurité d’approvisionnement).

Cette politique ne doit donc pas être guidée par une « urgence climatique » qui conduirait à se fixer des objectifs excessifs et irréalistes en terme de rythme de réduction de la consommation d’énergie, de décarbonation (le tout véhicules électriques avec interdiction des véhicules thermiques dès 2035, la suppression des chaudières à gaz…), et de développement à marche forcée des ENR, au risque de surcoûts non supportables par notre économie et le corps social, et de passage d’une dépendance aux importations de combustibles fossiles à une dépendance à l’achat de matériaux et d’équipements (batteries, panneaux solaires, éoliennes, électrolyseurs…) provenant d’Asie, et de Chine en particulier. Cela sans bénéfice climatique significatif pour la planète, car les produits fabriqués en Asie le sont avec une énergie largement dominée par le charbon …

Cette note démontre que la stratégie proposée (SFEC) n’échappe pas à ce risque, en se situant dans la perspective du « fit for 55 » européen, approuvé sous présidence française de l’UE, et qui s’apparente à une dangereuse fuite en avant, risquant de déstabiliser des pans entiers de l’industrie européenne.

La décarbonation des énergies, à l’échelle de la France, qui permet de remplacer des énergies fossiles importées par des énergies décarbonées produites en France, a un effet vertueux sur l’emploi, le PIB et la balance commerciale du pays (aux équipements importés près, comme les panneaux photovoltaïques) : c’est le cas du parc nucléaire et du parc hydraulique construits au siècle dernier, ainsi que pour les ENR électriques et les ENR thermiques développées depuis une quinzaine d’années.

C’est pour cela que fermer une centrale nucléaire comme Fessenheim a constitué une faute lourde, au détriment de la diminution des émissions de CO2, et de la santé de l’économie française (11 TWh de perte annuelle de production, soit 660 millions d’euros à 60 euros/MWh).

À l’exception de l’éradication du charbon, la décarbonation de la production d’électricité n’est pas un sujet en France, les parcs de production nucléaire et renouvelable (hydraulique, éolien, solaire et biomasse) représentant plus de 93 % de la production.

En termes de méthode, la préparation de cette stratégie s’est certes appuyée sur un travail de concertation avec des groupes de travail transpartisans et de participation citoyenne, mais il est regrettable que le rapport de la Commission d’enquête parlementaire du printemps 2023 sur la perte de souveraineté énergétique de la France n’ait pas été pris en compte, ce qui constitue un déficit de démocratie parlementaire incompréhensible.

 

Un objectif de réduction de la consommation d’énergie incompatible avec une réindustrialisation de la France

La stratégie proposée retient pour objectif une réduction de la consommation d’énergie finale à 1209 TWh en 2030 et à 900 TWh en 2050, alors que cette consommation était en 2021 de 1611 TWh (en lente diminution depuis le niveau de 2012 de 1661 TWh) :

Les efforts d’amélioration de l’efficacité énergétique conduits depuis près de 30 ans dans tous les secteurs de l’économie (bâtiments, transports, industrie), en intégrant la diminution de 3,1 % de la consommation en 2022 (augmentation des prix, plan de sobriété), ont permis de découpler croissance économique et consommation d’énergie, avec une diminution moyenne annuelle de 1,5 % par an de l’intensité énergétique, la consommation finale d’énergie par unité de PIB diminuant à 66 pour une base 100 en 1994 :

 

La légère diminution de la consommation d’énergie de 0,3 % par an observée de 2012 à 2019 (en deçà de l’objectif des PPE précédentes) est cohérente avec le taux annuel de croissance moyen du PIB de 1,2% en euros constants, et le taux d’amélioration de l’efficacité énergétique de 1,5 % par an.

L’objectif fixé pour 2030 (1209 TWh), en forte diminution par rapport à celui de la PPE précédente (1378 TWh), correspond à une diminution annuelle de la consommation d’énergie de 3,7 % par an : c’est une inflexion brutale correspondant à une croissance zéro du PIB, assortie d’une amélioration hypothétique de l’efficacité énergétique de 3,7 % par an, soit un rythme 2,5 fois supérieur au rythme historique.

Une croissance du PIB de 1,5 % par an, nécessaire dans le cadre d’une réindustrialisation de la France (remonter la part de la production industrielle dans le PIB de 10 % à 20 % en 2050), supposerait, pour atteindre l’objectif, une amélioration de l’efficacité énergétique de 5,3 % par an, qui apparaît totalement hors de portée, même en imposant des mesures de sobriété de façon autoritaire et « punitive » (interdictions d’usage et restrictions fortes des libertés individuelles, …).

L’objectif de 900 TWh fixé pour 2050, horizon théorique du « Net Zéro Carbone », correspond à une diminution moyenne de la consommation finale d’énergie de 2,1 % par an : si cet objectif est envisageable, c’est au prix d’une croissance nulle, incompatible avec une politique de réindustrialisation de la France, qui suppose une augmentation nette de la consommation énergétique du secteur. Une croissance du PIB de 1,5 % par an supposerait une amélioration de l’efficacité énergétique de 3,6 % par an, qui n’apparaît pas soutenable.

En effet, les efforts de sobriété auxquels ont consenti les Français en 2022, peuvent sans doute être consolidés dans la durée, mais ne sont pas cumulatifs. Ils constituent en quelque sorte un « fusil à un coup » : une fois que l’on a abaissé la température de chauffage à 18 ou 19 °C, on ne va pas la diminuer à 17 °C, puis de 1° C supplémentaire par an les années suivantes.

En conclusion, les « objectifs » de réduction de la consommation d’énergie de la SFEC conduisent au mieux à une croissance zéro, et plus probablement à une décroissance de l’économie, comme le démontre la modélisation du graphique suivant :  

Pour une croissance du PIB de 1,5 % par an, la quantité d’énergie nécessaire, avec un pilotage des actions d’amélioration de l’efficacité énergétique et le maintien des efforts de sobriété et de lutte contre le gaspillage, peut être estimée dans une fourchette de 1200 à 1350 TWh, sous réserve d’une amélioration de l’efficacité énergétique de 2,1 à 2,5 % par an, soit + 50 % par rapport au rythme historique, ce qui représente un effort considérable.

Fonder la stratégie énergétique de la France sur un tel oukase malthusien de réduction drastique de la consommation d’énergie est inconséquent, car de plus, cela fausse la vision de la production d’électricité bas carbone qui sera nécessaire pour décarboner l’économie : à horizon 2050, en retenant un taux d’électrification de l’ordre de 60 à 65 % dans la consommation finale d’énergie (production H2 incluse), la consommation d’électricité est de l’ordre de 560 TWh avec une hypothèse de consommation totale d’énergie de 900 TWh, et de l’ordre de 800 TWh avec la fourchette indiquée ci-dessus.

La trajectoire de la consommation d’énergie en France ne peut être fondée sur un objectif idéologique et irréaliste fixé a priori, mais être la résultante de la croissance du PIB, et d’une action déterminée dans la durée sur le levier de la diminution de l’intensité énergétique, pilotée avec des objectifs ambitieux mais réalistes par secteur.

En effet, l’évolution de l’intensité énergétique est différenciée par secteur :

On constate par exemple que les progrès en efficacité énergétique sont plus rapides dans les secteurs de l’industrie, du logement et, dans une moindre mesure, des véhicules légers, alors que les progrès dans les bâtiments tertiaires et les poids lourds sont plus lents.

Enfin, il convient de signaler une erreur de méthode contenue dans l’extrait suivant :

Si cette assertion est exacte pour le passage d’un véhicule thermique à un véhicule électrique (consommation de 20 kWh d’électricité stockés dans la batterie pour parcourir 100 km avec un véhicule léger, contre 60 kWh de carburant) – pour autant que l’électricité ne soit pas produite par une centrale à carburant, quand la recharge a lieu pendant les heures de pointe -, elle est manifestement fausse pour le passage d’un chauffage à combustion à une pompe à chaleur :

À isolation de l’enveloppe du bâtiment et usage identiques, on consomme la même quantité d’énergie finale : avec une pompe à chaleur on substitue en gros 3 kWh de combustion, par 1 kWh d’électricité (consommation de la pompe) et 2 kWh de chaleur renouvelable (ENR Thermique) extraite de l’environnement (air ou eau).

Les deux leviers de l’efficacité énergétique dans les bâtiments sont les suivants :

Un comportement des occupants économe en énergie

Notamment dans les bâtiments tertiaires où la consommation en dehors des heures d’utilisation (chauffage, éclairage) est excessive : la réduction drastique de ce gaspillage, qui demande peu d’investissements, devrait permettre en quelques années d’économiser plus de 50 TWh, sur une consommation annuelle totale de 260 TWh.

Isolation thermique et équipements économes en énergie (éclairage LED, électroménager,..)

Pour les bâtiments neufs, la Réglementation Environnementale RE 2020 (350 000 logements par an) garantit un niveau satisfaisant. Pour les bâtiments existants, la stratégie proposée priorise à juste titre la rénovation d’ampleur des « passoires énergétiques » (logements catégories F et G), mais ne doit pas conduire pour autant à vouloir les amener tous dans les catégories A, B ou C, ce qui conduirait à des dépenses prohibitives (coût de la tonne de CO2 évitée de 400 à 500 euros). À ce titre, la réforme de l’aide principale (MaPrimeRenov) pour 2024 apparaît bien adaptée : gain de deux catégories au minimum, un objectif réaliste pouvant consister à obtenir un bâti a minima de catégorie D. Cependant, il ne faudrait pas décourager les gestes successifs dans un parcours pluri-annuel visant cet objectif, pour ne pas exclure du marché les artisans.

Pour autant, l’objectif fixé pour 2030 par le décret éco énergie tertiaire de 2019 (réduction de la consommation totale de 40 %) et l’objectif annuel de rénovation globale de 200 000 logements dès 2024 (pour 100 000 actuellement), et jusqu’à 900 000 en 2030 apparaissent peu réalistes, alors que le nombre de logements de catégories F ou G est évalué à environ 5 millions : dans ces conditions, les échéances fixées à 2025 (G) et 2028 (F) d’interdiction de location de ces logements apparaissent difficilement soutenables.

 

Efficacité énergétique dans les transports : vers l’abandon du plan Fret Français Ferroviaire du Futur élaboré en 2020 ?

S’agissant du secteur des transports, la stratégie proposée ne retient comme vecteur d’efficacité énergétique que le véhicule électrique à batterie, qui est loin d’être une solution universelle, et est adaptée essentiellement pour les déplacements quotidiens des véhicules légers (moins de 150 km par jour, 75 % des km parcourus), mais pas pour les usages intensifs et les parcours longues distances, ni pour les transports lourds.

Le principal levier d’efficacité énergétique dans les transports est le remplacement du transport par camions par une combinaison intermodale camions / ferroviaire / fluvial : le transport d’une tonne de marchandise par le train consomme six fois moins d’énergie et émet neuf fois moins de CO2 que par la route.

Sur 490 TWh de carburants brûlés dans les transports routiers (dont 450 TWh issus du pétrole), 200 TWh sont consommés dans le transport de marchandises. La situation s’est largement dégradée depuis l’an 2000, la part modale du ferroviaire étant revenue de 18 % à 9 %, alors que la moyenne européenne est à 18 %, avec un objectif de 30 % pour 2030, déjà atteint par la Suisse et l’Autriche.

Le plan 4F ambitionne de doubler la part modale du ferroviaire d’ici 2030, ce qui permettrait d’économiser 22 TWh de carburants, et 60 TWh à l’horizon 2050, en portant la part modale à 33 %, soit un potentiel de 13 % d’économie sur le total de la consommation de pétrole dans les transports.

La SNCF a un rôle à jouer, mais parmi d’autres acteurs en concurrence, d’autant que la Commission européenne lui impose de réduire la voilure dans le fret.

Bien que faisant régulièrement l’objet d’annonces de soutien gouvernemental (en dernier lieu en mai 2023 avec 4 milliards d’euros d’investissement, ce plan prioritaire pour l’efficacité énergétique dans les transports ne figure pas dans la Stratégie énergie climat proposée, ce qui est incompréhensible.

En ce qui concerne le transport de voyageurs, hors décarbonation par les véhicules électriques, l’amélioration de l’efficience des véhicules thermiques (rajeunissement du parc), ainsi que le report modal vers les transports en commun (trains, tramways et RER métropolitains), le vélo et le covoiturage devraient permettre une économie de l’ordre de 30 TWh de carburants à l’horizon 2050.

 

Accélération des ENR et renforcement associé des réseaux : des objectifs irréalistes et coûteux

Le développement des ENR électriques intermittentes est utile et nécessaire pour parvenir à augmenter de plus de 60 % la production d’électricité à l’horizon de la décarbonation de l’économie française, dans la mesure où il est considéré comme un complément de production d’électricité décarbonée d’une base pilotable largement prépondérante (nucléaire et hydraulique), et non comme le moyen principal, comme cela est programmé dans l’Energiewende allemande, et, jusqu’à présent, par la Commission européenne.

La SFEC ne s’inscrit pas dans une telle perspective, en s’appuyant essentiellement sur un développement accéléré des ENR électriques, et en second lieu sur une relance limitée du nucléaire, qui en l’état ne permettra pas à l’horizon 2050 le maintien de la capacité de production nucléaire (voir chapitre suivant).

Enfin, une part de production intermittente prépondérante, avec une puissance installée largement supérieure à celle des centrales utilisant des machines tournantes pour produire de l’électricité (nucléaire, hydraulique, gaz ou biomasse), entraîne un risque élevé d’instabilité des réseaux, car il n’y a plus assez d’inertie dans le système électrique pour donner le temps suffisant pour réajuster la production en cas d’aléa. Ce risque de blackout total ou partiel est de plus aggravé dans le cadre du réseau européen interconnecté, avec notamment un pays comme l’Allemagne qui compte s’appuyer pour l’essentiel sur l’éolien et le solaire pour sa production d’électricité.

 

L’éolien maritime

Même en tenant compte de l’augmentation de la puissance unitaire des éoliennes, il est irréaliste de vouloir atteindre 45 GW en 2050, alors que la PPE en vigueur indique, sur la base d’une étude de l’ADEME, que le potentiel de l’éolien posé est de 16 GW, en raison de l’étroitesse du plateau continental le long du littoral Atlantique et de la Manche (il n’y a pas de potentiel en Méditerranée).

De même, l’objectif de 18 GW en 2035, alors qu’au maximum 3,6 GW seront mis en service en 2030, semble largement surévalué (un appel d’offres de 10 GW est prévu en 2025).

 

L’éolien flottant

La France y est en pointe, mais la technologie est encore au stade expérimental. Elle n’a pas à ce stade prouvé son intérêt économique (le prix est le double de celui de l’éolien posé), d’autant que le coût du raccordement électrique est aussi plus élevé (au-delà de 25 euros/MWh).

Il paraît prudent de faire une évaluation sur la base d’un retour d’expérience des trois fermes pilote de 30 MW en cours de réalisation en Méditerranée, avant de lancer définitivement les trois projets de 250 MW en cours d’instruction (en Bretagne Sud et en Méditerranée).

Écrire dans le document que 18 GW d’éolien offshore est l’équivalent de la production de 13 réacteurs nucléaires relève de la désinformation pure et simple du citoyen, pour trois raisons :

  1. 18 GW d’éolien flottant peuvent produire 60 TWh par an d’électricité (selon le document 70 TWh avec un taux de charge de 44 %), alors que 18 GW de nucléaire (correspondant à 11 réacteurs EPR2 en puissance installée) ont une capacité de production annuelle de 120 TWh
  2. La production éolienne ne peut se substituer à la production nucléaire, car elle est intermittente et n’offre aucune puissance garantie lors des pointes de consommation par grand froid hivernal.
  3. En termes de coût, les six premiers parcs (3 GW) ont un coût du MWh supérieur à 160 euros/MWh (raccordement compris qui s’impute sur le TURPE), et l’éolien flottant sera au même niveau : le coût moyen de l’éolien maritime est donc deux fois plus élevé que le coût du MWh du nouveau nucléaire. Le coût supplémentaire de la production de 14 GW d’éolien maritime pendant 20 ans (47 TWh par an) peut être estimé à 75 milliards d’euros, ce qui permettrait de construire 11 EPR2, qui vont produire 120 TWh par an pendant 60 ans.

De plus, il ne faut pas sous-estimer l’agressivité du milieu marin (salinité, tempêtes), avec un risque élevé sur la maintenance, et surtout sur la capacité au terme de 20 ans de pérenniser les installations, comme cela est envisagé pour l’éolien terrestre, avec le repowering.

En conclusion, l’éolien maritime n’est pas un moyen durable et écologique de production d’électricité en France, et sa part devrait rester marginale à l’horizon 2050 (10 à 15 GW), sauf à couvrir l’horizon de nos côtes de mâts d’éoliennes hauts de plusieurs centaines de mètres, pour un bilan économique calamiteux…

 

L’éolien terrestre

Conserver le rythme actuel de développement pour aboutir à 40 GW en 2035 revient à revenir sur la perspective tracée par Emmanuel Macron lors de son discours de candidat à Belfort, où il s’engageait à diminuer le rythme pour la bonne insertion des champs sur les territoires, en repoussant ce point d’arrivée à 2050.

Il faut en particulier tenir compte du fait que 1 GW par an (soit une centaine de parcs) arrive désormais en fin de contrat d’achat (15 ans), et que chaque parc concerné doit faire l’objet, soit d’un démantèlement s’il est placé trop près des habitations ou d’un site remarquable, soit d’un repowering : la décision devrait être prise par les élus locaux qui, dans la loi « d’accélération des renouvelables » du printemps dernier, ont l’initiative pour déterminer, en concertation avec la population, les zones d’implantation possibles des productions ENR.

En ce qui concerne le repowering, vouloir démanteler et remplacer les infrastructures existantes (mâts, massifs de béton, raccordement au réseau de distribution d’électricité) par de nouvelles éoliennes plus hautes et plus puissantes n’est pas très écologique, ni même économique : une politique de développement durable consisterait plutôt à conserver l’infrastructure et remplacer les équipements arrivés en fin de vie (générateur, pales), avec un investissement marginal qui autoriserait un coût du MWh très compétitif, ne demandant aucune subvention.

Cette politique permettrait aux opérateurs rénovant des parcs éoliens de proposer des contrats d’achat d’électricité éolienne à long terme pour, par exemple, produire de l’hydrogène bas carbone, en synergie avec l’électricité du réseau quand il n’y a pas ou peu de vent (majoritairement nucléaire en dehors des heures de pointe). Une production locale adossée à un parc éolien est également possible : un électrolyseur de 6 MW alimenté en priorité par un parc éolien de 12 MW, et en complément par le réseau (en dehors des heures de pointe) permet de produire 850 tonnes d’hydrogène par an, 50 % en autoconsommant 93 % de l’électricité éolienne, et 50 % avec l’électricité du réseau.

 

Solaire photovoltaïque

Les objectifs de 54 à 60 GW dès 2030, et de 75 à 100 GW dès 2035 apparaissent peu réalistes, alors que 16 GW sont installés, et que le rythme de 3 GW par an (grands parcs au sol et toitures) n’a encore jamais été atteint : 35 GW en 2030 et 50 GW en 2035 apparaîtraient déjà comme des objectifs très ambitieux.

Pour atteindre ces objectifs, la loi d’accélération des énergies renouvelables fixe en priorité l’utilisation de terrains déjà artificialisés et de toitures, mais ouvre la porte au défrichement de zones boisées (jusqu’à 25 Ha) et au développement de l’utilisation de terres agricoles (agrivoltaïsme), qui risquent de détourner les agriculteurs de leur vocation première, la production agricole servant en priorité l’alimentation humaine et animale.

Enfin, une telle accélération repose quasiment intégralement sur l’importation de panneaux solaires, principalement de Chine, qui ont de plus un bilan CO2 dégradé (45 g CO2 eq/kWh produit) en raison de leur process de fabrication utilisant largement de l’électricité produite à base de charbon : le critère qualitatif des appels d’offres lancés par la CRE (Évaluation Carbone Simplifié) ne permet pas de dissuader l’utilisation de panneaux à bas coût très chargés en carbone, le seuil de référence de la note zéro ayant même été relevé (de 700 kg CO2 à 1150 kg CO2 par KWhc de puissance) depuis 2018 !

Et le « mécanisme d’ajustement carbone aux frontières » que l’Union européenne met difficilement en place, et qui ne sera effectif sur un plan financier qu’à partir de 2026, ne concerne pas la production des panneaux solaires, ni d’ailleurs celle des batteries…

 

Développement des réseaux

La stratégie de développement à marche forcée des ENR conduit ENEDIS à porter ses investissements au-delà de 5 milliards d’euros par an, et RTE à prévoir 100 milliards d’euros d’ici 2042, soit là aussi 5 milliards par an, contre moins de 2 milliards jusqu’à présent : ces sommes sont considérables (plus de 35 milliards d’euros pour le raccordement de l’éolien maritime par exemple), et auront un impact sur le TURPE, que l’on peut évaluer à un besoin d’EBITDA supplémentaire de 4 à 5 milliards par an, soit environ 12 euros/MWh sur la facture des clients.

Le TURPE (Tarif d’Utilisation des Réseaux Publics d’Electricité) est déjà passé de 55 euros/MWh en 2022 à 61,5 euros/MWh en septembre 2023 pour les particuliers et les TPE, en raison de l’augmentation des investissements sur les réseaux de distribution et de transport d’électricité, mais aussi de l’augmentation du coût d’achat des pertes, celui-ci étant affecté par une diminution du volume de l’ARENH disponible, qui oblige ENEDIS et RTE à acheter environ 16 % d’un volume de 36 TWh sur le marché, contre seulement 4 % auparavant.

 

ENR thermiques

En dehors de la chaleur fatale récupérée et de la chaleur extraite de l’environnement (pompes à chaleur et géothermie), la source principale d’énergie renouvelable thermique est issue de la biomasse et de la valorisation de déchets, sous différentes formes : biocarburants liquides, biogaz et bois-énergie.

La SFEC insiste à juste titre sur le fait que les ressources de biomasse disponibles pour la production énergétique sont limitées et en concurrence avec les usages alimentaires (production agricole) et en matériaux biosourcés : il est donc nécessaire de mener une réflexion pour prioriser les formes d’énergie à développer et les usages, en améliorant leur efficacité (foyers fermés pour le chauffage bois par exemple).

Le développement de la production de biométhane par méthanisation est utile pour la décarbonation partielle du gaz distribué en réseau et la décarbonation des transports routiers lourds et maritimes (bio-GNV). Cependant, atteindre 50 TWh dès 2030 (11 TWh actuellement) est un objectif très ambitieux, alors que le potentiel de méthanisation mobilisable est de l’ordre de 100 TWh, à condition de développer les cultures intermédiaires (CIVE) et d’intégrer 15 % de cultures dédiées (maïs ensilage).

Comme le souligne le document, le coût du biométhane (80 à 110 euros/MWh) reste deux à trois fois supérieur au prix du gaz naturel importé (30 à 60 euros/MWh). Un volume de 50 TWh avec un niveau de subvention de 50 euros/MWh représente une charge annuelle de 2,5 milliards d’euros, à mettre en regard des émissions de CO2 évitées, et des bénéfices pour la balance commerciale, la valeur ajoutée domestique (emplois) et la diminution de l’utilisation d’engrais de synthèse grâce au digestat résidu de la méthanisation.

En ce qui concerne les biocarburants liquides, la SFEC prévoit à juste titre de passer à terme d’une utilisation en mélange dans les carburants routiers à une utilisation pour décarboner le transport aérien, ainsi que les secteurs de l’agriculture, du bâtiment-TP et de la pêche : à titre d’exemple, le volume de gazole non routier utilisé par les agriculteurs et les pêcheurs est de 35 TWh, qui pourraient être utilement remplacés par du biogazole B100 pour leur permettre de décarboner leur activité en conservant leur outil de travail (la production nationale de biocarburants attendue en 2030 est de 50 TWh, très majoritairement du biogazole).

 

Nucléaire : une relance insuffisante à l’horizon 2050

Pour disposer de 850 TWh de productible en 2050 (pertes comprises), volume nécessaire de production pour décarboner l’économie, et d’une capacité pilotable suffisante pour gérer les pointes de consommation hivernale lors des grands froids (qui pourront atteindre jusqu’à 110 GW avec l’électrification du chauffage des bâtiments, en tenant compte d’un effacement des électrolyseurs, de la production d’eau chaude et de la recharge des véhicules électriques), il y a besoin de 75 à 80 GW de puissance nucléaire installée, et les SMR n’en constitueront qu’une part très minoritaire (4 GW dans le scénario N03, le plus nucléarisé de RTE dans son étude « futurs énergétiques 2050 » publiée fin 2021).

Sur la base d’une prolongation de la durée de vie à 60 ans de l’ensemble des réacteurs encore en fonctionnement du parc historique (après fermeture anticipée de Fessenheim en 2020), et de la mise en service de l’EPR de Flamanville, un « effet falaise » se produira dès 2040, et la capacité nucléaire résiduelle sera au maximum de 16 GW en 2050, et de 1,6 GW en 2060 (EPR Flamanville) :

S’il est possible d’envisager une prolongation au-delà de 60 ans de la durée de vie pour certains réacteurs dans des conditions de sûreté acceptables (cela dépend de l’état de la cuve du réacteur, seul élément non remplaçable), il se peut aussi que certains réacteurs ne reçoivent pas l’autorisation d’exploitation jusqu’à 60 ans, et soient arrêtés lors de la visite décennale des 50 ans, voire des 40 ans : il est donc prudent de baser la stratégie sur cette hypothèse centrale d’une durée de vie de 60 ans, une adaptation restant bien entendu possible dans le temps en fonction du résultat des visites décennales.

La conclusion s’impose, si l’on veut maintenir l’échéance de 2050 pour le « Net Zéro Carbone » en France en 2050, et garantir une sécurité d’approvisionnement en électricité : au-delà des tranches de six et huit EPR2 décidées ou envisagées, c’est un rythme d’engagement et de construction de deux EPR2 par an qui s’avère nécessaire dans la durée jusqu’en 2050, afin de disposer en 2060 de 40 à 45 EPR en plus de l’EPR de Flamanville, quand l’ensemble du parc actuel aura dépassé l’âge de 60 ans.

À partir de 2035, en fonction des perspectives de prolongation avérées de la durée de vie des réacteurs existants, et de l’état du développement d’une filière de réacteurs nucléaires à neutrons rapides, la stratégie pourra être adaptée.

Si un tel rythme d’engagement et de réalisation ne se révèle pas soutenable, et que la construction de 14 EPR2 d’ici 2050 est confirmée comme étant un maximum, alors la capacité de production nucléaire sera revenue de 63 GW à moins de 45 GW (productible de 280 TWh), avec un mix électrique ne comportant plus que 36 % de nucléaire, et d’une capacité de production totale insuffisante (environ 780 TWh) pour assurer la décarbonation de l’économie et sa réindustrialisation, malgré des objectifs démesurément élevés en éolien offshore et solaire photovoltaïque.

La capacité pilotable ne dépassera pas 72 GW, en pérennisant les 9 GW de cycles combinés à gaz et turbines à combustion existantes (TAC), ainsi que les centrales bioénergies existantes et les centrales à charbon de Cordemais et Saint-Avold converties à la biomasse, comme le montre le tableau ci-dessous :

Une telle situation ne serait pas gérable, et nécessiterait a minima la construction de 20 à 25 GW de capacité en cycles combinés à gaz pour ne pas rendre la France plus dépendante qu’actuellement de ses voisins pour la sécurité d’alimentation en électricité lors des pointes hivernales.

 

Innovations de rupture nucléaire

Le plan France 2030 intègre le soutien au développement de petits réacteurs modulaires (SMR), soit avec une technologie classique à eau pressurisée (projet NUWARD d’EDF, puissance 2 x 170 MW), soit avec de nouvelles technologies, par exemple le projet de réacteur de 40 MW à neutrons rapides et sels fondus développé par la société NAAREA, qui permet la fermeture du cycle du combustible en brûlant des combustibles nucléaires usagés, et ne nécessite pas de source froide autre que l’air ambiant pour s’implanter (cycle CO2 supercritique).

Parmi les huit lauréats de l’appel à projet France 2030, il y a un projet de fusion nucléaire porté par la startup Renaissance fusion.

Signalons que de nombreux projets de développement de réacteurs à fusion portés par des startup existent aux USA, dont un projet porté par la société Helion avec une technologie originale : accélération et compression d’un plasma dans un tunnel linéaire, et production d’électricité directement par induction, sans recourir à un cycle vapeur. Helion construit un prototype Polaris d’une puissance de 50 MWe (MW électrique), avec une perspective de production d’électricité dès fin 2024 ou 2025, a signé un contrat de vente d’électricité avec Microsoft pour 2028, et développe un projet de réacteur de 500 MWe avec Nucor, un sidérurgiste. La concrétisation de la fusion nucléaire pourrait être bien plus rapide qu’anticipé actuellement avec le projet ITER…

Il est par contre extrêmement regrettable que la SFEC ne prévoie pas de reprendre un projet de réacteur à neutrons rapides de taille industrielle pour une production centralisée, qui pourrait prendre la relève des EPR à partir de 2040, et entérine de fait l’abandon définitif du projet Astrid et de toute l’expérience accumulée avec les réacteurs Phénix (qui a produit 26 TWh entre 1973 et 2009 avec une puissance de 250 MW), et Superphénix à Creys-Malville arrêté en 1997.

Cette lacune met en danger notre approvisionnement et notre gestion à long terme du cycle du combustible, sauf à recourir à terme à des technologies étrangères (la Chine vient de démarrer un réacteur de quatrième génération), alors que la France avait une (bonne) longueur d’avance dans cette technologie.

Autopiégés par les deepfakes : où sont les bugs ?

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhaite demander à mes étudiants en 12 heures. J’ai créé un nouveau service, basé sur des caméras high tech et de l’intelligence artificielle embarquée, pour des activités sportives avec des illustrations de situations concrètes, dans le monde réel, et un logo, comme si c’était vrai ! Je me mettrai au moins 18/20 ».

Cet échange peut paraître parfaitement anodin, mais la possibilité de produire des histoires et des visuels fictifs, perçus comme authentiques – des hypertrucages (deepfakes en anglais) – puis de les diffuser instantanément à l’échelle mondiale, suscitant fascination et désillusion, voire chaos à tous les niveaux de nos sociétés doit questionner. Il y a urgence !

En 2024, quel est leur impact positif et négatif ? Faut-il se prémunir de quelques effets indésirables immédiats et futurs, liés à un déploiement massif de son utilisation et où sont les bugs ?

 

Deepfake : essai de définition et origine

En 2014, le chercheur Ian Goodfellow a inventé le GAN (Generative Adversarial Networks), une technique à l’origine des deepfakes.

Cette technologie utilise deux algorithmes s’entraînant mutuellement : l’un vise à fabriquer des contrefaçons indétectables, l’autre à détecter les faux. Les premiers deepfakes sont apparus en novembre 2017 sur Reddit où un utilisateur anonyme nommé « u/deepfake » a créé le groupe subreddit r/deepfake. Il y partage des vidéos pornographiques avec les visages d’actrices X remplacés par ceux de célébrités hollywoodiennes, manipulations reposant sur le deep learning. Sept ans plus tard, le mot deepfake est comme entré dans le vocabulaire courant. Le flux de communications quotidiennes sur le sujet est incessant, créant un sentiment de fascination en même temps qu’une incapacité à percevoir le vrai du faux, à surmonter la surcharge d’informations de manière réfléchie.

Ce mot deepfake, que l’on se garde bien de traduire pour en préserver l’imaginaire technologique, est particulièrement bien choisi. Il contient en soi, un côté positif et un autre négatif. Le deep, de deep learning, c’est la performance avancée, la qualité quasi authentique de ce qui est produit. Le fake, c’est la partie trucage, la tromperie, la manipulation. Si on revient à la réalité de ce qu’est un deepfake (un trucage profond), c’est une technique de synthèse multimédia (image, son, vidéos, texte), qui permet de réaliser ou de modifier des contenus grâce à l’intelligence artificielle, générant ainsi, par superposition, de nouveaux contenus parfaitement faux et totalement crédibles. Cette technologie est devenue très facilement accessible à tout un chacun via des applications, simples d’utilisations comme Hoodem, DeepFake FaceSwap, qui se multiplient sur le réseau, des solutions pour IOS également comme : deepfaker.app, FaceAppZao, Reface, SpeakPic, DeepFaceLab, Reflect.

 

Des plus et des moins

Les deepfakes peuvent être naturellement utilisés à des fins malveillantes : désinformation, manipulation électorale, diffamation, revenge porn, escroquerie, phishing…

En 2019, la société d’IA Deeptrace avait découvert que 96 % des vidéos deepfakes étaient pornographiques, et que 99 % des visages cartographiés provenaient de visages de célébrités féminines appliqués sur le visage de stars du porno (Cf. Deep Fake Report : the state of deepfakes landscape, threats, and impact, 2019). Ces deepfakes malveillants se sophistiquent et se multiplient de façon exponentielle. Par exemple, vous avez peut-être été confrontés à une vidéo où Barack Obama traite Donald Trump de « connard total », ou bien celle dans laquelle Mark Zuckerberg se vante d’avoir « le contrôle total des données volées de milliards de personnes ». Et bien d’autres deepfakes à des fins bien plus malveillants circulent. Ce phénomène exige que chacun d’entre nous soit vigilant et, a minima, ne contribue pas à leur diffusion en les partageant.

Si l’on s’en tient aux effets médiatiques, interdire les deepfakes pourrait sembler une option.
Il est donc important de comprendre qu’ils ont aussi des objectifs positifs dans de nombreuses applications :

  • dans le divertissement, pour créer des effets spéciaux plus réalistes et immersifs, pour adapter des contenus audiovisuels à différentes langues et cultures
  • dans la préservation du patrimoine culturel, à des fins de restauration et d’animation historiques 
  • dans la recherche médicale pour générer des modèles de patients virtuels basés sur des données réelles, ce qui pourrait être utile dans le développement de traitements 
  • dans la formation et l’éducation, pour simuler des situations réalistes et accroître la partie émotionnelle essentielle à l’ancrage des apprentissages

 

Ainsi, selon une nouvelle étude publiée le 19 avril 2023 par le centre de recherche REVEAL de l’université de Bath :

« Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant ». (Clarke & al., 2023)

Comment en sommes-nous arrivés là ?

Comment avons-nous mis au point et démocratisé des outils technologiques de manière aussi peu appropriée, au sens de E.F. Schumacher (1973) dans son ouvrage Small is Beautiful : A Study of Economics as If People Mattered.

L’idée qu’il défend est celle d’une technologie scientifiquement éprouvée, à la fois adaptable aux besoins spécifiques de groupes d’utilisateurs clairement identifiés, et acceptables par toutes les parties prenantes de cette utilisation, tout au long de son cycle de vie, sans dégrader l’autonomie des communautés impliquées.

Considérons la période covid. Elle a très nettement favorisé une « aliénation des individus et des organisations à la technologie », entraînant des phénomènes de perte de contrôle et de confiance face à des utilisations non appropriées du numérique profitant de la vulnérabilité des citoyens (multiplication des arnaques santé par exemple). Ils se sont trouvés sur-sollicités et noyés sous un déluge de contenus, sans disposer des ressources nécessaires pour y faire face de manière pérenne et sécurisée. Avec l’IA générative et la prolifération des deepfakes, le défi d’échapper à la noyade et d’éviter d’être victime de manipulations devient démesuré !

La mécanique allant de la technologie à la société est (toujours) bien ancrée dans la théorie de Schumpeter datant du début du XXe siècle : les efforts et les investissements dans la technologie génèrent du développement économique par l’innovation et la productivité, qui se traduit ensuite en progrès social, par exemple, par la montée du niveau d’éducation. La question de l’adoption de la technologie par le marché de masse est un élément central de la réussite des acteurs économiques.

Comme le souligne très bien le philosophe Alain Damasio, les citoyens adoptent les solutions numériques (faciles d’utilisation et accessibles) et se réfugient dans un « techno-cocon » pour trois raisons principales :

  1. La paresse (les robots font à leur place)
  2. La peur associée à l’isolement (on a un réseau mondial d’amis)
  3. Les super-pouvoirs (le monde à portée de main avec son smartphone)

 

Cela s’applique parfaitement à l’IA générative : créer des contenus sans effort, presque instantanément, avec un résultat d’expert. Ainsi, dans le fantasme collectif, eu égard à la puissance réelle et exponentielle des outils disponibles, nous voilà bientôt tous écrivains, tous peintres, tous photographes, tous réalisateurs… nous voilà capables de produire en quelques minutes ce qui a priori nous aurait demandé des heures. Et dans le même temps, nous servons à l’amélioration continue des performances de ces technologies, au service de quelques grandes entreprises mondiales.

 

Deepfakes : où est le bug ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfake ? L’analyse des mécanismes de diffusion fait apparaître deux bugs principaux.

Le premier bug

Il s’apparente à ce que Nunes et al. (2014) appelle le phénomène « big bang disruption ».

La vitesse extrêmement rapide à laquelle se déploient massivement certaines applications technologiques ne laisse pas le temps de se prémunir contre ses effets indésirables, ni de se préparer à une bonne appropriation collective. On est continuellement en mode expérimentation, les utilisateurs faisant apparaître des limites et les big techs apportant des solutions à ces problèmes, le plus souvent technologiques. C’est la course à la technologie – en l’occurrence, la course aux solutions de détection des deepfakes, en même temps que l’on tente d’éduquer et de réglementer. Cette situation exige que l’on interroge notre capacité à sortir du système établi, à sortir de l’inertie et de l’inaction – à prendre le risque de faire autrement !

Le second bug

Selon Schumpeter, la diffusion technologique produit le progrès social par l’innovation et l’accroissement de la productivité ; mais cette dynamique ne peut pas durer éternellement ni s’appliquer à toutes technologies ! Si l’on considère par exemple la miniaturisation des produits électroniques, à un certain stade, elle a obligé à changer les équipements permettant de produire les puces électroniques afin qu’ils puissent manipuler des composants extrêmement petits. Peut-on en changer l’équipement qui sert à traiter les contenus générés par l’IA, c’est-à-dire nos cerveaux ? Doivent-ils apprendre à être plus productifs pour absorber les capacités des technologies de l’IA générative ? Il y a là un second bug de rupture cognitive, perceptive et émotionnelle que la société expérimente, emprisonnée dans un monde numérique qui s’est emparée de toutes les facettes de nos vies et de nos villes.

 

Quid de la suite : se discipliner pour se libérer du péril deepfake ?

Les groupes de réflexion produisant des scénarii, générés par l’IA ou par les humains pleuvent – pro-techno d’une part, pro-environnemental ou pro-social d’autre part. Au-delà de ces projections passionnantes, l’impératif est d’agir, de se prémunir contre les effets indésirables, jusqu’à une régression de la pensée comme le suggère E. Morin, tout en profitant des bénéfices liés aux deepfakes.

Face à un phénomène qui s’est immiscé à tous les niveaux de nos systèmes sociaux, les formes de mobilisation doivent être nombreuses, multiformes et partagées. En 2023 par exemple, la Région Auvergne-Rhône-Alpes a mandaté le pôle de compétitivité Minalogic et Grenoble École de management pour proposer des axes d’action face aux dangers des deepfakes. Un groupe d’experts* a proposé quatre axes étayés par des actions intégrant les dimensions réglementaires, éducatives, technologiques et les capacités d’expérimentations rapides – tout en soulignant que le levier central est avant tout humain, une nécessité de responsabilisation de chaque partie prenante.

Il y aurait des choses simples que chacun pourrait décider de mettre en place pour se préserver, voire pour créer un effet boule de neige favorable à amoindrir significativement le pouvoir de malveillance conféré par les deepfakes.

Quelques exemples :

  • prendre le temps de réfléchir sans se laisser embarquer par l’instantanéité associée aux deepfakes 
  • partager ses opinions et ses émotions face aux deepfakes, le plus possible entre personnes physiques 
  • accroître son niveau de vigilance sur la qualité de l’information et de ses sources 
  • équilibrer l’expérience du monde en version numérique et en version physique, au quotidien pour être en mesure de comparer

 

Toutefois, se pose la question du passage à l’action disciplinée à l’échelle mondiale !

Il s’agit d’un changement de culture numérique intrinsèquement long. Or, le temps fait cruellement défaut ! Des échéances majeures comme les JO de Paris ou encore les élections américaines constituent des terrains de jeux fantastiques pour les deepfakes de toutes natures – un chaos informationnel idoine pour immiscer des informations malveillantes qu’aucune plateforme media ne sera en mesure de détecter et de neutraliser de manière fiable et certaine.

La réalité ressemble à un scénario catastrophe : le mur est là, avec ces échanges susceptibles de marquer le monde ; les citoyens tous utilisateurs d’IA générative sont lancés à pleine vitesse droit dans ce mur, inconscients ; les pilotes de la dynamique ne maîtrisent pas leur engin supersonique, malgré des efforts majeurs ! Pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expression ».

Le changement de culture à grande échelle ne peut que venir d’une exigence citoyenne massive. Empêcher quelques bigs techs de continuer à générer et exploiter les vulnérabilités de nos sociétés est plus que légitime. Le faire sans demi-mesure est impératif : interdire des outils numériques tout comme on peut interdire des médicaments, des produits alimentaires ou d’entretien. Il faut redonner du poids aux citoyens dans la diffusion de ces technologies et reprendre ainsi un coup d’avance, pour que la liberté d’expression ne devienne pas responsable de sa propre destruction.

Ce mouvement, le paradoxe du ChatBlanc, pourrait obliger les big techs à (re)prendre le temps d’un développement technologique approprié, avec ses bacs à sable, voire des plateformes dédiées pour les créations avec IA. Les citoyens les plus éclairés pourraient avoir un rôle d’alerte connu, reconnu et effectif pour décrédibiliser ceux qui perdent la maîtrise de leurs outils. Au final, c’est peut-être la sauvegarde d’un Internet libre qui se joue !

Ce paradoxe du ChatBlanc, censurer les outils d’expression pour préserver la liberté d’expression à tout prix trouvera sans aucun doute de très nombreux opposants. L’expérimenter en lançant le mois du ChatBlanc à l’image du dry january permettrait d’appréhender le sujet à un niveau raisonnable tout en accélérant nos apprentissages au service d’une transformation culturelle mondiale.

 

Lucal Bisognin, Sylvie Blanco, Stéphanie Gauttier, Emmanuelle Heidsieck (Grenoble Ecole de Management) ; Kai Wang (Grenoble INP / GIPSALab / UGA), Sophie Guicherd (Guicherd Avocat), David Gal-Régniez, Philippe Wieczorek (Minalogic Auvergne-Rhône-Alpes), Ronan Le Hy (Probayes), Cyril Labbe (Université Grenoble Alpes / LIG), Amaury Habrard (Université Jean Monnet / LabHC), Serge Miguet (Université Lyon 2 / LIRIS) / Iuliia Tkachenko (Université Lyon 2 / LIRIS), Thierry Fournel (Université St Etienne), Eric Jouseau (WISE NRJ).

Paris vaut mieux qu’un coup de comm’

Une fois de plus, Anne Hidalgo a transformé deux bonnes idées en un échec cinglant. Les Parisiens expriment depuis longtemps leur souhait d’être écoutés par leurs élus sur des enjeux locaux au cours du long mandat municipal de six ans. C’est particulièrement vrai pour les enjeux de densification et de mobilité qui sont au cœur du dynamisme d’une ville comme le rappelle Alain Bertaud, urbaniste de renommée mondiale et directeur de recherche à l’Université de New York. Il n’était a priori pas absurde de solliciter les Parisiens sur ces sujets.

La consultation sur le coût du stationnement des véhicules lourds a pourtant fait un flop avec 78 000 votes sur 1,3 million d’inscrits, soit 30 % de suffrages exprimés en moins que pour la consultation sur les trottinettes. 42 415 voix en faveur de la proposition, c’est presque deux fois plus de bulletins que pour Anne Hidalgo à la présidentielle. Ce nombre de votes reste néanmoins ridicule à l’échelle de la capitale. Chaque bulletin dans l’urne a coûté plus de cinq euros au contribuable parisien dans ce scrutin à 400 000 euros.

Rappelons-nous que cette idée de consultation est sortie du chapeau municipal en pleine tempête du Tahiti Gate. Malgré la tragédie du 7 octobre libérant une vague effrayante d’actes antisémites à Paris, la maire de Paris était partie en Afrique, puis en catimini à l’autre bout du monde, le tout pour quasiment quatre semaines (du 11 octobre au 6 novembre). Son service de comm’ avait tenté de maquiller son absence par la reprise d’une vieille vidéo sur les berges. Il avait ensuite déroulé des justifications confuses, variant les versions au fil de révélations sur cette odyssée à six pour un coût de 60 000 euros se terminant par des vacances familiales pour la maire. Il est probable que la formulation de la question a été improvisée dans l’urgence sur un coin de table pour détourner de toute urgence l’attention des médias.

La mairie n’avait évidemment pas eu le temps de réaliser une étude d’impact préalable, ni de réfléchir à une proposition pertinente et conforme à la loi. Il fallait communiquer fort et vite. Les habitants se sont sentis floués par l’ineptie de la question. Dans le viseur se trouvait le poids des véhicules (ce qui semble illégal, au passage) et pas du tout les émissions de CO2 ou les seuls SUV, comme annoncé. Le surcoût punitif prévu, jusqu’à 225 euros de stationnement pour six heures, visait aussi les véhicules hybrides et électriques. Le débat, réduit à quelques semaines d’échanges sur les réseaux sociaux et son lot d’intox, a tout de même révélé que la mesure allait faire mal aux familles possédant ces fameux véhicules disposant de cinq, six ou sept sièges, souvent lourds (monospaces ou SUV).

La gauche espérait réactiver la lutte des classes en opposant les riches aux classes populaires, et ajouter une dimension d’écologie punitive également clivante. Elle a très partiellement atteint son but en soulignant l’opposition entre l’ouest parisien majoritairement opposé, et l’est favorable à ce triplement tarifaire. Mais en ne mobilisant que 3 % des inscrits en faveur de sa mesure, le score de 54,5 % n’a rien d’un plébiscite. Anne Hidalgo doit admettre qu’elle s’est plantée.

Après avoir ignoré le résultat de sa consultation du 17 avril au 28 mai 2023 sur la fermeture d’une voie du périph’ qui avait révélé 85 % d’opposition, elle gâche une fois de plus un bel outil de démocratie directe. L’enjeu de la mobilité méritait mieux qu’une mesure gadget pour un simple coup de communication.

Nous sommes plusieurs à réfléchir à l’instauration d’un outil de vote en ligne pour consulter les Parisiens. Des questions claires concernant Paris et les arrondissements pourraient ainsi être adressées régulièrement aux habitants inscrits sur les listes électorales. Un tel cadre devrait laisser le temps nécessaire au débat entre la question posée et le vote afin que chacun puisse écouter les différents arguments et creuser le sujet pour se constituer une opinion.

La Suisse pourrait nous aider dans la mise en place d’un tel outil de démocratie directe en complément de la démocratie représentative municipale. Le taux de participation à ses votations oscille entre 40 et 60 % selon l’intérêt des sujets soumis à l’appréciation des électeurs.

Cet outil nous semble important pour affiner la politique parisienne de circulation qui nous préoccupe tant. Les habitants sont nombreux à souhaiter une réduction de la place de la voiture, mais tous souffrent des désagréments dus au chaos découlant du dogmatisme de la mairie de Paris et de ses plans infernaux de circulation. Les aspirations contradictoires deviennent explosives par le stress général qu’elles génèrent, par leurs conséquences sur l’activité sociale et économique de la capitale. Des consultations seront probablement nécessaires pour détricoter ces injonctions contradictoires et élaborer un plan de mobilité d’ensemble avant de le dérouler en fonction des exigences dominantes quartier par quartier. Axes circulants, quartiers protégés, rues piétonnisées pour préserver un marché alimentaire ou une école, stationnement en surface articulé avec celui des parkings souterrains, les aspects liés à traiter ensemble sont nombreux.

Bref, l’enjeu de la mobilité ne peut se réduire à des mesures gadgets promises au rejet par la justice administrative, d’autant que le dogmatisme et l’improvisation font très mauvais ménage. L’absence de vision d’ensemble, d’évaluation et de concertation mène la capitale et la petite couronne à la catastrophe. Le seul espoir est de changer de trajectoire aux prochaines municipales en 2026.

La proposition de loi NGT : une avancée, mais minime

1983-2014. Les biotechnologies végétales en Europe, de l’enthousiasme au suicide technologique

Pour comprendre le vote récent du Parlement européen sur ce que l’Union européenne nomme les nouvelles techniques génomiques (NGT), il faut remonter à l’invention de la transgénèse végétale en 1983. C’est-à-dire la possibilité de transférer directement un gène (un fragment d’ADN) d’un organisme quelconque, d’où ce gène a été isolé, vers une plante (c’est aujourd’hui possible pour presque toutes les espèces végétales cultivées). Cette dernière portera ainsi un nouveau caractère héréditaire. Par exemple, une résistance à certains insectes ravageurs, ou à des virus, ou encore une tolérance à un herbicide. Le champ des possibles de la sélection de nouvelles lignées de plantes s’est ainsi fortement accru.

En 1990, l’Europe (le Conseil des ministres) a publié une Directive destinée à encadrer l’utilisation hors-laboratoire de telles plantes transgéniques.

Pourquoi pas ? Seulement, cette Directive a de nombreux défauts que des scientifiques se sont évertués à pointer, sans être écoutés. Cette Directive inventa le concept juridique d’organisme génétiquement modifié (OGM). Ainsi, un terme générique, les « modifications génétiques », qui sont fréquentes dans la nature (elles ont permis l’évolution des espèces et ont créé la biodiversité) est utilisé dans un sens restrictif, pour viser réglementairement une technologie (la transgénèse) pour la seule raison qu’elle est nouvelle. De plus, la définition légale d’un OGM au sens européen inclut le concept de non « naturel », alors que le transfert de gènes existe dans la nature (en fait les biotechnologies végétales ont largement copié la nature). Le public est ainsi incité à penser que ces « modifications génétiques » sont uniquement le produit d’une opération humaine entièrement inédite et de plus contre-nature.

Jusqu’au milieu des années 1990, ni la presse ni le public ne se sont intéressés aux OGM. Tout changea lors de la crise de la « vache folle », dont le début coïncida, en 1996, avec l’arrivée des premiers cargos de soja transgénique en provenance des États-Unis. Les OGM furent assimilés à des pratiques productivistes et contre-nature, comme celle qui a conduit à l’épizootie l’encéphalopathie spongiforme bovine. Le lynchage médiatique ne pourra être stoppé… En réalité, il a été favorisé par la sotte Directive de 1990. Avec OGM, pas besoin de détailler les propriétés (favorables) de la plante transgénique : sans en savoir plus, les trois lettres suffisent pour inciter au rejet.

Celui-ci a été alimenté par une puissante coalition d’acteurs qui imposa les termes du débat : OGM = profit pour les seules « multinationales » + manque de recul, donc catastrophes sanitaires et environnementales certaines. Cette galaxie anticapitaliste, jamais à court de mensonges, incluait les organisations de l’écologie politique et altermondialistes, des organisations « paysannes » opposées à l’intégration de l’agriculture dans l’économie de marché, ainsi que des associations de consommateurs qui voyaient une occasion de justifier leur existence.

À l’origine, les partis politiques français de gouvernement affichaient un soutien aux biotechnologies végétales, jugées stratégiques (seuls les écologistes et une partie de l’extrême gauche, ainsi que le Front national y étaient opposés). Peu à peu, par soumission idéologique ou calculs électoralistes (ou les deux…), les responsables politiques firent obstacle au développement des plantes transgéniques. La culture des maïs transgéniques fut interdite par une loi en 2014.

 

L’Europe engluée dans le précautionnisme

Par une législation adaptée, par exemple, les États-Unis ont su récolter les bénéfices des biotechnologies végétales, tout en maîtrisant raisonnablement les risques. Dans une perspective de puissance, la Chine a investi massivement dans ces biotechnologies (avec cependant un frein au niveau des autorisations).

L’Europe s’est, elle, engluée dans les querelles et tractations politiques autour des OGM, mais surtout dans le précautionnisme, c’est-à-dire une interprétation du principe de précaution qui impose de démontrer le risque zéro avant d’utiliser une technologie.

Il faut voir cette dérive comme une composante de l’idéologie postmoderne, celle de la culpabilité universelle de la civilisation occidentale. Et notamment d’avoir utilisé des technologies en polluant, en causant des accidents industriels et sanitaires, et même pour produire des armes de destruction massive. Tout cela est vrai, mais par un retour du balancier déraisonnable et même suicidaire, l’idéologie postmoderne impose ainsi de nouvelles vertus, qu’il conviendra d’afficher encore et toujours, sur tous les sujets, quitte à s’autodétruire.

J’analyse cette idéologie postmoderne dans mon dernier livre, De la déconstruction au wokisme. La science menacée.

 

Une certaine prise de conscience en Europe

L’évènement majeur des dernières années est l’avènement des nouvelles biotechnologies, aussi appelées « édition de gènes » ou NGT.

Cette invention a rapidement suscité un vif intérêt par ses possibilités nouvelles pour la recherche. Elle est relativement simple à mettre en œuvre par rapport à d’autres techniques de mutagénèse (modifications des « lettres » qui compose l’ADN). Sans surprise, les opposants aux OGM ont le même regard sur ces nouvelles biotechnologies, et produisent une argumentation visant à créer des peurs. Au contraire, des États membres de l’Union européenne se sont inquiétés d’une nouvelle débâcle en Europe pour ces biotechnologies, en raison d’une réglementation OGM inadaptée.

En juillet 2023, la Commission européenne a présenté une proposition de loi sur les NGT. La première motivation de la Commission était que les végétaux NTG contribuent aux objectifs de son Pacte Vert et des stratégies « De la ferme à la table » et en faveur de la biodiversité. En fait, la Commission craint que ses objectifs, fortement marqués par l’idéologie, et non par la prise en compte de la réalité, ne puissent être atteints sans le concours des biotechnologies.

Le cadre idéologique de la proposition de la Commission reste cependant postmoderne, c’est-à-dire ancré dans une utopie du « sans tragique » étendue aux risques technologiques (principe de précaution) au détriment de la puissance de l’Europe, et où la notion de progrès s’est diluée.

Il faut cependant noter que, par rapport à des textes antérieurs, le texte de la proposition de loi de la Commission a, dans une certaine mesure, pris conscience de la réalité. Il y est dit que « la pandémie de Covid-19 et la guerre d’agression menée par la Russie contre l’Ukraine ont aggravé la situation de l’agriculture et de la production alimentaire européennes en mettant au jour les dépendances de l’Union à l’égard de l’extérieur en ce qui concerne des intrants critiques pour l’agriculture ».

 

La proposition de loi NGT : une avancée, mais minime

Malgré l’inadaptation de la Directive OGM (reconnue par certains dans la Commission), celle-ci n’est pas modifiée. Les insertions d’ADN étranger (souvent les plus utiles) qui peuvent aussi être réalisées par la technologie NGT, resteront soumises à cette Directive.

Pour les autres produits des NGT, c’est-à-dire des modifications plus ponctuelles des lettres de l’ADN (mutagénèse), deux catégories seront créées en fonction de l’étendue de la mutagénèse, qui allègent soit fortement, soit plus modérément, les obligations imposées par la réglementation.

La catégorie NGT-1 concerne les lignées de plantes considérées comme équivalentes à celles qui auraient pu être obtenues (en théorie) par sélection de plantes par des méthodes dites conventionnelles, en statuant (sans aucune base scientifique) que le nombre de lettres modifiées ne doit pas dépasser 20 (pourquoi 20 et pas 21 ?). Sinon, le produit est classé dans la catégorie NGT-2, donc impossible à commercialiser en Europe en raison du coût exorbitant de l’évaluation des risques imposée par la Directive OGM, même partiellement alléguée.

Sont en revanche exclues d’office de la catégorie 1, selon les amendements du Parlement, les plantes tolérantes à un herbicide, par pure idéologie antipesticide, sans distinction au cas par cas (par exemple si la variété biotechnologique permet d’utiliser un herbicide plus respectueux de l’environnement que ce qui est pratiqué conventionnellement).

Est en revanche inclus dans la catégorie 1, l’insertion d’ADN (y compris de plus de 20 lettres) si cet ADN provient d’un organisme qui aurait pu servir dans des croisements opérés par les sélectionneurs. Un choix, là aussi sans base scientifique, qui procède de l’idée fausse que si le produit aurait pu être obtenu (en théorie) par des méthodes conventionnelles – comprendre naturelles pour la Commission – alors ce produit ne nécessite pas d’évaluation des risques.

Le texte amendé du Parlement introduit à de nombreuses reprises « Conformément au principe de précaution », ce qui laisse augurer des contentieux devant les cours de justice, qui pourraient prendre argument que l’autorisation d’une lignée NGT n’est pas conforme à ce principe.

 

L’Europe ne rattrapera pas son décrochage

390 produits issus des biotechnologies végétales (dans le jargon scientifique, on parle d’évènements de transformation) ont été autorisés dans le monde depuis 1995. Dont seulement deux dans l’Union européenne (dont un qui n’est plus commercialisé, et l’autre uniquement cultivé en Espagne, un maïs résistant à certains insectes ravageurs).

Si l’on examine les brevets (comme reflet de la vitalité inventive dans un domaine, en l’occurrence biotechnologique), l’Europe a largement décroché par rapport aux États-Unis et à la Chine (le lecteur est invité à voir la figure 1 de notre publication dans un journal scientifique, qui concerne les brevets basés sur la technologie NGT la plus utilisée). On peut parler d’un contexte idéologique en Europe en défaveur des brevets, et donc de l’innovation, au moins en ce qui concerne les biotechnologies. Les amendements introduits par le Parlement dans le projet de loi NBT en « rajoute même une couche » dans l’obsession anti-brevet, alors que la législation sur les brevets biotechnologiques est équilibrée en Europe, et ne menace aucunement les agriculteurs (en Europe, les variétés de plantes ne sont pas brevetables, seules les inventions biotechnologiques en amont le sont ; l’agriculteur peut ressemer des graines, même de variétés issues des biotechnologies…).

Comme seule une toute petite partie des inventions potentiellement produites par les NGT pourra trouver grâce aux yeux de la législation européenne, il est illusoire de penser que la situation des biotechnologies s’améliorera significativement dans l’Union. De plus, le 7 février 2024, le projet de loi n’a obtenu qu’une courte majorité des eurodéputés (307 voix pour, 236 contre), ce qui laisse augurer d’autres batailles de tranchées visant à bloquer les biotechnologies végétales.

*L’auteur de ces lignes n’a pas de revenus liés à la commercialisation de produits biotechnologiques. Ses propos ne refètent pas une position officielle de ses employeurs.

Pourquoi Gabriel Attal échouera à relever le pouvoir d’achat des Français

Parmi les sujets de mécontentement de la population il en est un qui est récurrent : la faiblesse du pouvoir d’achat. C’est encore une fois ce qu’a montré le dernier sondage IPSOS pour le CESE, en date du 26 octobre 2023. Les Français interrogés sur ce que sont leurs préoccupations placent le problème du pouvoir d’achat en tête, avec 40 % des réponses, suivi par la santé.

Aussi, dans sa déclaration de politique générale à l’Assemblée, le Premier ministre a déclaré qu’il voulait « desmicardiser » les Français, c’est-à-dire augmenter leur pouvoir d’achat : de trop nombreux salariés sont condamnés à rester indéfiniment au SMIC, et c’est insupportable.

Mais est-ce possible, et dans quels délais ?

Actuellement, les statistiques de la  DARES indiquent que 17,3 % des salariés français sont au SMIC, et ce pourcentage progresse : en 2021, il s’agissait de 12 % seulement. Les Français sont fortement préoccupés par « la faiblesse de leur pouvoir d’achat », et l’inflation depuis deux années exacerbe cette crainte.

Ce sentiment d’insuffisance du pouvoir d’achat, est-il justifié ? Est-ce un simple ressenti purement subjectif, ou bien, véritablement, une réalité intangible ?

Les Français sont un peuple d’éternels insatisfaits. François de Closets, dans Toujours plus expliquait que le « toujours plus » est une revendication endémique caractéristique du peuple français. En 2006, il récidivait avec Plus encore.

Un débat de même nature entre les ministres de l’Intérieur et de la Justice à propos des problèmes de sécurité : l’un parlant, chiffres en mains, d’un véritable problème de sécurité aujourd’hui en France, l’autre, d’un simple « sentiment d’insécurité », un sentiment non fondé. Éric Dupond-Moretti avait dit à Ruth Elkrief, sur Europe 1 : « Le sentiment d’insécurité, c’est un fantasme : c’est du populisme ».

Alors ? Véritable problème, cette fois, que celui de l’insuffisance du pouvoir d’achat, ou bien un fantasme ?

Que va donc pouvoir faire Gabriel Attal face à ce « populisme » ? 

Où en sommes-nous, et que disent les chiffres ?

 

Le SMIC en France est trop haut : explications

Le PIB français par habitant n’est pas un des plus élevés d’Europe, loin s’en faut, mais les Français paraissent ne pas en avoir réellement conscience. Le tableau ci-dessous indique comment notre SMIC se situe par rapport à quelques-uns de nos voisins. Il varie, évidemment, avec le niveau de richesse des pays :

Pour s’étalonner, il faut se reporter à la corrélation existant entre ces données, en prenant le PIB/tête comme variable explicative :

 

L’équation de la droite de corrélation indique que le PIB/capita qui est le nôtre devrait correspondre en à un  SMIC mensuel de 1587 euros seulement. Notre SMIC est donc fixé relativement trop haut : il est 10 % supérieur à ce qu’il devrait être, par rapport à ce que font les pays européens qui, comme nous, ont mis en place ce garde-fou. 

On voit que le SMIC est lié au PIB par habitant, et dans ce domaine la France est mal placée : elle est à la 13e position seulement en Europe, avec un PIB par tête 16% inférieur à celui de l’Allemagne, 30 %  inférieur à celui des Pays-Bas, et pas même la moitié de celui de la Suisse, des pays qui sont pourtant nos voisins.

Les Français semblent l’ignorer, contrairement aux frontaliers qui en sont bien conscients : ils sont actuellement environ 350 000 qui cherchent chaque jour à travailler en Suisse, au Luxembourg, ou en Allemagne, quand cela leur est possible. Cette relation étroite entre les PIB/capita et les salaires n’est en rien surprenante puisque, dans leur construction, les PIB sont constitués à plus de 60 % par les rémunérations des actifs.

 

Le niveau de vie des Français est supérieur à ce que leur rémunération mensuelle peut leur fournir

Depuis quelques années (cf. INSEE -France, portrait social), l’INSEE publie des tableaux « Niveau de vie et pauvreté dans l’UE » et chiffre les niveaux de vie à la fois en euros et en Parité de pouvoir d’achat. S’agissant, ici, d’une réflexion menée sur les salaires, qui sont l’élément principal qui détermine le niveau de vie, il convient de rapprocher les salaires des évaluations du niveau de vie exprimées en Parité de pouvoir d’achat, telles qu’elles sont produites par l’INSEE :

Le graphique ci-dessous montre la corrélation entre ces données, en prenant le niveau de vie comme variable explicative :

 

L’équation de la droite indique que le niveau de vie français correspond à un salaire plus élevé que celui effectivement perçu en moyenne, soit 4189 dollars, alors que nous en sommes à 3821 dollars seulement, soit environ à nouveau 10 % d’écart.

Selon cette approche, les Français auraient un niveau de vie supérieur à ce que leur rémunération mensuelle est capable de leur fournir. Cest dû à la façon dont l’État a organisé la vie de la société : soins et enseignement pratiquement gratuits, transports fortement subventionnés, temps de travail annuel plus court que dans les autres pays, départ à la retraite plus précoce.

Tous ces avantages sont fournis par des circuits très complexes de redistribution, ce qui a pour conséquence que les dépenses publiques sont bien plus élevées que dans tous les autres pays en proportion du PIB. L’État se trouve donc contraint de recourir chaque année à l’endettement pour boucler ses budgets, malgré des  prélèvements obligatoires les plus élevés de tous les pays européens. En somme, les Français vivent avec un salaire moyen fictif de 4189 dollars, plus élevé que le salaire mensuel qu’ils perçoivent, mais ils n’en ont nullement conscience. Faute d’avoir une appréhension objective de leur niveau de vie, ils ont facilement tendance à se plaindre et revendiquer des augmentations de salaire.

 

Pour accroître le niveau de vie des Français, il faut augmente le PIB par habitant

Il ne va pas être facile à notre Premier ministre d’accroître rapidement la rémunération des Français : le SMIC est déjà 10 % supérieur à ce qu’il devrait être, le niveau de vie est lui aussi de 10 % supérieur,  en moyenne, à ce que permettent les rémunérations des salariés.

Les Français bénéficient d’avantages considérables qui améliorent leur niveau de vie quotidien : sans le savoir, ils vivent avec un salaire fictif supérieur à leur salaire nominal. Ce sont des réalités qu’un homme politique, fut-il un bon communiquant, est totalement incapable d’expliquer à des foules qui viendraient manifester sous ses fenêtres.

L’augmentation du PIB per capita est donc la seule solution permettant de satisfaire le besoin d’amélioration du pouvoir d’achat des Français : il n’y a donc pas d’autre solution que de s’attaquer sérieusement à la dynamisation de notre économie pour faire de la croissance et augmenter rapidement le PIB, qui depuis bien longtemps ne croît pas assez vite, et génère en permanence du mécontentement. 

En 2018, le service des statistiques des Nations unies a examiné comment ont évolué sur une longue période les économies des pays.

Ci-dessous, les résultats de cette étude pour un certain nombre de pays européens, en réactualisant les données, et en mettant en exergue le cas d’Israël particulièrement exemplaire :

Depuis la fin des Trente Glorieuses, la France réalise de très mauvaises performances économique : en multipliant par 4,9 son PIB par tête, comme la Suisse ou le Danemark, on en serait à un PIB/capita de 62 075 dollars, supérieur à celui de l’Allemagne, comme c’était le cas en 1980. Mais nous en somme très loin ! 

Le secteur industriel français s’est complètement dégradé d’année en année, sans que les pouvoirs publics ne jugent nécessaire d’intervenir. Ils sont restés sur l’idée qu’une société moderne doit être post-industrielle, c’est-à-dire dépourvue d’industrie. Ce cliché a été développé en France par des sociologues, comme par exemple Alain Touraine en 1969 dans La société postindustrielle.

Aujourd’hui, le secteur industriel ne représente plus que 10 % du PIB en France (industrie, hors construction), alors qu’il est de 23 %  ou 24 % en Allemagne ou en Suisse. La France est le plus désindustrialisé de tous les pays européens, Grèce mise à part.

Pour redresser l’économie et la rétablir dans ses grands équilibres il va falloir porter à 18 % environ la contribution du secteur industriel à la formation du PIB, ce qui va demander beaucoup de temps, pour autant qu’on y parvienne. Emmanuel Macron n’avait pas considéré le problème au cours de son premier quinquennat, alors qu’il avait en charge le ministère de l’Économie.

Ce n’est qu’à l’occason de la crise du covid qu’il a pris conscience de la très grave désindustrialisation du pays, et a lancé, en octobre 2023, le Plan France 2030 doté d’un budget de 30 milliards d’euros. Ce budget est très insuffisant, et ne pourra s’appliquer qu’à des industries dites vertes, les aides à l’investissement, selon les directives de Bruxelles, ne pouvant bénéficier qu’à des projets écologiquement corrects. 

Nous avons chiffré, dans d’autres articles, à 350 milliards d’euros le montant des investissements à réaliser pour remonter le secteur industriel à 18 % du PIB. Les montants mobilisés du Plan France 2030 sont très éloignés de ce que le président Joe Biden fait aux États-Unis pour impulser la réindustrialisation du pays avec l’Inflation Réduction Act, qui rencontre un succès considérable, après le Chips and sciences Act. Les Bidenomics pourraient-ils être de nature à éclairer nos dirigeants sur ce qu’il conviendrait de faire pour redresser notre économie. Mais, les moyens financiers nous manquent.

Notre PIB par tête n’est pas près d’augmenter rapidement, et les salaires de progresser au rythme qui serait souhaitable. Les prix augmentent, et notre ministre de l’Économie a déclaré aux Français que le temps du « quoi qu’il en coûte » était terminé. En effet, l’État est terriblement endetté, il faut avant tout réduire dette et déficit budgétaire pour respecter les règles de la zone euro.

Et il est hors de question de fâcher les agences de notation, et les voir de nouveau, abaisser la note d’un cran. Notre jeune et brillant Premier ministre n’est donc pas près de desmicardiser les Français.

États-Unis : bataille constitutionnelle au Texas

Si l’Iowa et le New Hampshire représentent vraiment l’opinion du Parti républicain, alors l’immigration sera le sujet des électeurs en novembre. Et avec la bataille constitutionnelle qui se pointe au Texas, les dialogues de sourds et les attaques fuseront de toute part pour les dix prochains mois.

En effet, las de voir autant « d’illégaux » traverser la frontière au Texas, le gouverneur Greg Abbott a décidé de la fermer à Eagle Pass (sud-ouest de San Antonio) depuis le 10 janvier. Il a utilisé la garde nationale pour installer des barbelés dans un parc qui servait aux agents fédéraux pour traiter les demandes de statut de réfugiés.

Et comme à chaque fois que le Texas met des bâtons dans les roues de l’administration Biden, cette dernière proteste par la voie légale. Encore une fois, elle a eu gain de cause : dans une décision 5-4, la Cour suprême a affirmé que Washington peut retirer les fils barbelés. Mais comme elle n’a pas dicté ce que le Texas peut (ou ne peut) faire, l’administration Abbott persiste et signe, et jure de rétablir tout ce qui sera retiré.

 

Hyperboles et exagérations

Comme presque tout ce qui concerne l’immigration et les frontières, les énormités pullulent.

Tout d’abord, l’invocation constitutionnelle d’Abbott ne tient pas la route. Car lorsqu’on regarde les débats autour de l’adoption de la Constitution, « invasion » signifie vraiment une invasion d’une force étrangère. La Californie avait été recalée sur cet argument en 1996 alors qu’elle se disait débordée par l’immigration. Le Texas a également perdu cet argument récemment en devant retirer des bouées sur le Rio Grande (à la frontière avec le Mexique).

Qui plus est, Abbott flirte dangereusement avec le fascisme en permettant aux forces policières texanes de détenir quiconque est suspecté d’être sans papier. Il affirme aussi que le passage de drogues fait partie d’une invasion et qu’il faut agir coûte que coûte. En d’autres termes, l’habeas corpus peut être suspendu partout et en tout temps sur un coup de tête sans fondement légal ou philosophique. Sans parler des pertes économiques astronomiques de systématiquement inspecter tous les camions entrant aux États-Unis.

 

Une frontière fermée

Aussi, au risque de me répéter et n’en déplaise aux « défenseurs » de la nation, les frontières sont bel et bien fermées. Considérant que le chemin dit légal pour émigrer vers les États-Unis est plus difficile que d’obtenir le laisser-passer A38 – voyez plutôt – les gens qui veulent désespérément améliorer leur situation emploieront des moyens tout aussi désespérés pour y parvenir.

Et plus on restreindra le périmètre « légal » de l’immigration, plus certains recourront au « crime » pour tenter d’émigrer. Regardez simplement la guerre à la drogue : est-elle moins accessible du fait de son illégalité (aux yeux du fédéral du moins)  ?

De toute façon, nonobstant leur façon « criminelle » d’entrer au pays, les personnes sans papiers ne sont pas les « empoisonneurs » comme certains aiment les dépeindre. Leur taux de criminalité est exponentiellement inférieur à celui des « natifs », et ils utilisent Medicaid (assurance-santé publique pour les démunis) à un taux nettement moindre que leur pourcentage de représentation de la population.

Mais les faits n’atteignent pas les nativistes. Ils persistent et signent au sujet de la supposée invasion ; 25 gouverneurs (tous Républicains) ont annoncé un soutien moral et/ou matériel au Texas dans son combat.

Source : https://youtu.be/Tuoff2KCU1w?feature=shared&t=58

Ils se privent ainsi d’un vaste potentiel d’électeurs, dont plusieurs sont pratiquants, conservateurs et très proches de leur famille. Le fait que certains apparaissent sur une liste noire du FBI ne veut strictement rien dire ; pendant un moment, l’agence a considéré les catholiques traditionnels et les parents trop incisifs aux rencontres parents-enseignants comme des extrémistes à surveiller.

 

Des Démocrates opportunistes

Par ailleurs, n’allez surtout pas croire que le parti de Joe Biden est plus compatissant.

Malgré de belles et occasionnelles paroles de certains, les Démocrates sont presque autant faucon quand vient le temps de « défendre » la frontière. De Barack Obama à Joe Biden en passant par Bill Clinton, le parti de l’âne ne fait rien pour ne serait-ce que simplifier un tantinet le processus d’immigration.

Probablement sentant la montée nativiste, Biden a même déclaré qu’il pourrait fermer la frontière si le Congrès le lui demandait. Pourquoi fermer une frontière qui l’est déjà de toute façon ?

Bref, le présent dialogue de sourd à la frontière n’est qu’un énième épisode des inepties xénophobes du XIXe siècle. On affirme que les nouveaux arrivants vont déprimer les salaires, détruire le tissu social, vivre des aides publiques, etc.

Il est plutôt ironique de surtout voir les conservateurs protester contre l’immigration. Ne sont-ils pas ceux qui affirment que nos droits proviennent de Dieu ? La liberté de mouvement (pacifique) en fait partie.

Pour un traité de libre-échange entre l’Union européenne et l’Indonésie

Près de la moitié de la population mondiale votera en 2024 dans un contexte de troubles internationaux. Les électeurs de l’Union européenne éliront leurs représentants au Parlement européen les 6 et 9 juin 2024. Une quarantaine d’élections auront également lieu dans le monde, notamment aux États-Unis, en Inde, en Indonésie, en Russie et au Mexique.

L’Union européenne se trouve à un trounant en 2024, confrontée à la nécessité de redéfinir ses relations avec un autre géant démographique et commercial, l’Indonésie. Alors que les deux entités s’apprêtent à vivre des élections importantes, l’influence combinée de plus de 700 millions de personnes pourrait ouvrir la voie à la réinitialisation d’un partenariat qui a été entaché par les conflits politiques, les contestations juridiques et l’absence flagrante d’un accord de libre-échange.

 

L’Indonésie, troisième plus grande démocratie du monde

L’histoire de l’Indonésie est tissée de cultures et d’influences diverses. Autrefois plaque tournante du commerce des épices, l’archipel a connu l’essor et le déclin de puissants royaumes, dont celui de Srivijaya et de Majapahit. La colonisation par les Hollandais au XVIIème siècle a ouvert la voie à la lutte pour l’indépendance de l’Indonésie, qui a culminé avec sa proclamation en 1945. Après l’indépendance, la nation asiatique a été confrontée à des défis politiques et économiques, notamment le régime autoritaire de Suharto, jusqu’à l’avènement de la démocratie en 1998.

Aujourd’hui, l’Indonésie est un exemple de résilience. Le pays, qui compte aujourd’hui plus de 270 millions d’habitants, a connu une croissance économique constante et s’est imposé comme un acteur clé en Asie du Sud-Est. Dans ce pays démocratique et dynamique, les prochaines élections seront l’occasion de donner un mandat pour des politiques qui peuvent propulser l’Indonésie sur la scène mondiale.

 

Un accord de libre-échange opportun avec le pays le plus peuplé d’Asie du Sud-Est

L’Union européenne a négocié avec succès plusieurs accords de libre-échange avec différents blocs, renforçant ainsi ses liens économiques sur la scène mondiale. Parmi les accords les plus importants, citons les partenariats avec le Canada (CETA), le Japon et le bloc Mercosur en Amérique du Sud. Ces accords ont permis de faciliter l’accès aux marchés, de réduire les droits de douane et de stimuler les investissements transfrontaliers.

Depuis juillet 2016, l’Union négocie donc avec l’Indonésie dans le but de conclure un accord dont la portée serait similaire à celle des accords commerciaux conclus par Bruxelles avec Singapour en 2014 et avec le Viêt Nam en 2015.

À l’instar des accords existants, la position unique de l’Indonésie en tant que marché majeur pour les biens et services haut de gamme, associée à son influence régionale, offre à l’Union européenne une porte d’accès au dynamisme économique de l’Asie du Sud-Est. En donnant la priorité à un accord de libre-échange global avec l’Indonésie, l’Union européenne ne diversifierait pas seulement son portefeuille économique, mais se positionnerait aussi stratégiquement dans une région à l’immense potentiel.

Le libre-échange favorise la croissance économique en élargissant l’accès au marché, en promouvant une concurrence saine et en stimulant l’innovation. L’abaissement des barrières commerciales permet une allocation efficace des ressources, une spécialisation basée sur l’avantage comparatif et un plus grand choix pour les consommateurs. Les consommateurs européens et indonésiens bénéficieraient d’un plus large éventail de biens et de services à des prix plus compétitifs, ce qui améliorerait en fin de compte leur niveau de vie.

Par exemple, les produits de luxe français, réputés dans le monde entier, trouveraient un marché florissant dans la classe moyenne en expansion de l’Indonésie. Les produits français emblématiques ont tout à gagner d’une réduction des droits de douane et d’une plus grande accessibilité. Les collaborations dans des domaines tels que les énergies renouvelables, les infrastructures intelligentes et les technologies numériques pourraient ouvrir la voie à des partenariats mutuellement bénéfiques. Alors que l’Indonésie, membre du G20, vise un développement durable, l’expertise française dans ces secteurs deviendrait un atout qui s’alignerait sur les priorités économiques des deux nations.

De surcroît, le renforcement des liens économiques avec l’Indonésie pourrait servir de doux contrepoids à l’influence croissante de la Chine dans la région, sans avoir recours à des manœuvres ouvertement politiques ou militaires. En substance, un accord de libre-échange avec l’Indonésie serait un outil sophistiqué dans l’arsenal diplomatique de l’Union européenne, facilitant l’influence et la stabilité dans une partie du monde stratégiquement cruciale.

Mais le renforcement des liens économiques n’est pas seulement une question de commerce et d’influence ; c’est aussi un outil qui permet de promouvoir la compréhension entre des sociétés différentes. Des économies interconnectées sont moins susceptibles d’entrer en conflit. Dans ce contexte, un accord de libre-échange bien négocié ne renforcerait pas seulement la prospérité économique des deux blocs, mais jetterait également les bases d’une relation géopolitique plus solide.

 

Les gagnants et les perdants d’un accord avec l’Indonésie

Un accord de libre-échange devrait entraîner une augmentation globale du PIB et des échanges tant pour l’Union européenne que pour l’Indonésie. Les résultats de l’analyse d’impact menée par l’Union européenne indiquent que d’ici 2032, les augmentations attendues du PIB de l’Union se situeront entre 2,46 et 3,09 milliards d’euros. Pour l’Indonésie, les gains attendus sont plus prononcés, avec des augmentations prévues du PIB allant de 4,56 milliards d’euros à 5,19 milliards d’euros d’ici 2032. 

L’étude prévoit des augmentations significatives de la production et des exportations de produits industriels en provenance de l’Union européenne. Les secteurs les plus susceptibles de connaître des hausses à la production et à l’exportation sont les véhicules à moteur et pièces détachées, papier et produits en papier, produits chimiques, caoutchouc et plastique. Pour l’Indonésie, on s’attend à des augmentations significatives de la production et des exportations de textiles, de vêtements et de chaussures.

Alors que les gains globaux devraient être positifs, certains secteurs devraient connaître des baisses de production et d’exportations globales. Pour l’Union européenne, celles-ci devraient se produire dans les secteurs du textile, de l’habillement et de la chaussure, tandis que l’Indonésie devrait connaître des baisses dans les secteurs des véhicules à moteur et de leurs pièces détachées, des machines, du papier et des produits en papier, des produits chimiques, du caoutchouc, du plastique et des produits métalliques.

 

Quel impact sur nos agriculteurs ?

En ce qui concerne l’agroalimentaire, l’étude d’impact prévoit que l’accord pourrait entraîner une augmentation de la production de produits laitiers et de boissons alcoolisées dans l’Union européenne, tandis que les exportations bilatérales d’aliments transformés devraient également augmenter en Indonésie. 

En effet, il est impossible d’affirmer que le secteur agricole français pourrait se trouver lésé par un éventuel accord de libre-échange avec l’Indonésie. En effet, la France produit surtout des céréales (blé, maïs, orge), de la betterave sucrière, du tournesol, des pommes de terres, du colza, des fruits, du lait de vache, du vin, de la viande bovine et porcine. De son côté, la production agricole de l’Indonésie, pays soumis à un climat chaud et tropical, est dominée par les produits suivants : riz, huile de palme, caoutchouc naturel, thé, noix de coco, fruits tropicaux (bananes, mangues, ananas, etc.), café, cacao, soja, poissons et fruits de mer. On le voit, les deux pays, soumis à des climats que tout oppose, ont une production agricole aussi différente que complémentaire.

La Copa-Cogeca, le groupe de pression des agriculteurs européens à Bruxelles, estime que « en ce qui concerne les ambitions de l’agenda commercial européen (par exemple l’Australie, la Nouvelle-Zélande, le Mercosur et l’Indonésie), nous soutenons les efforts de l’Europe pour trouver de nouveaux marchés, en particulier dans les régions du monde qui connaissent une croissance rapide. Nous pensons toutefois que les accords doivent être équilibrés en ce qui concerne le chapitre agricole. »

Preuve qu’un traité de libre-échange peut respecter les intérêts agricoles des deux parties et être populaire, la Suisse a conclu un accord de libre-échange avec l’Indonésie en décembre 2018. Les citoyens suisses, dont l’avis a été demandé par referendum d’une façon inédite sur un traité de libre-échange, a accepté l’accord. 

 

Le nickel, le véritable enjeu des négociations ?

« Pour l’Union européenne, le véritable enjeu des négociations est lié à l’accès aux matières premières », estime Alan Hervé, Professeur à Institut d’études politiques de Rennes et auteur de l’ouvrage Les accords de libre-échange de l’Union européenne, publié en décembre 2023. 

Contacté par Contrepoints, il souligne que c’est l’accès au nickel qui fait l’originalité de ces négociations entre Bruxelles et Jakarta. L’Indonésie a en effet interdit l’exportation de minerai de nickel en 2020, affirmant son droit à stimuler son économie et à créer des emplois en remontant dans la chaîne de valeur, notamment pour développer son industrie locale de batterie pour les véhicules électriques. L’Indonésie, premier exportateur mondial de nickel avant cette interdiction, représente donc pour l’Europe une source d’approvisionnement potentielle très intéressante. Un contentieux a notamment été engagé par l’Union européenne devant l’OMC à ce sujet.

Pour Alan Hervé, « quand l’Union européenne négocie, elle essaie d’obtenir un accès au marché du pays-tiers. Là, un des enjeux premiers est de sécuriser des règles sur l’accès aux matières premières indonésiennes, ce pays appliquant beaucoup de mesures de restriction à l’export ». Si jamais les négociations devaient aboutir, « il y aurait sans doute des clauses qui porteront sur ces points de frictions avec, du côté de l’Union européenne, des garanties d’approvisionnement, mais aussi sans doute, du côté indonésien, la volonté de maintenir des mesures de sauvegarde et des possibilités de maintenir des mesures de restrictions dans certains cas. » 

 

Une opportunité à saisir

Malgré des aspects prometteurs, les relations Union européenne-Indonésie connaissent des difficultés. Celles-ci sont particulièrement évidentes lorsque l’Union impose des barrières commerciales et des droits de douane sur les produits indonésiens, notamment sur le cacao, le café, l’huile de palme, l’acier et le bois. À Jakarta, ces actions ont alimenté une certaine méfiance, créant un obstacle à la promotion d’un partenariat mutuellement bénéfique.

Comme le disait Frédéric Bastiat, les mesures protectionnistes, telles que les droits de douane, reviennent à briser des vitres pour stimuler l’activité économique : elles créent un avantage visible (la protection de l’industrie nationale) mais négligent les coûts invisibles (les pertes d’opportunités et les inefficacités économiques).

Alors que l’Union européenne est confrontée à la baisse de ses exportations vers des marchés comme la Chine, et à la menace de tarifs douaniers de la part d’un probable gouvernement Trump, le moment est plus que jamais venu de recalibrer sa stratégie. En resserrant ses liens avec l’Indonésie, l’Union pourrait tirer parti d’une économie dynamique et s’assurer ainsi un avantage stratégique sur des concurrents tels que les États-Unis, la Chine, et même des acteurs plus modestes comme le Royaume-Uni et la Turquie, qui s’efforcent de renforcer leurs relations commerciales avec Jakarta. Ces pays ont conclu que les mesures unilatérales contre les exportations indonésiennes étaient contre-productives. À l’Union européenne de leur emboîter le pas.

Si elle veut surfer avec succès sur cette vague diplomatique, l’Union européenne devra adopter une approche pragmatique. Après les élections indonésiennes de février, le nouveau président indonésien offrira une occasion unique de prendre un nouveau départ, et Bruxelles devra faire preuve de proactivité. Pour établir un dialogue constructif avec Jakarta, il faudra s’attaquer à la cause première de ces relations tendues : les barrières commerciales imposées par Bruxelles.

L’huile de palme, l’une des principales pommes de discorde entre les deux zones, est emblématique des défis auxquels l’Union européenne est confrontée dans ses relations avec l’Indonésie. Alors que l’Union s’oriente vers le développement durable, il est impératif de trouver un terrain d’entente avec l’Indonésie, un pays fortement tributaire de la production d’huile de palme. Il est primordial de trouver un équilibre qui encourage les pratiques durables indonésiennes sans étouffer la croissance économique du pays et l’Union européenne doit mettre fin à certaines barrières commerciales manifestement protectionnistes qui nuisent aux exportations indonésiennes.

 

Alors que l’Union européenne cherche à relever ces défis, un accord de libre-échange global et mutuellement bénéfique avec l’Indonésie doit être une priorité. Si elle n’agit pas maintenant, l’Union risque d’être mise à l’écart alors que d’autres acteurs mondiaux renforcent leurs liens avec l’Indonésie et l’Asie du Sud-Est, ce qui désavantagerait Bruxelles dans le paysage en constante évolution du commerce international.

La stratégie de Bruxelles sur l’IA bénéficiera-t-elle d’abord au Royaume-Uni ?

Par : Jason Reed

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l’Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d’innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l’Union européenne perçoivent différemment l’industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d’innovation. L’Union européenne, quant à elle, poursuit une réglementation antitrust agressive sur plusieurs fronts.

 

La Déclaration de Bletchley

Cette tendance apparaît clairement dans le domaine de l’intelligence artificielle, peut-être le domaine d’innovation technologique le plus attrayant pour un organisme de réglementation. Rishi Sunak, Premier ministre britannique, est un féru de technologie et se sentirait comme un poisson dans l’eau dans la Silicon Valley. On le retrouve d’ailleurs régulièrement en Californie où il passe ses vacances. Cette vision du monde se reflète dans l’approche du gouvernement britannique en matière d’IA.

En novembre 2023, Rishi Sunak a même accueilli le premier sommet mondial sur la sécurité de l’IA, le AI Safety Summit. À cette occasion, des représentants du monde entier – y compris des États-Unis, de l’Union européenne et de la France – ont signé au nom de leur gouvernement ce qu’on appelle la « Déclaration de Bletchley ».

Sur la Déclaration de Bletchley, le gouvernement britannique adopte un ton modéré.

Le communiqué officiel indique :

« Nous reconnaissons que les pays devraient tenir compte de l’importance d’une approche de gouvernance et de réglementation pro-innovation et proportionnée qui maximise les avantages et prend en compte les risques associés à l’IA ».

En d’autres termes, la Grande-Bretagne n’a pas l’intention de laisser libre cours à l’IA sur un marché non réglementé, mais ne considère pas non plus l’innovation comme une menace. Elle reconnaît que ne pas exploiter les opportunités de l’IA reviendrait à faire une croix sur les bénéfices que les générations actuelles et futures pourraient en tirer. La Déclaration de Bletchley incarne une approche réfléchie de la réglementation de l’IA, qui promet de surveiller de près les innovations afin d’en détecter menaces liées à la sécurité, mais évite de laisser le gouvernement décider de ce que l’IA devrait ou ne devrait pas faire.

 

Rishi Sunak, Elon Musk et l’avenir de la Grande-Bretagne

La position britannique adopte donc un ton très différent de celui des régulateurs du reste du monde, qui semblent considérer toute nouvelle percée technologique comme une occasion de produire de nouvelles contraintes. Dans l’Union européenne, par exemple, ou aux États-Unis de Biden, les régulateurs sautent sur l’occasion de se vanter de « demander des comptes aux entreprises technologiques », ce qui signifie généralement freiner la croissance économique et l’innovation.

La Grande-Bretagne est sur une voie qui pourrait, si elle reste fidèle à sa direction actuelle, l’amener à devenir un des principaux pôles technologiques mondiaux. Rishi Sunak a même profité du sommet pour interviewer Elon Musk. « Nous voyons ici la force la plus perturbatrice de l’histoire », a déclaré Musk à Sunak lors de leur discussion sur l’IA. « Il arrivera un moment où aucun emploi ne sera nécessaire – vous pourrez avoir un travail si vous le souhaitez pour votre satisfaction personnelle, mais l’IA fera tout. »

De SpaceX à Tesla en passant par Twitter, Elon Musk, bien qu’il soit souvent controversé, est devenu un symbole vivant du pouvoir de l’innovation technologique et du marché libre. En effet, demander à un Premier ministre, tout sourire, de venir le rejoindre sur scène avait sûrement vocation à envoyer un signal au monde : la Grande-Bretagne est prête à faire des affaires avec l’industrie technologique.

 

Bruxelles, Londres : des stratégies opposées sur l’IA

L’approche britannique plutôt modérée de l’IA diffère radicalement de la stratégie européenne. Bruxelles se targue avec enthousiasme d’avoir la première réglementation complète au monde sur l’intelligence artificielle. Sa loi sur l’IA, axée sur la « protection » des citoyens fait partie de sa stratégie interventionniste plus large en matière d’antitrust. Le contraste est limpide.

Si la Grande-Bretagne, en dehors de l’Union européenne, a réussi à réunir calmement les dirigeants mondiaux dans une pièce pour convenir de principes communs raisonnables afin de réglementer l’IA, le bloc européen était plutôt déterminé à « gagner la course » et à devenir le premier régulateur à lancer l’adoption d’une loi sur l’IA.

 

Les résultats de la surrèglementation de l’UE

La Grande-Bretagne post-Brexit est loin d’être parfaite, mais ces deux approches opposées de la gestion de l’IA montrent à quelle vitesse les choses peuvent mal tourner lorsqu’une institution comme l’Union européenne cherche à se distinguer par la suproduction normative. Une attitude qui tranche avec le comportement adopté par les ministres du gouvernement britannique à l’origine du projet de loi sur la sécurité en ligne, qui ont récemment abandonné leur promesse irréalisable d’« espionner » tout chiffrement de bout en bout.

Les résultats de la surrèglementation de l’Union européenne sont déjà évidents. OpenAI, la société à l’origine de ChatGPT soutenue par Microsoft, a choisi de placer sa première base internationale à Londres. Au même moment, c’est Google, autre géant de la technologie mais également leader du marché dans la course aux pionniers de l’IA via sa filiale DeepMind, qui a annoncé son intention de construire un nouveau centre de données d’un milliard de dollars au Royaume-Uni. Ces investissements auraient-ils été dirigés vers l’Union européenne si Bruxelles n’avait pas ainsi signalé aux entreprises technologiques à quel point le fardeau réglementaire y serait si lourd à porter ?

 

Se rapprocher de Washington ?

Malgré des discours d’ouverture et des mesures d’encouragement spécifiques destinés à attirer les startupeurs du monde entier, les bureaucrates européens semblent déterminés à réglementer à tout-va. En plus d’avoir insisté sur la nécessité de « protéger » les Européens de l’innovation technologique, ils semblent également vouloir recueillir l’assentiment d’officiels Américains sur leurs efforts de réglementation.

Le gigantesque Digital Markets Act et le Digital Services Act de l’Union européenne semblaient bénéficier de l’approbation de certains membres de l’administration Biden. La vice-présidente exécutive de la Commission européenne, Margrethe Vestager, a été photographiée souriant aux côtés des fonctionnaires du ministère de la Justice, après une visite aux États-Unis pour discuter de ses efforts antitrust.

 

Un scepticisme partagé à l’égard de la technologie

Lors du voyage transatlantique de Margrethe Vestager, il s’est révélé évident que l’Union européenne et les États-Unis adoptaient une approche similaire pour attaquer la technologie publicitaire de Google par crainte d’un monopole. Travaillaient-ils ensemble ? « La Commission [européenne] peut se sentir enhardie par le fait que le ministère de la Justice [américain] poursuive pratiquement la même action en justice », a observé Dirk Auer, directeur de la politique de concurrence au Centre international de droit et d’économie.

Lina Khan, la présidente de la Federal Trade Commission des États-Unis, connue pour avoir déjà poursuivi des entreprises technologiques en justice pour des raisons fallacieuses, a également indiqué qu’elle partageait le point de vue de l’Union européenne selon lequel la politique antitrust doit être agressive, en particulier dans l’industrie technologique.

Elle a récemment déclaré lors d’un événement universitaire :

« L’une des grandes promesses de l’antitrust est que nous avons ces lois séculaires qui sont censées suivre le rythme de l’évolution du marché, des nouvelles technologies et des nouvelles pratiques commerciales […] Afin d’être fidèles à cette [promesse], nous devons nous assurer que cette doctrine est mise à jour. »

 

Les électeurs européens sanctionneront-ils la stratégie de Bruxelles sur l’IA en juin prochain ?

La volonté de Bruxelles d’augmenter de manière exponentielle le fardeau réglementaire pour les investisseurs et les entrepreneurs technologiques en Europe profitera au Royaume-Uni en y orientant l’innovation.

Malgré son immense bureaucratie, l’Union européenne manque de freins et de contrepoids à son pouvoir de régulation. Des membres clés de son exécutif – comme les dirigeants de la Commission européenne, telle qu’Ursula von der Leyen – ne sont pas élus. Ils se sentent toutefois habilités à lancer des croisades réglementaires contre les industries de leur choix, souvent technologiques. Peut-être, cependant, seront-ils surpris et changeront-ils d’attitude à la vue des résultats des élections européennes qui auront lieu en juin prochain.

Will the EU AI Act benefit the UK first ?

Par : Jason Reed

It has been four years since the UK formally left the European Union. Since Brexit, Britain has been through three prime ministers and countless government crises. Nonetheless, despite the chaos of Westminster, it is already becoming clear how differently regulators in the UK and EU view the technology industry. The UK is a mixed bag, with some encouraging signs emerging for fans of freedom and innovation. The EU, meanwhile, is pursuing a path of aggressive antitrust regulation on various fronts.

 

AI ‘Bletchley Declaration’

Nowhere is this trend clearer than in artificial intelligence, perhaps the most inviting area of innovation in tech for a regulator to get their teeth into. Rishi Sunak, Britain’s prime minister, is tech-savvy and would not look out of place in Silicon Valley. He is even found holidaying regularly in California. This worldview filters through into the British government’s approach to AI.

Sunak hosted the world’s first AI Safety Summit in November 2023. Representatives from all over the world – including from the US, EU, and France – signed a document he created called the “Bletchley Declaration” on behalf of their governments.

In describing the Bletchley Declaration, the British government strikes a tone of moderation. “We recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI,” says the official statement.

In other words, Britain has no intention of allowing AI to run wild in an unregulated marketplace, but it also does not see innovation as a threat. It recognises that failing to harness the opportunities of AI would mean letting down current and future generations who might benefit from it. The Bletchley Declaration represents a thoughtful approach to regulating AI which promises to monitor innovations closely for signs of threats to safety but avoids placing government at the centre of the narrative and being prescriptive about what AI should or should not do.

 

Rishi Sunak, Elon Musk, and Britain’s Future

The British position, therefore, strikes a very different tone to activist regulators elsewhere in the world who appear to view any and all new technological breakthroughs as an opportunity to flex their muscles. In the EU, for example, or in Biden’s USA, regulators leap at the opportunity to boast about “holding tech companies to account”, which generally means making economic growth and innovation more difficult.

Britain is on a different path which could, if it stays true to its current direction, mark it out as a future hub of technological and economic activity. Sunak even took the opportunity during the summit to interview Elon Musk. “We are seeing the most disruptive force in history here,” said Musk to Sunak in their discussion about AI. “ »There will come a point where no job is needed – you can have a job if you want one for personal satisfaction, but AI will do everything.”

From SpaceX to Tesla to Twitter, Musk has become a harbinger of the power of technological innovation and the free market. Although he is often controversial, embracing him in this way by having a smiling prime minister speak to him on stage was surely intended to send a signal to the world that Britain is ready to do business with the tech industry.

 

Brussels does things differently

This moderate British approach to AI stands in contrast with the EU’s strategy. Brussels boasts enthusiastically that its AI Act is the world’s first comprehensive regulation on artificial intelligence, focussed on ‘protecting’ citizens from AI and forming part of the EU’s broader interventionist strategy on antitrust. The contrast is clear: Britain is willing to work with tech companies, whereas the EU believes it must suppress them.

While Britain, outside the EU, was able to calmly get world leaders in a room together to agree on sensible common principles for regulating AI, the European bloc was instead determined to ‘win the race’ and become the first regulator to break ground on passing an AI law.

 

The results of EU overregulation

Post-Brexit Britain is far from perfect, but these two contrasting approaches to dealing with AI show how quickly things can go wrong when an institution like the EU gets into its head that it has a duty to regulate more and more with each passing year. There are encouraging signs elsewhere, too. The British government ministers behind the ‘online safety bill’ finally dropped their unworkable promise to ‘spy’ on all end-to-end encryption.

The results of the EU’s overregulation are already becoming clear. OpenAI, the company behind ChatGPT which is backed by Microsoft, chose London as the location for its first international base. Meanwhile, Google, another tech giant which is also a market leader in the AI pioneering race via its DeepMind subsidiary, announced plans to build a new $1bn data centre in the UK. Would these investments have gone to the EU instead if Brussels had not sent the message to tech companies that Europe would be a harsh regulatory environment for them?

 

Cozying up to Washington?

Despite claiming to want to empower a generation of tech entrepreneurs, European bureaucrats seem determined to regulate everything in sight. No antitrust measure is off limits. As well as their insistence on the need to ‘protect’ Europeans from technological innovation, they also seem to enjoy winning attention from across the Atlantic Ocean with their regulatory endeavours.

The EU’s mammoth Digital Markets Act and Digital Services Act seemed to enjoy approval from some appointees of President Biden. European Commission executive vice president Margrethe Vestager was photographed smiling with officials in the department of justice after travelling to the US to discuss her antitrust efforts.

 

A shared scepticism of tech

Around the time of Vestager’s trans-Atlantic trip, it became apparent that the EU and the US were taking a similar approach to attacking Google’s advertising technology out of fears of a monopoly. Were they working together? “The [European] commission may feel emboldened by the fact that the [US] DOJ is pursuing virtually the same lawsuit”, observed Dirk Auer, director of competition policy at the International Center for Law and Economics.

Lina Khan, the activist chairwoman of the US Federal Trade Commission who fills her days by taking tech companies to court for spurious reasons, has also made clear that she shares the EU’s view that antitrust must be active and aggressive in its battles against the tech industry. “One of the great promises of antitrust is that we have these age-old statutes that are supposed to keep pace with market developments, new technologies and new business practices,” she said at a university event recently. “In order to be faithful to that [promise], we need to make sure that doctrine is updated.”

 

What happens next?

Whether the EU’s true motivations are genuine or political, the fact remains that Brussels’ apparent willingness to exponentially increase the regulatory burden for tech investors and entrepreneurs in Europe will only hurt Europeans, and perhaps indirectly benefit the UK by directing innovation there instead.

Despite its immense bureaucracy, the EU lacks checks and balances on its regulatory power. Key members of its executive – such as the leaders of the European Commission, like Ursula von der Leyen – are unelected. They feel empowered to launch regulatory crusades against industries of their choosing, often technological. Perhaps, though, they will be shocked into changing their ways after the results of the European parliamentary elections in a few months’ time.

Quand la fiscalité prend l’eau : focus sur la « taxe inondation »

Depuis plusieurs mois, de nombreux départements subissent des inondations particulièrement destructrices. Mais nos impôts sont censés protéger leurs habitants.

En effet, depuis 2014 existe une nouvelle taxe pour la gestion des milieux aquatiques et la prévention des inondations, aussi intitulée GEMAPI ou « taxe inondation ».

La particularité de cette taxe facultative est de relever de la compétence exclusive des établissements publics de coopération intercommunale (EPCI) qui ne votent pas un taux mais un produit final attendu réparti entre les contribuables des taxes foncières sur les propriétés bâties et non bâties, de la taxe d’habitation sur les résidences secondaires et de la contribution foncière des entreprises. Le taux de la taxe est ensuite déterminé en divisant le produit attendu par les bases nettes des quatre taxes. Ce qui revient à augmenter les impôts locaux d’une taxe additionnelle prélevée en même temps qu’eux et destinée à gérer les milieux aquatiques et prévenir les inondations.

La taxe connaît un succès tellement foudroyant qu’aujourd’hui plus de la moitié des communes et plus de la moitié de la population sont soumis à cette taxe. En 2017, elle rapportait 25 millions d’euros. En 2022, ce sont 380 millions d’euros de recettes fiscales qui sont entrées dans les caisses des collectivités locales pour, entre autres, prévenir les inondations. Pourquoi cette augmentation ? De plus en plus d’intercommunalités ont recours à cette taxe qui permet d’augmenter les impôts locaux tout en annonçant ne pas augmenter la taxe foncière, mais aussi parce qu’une fois en place, les taux, faibles au début, grimpent progressivement. Insensiblement, l’augmentation est parfois exponentielle. Quand le taux des Hauts-de-Seine passe de 0,01 % à 0,07 %, cela peut paraître dérisoire mais représente une multiplication par 7 de la taxe. Des collectivités sont d’ailleurs inquiètes car le montant de la taxe est plafonné à 40 euros par habitant et… certaines approchent ce seuil. Preuve que le montant est de moins en moins insignifiant.

Au cumul, c’est aujourd’hui plus d’un milliard d’euros que les propriétaires et entreprises ont dû débourser depuis la création de la taxe. Les crues récentes conduisent pourtant à s’interroger sur son efficacité. Au vu du nombre de déclarations de sinistres, on peut légitimement se demander où est passé l’argent. Certains répondront qu’avec le dérèglement climatique, le résultat aurait été encore pire sans la taxe. Pourtant, la détresse des habitants et des services de secours suffit à en douter.

Dans le cas des départements du Nord et du Pas-de-Calais, durement touchés par les inondations, on peut d’autant plus s’inquiéter du poids de la fiscalité anti-inondation, que la taxe GEMAPI est en fait venue s’ajouter à une ancestrale taxe sur les wateringues. Ces dernières sont des canaux artificiels destinés à drainer l’eau excédentaire vers la mer, et éviter ainsi les inondations consécutives au fait que certains territoires côtiers du nord de la France se situent au-dessous du niveau de la mer. L’entretien de ces canaux est assumé par l’Institution Intercommunale des Wateringues et financé par une taxe acquittée notamment par les propriétaires de terres agricoles encadrées par les wateringues et qui rapporte environ 5 millions d’euros par an.

La taxe ayant été maintenue malgré l’apparition de la taxe GEMAPI, celle-ci semble maintenant faire double emploi. À la rigueur, un financement supplémentaire aurait pu se justifier s’il avait conduit à une efficacité accrue du dispositif. Or, la Chambre Régionale des comptes des Hauts-de-France a publié quelques semaines avant les premières crues automnales un rapport alertant sur le « difficile exercice de la coordination des compétences GEMAPI » né, entre autres, d’un partage des tâches qui semble parfois incompris entre le syndicat des wateringues et les autres intercommunalités.

Les dernières crues du Pas-de-Calais semblent montrer qu’avant de créer de nouvelles taxes, il serait utile de savoir comment les dépenser utilement.

« Nous devons mettre en place une diplomatie de guerre » grand entretien avec Nicolas Tenzer

Nicolas Tenzer est enseignant à Sciences Po Paris, non resident senior fellow au Center for European Policy Analysis (CEPA) et blogueur de politique internationale sur Tenzer Strategics. Son dernier livre Notre guerre. Le crime et l’oubli : pour une pensée stratégique, vient de sortir aux Éditions de l’Observatoire. Ce grand entretien a été publié pour la première fois dans nos colonnes le 29 janvier dernier. Nous le republions pour donner une lumière nouvelles aux déclarations du président Macron, lequel n’a « pas exclu » l’envoi de troupes occidentales en Ukraine, à l’occasion d’une conférence internationale, lundi 26 février dernier.

 

Hypothèse d’une victoire russe : à quelles répercussions s’attendre ?

Loup Viallet, rédacteur en chef de Contrepoints – Dans Notre Guerre, vous écrivez : « Les aiguilles de l’horloge tournent sans relâche, associant toujours plus de morts à leur fuite en avant. Mais il arrive aussi un moment où le temps presse. L’Ukraine pourrait mourir. Ce sera de notre faute, et alors le glas de la mort sonnera pour nous. » Quelles seraient les conséquences d’une défaite de l’Ukraine ?

Nicolas Tenzer Elles seraient catastrophiques sur tous les plans et marqueraient un tournant à certains égards analogue mutatis mutandis à ce qu’aurait été une victoire de l’Allemagne nazie en 1945. Outre que cela entraînerait des centaines de milliers de victimes ukrainiennes supplémentaires, elle signifierait que les démocraties n’ont pas eu la volonté – je ne parle pas de capacité, car elle est réelle – de rétablir le droit international et de faire cesser un massacre d’une ampleur inédite en Europe, nettement supérieure à celui auquel nous avons assisté lors de la guerre en ex-Yougoslavie, depuis la Seconde Guerre mondiale.

La crédibilité de l’OTAN et des garanties de sécurité offertes par les États-Unis et l’Union européenne en serait à jamais atteinte, non seulement en Europe, mais aussi en Asie et au Moyen-Orient. Toutes les puissances révisionnistes s’en réjouiraient, en premier lieu la République populaire de Chine. La Russie poursuivrait son agression au sein du territoire des pays de l’OTAN et renforcerait son emprise sur la Géorgie, le Bélarus, la Syrie, certains pays d’Afrique ou même d’Asie, comme en Birmanie, et en Amérique du Sud (Venezuela, Cuba, Nicaragua).

Cela signifierait la mort définitive des organisations internationales, en particulier l’ONU et l’OSCE, et l’Union européenne, déjà minée par des chevaux de Troie russes, notamment la Hongrie et la Slovaquie, pourrait connaître un délitement. Le droit international serait perçu comme un torchon de papier et c’est l’ordre international, certes fort imparfait, mis en place après Nuremberg, la Charte des Nations unies et la Déclaration de Paris de 1990, qui se trouverait atteint. En Europe même, la menace s’accentuerait, portée notamment par les partis d’extrême droite. Nos principes de liberté, d’État de droit et de dignité, feraient l’objet d’un assaut encore plus favorisé par la propagande russe. Notre monde tout entier serait plongé dans un état accru d’insécurité et de chaos. Cela correspond parfaitement aux objectifs de l’idéologie portée par le régime russe que je décris dans Notre Guerre, qu’on ne peut réduire uniquement à un néo-impérialisme, mais qui relève d’une intention de destruction. C’est la catégorie même du futur qui serait anéantie.

C’est pourquoi il convient de définir clairement nos buts de guerre : faire que l’Ukraine gagne totalement et que la Russie soit radicalement défaite, d’abord en Ukraine, car telle est l’urgence, mais aussi en Géorgie, au Bélarus et ailleurs. Un monde où la Russie serait défaite serait un monde plus sûr, mais aussi moins sombre, et plus lumineux pour les peuples, quand bien même tous les problèmes ne seraient pas réglés. Les pays du sud ont aussi à y gagner, sur le plan de la sécurité énergétique et alimentaire, mais aussi de la lutte anti-corruption et des règles de bon gouvernement – songeons à l’Afrique notamment.

 

Peut-on négocier avec Poutine ?

Pourquoi pensez-vous qu’il n’est pas concevable de négocier avec la Russie de Poutine ? Que répondez-vous à l’ancien ambassadeur Gérard Araud qui plaide pour cette stratégie ? C’est aussi le point de vue de la géopolitologue Caroline Galacteros, qui écrit : « Arrêtons le massacre, celui sanglant des Ukrainiens et celui économique et énergétique des Européens . Négociations !! pendant qu’il y a encore de quoi négocier… ». Comment comprenez-vous cette position ? 

Je ne confondrai pas les positions de madame Galacteros, dont l’indulgence envers la Russie est bien connue, et celle de Gérard Araud qui n’est certainement pas pro-Kremlin. Ses positions me paraissent plutôt relever d’une forme de diplomatie classique, je n’oserais dire archaïques, dont je montre de manière détaillée dans Notre Guerre les impensés et les limites. Celles-ci m’importent plus que les premières qui sont quand même très sommaires et caricaturales. Je suis frappé par le fait que ceux, hors relais de Moscou, qui parlent de négociations avec la Russie ne précisent jamais ce sur quoi elles devraient porter ni leurs conséquences à court, moyen et long termes.

Estiment-ils que l’Ukraine devrait céder une partie de son territoire à la Russie ? Cela signifierait donner une prime à l’agresseur et entériner la première révision par la force des frontières au sein de l’Europe, hors Seconde Guerre mondiale, depuis l’annexion et l’invasion des Sudètes par Hitler. Ce serait déclarer à la face du monde que le droit international n’existe pas. De plus, laisser la moindre parcelle du territoire ukrainien aux mains des Russes équivaudrait à détourner le regard sur les tortures, exécutions, disparitions forcées et déportations qui sont une pratique constante, depuis 2014 en réalité, de la Russie dans les zones qu’elle contrôle. Je ne vois pas comment la « communauté internationale » pourrait avaliser un tel permis de torturer et de tuer.

Enfin, cela contreviendrait aux déclarations de tous les dirigeants politiques démocratiques depuis le début qui ne cessent de proclamer leur attachement à l’intégrité territoriale et à la souveraineté de l’Ukraine. Se déjuger ainsi serait renoncer à toute crédibilité et à toute dignité. Je trouve aussi le discours, explicitement ou implicitement pro-Kremlin, qui consiste à affirmer qu’il faut arrêter la guerre pour sauver les Ukrainiens, pour le moins infamant, sinon abject, quand on sait que, après un accord de paix, ceux-ci continueraient, voire s’amplifieraient encore.

Suggèrent-ils qu’il faudrait renoncer à poursuivre les dirigeants russes et les exécutants pour les quatre catégories de crimes imprescriptibles commis en Ukraine, crimes de guerre, crimes contre l’humanité, crime de génocide et crime d’agression ? Il faut leur rappeler que le droit international ne peut faire l’objet de médiation, de transaction et de négociation. Il s’applique erga omnes. Le droit international me semble suffisamment affaibli et mis à mal pour qu’on n’en rajoute pas. Cela fait longtemps que je désigne Poutine et ses complices comme des criminels de guerre et contre l’humanité et je me réjouis que, le 17 mars 2023, la Cour pénale internationale l’ait inculpé pour crimes de guerre. Il est légalement un fugitif recherché par 124 polices du monde. On peut gloser sur les chances qu’il soit un jour jugé, mais je rappellerai que ce fut le cas pour Milosevic. En tout état de cause, l’inculpation de la Cour s’impose à nous.

Veulent-ils signifier qu’on pourrait fermer les yeux sur la déportation de dizaines de milliers d’enfants ukrainiens en Russie, ce qui constitue un génocide, en vertu de la Convention du 9 décembre 1948 sur la prévention et la répression du crime de génocide ? On ose à peine imaginer qu’ils aient cette pensée. Là aussi, il est dans notre intérêt à donner des signaux cohérents et forts.

Entendent-ils enfin qu’il serait acceptable que la Russie soit dispensée de payer les réparations indispensables pour les dommages de guerre subis par l’Ukraine, qui sont aujourd’hui estimer à environ deux trillions d’euros ? Veulent-ils que cette charge incombe aux assujettis fiscaux des pays de l’Alliance ? Tout ceci n’a aucun sens, ni stratégique, ni politique.

Sur ces quatre dimensions, nous devons être fermes, non seulement aujourd’hui, mais dans la durée. Dans mon long chapitre sur notre stratégie à long terme envers la Russie, j’explique pourquoi nous devons maintenir les sanctions tant que tout ceci n’aura pas été fait. C’est aussi la meilleure chance pour qu’un jour, sans doute dans quelques décennies, la Russie puisse évoluer vers un régime démocratique, en tout cas non dangereux.

En somme, ceux qui souhaitent négocier avec la Russie tiennent une position abstraite qui n’a rien de réaliste et de stratégiquement conséquent en termes de sécurité. Si la Russie n’est pas défaite totalement, elle profitera d’un prétendu accord de paix pour se réarmer et continuer ses agressions en Europe et ailleurs. C’est la raison pour laquelle je consacre des développements approfondis dans la première partie de Notre Guerre à réexaminer à fond certains concepts qui obscurcissent la pensée stratégique que je tente de remettre d’aplomb. Je reviens notamment sur le concept de réalisme qui doit être articulé aux menaces, et non devenir l’autre nom de l’acceptation du fait accompli. Je m’y inspire de Raymond Aron qui, à juste titre, vitupérait les « pseudo-réalistes ».

Je porte aussi un regard critique sur la notion d’intérêt, et notamment d’intérêt national, tel qu’il est souvent entendu. Lié à la sécurité, il doit intégrer principes et valeurs. Je montre également que beaucoup d’analystes de politique étrangère ont, à tort, considéré États et nations dans une sorte de permanence plutôt que de se pencher sur les spécificités de chaque régime – là aussi, la relecture d’Aron est précieuse. Enfin, je démontre que traiter de politique étrangère sérieusement suppose d’y intégrer le droit international et les droits de l’Homme, alors qu’ils sont trop souvent sortis de l’analyse de sécurité. Pourtant, leur violation est le plus généralement indicatrice d’une menace à venir.

 

Sanctions : comment les rendre efficaces ?

Les sanctions économiques n’ont pas mis fin à la guerre de la Russie en Ukraine. Il semble que la Russie ait mis en place une stratégie de contournement plutôt efficace : depuis 2022, les importations (notamment depuis l’Allemagne) de pays proches géographiquement de la Russie (Azerbaïdjan, Géorgie, Kazakhstan, Kirghizistan, Turquie) ont explosé, et leurs exportations en Russie aussi… Sans parler de l’accélération des échanges entre la Russie et la Chine. Que faudrait-il vraiment faire pour isoler économiquement la Russie ?

C’est un point déterminant. Même si les différents paquets de sanctions décidés tant par l’Union européenne que par les États-Unis et quelques autres pays comme le Japon et la Corée du Sud, sont les plus forts jamais mis en place, ils restent encore incomplets, ce qui ne signifie pas qu’ils soient sans effets réels – ne les minimisons pas. Je reprends volontiers la proposition émise par la Première ministre estonienne, Kaja Kallas, qui proposait un embargo total sur le commerce avec la Russie. Je constate aussi que certains pays de l’UE continuent d’importer du gaz naturel liquéfié russe (LNG) et qu’une banque autrichienne comme Raiffaisen a réalisé l’année dernière la moitié de ses profits en Russie. Certaines entreprises européennes et américaines, y compris d’ailleurs françaises, restent encore présentes en Russie, ce qui me paraît inacceptable et, par ailleurs, stupide dans leur intérêt même.

Ensuite, nous sommes beaucoup trop faibles en Europe sur les sanctions extraterritoriales. Il existe une réticence permanente de certains États à s’y engager, sans doute parce que les États-Unis les appliquent depuis longtemps, parfois au détriment des entreprises européennes. C’est aujourd’hui pourtant le seul moyen pour éviter les contournements. Nous devons mettre en place ce que j’appelle dans Notre Guerre une diplomatie de guerre : sachons dénoncer et agir contre les pratiques d’États prétendument amis, au Moyen-Orient comme en Asie, qui continuent de fournir la machine de guerre russe.

Enfin, nous devons décider rapidement de saisir les avoirs gelés de la Banque centrale russe (300 milliards d’euros) pour les transférer à l’Ukraine, d’abord pour renforcer ses capacités d’achats d’armements, ensuite pour la reconstruction. Les arguties juridiques et financières pour refuser de s’y employer ne tiennent pas la route devant cette urgence politique et stratégique.

 

La nécessité d’une intervention directe

Les alliés de l’Ukraine soutiennent l’effort de guerre de l’Ukraine en aidant financièrement son gouvernement et en lui livrant des armes. Qu’est-ce qui les empêche d’intervenir directement dans le conflit ?

La réponse est rien.

Dès le 24 février 2022 j’avais insisté pour que nous intervenions directement en suggérant qu’on cible les troupes russes entrées illégalement en Ukraine et sans troupes au sol. J’avais même, à vrai dire, plaidé pour une telle intervention dès 2014, date du début de l’agression russe contre le Donbass et la Crimée ukrainiens. C’eût été et cela demeure parfaitement légal en vertu de l’article 51 de la Charte des Nations unies qui dispose que non seulement un État agressé peut répliquer en frappant les infrastructures militaires et logistiques sur le territoire de l’ennemi, mais que tout autre État se portant à son secours peut également légalement le faire. Cela aurait mis fin rapidement à la guerre et aussi épargné la mort de plus d’une centaine de milliers d’Ukrainiens, civils et militaires. Cela aurait renforcé notre sécurité et la crédibilité de notre dissuasion.

Si nous, Alliés, ne l’avons pas fait et si nous sommes encore réticents, c’est parce que nous continuons de prendre au sérieux les récits du Kremlin qui visent à nous auto-dissuader. Je consacre toute une partie de Notre Guerre à explorer comment s’est construit le discours sur la menace nucléaire russe, bien avant le 24 février 2022.

Certes, nous devons la considérer avec attention et sans légèreté, mais nous devons aussi mesurer son caractère largement fantasmé. Poutine sait d’ailleurs très bien que l’utilisation de l’arme nucléaire aurait pour conséquence immédiate sa propre disparition personnelle qui lui importe infiniment plus que celle de son propre peuple qu’il est prêt à sacrifier comme il l’a suffisamment montré. On s’aperçoit d’ailleurs que même l’administration Biden qui, au début de cette nouvelle guerre, avait tendance à l’amplifier, ce qui faisait involontairement le jeu de la propagande russe, a aujourd’hui des propos beaucoup plus rassurants. Mais cette peur demeure : je me souviens encore avoir entendu, le 12 juillet 2023, alors que j’étais à Vilnius pour le sommet de l’OTAN, Jake Sullivan, conseiller national pour la sécurité du président américain, évoquer le spectre d’une guerre entre l’OTAN et la Russie. Ce n’est pas parce que les Alliés seraient intervenus, ou interviendraient aujourd’hui, que cette guerre serait déclenchée. Je crois au contraire que la Russie serait obligée de plier.

Là aussi, il convient de remettre en question le discours de la propagande russe selon lequel une puissance nucléaire n’a jamais perdu la guerre : ce fut le cas des États-Unis au Vietnam et, de manière plus consentie, en Afghanistan, et bien sûr celui de l’ancienne URSS dans ce dernier pays. Songeons aussi au signal que, en refusant d’intervenir, nous donnerions à la Chine : cela signifierait-il que, parce qu’elle est une puissance nucléaire, elle pourrait mettre la main sur Taïwan sans que nous réagissions ? Il faut songer au signal que nous envoyons.

Enfin, et j’examine cela dans mon livre de manière plus détaillée, se trouve posée directement la question de la dissuasion au sein de l’OTAN. Celle-ci repose fondamentalement, du moins en Europe, sur la dissuasion nucléaire et la perspective de l’activation de l’article 5 du Traité de Washington sur la défense collective. Elle concerne aussi, par définition, les pays de l’Alliance, ce qui d’ailleurs montre la faute majeure qui a été celle de la France et de l’Allemagne en avril 2008 de refuser un plan d’adhésion de l’Ukraine et de la Géorgie à l’OTAN lors du sommet de Bucarest. Emmanuel Macron l’a implicitement reconnu lors de son discours du 31 mai 2023 lors de son discours au Globsec à Bratislava.

Une double question se pose donc. La première est celle de notre dissuasion conventionnelle, qui a été en partie le point aveugle de l’OTAN. Je propose ainsi qu’on s’oriente vers une défense territoriale de l’Europe. La seconde est liée au cas de figure actuel : que faisons-nous lorsqu’un pays non encore membre de l’Alliance, en l’occurrence l’Ukraine, est attaqué dès lors que cette agression comporte un risque direct sur les pays qui en sont membres ?

 

Hypothèse d’un retour de Donald Trump

Donald Trump est bien parti pour remporter l’investiture des Républicains en juin prochain. Quelles seraient les conséquences d’une potentielle réélection de l’ancien président américain sur la guerre en Ukraine ? 

À en juger par les déclarations de Donald Trump, elles seraient funestes. On ne peut savoir s’il déciderait de quitter l’OTAN qu’il avait considérée comme « obsolète », mais il est fort probable qu’il diminuerait de manière drastique les financements américains à l’OTAN et l’effort de guerre en faveur de l’Ukraine. Les Européens se trouveraient devant un vide vertigineux. S’il fallait compenser l’abandon américain, y compris sur le volet nucléaire – au-delà des multiples débats doctrinaux sur le rôle des dissuasions nucléaires française et britannique –, les pays de l’UE devraient porter leurs dépenses militaires à 6 ou 7 % du PIB, ce qui pourrait difficilement être accepté par les opinions publiques par-delà les questions sur la faisabilité. Ensuite, cela ne pourrait pas se réaliser en quelques mois, ni même en quelques années sur un plan industriel en termes d’armements conventionnels.

En somme, nous devons poursuivre nos efforts au sein de l’UE pour transformer de manière effective nos économies en économies de guerre et porter à une autre échelle nos coopérations industrielles en matière d’armement au sein de l’Europe. Mais dans l’immédiat, les perspectives sont sombres. Cela sonnera l’heure de vérité sur la volonté des dirigeants européens de prendre les décisions radicales qui s’imposent. J’espère que nous ferons en tout cas tout dans les mois qui viennent pour apporter une aide déterminante à l’Ukraine – nous avons encore de la marge pour aller plus vite et plus fort.

Les États-Unis et l’Europe restent encore à mi-chemin et n’ont pas livré à l’Ukraine toutes les armes, en quantité et en catégorie, qu’ils pouvaient lui transférer, notamment des avions de chasse et un nombre très insuffisant de missiles à longue portée permettant de frapper  le dispositif ennemi dans sa profondeur. Quant au président Biden, il devrait comprendre qu’il lui faut aussi, dans le temps qui lui reste avant les élections de novembre, donner à Kyiv toutes les armes possibles. Il serait quand bien mieux placé dans la course à sa réélection s’il apparaissait aux yeux de se concitoyens comme le « père la victoire ».

 

« La puissance va à la puissance »

La guerre d’agression de la Russie en Ukraine n’est pas un événement isolé. Il semble que l’impérialisme russe cherche à prendre notre continent en étau en déstabilisant nos frontières extérieures. À l’Est, via des actions d’ingérence militaire, de déstabilisation informationnelle, de corruption et d’intimidation qui ont commencé dès son arrivée au pouvoir dans les années 2000, et bien entendu à travers la guerre conventionnelle lancée contre l’Ukraine. Au Sud, la stratégie d’influence russe se développe depuis une décennie. Si elle est moins visible, elle n’en est pas moins nuisible. Ces dix dernières années, Moscou a approfondi sa coopération militaire avec le régime algérien et s’est ingéré dans le conflit libyen à travers des sociétés militaires privées comme Wagner. On a vu le seul porte-avions russe mouiller dans le port de Tobrouk en 2017, mais aussi des navires de guerre russes faire des exercices communs avec des bâtiments algériens sur les côtes algériennes en août 2018, en novembre 2019, en août et en novembre 2021, en octobre et en juillet 2022 et en août 2023. Au sud du Sahara, le régime de Poutine sert d’assurance-vie à la junte installée au Mali depuis 2020 et soutien l’Alliance des États du Sahel (composée des régimes putschistes du Mali, du Burkina Faso et du Niger). Quelle diplomatie adopter pour conjurer la menace russe, à l’Est comme au Sud ?

Votre question comporte deux dimensions qui sont à la fois sensiblement différentes et liées. La première est celle de la guerre de l’information et de ses manipulations. Celle-ci se déploie sur quasiment tous les continents, en Europe occidentale autant que centrale et orientale, dans les Amériques, du Nord et du Sud, au Moyen-Orient, en Afrique et dans certains pays d’Asie. Pendant deux décennies, nous ne l’avons pas prise au sérieux, ni chez nous ni dans certains pays où elle visait aussi à saper nos positions.

Malgré certains progrès, nous ne sommes pas à la hauteur, y compris en France, comme je l’avais expliqué lors de mon audition devant la Commission de l’Assemblée nationale sur les ingérences extérieures l’année dernière, et comme je le développe à nouveau dans Notre Guerre. Nous n’avons pas, dans de nombreux pays, une attitude suffisamment ferme à l’encontre des relais nationaux de cette propagande et n’avons pas mise à jour notre système législatif. En Afrique, la France n’a pas pendant longtemps mesuré, malgré une série d’études documentées sur le sujet, ni riposté avec la force nécessaire aux actions de déstabilisation en amont. Moscou a consacré des moyens considérables, et même disproportionnés eu égard à l’état de son économie, à ces actions et ses responsables russes n’ont d’ailleurs jamais caché que c’était des armes de guerre. Nous avons détourné le regard et ne nous sommes pas réarmés en proportion.

La seconde dimension est celle de l’attitude favorable de plusieurs pays envers Moscou, avec une série de gradations, depuis une forme de coopération étendue, comme dans le cas de l’Algérie, du Nicaragua, de l’Iran, du Venezuela, de Cuba, de l’Érythrée et de la Corée du Nord – sans même parler de groupes terroristes comme le Hamas –, une action commune dans le crime de masse – Syrie –, une complicité bienveillante – Égypte, Émirats arabes unis, Inde, Afrique du Sud, mais aussi Israël avec Netanyahou – et parfois active – République populaire de Chine – ou une soumission plus ou moins totale – Bélarus et certains des pays africains que vous mentionnez. Sans pouvoir entrer ici dans le détail, l’attitude des démocraties, qui doit aussi être mieux coordonnée et conjointe, ne peut être identique. Dans des cas comme celui de la Syrie, où nous avons péché par notre absence d’intervention, notre action doit être certainement militaire. Envers d’autres, nous devons envisager un système de sanctions renforcées comme je l’évoquais. Dans plusieurs cas, notamment en direction des pays ayant envers Moscou une attitude de neutralité bienveillante et souvent active, un front uni des démocraties doit pouvoir agir sur le registre de la carotte et du bâton. Nous payons, et cela vaut pour les États-Unis comme pour les grands pays européens, dont la France, une attitude négligente et une absence de définition de notre politique. Rappelons-nous, par exemple, notre absence de pression en amont envers les pays du Golfe lorsqu’ils préparaient le rétablissement des relations diplomatiques avec Damas, puis sa réintégration dans la Ligue arabe. Nous n’avons pas plus dissuadé l’Égypte de rétablir des relations fortes avec Moscou et cela n’a eu aucun impact sur nos relations avec Le Caire. Avec l’Inde, nous fermons largement les yeux sur la manière dont Delhi continue, par ses achats de pétrole à la Russie, à alimenter l’effort de guerre. Quant aux pays africains désormais sous l’emprise de Moscou, le moins qu’on puisse dire est que nous n’avons rien fait pour prévenir cette évolution en amont.

Nous sommes donc devant deux choix politiques nécessaires. Le premier, dont je développe les tenants et aboutissants dans Notre Guerre, est celui de la défaite radicale de la Russie en Ukraine, et celle-ci devra suivre au Bélarus, en Géorgie et en Syrie notamment. Je suis convaincu que si nous agissons en ce sens, des pays faussement neutres ou sur un point de bascule, dont plusieurs que j’ai mentionnés ici, verraient aussi les démocraties d’un autre œil. Elles auraient moins intérêt à se tourner vers une Russie affaiblie. Ce sont les effets par ricochet vertueux de cette action que nous devons mesurer, notamment dans plusieurs pays d’Afrique, d’Asie et du Moyen-Orient. C’est notre politique d’abstention et de faiblesse qui les a finalement conduits à se tourner vers la Russie. Si nous changeons, ces pays évolueront aussi. La puissance va à la puissance.

Le second choix, que je développe dans Notre Guerre, consistera à repenser de manière assez radicale nos relations avec les pays du Sud – un sud, d’ailleurs, que je ne crois pas « global », mais profondément différent, et avec lequel nous ne saurions penser nos relations sans différenciation. Ce sont les questions d’investissement, de sécurité énergétique et alimentaire, et de lutte contre la corruption qu’il faudra repenser. La guerre russe contre l’Ukraine est un avertissement et le pire serait, une fois que l’Ukraine aurait gagné et nous par la même occasion, de repartir avec les autres pays dans une sorte de business as usual sans aucun changement.

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Et si la démographie avait le dernier mot ?

L’INSEE vient de publier un bilan démographique pour l’année 2023 qui met en évidence un affaissement de la natalité française. Selon des sources concordantes, celle-ci n’est plus guère soutenue que par la fécondité des femmes immigrées. Ce qui laisse entrevoir à terme une diminution de l’effectif global de la population, et une nouvelle configuration de sa composition ethnique et culturelle.

Faut-il s’en inquiéter ? Pour la plupart de nos concitoyens, cette question n’a pas de conséquence directe et immédiate, encore moins pour les responsables politiques dont les échéances se situent à quelques mois ou quelques années d’ici. Les phénomènes démographiques ont une grande inertie et leurs effets ne sont perçus qu’avec beaucoup de retard. Tout au plus entendons-nous s’exprimer ceux qui craignent une possible pénurie de main-d’œuvre et/ou un vieillissement de la population, déséquilibrant un peu plus nos régimes de retraite. Ceux-là vont plaider pour un recours accru à l’immigration.

C’est oublier un peu vite deux choses :

  1. Une baisse de la population active aurait pour effet de renforcer le pouvoir de négociation des salariés, un rééquilibrage bienvenu du rapport de force entre le travail et le capital.
  2. Une population en équilibre stationnaire, c’est-à-dire dont l’effectif progresse faiblement, les naissances compensant à peu près les décès, ne peut se maintenir éternellement jeune.

 

Conséquences économiques, sociales et politiques du vieillissement d’une population française de plus en plus multiculturelle

La pyramide des âges finit par ressembler, non à une pyramide à large base, mais vaguement à un cylindre à la pointe effilée. La disparition des seniors s’accélère subitement au-delà de 65 ans. Pour pallier le déséquilibre toujours renaissant de nos régimes de retraite, il faudrait une injection continue, année après année, de travailleurs immigrés. Il serait ô combien préférable d’opter pour des régimes par capitalisation qui vivraient des revenus tirés de placements réalisés à l’étranger, dans des pays restés encore jeunes.

Nous voudrions insister ici sur les conséquences, non pas économiques, mais politiques, des évolutions démographiques. Il n’est pas toujours de bon ton de les évoquer.

Le vieillissement de la population française, dont nous venons de voir qu’il est inévitable, entraîne quelques conséquences fâcheuses, qui nécessitent une adaptation de nos pratiques et de nos institutions. Le relèvement de l’âge du départ en retraite est une absolue nécessité, et cette mesure n’est supportable qu’accompagnée d’un effort sans précédent de formation permanente des salariés tout au long de leur vie professionnelle. Or, le poids électoral élevé des classes d’âge est un obstacle à ces réformes qui les font sortir de leur zone de confort. Des incitations financières puissantes, mieux qu’un âge-couperet, doivent encourager les seniors à participer à la force de travail, aussi longtemps que possible.

Mais il est d’autres aspects du problème dont le rappel est encore moins « politiquement correct ». Dans les sociétés multiculturelles, les écarts entre les taux de croissance démographique des différentes communautés ont des effets cumulatifs, qui prennent tôt ou tard une signification politique. Des États-nations, constitués plus ou moins artificiellement, au cours des deux siècles passés, par la réunion de groupes hétérogènes, différant par la religion, l’ethnie ou la culture, ont été pour cette raison le théâtre d’affrontements violents, qui se sont soldés quelquefois par l’éclatement de ces formations sociales. Généralement, les groupes dominés, initialement minoritaires, parviennent à submerger par le nombre leurs anciens maîtres ; à moins que ceux-ci, craignant d’être évincés, ne se lancent dans des politiques répressives. Les exemples abondent.

Au Liban, les musulmans, chiites notamment, en état d’infériorité économique, mais de plus en plus nombreux, ont pu rivaliser avec leurs compatriotes chrétiens. Entre 1932 et 2018, le nombre de ces derniers aurait triplé, tandis que celui des musulmans aurait été multiplié par neuf. Ce pays, régi par des institutions multiconfessionnelles, a vu son fonctionnement gravement entravé. La composition de la Chambre des députés était censée refléter le poids des différentes communautés du pays. Mais il s’est révélé très difficile de suivre leur évolution. Aucune élection n’a été organisée depuis 2009. Pas davantage de recensement. Le dernier date du mandat français, en 1932. Ainsi, ces deux exercices citoyens n’ont plus cours au pays du Cèdre : la vérité n’est pas toujours bonne à voir.

Son voisin du sud, Israël, connaît depuis peu des déchirements similaires. La démographie joue un rôle central dans l’équation stratégique du pays. L’establishment veille à ce que la majorité juive reste substantielle, en l’alimentant au flux de l’immigration des Juifs de la diaspora (l’alyah). Mais une menace nouvelle s’est levée qui remet en cause les fondements de la société israélienne. Les Juifs orthodoxes font davantage d’enfants que les laïcs et les Juifs traditionnalistes. Les privilèges qui leur avaient été octroyés à la naissance de l’État, – ils étaient alors environ 150 000 -, sont devenus un poids difficilement supportable pour le budget, et sont vécus comme une injustice par leurs concitoyens. Ils sont maintenant environ 1 300 000, leur nombre a été multiplié par presque dix ! Ils sont dispensés du service militaire, ils reçoivent des aides pour continuer de fréquenter des lieux de prière sans travailler. Leur formation scolaire, notoirement insuffisante, les en empêche le plus souvent.

Plus loin dans le passé, on pourrait aussi citer les cas de l’Irlande. L’Eire s’est détachée de la couronne britannique, sous la pression politique, mais aussi démographique des catholiques irlandais, las de trouver leur salut dans l’émigration aux Amériques.

À cette courte liste, ajoutons, la Bosnie-Herzégovine, qui fut le berceau ancestral du peuple serbe, mais s’est retrouvée à l’éclatement de la Fédération yougoslave, majoritairement peuplée de musulmans. Le refus de cohabiter de la minorité serbe s’est soldé par trois années d’une guerre meurtrière.

Il n’est pas jusqu’à l’URSS dont la dislocation est en partie imputable à la progression très rapide des populations allogènes du Caucase et de l’Extrême-Orient. C’est la thèse soutenue par Hélène Carrère d’Encausse dans son livre prophétique. On pourrait aussi s’intéresser à l’histoire mouvementée de l’Union indienne et, plus proche de nous, à celle de la Belgique ou du Canada, pays binationaux où la démographie a joué un rôle significatif.

Dans les décennies qui viennent, la composition ethnique les États-Unis eux-mêmes devrait sensiblement se modifier, les descendants d’immigrants non européens devenant majoritaires. Il est très difficile de poser un tel diagnostic pour la France, la législation s’opposant à la constitution de statistiques portant sur l’origine ethnique ou nationale des individus recensés.

 

Du basculement démographique au basculement géopolitique

La démographie s’invite aussi dans la géopolitique. Le poids des nations se mesure à la richesse qu’elles sont capables de générer. Or, cette grandeur combine le nombre d’individus à la richesse que chacun produit par son travail et sa créativité. Au cours des vingt-cinq dernières années, les deux termes de l’équation ont progressé très rapidement dans les pays du tiers monde, modifiant radicalement la hiérarchie des puissances, ouvrant la voie au monde multipolaire que nous connaissons aujourd’hui et à la mise en cause de l’hégémonie de l’Occident.

Considérons le top 10 des pays classés en fonction de leur PIB (en dollars constants, corrigé des fluctuations du taux de change). Plaçons-nous en 1990.

Les États-Unis caracolent en tête, suivis du Japon, de la Russie et de l’Allemagne. L’Italie et la France occupent respectivement les cinquième et sixième positions. La Chine est au huitième rang. Un peu plus de deux décennies plus tard, le paysage est complètement bouleversé. La Chine aurait supplanté les États-Unis en tête du top 10 de l’année 2022 (même si elle reste au deuxième rang en dollars courants). L’Indonésie y a fait son entrée, évinçant l’Italie. La France est reléguée au dernier rang, talonnée par la Turquie. On constate enfin que les pays qui ont progressé dans la hiérarchie des nations (Chine, Inde, Indonésie, Brésil, Turquie…) sont précisément ceux qui ont combiné dynamisme démographique et dynamisme économique. Ces changements ne sont pas sans conséquence sur les équilibres internationaux.

L’Afrique est restée à la traîne de ce classement, mais la population de l’Afrique subsaharienne, elle seule, pourrait tripler entre 2020 et la fin du siècle, passant de un à trois milliards d’habitants, posant un défi d’autant plus sérieux à l’Europe, que la pression migratoire sera entretenue par les désordres politiques et l’inefficacité économique.

 

D’ici à l’hiver démographique mondial, faut-il s’attendre à une explosion des conflits liés au réchauffement climatique ?

Plaçons-nous pour finir au niveau de la planète Terre prise comme un tout, faisant abstraction des rivalités qui opposent les peuples les uns aux autres. Évaluée à 1,6 milliard d’habitants en 1900, la population mondiale s’élève en 2023 à huit milliards d’individus. Elle est attendue à dix milliards en 2050. Il faudrait être aveugle pour nier que cette explosion démographique complique singulièrement la lutte contre le réchauffement climatique. Si les pays dont la population croît le plus vite sont aussi ceux qui cherchent à rattraper le standard de vie des Occidentaux, et donc aspirent à un développement rapide, alors leurs émissions de gaz à effet de serre ne peuvent qu’augmenter. Il n’est pas sûr que l’effort de sobriété énergétique des pays développés suffise à les compenser, en supposant que la population de ces derniers y consente. L’égoïsme des peuples règne toujours en maître.

Tous les pays, ou presque, ont achevé leur transition démographique, la natalité est en baisse, rejoignant la chute de la mortalité qui l’avait précédée. Plusieurs zones verront à l’avenir leur population diminuer. Des auteurs annoncent un « hiver démographique », qui pourrait affecter toute la population mondiale, c’est-à-dire une inversion de la courbe. Notre planète poussera un soupir de soulagement. Mais quel sera l’état du monde après ce reflux bienvenu ? On n’ose y penser.

Quel enseignement tirer de ces constats ? Certes « Les hommes naissent et demeurent libres et égaux en droits ». Les biologistes ajoutent qu’ils naissent tous identiques, avec les mêmes organes, les mêmes capacités intellectuelles. Mais rapidement, l’éducation qu’ils reçoivent, le milieu social dans lequel ils baignent, vont imprégner leur cerveau de croyances et de contenus culturels différents, au point qu’ils vont se considérer comme appartenant, non à l’unique espèce Homo sapiens, mais à des espèces étrangères les unes aux autres. Des espèces qui entrent en conflit, comme se combattent les espèces animales. La liberté et l’égalité des droits apparaissent alors comme subalternes. Tel est le triste spectacle que l’humanité offre encore aujourd’hui.

Même si on la réprouve, on aurait tort d’ignorer cette réalité anthropologique. Nos politiques publiques et nos postures sur la scène internationale doivent impérativement prendre en compte la démographie, car elle a (presque) toujours le dernier mot.

Les calculs trompeurs d’OXFAM

La sortie du rapport annuel d’OXFAM était attendue. Au mois de janvier, l’ONG créée en Grande-Bretagne remet traditionnellement ses conclusions sur les écarts de richesse dans le monde. Cette année, OXFAM a constaté que la richesse cumulée des cinq personnes les plus fortunées s’élevait en 2023 à 869 milliards contre 405 milliards en 2023. Dans le même temps, les 5 milliards de personnes les moins riches auraient perdu 20 milliards de dollars. Pour remédier à la pauvreté, OXFAM n’envisage qu’une seule solution : la redistribution des fortunes des plus riches par l’instauration de nouvelles taxes. Porte-étendard de l’idéologie de la décroissance, OXFAM nous trompe et se trompe.

Le premier reproche que l’on peut formuler à l’égard du rapport « Multinationales et inégalités multiples » est le suivant : son analyse sur l’accroissement des richesses sur la seule période allant de l’année 2020 à l’année 2023. Le biais est évident, 2020 étant le point de départ de la pandémie de coronavirus qui a perturbé les principaux marchés boursiers mondiaux et faussé la valeur de nombreuses actions cotées. En toute logique, la valeur du patrimoine capitalistique des cinq plus grandes fortunes mondiales a considérablement augmenté sur la période parce que la bourse a corrigé les baisses artificielles provoquées par la pandémie. Ajoutons aussi que la notion de fortune est par nature fluctuante, dépendante de la confiance que placent les marchés dans les actions TESLA ou LVMH, mais aussi du contexte macroéconomique mondialisé. Ce sont donc des fortunes théoriques, et non des fortunes dont les grands capitaines d’industrie peuvent disposer comme bon leur semble.

L’autre aspect étonnant du rapport est qu’il a pour la première fois utilisé comme critère de comparaison les « cinq milliards de personnes les plus pauvres », alors qu’il traitait naguère des personnes en état d’extrême pauvreté. Et pour cause, l’extrême pauvreté a reculé sur la période. En février dernier, l’Institut économique Molinari dévoilait d’ailleurs des erreurs majeures dans la méthodologie d’OXFAM, accusée de mal définir la notion de richesse comme celle de pauvreté tout en proposant des solutions inefficaces voire dangereuses :

« Pour mesurer l’évolution des inégalités, Oxfam reprend les chiffres du « Global Wealth Databook » publiés chaque année par le Crédit suisse. Dans ce rapport, la richesse nette d’un adulte se définit comme la somme de ses actifs financiers (actions, comptes bancaires etc.) et non financiers (principalement ses biens immobiliers), déduction faite de ses dettes. Avec un tel raisonnement, les chiffres d’Oxfam deviennent tout simplement ubuesques : à les croire, 22 % des adultes vivant aux États-Unis (55 millions) et 14 % de ceux vivant en France (7 millions) appartiendraient au groupe des 10 % les plus pauvres de la planète. Il y aurait même plus de pauvres aux États-Unis, en France, ou en Suisse qu’en Afghanistan, en Syrie ou en Érythrée ».

Comparer les fluctuations boursières des grandes fortunes avec la richesse cumulée des 5 milliards d’êtres humains « les plus pauvres » est intellectuellement malhonnête. Ce qui l’est plus encore, c’est de conclure des données de la période 2020-2023 qu’« il faudra plus de deux siècles pour mettre fin à la pauvreté » en sous-entendant que les plus riches empêchent les moins aisés d’accéder à la prospérité. La réalité est autre, comme le montre l’étude de l’évolution des fortunes depuis la fin de la Seconde Guerre mondiale.

La pauvreté dans le monde n’a cessé de reculer depuis 1945. Au sortir de la guerre, les pays asiatiques étaient les plus pauvres du monde. Coréens ou Singapouriens vivaient plus que chichement, ils étaient misérables. Un peu plus tard, dans les pays qui ont été livrées à la doxa communiste, à l’image de la Chine qui a dû attendre les années 1980 pour entamer sa transition économique. En 40 ans, les Chinois sont sortis de l’extrême pauvreté. Alors qu’ils étaient près de 90 % au début des années 1980 à souffrir de cette situation, ils ne sont plus que 1 % de nos jours. Il n’y a plus de famines en Chine. Pourtant, il y a désormais 562 milliardaires au pays des Mandarins. Ont-ils empêché leurs concitoyens de sortir de la pauvreté ? À l’évidence, non.

Le seul vecteur de la création de richesses est la croissance économique. Elle obéit à des lois mathématiques et non à des chimères éthiques. Du reste, les pays qui n’ont pas de fortunes privées, à l’image des pays communistes, appartiennent toujours au bataillon des plus pauvres. Ils ne sont guère plus égalitaires que les « pays du nord », les possédants s’y trouvant parmi les élites politiques locales qui préemptent à leur seul profit les rares ressources locales.

Au rayon des solutions, OXFAM s’entête dans l’erreur. Le discours mêle décroissance et taxation. Un curieux paradoxe. Comment un État pourrait-il taxer des entreprises qui ne génèrent plus de revenus ? On croirait entendre le député Antoine Léaument qui a proposé à l’Assemblée nationale de « tout prendre au-dessus de 12 millions d’euros dans les successions ». Une mesure totalitaire et confiscatoire qui aurait pour seul effet d’appauvrir grandement la France en provoquant une fuite massive de capitaux. Cela enrichirait plus le Portugal et la Suisse que nos compatriotes. Que certaines fortunes nous donnent le vertige est parfaitement normal, mais la réalité est que l’enrichissement des plus gros coïncide avec celui des plus petits.

Ces handicaps structurels qui entravent l’économie française

Le FMI a publié ses prévisions pour l’année 2024 : 2,9 % pour la croissance mondiale, et 1,2 % pour la zone euro, avec un net recul de l’inflation.

« So far, so good ! »  a commenté, non sans humour, Alfred Kammer, le directeur du Programme Europe de l’organisme international. C’est en effet un peu mieux que ce que l’on pouvait craindre, sachant que la plupart des économies européennes sont fortement affectées par la guerre en Ukraine.

En France, nos dirigeants n’ont pas devant eux une page blanche, loin s’en faut. Des niveaux records ont été atteints, aussi bien en dépenses publiques et sociales qu’en prélèvements obligatoires. Ajoutez à cela un déficit du commerce extérieur et un endettement qui ne cessent de croître d’année en année, et on comprend ainsi mieux pourquoi le pays fait figure de vilain petit canard concernant le respect des règles du Pacte de Stabilité et de Croissance imposées à la zone euro.

Ces règles, suspendues pendant la crise du Covid-19, ont été rétablies le 20 décembre dernier, avec toutefois un adoucissment de leur application, sur demande du ministre de l’Économie Bruno Le Maire.

Ainsi, en 2023, le déficit budgétaire de la France était de 4,7 % du PIB, et elle devra le réduire de 0,5 % point chaque année. La dette extérieure, actuellement à 111,7 % du PIB, devra progressivement être réduite de 1 % chaque année.

Cette obligation de résultat va nécessiter des efforts considérables, toutes ces dérives à corriger étant le fruit d’une économie qui accumule les mauvaises performances depuis de longues années.

Pour rappel, le dernier budget en équilibre remonte à 1974 ! La dette extérieure du pays, qui n’était que de 20 % du PIB en 1980, est aujourd’hui supérieure au PIB lui-même.

 

La France, mauvais élève de l’Europe

D’une manière stupéfiante, nos dirigeants ne semblent pas s’être aperçus que depuis plusieurs décennies, l’économie française réalisait des performances bien inférieures à celles des autres pays européens. C’est ce qu’a montré une étude de la Division de la statistique des Nations unies, publiée en 2018, qui a examiné comment l’évolution des économies des pays sur une période donnée. Les statisticiens de l’ONU ont pris tout simplement comme indicateur le PIB/capita des pays, et leur étude a porté sur la période 1980-2017.

Nous reproduisons ci-dessous les résultats de cette étude pour quelques pays européens, en prolongeant les séries jusqu’à la période actuelle, et en ajoutant le cas d’Israël qui est remarquable :

Si la France avait multiplié son PIB/capita par 4,2, comme l’Allemagne ou les Pays-Bas, on constaterait que ses taux de dépenses publiques et de dépenses sociales, par rapport au PIB, sont normaux.

À quoi tiennent ces contreperformances de l’économie française ?

 

La sociologie, une grille de lecture indispensable pour expliquer les faits économiques ?

Dans les processus économiques, les éléments sociologiques jouent un rôle déterminant.

Dans son livre La grande transformation (Gallimard, 1983) Karl Polanyi, économiste et anthropologue austro-hongrois, affirme « qu’il n’y a pas de relations économiques sans relations sociales ».

Dans son ouvrage L’éthique protestante et l’esprit du capitalisme (Librairie Plon, 1905), Max Weber a montré que la différence profonde de performances économiques entre les pays du nord de l’Europe et ceux du sud tient au fait que les uns sont protestants, alors que les autres sont catholiques.

En France, la sociologie du monde du travail a été forgée par l’orientation du mouvement syndical décidée au Congrès d’Amiens, en 1906. La motion très dure de Victor Griffuelhes adoptée au cours de cette assemblée a donné au syndicalisme le rôle de transformation de la société par l’expropriation capitaliste. Elle énoncait que le syndicalisme se suffisant à lui-même doit agir directement, en toute indépendance des partis politiques, avec comme moyen d’action la grève générale.

Était précisé dans cette motion : « Le syndicat, aujourd’hui groupement de résistance, demain groupement de production ». Ainsi, la Charte d’Amiens a-t-elle constitué l’ADN du syndicalisme français, et ce jusqu’à une période récente.

Le monde du travail a été confronté à un syndicalisme à caractère révolutionnaire : les chefs d’entreprise ont été, en permanence, entravés dans leurs actions par l’hostilité des syndicats. Ils sont soumis à un Code du travail très lourd et dissuasif imposé par une puissance publique qui a littéralement bridé leur dynamisme.

À l’inverse, en Allemagne, la collaboration des syndicats avec la Sozialdemokratie a permis de déboucher sur la cogestion des entreprises ; en Suisse, elle a conduit à un accord avec le patronat : La paix du travail. Un consensus prévoyait alors de régler les conflits par des négociations, et non plus par des grèves ou des lock-out.

Compte tenu de la position adoptée par la CGT au congrès d’Amiens, la France est restée bloquée à la sempiternelle « lutte des classes », et ce mauvais climat social a fortement nui au bon fonctionnement de l’économie.

 

Des anomalies structurelles entravent l’économie française

Avec ces innombrables luttes menées contre le pouvoir central et le patronat, les Français ont obtenu des « acquis sociaux » importants inscrits dans la législation du pays, un Code du travail volumineux et très rigide, nuisible à la bonne marche des entreprises.

Le mode de fonctionnement de l’économie française se caractérise par le tableau qui suit. Les pays scandinaves et la Suisse sont pris comme références pour définir des pays où l’économie est prospère et dynamique :

Ainsi, dans le cas de la France : taux de population active anormalement bas, durée de vie active plus courte, nombre d’heures travaillées/an inférieur à celui des pays du Nord ou de la Suisse, propension à recourir à la grève particulièrement élevée. Ce sont là les résultats des combats menés par les syndicats, auxquels s’ajoute un droit du travail particulièrement protecteur pour les salariés.

 

La population active de la France est aujourd’hui de 31,6 millions de personnes (données de la BIRD) : si ce taux était de 55 %, on atteindrait 37,2 millions d’actifs, ce qui signifie qu’il manque au travail 5,6 millions de personnes, soit à peu de choses près le chiffre des inscrits à Pôle Emploi : 5 404 000 personnes en novembre 2023 (toutes catégories confondues), dont 2 818 000 en catégorie A.

Il faudrait rallonger la durée de la vie active de 4 ou 5 années, mais on a vu combien cela est difficile avec la dernière tentative du gouvernement de réformer notre régime des retraites.

Il faudrait rallonger de 200 heures le nombre d’heures travaillées par an, ce qui représente, au plan national, un déficit d’environ 6 milliards d’heures, chaque année, c’est-à-dire un peu plus de 60 milliards d’euros, si on valorise ces heures au tarif du Smic.

De tous ces handicaps résultent des performances économiques très inférieures à celles des pays scandinaves et de la Suisse, d’autant que la France est devenue le pays le plus désindustrialisé d’Europe, la Grèce mise à part.

Le secteur industriel ne représente plus que 10 % du PIB alors que sa contribution à la formation du PIB devrait se situer au moins à 18 %, comme c’est le cas pour l’Allemagne ou la Suisse (autour de 23% ou 24 %).

Dans le tableau ci-dessous figure le classement des pays selon leur ressenti du bonheur (World Hapiness Report de l’ONU, année 2019). Malgré toutes ses dépenses sociales, la France est classée seulement en 24e position, entre le Mexique et le Chili.

Les Français ont le sentiment que le pays est en déclin, avec une économie à la traîne. En 2018, la crise des Gilets jaunes avait pour origine les difficultés des Français à finir le mois, et la désertification du territoire.

 

Réformer, une nécessité

La France a un immense besoin de réformes, mais nos dirigeants sont très loin de s’atteler à cette tâche. Le prochain président de la République devra présenter aux citoyens un diagnostic réel de la situation, ce qu’Emmanuel Macron n’a pas fait : les Français ne parviennent pas à prendre conscience que notre PIB par habitant est bien inférieur à celui de nos voisins du Nord.

Emmanuel Macron paraissait doté de tous les talents pour mener à bien le redressement de notre économie, d’autant qu’il avait été ministre de l’Économie. Malheureusement, ces espérances ont été déçues. La crise liée au covid a révélé la désindustrialisation du pays, et ce n’est que le 13 octobre 2021 qu’a été lancé le Plan France 2030, visant à « faire émerger les futurs champions technologiques de demain et accompagner les transitions de nos secteurs d’excellence […] favoriser l’émergence d’innovations de rupture ».

Rien n’est prévu pour corriger les distorsions structurelles qui plombent l’économie du pays, et pas davantage pour s’affranchir de la tutelle de la Commission européenne qui gouverne le pays. Et à quoi peut-donc servir le nouveau Commissariat au Plan dirigé par François Bayrou ? Cet allié politique est totalement muet alors qu’il avait pour mission d’« éclairer les choix collectifs que la nation aura à prendre pour maintenir ou reconstruire sa souveraineté ».

 

Souveraineté énergétique française : autopsie d’un suicide

Entre désamour de son parc nucléaire, illusions renouvelables, pressions allemandes et injonctions de l’Europe, la France, dont le puissant parc de production d’électricité était décarboné avant l’heure, a lentement sapé la pérennité du principal atout qu’il représentait. Après des fermetures inconsidérées de moyens pilotables, l’apparition du phénomène de corrosion sous contrainte qui a affecté les réacteurs d’EDF dès 2021 a cruellement révélé l’absence de renouvellement du parc depuis que l’ASN en avait exprimé la nécessité, en 2007. En entraînant une flambée inédite du marché du MWh, une dépendance historique des importations, la détresse des ménages et le marasme de l’industrie, l’année 2022 a imposé un électrochoc.

Un retour en arrière est nécessaire pour appréhender les tenants et les aboutissants du projet de loi sur la souveraineté énergétique présenté à la presse le 8 janvier 2024.

 

Souveraineté énergétique et contraintes européennes

La souveraineté d’un État dépend intimement de son accès à l’énergie. À ce titre, les traités de fonctionnement de l’Union européenne garantissent « le droit d’un État membre de déterminer les conditions d’exploitation de ses ressources énergétiques, son choix entre différentes sources d’énergie et la structure générale de son approvisionnement énergétique », ainsi que le rappelle l’article 194 du traité de Lisbonne.

Pour autant, le Parlement européen et le Conseil ont introduit dans son article 192 des « mesures affectant sensiblement le choix d’un État membre entre différentes sources d’énergie et la structure générale de son approvisionnement énergétique », en vue de réaliser les objectifs environnementaux énoncés dans l’article 191, qui visent à protéger la santé des personnes et améliorer la qualité de l’environnement.

C’est dans ce cadre que la politique de l’Union dans le domaine de l’énergie vise, dans ce même article 194, « à promouvoir l’efficacité énergétique et les économies d’énergie ainsi que le développement des énergies nouvelles et renouvelables »

 

Le principe de subsidiarité

Le principe de subsidiarité consiste à réserver à l’échelon supérieur – en l’occurrence, l’Union européenne – ce que l’échelon inférieur – les États membres de l’Union – ne pourrait effectuer que de manière moins efficace. C’est au nom de ce principe que l’Union européenne a fixé aux États membres des objectifs contraignants de parts d’énergies renouvelables dans leur consommation, c’est-à-dire des objectifs en termes de moyens, supposés permettre collectivement aux États membres une plus grande efficacité dans la décarbonation de l’économie européenne et la réduction de ses émissions de polluants.

L’exemple allemand montre les difficultés et les limites de ce principe, appliqué aux émissions de CO2, surtout lorsqu’il concerne la France dont l’électricité est déjà largement décarbonée depuis un quart de siècle.

 

2012-2022 : autopsie d’un suicide

La France est historiquement le plus gros exportateur d’électricité. Depuis 1990 elle a été numéro 1 MONDIAL chaque année jusqu’en 2008, et reste parmi les trois premiers depuis. Le confort de cette situation, renforcé par des aspirations d’économie d’énergie et d’efficacité énergétique, a nourri des velléités visant à remplacer des moyens pilotables par les énergies intermittentes que sont l’éolien et le solaire, contrairement à la prudence élémentaire de notre voisin allemand.

Les chiffres de puissance installée diffèrent, selon les sources, en fonction des critères retenus. Parfois même selon la même source en fonction des années, notamment RTE qui agrège différemment les unités de production supérieures à 1MW avant et après 2018 sur son site.

C’est pourquoi la rigueur exige de retenir la même source pour comparer l’évolution des capacités installées en France et en Allemagne selon les mêmes critères, en l’occurrence ceux de l’Entsoe, chargé de gérer le réseau européen. Ces chiffres Entsoe 2012 font état de 128680 MW installés en France (Net generating capacity as of 31 december 2012) dont 7449 MW éoliens et 3515 MW solaires et 145 019 MW installés en Allemagne, dont 28 254 MW éoliens et 22 306 MW solaires. Les chiffres du même Entsoe pour 2022 mentionnent 141 029 MW installés en France, dont 19 535 MW éoliens et 13 153 MW solaires, ainsi que  223 118 MW installés en Allemagne dont 63 076 MW éoliens et  57 744 MW solaires.

C’est ainsi qu’entre 2012 et 2022, l’Allemagne augmentait de 7839 MW son parc pilotable, parallèlement à une augmentation de 70 260MW d’énergies intermittentes, quand la France se permettait de supprimer 9376 MW pilotables parallèlement à une augmentation de 21 725 MW d’intermittence, tout en échafaudant officiellement des scénarios « 100 % renouvelables » qui réclamaient une accélération de l’éolien et du photovoltaïque pour faire miroiter une sortie du nucléaire.

 

La prudence allemande

Dans leur rapport de 2020 sur la période 2018-2022, les quatre gestionnaires de réseaux allemands constatent en effet que 1 % du temps, l’éolien ne produit que 1 % de sa puissance installée et constatent l’éventualité d’« une indisponibilité de 99 % pour la réinjection de l’éolien », en considérant diverses études qui montrent que l’apparition d’une période froide et sans vent (Dunkelflaute) n’est pas improbable et doit être prise en compte.

C’est notamment la raison pour laquelle l’agence des réseaux allemands (Bundesnetzagentur) vient d’interdire en décembre dernier toute fermeture de centrale à charbon jusqu’à avril 2031.

Il serait trompeur d’occulter la présence de ces centrales, comme le font certains bilans, au prétexte qu’elles ne vendraient pas sur le marché alors qu’elles sont rémunérées pour rester en réserve du réseau, prêtes à produire à la moindre sollicitation.

 

L’optimisme français

Malgré ce contexte, la loi du 17 aout 2015 avait prévu « De réduire la part du nucléaire dans la production d’électricité à 50 % à l’horizon 2025 », et interdisait, par l’article L315-5-5 du Code de l’énergie, « toute autorisation ayant pour effet de porter la capacité totale autorisée de production d’électricité d’origine nucléaire au-delà de 63,2 gigawatts », soit sa puissance de l’époque.

La date ubuesque de 2025 avait été repoussée à 2035 dans la PPE de 2018, qui actait néanmoins la fermeture de six réacteurs, dont ceux de Fessenheim, d’ici 2028, et 14 réacteurs d’ici 2035.

 

Les illusions perdues

L’année 2022 a précipité la crise, inéluctablement en germe dans ces lois, en raison du phénomène de « corrosion sous contrainte », découvert en août 2021, qui a affecté le parc nucléaire. Ce phénomène est rare dans le circuit primaire, et ne peut se détecter qu’une fois les fissures apparues. Ce qui a demandé de nombreuses découpes de tronçons de tuyauteries pour réaliser des examens destructifs, entraînant l’indisponibilité d’un grand nombre de réacteurs, tandis que d’autres étaient déjà arrêtés pour une longue période de « grand carénage » destinée à en prolonger l’exploitation au delà de 40 ans.

On ne peut mieux illustrer l’avertissement de l’ASN qui écrivait en 2007 :

« Il importe donc que le renouvellement des moyens de production électrique, quel que soit le mode de production, soit convenablement préparé afin d’éviter l’apparition d’une situation où les impératifs de sûreté nucléaire et d’approvisionnement énergétique seraient en concurrence. »

En effet, TOUS les moyens de production font l’objet de maintenances programmées, même en plein hiver ainsi que d’incidents fortuits.

RTE en tient la comptabilité et mentionne notamment 58 indisponibilités planifiées dans la seule production hydraulique au fil de l’eau et éclusée affectant le mois de janvier 2024. L’éolien en mer n’est pas épargné, avec une indisponibilité planifiée de 228 MW du parc de Guérande entre le 21 décembre 2023 et le 13 janvier 2024.

Mais la France aura préféré réduire la puissance de son parc pilotable sans qu’aucun nouveau réacteur n’ait été mis en service depuis l’avertissement de 2007. Ceux de Fessenheim ayant même été fermés alors que leurs performances en matière de sûreté nucléaire « se distinguaient de manière favorable par rapport à la moyenne du parc » selon les termes de l’ASN.

 

2022 : l’électrochoc

Pour la première fois, en 2022, la France aura dépendu de ses voisins pour se fournir en électricité, comptabilisant son premier solde importateur net sur l’année et entraînant de fait la défiance des marchés européens sur ses capacités de production, exposant particulièrement le pays à la flambée des cours.

La Commission de régulation de l’énergie (CRE) en confirme les termes :

« Bien que les incertitudes aient été généralisées en Europe, le prix français a réagi plus fortement que ses voisins européens, du fait des indisponibilités affectant le parc nucléaire. […] Le marché pourrait ainsi avoir anticipé des prix extrêmement élevés sur certaines heures, supérieurs au coût marginal de la dernière unité appelée (fixation du prix par les effacements explicites ou l’élasticité de la demande, voire atteinte du plafond à 3000 euros/MWh sur l’enchère journalière). Ce record de 3000 euros/MWh aura effectivement été atteint en France le 4 avril 2022, relevant automatiquement le plafond à 4000 euros/MWh pour l’ensemble des pays européens. »

 

Quand la pénurie d’électricité se répercute sur l’activité économique

La puissance historique du parc électrique français, sa structure nucléaire et hydraulique et le recours à la possible flexibilité de nombreux usages, tels que le chauffage des logements et de l’eau sanitaire, prédisposaient le pays à surmonter, mieux que tout autre, la crise du gaz liée à l’invasion de l’Ukraine. Au lieu de quoi, la pénurie d’électricité et l’envolée de son cours ont frappé de plein fouet les ménages et, plus encore, l’activité économique, ainsi que l’expose RTE dans le bilan 2022.

« La baisse de consommation a d’abord été observée dans l’industrie, plus exposée aux variations des prix en l’absence de protection tarifaire. Les secteurs industriels les plus intensifs en énergie, tels que la chimie, la métallurgie et la sidérurgie, ont été les plus touchés (respectivement -12 %, -10 % et -8 % sur l’année et -19 %, -20 % et -20 % entre septembre et décembre ».

 

Le discours de Belfort : une prise de conscience ?

Le discours de Belfort du 10 février 2022 a marqué la prise de conscience de la nécessité de pouvoir piloter la production d’électricité sans dépendre des caprices de la météo et du bon vouloir des pays voisins.

Ce revirement officiel s’est rapidement traduit par loi LOI n° 2023-491 du 22 juin 2023 relative à l’accélération des procédures liées à la construction de nouvelles installations nucléaires.

Celle-ci abroge l’article L. 311-5-5 du Code de l’énergie qui interdisait le dépassement du plafond de 63,2 GW, et impose, dans son article 1er, une révision, dans un délai d’un an, de la Programmation pluriannuelle de l’énergie (PPE) adoptée par le décret n° 2020-456 du 21 avril 2020, afin de prendre en compte la réorientation de la politique énergétique de la présente loi. Notamment pour y retirer la trajectoire de fermeture des 14 réacteurs existants.

 

Vers un retour de la souveraineté énergétique ?

Ce n’est que dans ce contexte qu’on peut appréhender la logique du projet de loi relatif à la souveraineté énergétique dévoilé ce 8 janvier.

Concernant les émissions de CO2, son article 1 remplace prudemment trois occurrences du mot réduire dans les objectifs de l’article 100-4 du Code de l’énergie par « tendre vers une réduction de ». Si l’ambition des objectifs à atteindre est renforcée, pour respecter les nouveaux textes européens, et notamment le « paquet législatif fit for 55 »,  cette précaution sémantique tend à protéger l’exécutif de la jurisprudence climatique ouverte en 2012 par la fondation Urgenda. En effet, selon un rapport de l’ONU de janvier 2021, pas moins de 1550 recours de ce type ont été déposés dans le monde en 2020. Et l’État français avait lui-même été condamné à compenser les 62 millions de tonnes « d’équivalent dioxyde de carbone » (Mt CO2eq) excédant le plafond d’émissions de gaz à effet de serre fixé par son premier budget carbone pour la période 2015-2018.

Notons que le 30 novembre 2023, l’Allemagne a été condamnée par la Cour administrative de Berlin-Brandebourg pour n’avoir pas respecté ses propres objectifs climatiques… après que, le 29 avril 2021, la Cour constitutionnelle fédérale a retoqué ses précédents objectifs en raison de leurs exigences insuffisantes.

Sans mettre l’État français à l’abri du juge administratif, les précautions du projet de loi semblent tenir compte de ces dux expériences.

Ce même article 1 stipule :

Les 4e à 11e du I et le I bis (de l’article 100-4 du Code de l’énergie) sont supprimés. C’est-à-dire les objectifs chiffrés de part d’énergies renouvelables, notamment 33 % de la consommation à horizon 2030, dont 40 % de celle d’électricité (4e) l’encouragement de l’éolien en mer (4e ter) de la production d’électricité issue d’installations agrivoltaïques (4e quater) et l’objectif de parvenir à 100 % d’énergies renouvelables dans les collectivités régies par l’article 73 de la Constitution.

Ces suppressions ne sont remplacées par aucun objectif chiffré en termes d’énergies renouvelables pour la production d’électricité.

 

La France et les directives de l’UE

Les États membres sont tenus de transcrire en droit national les Directives européennes.

Pour autant, le plan d’accélération des énergies renouvelables, voté par le Parlement européen, en septembre 2023, portant à 42,5 % l’objectif européen en 2030, tout comme le précédent cadre d’action en matière de climat et d’énergie à horizon 2030, qui se contentait de 27 % ne présentaient de caractère contraignant qu’au niveau européen et non pour chaque État, contrairement aux objectifs pour 2020 pour lesquels un contentieux subsiste, pour n’avoir atteint que 19,1 % de part renouvelable de la consommation au lieu des 23 % prévus dans la DIRECTIVE 2009/28/CE. C’est-à-dire globalement la même part que l’Allemagne (19,3 %), qui, elle, ne s’était engagée qu’à une part de 18 %.

En 2021, la part française était d’ailleurs plus importante en France (19,3 %) qu’en Allemagne (19,2%).

Mais, selon Le Monde, la France refuserait d’acheter les garanties d’origine (ou MWh statistiques) permettant d’atteindre les 23 % qui étaient fixés pour 2020.

Tous les électrons étant mélangés sur le réseau, ces garanties d’origine (GO), gérées par EEX peuvent être délivrées pour chaque MWh renouvelable produit, et sont valables une année. Elles se négocient indépendamment des MWh qu’elles représentent, y compris à l’international, et attestent de la quantité d’EnR consommée.

En 2e, le projet de loi fixe clairement le cap :

« En matière d’électricité, la programmation énergétique conforte le choix durable du recours à l’énergie nucléaire en tant que scénario d’approvisionnement compétitif et décarboné. »

 

Le fonctionnement du parc nucléaire historique

Les revenus du parc nucléaire historique sont régulés dans le chapitre VI « Contribution des exploitants nucléaires à la stabilité des prix » qui comprend la production du futur EPR de Flamanville, en tant qu’installation dont l’autorisation initiale a « été délivrée au plus tard le 31 décembre 2025 ». L’exploitant se voyant confier la mission de réduction et stabilisation des prix de l’électricité par le reversement d’une quote-part de ses revenus annuels calculée sur deux taux lorsque leur revente dépasse deux seuils :

  1. Un seuil S0, qui correspond à l’addition du coût comptable et des coûts encourus pour la réalisation des installations.
  2. Un seuil S1 qui ne peut être inférieur à 110 euros/MWh.

 

Le taux appliqué au delà du premier est de 50 %, et le taux additionnel au-delà du second est de 40 %.

Un dispositif de « minoration universelle », limité dans le temps d’au plus une année, est prévu dans la sous-section 1 pour toute fourniture d’électricité, afin de préserver la compétitivité du parc français.

Une volonté de surveillance des marchés se traduit notamment dans l’article 7 qui prévoit « Pour l’exercice de ses missions, le ministre chargé de l’énergie ou son représentant a accès aux informations couvertes par le secret professionnel détenues par la Commission de régulation de l’énergie sur les personnes soumises à son contrôle ».

 

Épilogue

À peine mis en consultation, cet avant projet viendrait, selon différentes sources, d’être vidé de tout objectif chiffré, tant en termes climatiques que de choix des énergies par une « saisine rectificative au projet de loi », provenant du ministère de l’Économie, désormais chargé de l’énergie depuis le remaniement ministériel du 11 janvier. Répondant au tollé provoqué au sein des associations environnementales par ce retrait, Bruno Le Maire aurait déclaré qu’il en assumait la décision, au nom du temps nécessaire à l’élaboration d’une loi de cette importance.

Selon le ministère de la Transition écologique, la loi de 2019 avait créé l’obligation de publier, avant le 1er juillet 2023, une mise à jour des objectifs en matière d’énergie, par une loi de programmation sur l’énergie et le climat (LPEC). Il apparaissait déjà que ce délai ne serait pas tenu.

« Le coût de la décarbonisation sera très lourd » grand entretien avec Éric Chaney

Éric Chaney est conseiller économique de l’Institut Montaigne. Au cours d’une riche carrière passée aux avant-postes de la vie économique, il a notamment dirigé la division Conjoncture de l’INSEE avant d’occuper les fonctions de chef économiste Europe de la banque américaine Morgan Stanley, puis de chef économiste du groupe français AXA.

 

Y-a-t-il des limites à la croissance ?

Loup Viallet, rédacteur en chef de Contrepoints – En France, de plus en plus de voix s’élèvent en faveur d’une restriction de la production. Ralentissement, croissance zéro, décroissance, les partisans de ce mouvement idéologique partagent une approche malthusienne de l’économie. La croissance économique aurait des limites écologiques que l’innovation serait incapable de faire reculer. Cette thèse est au cœur d’un ouvrage souvent présenté comme une référence : le rapport du club de Rome de 1972 aussi appelé Rapport Meadows sur les limites de la croissance. Ses conclusions sont analogues à celles publiées l’année dernière dans le dernier rapport en date du Club de Rome, Earth for All. Quelle méthode scientifique permet-elle d’accoucher sur de telles conclusions ? À quel point est-elle contestable ? Comment expliquez-vous le décalage entre l’influence médiatique de ces idées et l’absence total de consensus qu’elles rencontrent parmi les chercheurs en économie et la majorité des acteurs économiques ?

Éric Chaney – Les thèses malthusiennes ont en effet le vent en poupe, encore plus depuis la prise de conscience par un grand nombre -surtout en Europe- de l’origine anthropomorphique du changement climatique causé par les émissions de gaz à effet de serre (GES, CO2 mais pas seulement). Le Rapport Meadows de 1972, commandé par le Club de Rome, avait cherché à quantifier les limites à la croissance économique du fait de la finitude des ressources naturelles. Si les méthodes développées au MIT à cet effet étaient novatrices et intéressantes, les projections du rapport originel étaient catastrophistes, prévoyant un effondrement des productions industrielle et alimentaire mondiales au cours de la première décennie du XXIe siècle. Rien de tel ne s’est produit, et malgré de nombreuses mises à jour du rapport Meadows, certes plus sophistiquées, les prévisions catastrophiques fondées sur l’apparente contradiction entre croissance « infinie » et ressources finies ne sont pas plus crédibles aujourd’hui qu’elles ne l’étaient alors.

Contrairement aux modèles développés à la même époque par William Nordhaus (prix Nobel d’économie en 2018), les modèles prônant la croissance zéro ou la décroissance n’intégraient pas de modélisation économique approfondie, pas de prix relatifs endogènes, ni même les gaz à effet de serre dont on sait depuis longtemps que les conséquences climatiques peuvent être véritablement catastrophiques.

Rappelons que Nordhaus publia en 1975 un article de recherche intitulé « Can we control carbon dioxide ». Malgré sa contribution essentielle à l’analyse économique des émissions de GES –Nordhaus est le premier à avoir explicité le concept de coût virtuel d’une tonne de CO2, c’est-à-dire la valeur présente des dommages futurs entraînés par son émission — il est vilipendé par les tenants des thèses décroissantistes, et c’est peut-être là qu’il faut chercher l’origine des dissonances cognitives qui les obèrent. Nordhaus est un scientifique, il cherche à comprendre comment les comportements économiques causent le changement climatique, et à en déduire des recommandations. Il est convaincu qu’à cet effet, les mécanismes de marché, les incitations prix en particulier sont plus efficaces que les interdictions. Il est techno-optimiste, considérant par exemple que les technologies nucléaires (y compris la fusion) lèveront les contraintes sur la production d’énergie. Alors que le camp décroissantiste est avant tout militant, le plus souvent opposé au nucléaire, bien qu’il s’agisse d’une source d’énergie décarbonée, et anticapitaliste, comme l’a bien résumé l’un de ses ténors, l’économiste Timothée Parrique, qui affirme que « la décroissance est incompatible avec le capitalisme ».

Pratiquement, je ne crois pas que ce courant de pensée ait une influence déterminante sur les décisions de politique économique, ni dans les démocraties, et encore moins dans les pays à régime autoritaire. En revanche, les idées de Nordhaus ont été mises en œuvre en Europe, avec le marché des crédits carbone (ETS, pour Emissions Trading System, et bientôt ETS2), qui fixe des quotas d’émission de CO2 décroissant rapidement (-55 % en 2030) pour tendre vers zéro à l’horizon 2050, et laisse le marché allouer ces émissions, plutôt que d’imposer des normes ou de subventionner telle ou telle technologie. De même la taxation du carbone importé que l’Union européenne met en place à ses frontières (difficilement, certes) commence à faire des émules, Brésil et Royaume-Uni entre autres, illustrant l’idée de Clubs carbone de Nordhaus.

 

Liens entre croissance et énergie

L’augmentation des émissions de gaz à effet de serre est-elle proportionnelle à la croissance de la production de biens et de services ?

Au niveau mondial, il y a en effet une forte corrélation entre les niveaux de PIB et ceux des émissions de CO2, à la fois dans le temps, mais aussi entre les pays.

Pour faire simple, plus une économie est riche, plus elle produit de CO2, en moyenne en tout cas. Il ne s’agit évidemment pas d’un hasard, et, pour une fois, cette corrélation est bien une causalité : plus de production nécessite a priori plus d’énergie, qui nécessite à son tour de brûler plus de charbon, de pétrole et de gaz, comme l’avait bien expliqué Delphine Batho lors du débat des primaires au sein des écologistes.

Mais il n’y a aucune fatalité à cette causalité, bien au contraire.

Prenons à nouveau l’exemple de l’Union européenne, où le marché du carbone fut décidé en 1997 et mis en œuvre dès 2005. Entre 2000 et 2019, dernière année non perturbée par les conséquences économiques de la pandémie, le PIB de l’Union européenne a augmenté de 31 %, alors que l’empreinte carbone de l’Union, c’est-à-dire les émissions domestiques, plus le carbone importé, moins le carbone exporté, ont baissé de 18 %, selon le collectif international d’économistes et de statisticiens Global Carbon Project. On peut donc bien parler de découplage, même s’il est souhaitable de l’accentuer encore.

En revanche, l’empreinte carbone des pays hors OCDE avait augmenté de 131 % sur la même période. Pour les pays moins avancés technologiquement, et surtout pour les plus pauvres d’entre eux, la décroissance n’est évidemment pas une option, et l’usage de ressources fossiles abondantes comme le charbon considéré comme parfaitement légitime.

 

Le coût de la décarbonation

Que répondriez-vous à Sandrine Dixson-Declève, mais aussi Jean-Marc Jancovici, Philippe Bihouix et tous les portevoix de la mouvance décroissantiste, qui estiment que la « croissance verte » est une illusion et que notre modèle de croissance n’est pas insoutenable ?

Je leur donne partiellement raison sur le premier point.

Pour rendre les difficultés, le coût et les efforts de la décarbonation de nos économies plus digestes pour l’opinion publique, les politiques sont tentés de rosir les choses en expliquant que la transition énergétique et écologique créera tant d’emplois et de richesse que ses inconvénients seront négligeables.

Mais si l’on regarde les choses en face, le coût de la décarbonation, dont le récent rapport de Jean Pisani et Selma Mahfouz évalue l’impact sur la dette publique à 25 points de PIB en 2040, sera très lourd. Qu’on utilise plus massivement le prix du carbone (généralisation de l’ETS), avec un impact important sur les prix, qui devront incorporer le renchérissement croissant du carbone utilisé dans la production domestique et les importations, ou qu’on recoure à des programmes d’investissements publics et de subventions massifs, à l’instar de l’IRA américain, le coût sera très élevé et, comme toujours en économie, sera payé au bout du compte par le consommateur-contribuable.

Tout au plus peut-on souhaiter que la priorité soit donnée aux politiques de prix du carbone, impopulaires depuis l’épisode des Gilets jaunes, mais qui sont pourtant moins coûteuses à la société que leurs alternatives, pour un même résultat en termes de décarbonation. Le point crucial, comme le soulignent les auteurs du rapport précité, est qu’à moyen et encore plus à long terme, le coût pour la société de ne pas décarboner nos économies sera bien supérieur à celui de la décarbonation.

J’ajouterais que si les statisticiens nationaux avaient les moyens de calculer un PIB corrigé de la perte de patrimoine collectif causée par la dégradation de l’environnement et le changement climatique – ce qu’on appelle parfois PIB vert, par définition inférieur au PIB publié chaque trimestre – on s’apercevrait que la croissance du PIB vert est plus rapide que celle du PIB standard dans les économies qui réduisent leurs atteintes à l’environnement et leurs émissions de GES. Sous cet angle, vive la croissance verte !

Sur le second point, je crois la question mal posée.

Il n’y a pas de « modèle de croissance » qu’on puisse définir avec rigueur. Il y a bien des modèles de gestion de l’économie, avec, historiquement, les économies de marché capitalistes (où le droit de propriété est assuré par la loi) d’un côté et les économies planifiées socialistes (où la propriété de l’essentiel des moyens de production est collective) de l’autre.

Mais ces deux modèles économiques avaient -et ont toujours pour leurs partisans- l’objectif d’augmenter la richesse par habitant, donc de stimuler la croissance. Du point de vue privilégié par Sandrine Dixson-Declève ou Jean-Marc Jancovici, celui de la soutenabilité, le modèle capitaliste devrait être préférable au modèle socialiste, qui, comme l’expérience de l’Union soviétique (disparition de la Mer d’Aral), de la RDA (terrains tellement pollués que leur valeur fut jugée négative lors des privatisations post-unification) ou de la Chine de Mao (où l’extermination des moineaux pour doubler la production agricole causa l’une des plus grandes famines de l’histoire de la Chine à cause des invasions de sauterelles) l’ont amplement démontré, prélevait bien plus sur le patrimoine naturel que son concurrent capitaliste.

La bonne question est celle des moyens à mettre en œuvre pour décarboner nos économies.

Réduire autoritairement la production comme le souhaitent les décroissantistes cohérents avec leurs convictions, demanderait l’instauration d’un régime politique imposant une appropriation collective des entreprises, puis une planification décidant ce qui est autorisé et ce qui ne l’est pas. Ne parlons pas de « modèle de croissance », mais de modèle économique, et le débat sera bien plus clair. Je suis bien entendu en faveur d’un modèle préservant la liberté économique, mais en lui imposant la contrainte de décarbonation par une politique de prix du carbone généralisée, la difficulté étant de faire comprendre aux électeurs que c’est leur intérêt bien compris.

 

Quand la Chine s’endormira

La tertiarisation de l’économie chinoise et le vieillissement de sa population sont deux facteurs structurant un ralentissement de la productivité. La croissance chinoise a-t-elle fini son galop ?

Oui, le régime de croissance de la Chine a fondamentalement changé au cours des dernières années. Après la libéralisation économique de Deng Xiaoping et l’application au-delà de toute prévision de son slogan, « il est bon de s’enrichir » grâce à l’insertion dans l’économie mondiale et à l’ouverture aux capitaux et technologies occidentales, la Chine a connu un rythme de développement et d’enrichissement (en moyenne, car les disparités villes-campagnes sont toujours profondes) unique dans l’histoire de l’humanité. Les masses chinoises sont sorties de la misère sordide dans laquelle les seigneurs de la guerre, puis l’occupation japonaise, puis enfin le régime maoïste les avait condamnées.

Mais la croissance « à deux chiffres » était tirée par le rattrapage technologique côté offre, l’investissement et les exportations côté demande, et ces moteurs ne peuvent durer éternellement. Côté offre, le rattrapage devient plus difficile lorsqu’on s’approche des standards mondiaux, ce que l’Europe a compris après 1970, d’autant plus que la rivalité stratégique avec les États-Unis réduit encore l’accès à l’innovation de pointe étrangère.

En interne, la reprise en main des entreprises par le Parti communiste, et la préférence donnée à celles contrôlées par l’État, l’obsession du contrôle du comportement de la population, réduisent considérablement la capacité d’innovation domestique, comme le fait remarquer depuis longtemps mon ancien collègue Stephen Roach.

Du côté de la demande, la Chine pourrait bien être tombée dans la trappe à dette qui a caractérisé l’économie japonaise après l’éclatement de ses bulles immobilières et d’actions du début des années 1970, en raison de l’excès d’offre immobilière et de l’immense dette privée accumulée dans ce secteur. Richard Koo avait décrit cette maladie macroéconomique « récession de bilan » pour le Japon. Les dirigeants chinois étaient hantés depuis longtemps par ce risque, qui mettrait à mal l’objectif de Xi Jinping de « devenir (modérément ajoute-t-il) riche avant d’être vieux », mais, paradoxalement, la re-politisation de la gestion économique pourrait bien le rendre réel. Comme la population active baisse en Chine depuis maintenant dix ans, et qu’elle va inévitablement s’accélérer, la croissance pourrait bien converger vers 3 % l’an, ce qui serait à tout prendre encore une réussite pour l’élévation du niveau de vie, voire encore moins, ce qui deviendrait politiquement difficile à gérer.

 

Dépendance au marché chinois

Faut-il anticiper un découplage de l’économie chinoise avec les économies de l’Union européenne et des États-Unis, dont de nombreux marchés sont devenus dépendants des importations chinoises ? Si celui-ci advenait, quels pays concernerait-il en priorité ?

L’économie chinoise occupe une place centrale dans l’économie mondiale, même si elle n’est pas tout à fait l’usine du monde comme on se plaisait à le dire avant 2008. Les tensions stratégiques avec les États-Unis mais aussi avec l’Europe, la réalisation par les entreprises que la baisse de coût permise par la production en Chine avaient un pendant. Je veux parler du risque de disruption brutale des chaînes d’approvisionnement comme ce fut le cas lors de l’épidémie de covid et des décisions de fermetures de villes entières avant que la politique (imaginaire) de zéro-covid ne fut abandonnée, mais aussi du risque d’interférence excessive des autorités chinoises.

La tendance précédente s’en est trouvée rompue.

Jusqu’en 2008, le commerce mondial croissait deux fois plus vite que le PIB mondial, en raison de l’ouverture de la Chine. De 2008 à 2020, il continua de croître, mais pas plus vite que la production. Depuis 2022, le commerce mondial baisse ou stagne, alors que la croissance mondiale reste positive. C’est la conséquence de la réduction du commerce avec la Chine. On peut donc bien parler de découplage, mais pour la croissance des échanges commerciaux, pas vraiment pour le niveau des échanges avec la Chine qui restent et resteront longtemps dominants dans le commerce mondial, sauf en cas de conflit armé.

En Europe, l’économie la plus touchée par ce renversement de tendance est évidemment l’Allemagne, dont l’industrie avait misé massivement sur la Chine, à la fois comme client pour son industrie automobile et de machines-outils, mais aussi pour la production à destination du marché chinois ou des marchés asiatiques. Ajouté au choix stratégique néfaste d’avoir privilégié le gaz russe comme source d’énergie bon marché, l’affaiblissement des échanges avec la Chine entraîne une profonde remise en question du modèle industriel allemand.

 

Impacts respectifs des élections européennes et américaines sur l’économie mondiale

Les élections européennes se tiendront en juin prochain. Les élections présidentielles américaines auront lieu cinq mois après, en novembre 2024. J’aimerais vous inviter à comparer leurs impacts potentiels sur l’avenir des échanges internationaux. Quels scénarios électoraux pourraient déboucher sur un ralentissement économique ? Sur une régionalisation des échanges ? Sur une croissance des conflits territoriaux ?

J’ai conscience que cette comparaison est limitée, l’Union européenne n’est pas un État fédéral, et il ne s’agit pas de scrutins analogues. Cependant, ces deux moments électoraux auront des conséquences concrètes et immédiates sur les orientations macroéconomiques à l’œuvre sur les deux premières économies du monde.

En cas de victoire de Donald Trump le 4 novembre, les échanges commerciaux avec les États-Unis seraient fortement touchés, avec une politique encore plus protectionniste qu’avec Biden, et un dédain complet pour toute forme de multilatéralisme.

Là encore, l’économie la plus touchée en Europe serait l’Allemagne, mais ne nous faisons pas d’illusions, toute l’Europe serait affaiblie. Plus important encore, une administration Trump cesserait probablement de soutenir financièrement l’Ukraine, laissant l’Union européenne seule à le faire, pour son propre intérêt stratégique. Ce qui ne pourrait qu’envenimer les relations au sein de l’Union, et restreindre les marges de manœuvre financières.

Enfin, une victoire de Trump signerait la fin de l’effort de décarbonation de l’économie américaine engagé par l’administration Biden à coups de subventions. Les conséquence pour le climat seraient désastreuses, d’autant plus que les opinions publiques européennes pourraient en conclure qu’il n’y a pas grand intérêt à faire cavalier seul pour lutter contre le changement climatique.

En revanche, les élections au Parlement européen ne devraient pas voir d’incidence significative sur nos économies. Le sujet ukrainien sera l’un des plus sensibles à ces élections, mais le pouvoir de décision restant essentiellement aux États, le changement ne serait que marginal.

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

À Davos, Javier Milei a défendu « La supériorité écrasante du capitalisme »

Mercredi 17 janvier dernier, le président argentin Javier Milei a prononcé un discours enflammé et disruptif au Forum économique mondial de Davos. Son éloge de la croissance et des entrepreneurs, tout comme sa mise en garde contre les dangers du socialisme ont déjà fait couler beaucoup d’encre. En réalité, l’économiste n’a fait que reprendre, à quelques expressions près, le contenu d’une conférence TED donnée en 2019 à San Nicolás, au cours de laquelle il expliquait comment, tout au long de l’histoire, le capitalisme s’était avéré supérieur aux autres systèmes.

Les thèses mises en avant à Davos s’inscrivent dans le corpus classique de la défense des libertés économiques. Qu’elles soient mises en avant, de manière décomplexée, par un chef d’État est, en revanche, beaucoup plus inhabituel.

Dans cet article, l’essayiste Rainer Zitelmann revient sur les principales thèses économiques défendues par Javier Milei, tant comme économiste que comme chef d’État.

 

Thèse 1 : le capitalisme est la seule recette contre la pauvreté

Le discours de Milei commence par un examen historique, précisant que la révolution industrielle a donné à une grande partie de la population mondiale la possibilité d’échapper à la pauvreté.

« … Lorsque vous regardez le PIB par habitant depuis l’an 1800 et jusqu’à aujourd’hui, vous verrez qu’après la révolution industrielle, le PIB mondial par habitant a été multiplié par plus de 15. Ce qui s’est traduit par un boom de la croissance qui a permis à 90 % de la population mondiale de sortir de la pauvreté. N’oublions pas qu’en 1800, environ 95 % de la population mondiale vivait dans l’extrême pauvreté et que ce chiffre est tombé à 5 % en 2020, avant la pandémie. La conclusion s’impose. Loin d’être la cause de nos problèmes, le capitalisme libre-échangiste en tant que système économique est le seul instrument dont nous disposons pour mettre fin à la faim, à la pauvreté et à l’extrême pauvreté sur notre planète.

Avant les commencements de la révolution industrielle, il y a environ deux siècles, 90 % de la population mondiale était effectivement embourbée dans l’extrême pauvreté. Aujourd’hui, selon les chiffres de la Banque mondiale, cette proportion n’est plus que de 8,5 %.

 

Thèse 2 :  la « justice sociale » est injuste

Le président-économiste soutient que la redistribution n’est pas le moyen de résoudre les inégalités sociales et qu’elle ne fait en réalité que les accroître. Les anticapitalistes pensent que l’économie est un jeu à somme nulle – ils croient qu’un gâteau économique prédéfini doit être distribué, alors qu’en fait, le but est d’augmenter la taille du gâteau.

Milei : « Le problème, c’est que la justice sociale n’est pas juste – et qu’elle ne contribue pas non plus – au bien-être général… Ceux qui font la promotion de la justice sociale, les défenseurs, partent de l’idée que l’ensemble de l’économie est un gâteau qui peut être partagé différemment, mais que ce gâteau n’est pas acquis. C’est la richesse qui est générée dans ce qu’Israël Kirzner, par exemple, appelle un processus de découverte du marché. Si les biens ou services offerts par une entreprise ne sont pas désirés, l’entreprise échouera, à moins qu’elle ne s’adapte à ce que le marché exige. Si elle fabrique un produit de bonne qualité à un prix attractif, elle s’en sortira bien et produiront davantage. Le marché est donc un processus de découverte dans lequel les capitalistes trouveront le bon chemin au fur et à mesure qu’ils avanceront. »

 

Thèse 3 : l’Occident est menacé par le socialisme moderne

La thèse la plus importante est celle-ci : l’Occident est menacé par le socialisme.

Milei répond à l’objection selon laquelle, aujourd’hui, comme pour le socialisme classique, la question n’est pas la nationalisation des moyens de production. Selon lui, le marché libre est de plus en plus étouffé par l’intervention gouvernementale, la réglementation excessive, la fiscalité et les politiques des banques centrales.

Les moyens de production ou les biens immobiliers relèvent théoriquement de la propriété privée, mais dans le réalité les propriétaires perdent de plus en plus le contrôle de leurs biens au profit de l’État.

Milei : « L’Occident a malheureusement déjà commencé à s’engager dans cette voie. Je sais que pour beaucoup, il peut sembler ridicule de suggérer que l’Occident s’est tourné vers le socialisme, mais ce n’est ridicule que si vous vous limitez à la définition économique traditionnelle du socialisme, qui dit qu’il s’agit d’un système économique où l’État possède les moyens de production. À mon avis, cette définition devrait être mise à jour à la lumière des circonstances actuelles. Aujourd’hui, les États n’ont pas besoin de contrôler directement les moyens de production pour contrôler tous les aspects de la vie des individus. Avec des outils tels que la planche à billets, la dette, les subventions, le contrôle des taux d’intérêt, le contrôle des prix et la réglementation pour corriger les soi-disant défaillances du marché, ils peuvent contrôler la vie et le destin de millions d’individus.

 

Thèse 4 : les entrepreneurs doivent commencer à se défendre

Le discours de Milei ne se borne pas à constater, il appelle aussi à l’engagement. Il cible en particulier les entrepreneurs, qui « se plient trop souvent à l’air du temps et aux puissants politiques », les enjoignant à ne plus se laisser intimider par les politiciens, à être « fiers » et à commencer « à se battre ».

« C’est pourquoi, en terminant, j’aimerais laisser un message à tous les hommes d’affaires ici présents et à ceux qui ne sont pas ici en personne, mais qui nous suivent du monde entier. Ne vous laissez intimider ni par la caste politique ni par les parasites qui vivent aux crochets de l’État. Ne capitulez pas devant une classe politique qui ne veut que rester au pouvoir et conserver ses privilèges. Vous êtes des bienfaiteurs sociaux, vous êtes des héros, vous êtes les créateurs de la période de prospérité la plus extraordinaire que nous ayons jamais connue. Que personne ne vous dise que votre ambition est immorale. Si vous gagnez de l’argent, c’est parce que vous offrez un meilleur produit à un meilleur prix, contribuant ainsi au bien-être général. »

Comment ce discours se traduira-t-il dans la réalité ? Milei réussira-t-il à mettre en œuvre la supériorité écrasante du capitalisme en Argentine ? Réponse dans les semaines et les mois qui viennent.

Industrie française : une récession est imminente – Entretien avec Charles-Henri Colombier (Rexecode)

Charles-Henri Colombier est directeur de la conjoncture du centre de Recherche pour l’Expansion de l’Économie et le Développement des Entreprises (Rexecode). Notre entretien balaye les grandes actualités macro-économiques de la rentrée 2024 : rivalités économiques entre la Chine et les États-Unis, impact réel des sanctions russes, signification de la chute du PMI manufacturier en France, divergences des politiques de la FED et de la BCE…

 

Écarts économiques Chine/États-Unis

Loup Viallet, rédacteur en chef de Contrepoints – Selon les statistiques du FMI, le PIB de la Chine ne représenterait aujourd’hui que 66 % du PIB des États-Unis, contre 76 % en 2021. Comment expliquez-vous ce décrochage ? Est-il symptomatique d’une tendance durable ?

Charles-Henri Colombier (Rexecode) – Depuis l’avant-covid fin 2019, le PIB chinois en volume et en monnaie nationale a augmenté de 18 %, tandis que le PIB américain a progressé de 7 %. En d’autres termes, la croissance chinoise n’a pas à rougir en comparaison de la croissance américaine, loin s’en faut.

L’explication du comparatif transpacifique des niveaux de PIB défavorable à la Chine depuis 2021 vient plutôt d’un effet de change, et plus spécifiquement de la dépréciation du yuan face au dollar. Le billet vert s’échange actuellement contre 7,10 yuans, quand il en valait seulement 6,35 fin 2021. Le taux de change dollar/yuan dépend pour une bonne part du différentiel de taux d’intérêt entre les deux pays, or la Fed a opéré une brutale remontée de ses taux, sans équivalent en Chine où l’inflation est restée très atone.

 

Sanctions russes : un effet boomerang ?

Y-a-t-il un effet boomerang des sanctions russes sur les économies européennes ? L’Europe est-elle en train de rentrer en récession à cause de l’embargo sur le gaz et le pétrole russe ?

L’interruption de l’approvisionnement énergétique de l’Europe depuis la Russie, concernant le pétrole mais surtout le gaz, a généré un choc d’offre négatif dont les effets ne se sont pas encore dissipés. En témoigne le fait que le prix de marché du gaz naturel coté à Rotterdam est toujours deux fois plus élevé qu’en 2019, tandis que la cotation Henry Hub aux États-Unis est à peu près inchangée.

Une énergie plus chère a trois types de conséquences principales : des pertes de pouvoir d’achat pour les ménages, un prélèvement sur les marges des entreprises, et un déficit de compétitivité prix préjudiciable à l’industrie notamment énergo-intensive. Les Etats-Unis et l’Asie n’ont pas eu à subir les mêmes chocs.

 

Comment la Russie contourne les sanctions commerciales

Les sanctions économiques n’ont pas mis fin à la guerre de la Russie en Ukraine. Pourquoi sont-elles aussi inefficaces ? Depuis 2022, les importations de pays proches géographiquement de la Russie (Azerbaïdjan, Géorgie, Kazakhstan, Kirghizistan, Turquie) ont explosé, et leurs exportations en Russie aussi. Doit-on y voir une stratégie de détournement des sanctions ? Quels pays européens (et quelles industries) participent à ce phénomène ?

L’inefficacité des sanctions occidentales contre la Russie tient d’abord au fait que certains pays tiers se sont substitués aux achats européens d’hydrocarbures russes. Au-delà des relations bien connues de la Chine avec la Russie, l’Inde absorbe désormais près de 40 % des exportations de pétrole russe, contre 5 % seulement en 2021. La manne des hydrocarbures, clé pour les finances publiques russes, a ainsi été préservée.

Par ailleurs, les mesures aboutissant à un retrait des entreprises occidentales de Russie ont parfois eu un effet de stimulation pour les entreprises russes, pouvant se saisir d’actifs bon marché et de nouvelles parts de marché domestiques. Enfin, il est vrai que certaines entreprises européennes contournent les sanctions, amenuisant leur efficacité. Certains pays comme la Turquie jouent un rôle de transit pour les flux commerciaux en question. Pour ne citer que quelques exemples, les exportations allemandes vers des pays comme le Kazakhstan, le Kirghizistan ou la Géorgie ont connu un décollage plus que suspect.

 

Industrie française : une récession est imminente

On constate une chute de l’indice PMI manufacturier en France. Que représente cette dégringolade pour l’économie française ?

L’indice PMI manufacturier mesure le climat des affaires à la lumière du sentiment exprimé par les directeurs d’achats. Le niveau de 42,1 qu’il a atteint en décembre (50 représente le seuil d’expansion) laisse peu de doute quant à l’existence d’une situation récessive pour l’industrie, en France mais aussi en Europe plus largement.

La dépense en biens des ménages avait déjà été décevante en 2023, celle des entreprises devrait désormais emboîter le pas en 2024, la hausse des taux d’intérêt et la contraction du crédit exerçant une pression croissante sur leur situation financière.

 

L’hypothèse d’un découplage économique avec la Chine

Les marchés américain et européen peuvent-ils se passer de la Chine ? Quelles seraient les conséquences d’une hypothétique rupture des relations commerciales entre la Chine et les marchés américain et européens ? Faut-il s’y préparer ?

Une rupture soudaine des relations économiques entre la Chine et l’Occident serait à n’en pas douter catastrophique pour les deux camps, tant les chaînes de valeur sont imbriquées. La Chine est devenue un fournisseur irremplaçable de nombreux intrants industriels, comme les problèmes d’approvisionnement apparus lors de la pandémie l’ont illustré.

Compte tenu des tensions entourant Taïwan, il faut se préparer à un tel scénario de rupture pour en minimiser l’impact. Mais il paraît illusoire d’imaginer que l’Europe puisse se passer de la Chine à court terme.

 

Les conséquences du statu quo de la BCE sur les taux directeurs

Contrairement à la FED, la BCE n’envisage pas de baisse des taux et affiche une ligne dure. Comment expliquez-vous cette divergence ? Quelles répercussions ces décisions auront-elles sur les échanges entre les économies de la zone euro et les États Unis ? Sur la croissance de leurs marchés respectifs ?

Le discours assez rigide de la BCE quant à l’éventualité d’une prochaine baisse des taux paraît surprenante au vu de la situation quasi-récessive de l’économie européenne. De récents travaux de la BCE montrent par ailleurs que l’essentiel de l’inflation observée ces dernières années est venu de facteurs liés à l’offre plutôt que d’un excès de demande qu’il faudrait briser.

Deux éléments permettent toutefois d’expliquer la prudence de la BCE.

Premièrement, le marché du travail européen, dont le degré de tension détermine en partie le dynamisme de l’inflation sous-jacente (l’évolution des prix hors composantes volatiles comme l’énergie), affiche toujours un niveau d’emplois vacants élevé malgré la faiblesse de l’activité. La disparition des gains de productivité du travail et le ralentissement démographique aboutissent au paradoxe que des difficultés de recrutement substantielles peuvent coexister avec une absence de croissance.

Deuxièmement, le contexte géopolitique reste très incertain. Les tensions récentes en mer Rouge ont déjà abouti à un doublement des taux de fret maritime sur les conteneurs, ce qui à terme pourrait souffler de nouveau sur les braises de l’inflation.

 

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Lyon-Turin : un projet ferroviaire titanesque, des opposants à couteaux tirés – Entretien avec le délégué général de la Transalpine

Stéphane Guggino est le délégué général du comité pour la Transalpine, association réunissant les défenseurs du projet de liaison ferroviaire Lyon-Turin. Aux premières loges d’un chantier qui bouleversera les relations commerciales entre la France et l’Italie et le quotidien de millions d’individus sur les deux versants des Alpes, il a accepté de répondre aux questions de Contrepoints.

 

« En France, nous sommes très en retard par rapport à l’Italie »

Loup Viallet, rédacteur en chef de Contrepoints – Le projet de ligne ferroviaire transalpine Lyon-Turin a été lancé il y a plus de 30 ans. Pourquoi n’a-t-il pas encore vu le jour ? Où en est-on de l’avancée des chantiers ? 

Stéphane Guggino, délégué général de la Transalpine – Ces retards ne sont pas propres au Lyon-Turin. À l’échelle européenne, la construction des grandes infrastructures de transport affichent en moyenne 15 ans de retard. Nous sommes un peu en dessous. Il faut réaliser que c’est un projet d’une grande complexité sur les plans technique d’abord, mais aussi juridique, financier, politique et diplomatique. La particularité du Lyon-Turin est d’être un projet binational. Les procédures juridiques et financières sont différentes entre les deux pays. Et puis au gré des alternances politiques des deux côtés des Alpes, des dissymétries se créent dans la dynamique globale du projet. Quand la France accélère, l’Italie ralentit, et inversement. Les priorités nationales peuvent évoluer épisodiquement.

À cette complexité s’ajoute le fait que l’Europe intervient massivement dans la mise en œuvre du projet, à travers notamment ses financements. Cela fait un étage de plus dans un processus décisionnel qui, dans chaque pays, va des plus hautes autorités de l’État jusqu’aux élus locaux, en passant par l’enchevêtrement peu lisible des administrations qui ont trop souvent une lecture franco-française du projet alors que c’est un programme éminemment européen.

Il y a quelques mois, un Conseil d’orientation a produit un rapport pour éclairer le gouvernement sur la programmation des investissements dans le domaine des transports. Aussi invraisemblable que cela puisse paraître, les analyses concernant le Lyon-Turin s’arrêtaient nette à la frontière franco-italienne, sans se soucier du projet différent développé par nos voisins de leur côté. Or, le Lyon-Turin est un programme conçu comme un ensemble composé de sections interdépendantes les unes des autres. Cela exige nécessairement une approche globale et cohérente.

Contrairement à l’époque des grands projets d’avenir structurants, certaines administrations d’État sont rétives aux grands investissements de long terme dans un contexte où l’on recherche des rentabilités rapides. Or, les projets ferroviaires sont très longs à mettre en œuvre et leur rentabilité socio-économique s’inscrit fatalement dans la durée.

Pour autant, il ne faut pas non plus noircir le tableau. Sur le terrain, les choses avancent, en particulier en ce qui concerne le tunnel de 57,5 km sous les Alpes en cours de creusement. Ce tunnel est la clé de voute du programme Lyon-Turin. Sa réalisation orchestrée par le maître d’ouvrage public TELT est désormais irréversible et la montée en puissance du chantier est spectaculaire. 100 % des contrats de génie civil ont été attribués. 22 % du projet global ont été réalisés. 34 km de galeries ont été creusées, dont 13 km du tunnel définitif. Plus de 2500 salariés sont déjà mobilisés sur le chantier en Savoie. Les sept tunneliers vont arriver progressivement à partir de 2024, et le rythme va sérieusement s’accélérer. L’ouvrage devrait être livré en 2032. Ce qui nous préoccupe davantage aujourd’hui, c’est l’aménagement des indispensables voies d’accès au tunnel. En France, nous sommes très en retard par rapport à l’Italie.

Forage du tunnel de la Transalpine. Crédits @ValentinCitton

« Le principal axe ferroviaire qui relie deux des plus grands pays d’Europe date du XIXe siècle »

Quel impact aura le lancement de la Transalpine sur les échanges économiques entre la France et l’Italie ?

Les enjeux économiques attendus dépassent la France et l’Italie pour s’inscrire dans une véritable vision européenne. C’est la raison pour laquelle l’Union européenne a fait depuis longtemps du Lyon-Turin une priorité stratégique. Avec ce grand programme structurant reliant la péninsule ibérique et l’Europe centrale, il s’agit de rééquilibrer l’économie de l’espace européen au profit de l’Europe du Sud. Le Lyon-Turin doit un peu jouer pour l’Europe du Sud le même rôle qu’a joué le tunnel sous la Manche pour l’Europe du Nord.

La France et l’Italie seront naturellement les premières concernées par ces retombées économiques. En 2022, la valeur des échanges entre les deux pays s’est élevée à 132 milliards d’euros. La France et l’Italie sont respectivement le second partenaire commercial de l’autre. Ils représentent près de 30 % des habitants et 30 % du PIB de l’UE. Or, le principal axe ferroviaire fret et voyageurs qui relie deux des plus grands pays d’Europe date du XIXe siècle.

Avec cette nouvelle liaison moderne, il s’agit donc de replacer cet axe au cœur de flux créateurs de valeurs. Pour les voyageurs, la réduction des temps de trajet favorisera les échanges culturels, universitaires, touristiques…

Ce qui est valable pour les voyageurs l’est encore plus pour les marchandises. Mais avec l’objectif impérieux de réconcilier l’économie et l’écologie. Aujourd’hui, la quasi-totalité des marchandises entre la France et l’Italie sont transportées par poids lourds. En proposant aux entreprises un mode de transport de masse décarboné, rapide et fiable sur un axe européen stratégique, l’enjeu est de faire évoluer la chaine logistique vers un modèle plus efficace et plus respectueux de l’environnement.

 

« Localement, les électorats de LFI et d’EELV sont majoritairement favorables à la Transalpine »

La Transalpine est régulièrement présentée comme un projet controversé, pourtant un sondage IFOP révélait l’année dernière une large adhésion des habitants des départements de la région Auvergne Rhône-Alpes concernés par le projet (81 % des sondés étaient favorables au projet). Comment expliquez-vous ce décalage ?

Oui, c’est assez curieux. Le Lyon-Turin est le fruit de trois traités internationaux ratifiés à chaque fois à une large majorité au Parlement. Depuis François Mitterrand, tous les présidents de la République, quelle que soit leur couleur politique, ont soutenu sans ambiguïté le projet. La quasi-unanimité de collectivités locales concernées par le projet le soutiennent également. Même écho du côté des syndicats de salariés et des organisations patronales.

Le sondage régional réalisé par l’IFOP pour la Transalpine en juin dernier est à cet égard assez illustrant. L’adhésion des populations au Lyon-Turin est non seulement très forte mais relativement homogène par tranche d’âge, par CSP et par sensibilité politique, y compris dans les électorats LFI et EELV qui sont les deux seuls partis à s’y opposer. Contrairement aux cadres de ces partis, leurs électorats sont favorables au projet à plus de 80 %. Sur ce sujet comme sur d’autres, ces résultats démontrent un net décalage entre les sympathisants et les élites partidaires.

Pour autant, aussi minoritaires qu’ils soient, les opposants au Lyon-Turin sont bruyants et attirent l’attention des médias qui reprennent en boucle l’idée du « projet contesté ». Aucun projet ne fait l’unanimité.

Manifestation des Soulèvements de la Terre contre le projet Lyon-Turin, juin 2023 Crédits : SG

« Depuis que les Insoumis sont entrés en force à l’Assemblée nationale en 2022, l’opposition au Lyon-Turin s’est nettement radicalisée »

Du côté français, un certain nombre d’associations et de mouvements radicaux (Attac, les Soulèvements de la Terre, Sud Rail, Non au Lyon Turin…) se mobilisent pour bloquer l’avancement de la transalpine. Quel impact ont leurs actions ? Celles-ci se sont-elles intensifiées récemment ? Sont-elles plus violentes en France ? En Italie ? Quels partis et personnalités politiques se font les relais de ces activistes ? 

Il faut bien comprendre que l’opposition au projet est née en Italie, au début des années 2010. Le Mouvement 5 Étoiles, créé par l’humoriste Beppe Grillo, en a fait un étendard et s’est fortement appuyé sur cette contestation locale pour progresser au niveau national. Dans une logique « antisystème », certains diraient populiste, cette opposition s’est cristallisée en partie sur les grands projets d’infrastructure. Par son ampleur, le Lyon-Turin était donc un bon sujet de mobilisation.

Dans les cortèges, ont trouvait des écologistes sincères, des public animés par le syndrome NIMBY et aussi beaucoup de mouvements de la gauche radicale, avec même certains éléments issus des Brigades rouges. Les premiers affrontements avec les forces de l’ordre sur le chantier ont été très violents. Mais au fil du temps, le mouvement s’est essoufflé. Aujourd’hui, ils sont beaucoup moins nombreux, mais ils se sont radicalisés. Régulièrement, des petits groupes encagoulés attaquent le chantier, protégé en permanence par des policiers et l’armée, avec des pierres et des feux d’artifice.

Les activistes recrutent principalement dans les milieux anarchistes de Turin et de Milan en jouant de la rhétorique de l’intersectionnalité des luttes. Il y a quelques semaines, un rassemblement près du chantier a vu débarquer des éco-féministes, des activistes LGBT et des militants de la cause palestinienne dont on peine à comprendre le lien avec le Lyon-Turin.

En France, l’opposition a commencé à éclore au début des années 2010 mais de manière plus pacifique et confidentielle. Face à la mobilisation des Italiens, les écologistes n’ont pas voulu être en reste. Après avoir soutenu et porté le projet pendant plus de 20 ans, les écologistes ont fait un virage à 180 degrés en 2012. Du jour au lendemain, le Lyon-Turin est passé du statut de projet essentiel à celui de projet dévastateur de l’environnement. Les théoriciens de cette opposition se comptaient pourtant sur les doigts d’une main. Mais ils sont petit à petit parvenus à essaimer leurs arguments dans les réseaux écologistes et de la gauche radicale.

Ce virage a été initié localement par une nouvelle génération de cadres écologistes annonciateurs des mouvements d’activistes plus radicaux que l’on connaît aujourd’hui. En juin dernier, il y a eu une manifestation des Soulèvements de la Terre. De l’aveu même des organisateurs, ils ne connaissaient pas le dossier. Mais au même titre que le nucléaire, l’aéroport de Notre-Dame-des-Landes ou plus récemment les bassines de Sainte-Soline, le Lyon-Turin est devenu un totem qui mobilise une base d’activistes radicaux. Avant le départ du cortège des Soulèvement de la Terre, les participants ont scandé « Nous sommes tous antifascistes ». Là encore, difficile de comprendre le lien avec le Lyon-Turin. Toujours est-il que cette manifestation, émaillée de violences, était officiellement soutenue par les élus Verts de la région dont beaucoup étaient présents sur place aux côtés de la France Insoumise. Depuis que les Insoumis sont entrés en force à l’Assemblée nationale en 2022, l’opposition sur le Lyon-Turin s’est nettement radicalisée. Jean-Luc Mélenchon lui-même évoque régulièrement le sujet dans ses meetings et interviews.

Certains activistes locaux cherchent à importer en France les éléments radicaux italiens, pour l’instant en vain. Cet été, pour la première fois, deux engins de chantier ont été incendiés. Mais pour l’heure, l’opposition en France reste marginale et non violente, même si on observe des signes de structuration.

Manifestation des activistes italiens de No Tav contre le projet Lyon-Turin, juin 2023 Crédits : SG

 

 

« Ces 15 dernières années, trois grands tunnels alpins identiques au Lyon-Turin ont été inaugurés en Suisse »

Dans un reportage publié en avril 2023, le think tank « citoyen » Mr Mondialisation qualifiait la transalpine de « TGV écocidaire » et d’« aberration écologique et sociale ». Il se trouve qu’en novembre dernier le crime d’écocide a été ajouté à la liste des infractions pénales de l’UE. Les travaux liés aux forages des tunnels sont-ils réellement assimilables à un crime contre l’environnement, à la destruction complète d’un écosystème ? 

Il faut être clair, un chantier de cette envergure a forcément des impacts sur l’environnement. Mais il faut évidemment en mesurer les bénéfices sur le long terme. De ce point de vue, toutes les études démontrent que l’équilibre coûts-bénéfices sera positif. Les effets sur la nature et sur la biodiversité sont très surveillés et relativement limités, puisqu’il s’agit de construire un tunnel sous la montagne. Les Suisses, qu’on peut difficilement accuser de mépriser l’environnement, ont inauguré ces 15 dernières années trois grands tunnels alpins identiques au Lyon-Turin. Leurs performances en matière de report modal de la route vers le rail sont exceptionnelles. Les écolos suisses y étaient au départ opposés, mais aujourd’hui ils en sont très fiers.

En vérité, le discours écologiste des opposants semble n’arriver qu’au second rang. Pendant la manifestation des Soulèvement de la Terre, la plupart des participants interrogés par les médias étaient incapables d’avoir une argumentation structurée au-delà de quelques poncifs. Le vrai sujet semble être politique. C’est celui de la décroissance et de la lutte contre le capitalisme. Une myriade de mouvements plus ou moins importants s’agrègent autour de cette vision du monde : Sud Rail, Les Amis de la Terre, Extinction Rébellion, Attac… Pour eux, le Lyon-Turin va favoriser les échanges commerciaux en Europe. Et il est trop tard pour attendre les bénéfices du Lyon-Turin qui arriveront dans plusieurs années, bien après le grand effondrement qu’ils prédisent à court terme. Les termes les plus anxiogènes de la novlangue des activistes du climat sont abondamment utilisés. Par exemple, on ne parle plus de « sabotage » mais de « désarmement » des chantiers.

Il est normal que cette opposition s’exprime en démocratie. Ce qui est plus contestable, c’est de désinformer l’opinion en niant l’expertise des scientifiques et de tous les professionnels du rail qui sont unanimes sur l’utilité du Lyon-Turin. D’ailleurs, il est frappant de constater que les opposants ne comptent dans leurs rangs aucun expert du sujet. Leur dernière trouvaille consternante est d’affirmer que le tunnel du Lyon-Turin va « vider l’eau des Alpes qui tombe dans le trou qu’on creuse ».

Ce qui est encore plus inquiétant, c’est la perméabilité grandissante de ces mouvements à des discours radicaux comme celui du sociologue suédois Andreas Malm, devenu une véritable référence dans ces milieux. Selon lui, les manifestations pacifiques ont montré leur inefficacité. L’urgence climatique légitime donc les actes de désobéissance civile, voire de violence et de sabotages. Entendre des élus de la République valoriser ce type de discours, par ailleurs rejeté par une immense majorité de l’opinion, est quand même très inquiétant.

 

« 92 % des marchandises échangées entre la France et l’Italie transitent par la route et 8 % par le rail »

Le rail est le mode de transport dont l’empreinte carbone est la plus légère. Il ne contribue qu’à 1,2 % des émissions de gaz à effet de serre du secteur des transports au niveau mondial, alors que le transport routier représente trois quarts des émissions de GES. Selon l’Agence International de l’Énergie « Doubler le transport ferroviaire équivaudrait à supprimer 20 000 poids lourds sur le réseau routier, pour une économie de 450 000 tonnes de CO2 chaque année. ». Combien de tonnes de CO2 pourraient être économisées par la Transalpine, dès la première année de sa mise en service ? 

Le train est non seulement le mode de transport terrestre le moins émetteur de gaz à effet de serre (neuf fois moins que le transport routier), mais il est aussi celui qui génère le moins de pollution aux particules fines. Il est en outre le moyen de transport le plus sobre en énergie, ce qui sera l’une des grandes problématiques des années à venir.

Le Lyon-Turin est une ligne mixte. Il transportera des passagers, mais 80 % de la ligne sera dédiée au fret ferroviaire. 47 millions de tonnes de marchandises franchissent chaque année la frontière entre la France et l’Italie. Seulement 8 % sont transportés par le rail sur une ligne obsolète héritée de Napoléon III, et 92 % par la route.

Cela représente trois millions de poids lourds par an, la moitié par les Alpes du nord et l’autre moitié par la côte méditerranéenne. Avec de bonnes mesures d’accompagnement, l’objectif est de basculer dans un premier temps un million de camions sur le rail et d’éviter le rejet de plus d’un million de tonnes de CO2 par an. Le bénéfice en CO2 devrait être atteint environ 15 ans après la mise en service de la ligne. Cela peut paraître long, mais à l’échelle d’une infrastructure dont l’utilisation sera de plus d’un siècle, c’est avant tout une manière de préparer l’avenir.

 

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Javier Milei : pas si fou « El Loco »

Peste et famine vont sévir, le délire ultralibéral anéantir les acquis sociaux, et les sauterelles ravager les cultures. C’est, à peine caricaturé, la réaction de la plus grande partie de la presse française (notamment Ouest France, FranceTVinfo, France24, LaTribune, Alternatives économiques…) à l’arrivée au pouvoir, le 10 décembre, en Argentine de Javier Milei, élu sur un programme libertarien, c’est-à-dire de réduction drastique du rôle de l’État sur les plans économique et sociétal.

Le récit dominant en France serait que l’économie argentine, déjà engluée dans une profonde crise caractérisée par une corruption endémique et une inflation de 160 %, la plus élevée au monde actuellement, allait être définitivement mise à terre par cette expérience ultralibérale absurde tentée par « el loco » (le fou, surnom de Javier Milei) dont on se demande bien par quel aveuglement 55 % d’Argentins ont voté pour lui.

 

L’annonce d’un désastre peut-être un peu prématurée

Les médias racontent, avec quasi-jubilation, que des « manifestations monstres » se déroulent aux quatre coins du pays contre l’appauvrissement déjà perceptible et la « casse sociale ». Et, selon eux, des électeurs de Javier Milei regretteraient déjà leur choix. En fait, les manifestations monstres se résument pour l’instant à trois cortèges en dix jours d’une dizaine de milliers de personnes dans Buenos Aires, où le syndicat CGT a appelé à une grève générale le 24 janvier qui constituera un test crucial.

Quant à la casse sociale, elle peut difficilement faire encore sentir ses effets pour la bonne raison que la première vague de décisions économiques du nouveau président n’est pas encore vraiment entrée en vigueur, à l’image des privatisations d’ampleur, qui prendront des mois, ou la réduction de la durée d’indemnisation du chômage, actuellement de 9 à 12 mois, pour la ramener aux normes habituelles dans cette partie du monde (une horreur évidemment vue de Paris où, de 18 à 28 mois, elle est la plus longue de la planète, avec le Danemark et l’Espagne). En gros, la presse française se fait l’écho d’une souffrance qui n’est pas encore perceptible. Bien que douleur il y aura, effectivement, comme l’a d’ailleurs admis Javier Milei en évoquant six premiers mois difficiles.

Les seules mesures en passe d’être ressenties sont la baisse des subventions à la consommation de produits de première nécessité à partir du 1er janvier, subventions truffées – l’expérience le montre partout dans le monde – , d’effets pervers sur l’offre des biens et services concernés. Ces mesures, sont en outre, très coûteuses pour l’État. Ainsi que la suppression de 300 normes et règlement, dont la plus emblématique est l’encadrement des loyers. Cette dernière suppression a été particulièrement clouée au pilori par une presse française qui ne semble pas envisager que des prix administrés suscitent généralement des pénuries. D’un effet immédiat, via le renchérissement des produits importés, a aussi été la dévaluation de 50 % du peso, dont le cours, à vrai dire, était insoutenable à moyen terme.

 

Vous reprendrez bien un petit peu de banqueroute ?

À l’inverse, visiblement, d’une bonne partie de la presse française, les Argentins ont compris dans leur majorité qu’il ne fallait plus foncer dans le mur en klaxonnant et que les demi-mesures hésitantes, un pas en avant, deux en arrière, ne suffiraient pas.

Il faut savoir, en effet, ce qui peut paraître inconcevable à des cercles parisiens médiatiques, universitaires ou politiques biberonnés à l’étatisme comme horizon indépassable du genre humain et convaincus que l’argent public serait infini et gratuit, que l’État argentin était acculé. C’était d’ailleurs la raison principale du vote des Argentins en faveur d’une politique moins dépensière (en sus de leur colère contre l’inflation et la corruption, contrepartie quasi automatique d’un État très interventionniste). Les dépenses publiques sont équivalentes en Argentine à 41 % du revenu national, ce qui, vu de France où elles frôlent 65 % du PIB, record du monde, peut paraître petit bras, mais est très élevé pour un pays à revenu intermédiaire. La dette argentine, « seulement » 73 % du PIB mais là aussi c’est beaucoup pour un pays émergent, était notée CCC par les agences de notation, dernier cran avant le constat d’un défaut de paiement.

Les Argentins ont payé pour en voir les effets, avec celui survenu il y a exactement vingt-deux ans.

À l’intention des Français qui ont perdu l’expérience de la banqueroute depuis 1794 et dont certains, à la culture économique disons… perfectible, tonnent parfois « eh bien on ne remboursera pas et puis voilà », un défaut de paiement, cela a une conséquence simple : du jour au lendemain les prêteurs, qui savent qu’ils ne reverront plus jamais une bonne partie de leurs créances, ne vous prêtent plus. Cela implique donc que si l’État empruntait 35 chaque fois qu’il dépensait 100, ce qui est, exemple pris totalement au hasard, actuellement le cas en France, il doit, soit ramener ses dépenses à 65, et pas à moyen terme, non, en quelques jours, c’est-à-dire soit diminuer d’un tiers les salaires ou les effectifs des fonctionnaires, soit augmenter ses recettes de 50 %, pour qu’elles passent de 65 à 100. C’est-à-dire doubler le barème de l’impôt sur à peu près tout, puisqu’une grande partie de l’assiette fiscale s’effondrera par fuite à l’étranger, dissimulation et activité au noir. Une TVA qui monte à 40 % et un impôt sur le revenu équivalent à quatre mois de salaire pour les classes moyennes, alléchant, non ?

 

Le péronisme, passeport pour un naufrage

Un petit rappel : corporatisme, clientélisme, nationalisme, interventionnisme tous azimuts de l’État sont les ingrédients principaux de la doctrine péroniste appliquée la plupart du temps depuis l’arrivée au pouvoir du général Juan Péron en 1946, et grâce à laquelle le pays, jadis parmi les plus riches du monde, s’est terriblement appauvri (depuis dix ans le taux d’Argentins vivant sous le seuil de pauvreté absolu ne tombe pas sous la barre de 40 %), a été frappé par des vagues d’hyperinflation et des épisodes de dictature militaire.

On compte juste deux courtes parenthèses libérales, mal menées, dont une pilotée par un Carlos Menem… se réclamant aussi de Péron. En 78 ans, on peut compter seulement une quinzaine d’années, avec le parti de centre gauche UCR (au demeurant avec une forte instabilité institutionnelle et aux relations ambiguës avec les Péronistes), où cette doctrine, incarnée en divers courants, révolutionnaire, orthodoxe, justicialiste, fédéral, n’inspirait pas les pouvoirs publics. On comprend mieux le désastre.

Comme le montre l’échec du président argentin, mouture libérale classique, Mauricio Macri (2015-2019), l’art du libéralisme est délicat et tout d’exécution. Attention à ne pas mourir guéri, suivant la formule bien connue. Même un libéral peut aussi objecter au projet de Javier Milei de supprimer la banque centrale, s’interroger sur sa capacité à faire passer les lois nécessaires au Congrès, où son parti est très minoritaire, et répugner à sa personnalité emportée et colérique, ainsi que ses propos indulgents envers les dictatures militaires, son opposition à l’avortement, curieuse pour un libéral, et son appui aux… ventes d’organes. Quant à sa demande d’avoir les pleins pouvoirs économiques pour un mois, elle peut paraître discutable, et on peut légitimement ne pas être convaincu par sa réforme du divorce, ou du droit de manifester (en revanche, le voir arracher les affichettes représentant les bureaucraties inutiles en criant « afuera », ou brandir une tronçonneuse pour symboliser ce qu’il compte faire aux dépenses pas indispensables n’est pas déplaisant).

Mais son véritable crime, aux yeux de la presse française, n’est pas là, plutôt d’être ultra-libéral, de la variété qui dévore les nourrissons à la pleine lune, c’est-à-dire de vouloir réduire le poids de l’Etat dans l’économie. Pour mieux le discréditer il est d’ailleurs classé systématiquement à l’extrême droite, alors que l’extrême droite est, par construction, antagoniste du libéralisme, a fortiori ultra : ce dernier mise massivement sur les individus autonomes, tandis que l’extrême droite considère ces derniers comme des pions au service d’un projet national.

Cette critique frénétique émise par la presse française sans tenir compte du contexte argentin illustre la prééminence du dogme social-étatiste. Cela rappelle un peu la détestation à la limite de la névrose envers, jadis, Margaret Thatcher en oubliant qu’elle avait récupéré un pays sur le point de passer sous la tutelle du Fonds monétaire international.

La plupart des commentateurs pourront continuer à hurler au grand méchant loup ultra-méga libéral sans d’autres risques qu’une immense déconvenue si jamais Javier Milei et son équipe réussissent. La France n’est, elle, pas menacée par la banqueroute, puisque notre système paternaliste que le monde entier nous envie mais se garde bien, curieusement, d’imiter (où s’ajoutent même régulièrement des subventions pour rapiéçages de chaussettes) est financé par des emprunts imperturbables. Avec une brillante série de cinquante déficits annuels consécutifs, sans équivalent historique nulle part au monde. Tout va donc très bien, Madame la marquise.

Bien sûr…

 

Le vrai niveau de nos dépenses sociales

La DREES a publié le 14 décembre dernier une étude qui révèle, que pour la septième année consécutive, la France est championne européenne des dépenses sociales. Celles-ci représentent 32,2 % du PIB, alors que la moyenne des pays de l’OCDE se situe à 21 %.

Mais, dans le même temps, le taux de pauvreté augmente dans notre pays : entre 2004 et 2021 le nombre de pauvres (seuil à 50 % du niveau médian) est passé de 4,2 à 5,2 millions de personnes. Pourquoi nos dépenses sociales sont-elles aussi élevées ? Comment continuer à les financer ?

En janvier 2020, Jean-Michel Blanquer, ministre de l’Éducation nationale, avait déclaré sur France 2 : « La France, à elle toute seule, représente 15 % des dépenses sociales dans le monde, alors qu’elle constitue 1 % de la population mondiale ». Les dépenses sociales seraient totalement démesurées, et ont atteint un tel niveau que le redressement des comptes sociaux est un souci permanent pour les pouvoirs publics.

Leur tâche est ardue : le journal Le Figaro du 13 décembre dernier titrait : « La dette de la sécu, prochain dossier explosif de l’exécutif ». Il faut donc examiner les chiffres avec raison, et procéder à des comparaisons avec l’étranger qui aient du sens. Nous en sommes, pour la dernière année connue, à 850 milliards d’euros, avec la ventilation  suivante :

Dépenses sociales, en 2022, en milliards d’euros

Pour financer ces dépenses, quatre types d’organismes interviennent :

  1. La Sécurité sociale publique
  2. Les régimes complémentaires
  3. L’UNEDIC
  4. L’aide sociale (État et départements)

 

La Sécurité sociale est au centre du dispositif. À elle seule, elle a en charge environ 80 % des dépenses sociales du pays. Cette année, le déficit de ses comptes s’élèvera à plus de 8,8 milliards d’euros, et on estime qu’il ne pourra qu’aller en s’aggravant : les experts évoquent probablement la somme de 17,5 milliards en 2027.

 

Le vrai niveau de nos dépenses sociales

Les organismes officiels expriment toujours les dépenses sociales des pays en pourcentage de leur PIB. Cette manière de procéder est relativement trompeuse, car se référer au PIB pour mesurer les dépenses sociales, c’est mesurer l’effort que consentent les pouvoirs publics pour faciliter la vie de leur population, faire « du social », et corriger les inégalités. En ce domaine, la France est le pays qui effectivement fait le plus de sacrifices. Son indice de Gini est d’ailleurs excellent.

Pour procéder à des comparaisons internationales correctes, il convient d’examiner les dépenses sociales calculées par habitant au regard du PIB/capita des pays (en dollars) :

Dépenses sociales/habitant et PIB/capita (Source : OCDE et PIB de la BIRD)

Ces chiffres montrent que les dépenses sociales françaises n’ont rien d’anormal : des pays moins riches ont des dépenses sociales par habitant beaucoup plus faibles ; et des pays beaucoup plus riches ont des dépenses bien plus élevées.

Les dépenses sociales françaises par habitant sont celles de pays aux PIB/capita 40 % à 50 % supérieurs au nôtre. En soi, elles ne sont pas anormales, c’est le PIB français qui est en cause, il est très en retard. Nos dépenses sociales ont augmenté au même rythme que dans les autres pays, sous la pression notamment des syndicats. Depuis de nombreuses années, l’économie française est en effet très poussive.

Référons-nous à une étude de la Division des statistiques des Nations Unies qui a examiné la façon dont les économies des pays ont évolué sur une longue période. L’étude a porté sur la période 1980-2017. Ci-dessous, les résultats pour quelques pays européens, en prolongeant les données de l’ONU jusqu’à la période actuelle, et en ajoutant le cas d’Israël, qui est exemplaire :

PIB/tête en dollars courants (Source : ONU, Statistics Division)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Sur toute cette période, les performances économiques de la France ont été déplorables.

Le PIB/capita aurait du être multiplié par au moins 4,2, ce qui aurait placé les dépenses sociales à 23,6% du PIB, soit à peine au-dessus de la moyenne OCDE qui se situe à 21 %.

Ces mauvaises performances économiques proviennent de l’effondrement du secteur industriel. En effet, nos dirigeants ont mal interprété la loi des trois secteurs de l’économie de Jean Fourastié dont le livre Le grand espoir du XXe siècle, avait connu à l’époque un succès considérable. Ils en ont conclu qu’un pays moderne donne la priorité aux activités tertiaires. Ils ont donc laissé se dégrader et se réduire le secteur industriel, voyant dans cet amenuisement le signe de la modernisation du pays.

C’est ainsi qu’aujourd’hui, notre secteur industriel ne représente plus que 10 % du PIB, alors que celui de l’Allemagne ou de la Suisse sont à 23 % ou 24 %. La France est devenue le pays le plus désindustrialisé d’Europe, Grèce mise à part. La crise de la Covid-19 a permis la prise de conscience de la très grave désindustrialisation du pays. Il était temps. De toute part, il est à présent question de cette urgente nécessité.

 

De combien nos dépenses sociales sont-elles en excès ?

Une approche économétrique simple permet d’évaluer de combien les dépenses sociales sont en excès : elle consiste à se référer aux PIB /capita des pays que l’on prendrait comme variable explicative.

L’équation de la droite de corrélation indique que pour le PIB/capita qui est le nôtre aujourd’hui, les dépenses sociales par habitant devraient se limiter à 9976 dollars, alors que nous en sommes à 12 555 dollars, ce que permet, normalement, un PIB/capita de 40 963 dollars. L’excès de dépenses sociales françaises se chiffre donc à 175 milliards de dollars (soit 160 milliards d’euros). On en serait, alors, à un taux de 23,5 % de dépenses sociales par rapport au PIB, un taux tout à fait normal.

La Cour des comptes ne procède pas de cette manière. Elle semble ignorer les approches économétriques qui sont, pourtant, les plus valables pour effectuer des comparaisons internationales. Elle procède plutôt à partir de scénarios. Dans son rapport de juillet 2023 sur les dépenses publiques, elle énonce :

« Une action puissante sur les dépenses publiques est nécessaire […] ll faut trouver chaque année 12 milliards d’économies, soit un cumulé, d’ici à 2027, de 60 milliards ». Elle s’inquiète de ce que les pouvoirs publics paraissent incapables d’y parvenir.

Dans une note du 4 juillet 2023 l’iFRAP s’interroge : « Où sont les économies ? On aurait aimé que la Cour des comptes livre une liste concrète de pistes d’économies pour documenter les 60 milliards qu’elle identifie d’ici à 2027 ».

Nous en sommes donc à espérer une économie de 60 milliards d’euros sur l’ensemble des comptes publics pour les cinq prochaines années, en craignant que l’objectif soit inatteignable. Pour les seules  dépenses sociales, il faudrait rechercher 160 milliards d’euros d’économies !

En matière d’économies à faire sur l’ensemble des comptes publics de la Nation, les préconisations de la Cour des comptes sont totalement hors de proportion avec ce qu’il conviendrait de faire. Mais déjà craint-elle que ce soit trop en demander à l’exécutif.

La France est très loin de pouvoir ramener ses dépenses sociales à un niveau aligné sur celui des autres pays européens, elle n’en prend guère le chemin. Certes, ces dépenses sont extrêmement difficiles à comprimer, les réactions du public étant immédiates et violentes. Les pouvoirs publics ont en mémoire l’épisode des Gilets jaunes. Il faudra donc attendre que le PIB du pays progresse très fortement et bien plus rapidement que celui de nos voisins, un rêve utopique.

Sans doute, pour le moins, faudrait-il commencer par s’attaquer sérieusement aux fraudes sociales que le député Olivier Marleix, président des députés LR à l’Assemblée nationale, chiffre à 30 milliards d’euros. Ce serait la moindre des choses ! Ne rien faire, c’est laisser le pays continuer à s’endetter un peu plus chaque année. Les grandes agences de notation, qui dans leur dernière revue n’ont pas voulu faire reculer la France d’un cran, ont trop cédé aux propos lénifiants de Bruno Le Maire.

Pour Patrick Artus, conseiller économique chez Natixis, la France a une bonne technique de gestion de la dette. Mais celle-ci est sans cesse en progression.

Économie russe : le discours du Kremlin fracassé par les réalités financières

À écouter les propos du maître du Kremlin, la situation économique russe en 2023 est pratiquement meilleure qu’en 2021. Les sanctions internationales décidées par les pays occidentaux afin de faire payer à la Russie son invasion de l’Ukraine seraient sans effet. L’alliance stratégique avec Pékin et le partenariat indien permettraient de faire face à la chute des exportations énergétiques vers l’Europe. Mais au-delà des mots, des idées, et des incantations, quelles sont les réalités chiffrées de l’économie russe ?

Dans la guerre idéologique que la Russie a décidé de mener contre les démocraties occidentales toutes les armes sont utilisables, et parmi celles-ci, la communication d’influence. Le BA-BA de celle-ci est de diffuser, à l’intention de l’adversaire, que les armes qu’il emploie sont inefficaces. Telle est la stratégie rhétorique mise en place par le Kremlin vis-à-vis des sanctions économiques.

Un discours très structuré a été mis en place. Il s’articule autour du contournement global des sanctions économiques. Il comporte deux volets, l’un concerne les débouchés du secteur énergétique, et l’autre les nouveaux canaux d’approvisionnements.

 

Les infrastructures de transport sont malheureusement fixes

La Chine, présentée comme l’allié stratégique privilégié, serait ainsi devenue le nouveau débouché du gaz et du pétrole russes. Mais dans le domaine industriel et des infrastructures, il n’y a rien de magique. Tant pour le gaz que le pétrole, il est nécessaire de disposer de gazoduc et de pipeline. Certains sont certes connectés aux infrastructures chinoises, mais la plus grande partie des réseaux russes est dirigée vers l’Europe. Il faudra du temps, et beaucoup d’argent pour construire l’équivalent vers l’Asie. Étant donné les milliers de kilomètres à mettre en place, aucun projet ne peut être concrétisé en 12 mois. Les importations énergétiques vers la Chine terrestre et maritime n’ont pu remplacer l’immense marché européen. Il en est naturellement de même pour le partenaire indien.

Les exportations vers la Chine et l’Inde n’ont pu que partiellement remplacer les volumes de gaz et de pétrole vendus sur le marché européen. De plus, les pays occidentaux ont établi un prix maximum, 60 dollars, au-delà duquel les courtiers maritimes ne peuvent assurer les cargaisons de pétrole russe. L’addition des contraintes logistiques de transport et la limitation de valeur pour le transport maritime ont conduit les recettes énergétiques russes à la baisse. Le chiffre de 30 % a été avancé pour les premiers mois de 2023 par l’Agence Internationale pour l’Énergie.

À cela s’ajoute l’effet prix du baril. Ce dernier a en effet varié entre 80 dollars et 120 dollars en 2022, mais ce prix s’est situé entre 70 dollars et 95 dollars sur la totalité de l’année 2023, créant, pour un même volume vendu, moins de recettes.

Ce paramétrage de valeur est important, et conduit à considérer l’évolution de la valeur du rouble.

 

La dépréciation monétaire

En décidant, habilement, d’exiger le paiement de ses exportations énergétiques en roubles, le pouvoir russe a créé un apport de demande de sa monnaie en 2022 provoquant mécaniquement une revalorisation de cette dernière. En 2022, le rouble est ainsi passé de 0,8 centime à 1,6 centime. Mais la situation 2023 s’est déroulée selon un cycle inversé avec une baisse significative de la monnaie russe par rapport à l’euro, puisque le rouble est revenu à un centime (100 roubles pour un euro comme l’illustre le graphique ci-dessous) soit une baisse de 27 % sur un an…

Source et graphique : Strategic Conseils

(Source et graphique : Strategic Conseils)

Cet affaiblissement significatif de la monnaie a naturellement conduit à un renchérissement, de même pourcentage, des importations. La conséquence a été une accélération de l’augmentation des prix de tous les produits importés, donc une inflation importée accompagnée d’une inflation domestique liée à la baisse de main-d’œuvre dans les productions civiles, liée aux besoins d’effectifs de l’armée.

Le gouvernement et la Banque centrale ont donc décidé l’instauration d’une politique de lutte contre l’inflation.

 

L’envolée du taux de la Banque centrale

Dans le cadre d’une politique monétaire très classique (déjà utilisée lors de précédentes crises du rouble) la présidente de la Banque centrale russe, Elvira Nabioulina, a décidé de procéder au doublement du taux directeur, en six mois, en le faisant passer de 7,5 % à 16 %… !

Le graphique ci-dessous (ligne bleue) décrit cette accélération, dans la deuxième partie de l’année, en comparaison avec le niveau et la faible évolution en 2023 du taux directeur de la Banque centrale européenne.

Cette envolée du taux d’intérêt de la Banque centrale russe à 16 % signifie que le taux d’inflation réel est en fait beaucoup plus élevé que le taux de 7 % annoncé par les autorités. La rationalité de la politique monétaire d’une banque centrale consiste à placer son taux directeur autour du niveau du taux d’inflation qu’elle a décidé de combattre. Telles furent les politiques de la BCE, de la FED et de la Banque d’Angleterre…

Le taux d’inflation réel russe se situe donc au-delà des 10 % au cours de l’année 2023.

Cette hausse importante du taux directeur a également pour objectif de soutenir le taux de change du rouble, en tentant par une rémunération élevée, de ralentir la sortie de capitaux. La chute de plus de 25 % de la valeur du rouble en 2023 est le moteur de la hausse des prix de toutes les importations… et donc de l’inflation…

Mais ce niveau de taux directeur provoque également un ralentissement de l’économie en réduisant drastiquement les capacités d’investissement des ménages et des entreprises. Cette considération sur l’économie globale conduit à regarder l’évolution de la Bourse de Moscou depuis le début de la guerre en Ukraine.

 

Une baisse structurelle de la Bourse moscovite

En synthétisant les évolutions des cours de 50 entreprises, l’indice de référence RTS est comparable à notre indice CAC 40. La comparaison avec Paris et New York est riche d’enseignement. Tout d’abord on constate que la Bourse de Moscou a commencé à « dévisser » 5 mois avant le début de l’invasion de l’Ukraine. Les cercles économiques des grandes entreprises proches du pouvoir savaient. Le déclenchement de la guerre a fait baisser l’indice RTS de 60 % ; il s’est maintenu, en moyenne sur l’année 2023 à – 45 % de sa valeur d’octobre 2021. Par rapport aux bourses occidentales, Moscou fait donc face à une dévalorisation substantielle de ses grandes entreprises, information jamais communiquée ni commentée.

En contrepartie, cette baisse drastique de valorisation impacte la capacité de ces grandes entreprises à emprunter, puisque la baisse de leur valorisation augmente symétriquement leur ratio d’endettement.

 

L’inflation liée à l’envolée des prix de l’énergie s’est stabilisée et a commencé à ralentir. Les bourses occidentales sont donc haussières au cours de l’année 2023, avec une accélération en fin d’année liée à la perspective d’un début de baisse des taux des banques centrales dans les prochains mois.

Rien de tel en Russie, l’indice RTS (ligne bleue) reste bas et plat.

Les entreprises russes anticipent donc une année 2024 morose, en reflet de la baisse des prix mondiaux du pétrole et du gaz.

 

Des perspectives peu engageantes

La Russie reste prisonnière de la primauté accordée à ses matières premières, au détriment de la création de filières de valeur ajoutée. La décision récente de TotalEnergies, et des co-investisseurs Chinois et Japonais de suspendre leurs participations au projet gazier Artic LNG-2 indique que l’augmentation des ressources énergétiques russes n’est pas à l’ordre du jour. Il n’y a donc pas d’amélioration à prévoir dans ce domaine tant que durera la guerre en Ukraine.

Les sanctions économiques continuent de s’accumuler à l’image de celles de l’Union européenne sur l’arrêt des achats de diamants russes à partir du 1er janvier 2024.

À ces éléments extérieurs s’ajoute le paramètre intérieur des restrictions significatives de main-d’œuvre spécifiquement liées à la guerre en Ukraine. Plus de 300 000 Russes en pleine capacité de travail y ont été tués ou blessés. Des centaines de milliers d’autres, dans des professions de service, principalement informatique, ont quitté le pays et se sont réfugiés au Kazakhstan, en Turquie, en Géorgie, à Dubaï. Les immigrés originaires des pays d’Asie préfèrent partir pour ne pas être enrôlés de force dans l’armée russe. Autant de compétences et de valeur ajoutée qui vont continuer à faire défaut à l’économie russe en 2024.

Le pouvoir peut se targuer d’une augmentation du PIB de 5 % au troisième trimestre 2023, avec une monnaie qui a perdu plus de 25 % de sa valeur dans l’année…

Il y a le discours, destiné à donner la meilleure image économique possible à la population russe, afin de soutenir son moral. Il est aussi arme de communication à l’usage des « ennemis de la Russie ». Mais ces ennemis-là sont moins soumis à la propagande incessante du Kremlin, et sont capables d’identifier les données économiques réelles auxquelles est confronté le Kremlin.

Si la guerre perdure, le déclin économique se poursuivra aussi.

Notre stratégie de croissance pour 2024

Notre modèle était en crise. Il ne l’est plus. Contrepoints revient avec une nouvelle organisation et de nouveaux objectifs, adaptés à ses moyens.

Notre journal n’est pas adossé à un grand groupe et ne reçoit aucune aide publique. Il fonctionne uniquement grâce au soutien de ses lecteurs. Pour garantir sa gratuité, sa régularité et la qualité de ses publications, j’ai proposé au bureau de l’association Libéraux.org, qui détient Contrepoints, de procéder à un ajustement des dépenses et à une cure d’austérité éditoriale.

 

Un article original par jour, tous les jours

Désormais, Contrepoints publiera un article original par jour, chaque jour. C’est le prix à payer pour vous présenter quotidiennement une production exigeante et de qualité (entretiens exclusif, enquêtes, réflexions, analyses) en accès libre. Cette nouvelle formule nous permet de relever nos standards éditoriaux et de valoriser les plumes qui s’expriment dans nos colonnes.

 

L’idéologie de la décroissance et les propagandes d’État néo-impérialistes sont dans le viseur de Contrepoints

En 2023, les idéologues de la décroissance ont réussi un tour de force : ils ont rendu acceptables leurs croyances anticapitalistes. Leurs discours ne cartonnent pas seulement sur internet. Les droits de l’Homme sont contestés au nom des lois de la nature au sein de grandes entreprises, dans de grands journaux, dans les partis politiques, au gouvernement. Il est devenu habituel de voir l’espace public pris en otage par des militants décroissantistes et les mouvements d’éco-sabotage ont multiplié leurs actions illégales dans une quasi-impunité.

Nous ne pouvons plus sous-estimer ce phénomène. Les prophètes de la décroissance ont trop souvent été traités avec la pugnacité d’un moine bénédictin égaré dans un cage de MMA. Cela doit changer. Tout au long de l’année, nous décrypterons leurs discours, leurs méthodes, leurs stratégies, leurs organisations.

Le monde de l’après pax americana a commencé. Il ressemble plus à une jungle ou à un duel mexicain qu’à un nouvel ordre international. Les démocraties libérales sont déstabilisées par la montée en puissance de régimes néo-impérialistes (la Chine, la Russie) qui cherchent à imposer leurs agendas par le rapport de force et la désinformation. Nous renseignerons leurs actions de subversion à l’extérieur de nos frontières et analyserons l’influence des relais de leurs propagandes d’État dans notre espace médiatique et politique.

 

Notre stratégie de croissance pour 2024

Cette année, nous lancerons une série d’initiatives visant à solidifier notre montée en gamme et à démultiplier notre influence : partenariats avec des écoles de sciences économiques et de relations internationales, grands événements, lancement de clubs locaux. Nous vous tiendrons au courant de ces innovations dans les semaines qui viennent.

Aujourd’hui, nous publions un entretien exclusif accordé à Contrepoints par Fabrice Le Saché, vice-président du Medef, sur les répercussions industrielles des nouvelles réglementations européennes. Quant à la publication de demain… je vous laisse la surprise !

 

Loup Viallet

Rédacteur en chef de Contrepoints

Contrepoints remanie sa rédaction ! Détails à suivre lundi prochain

Chers lecteurs,

Nous avons pris la décision de procéder à des changements d’ampleur pour aborder l’année 2024 avec un maximum d’efficacité.

Une nouvelle équipe, de nouveaux partenariats, une formule plus incisive : vous saurez tout dès lundi prochain !

Notre journal redevient le navire amiral des idées libérales. En 2024, Contrepoints entend peser dans le débat public et se rendre incontournable dans tous les grands rendez-vous politiques et médiatiques.

Le Nouvel An vient de passer. Nous allons faire en sorte que les antilibéraux aient la gueule de bois tout au long de l’année.

Meilleurs vœux à vous et… à la semaine prochaine !

La Rédaction

[Vidéo] La parole à nos auteurs !

Alors qu’il reste moins de 24 heures pour aider Contrepoints (et réduire vos impôts par la même occasion), nos auteurs vous expliquent pourquoi il est important de contribuer à la survie de Contrepoints.

Merci à Pierre Bentata, Vincent Benard et Serge Schweitzer pour leurs témoignages, et merci à tous ceux qui ont donné ou s’apprêtent à le faire pour leur générosité. C’est grâce à vous que Contrepoints restera un contre-pouvoir !

La rédaction de Contrepoints vous souhaite une très belle année 2024, nous espérons qu’elle sera pour vous synonyme de libertés reconquises.

 

 

 

 

Pour nous aider, rendez-vous ici

Contrepoints recrute un(e) secrétaire de rédaction !

Responsabilités :

– Sélectionner des sujets potentiels, anticiper ;
– Rechercher et collecter des renseignements ;
– Assurer interviews ;
– Relire et corriger les articles : fautes d’orthographe, grammaire, conjugaison, syntaxe ;
– Vérifier la lisibilité et la clarté des articles ;
– Procéder à d’éventuelles coupes si l’article est trop long ;
– Calibrer les articles ;
– Contrôler les liens hypertextes dans le cadre d’une publication web ;
– Vérifier le temps d’affichage sur le web ;
– Rédaction d’articles et de mini-enquêtes.

Qualifications :

– Orthographe irréprochable ;
– Maîtrise du code typographique ;
– Maîtrise des logiciels de publication assistée par ordinateur (PAO) ;
– Sang froid et diplomatie ;
– Excellente capacité de communication ;
– Style rédactionnel sobre.

Disponibilités : dès que possible.

100 % télétravail.

Envoyez votre CV : loup.viallet@contrepoints.org ou redaction@contrepoints.org

France Inter : radiographie d’un média d’État

 

 

Le 12 décembre dernier s’est tenue une nouvelle édition de l’Assemblée des Idées, un cycle de débats bimestriel organisé à la Galerie des Fêtes de l’Hôtel de Lassay, résidence officielle de la présidente de l’Assemblée nationale, Yaël Braun-Pivet, qui préside également cette série de colloques.

Après le logement, le rôle de la France à l’international, l’intelligence artificielle ou encore la morale, la chambre basse a accueilli plusieurs dirigeants de médias pour débattre du pluralisme et de l’indépendance de ceux-ci.

Animé par le journaliste de TF1 Paul Larrouturou, le débat a réuni Isabelle Roberts, présidente des Jours, pure player lancé en 2016, le président du directoire du groupe M6 Nicolas de Tavernos, le président du groupe Les Échos-Le Parisien Pierre Louette, et la directrice de France Inter Adèle Van Reeth.

Répondant à une question sur l’orientation à gauche de la station dont elle est directrice depuis septembre 2022, Adèle Van Reeth a été courtoisement mais fermement recadrée par ses contradicteurs issus du privé.

 

L’art de la langue de bois

En cause : l’exercice de langue de bois qu’a été la réponse de la dirigeante publique. Une séquence reprise dans la foulée sur X (ex-Twitter) où Adèle Van Reeth explique qu’à ses yeux, France Inter n’est pas une radio de gauche, mais que son histoire, ses auditeurs et certaines émissions ont cette tendance. De plus, France Inter ne serait pas une radio de gauche car elle ne serait pas une radio d’opinion mais une radio publique qui appartiendrait, non à l’État comme dans un régime autoritaire, mais aux citoyens.

https://twitter.com/DocuVerite/status/1737502165256589606

Face à ce cafouillage manifeste, d’autres intervenants ont tenu à apporter des clarifications.

Nicolas de Tavernost a ainsi rappelé que la principale concentration de médias était celle du service public. Son propos a été appuyé par Pierre Louette qui a rappelé que cette concentration n’a jamais été aussi faible qu’à une époque où créer un média n’a jamais été aussi aisé.

 

Radio France est une radio d’État

Cet échange pose notamment la question de la nature du paysage radiophonique public.

En effet, Adèle Van Reeth distingue très nettement les chaînes appartenant aux citoyens de celles appartenant à l’État. Cette distinction est évidement factice, car les citoyens évoqués sont avant tout des contribuables, et donc des financeurs de l’État.

On ne peut réellement saisir l’erreur, sans doute volontaire, qu’est cette distinction sans comprendre la nature même de France Inter, station de radio propriété de Radio France.

Radio France est, elle, une société anonyme à capitaux publics héritière de l’ORTF dont 100 % des actions sont détenues par l’État français.

Sa fiche sur le site de l’Annuaire des Entreprises, disponible publiquement comme celle de toute entreprise française, détaille ses dirigeants et bénéficiaires effectifs, personnes physiques possédant plus de 25 % du capital ou des droits de vote, ou exerçant un contrôle sur les organes de direction ou de gestion.

Parmi les 15 dirigeants recensés, on retrouve cinq administrateurs, deux commissaires aux comptes et huit administrateurs. L’éclectisme y est roi, puisque les profils vont du député au directeur général d’entreprise publique, en passant par l’ingénieur et la dirigeante associative.

S’agissant de l’unique bénéficiaire effective, nous retrouvons Sybile Veil. L’épouse d’un des petit-fils de Simone Veil et maître des requêtes au Conseil d’État est elle-même énarque, conseillère d’État et surtout PDG de Radio France depuis le 16 avril 2018, après avoir été nommée par le Conseil supérieur de l’audiovisuel (CSA) qui n’était pas encore devenu l’Arcom par sa fusion avec Hadopi au 1er janvier 2022.

Rappelons que le CSA comme Hadopi, et aujourd’hui l’Arcom, sont des autorités administratives indépendantes (AAI) agissant au nom de l’État. Comme le constatait un rapport sénatorial paru en 2017, les AAI n’ont généralement pas de personnalité morale propre distincte de l’État, et leurs membres sont désignés soit par le président de la République, les présidents des assemblées ou des ministres, soit par de hautes autorités juridictionnelles. Entendez par là, par exemple, le vice-président du Conseil d’État ou le premier président de la Cour de cassation, postes nommés directement par le président de la République.

 

Naïveté et manipulation

En d’autres termes, ce qui distingue chaînes publiques et chaînes d’État est le caractère prétendument démocratique des États des premiers.

Cette nuance est encore plus complexe lorsqu’on analyse le niveau de démocratie des institutions françaises, plus proches des démocratures d’Europe de l’Est que des démocraties parlementaires avoisinantes.

Distinguer arbitrairement et par pur soutien à un narratif social-démocrate médias d’États et médias publics relève donc au mieux d’une naïveté coupable à ce niveau de responsabilité, et au pire d’une manière de prendre ses auditeurs pour des imbéciles.

 

Un auditorat de gauche

Adèle Van Reeth a toutefois reconnu dans sa réponse que l’auditorat de France Inter était de gauche. Cet état de fait est corroboré par une étude conjointe entre le journal Marianne et l’Ifop, révélant en 2012 que l’auditorat de France Inter votait à 72 % à gauche, dont la ligne relève de la gauche caviar lorsqu’elle est pas tout simplement assimilable « à un tract de la CGT  » pour reprendre les mots de l’ancienne directrice de la station Laurence Bloch après avoir décidé de supprimer l’émission « Comme un bruit qui court », critiquée pour son militantisme y compris par Les Inrocks, eux-mêmes sur la ligne de la gauche bobo.

 

Un financement politique contestable

En réalité, Adèle Van Reeth a été gênée par la question posée, car elle sait que son intervention relève d’une question autrement plus fondamentale, dans une société se voulant démocratique, qu’est le consentement à l’impôt.

Admettre que France Inter est de gauche, c’est admettre que l’argent des contribuables sert à financer une information orientée politiquement, alors même que cette orientation n’est pas celle des contribuables en question.

Pour rappel, en 2022, seuls deux Français sur dix se positionnait à gauche ou à l’extrême gauche, contre le double à droite ou à l’extrême droite.

Reconnaître que France Inter est de gauche contribuerait à confirmer une réalité qui saute aux yeux de quiconque s’intéresse un minimum à ces sujets : il existe un décalage entre ce que souhaitent les contribuables et ce qui leur est proposé, décalage qui n’existerait pas sur un marché libre où le payeur d’impôt serait un consommateur à satisfaire comme un autre et non une poche dans laquelle se servir au nom d’une solidarité fantasmée.

 

Concentration et conspirationnisme

Cette intervention pose également la question de la concentration des médias.

Sur le sujet, le ministère de la Culture lui-même donne raison à Nicolas de Tavernost et Pierre Louette, puisqu’un rapport paru en juillet 2022 estime que France Télévisions est le premier acteur du marché.

Cette position, justifiée aussi bien en termes d’audience que de chiffre d’affaires, montre une tendance nette depuis 20 ans : la part de chiffre d’affaires de France Télévisions a explosé, alors même que son audience s’est effondrée.

Cependant, et comme le notait justement Pierre Louette, créer un média n’a jamais été aussi simple qu’aujourd’hui. Une liberté salutaire mais qui pose aussi la question de la qualité de cette information et de la montée des discours conspirationnistes que seuls la transparence publique et le respect du consentement démocratique permettront de combattre.

La super-conductivité à température ambiante, nouvelle frontière technologique ?

Quelle serait la prochaine découverte d’envergure, comme le pétrole ou la semi-conductivité du silicium ? Il se pourrait bien que ce soit la super-conductivité à température ambiante. Celle-ci est de nature à révolutionner les modes de production et le confort individuel dans les années à venir.

 

Une conduction électrique parfaite

La conductivité d’un matériau représente sa capacité à résister au courant. Les matériaux conducteurs comme l’or ou le cuivre laissent facilement passer le courant. Alors que les matériaux isolants comme le caoutchouc le bloquent.

Toute l’électronique repose sur les matériaux semi-conducteurs, comme le silicium. Leur résistance est pilotable en jouant sur leur propriété. Les super-conducteurs sont des matériaux sans la moindre résistance au courant. Ces matériaux existent déjà, comme le niobium-titane, mais cette propriété intervient uniquement à la température de -263°C (pour le niobium-titane).

 

Un courant sans limites

Un matériau exploitable sans perte de courant permet un phénomène spectaculaire : la lévitation magnétique. Un train est en construction au Japon (SCMaglev) en remplacement des trains magnétiques par bobine, mais encore une fois, il faut refroidir le matériau. Un super-conducteur à température ambiante permettra de généraliser ces nouveaux trains.

Un autre phénomène spectaculaire de la superconduction est l’apparition d’effets quantiques à notre échelle, telle la jonction Josephson, alors que les effets quantiques sont plutôt réservés à l’échelle de l’atome. La généralisation des matériaux super-conducteurs généralisera aussi les ordinateurs quantiques.

Même de bons conducteurs comme l’or ou le cuivre subissent des pertes qui engendrent de la chaleur par effet Joule. Dès lors que le courant devient trop fort, le métal fond. Ce phénomène est utilisé dans l’industrie pour usiner (EDM ou forge par induction). Cependant, il s’agit bien souvent d’une contrainte qui impose une limite de courant capable de transiter dans un câble. Avec un câble super-conducteur, l’électricité de tout Paris pourrait passer dans un seul câble électrique !

Le courant peut circuler indéfiniment dans une boucle superconductrice, on peut donc l’utiliser pour stocker de l’électricité (SMES). Mais encore une fois, ce réservoir à électron nécessite des températures extrêmes, ce qui le rend trop coûteux pour une utilisation grand public.

En déverrouillant la limite du courant dans un câble, on déverrouille également les champs magnétiques à haute énergie. Ces champs vont permettre d’accroître la précision des scanners médicaux IRM, leurs résolutions étant corrélées à la puissance du champ magnétique produit. L’armée pourrait s’intéresser au canon de Gauss dans lequel un projectile est catapulté par un champ magnétique.

 

Le monde du plasma

Enfin, le champ magnétique permet la manipulation du plasma. Le plasma est le quatrième état de la matière, il se produit à haute température quand les électrons se détachent des atomes et circulent librement dans le gaz, qui devient sensible aux champs magnétiques.

Un champ magnétique permet de manipuler un plasma aussi bien en le cloisonnant dans un volume donné, en le mettant en mouvement, ou en faisant varier sa température. Les superconducteurs à température ambiante vont donc faire avancer tous les domaines autour du plasma comme le laser, la fusion nucléaire, les canons à plasma ou la recherche fondamentale.

Le super-conducteur à température ambiante représente une nouvelle frontière technologique. Il permet de faire circuler des courants sans perte et donc sans limite dans un matériau. Cela ouvre les portes des champs magnétiques à haute énergie, et avec eux le monde des plasmas.

Chacune de ces étapes représente un progrès pour l’humanité.

Les méfaits de la taxe foncière

Un article de Ryan McMaken

Selon l’indice Case-Shiller, les prix des logements ont augmenté de 44 % depuis février 2020. Il ne s’agit bien sûr que d’une moyenne, et certains marchés ont connu des augmentations de prix bien plus importantes. Toutefois, même sur les marchés immobiliers de l’Amérique moyenne, où les prix sont censés être plus raisonnables que sur les côtes, les prix ont grimpé en flèche.

À Cleveland, par exemple, l’indice a augmenté de 40 % depuis le début de 2020. Au cours de la même période, l’indice a augmenté de 50 % à Atlanta, et de 33 % à Chicago.

Ce type d’inflation des prix n’est pas simplement un produit de l’offre de logements. La demande de logements a été fortement gonflée par près de quinze années de taux d’intérêt historiquement bas, suivies par d’immenses flux d’argent nouvellement créés pendant la panique liée au covid. Comme l’a fait remarquer l’économiste Brendan Brown, même si la croissance des prix à la consommation a semblé faible de 2008 à 2020, les effets de l’inflation monétaire sont depuis longtemps visibles dans l’inflation des prix des actifs (par exemple, les prix de l’immobilier).

Il n’est donc pas du tout surprenant que les taxes foncières augmentent également. Heureusement pour les propriétaires, elles n’ont jusqu’à présent pas suivi l’évolution des prix du marché. Selon un rapport d’avril de la société d’analyse du logement ATTOM, 339,8 milliards de dollars de taxes foncières ont été payés par les propriétaires : 339,8 milliards ont été prélevés sur les maisons individuelles en 2022, soit une augmentation de 3,6 % par rapport aux 328 milliards de 2021. Cette augmentation représente plus du double de la croissance de 1,6 % enregistrée en 2021, bien qu’elle soit inférieure à l’augmentation de 5,4 % de l’année précédente.

Le rapport montre également que la taxe moyenne sur les maisons individuelles aux États-Unis a augmenté de 3 % en 2022, pour atteindre 3901 dollars, après avoir augmenté de 1,8 % l’année précédente.

Au niveau des États et des collectivités locales, certaines hausses d’impôts fonciers sont montées en flèche. Le Michigan, par exemple, a augmenté les taxes foncières à des niveaux jamais atteints depuis 28 ans. Certaines collectivités locales ont augmenté les impôts fonciers de 20 % ou plus. Cependant, dans de nombreuses régions, les augmentations des taxes foncières n’ont même pas suivi l’inflation.

Alors, si les prix de l’immobilier augmentent en moyenne de 40 % ou plus, pourquoi les taxes foncières ne sont-elles pas aussi élevées ? Ces augmentations relativement modestes s’expliquent en grande partie par le fait que leurs évaluations ne sont pas instantanées, mais modifiées à des intervalles souvent longs. En d’autres termes, de nombreux propriétaires peuvent constater qu’il y a encore beaucoup de mauvaises nouvelles liées à l’impôt foncier à venir.

Realtor.com rapporte, par exemple :

« Les factures d’impôts fonciers ont augmenté ou sont sur le point d’augmenter car les gouvernements locaux capitalisent sur la hausse des prix de l’immobilier au cours des dernières années. Et il n’y a que peu de recours pour les propriétaires qui doivent faire face à des factures plus élevées […] La plupart des gens doivent s’attendre à une augmentation de l’impôt foncier, déclare Carl Davis, directeur de recherche à l’Institute on Taxation and Economic Policy. Nous assistons actuellement à un rattrapage des évaluations [foncières] par rapport au marché. Ce processus se poursuivra au cours des prochaines années. Les collectivités locales sont confrontées à l’augmentation des coûts comme tout le monde. Et l’explosion des prix pendant la pandémie de Covid-19 a offert aux municipalités une occasion en or de faire quelque chose pour y remédier. »

Kiplinger’s note que les États et les collectivités locales feront tout ce qui est en leur pouvoir pour traduire la hausse des prix de l’immobilier en augmentation des recettes :

« Dans les régions ayant connu une forte appréciation de la valeur de leur maison, les propriétaires doivent se préparer à la possibilité que leur administration locale augmente les taux pour faire face à des évaluations plus élevées, même si les ventes de maisons se sont stabilisées, disent les experts. Pour les collectivités locales, l’inflation a fait grimper tous les coûts, des salaires des fonctionnaires aux fournitures scolaires. En outre, dans le sillage de la pandémie de covid, les propriétaires de locaux commerciaux sont confrontés à un grand nombre de logements vacants, ce qui a entraîné une baisse des recettes provenant de ces sources. »

Ce dernier détail est particulièrement inquiétant : quiconque s’est intéressé à l’immobilier sait que l’immobilier commercial se « détériore », et que d’autres mauvaises nouvelles sont attendues. Cela signifie que les décideurs politiques se tourneront probablement vers l’immobilier résidentiel pour combler le déficit.

Une autre raison pour laquelle les impôts fonciers n’ont pas suivi l’évolution des prix de l’immobilier est la pression politique qui s’exerce sur eux. Bien sûr, dans certaines juridictions, les décideurs politiques ont les mains presque libres pour augmenter les impôts à des taux exorbitants. Mais dans de nombreuses régions, les contribuables résisteront de bon cœur si on leur dit de se préparer à une augmentation de 20 ou 30 %. D’un autre côté, les décideurs politiques peuvent presque toujours s’en tirer avec la politique moins évidente consistant à ne pas baisser les impôts fonciers, même lorsque les prix de l’immobilier diminuent. Nous ne devrions pas placer nos espoirs de réduction des impôts dans la chute des prix de l’immobilier qui surviendrait lors d’une récession ou d’une crise financière.

En effet, « même si la valeur des biens immobiliers diminue, la facture de l’impôt foncier ne baisse généralement pas. Au lieu de cela, les gouvernements augmentent généralement le pourcentage auquel les maisons sont taxées pour compenser le manque à gagner causé par la baisse des valeurs ».

 

Les taxes foncières sont particulièrement néfastes pour les chômeurs, les pauvres et les personnes âgées

Plus d’un libertarien grincheux a décrit l’impôt foncier résidentiel comme « le loyer que vous payez à l’État pour vivre dans votre propre maison ». Ce n’est pas faux. En outre, l’impôt sur la propriété résidentielle peut être particulièrement dévastateur en période de crise économique, bien plus dévastateur que l’impôt sur le revenu.

Par exemple, si l’économie se détériore, on peut s’attendre à ce que les taux de chômage augmentent et que les revenus réels diminuent encore plus qu’ils ne l’ont déjà fait au cours des deux dernières années. En ce qui concerne l’impôt sur le revenu, une baisse des revenus se traduit généralement par une réduction de la facture fiscale. Mais nos impôts fonciers diminuent-ils lorsque nous perdons notre emploi ou subissons une baisse de salaire ? Il est presque certain que non.

En effet, si les nouvelles évaluations interviennent à la fin d’une période inflationniste, les propriétaires peuvent être frappés par une nouvelle augmentation des taxes foncières au moment même où leur situation professionnelle se dégrade.

L’étape suivante, bien sûr, peut consister à déménager toute la famille dans le sous-sol du domicile de vos parents âgés. Même eux ne sont pas à l’abri des taxes foncières. Elles font partie des impôts les plus préjudiciables pour les personnes âgées à revenu fixe.

Les retraités dépendent de leur épargne et de leurs revenus d’investissement, ou des transferts de l’État versés par les salariés actuels. Les revenus globaux des retraités sont généralement bien inférieurs à ceux qu’ils percevaient lorsqu’ils étaient salariés. Cela se traduit par des économies d’impôt sur le revenu, mais la hausse des prix de l’immobilier et des taxes foncières peut les obliger à quitter leur logement. Ce phénomène entraîne également une plus grande rotation dans les quartiers. Les réfugiés fiscaux laissent derrière eux des réseaux sociaux fracturés dans des quartiers où les habitants s’appuient les uns sur les autres pour le soutien social et économique. En effet, la gauche peut décrier l’embourgeoisement, mais elle n’a aucun problème avec l’augmentation des taxes foncières qui accélère l’embourgeoisement peut-être plus que n’importe quelle autre politique. Les saisies immobilières sont un moyen sûr de se débarrasser des personnes âgées et des résidents à faibles revenus d’un quartier en voie d’embourgeoisement.

Certains États ont mis en place des lois sur le homesteading et des politiques similaires visant à limiter l’augmentation des taxes foncières pour les personnes d’un certain âge. Ces mesures ne font qu’atténuer l’impact de l’augmentation des taxes foncières. Même de faibles augmentations peuvent être désastreuses pour les personnes âgées ou handicapées qui n’ont guère la possibilité d’augmenter leurs revenus pour faire face à la facture fiscale.

 

Il n’y a pas d’impôt neutre

Rien de ce que j’écris ici ne doit être interprété comme une affirmation selon laquelle l’impôt foncier est objectivement le pire type d’impôt. Comme l’a montré Murray Rothbard, il n’existe pas d’impôt neutre, et chaque type d’impôt a ses propres effets d’appauvrissement. Il n’y a pas d’impôt qui ne diminue pas notre utilité en prenant une partie de notre richesse et en la dépensant différemment de ce que nous aurions fait.

Nous ne pouvons pas non plus affirmer que l’impôt foncier est « meilleur » que, par exemple, l’impôt sur le revenu. L’impôt sur le revenu pose en effet des problèmes spécifiques.

Cependant, comme nous l’avons vu, l’impôt sur la propriété résidentielle s’attaque à l’un des besoins et des biens les plus fondamentaux dans la vie d’une personne, à savoir le logement, d’une manière que l’impôt sur le revenu ne fait pas.

En outre, l’accent mis sur l’impôt sur le revenu en tant que « pire » impôt d’État peut conduire certains à minimiser de manière inappropriée les coûts réels des impôts fonciers. Par exemple, les États sans impôt sur le revenu, comme le Texas, aiment s’en vanter, comme si cette absence rendait le Texas plus ou moins exempt d’impôts. Ce n’est évidemment pas du tout le cas. Le Texas se classe au troisième rang national pour la charge de l’impôt foncier, derrière le New Jersey et le New Hampshire, et à peine mieux que l’Illinois. (le New Hampshire n’a pas non plus d’impôt sur le revenu.) Il ne s’agit pas ici de recommander au Texas d’adopter un impôt sur le revenu, bien entendu. L’absence d’impôt sur le revenu présente en effet des avantages.

Mais tout gouvernement se battra pour obtenir des recettes fiscales, et les impôts fonciers sont susceptibles d’en devenir une source très lucrative dans les années à venir. Ce n’est qu’un fardeau de plus que nous supportons à notre époque d’argent facile et d’inflation des prix.

Sur le web.

Une traduction par la rédaction de Contrepoints.

Taxation des sociétés d’autoroutes, attention au retour de bâton

Un article de l’IREF.

L’article 15 du projet de loi de finances pour 2024 prévoit l’instauration d’une nouvelle taxe sur l’exploitation des infrastructures de transport de longue distance affectée à l’Agence de financement des infrastructures de transport (AFIT) de France.

Cette taxe vise les exploitants qui affichent une rentabilité supérieure à 10 %, et son montant est déterminé par l’application d’un taux de 4,6 % aux revenus d’exploitation qui excèdent 120 millions d’euros. Le produit annuel prévisionnel de la taxe serait de 600 millions d’euros, réparti entre les sociétés concessionnaires d’autoroutes (pour environ 450 millions d’euros) et les principaux aéroports (pour environ 150 millions d’euros).

L’objectif affiché ? Participer au financement de la transition écologique du secteur des transports. Initialement, seules les sociétés d’autoroutes devaient être mises à contribution. Mais l’État avait alors oublié que la création d’une taxation spécifique aux sociétés autoroutières l’obligerait à compenser les conséquences financières, au titre de la clause de stabilité fiscale prévue par les contrats de concessions autoroutières. Pour éviter d’être soumis à cette obligation, les aéroports ont, dans un second temps, été placés dans le champ d’application de la taxe.

Cela sera-t-il suffisant pour éviter une longue et coûteuse procédure contentieuse avec, à la clef, une issue défavorable à l’État, c’est-à-dire aux contribuables ?

Rien n’est moins sûr. Dans un avis rendu le 8 juin 2023, le Conseil d’État a en effet précisé :

« Toute nouvelle contribution qui, sans viser explicitement les sociétés concessionnaires d’autoroutes, aurait pour effet pratique, compte tenu de ses modalités, de peser exclusivement ou quasi exclusivement sur elles pourrait […] ouvrir à ces sociétés un droit à compensation ».

Au regard des intentions initiales du gouvernement, il n’est pas exclu que la juridiction administrative considère que cet « effet pratique » est ici caractérisé. De son côté, le juge constitutionnel estime que le législateur ne saurait porter aux contrats légalement conclus une atteinte qui ne soit pas justifiée par un motif d’intérêt général suffisant. Or, d’après l’avis rendu par le Conseil d’État, les différents motifs invoqués par le gouvernement ne permettraient pas d’éviter une censure par le Conseil constitutionnel…

 

La hausse des tarifs dans les ports (Le Havre et Marseille) et aéroports (ADP notamment) visés par cette taxe aura pour effet de les rendre moins compétitifs

Si cette compensation financière venait à être obtenue des juridictions saisies, elle se traduirait sans doute par une autorisation donnée aux concessionnaires  de répercuter cette taxe nouvelle dans les tarifs des péages, pénalisant ainsi les usagers du réseau autoroutier.

De la même manière, la hausse des tarifs dans les ports (Le Havre et Marseille) et aéroports (ADP notamment) visés par cette taxe aura pour effet de les rendre moins compétitifs, en un mot de les affaiblir.

Cédant à un réflexe taxateur, les décideurs publics semblent de surcroît oublier que, concomitamment aux investissements publics, la transition écologique du secteur des transports appelle des investissements privés qu’un cadre juridique instable et peu prévisible n’est pas de nature à favoriser…

Sur le web.

120 ans après le vol des frères Wright, quelques leçons à propos de l’innovation

Il y a 120 ans, par une froide matinée d’hiver, les frères Wright font décoller l’avion sur lequel ils travaillent depuis des mois. C’est une machine très complexe à piloter. Ce jour-là, ils réussissent à effectuer quatre vols de seulement 30 à 260 mètres qui se terminent chaque fois assez brutalement. Mais la boîte de Pandore est ouverte.

On peut tirer au moins cinq leçons de cet épisode.

 

Il est difficile d’estimer la portée d’une invention sur le long terme

Le 17 décembre 1903, personne n’imagine ce que deviendra l’aviation. Il s’agit tout au plus d’un hobby. Les frères Wright sont tout surpris lorsque la nouvelle du vol étant connue, ils reçoivent… une commande du Français Louis Ferdinand Ferber, un autre pionnier de l’aviation.

 

De grandes inventions voient le jour alors qu’elles étaient jugées impossibles

Ainsi, seulement 9 semaines avant le vol historique, le New York Times écrit un article au vitriol pour se moquer des frères Wright, estimant qu’il faudrait au moins… un million d’années pour faire voler un avion, à supposer que ce soit possible.

Nous sommes aveugles à notre capacité de progrès car nous sommes enfermés dans nos modèles mentaux.

 

Nous ne faisons pas forcément attention à ce qui est significatif, et ce à quoi nous faisons attention n’est pas le plus significatif

Il est difficile d’évaluer les conséquences à long terme des événements, à savoir distinguer ce qui compte de ce qui ne compte pas dans la montagne de faits quotidiens. Nous ne sommes pas forcément conscients que ce qui nous est présenté dans notre fil d’actualité favori est là parce qu’il a été sélectionné par quelqu’un, c’est-à-dire que nous obtenons les nouvelles à travers un filtre.

Le vol réussi des frères Wright a seulement fait quelques entrefilets dans la presse, alors qu’il s’agissait d’une révolution.

 

Les grandes inventions ont souvent été le fait d’individus à la marge

Les frères Wright sont des fabricants de vélo qui s’ennuient. Ils sont convaincus que l’on peut faire voler un avion, ce qui semble ridicule à nombre de leurs contemporains, et en particulier aux nombreux experts. L’idée qu’on puisse faire voler quelque chose de plus lourd que l’air semble une limite physique infranchissable.

 

Les inventeurs font l’objet de sarcasmes… jusqu’à ce qu’ils réussissent

On se moque de leur ambition et de leurs croyances, car ils semblent offenser quelque Dieu par leur attitude prométhéenne. On moque leur démarche qualifiée aisément de lubie de riche. On affirme que si elle réussit, leur invention ne servira à rien : qui peut imaginer utiliser un avion autrement que pour s’amuser ? On sait bien qu’il n’y a pas de demande !

 

Le vol des frères Wright, c’était il y a 120 ans, mais il semble que rien n’a changé.

Sur le web.

Plus qu’une semaine pour nous aider : 5 bonnes raisons de donner

Chers lecteurs,

Le temps presse : il ne nous reste qu’une semaine pour boucler notre budget annuel et nous n’avons pas encore réuni les 100 000 euros nécessaires pour maintenir la production actuelle et financer les améliorations du site que vous êtes nombreux à réclamer.

Si vous avez lu notre rapport annuel 2023, vous savez que nous sommes entièrement transparents sur nos actions et nos finances ; croyez bien que nous serions heureux de pouvoir vous annoncer le succès de cette campagne de financement s’il était déjà acquis. Beaucoup d’entre vous donnent dans les derniers jours de décembre, c’est pourquoi nous avons bon espoir d’atteindre l’objectif, mais cela n’arrivera pas sans une action de votre part.

Vous avez déjà donné ? Merci de tout cœur !
Vous hésitez encore ? Voici 5 bonnes raisons de le faire

 

1. Vous financez un média alternatif

Et cependant reconnu pour son sérieux par le SPIIL (Contrepoints est adhérent du Syndicat de la Presse Indépendante d’Information en Ligne) et régulièrement cité dans la presse nationale, à droite comme à gauche.

 

2. Vous permettez à d’autres que vous de découvrir vos idées

Même si vous-même nous lisez moins qu’avant, car vous êtes convaincu depuis longtemps. Mais vous jugez important que plus de gens soient touchés par un message humaniste, économiquement sain et ancré dans le réel.

 

3. Vous rendez possible le plan « Wikibéral 2025 »

Grand chantier de remise à jour et d’amélioration de notre célèbre encyclopédie collaborative des idées libérales.

 

4. Vous maintenez la pression sur les bureaucrates

À l’aide de vos nombreuses suggestions, nous ferons la lumière par des enquêtes rigoureuses sur l’inefficacité croissante des administrations dont la plupart des Français ignorent jusqu’à l’existence, alors qu’elles ruinent progressivement le pays.

 

5. Vous réduisez  vos impôts

Tout le monde est gagnant, sauf le Léviathan ! Vous réduisez votre IRPP à hauteur de 66 % de la somme donnée1, vous aidez concrètement à dénoncer l’illusion fiscale, tandis que l’État reçoit moins d’argent à gaspiller dès l’an prochain.

 

 

  1. Nous vous envoyons un reçu fiscal. Réservé aux contribuables français, sauf dons en bitcoin

Sécurité aérienne : une piste pour détecter les turbulences avec des lasers

Les auteurs : Olivier Emile, enseignant chercheur en physique, Université de Rennes. Janine Emile, professeur en physique, Université de Rennes

 

En novembre 2001, un Airbus A300 d’American Airlines parti de New York s’est écrasé deux minutes après le décollage, provoquant la mort des 260 personnes à bord. C’était peu de temps après les attentats aériens du World Trade Center, mais cette fois, l’accident avait des causes bien différentes : des turbulences de sillages, c’est-à-dire des structures tourbillonnantes fortes générées par le passage des avions, ce jour-là créées par un Boeing 747 de Japan Airlines qui avait décollé peu auparavant.

Plus récemment, un avion d’affaire Bombardier Challenger 604 a subi une chute de 3000 mètres dans le sillage d’un A380. Plusieurs passagers ont été blessés et l’intérieur de l’avion a été détruit. Si des incidents sans gravité sont assez fréquents (un par mois), des accidents sérieux surviennent en moyenne tous les deux ans.

En plus d’être responsables de plusieurs catastrophes aériennes, elles sont un frein au développement aérien. En effet, afin de limiter leurs effets, un délai de sécurité arbitraire est imposé entre chaque avion au décollage et à l’atterrissage. Une distance de sécurité minimale doit aussi être respectée en vol – distance que n’ont probablement pas respecté Maverick et Goose dans Top Gun, perdant ainsi le contrôle de leur F-14.

Détecter directement ces turbulences de sillage et leur évolution pourrait permettre de réduire considérablement ces délais et distances, et d’optimiser la fréquentation des pistes des aéroports – renforçant la sécurité aérienne et réduisant les coûts d’utilisation. Malheureusement, arriver à caractériser complètement un tourbillon, surtout un tourbillon gazeux, est assez difficile.

Si, dans le registre fictionnel, les chasseurs de tornades de Twisters avaient dû sacrifier une voiture, au péril de leurs vies, pour que des billes puissent être aspirées par la tornade et ainsi permettre, par leur écho électromagnétique, de caractériser complètement la tornade, dans la réalité, ce sont des avions avec un équipage qui vont collecter les informations au cœur des dépressions, dans des conditions évidemment très difficiles.

Pour éviter ces dangers, nous cherchons à développer un dispositif capable de sonder à distance ces tourbillons. Un tel dispositif pourrait aussi avoir un intérêt pour l’astronautique, en météorologie, mais aussi pour caractériser des sillages des éoliennes, si dangereux pour les oiseaux et qui peuvent s’étendre sur plusieurs centaines de mètres.

Nous proposons dans notre étude récente d’exploiter un phénomène physique, l’effet Doppler rotationnel, pour mesurer la vitesse et l’évolution de ces tourbillons. Ceci pourrait se faire à relativement faible coût puisque cela nécessite l’emploi d’un simple laser et d’un détecteur, et serait adaptable aux sillages des éoliennes et à la mesure de tornades.

 

L’effet Doppler rotationnel

L’effet Doppler « usuel » est relatif au décalage en fréquence d’une onde (acoustique ou électromagnétique) lorsque l’émetteur et le récepteur sont en mouvement l’un par rapport à l’autre. Ce décalage est proportionnel à la vitesse relative entre eux. Il est utilisé notamment pour détecter les excès de vitesse par la maréchaussée, en utilisant des ondes radio ou optiques. Il est aussi utilisé en médecine, entre autres, pour la mesure des flux dans les vaisseaux sanguins, à l’aide, cette fois-ci, d’une onde acoustique.

Il existe aussi un effet Doppler rotationnel, moins connu, qui est le pendant de l’effet Doppler usuel pour des objets en rotation. Philéas Fogg s’en est bien aperçu dans Le Tour du monde en quatre-vingts jours. En effet, la période du voyage, normalement de 80 jours, a été modifiée par la rotation propre de la Terre. Suivant le sens de parcours du tour du monde, cette période passe à 79 ou 81 jours.

Cela peut aussi se comprendre, à des temps plus courts, en regardant une horloge posée sur un tourne-disque en rotation. L’horloge ne tourne pas à la même vitesse si l’on se place sur le tourne-disque ou dans la pièce dans laquelle il est placé.

Pour pouvoir utiliser l’effet Doppler rotationnel avec des ondes, celles-ci doivent « tourner ». Ce n’est pas le cas avec les ondes habituelles (planes). Par contre, il existe des ondes qui ressemblent aux pâtes italiennes fusilli, et qui tournent à une vitesse proportionnelle à la fréquence de l’onde. Elles sont appelées ondes à moment angulaire orbital ou OAM en anglais.

La lumière rétrodiffusée par des objets en rotation ne tourne plus. Elle n’a plus la forme d’un fusilli. De plus, elle se trouve être décalée en fréquence d’une quantité proportionnelle à la fréquence de rotation de l’objet et aux caractéristiques du fusilli. En mesurant ce décalage, il est possible de mesurer la vitesse de rotation du tourbillon.

 

Sonder à distance les tourbillons

Notre équipe travaille depuis quelques années sur les ondes fusilli, leur génération, leur détection et leur utilisation pour faire tourner des objets à l’aide de la lumière.

Nous avons récemment réussi à complètement caractériser un tourbillon liquide « modèle » généré par un agitateur magnétique dans un récipient, en utilisant des ondes optiques en forme de fusilli générées par un laser, et en étudiant la fréquence de la lumière diffusée par l’eau du tourbillon.

Le décalage Doppler rotationnel de la lumière diffusée par le liquide en rotation permet de remonter à la distribution des vitesses dans le tourbillon.

En particulier, nous avons mesuré la distribution des vitesses angulaires à l’intérieur du tourbillon et, en même temps, nous pouvons effectuer une cartographie dans l’axe du tourbillon. En d’autres termes, nous pouvons connaître la distribution des vitesses de rotation du tourbillon en trois dimensions.

Actuellement, en laboratoire, nous essayons de reprendre cette expérience sur un tourbillon gazeux généré par une dépression avant d’effectuer ces expériences en situation réelle.

 

Vous pouvez retrouver cet article sur The Conversation

Loi européenne sur les métaux critiques : moins de dépendance mais des questions en suspens

Les auteurs : Lucas Miailhes est doctorant en Science Politique/Relations Internationales à l’Institut catholique de Lille (ICL). Andrew Glencross est le Directeur d’ESPOL, Professeur de Science Politique à l’Institut catholique de Lille (ICL).

 

Les préoccupations de l’Union européenne concernant le risque d’approvisionnement en matières premières critiques (ou critical raw materials, CRM en anglais) se sont considérablement accrues au cours de la dernière décennie en raison de leur importance croissante pour la transition numérique et écologique.

En effet, la production de CRM reste actuellement largement concentrée géographiquement en dehors de l’Europe, notamment en Chine, ce qui expose l’Union européenne à des risques d’approvisionnement majeurs. Consciente de sa dépendance à l’égard de sources extérieures pour ces matériaux, Bruxelles prend désormais des mesures pour relever ce défi, et ainsi se protéger contre d’éventuelles restrictions d’exportations de pays tiers.

L’Europe n’a pas de temps à perdre. Selon l’Agence internationale de l’énergie, la demande mondiale de CRM devrait quadrupler d’ici 2040, sous l’effet d’une multiplication par 42 de la demande de lithium et d’une multiplication par 7 de la demande en terres rares d’ici 2050. Essentielles à la fabrication des batteries, les terres rares et le lithium sont au cœur de la mobilité et du stockage de l’énergie, ce qui rend la sécurité du CRM vitale pour atteindre les objectifs de l’Union européenne en matière de décarbonation.

Cependant, la Chine possède actuellement un quasi-monopole des exportations de terres rares, le cobalt et le lithium, constituant ainsi la source de plus de 90 % des importations européennes. Pékin est bien conscient de l’importance de ce levier de puissance, et s’en sert déjà dans son bras de fer technologique avec les États-Unis.

Pour relever ces défis, la Commission européenne a proposé en mars 2023 la loi sur les matières premières critiques (CRMA), qui vise à garantir l’accès de l’Union européenne aux matières premières essentielles. Cette législation vise à réduire la dépendance des vingt-sept en encourageant l’augmentation de la production européenne, le recyclage et le raffinage des matières premières critiques.

La CRMA établit une liste de 16 matières premières stratégiques et critiques et fixe des objectifs pour augmenter la contribution de l’Union européenne (10 % pour l’extraction, 40 % pour la transformation et 15 % pour le recyclage). La proposition comprend des mesures visant à rationaliser les processus administratifs d’extraction, à surveiller les chaînes d’approvisionnement et à investir dans la recherche et l’innovation.

Néanmoins, les critiques ont soulevé des inquiétudes quant à l’absence de fonds dédiés, remettant en cause la viabilité financière et l’efficacité de la législation. L’extraction, le traitement et le recyclage des CRM nécessitent en effet des investissements importants et les possibilités de financement actuelles de l’UE sont dispersées et complexes. En réponse, le Parlement européen a proposé la création d’un Fonds européen pour les matières premières stratégiques en septembre 2023.

 

« Club d’acheteurs bruxellois »

Un autre sujet de discorde concerne les risques potentiels liés à l’acceptation des projets stratégiques par les populations locales, qui peuvent s’inquiéter des impacts environnementaux et sociaux. Dans le texte européen, les projets stratégiques sont définis comme des projets relatifs aux matières premières qui renforcent de manière significative la sécurité de l’approvisionnement de l’Union européenne en matières premières stratégiques. Les entreprises dont les projets seront reconnus comme stratégiques bénéficieront de procédures d’autorisation simplifiées et d’un accès plus facile aux possibilités de financement. Cela soulève des inquiétudes quant à l’équilibre entre l’accélération des projets et la mise en place de garanties environnementales et sociales solides.

En outre, les discussions mettent en évidence le manque de dispositions concrètes sur la circularité de la CRMA. Les critiques soutiennent que la loi n’offre pas suffisamment d’orientations pour renforcer le rôle du secteur de la réparation dans l’extension du cycle de vie des produits contenant des CRM. La loi se concentre sur l’exploitation des déchets, l’amélioration des processus de recyclage et l’augmentation de la réutilisation des produits et des CRM secondaires, mais elle n’aborde pas la législation sur le droit à la réparation.

Enfin, les dispositions de la CRMA relatives à l’achat groupé, qui visent à encourager le regroupement de la demande intérieure de l’Union européenne par la constitution de stocks stratégiques, ont suscité certaines craintes. Le chercheur américain Cullen S. Hendrix a par exemple exprimé des inquiétudes concernant un « club d’acheteurs bruxellois », soulignant le risque d’effets néfastes sur les économies en développement. En faisant baisser les prix de vente, la pratique d’achat groupé par les pays de l’Union pourrait en effet entraver la capacité des pays en développement à bénéficier de leur dotation en CRM pour financer leur transition énergétique.

 

Et pour la France ?

Du point de vue français, le CRMA répond à deux attentes politiques complémentaires sur le moyen et long terme.

Premièrement, le texte de loi vient en appui à l’exécutif, qui cherche depuis longtemps à voir la Commission européenne accepter plus de souplesse en ce qui concerne les aides d’État. Ces dernières représentent en effet un levier privilégié pour favoriser le développement territorial dans l’hexagone, comme en témoignent les subventions à la hauteur d’un milliard et demi d’euros attribuées au projet d’usine de batteries à Dunkerque. En outre, le CRMA offre des perspectives intéressantes pour favoriser des projets industriels à l’instar de la mine de lithium dans l’Allier – qui d’ailleurs suscite les inquiétudes des habitants.

Le deuxième point fort de cette législation européenne est qu’elle démontre la valeur ajoutée de l’action de l’Union européenne en tant qu’acteur à l’échelle mondiale. Ceci est une conception très française de l’Europe, qui voit en la construction européenne un moyen non seulement de peser dans les affaires internationales mais aussi de s’affranchir de la puissance américaine.

La logique « gaulliste » de cette vision consiste à penser la base industrielle en lien avec les capacités de défense. Ce n’est donc pas une coïncidence que le Conseil européen, sous la présidence française en 2022, a appelé à œuvrer à la construction d’une base économique plus solide en même temps que le renforcement des capacités de défense européennes.

 

Répondre aux préoccupations

Actuellement en phase de trilogue, les négociations entre le Conseil de l’Union européenne et le Parlement européen sont presque terminées. La prochaine étape de la procédure législative de l’Union européenne est l’approbation et l’adoption formelle par le Parlement européen et le Conseil de l’Union européenne. L’accord provisoire sur le CRMA conclu avec le Parlement européen le 13 novembre 2023 doit en effet encore être approuvé et formellement adopté par les deux institutions.

La CRMA jouera un rôle essentiel dans la capacité de l’Union européenne à atteindre ses objectifs en matière de transition écologique et à renforcer son autonomie stratégique. Cependant, la CRMA a suscité de nombreux débats et a soulevé des inquiétudes parmi les différentes parties prenantes. Bien qu’elle soit susceptible de répondre aux défis de l’Union européenne en matière d’accès sûr et durable aux CRMA, il est essentiel d’examiner attentivement les préoccupations soulevées par les critiques et d’y répondre afin de garantir l’efficacité des dispositions prises au sein du CRMA.

Vous pouvez retrouver cet article sur le site de The Conversation France.

Cryptomonnaies, comptes en ligne, domiciliation à l’étranger… Les combines des terroristes pour accéder aux banques françaises

Les auteurs : Jacques Amar est Maître de conférences HDR en droit privé, CR2D à l’Université Dauphine-PSL et docteur en sociologie à l’Université Paris Dauphine – PSL. Arnaud Raynouard est Professeur des universités en droit, CR2D à l’Université Dauphine-PSL.

 

Par un arrêté en date du 13 novembre 2023, le ministère de l’Économie et des Finances a bloqué, pour une durée de six mois :

« les fonds et ressources économiques qui appartiennent à, sont possédés, détenus ou contrôlés par Mohammed Deif (commandant la milice armée du Hamas), ainsi que les fonds et ressources économiques qui appartiennent à, sont possédés, détenus ou contrôlés par des personnes morales ou toute autre entité elles-mêmes détenues ou contrôlées par M. Mohammed Deif ou agissant sciemment pour son compte ou sur instructions de celui-ci. »

Un arrêté en date du 30 novembre 2023 a adopté des dispositions similaires à l’encontre de Yahya Sinouar, le chef politique du Hamas à Gaza. La lecture de ces arrêtés ne manque pas de surprendre : comment les dirigeants du mouvement à la tête de la bande de Gaza ont-ils pu ouvrir des comptes en France en dépit du fait que le Hamas est inscrit sur la liste des organisations terroristes de l’Union européenne (UE) ?

En effet, un règlement du Conseil européen prévoit le gel de tous les fonds et autres avoirs financiers appartenant aux personnes, groupes et entités inscrits sur la liste du règlement d’exécution n° 2022/147. Aucun fonds, aucun avoir financier, ni aucune ressource économique ne peuvent être mis directement ou indirectement à la disposition de ces personnes, groupes et entités.

 

La voie des néo-banques

Formellement, le Hamas ainsi que d’autres organisations palestiniennes sont expressément nommés dans les textes communautaires. Il n’en est pourtant pas de même de leurs dirigeants. Les arrêtés précités ne viendraient donc que spécifier l’arsenal des dispositions européennes en désignant nommément deux des dirigeants du Hamas. Qui peut le plus peut le moins…

Quant à la réglementation bancaire française, les textes tendraient à rendre pratiquement impossible l’ouverture d’un compte bancaire par un membre d’une organisation terroriste. Pratiquement, un non-résident de l’UE qui souhaite ouvrir un compte en France doit se présenter physiquement dans une agence et présenter un justificatif d’identité et un justificatif de domicile.

La démarche est évidemment loin d’être évidente pour une personne qui vit en clandestinité. Ou alors elle doit passer par une banque en ligne (et accessible localement). En l’état actuel, ni Gaza ni l’Autorité palestinienne ne semblent bénéficier de l’accès à de tels services bancaires en ligne, à la différence de la Jordanie et du Qatar. Il est alors parfaitement possible d’effectuer des transferts en utilisant ces néo-banques. L’autorité bancaire britannique de régulation a d’ailleurs expressément dénoncé, dès avril 2022, les possibilités de blanchiment qu’offraient ces nouvelles enseignes.

 

« Know your client »

L’Autorité palestinienne ne disposant pas d’une monnaie nationale, il est parfaitement possible d’y transférer des euros ou des dollars. Et comme c’est l’un des rares endroits au monde où des transferts conséquents d’argent ont lieu en cash, les règles anti-blanchiment qui structurent le système bancaire international trouvent difficilement à s’appliquer.

À s’en tenir toujours à la réglementation bancaire française, un autre obstacle surgit :

« Lorsqu’une personne […] n’est pas en mesure d’identifier son client ou d’obtenir des informations sur l’objet et la nature de la relation d’affaires, elle n’exécute aucune opération, quelles qu’en soient les modalités, et n’établit ni ne poursuit aucune relation d’affaires. Lorsqu’elle n’a pas été en mesure d’identifier son client ou d’obtenir des informations sur l’objet et la nature de la relation d’affaires et que celle-ci a néanmoins été établie […], elle y met un terme. »

C’est le principe, exigeant désormais, du KYC_, « k_now your client » (« connais ton client »). Autrement dit, à supposer que le compte ait été ouvert, il est difficile pour la banque d’effectuer des transferts à l’étranger à partir du moment où la nature de l’opération a un lien avec le financement d’une activité terroriste. Dans le cas contraire, elle s’exposerait à des poursuites pour complicité de blanchiment. Même si le titulaire du compte n’est pas expressément visé par une interdiction, il ne peut donc pas forcément l’utiliser. Les arrêtés adoptés tiennent compte de cette situation et cherchent donc à empêcher, indistinctement, la « mise à disposition directe ou indirecte » des fonds.

 

Cagnottes en ligne et cryptomonnaies

Dans son ouvrage L’abécédaire du financement du terrorisme, la sénatrice Nathalie Goulet a recensé les différentes techniques utilisées pour collecter de l’argent afin de financer des opérations ou une organisation terroriste, tout en échappant aux foudres des instances de régulation du secteur bancaire.

L’éventail est large, et le conflit en cours confirme que toutes les techniques recensées sont mobilisées par les organisations terroristes. Il en va ainsi des cryptomonnaies en raison de la difficulté pour les autorités de contrôler leur conversion dans une monnaie ayant cours légal. Ou alors de l’ouverture d’une cagnotte en ligne par une association : l’objectif affiché est louable – le financement d’un hôpital à Gaza, par exemple ; il n’est cependant pas possible de vérifier l’affectation de l’intégralité des fonds.

Autre situation de plus en plus fréquente, le recours à des organisations non gouvernementales (ONG). Dès 2013, le Conseil de l’Europe signalait que les ONG pouvaient servir à blanchir de l’argent et financer le terrorisme. Depuis, de nombreuses structures ont adopté ce format institutionnel pour collecter de l’argent à des fins terroristes. Vouloir empêcher que des fonds soient mis à la disposition d’une organisation terroriste ou d’une personne précise implique donc un renforcement des contrôles aussi bien de certaines opérations aussi banales que les cagnottes que des structures de collecte de fonds.

 

Ambiguïté

Finalement, mais il n’est pas certain que ce soit l’effet recherché par le ministère de l’Économie et des Finances, la publication des arrêtés affiche au grand jour les failles du système bancaire français ; où l’on découvre, à cette occasion, que le régime de contrôle financier mis en œuvre n’empêche nullement un terroriste ou une personne proche des milieux terroristes d’ouvrir un compte bancaire sur le territoire français.

Nous ne savons pas si les arrêtés de Bercy auront un réel impact sur les finances des personnes concernées. Le ministère de l’Économie et des Finances n’a d’ailleurs ni confirmé ni infirmé que les personnes visées disposaient ou non d’avoirs en France, et cette ambiguïté fait courir un risque aux banques françaises.

Sur le fondement du Patriot Act, les Américains peuvent parfaitement s’arroger le droit de diligenter des poursuites à leur encontre en raison de leurs contributions au financement du terrorisme. Bref, en ce domaine, il est particulièrement difficile et critiquable de se contenter d’effets d’annonces.

Vous pouvez retrouver cet article en ligne ici.

❌