Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

Jean-Marc Jancovici au Sénat : omissions et approximations

Je viens d’écouter l’audition d’une petite heure de Jean-Marc Jancovici au Sénat, qui a eu lieu le 12 février dernier dans le cadre de la « Commission d’enquête sur les moyens mobilisés et mobilisables par l’État pour assurer la prise en compte et le respect par le groupe TotalEnergies des obligations climatiques et des orientations de la politique étrangère de la France ».

Beaucoup d’informations exactes, qui relèvent d’ailleurs bien souvent du bon sens, mais aussi quelques omissions et approximations sur lesquelles je souhaite revenir ici.

Je tiens à préciser d’entrée que j’ai beaucoup de respect pour Jean-Marc Jancovici, dont j’ai vu un nombre incalculable de vidéos sur YouTube, notamment la série de huit cours donnés à l’école des Mines. J’ai aussi lu avec intérêt le livre résumant Le plan de transformation de l’économie française publié par le Shift Project, think tank qu’il a cofondé.

Entendons-nous déjà sur le constat qu’on peut facilement partager avec lui avant d’en venir aux différents points d’achoppement.

Oui, il est urgent d’amener à zéro les émissions nettes de gaz à effet de serre au maximum, et le plus vite possible.

Oui, en l’état, il semble impossible de limiter la hausse moyenne des températures à 1,5 °C au-dessus du niveau préindustriel.

Et oui, nous semblons bien partis pour dépasser la limite des 2°C.

La question comme toujours demeure : « Que faire et comment ? ». Comme à son habitude, Jean-Marc Jancovici prêche d’abord et avant tout pour une sobriété massive en France, la « pauvreté choisie » selon ses mots, afin de montrer l’exemple au reste du monde dans l’espoir de l’inspirer, « son pari pascalien », dit-il.

C’est déprimant. Si la sobriété peut avoir un rôle à jouer, elle ne suffira pas à elle seule. Le progrès technologique accéléré par l’économie de marché ne trouve pas grâce à ses yeux, c’est son angle mort.

Mes remarques.

 

Oubli d’une pompe à carbone amenée à jouer un rôle majeur

Je note déjà une erreur scientifique dès sa prise de parole, ce qui est assez surprenant de sa part. Il explique qu’il n’y a que deux façons pour le CO2 de quitter l’atmosphère : soit en étant absorbé par l’océan par « équilibrage de pressions partielles » ; soit en étant transformé, avec d’autres intrants, en biomasse suite à l’action de la photosynthèse des plantes.

Il oublie un phénomène qui a son importance, on va le voir, l’érosion chimique des roches silicatées : quand le CO2 de l’atmosphère se mêle à la pluie pour produire de l’acide carbonique (H2CO3), qui va ensuite réagir avec ces roches pour donner d’un côté un minéral carbonaté (contenant les atomes de carbone) et de l’autre du sable en général (contenant les atomes de silicium). Les minéraux carbonatés ainsi produits sont ensuite emportés par les rivières et fleuves jusqu’au fond des océans où il se déposent. Leurs atomes de carbone sortent alors de l’atmosphère pour le très long terme. C’est ce qu’on appelle le cycle lent du carbone.

Si Jean-Marc Jancovici n’en parle pas, c’est sans doute car, si sur le temps géologique long il peut induire des changements climatiques très marqués, à notre échelle temporelle il n’a que peu d’impact : on considère qu’il retire de l’atmosphère chaque année environ 300 millions de tonnes de CO2, et il est contrebalancé par les émissions de CO2 des volcans qui rejettent, eux, environ 380 millions de tonnes de CO2 chaque année au maximum. Ce cycle géologique semble donc ajouter en net du carbone dans l’atmosphère, à hauteur de 80 millions de tonnes de CO2 par an, soit 0,2 % des émissions de CO2 d’origine humaine (autour de 40 milliards de tonnes/an).

Un oubli pardonnable donc. Mais cela traduit en fait la courte vue de Jean-Marc Jancovici, car ce phénomène, l’érosion chimique des roches silicatées, représente a priori le moyen le plus économique de capturer et stocker pour le très long terme et à très grande échelle le CO2 en excès dans l’atmosphère.

S’il nous faut absolument cesser d’émettre des gaz à effet de serre au plus tôt, l’inertie de nos économies fait que cela prendra du temps, même si les solutions sont réelles. Nous allons donc continuer à pourrir la planète pendant encore un certain temps. Il est urgent de réfléchir à comment retirer pour de bon l’excès de carbone dans l’atmosphère, à hauteur de 1500 milliards de tonnes de CO2, pour réparer le mal déjà commis, et limiter au maximum la casse.

Un certain nombre de solutions sont envisagées.

Celles consistant à embrasser la photosynthèse sont difficiles à généraliser à grande échelle, on manque de place pour ajouter assez d’arbres par exemple, et quand bien même, on n’est pas sûr de pouvoir les maintenir en état dans un monde en réchauffement. D’autres pensent aux algues, mais le résultat est difficile à mesurer. L’autre classe de solution est la capture du CO2 ambiant grâce à des machines et son stockage en sous-sol.

Le problème de toutes ces solutions, quand elles sont pensées pour être durables, est in fine leur scalability et leur coût. Elles sont beaucoup trop chères, on peine à voir comment tomber en dessous des 100 dollars par tonne de CO2 capturé et séquestré. Comme ce CO2 capturé ne rapporte rien directement, il s’agit en fait d’une taxe que les contribuables du monde doivent se préparer à payer. Avec 1500 milliards de tonnes de CO2 en excès, un coût de 100 dollars par tonne et plus rend tout simplement l’opération inconcevable, on parle d’environ deux fois le PIB mondial ! Même réparti sur 20 ans, on tombe à 10 % du PIB mondial par an, une taxe bien trop lourde.

Démultiplier l’érosion chimique de roches silicatées, notamment l’olivine, semble offrir un moyen de faire tomber ce coût à 5 dollars par tonne, tel que le détaille cette projection.

L’olivine est assez abondante et accessible sur Terre pour capturer les 1500 milliards de tonnes de CO2 en excès dans notre atmosphère. L’idée consiste à extraire ces roches, les concasser en fine poudre à déverser dans la mer où leur constituant principal, la fostérite de formule Mg2SiO4, réagira avec l’acide carbonique de l’océan (formé par réaction de l’eau avec le CO2) pour précipiter notamment du bicarbonate de magnésium Mg2(HCO3qui pourra se déposer au fond des mers, séquestrant au passage ses atomes de carbone. Bien sûr, il faudra pour cela beaucoup de machines qui utiliseront possiblement des carburants hydrocarbonés, (même pas en fait à terme), mais leur impact sera largement compensé par le CO2 séquestré. On parle là d’un chantier vertigineux, sur au moins vingt années, mais à 5 dollars par tonne de CO2, cela devient une taxe digeste à la portée de l’humanité.

Ainsi, plutôt que d’être passablement ignorée comme l’a fait Jean-Marc Jancovici, cette pompe à CO2 méritait au contraire d’être citée, et devrait faire l’objet de beaucoup d’attention, d’études complémentaires et expérimentations, préalables aux investissements à suivre.

 

Non, notre siècle ne sera pas un monde d’énergie rare

Jean-Marc Jancovici part du postulat que nous entrons dans une ère de pénurie d’énergie du fait du tarissement de la production de pétrole et de gaz, et de la nécessité absolue de se passer des énergies fossiles pour minimiser la catastrophe climatique.

De là, il prévoit que nous ne pourrons plus produire autant d’engrais aussi bon marché qu’aujourd’hui, ce qui veut dire que la nourriture sera plus rare et plus chère. Couplé à la hausse des coûts du transport, il en conclut qu’il deviendra prohibitif d’approvisionner en nourriture une ville comme Paris (deux millions d’habitants) et qu’à l’avenir, la taille idéale d’une ville serait plutôt de l’ordre de celle de Cahors (20 000 habitants).

Mais pourquoi s’arrêter en si bon chemin ? Si ce postulat et les premières étapes du raisonnement sont valides pour ce siècle, alors il y a bien pire à prévoir que de voir Paris se vider et fleurir des Cahors.

Continuons ce reductio ad absurdum.

Si l’on pense véritablement qu’on ne pourra pas produire autant de nourriture qu’aujourd’hui, que les rendements agricoles vont baisser drastiquement, et que la nourriture coûtera bien plus cher à l’avenir, alors le premier des problèmes n’est pas le redimensionnement des villes. Non, c’est d’abord et avant tout le fait que la Terre ne pourra pas faire vivre huit milliards d’êtres humains. Ce qui voudrait dire que des milliards d’entre nous sont d’ores et déjà condamnés à mourir de faim au XXIe siècle ! Autant que Jean-Marc Jancovici le dise clairement !

Ce bien sinistre tableau ne tient pas la route, nous allons voir pourquoi.

Mais demandons-nous d’abord quelles sont les raisons profondes derrière le postulat initial de Jean-Marc Jancovici ?

Il considère que d’une part, pour satisfaire à tous les usages électrifiables, on ne parviendra pas à développer assez vite les infrastructures de production d’électricité pour en produire en quantité suffisante à prix abordable. Car construire du nucléaire prend trop de temps, et le renouvelable souffre d’après lui de problèmes rédhibitoires : intermittence, contrainte sur les matériaux et les sols, et enfin prix acceptables envisagés non crédibles, car permis justement par la dépendance aux machines fonctionnant aux carburants fossiles, dont il faudrait se débarrasser.

D’autre part, il explique qu’il n’y a pas de solution alternative aussi abordable que les énergies fossiles pour les usages qu’on ne pourra pas électrifier, notamment l’aviation long courrier et le transport maritime en haute mer. Annonçant ainsi la fin de la mondialisation et les joies du voyage en avion.

Ce raisonnement a tenu un temps. Mais des tendances de fond, dont on pouvait effectivement encore douter jusqu’il y a quelques années, sont aujourd’hui impossibles à ignorer, et nous font dire que le XXIe siècle sera bien au contraire un monde d’abondance énergétique !

Ces tendances, les voici :

• Chute continue du coût de l’énergie solaire photovoltaïque (PV), et en parallèle, la croissance exponentielle des déploiements, même trajectoire pour les batteries qui permettent notamment la gestion de l’intermittence sur le cycle diurne (jour/nuit).

• De nouvelles études montrent qu’il y aura assez de matériaux pour assurer la transition énergétique.

• Du fait du premier point, il sera possible de produire à grande échelle des carburants de synthèse carbonés avec le CO2 de l’atmosphère (aux émissions nettes nulles donc) à un tarif compétitif, puis plus bas que les énergies fossiles importées à peu près partout sur Terre d’ici à 2035-2040.

Le dernier point va justement permettre de verdir et faire croître l’aviation et le transport maritime, et de tordre le cou à l’objection du renouvelable abordable seulement du fait de la dépendance aux énergies fossiles. On ne se passera pas des énergies carbonées, mais on fera en sorte qu’elles ne soient plus d’origine fossile.

Détaillons.

 

Chute continue du coût du solaire PV et des batteries

Pour se donner une idée, un mégawatt-heure d’électricité solaire PV coûtait 359 dollars à produire en 2009, on est aujourd’hui autour de 25 dollars/MWh aux États-Unis sur les fermes solaires de pointe.

En avril 2021, on apprenait qu’un chantier en Arabie Saoudite vendra de l’électricité à un prix record mondial de près de 10 dollars/MWh. Il y a toutes les raisons de penser que cela va continuer à baisser au rythme actuel pour encore longtemps, pour les raisons que j’exposais dans cet article (économies d’échelles, loi de Wright, assez de matériaux). Sans surprise, le solaire PV est en plein boom. En 2023 en Europe, c’est l’équivalent en puissance d’une centrale nucléaire par semaine qui a été installée !

Ce phénomène de baisse des prix au fur et à mesure des déploiements est également à l’œuvre avec les éoliennes, dans des proportions moindres toutefois. Elles auront un rôle à jouer dans les pays les moins ensoleillés et en hiver, en complément du solaire PV.

Cette explosion des déploiements va s’accélérer grâce à la baisse parallèle du coût des batteries qui permettent de compenser les effets de l’intermittence sur la journée. Par exemple, les batteries Lithium Iron Phosphate (LFP) coûtaient autour de 110 euros/kWh en février 2023. Les industriels parlent d’atteindre 40 euros/kWh cette année, un chiffre qu’en 2021 on pensait atteindre vers 2030-2040. Tout s’accélère !

Autre exemple, Northvolt, une entreprise suédoise, a dévoilé une technologie de batterie révolutionnaire, « la première produite totalement sans matières premières rares », utilisant notamment le fer et le sodium, très abondants sur les marchés mondiaux. Son faible coût et la sécurité à haute température rendent cette technologie particulièrement attractive pour les solutions de stockage d’énergie sur les marchés émergents, notamment en Inde, au Moyen-Orient et en Afrique.

Bref, on assiste bien à la chute continue du coût des batteries couplée à la hausse continue de leur qualité (s’en convaincre en 6 graphiques ici).

Pour la gestion de l’intermittence saisonnière, on s’appuira sur un système combinant centrales nucléaires et au gaz de synthèse pour prendre le relais au besoin. On continuera à investir dans l’extension des réseaux électriques permettant par exemple d’acheminer de l’électricité solaire PV depuis le Sahara jusqu’à l’Europe.

Enfin, pour le stockage longue durée, c’est a priori le stockage hydraulique par pompage qui devrait s’imposer.

 

Nous disposons d’assez de ressources et métaux pour la transition énergétique

L’Energy Transition Commission (ETC) a publié un rapport important en juillet 2023, qui examine les besoins en minéraux de 2022 à 2050. Il repose sur un scénario ambitieux visant à atteindre zéro émission nette d’ici 2050 : électricité mondiale décarbonée, transport de passagers quasiment décarboné, industrie lourde approvisionnée en hydrogène vert, et 7 à 10 milliards de tonnes de CO2 de captage et de stockage du carbone pour les émissions restantes.

Le rapport montre que le monde possède en soi suffisamment de cuivre, nickel, lithium, cobalt et argent, même si nous devrons en rendre davantage économiquement viables, ou trouver de nouveaux gisements facilement accessibles.

Mais il faut noter que les industriels savent souvent remplacer un matériau lorsque son approvisionnement semble compromis, ou que son prix monte trop.

Par exemple, les projections sur le besoin en cobalt ont considérablement baissé à mesure que certains constructeurs de voitures électriques se sont tournés vers d’autres intrants. De la même façon, les prix élevés du cuivre entraînent une transition vers l’aluminium.

Et les estimations de l’ETC sur la demande en minéraux sont élevées par rapport à d’autres analyses. En recoupant ces hypothèses avec d’autres analyses, on constate que l’ETC est conservateur, prévoyant généralement la plus forte demande en minéraux. Citons par exemple :

L’Agence internationale de l’énergie (AIE) : « Il n’y a généralement aucun signe de pénurie dans ces domaines : malgré la croissance continue de la production au cours des dernières décennies, les réserves économiquement viables ont augmenté pour de nombreux minéraux de transition énergétique. »

Agence internationale des énergies renouvelables (IRENA) : « Les réserves de minéraux de transition énergétique ne manquent pas, mais les capacités d’extraction et de raffinage sont limitées. […] La production a augmenté pour de nombreux minéraux de transition énergétique, et les réserves extraites de sources économiquement viables ont augmenté. De plus, les innovations de rupture – telles que l’amélioration de l’efficacité et les substitutions de matériaux – sont déjà en train de remodeler la demande. »

 

Carburants carbonés de synthèse aux émissions nettes nulles

On parle d’e-carburants, ou encore d’électro-carburants, car on utilise de l’électricité pour capturer le CO2 de l’atmosphère et pour faire de l’électrolyse de l’eau permettant d’obtenir l’hydrogène H2 à faire réagir avec le CO2 capturé afin de produire ces carburants de synthèse. Il ne faut pas les confondre avec les biocarburants, sur lesquels je reviens en dernière partie.

Si l’électricité utilisée est verte, on a bien là des carburants verts, aux émissions nettes nulles, puisque le CO2 utilisé au départ provient de l’atmosphère. Brûler ces carburants n’ajoute pas de nouveau carbone à l’atmosphère tiré des entrailles de la Terre. (pour retirer en net du CO2 de l’atmosphère, il faudra, par contre, se tourner vers la solution évoquée en première partie.)

Aujourd’hui, fabriquer ces e-carburants reste prohibitif. Mais cela va bientôt changer du fait de la chute continue du coût de l’énergie solaire PV.

Pour rivaliser avec le kérosène fossile importé par exemple, il faudra que le coût de cette énergie solaire PV passe en dessous des 10 dollars/MWh.

On utilise pour cela l’électricité sur le point de production sans avoir besoin de se raccorder au réseau pour s’épargner les coûts (onduleurs, pertes en transmission) et délais associés, en intégrant bien dans le calcul l’intermittence du solaire PV, et donc l’utilisation des machines produisant ces e-carburants que 25 % du temps en moyenne. J’explique tout en détail dans cet article.

Un des freins relatifs au développement du solaire PV est l’embouteillage pour se raccorder au réseau (des années dans certains cas aux États-Unis) et la disponibilités des batteries (même si ça évolue très vite, on l’a vu). Mais cela ne s’applique pas à la production d’e-carburants : nul besoin du réseau électrique ni de batteries. Cela ne peut que contribuer à débrider plus encore l’explosion des déploiements de fermes solaire PV.

Au rythme actuel de la baisse des prix du solaire PV, les e-carburants produits sur place seront compétitifs avec les carburant fossiles importés avant 2030 dans les endroits les plus favorables et à peu près partout sur Terre d’ici à 2035-2040.

C’est inévitable.

La mondialisation soutenue par le commerce maritime ne s’arrêtera pas faute d’énergie. Et loin de ralentir, l’aviation sera en mesure d’exploser à partir des années 2040, sans que cela n’accroisse les émissions nettes de gaz à effet de serre.

Si certaines tensions seront observées sur les 10 à 15 prochaines années, le temps que ces solutions arrivent à maturité, il est clair par contre qu’ensuite, c’est bien un monde d’abondance énergétique propre qui nous attend.

 

Oui, les biocarburants sont une hérésie, mais pas que pour les raisons invoquées

Suite à une question sur la concurrence des sols entre nourriture et biocarburants, Jean-Marc Jancovici explique que d’une certaine façon, oui les terres dédiées à la production de biocarburants conduisent à de la déforestation, sous-entendant qu’il faudrait faire sans les biocarburants et réduire en conséquence le transport des hommes et marchandises, la sobriété d’abord et avant tout à nouveau.

Jean-Marc Jancovici a raison, les biocarburants sont une aberration, mais pas seulement pour les raisons qu’il donne. Ils ont vocation à rester chers car produire de la biomasse, la récolter, la transporter, la transformer, la conditionner ne se prêtera pas à des économies d’échelles suffisantes.

Et quand bien même cela pourrait devenir aussi abordable que les carburants fossiles, c’est un crime thermodynamique absolu de s’en servir pour le transport terrestre comparativement à la motorisation électrique.

Pour un moteur à combustion, sur 100 unités d’énergie au départ, seuls 20 sont transformés en mouvement, le reste est gâché en chaleur inutilisée. Pour une voiture électrique, on est proche de 89 % d’efficacité ! En réalité, pour ce qui est du transport terrestre, la messe est dite, les véhicules électriques vont éclipser tout le reste. Dans quelques années, à autonomie égale, il sera moins cher à l’achat et à l’usage d’opter pour un véhicule électrique plutôt que pour un véhicule à essence. Mêmes les engins agricoles et de minageune partie de l’aviation et le transport maritime fluvial et côtier seront électrifiés à terme !

On peut se passer des biocarburants et des énergies fossiles, mais cela ne veut pas dire que le transport doit diminuer. On l’a vu, le transport terrestre a vocation à être électrifié de bout en bout, et les solutions existent pour produire en masse à terme de l’électricité verte.

Et pour les usages où l’on ne pourra pas encore se passer des hydrocarbones, on comprend maintenant que le salut viendra non pas des biocarburants, mais des e-carburants ! Puisque Jean-Marc Jancovici parlait des sols, notons que pour une même dose de soleil reçue, l’efficacité énergétique des biocarburants est de l’ordre de 0,1 % tandis qu’on est autour des 5 % pour les e-carburants (produits avec de l’énergie solaire PV).

Autrement dit, pour une quantité égale de carburants, on aura besoin de 50 fois moins de terres avec les e-carburants, et on pourra d’ailleurs utiliser des terres arides. Oui, les biocarburants sont une hérésie sans avenir.

Voilà donc une somme de raisons d’entrevoir le futur avec le sourire, un sourire non pas benêt, mais ancré dans la conviction que l’ingéniosité humaine et les ressources de notre planète permettront bien à huit milliards d’êtres humains et plus de vivre confortablement et durablement.

Cette abondance nous tend les bras au XXIe siècle, mais le chemin pour y arriver va être tortueux pour encore une bonne décennie. En attendant, tout effort de sobriété est bienvenu, ne le nions pas non plus, mais par pitié, ouvrons aussi les yeux sur ces dernières tendances plus qu’encourageantes.

AI Act : en Europe, l’intelligence artificielle sera éthique

Ce vendredi 2 février, les États membres ont unanimement approuvé le AI Act ou Loi sur l’IA, après une procédure longue et mouvementée. En tant que tout premier cadre législatif international et contraignant sur l’IA, le texte fait beaucoup parler de lui.

La commercialisation de l’IA générative a apporté son lot d’inquiétudes, notamment en matière d’atteintes aux droits fondamentaux.

Ainsi, une course à la règlementation de l’IA, dont l’issue pourrait réajuster certains rapports de force, fait rage. Parfois critiquée pour son approche réglementaire peu propice à l’innovation, l’Union européenne est résolue à montrer l’exemple avec son AI Act. Le texte, dont certaines modalités de mise en œuvre restent encore à préciser, peut-il seulement s’imposer en tant que référence ?

 

L’intelligence artificielle, un enjeu économique, stratégique… et règlementaire

L’intelligence artificielle revêt un aspect stratégique de premier ordre. La technologie fait l’objet d’une compétition internationale effrénée dont les enjeux touchent aussi bien aux questions économiques que militaires et sociales, avec, bien sûr, des implications conséquentes en termes de puissance et de souveraineté. Dans un tel contexte, une nation qui passerait à côté de la révolution de l’IA se mettrait en grande difficulté.

Rapidement, la question de la réglementation de l’IA est devenue un sujet de préoccupation majeur pour les États. Et pour cause, les risques liés à l’IA, notamment en matière de vie privée, de pertes d’emplois, de concentration de la puissance de calcul et de captation de la recherche, sont considérables. Des inquiétudes dont les participants à l’édition 2024 du Forum économique mondial de Davos se sont d’ailleurs récemment fait l’écho.

En effet, bien que des régimes existants, comme les règles sur la protection des droits d’auteur, la protection des consommateurs, ou la sécurité des données personnelles concernent l’IA, il n’existe à ce jour pas de cadre juridique spécifique à la technologie en droit international. De plus, beaucoup de doutes subsistent quant à la façon dont les règles pertinentes déjà existantes s’appliqueraient en pratique. Face à l’urgence, plusieurs États se sont donc attelés à clarifier leurs propres réglementations, certains explorant la faisabilité d’un cadre réglementaire spécifiquement dédié à la technologie.

Dans la sphère domestique comme à l’international, les initiatives se succèdent pour dessiner les contours d’un cadre juridique pour l’IA. C’est dans ce contexte que l’Union européenne entend promouvoir sa vision de la règlementation articulée autour de règles contraignantes centrées sur la protection des droits fondamentaux.

 

Un risque de marginalisation potentiel

Le Plan coordonné dans le domaine de l’intelligence artificielle publié en 2018, et mis à jour en 2021, trace les grandes orientations de l’approche de l’Union européenne. Celui-ci vise à faire de l’Union européenne la pionnière des IA « légales », « éthiques » et « robustes » dans le monde, et introduit le concept d’« IA digne de confiance » ou trustworthy AI. Proposé en avril 2021 par la Commission européenne, le fameux AI Act est une étape décisive vers cet objectif.

L’IA Act classe les systèmes d’intelligence artificielle en fonction des risques associés à leur usage. Ainsi, l’étendue des obligations planant sur les fournisseurs de solutions d’IA est proportionnelle au risque d’atteinte aux droits fondamentaux. De par son caractère général, l’approche européenne se distingue de la plupart des approches existantes, qui, jusqu’alors, demeurent sectorielles.

Parmi les grands axes du texte figurent l’interdiction de certains usages comme l’utilisation de l’IA à des fins de manipulation de masse, et les systèmes d’IA permettant un crédit social. Les modèles dits « de fondation », des modèles particulièrement puissants pouvant servir une multitude d’applications, font l’objet d’une attention particulière. En fonction de leur taille, ces modèles pourraient être considérés à « haut risque, » une dénomination se traduisant par des obligations particulières en matière de transparence, de sécurité et de supervision humaine.

Certains États membres, dont la France, se sont montrés particulièrement réticents à l’égard des dispositions portant sur les modèles de fondation, y voyant un frein potentiel au développement de l’IA en Europe. Il faut dire que l’Union européenne fait pâle figure à côté des deux géants que sont les États-Unis et la Chine. Ses deux plus gros investisseurs en IA, la France et l’Allemagne, ne rassemblent qu’un dixième des investissements chinois. Bien qu’un compromis ait été obtenu, il est clair que la phase d’implémentation sera décisive pour juger de la bonne volonté des signataires.

À première vue, le AI Act semble donc tomber comme un cheveu sur la soupe. Il convient néanmoins de ne pas réduire la conversation au poncif selon lequel la règlementation nuirait à l’innovation.

 

L’ambition d’incarner un modèle

Le projet de règlementer l’IA n’est pas une anomalie, en témoigne la flopée d’initiatives en cours. En revanche, l’IA Act se démarque par son ambition.

À l’instar du RGPD, le AI Act procède de la volonté de l’Union européenne de proposer une alternative aux modèles américains et chinois. Ainsi, à l’heure où les cultures technologiques et réglementaires chinoises et américaines sont régulièrement présentées comme des extrêmes, le modèle prôné par l’Union européenne fait figure de troisième voie. Plusieurs organismes de l’industrie créative avaient d’ailleurs appelé les États membres à approuver le texte la veille du vote, alors que la réticence de Paris faisait planer le doute quant à son adoption. Cet appel n’est pas anodin et rejoint les voix de nombreux juristes et organismes indépendants.

Compte tenu des inquiétudes, il est clair que l’idée d’une IA éthique et respectueuse des droits fondamentaux est vendeuse, et serait un moyen de gagner la loyauté des consommateurs. Notons d’ailleurs que huit multinationales du digital se sont récemment engagées à suivre les recommandations de l’UNESCO en matière d’IA éthique.

L’initiative se démarque aussi par sa portée. Juridiquement, le AI Act a vocation à s’appliquer aux 27 États membres sans besoin de transposition en droit interne. Le texte aura des effets extraterritoriaux, c’est-à-dire que certains fournisseurs étrangers pourront quand même être soumis aux dispositions du règlement si leurs solutions ont vocation à être utilisées dans l’Union.

Politiquement, le AI Act est aussi un indicateur d’unité européenne, à l’heure où le projet de Convention pour l’IA du Conseil de l’Europe (qui englobe un plus grand nombre d’États) peine à avancer. Mais peut-on seulement parler de référence ? Le choix de centrer la règlementation de l’IA sur la protection des droits de l’Homme est louable, et distingue l’Union des autres acteurs. Elle en poussera sans doute certains à légiférer dans ce sens. Néanmoins, des ambiguïtés subsistent sur son application. Ainsi, pour que l’AI Act devienne une référence, l’Union européenne et ses membres doivent pleinement assumer la vision pour laquelle ils ont signé. Cela impliquera avant tout de ne pas céder trop de terrains aux industriels lors de son implémentation.

Stratégie française pour l’énergie et le climat : une fuite en avant vers la décroissance

La nécessité de décarboner à terme notre économie, qui dépend encore à 58 % des énergies fossiles pour sa consommation d’énergie, est incontestable, pour participer à la lutte contre le réchauffement climatique, et pour des raisons géopolitiques et de souveraineté liées à notre dépendance aux importations de pétrole et de gaz, la consommation de charbon étant devenue marginale en France.

Cependant, la voie à emprunter doit être pragmatique et ne doit pas mettre en danger la politique de réindustrialisation de la France, qui suppose une croissance durable avec un accès à un approvisionnement énergétique abondant, à un prix accessible, et résilient aux aléas de toutes natures (sécurité d’approvisionnement).

Cette politique ne doit donc pas être guidée par une « urgence climatique » qui conduirait à se fixer des objectifs excessifs et irréalistes en terme de rythme de réduction de la consommation d’énergie, de décarbonation (le tout véhicules électriques avec interdiction des véhicules thermiques dès 2035, la suppression des chaudières à gaz…), et de développement à marche forcée des ENR, au risque de surcoûts non supportables par notre économie et le corps social, et de passage d’une dépendance aux importations de combustibles fossiles à une dépendance à l’achat de matériaux et d’équipements (batteries, panneaux solaires, éoliennes, électrolyseurs…) provenant d’Asie, et de Chine en particulier. Cela sans bénéfice climatique significatif pour la planète, car les produits fabriqués en Asie le sont avec une énergie largement dominée par le charbon …

Cette note démontre que la stratégie proposée (SFEC) n’échappe pas à ce risque, en se situant dans la perspective du « fit for 55 » européen, approuvé sous présidence française de l’UE, et qui s’apparente à une dangereuse fuite en avant, risquant de déstabiliser des pans entiers de l’industrie européenne.

La décarbonation des énergies, à l’échelle de la France, qui permet de remplacer des énergies fossiles importées par des énergies décarbonées produites en France, a un effet vertueux sur l’emploi, le PIB et la balance commerciale du pays (aux équipements importés près, comme les panneaux photovoltaïques) : c’est le cas du parc nucléaire et du parc hydraulique construits au siècle dernier, ainsi que pour les ENR électriques et les ENR thermiques développées depuis une quinzaine d’années.

C’est pour cela que fermer une centrale nucléaire comme Fessenheim a constitué une faute lourde, au détriment de la diminution des émissions de CO2, et de la santé de l’économie française (11 TWh de perte annuelle de production, soit 660 millions d’euros à 60 euros/MWh).

À l’exception de l’éradication du charbon, la décarbonation de la production d’électricité n’est pas un sujet en France, les parcs de production nucléaire et renouvelable (hydraulique, éolien, solaire et biomasse) représentant plus de 93 % de la production.

En termes de méthode, la préparation de cette stratégie s’est certes appuyée sur un travail de concertation avec des groupes de travail transpartisans et de participation citoyenne, mais il est regrettable que le rapport de la Commission d’enquête parlementaire du printemps 2023 sur la perte de souveraineté énergétique de la France n’ait pas été pris en compte, ce qui constitue un déficit de démocratie parlementaire incompréhensible.

 

Un objectif de réduction de la consommation d’énergie incompatible avec une réindustrialisation de la France

La stratégie proposée retient pour objectif une réduction de la consommation d’énergie finale à 1209 TWh en 2030 et à 900 TWh en 2050, alors que cette consommation était en 2021 de 1611 TWh (en lente diminution depuis le niveau de 2012 de 1661 TWh) :

Les efforts d’amélioration de l’efficacité énergétique conduits depuis près de 30 ans dans tous les secteurs de l’économie (bâtiments, transports, industrie), en intégrant la diminution de 3,1 % de la consommation en 2022 (augmentation des prix, plan de sobriété), ont permis de découpler croissance économique et consommation d’énergie, avec une diminution moyenne annuelle de 1,5 % par an de l’intensité énergétique, la consommation finale d’énergie par unité de PIB diminuant à 66 pour une base 100 en 1994 :

 

La légère diminution de la consommation d’énergie de 0,3 % par an observée de 2012 à 2019 (en deçà de l’objectif des PPE précédentes) est cohérente avec le taux annuel de croissance moyen du PIB de 1,2% en euros constants, et le taux d’amélioration de l’efficacité énergétique de 1,5 % par an.

L’objectif fixé pour 2030 (1209 TWh), en forte diminution par rapport à celui de la PPE précédente (1378 TWh), correspond à une diminution annuelle de la consommation d’énergie de 3,7 % par an : c’est une inflexion brutale correspondant à une croissance zéro du PIB, assortie d’une amélioration hypothétique de l’efficacité énergétique de 3,7 % par an, soit un rythme 2,5 fois supérieur au rythme historique.

Une croissance du PIB de 1,5 % par an, nécessaire dans le cadre d’une réindustrialisation de la France (remonter la part de la production industrielle dans le PIB de 10 % à 20 % en 2050), supposerait, pour atteindre l’objectif, une amélioration de l’efficacité énergétique de 5,3 % par an, qui apparaît totalement hors de portée, même en imposant des mesures de sobriété de façon autoritaire et « punitive » (interdictions d’usage et restrictions fortes des libertés individuelles, …).

L’objectif de 900 TWh fixé pour 2050, horizon théorique du « Net Zéro Carbone », correspond à une diminution moyenne de la consommation finale d’énergie de 2,1 % par an : si cet objectif est envisageable, c’est au prix d’une croissance nulle, incompatible avec une politique de réindustrialisation de la France, qui suppose une augmentation nette de la consommation énergétique du secteur. Une croissance du PIB de 1,5 % par an supposerait une amélioration de l’efficacité énergétique de 3,6 % par an, qui n’apparaît pas soutenable.

En effet, les efforts de sobriété auxquels ont consenti les Français en 2022, peuvent sans doute être consolidés dans la durée, mais ne sont pas cumulatifs. Ils constituent en quelque sorte un « fusil à un coup » : une fois que l’on a abaissé la température de chauffage à 18 ou 19 °C, on ne va pas la diminuer à 17 °C, puis de 1° C supplémentaire par an les années suivantes.

En conclusion, les « objectifs » de réduction de la consommation d’énergie de la SFEC conduisent au mieux à une croissance zéro, et plus probablement à une décroissance de l’économie, comme le démontre la modélisation du graphique suivant :  

Pour une croissance du PIB de 1,5 % par an, la quantité d’énergie nécessaire, avec un pilotage des actions d’amélioration de l’efficacité énergétique et le maintien des efforts de sobriété et de lutte contre le gaspillage, peut être estimée dans une fourchette de 1200 à 1350 TWh, sous réserve d’une amélioration de l’efficacité énergétique de 2,1 à 2,5 % par an, soit + 50 % par rapport au rythme historique, ce qui représente un effort considérable.

Fonder la stratégie énergétique de la France sur un tel oukase malthusien de réduction drastique de la consommation d’énergie est inconséquent, car de plus, cela fausse la vision de la production d’électricité bas carbone qui sera nécessaire pour décarboner l’économie : à horizon 2050, en retenant un taux d’électrification de l’ordre de 60 à 65 % dans la consommation finale d’énergie (production H2 incluse), la consommation d’électricité est de l’ordre de 560 TWh avec une hypothèse de consommation totale d’énergie de 900 TWh, et de l’ordre de 800 TWh avec la fourchette indiquée ci-dessus.

La trajectoire de la consommation d’énergie en France ne peut être fondée sur un objectif idéologique et irréaliste fixé a priori, mais être la résultante de la croissance du PIB, et d’une action déterminée dans la durée sur le levier de la diminution de l’intensité énergétique, pilotée avec des objectifs ambitieux mais réalistes par secteur.

En effet, l’évolution de l’intensité énergétique est différenciée par secteur :

On constate par exemple que les progrès en efficacité énergétique sont plus rapides dans les secteurs de l’industrie, du logement et, dans une moindre mesure, des véhicules légers, alors que les progrès dans les bâtiments tertiaires et les poids lourds sont plus lents.

Enfin, il convient de signaler une erreur de méthode contenue dans l’extrait suivant :

Si cette assertion est exacte pour le passage d’un véhicule thermique à un véhicule électrique (consommation de 20 kWh d’électricité stockés dans la batterie pour parcourir 100 km avec un véhicule léger, contre 60 kWh de carburant) – pour autant que l’électricité ne soit pas produite par une centrale à carburant, quand la recharge a lieu pendant les heures de pointe -, elle est manifestement fausse pour le passage d’un chauffage à combustion à une pompe à chaleur :

À isolation de l’enveloppe du bâtiment et usage identiques, on consomme la même quantité d’énergie finale : avec une pompe à chaleur on substitue en gros 3 kWh de combustion, par 1 kWh d’électricité (consommation de la pompe) et 2 kWh de chaleur renouvelable (ENR Thermique) extraite de l’environnement (air ou eau).

Les deux leviers de l’efficacité énergétique dans les bâtiments sont les suivants :

Un comportement des occupants économe en énergie

Notamment dans les bâtiments tertiaires où la consommation en dehors des heures d’utilisation (chauffage, éclairage) est excessive : la réduction drastique de ce gaspillage, qui demande peu d’investissements, devrait permettre en quelques années d’économiser plus de 50 TWh, sur une consommation annuelle totale de 260 TWh.

Isolation thermique et équipements économes en énergie (éclairage LED, électroménager,..)

Pour les bâtiments neufs, la Réglementation Environnementale RE 2020 (350 000 logements par an) garantit un niveau satisfaisant. Pour les bâtiments existants, la stratégie proposée priorise à juste titre la rénovation d’ampleur des « passoires énergétiques » (logements catégories F et G), mais ne doit pas conduire pour autant à vouloir les amener tous dans les catégories A, B ou C, ce qui conduirait à des dépenses prohibitives (coût de la tonne de CO2 évitée de 400 à 500 euros). À ce titre, la réforme de l’aide principale (MaPrimeRenov) pour 2024 apparaît bien adaptée : gain de deux catégories au minimum, un objectif réaliste pouvant consister à obtenir un bâti a minima de catégorie D. Cependant, il ne faudrait pas décourager les gestes successifs dans un parcours pluri-annuel visant cet objectif, pour ne pas exclure du marché les artisans.

Pour autant, l’objectif fixé pour 2030 par le décret éco énergie tertiaire de 2019 (réduction de la consommation totale de 40 %) et l’objectif annuel de rénovation globale de 200 000 logements dès 2024 (pour 100 000 actuellement), et jusqu’à 900 000 en 2030 apparaissent peu réalistes, alors que le nombre de logements de catégories F ou G est évalué à environ 5 millions : dans ces conditions, les échéances fixées à 2025 (G) et 2028 (F) d’interdiction de location de ces logements apparaissent difficilement soutenables.

 

Efficacité énergétique dans les transports : vers l’abandon du plan Fret Français Ferroviaire du Futur élaboré en 2020 ?

S’agissant du secteur des transports, la stratégie proposée ne retient comme vecteur d’efficacité énergétique que le véhicule électrique à batterie, qui est loin d’être une solution universelle, et est adaptée essentiellement pour les déplacements quotidiens des véhicules légers (moins de 150 km par jour, 75 % des km parcourus), mais pas pour les usages intensifs et les parcours longues distances, ni pour les transports lourds.

Le principal levier d’efficacité énergétique dans les transports est le remplacement du transport par camions par une combinaison intermodale camions / ferroviaire / fluvial : le transport d’une tonne de marchandise par le train consomme six fois moins d’énergie et émet neuf fois moins de CO2 que par la route.

Sur 490 TWh de carburants brûlés dans les transports routiers (dont 450 TWh issus du pétrole), 200 TWh sont consommés dans le transport de marchandises. La situation s’est largement dégradée depuis l’an 2000, la part modale du ferroviaire étant revenue de 18 % à 9 %, alors que la moyenne européenne est à 18 %, avec un objectif de 30 % pour 2030, déjà atteint par la Suisse et l’Autriche.

Le plan 4F ambitionne de doubler la part modale du ferroviaire d’ici 2030, ce qui permettrait d’économiser 22 TWh de carburants, et 60 TWh à l’horizon 2050, en portant la part modale à 33 %, soit un potentiel de 13 % d’économie sur le total de la consommation de pétrole dans les transports.

La SNCF a un rôle à jouer, mais parmi d’autres acteurs en concurrence, d’autant que la Commission européenne lui impose de réduire la voilure dans le fret.

Bien que faisant régulièrement l’objet d’annonces de soutien gouvernemental (en dernier lieu en mai 2023 avec 4 milliards d’euros d’investissement, ce plan prioritaire pour l’efficacité énergétique dans les transports ne figure pas dans la Stratégie énergie climat proposée, ce qui est incompréhensible.

En ce qui concerne le transport de voyageurs, hors décarbonation par les véhicules électriques, l’amélioration de l’efficience des véhicules thermiques (rajeunissement du parc), ainsi que le report modal vers les transports en commun (trains, tramways et RER métropolitains), le vélo et le covoiturage devraient permettre une économie de l’ordre de 30 TWh de carburants à l’horizon 2050.

 

Accélération des ENR et renforcement associé des réseaux : des objectifs irréalistes et coûteux

Le développement des ENR électriques intermittentes est utile et nécessaire pour parvenir à augmenter de plus de 60 % la production d’électricité à l’horizon de la décarbonation de l’économie française, dans la mesure où il est considéré comme un complément de production d’électricité décarbonée d’une base pilotable largement prépondérante (nucléaire et hydraulique), et non comme le moyen principal, comme cela est programmé dans l’Energiewende allemande, et, jusqu’à présent, par la Commission européenne.

La SFEC ne s’inscrit pas dans une telle perspective, en s’appuyant essentiellement sur un développement accéléré des ENR électriques, et en second lieu sur une relance limitée du nucléaire, qui en l’état ne permettra pas à l’horizon 2050 le maintien de la capacité de production nucléaire (voir chapitre suivant).

Enfin, une part de production intermittente prépondérante, avec une puissance installée largement supérieure à celle des centrales utilisant des machines tournantes pour produire de l’électricité (nucléaire, hydraulique, gaz ou biomasse), entraîne un risque élevé d’instabilité des réseaux, car il n’y a plus assez d’inertie dans le système électrique pour donner le temps suffisant pour réajuster la production en cas d’aléa. Ce risque de blackout total ou partiel est de plus aggravé dans le cadre du réseau européen interconnecté, avec notamment un pays comme l’Allemagne qui compte s’appuyer pour l’essentiel sur l’éolien et le solaire pour sa production d’électricité.

 

L’éolien maritime

Même en tenant compte de l’augmentation de la puissance unitaire des éoliennes, il est irréaliste de vouloir atteindre 45 GW en 2050, alors que la PPE en vigueur indique, sur la base d’une étude de l’ADEME, que le potentiel de l’éolien posé est de 16 GW, en raison de l’étroitesse du plateau continental le long du littoral Atlantique et de la Manche (il n’y a pas de potentiel en Méditerranée).

De même, l’objectif de 18 GW en 2035, alors qu’au maximum 3,6 GW seront mis en service en 2030, semble largement surévalué (un appel d’offres de 10 GW est prévu en 2025).

 

L’éolien flottant

La France y est en pointe, mais la technologie est encore au stade expérimental. Elle n’a pas à ce stade prouvé son intérêt économique (le prix est le double de celui de l’éolien posé), d’autant que le coût du raccordement électrique est aussi plus élevé (au-delà de 25 euros/MWh).

Il paraît prudent de faire une évaluation sur la base d’un retour d’expérience des trois fermes pilote de 30 MW en cours de réalisation en Méditerranée, avant de lancer définitivement les trois projets de 250 MW en cours d’instruction (en Bretagne Sud et en Méditerranée).

Écrire dans le document que 18 GW d’éolien offshore est l’équivalent de la production de 13 réacteurs nucléaires relève de la désinformation pure et simple du citoyen, pour trois raisons :

  1. 18 GW d’éolien flottant peuvent produire 60 TWh par an d’électricité (selon le document 70 TWh avec un taux de charge de 44 %), alors que 18 GW de nucléaire (correspondant à 11 réacteurs EPR2 en puissance installée) ont une capacité de production annuelle de 120 TWh
  2. La production éolienne ne peut se substituer à la production nucléaire, car elle est intermittente et n’offre aucune puissance garantie lors des pointes de consommation par grand froid hivernal.
  3. En termes de coût, les six premiers parcs (3 GW) ont un coût du MWh supérieur à 160 euros/MWh (raccordement compris qui s’impute sur le TURPE), et l’éolien flottant sera au même niveau : le coût moyen de l’éolien maritime est donc deux fois plus élevé que le coût du MWh du nouveau nucléaire. Le coût supplémentaire de la production de 14 GW d’éolien maritime pendant 20 ans (47 TWh par an) peut être estimé à 75 milliards d’euros, ce qui permettrait de construire 11 EPR2, qui vont produire 120 TWh par an pendant 60 ans.

De plus, il ne faut pas sous-estimer l’agressivité du milieu marin (salinité, tempêtes), avec un risque élevé sur la maintenance, et surtout sur la capacité au terme de 20 ans de pérenniser les installations, comme cela est envisagé pour l’éolien terrestre, avec le repowering.

En conclusion, l’éolien maritime n’est pas un moyen durable et écologique de production d’électricité en France, et sa part devrait rester marginale à l’horizon 2050 (10 à 15 GW), sauf à couvrir l’horizon de nos côtes de mâts d’éoliennes hauts de plusieurs centaines de mètres, pour un bilan économique calamiteux…

 

L’éolien terrestre

Conserver le rythme actuel de développement pour aboutir à 40 GW en 2035 revient à revenir sur la perspective tracée par Emmanuel Macron lors de son discours de candidat à Belfort, où il s’engageait à diminuer le rythme pour la bonne insertion des champs sur les territoires, en repoussant ce point d’arrivée à 2050.

Il faut en particulier tenir compte du fait que 1 GW par an (soit une centaine de parcs) arrive désormais en fin de contrat d’achat (15 ans), et que chaque parc concerné doit faire l’objet, soit d’un démantèlement s’il est placé trop près des habitations ou d’un site remarquable, soit d’un repowering : la décision devrait être prise par les élus locaux qui, dans la loi « d’accélération des renouvelables » du printemps dernier, ont l’initiative pour déterminer, en concertation avec la population, les zones d’implantation possibles des productions ENR.

En ce qui concerne le repowering, vouloir démanteler et remplacer les infrastructures existantes (mâts, massifs de béton, raccordement au réseau de distribution d’électricité) par de nouvelles éoliennes plus hautes et plus puissantes n’est pas très écologique, ni même économique : une politique de développement durable consisterait plutôt à conserver l’infrastructure et remplacer les équipements arrivés en fin de vie (générateur, pales), avec un investissement marginal qui autoriserait un coût du MWh très compétitif, ne demandant aucune subvention.

Cette politique permettrait aux opérateurs rénovant des parcs éoliens de proposer des contrats d’achat d’électricité éolienne à long terme pour, par exemple, produire de l’hydrogène bas carbone, en synergie avec l’électricité du réseau quand il n’y a pas ou peu de vent (majoritairement nucléaire en dehors des heures de pointe). Une production locale adossée à un parc éolien est également possible : un électrolyseur de 6 MW alimenté en priorité par un parc éolien de 12 MW, et en complément par le réseau (en dehors des heures de pointe) permet de produire 850 tonnes d’hydrogène par an, 50 % en autoconsommant 93 % de l’électricité éolienne, et 50 % avec l’électricité du réseau.

 

Solaire photovoltaïque

Les objectifs de 54 à 60 GW dès 2030, et de 75 à 100 GW dès 2035 apparaissent peu réalistes, alors que 16 GW sont installés, et que le rythme de 3 GW par an (grands parcs au sol et toitures) n’a encore jamais été atteint : 35 GW en 2030 et 50 GW en 2035 apparaîtraient déjà comme des objectifs très ambitieux.

Pour atteindre ces objectifs, la loi d’accélération des énergies renouvelables fixe en priorité l’utilisation de terrains déjà artificialisés et de toitures, mais ouvre la porte au défrichement de zones boisées (jusqu’à 25 Ha) et au développement de l’utilisation de terres agricoles (agrivoltaïsme), qui risquent de détourner les agriculteurs de leur vocation première, la production agricole servant en priorité l’alimentation humaine et animale.

Enfin, une telle accélération repose quasiment intégralement sur l’importation de panneaux solaires, principalement de Chine, qui ont de plus un bilan CO2 dégradé (45 g CO2 eq/kWh produit) en raison de leur process de fabrication utilisant largement de l’électricité produite à base de charbon : le critère qualitatif des appels d’offres lancés par la CRE (Évaluation Carbone Simplifié) ne permet pas de dissuader l’utilisation de panneaux à bas coût très chargés en carbone, le seuil de référence de la note zéro ayant même été relevé (de 700 kg CO2 à 1150 kg CO2 par KWhc de puissance) depuis 2018 !

Et le « mécanisme d’ajustement carbone aux frontières » que l’Union européenne met difficilement en place, et qui ne sera effectif sur un plan financier qu’à partir de 2026, ne concerne pas la production des panneaux solaires, ni d’ailleurs celle des batteries…

 

Développement des réseaux

La stratégie de développement à marche forcée des ENR conduit ENEDIS à porter ses investissements au-delà de 5 milliards d’euros par an, et RTE à prévoir 100 milliards d’euros d’ici 2042, soit là aussi 5 milliards par an, contre moins de 2 milliards jusqu’à présent : ces sommes sont considérables (plus de 35 milliards d’euros pour le raccordement de l’éolien maritime par exemple), et auront un impact sur le TURPE, que l’on peut évaluer à un besoin d’EBITDA supplémentaire de 4 à 5 milliards par an, soit environ 12 euros/MWh sur la facture des clients.

Le TURPE (Tarif d’Utilisation des Réseaux Publics d’Electricité) est déjà passé de 55 euros/MWh en 2022 à 61,5 euros/MWh en septembre 2023 pour les particuliers et les TPE, en raison de l’augmentation des investissements sur les réseaux de distribution et de transport d’électricité, mais aussi de l’augmentation du coût d’achat des pertes, celui-ci étant affecté par une diminution du volume de l’ARENH disponible, qui oblige ENEDIS et RTE à acheter environ 16 % d’un volume de 36 TWh sur le marché, contre seulement 4 % auparavant.

 

ENR thermiques

En dehors de la chaleur fatale récupérée et de la chaleur extraite de l’environnement (pompes à chaleur et géothermie), la source principale d’énergie renouvelable thermique est issue de la biomasse et de la valorisation de déchets, sous différentes formes : biocarburants liquides, biogaz et bois-énergie.

La SFEC insiste à juste titre sur le fait que les ressources de biomasse disponibles pour la production énergétique sont limitées et en concurrence avec les usages alimentaires (production agricole) et en matériaux biosourcés : il est donc nécessaire de mener une réflexion pour prioriser les formes d’énergie à développer et les usages, en améliorant leur efficacité (foyers fermés pour le chauffage bois par exemple).

Le développement de la production de biométhane par méthanisation est utile pour la décarbonation partielle du gaz distribué en réseau et la décarbonation des transports routiers lourds et maritimes (bio-GNV). Cependant, atteindre 50 TWh dès 2030 (11 TWh actuellement) est un objectif très ambitieux, alors que le potentiel de méthanisation mobilisable est de l’ordre de 100 TWh, à condition de développer les cultures intermédiaires (CIVE) et d’intégrer 15 % de cultures dédiées (maïs ensilage).

Comme le souligne le document, le coût du biométhane (80 à 110 euros/MWh) reste deux à trois fois supérieur au prix du gaz naturel importé (30 à 60 euros/MWh). Un volume de 50 TWh avec un niveau de subvention de 50 euros/MWh représente une charge annuelle de 2,5 milliards d’euros, à mettre en regard des émissions de CO2 évitées, et des bénéfices pour la balance commerciale, la valeur ajoutée domestique (emplois) et la diminution de l’utilisation d’engrais de synthèse grâce au digestat résidu de la méthanisation.

En ce qui concerne les biocarburants liquides, la SFEC prévoit à juste titre de passer à terme d’une utilisation en mélange dans les carburants routiers à une utilisation pour décarboner le transport aérien, ainsi que les secteurs de l’agriculture, du bâtiment-TP et de la pêche : à titre d’exemple, le volume de gazole non routier utilisé par les agriculteurs et les pêcheurs est de 35 TWh, qui pourraient être utilement remplacés par du biogazole B100 pour leur permettre de décarboner leur activité en conservant leur outil de travail (la production nationale de biocarburants attendue en 2030 est de 50 TWh, très majoritairement du biogazole).

 

Nucléaire : une relance insuffisante à l’horizon 2050

Pour disposer de 850 TWh de productible en 2050 (pertes comprises), volume nécessaire de production pour décarboner l’économie, et d’une capacité pilotable suffisante pour gérer les pointes de consommation hivernale lors des grands froids (qui pourront atteindre jusqu’à 110 GW avec l’électrification du chauffage des bâtiments, en tenant compte d’un effacement des électrolyseurs, de la production d’eau chaude et de la recharge des véhicules électriques), il y a besoin de 75 à 80 GW de puissance nucléaire installée, et les SMR n’en constitueront qu’une part très minoritaire (4 GW dans le scénario N03, le plus nucléarisé de RTE dans son étude « futurs énergétiques 2050 » publiée fin 2021).

Sur la base d’une prolongation de la durée de vie à 60 ans de l’ensemble des réacteurs encore en fonctionnement du parc historique (après fermeture anticipée de Fessenheim en 2020), et de la mise en service de l’EPR de Flamanville, un « effet falaise » se produira dès 2040, et la capacité nucléaire résiduelle sera au maximum de 16 GW en 2050, et de 1,6 GW en 2060 (EPR Flamanville) :

S’il est possible d’envisager une prolongation au-delà de 60 ans de la durée de vie pour certains réacteurs dans des conditions de sûreté acceptables (cela dépend de l’état de la cuve du réacteur, seul élément non remplaçable), il se peut aussi que certains réacteurs ne reçoivent pas l’autorisation d’exploitation jusqu’à 60 ans, et soient arrêtés lors de la visite décennale des 50 ans, voire des 40 ans : il est donc prudent de baser la stratégie sur cette hypothèse centrale d’une durée de vie de 60 ans, une adaptation restant bien entendu possible dans le temps en fonction du résultat des visites décennales.

La conclusion s’impose, si l’on veut maintenir l’échéance de 2050 pour le « Net Zéro Carbone » en France en 2050, et garantir une sécurité d’approvisionnement en électricité : au-delà des tranches de six et huit EPR2 décidées ou envisagées, c’est un rythme d’engagement et de construction de deux EPR2 par an qui s’avère nécessaire dans la durée jusqu’en 2050, afin de disposer en 2060 de 40 à 45 EPR en plus de l’EPR de Flamanville, quand l’ensemble du parc actuel aura dépassé l’âge de 60 ans.

À partir de 2035, en fonction des perspectives de prolongation avérées de la durée de vie des réacteurs existants, et de l’état du développement d’une filière de réacteurs nucléaires à neutrons rapides, la stratégie pourra être adaptée.

Si un tel rythme d’engagement et de réalisation ne se révèle pas soutenable, et que la construction de 14 EPR2 d’ici 2050 est confirmée comme étant un maximum, alors la capacité de production nucléaire sera revenue de 63 GW à moins de 45 GW (productible de 280 TWh), avec un mix électrique ne comportant plus que 36 % de nucléaire, et d’une capacité de production totale insuffisante (environ 780 TWh) pour assurer la décarbonation de l’économie et sa réindustrialisation, malgré des objectifs démesurément élevés en éolien offshore et solaire photovoltaïque.

La capacité pilotable ne dépassera pas 72 GW, en pérennisant les 9 GW de cycles combinés à gaz et turbines à combustion existantes (TAC), ainsi que les centrales bioénergies existantes et les centrales à charbon de Cordemais et Saint-Avold converties à la biomasse, comme le montre le tableau ci-dessous :

Une telle situation ne serait pas gérable, et nécessiterait a minima la construction de 20 à 25 GW de capacité en cycles combinés à gaz pour ne pas rendre la France plus dépendante qu’actuellement de ses voisins pour la sécurité d’alimentation en électricité lors des pointes hivernales.

 

Innovations de rupture nucléaire

Le plan France 2030 intègre le soutien au développement de petits réacteurs modulaires (SMR), soit avec une technologie classique à eau pressurisée (projet NUWARD d’EDF, puissance 2 x 170 MW), soit avec de nouvelles technologies, par exemple le projet de réacteur de 40 MW à neutrons rapides et sels fondus développé par la société NAAREA, qui permet la fermeture du cycle du combustible en brûlant des combustibles nucléaires usagés, et ne nécessite pas de source froide autre que l’air ambiant pour s’implanter (cycle CO2 supercritique).

Parmi les huit lauréats de l’appel à projet France 2030, il y a un projet de fusion nucléaire porté par la startup Renaissance fusion.

Signalons que de nombreux projets de développement de réacteurs à fusion portés par des startup existent aux USA, dont un projet porté par la société Helion avec une technologie originale : accélération et compression d’un plasma dans un tunnel linéaire, et production d’électricité directement par induction, sans recourir à un cycle vapeur. Helion construit un prototype Polaris d’une puissance de 50 MWe (MW électrique), avec une perspective de production d’électricité dès fin 2024 ou 2025, a signé un contrat de vente d’électricité avec Microsoft pour 2028, et développe un projet de réacteur de 500 MWe avec Nucor, un sidérurgiste. La concrétisation de la fusion nucléaire pourrait être bien plus rapide qu’anticipé actuellement avec le projet ITER…

Il est par contre extrêmement regrettable que la SFEC ne prévoie pas de reprendre un projet de réacteur à neutrons rapides de taille industrielle pour une production centralisée, qui pourrait prendre la relève des EPR à partir de 2040, et entérine de fait l’abandon définitif du projet Astrid et de toute l’expérience accumulée avec les réacteurs Phénix (qui a produit 26 TWh entre 1973 et 2009 avec une puissance de 250 MW), et Superphénix à Creys-Malville arrêté en 1997.

Cette lacune met en danger notre approvisionnement et notre gestion à long terme du cycle du combustible, sauf à recourir à terme à des technologies étrangères (la Chine vient de démarrer un réacteur de quatrième génération), alors que la France avait une (bonne) longueur d’avance dans cette technologie.

Autopiégés par les deepfakes : où sont les bugs ?

Par Dr Sylvie Blanco, Professor Senior Technology Innovation Management à Grenoble École de Management (GEM) & Dr. Yannick Chatelain Associate Professor IT / DIGITAL à Grenoble École de Management (GEM) & GEMinsights Content Manager.

« C’est magique, mais ça fait un peu peur quand même ! » dit Hélène Michel, professeur à Grenoble École de management, alors qu’elle prépare son cours « Innovation et Entrepreneuriat ».

Et d’ajouter, en riant un peu jaune :

« Regarde, en 20 minutes, j’ai fait le travail que je souhaite demander à mes étudiants en 12 heures. J’ai créé un nouveau service, basé sur des caméras high tech et de l’intelligence artificielle embarquée, pour des activités sportives avec des illustrations de situations concrètes, dans le monde réel, et un logo, comme si c’était vrai ! Je me mettrai au moins 18/20 ».

Cet échange peut paraître parfaitement anodin, mais la possibilité de produire des histoires et des visuels fictifs, perçus comme authentiques – des hypertrucages (deepfakes en anglais) – puis de les diffuser instantanément à l’échelle mondiale, suscitant fascination et désillusion, voire chaos à tous les niveaux de nos sociétés doit questionner. Il y a urgence !

En 2024, quel est leur impact positif et négatif ? Faut-il se prémunir de quelques effets indésirables immédiats et futurs, liés à un déploiement massif de son utilisation et où sont les bugs ?

 

Deepfake : essai de définition et origine

En 2014, le chercheur Ian Goodfellow a inventé le GAN (Generative Adversarial Networks), une technique à l’origine des deepfakes.

Cette technologie utilise deux algorithmes s’entraînant mutuellement : l’un vise à fabriquer des contrefaçons indétectables, l’autre à détecter les faux. Les premiers deepfakes sont apparus en novembre 2017 sur Reddit où un utilisateur anonyme nommé « u/deepfake » a créé le groupe subreddit r/deepfake. Il y partage des vidéos pornographiques avec les visages d’actrices X remplacés par ceux de célébrités hollywoodiennes, manipulations reposant sur le deep learning. Sept ans plus tard, le mot deepfake est comme entré dans le vocabulaire courant. Le flux de communications quotidiennes sur le sujet est incessant, créant un sentiment de fascination en même temps qu’une incapacité à percevoir le vrai du faux, à surmonter la surcharge d’informations de manière réfléchie.

Ce mot deepfake, que l’on se garde bien de traduire pour en préserver l’imaginaire technologique, est particulièrement bien choisi. Il contient en soi, un côté positif et un autre négatif. Le deep, de deep learning, c’est la performance avancée, la qualité quasi authentique de ce qui est produit. Le fake, c’est la partie trucage, la tromperie, la manipulation. Si on revient à la réalité de ce qu’est un deepfake (un trucage profond), c’est une technique de synthèse multimédia (image, son, vidéos, texte), qui permet de réaliser ou de modifier des contenus grâce à l’intelligence artificielle, générant ainsi, par superposition, de nouveaux contenus parfaitement faux et totalement crédibles. Cette technologie est devenue très facilement accessible à tout un chacun via des applications, simples d’utilisations comme Hoodem, DeepFake FaceSwap, qui se multiplient sur le réseau, des solutions pour IOS également comme : deepfaker.app, FaceAppZao, Reface, SpeakPic, DeepFaceLab, Reflect.

 

Des plus et des moins

Les deepfakes peuvent être naturellement utilisés à des fins malveillantes : désinformation, manipulation électorale, diffamation, revenge porn, escroquerie, phishing…

En 2019, la société d’IA Deeptrace avait découvert que 96 % des vidéos deepfakes étaient pornographiques, et que 99 % des visages cartographiés provenaient de visages de célébrités féminines appliqués sur le visage de stars du porno (Cf. Deep Fake Report : the state of deepfakes landscape, threats, and impact, 2019). Ces deepfakes malveillants se sophistiquent et se multiplient de façon exponentielle. Par exemple, vous avez peut-être été confrontés à une vidéo où Barack Obama traite Donald Trump de « connard total », ou bien celle dans laquelle Mark Zuckerberg se vante d’avoir « le contrôle total des données volées de milliards de personnes ». Et bien d’autres deepfakes à des fins bien plus malveillants circulent. Ce phénomène exige que chacun d’entre nous soit vigilant et, a minima, ne contribue pas à leur diffusion en les partageant.

Si l’on s’en tient aux effets médiatiques, interdire les deepfakes pourrait sembler une option.
Il est donc important de comprendre qu’ils ont aussi des objectifs positifs dans de nombreuses applications :

  • dans le divertissement, pour créer des effets spéciaux plus réalistes et immersifs, pour adapter des contenus audiovisuels à différentes langues et cultures
  • dans la préservation du patrimoine culturel, à des fins de restauration et d’animation historiques 
  • dans la recherche médicale pour générer des modèles de patients virtuels basés sur des données réelles, ce qui pourrait être utile dans le développement de traitements 
  • dans la formation et l’éducation, pour simuler des situations réalistes et accroître la partie émotionnelle essentielle à l’ancrage des apprentissages

 

Ainsi, selon une nouvelle étude publiée le 19 avril 2023 par le centre de recherche REVEAL de l’université de Bath :

« Regarder une vidéo de formation présentant une version deepfake de vous-même, par opposition à un clip mettant en vedette quelqu’un d’autre, rend l’apprentissage plus rapide, plus facile et plus amusant ». (Clarke & al., 2023)

Comment en sommes-nous arrivés là ?

Comment avons-nous mis au point et démocratisé des outils technologiques de manière aussi peu appropriée, au sens de E.F. Schumacher (1973) dans son ouvrage Small is Beautiful : A Study of Economics as If People Mattered.

L’idée qu’il défend est celle d’une technologie scientifiquement éprouvée, à la fois adaptable aux besoins spécifiques de groupes d’utilisateurs clairement identifiés, et acceptables par toutes les parties prenantes de cette utilisation, tout au long de son cycle de vie, sans dégrader l’autonomie des communautés impliquées.

Considérons la période covid. Elle a très nettement favorisé une « aliénation des individus et des organisations à la technologie », entraînant des phénomènes de perte de contrôle et de confiance face à des utilisations non appropriées du numérique profitant de la vulnérabilité des citoyens (multiplication des arnaques santé par exemple). Ils se sont trouvés sur-sollicités et noyés sous un déluge de contenus, sans disposer des ressources nécessaires pour y faire face de manière pérenne et sécurisée. Avec l’IA générative et la prolifération des deepfakes, le défi d’échapper à la noyade et d’éviter d’être victime de manipulations devient démesuré !

La mécanique allant de la technologie à la société est (toujours) bien ancrée dans la théorie de Schumpeter datant du début du XXe siècle : les efforts et les investissements dans la technologie génèrent du développement économique par l’innovation et la productivité, qui se traduit ensuite en progrès social, par exemple, par la montée du niveau d’éducation. La question de l’adoption de la technologie par le marché de masse est un élément central de la réussite des acteurs économiques.

Comme le souligne très bien le philosophe Alain Damasio, les citoyens adoptent les solutions numériques (faciles d’utilisation et accessibles) et se réfugient dans un « techno-cocon » pour trois raisons principales :

  1. La paresse (les robots font à leur place)
  2. La peur associée à l’isolement (on a un réseau mondial d’amis)
  3. Les super-pouvoirs (le monde à portée de main avec son smartphone)

 

Cela s’applique parfaitement à l’IA générative : créer des contenus sans effort, presque instantanément, avec un résultat d’expert. Ainsi, dans le fantasme collectif, eu égard à la puissance réelle et exponentielle des outils disponibles, nous voilà bientôt tous écrivains, tous peintres, tous photographes, tous réalisateurs… nous voilà capables de produire en quelques minutes ce qui a priori nous aurait demandé des heures. Et dans le même temps, nous servons à l’amélioration continue des performances de ces technologies, au service de quelques grandes entreprises mondiales.

 

Deepfakes : où est le bug ?

Si le chemin vers la diffusion massive de l’IA générative est clair, éprouvé et explicable, d’où vient la crise actuelle autour des deepfake ? L’analyse des mécanismes de diffusion fait apparaître deux bugs principaux.

Le premier bug

Il s’apparente à ce que Nunes et al. (2014) appelle le phénomène « big bang disruption ».

La vitesse extrêmement rapide à laquelle se déploient massivement certaines applications technologiques ne laisse pas le temps de se prémunir contre ses effets indésirables, ni de se préparer à une bonne appropriation collective. On est continuellement en mode expérimentation, les utilisateurs faisant apparaître des limites et les big techs apportant des solutions à ces problèmes, le plus souvent technologiques. C’est la course à la technologie – en l’occurrence, la course aux solutions de détection des deepfakes, en même temps que l’on tente d’éduquer et de réglementer. Cette situation exige que l’on interroge notre capacité à sortir du système établi, à sortir de l’inertie et de l’inaction – à prendre le risque de faire autrement !

Le second bug

Selon Schumpeter, la diffusion technologique produit le progrès social par l’innovation et l’accroissement de la productivité ; mais cette dynamique ne peut pas durer éternellement ni s’appliquer à toutes technologies ! Si l’on considère par exemple la miniaturisation des produits électroniques, à un certain stade, elle a obligé à changer les équipements permettant de produire les puces électroniques afin qu’ils puissent manipuler des composants extrêmement petits. Peut-on en changer l’équipement qui sert à traiter les contenus générés par l’IA, c’est-à-dire nos cerveaux ? Doivent-ils apprendre à être plus productifs pour absorber les capacités des technologies de l’IA générative ? Il y a là un second bug de rupture cognitive, perceptive et émotionnelle que la société expérimente, emprisonnée dans un monde numérique qui s’est emparée de toutes les facettes de nos vies et de nos villes.

 

Quid de la suite : se discipliner pour se libérer du péril deepfake ?

Les groupes de réflexion produisant des scénarii, générés par l’IA ou par les humains pleuvent – pro-techno d’une part, pro-environnemental ou pro-social d’autre part. Au-delà de ces projections passionnantes, l’impératif est d’agir, de se prémunir contre les effets indésirables, jusqu’à une régression de la pensée comme le suggère E. Morin, tout en profitant des bénéfices liés aux deepfakes.

Face à un phénomène qui s’est immiscé à tous les niveaux de nos systèmes sociaux, les formes de mobilisation doivent être nombreuses, multiformes et partagées. En 2023 par exemple, la Région Auvergne-Rhône-Alpes a mandaté le pôle de compétitivité Minalogic et Grenoble École de management pour proposer des axes d’action face aux dangers des deepfakes. Un groupe d’experts* a proposé quatre axes étayés par des actions intégrant les dimensions réglementaires, éducatives, technologiques et les capacités d’expérimentations rapides – tout en soulignant que le levier central est avant tout humain, une nécessité de responsabilisation de chaque partie prenante.

Il y aurait des choses simples que chacun pourrait décider de mettre en place pour se préserver, voire pour créer un effet boule de neige favorable à amoindrir significativement le pouvoir de malveillance conféré par les deepfakes.

Quelques exemples :

  • prendre le temps de réfléchir sans se laisser embarquer par l’instantanéité associée aux deepfakes 
  • partager ses opinions et ses émotions face aux deepfakes, le plus possible entre personnes physiques 
  • accroître son niveau de vigilance sur la qualité de l’information et de ses sources 
  • équilibrer l’expérience du monde en version numérique et en version physique, au quotidien pour être en mesure de comparer

 

Toutefois, se pose la question du passage à l’action disciplinée à l’échelle mondiale !

Il s’agit d’un changement de culture numérique intrinsèquement long. Or, le temps fait cruellement défaut ! Des échéances majeures comme les JO de Paris ou encore les élections américaines constituent des terrains de jeux fantastiques pour les deepfakes de toutes natures – un chaos informationnel idoine pour immiscer des informations malveillantes qu’aucune plateforme media ne sera en mesure de détecter et de neutraliser de manière fiable et certaine.

La réalité ressemble à un scénario catastrophe : le mur est là, avec ces échanges susceptibles de marquer le monde ; les citoyens tous utilisateurs d’IA générative sont lancés à pleine vitesse droit dans ce mur, inconscients ; les pilotes de la dynamique ne maîtrisent pas leur engin supersonique, malgré des efforts majeurs ! Pris de vitesse, nous voilà mis devant ce terrible paradoxe : « réclamer en tant que citoyens la censure temporelle des hypertrucages pour préserver la liberté de penser et la liberté d’expression ».

Le changement de culture à grande échelle ne peut que venir d’une exigence citoyenne massive. Empêcher quelques bigs techs de continuer à générer et exploiter les vulnérabilités de nos sociétés est plus que légitime. Le faire sans demi-mesure est impératif : interdire des outils numériques tout comme on peut interdire des médicaments, des produits alimentaires ou d’entretien. Il faut redonner du poids aux citoyens dans la diffusion de ces technologies et reprendre ainsi un coup d’avance, pour que la liberté d’expression ne devienne pas responsable de sa propre destruction.

Ce mouvement, le paradoxe du ChatBlanc, pourrait obliger les big techs à (re)prendre le temps d’un développement technologique approprié, avec ses bacs à sable, voire des plateformes dédiées pour les créations avec IA. Les citoyens les plus éclairés pourraient avoir un rôle d’alerte connu, reconnu et effectif pour décrédibiliser ceux qui perdent la maîtrise de leurs outils. Au final, c’est peut-être la sauvegarde d’un Internet libre qui se joue !

Ce paradoxe du ChatBlanc, censurer les outils d’expression pour préserver la liberté d’expression à tout prix trouvera sans aucun doute de très nombreux opposants. L’expérimenter en lançant le mois du ChatBlanc à l’image du dry january permettrait d’appréhender le sujet à un niveau raisonnable tout en accélérant nos apprentissages au service d’une transformation culturelle mondiale.

 

Lucal Bisognin, Sylvie Blanco, Stéphanie Gauttier, Emmanuelle Heidsieck (Grenoble Ecole de Management) ; Kai Wang (Grenoble INP / GIPSALab / UGA), Sophie Guicherd (Guicherd Avocat), David Gal-Régniez, Philippe Wieczorek (Minalogic Auvergne-Rhône-Alpes), Ronan Le Hy (Probayes), Cyril Labbe (Université Grenoble Alpes / LIG), Amaury Habrard (Université Jean Monnet / LabHC), Serge Miguet (Université Lyon 2 / LIRIS) / Iuliia Tkachenko (Université Lyon 2 / LIRIS), Thierry Fournel (Université St Etienne), Eric Jouseau (WISE NRJ).

Pour un traité de libre-échange entre l’Union européenne et l’Indonésie

Près de la moitié de la population mondiale votera en 2024 dans un contexte de troubles internationaux. Les électeurs de l’Union européenne éliront leurs représentants au Parlement européen les 6 et 9 juin 2024. Une quarantaine d’élections auront également lieu dans le monde, notamment aux États-Unis, en Inde, en Indonésie, en Russie et au Mexique.

L’Union européenne se trouve à un trounant en 2024, confrontée à la nécessité de redéfinir ses relations avec un autre géant démographique et commercial, l’Indonésie. Alors que les deux entités s’apprêtent à vivre des élections importantes, l’influence combinée de plus de 700 millions de personnes pourrait ouvrir la voie à la réinitialisation d’un partenariat qui a été entaché par les conflits politiques, les contestations juridiques et l’absence flagrante d’un accord de libre-échange.

 

L’Indonésie, troisième plus grande démocratie du monde

L’histoire de l’Indonésie est tissée de cultures et d’influences diverses. Autrefois plaque tournante du commerce des épices, l’archipel a connu l’essor et le déclin de puissants royaumes, dont celui de Srivijaya et de Majapahit. La colonisation par les Hollandais au XVIIème siècle a ouvert la voie à la lutte pour l’indépendance de l’Indonésie, qui a culminé avec sa proclamation en 1945. Après l’indépendance, la nation asiatique a été confrontée à des défis politiques et économiques, notamment le régime autoritaire de Suharto, jusqu’à l’avènement de la démocratie en 1998.

Aujourd’hui, l’Indonésie est un exemple de résilience. Le pays, qui compte aujourd’hui plus de 270 millions d’habitants, a connu une croissance économique constante et s’est imposé comme un acteur clé en Asie du Sud-Est. Dans ce pays démocratique et dynamique, les prochaines élections seront l’occasion de donner un mandat pour des politiques qui peuvent propulser l’Indonésie sur la scène mondiale.

 

Un accord de libre-échange opportun avec le pays le plus peuplé d’Asie du Sud-Est

L’Union européenne a négocié avec succès plusieurs accords de libre-échange avec différents blocs, renforçant ainsi ses liens économiques sur la scène mondiale. Parmi les accords les plus importants, citons les partenariats avec le Canada (CETA), le Japon et le bloc Mercosur en Amérique du Sud. Ces accords ont permis de faciliter l’accès aux marchés, de réduire les droits de douane et de stimuler les investissements transfrontaliers.

Depuis juillet 2016, l’Union négocie donc avec l’Indonésie dans le but de conclure un accord dont la portée serait similaire à celle des accords commerciaux conclus par Bruxelles avec Singapour en 2014 et avec le Viêt Nam en 2015.

À l’instar des accords existants, la position unique de l’Indonésie en tant que marché majeur pour les biens et services haut de gamme, associée à son influence régionale, offre à l’Union européenne une porte d’accès au dynamisme économique de l’Asie du Sud-Est. En donnant la priorité à un accord de libre-échange global avec l’Indonésie, l’Union européenne ne diversifierait pas seulement son portefeuille économique, mais se positionnerait aussi stratégiquement dans une région à l’immense potentiel.

Le libre-échange favorise la croissance économique en élargissant l’accès au marché, en promouvant une concurrence saine et en stimulant l’innovation. L’abaissement des barrières commerciales permet une allocation efficace des ressources, une spécialisation basée sur l’avantage comparatif et un plus grand choix pour les consommateurs. Les consommateurs européens et indonésiens bénéficieraient d’un plus large éventail de biens et de services à des prix plus compétitifs, ce qui améliorerait en fin de compte leur niveau de vie.

Par exemple, les produits de luxe français, réputés dans le monde entier, trouveraient un marché florissant dans la classe moyenne en expansion de l’Indonésie. Les produits français emblématiques ont tout à gagner d’une réduction des droits de douane et d’une plus grande accessibilité. Les collaborations dans des domaines tels que les énergies renouvelables, les infrastructures intelligentes et les technologies numériques pourraient ouvrir la voie à des partenariats mutuellement bénéfiques. Alors que l’Indonésie, membre du G20, vise un développement durable, l’expertise française dans ces secteurs deviendrait un atout qui s’alignerait sur les priorités économiques des deux nations.

De surcroît, le renforcement des liens économiques avec l’Indonésie pourrait servir de doux contrepoids à l’influence croissante de la Chine dans la région, sans avoir recours à des manœuvres ouvertement politiques ou militaires. En substance, un accord de libre-échange avec l’Indonésie serait un outil sophistiqué dans l’arsenal diplomatique de l’Union européenne, facilitant l’influence et la stabilité dans une partie du monde stratégiquement cruciale.

Mais le renforcement des liens économiques n’est pas seulement une question de commerce et d’influence ; c’est aussi un outil qui permet de promouvoir la compréhension entre des sociétés différentes. Des économies interconnectées sont moins susceptibles d’entrer en conflit. Dans ce contexte, un accord de libre-échange bien négocié ne renforcerait pas seulement la prospérité économique des deux blocs, mais jetterait également les bases d’une relation géopolitique plus solide.

 

Les gagnants et les perdants d’un accord avec l’Indonésie

Un accord de libre-échange devrait entraîner une augmentation globale du PIB et des échanges tant pour l’Union européenne que pour l’Indonésie. Les résultats de l’analyse d’impact menée par l’Union européenne indiquent que d’ici 2032, les augmentations attendues du PIB de l’Union se situeront entre 2,46 et 3,09 milliards d’euros. Pour l’Indonésie, les gains attendus sont plus prononcés, avec des augmentations prévues du PIB allant de 4,56 milliards d’euros à 5,19 milliards d’euros d’ici 2032. 

L’étude prévoit des augmentations significatives de la production et des exportations de produits industriels en provenance de l’Union européenne. Les secteurs les plus susceptibles de connaître des hausses à la production et à l’exportation sont les véhicules à moteur et pièces détachées, papier et produits en papier, produits chimiques, caoutchouc et plastique. Pour l’Indonésie, on s’attend à des augmentations significatives de la production et des exportations de textiles, de vêtements et de chaussures.

Alors que les gains globaux devraient être positifs, certains secteurs devraient connaître des baisses de production et d’exportations globales. Pour l’Union européenne, celles-ci devraient se produire dans les secteurs du textile, de l’habillement et de la chaussure, tandis que l’Indonésie devrait connaître des baisses dans les secteurs des véhicules à moteur et de leurs pièces détachées, des machines, du papier et des produits en papier, des produits chimiques, du caoutchouc, du plastique et des produits métalliques.

 

Quel impact sur nos agriculteurs ?

En ce qui concerne l’agroalimentaire, l’étude d’impact prévoit que l’accord pourrait entraîner une augmentation de la production de produits laitiers et de boissons alcoolisées dans l’Union européenne, tandis que les exportations bilatérales d’aliments transformés devraient également augmenter en Indonésie. 

En effet, il est impossible d’affirmer que le secteur agricole français pourrait se trouver lésé par un éventuel accord de libre-échange avec l’Indonésie. En effet, la France produit surtout des céréales (blé, maïs, orge), de la betterave sucrière, du tournesol, des pommes de terres, du colza, des fruits, du lait de vache, du vin, de la viande bovine et porcine. De son côté, la production agricole de l’Indonésie, pays soumis à un climat chaud et tropical, est dominée par les produits suivants : riz, huile de palme, caoutchouc naturel, thé, noix de coco, fruits tropicaux (bananes, mangues, ananas, etc.), café, cacao, soja, poissons et fruits de mer. On le voit, les deux pays, soumis à des climats que tout oppose, ont une production agricole aussi différente que complémentaire.

La Copa-Cogeca, le groupe de pression des agriculteurs européens à Bruxelles, estime que « en ce qui concerne les ambitions de l’agenda commercial européen (par exemple l’Australie, la Nouvelle-Zélande, le Mercosur et l’Indonésie), nous soutenons les efforts de l’Europe pour trouver de nouveaux marchés, en particulier dans les régions du monde qui connaissent une croissance rapide. Nous pensons toutefois que les accords doivent être équilibrés en ce qui concerne le chapitre agricole. »

Preuve qu’un traité de libre-échange peut respecter les intérêts agricoles des deux parties et être populaire, la Suisse a conclu un accord de libre-échange avec l’Indonésie en décembre 2018. Les citoyens suisses, dont l’avis a été demandé par referendum d’une façon inédite sur un traité de libre-échange, a accepté l’accord. 

 

Le nickel, le véritable enjeu des négociations ?

« Pour l’Union européenne, le véritable enjeu des négociations est lié à l’accès aux matières premières », estime Alan Hervé, Professeur à Institut d’études politiques de Rennes et auteur de l’ouvrage Les accords de libre-échange de l’Union européenne, publié en décembre 2023. 

Contacté par Contrepoints, il souligne que c’est l’accès au nickel qui fait l’originalité de ces négociations entre Bruxelles et Jakarta. L’Indonésie a en effet interdit l’exportation de minerai de nickel en 2020, affirmant son droit à stimuler son économie et à créer des emplois en remontant dans la chaîne de valeur, notamment pour développer son industrie locale de batterie pour les véhicules électriques. L’Indonésie, premier exportateur mondial de nickel avant cette interdiction, représente donc pour l’Europe une source d’approvisionnement potentielle très intéressante. Un contentieux a notamment été engagé par l’Union européenne devant l’OMC à ce sujet.

Pour Alan Hervé, « quand l’Union européenne négocie, elle essaie d’obtenir un accès au marché du pays-tiers. Là, un des enjeux premiers est de sécuriser des règles sur l’accès aux matières premières indonésiennes, ce pays appliquant beaucoup de mesures de restriction à l’export ». Si jamais les négociations devaient aboutir, « il y aurait sans doute des clauses qui porteront sur ces points de frictions avec, du côté de l’Union européenne, des garanties d’approvisionnement, mais aussi sans doute, du côté indonésien, la volonté de maintenir des mesures de sauvegarde et des possibilités de maintenir des mesures de restrictions dans certains cas. » 

 

Une opportunité à saisir

Malgré des aspects prometteurs, les relations Union européenne-Indonésie connaissent des difficultés. Celles-ci sont particulièrement évidentes lorsque l’Union impose des barrières commerciales et des droits de douane sur les produits indonésiens, notamment sur le cacao, le café, l’huile de palme, l’acier et le bois. À Jakarta, ces actions ont alimenté une certaine méfiance, créant un obstacle à la promotion d’un partenariat mutuellement bénéfique.

Comme le disait Frédéric Bastiat, les mesures protectionnistes, telles que les droits de douane, reviennent à briser des vitres pour stimuler l’activité économique : elles créent un avantage visible (la protection de l’industrie nationale) mais négligent les coûts invisibles (les pertes d’opportunités et les inefficacités économiques).

Alors que l’Union européenne est confrontée à la baisse de ses exportations vers des marchés comme la Chine, et à la menace de tarifs douaniers de la part d’un probable gouvernement Trump, le moment est plus que jamais venu de recalibrer sa stratégie. En resserrant ses liens avec l’Indonésie, l’Union pourrait tirer parti d’une économie dynamique et s’assurer ainsi un avantage stratégique sur des concurrents tels que les États-Unis, la Chine, et même des acteurs plus modestes comme le Royaume-Uni et la Turquie, qui s’efforcent de renforcer leurs relations commerciales avec Jakarta. Ces pays ont conclu que les mesures unilatérales contre les exportations indonésiennes étaient contre-productives. À l’Union européenne de leur emboîter le pas.

Si elle veut surfer avec succès sur cette vague diplomatique, l’Union européenne devra adopter une approche pragmatique. Après les élections indonésiennes de février, le nouveau président indonésien offrira une occasion unique de prendre un nouveau départ, et Bruxelles devra faire preuve de proactivité. Pour établir un dialogue constructif avec Jakarta, il faudra s’attaquer à la cause première de ces relations tendues : les barrières commerciales imposées par Bruxelles.

L’huile de palme, l’une des principales pommes de discorde entre les deux zones, est emblématique des défis auxquels l’Union européenne est confrontée dans ses relations avec l’Indonésie. Alors que l’Union s’oriente vers le développement durable, il est impératif de trouver un terrain d’entente avec l’Indonésie, un pays fortement tributaire de la production d’huile de palme. Il est primordial de trouver un équilibre qui encourage les pratiques durables indonésiennes sans étouffer la croissance économique du pays et l’Union européenne doit mettre fin à certaines barrières commerciales manifestement protectionnistes qui nuisent aux exportations indonésiennes.

 

Alors que l’Union européenne cherche à relever ces défis, un accord de libre-échange global et mutuellement bénéfique avec l’Indonésie doit être une priorité. Si elle n’agit pas maintenant, l’Union risque d’être mise à l’écart alors que d’autres acteurs mondiaux renforcent leurs liens avec l’Indonésie et l’Asie du Sud-Est, ce qui désavantagerait Bruxelles dans le paysage en constante évolution du commerce international.

Comment la Russie et l’Iran se servent de l’Afrique pour déstabiliser l’Europe

Ces deux dernières années ont été marquées par des agissements coordonnés de la Russie dans la bande saharo-sahélienne, au Mali, au Burkina Faso et au Niger. Mais ces avancées politiques, militaires et économiques russes, au détriment de la France, ne sont pas isolées. Elles sont accompagnées par une démarche géographiquement identique de la République islamique d’Iran. Une troisième stratégie est également à l’œuvre, à travers l’apparition de candidats populistes aux élections dans d’autres pays francophones. La France et l’Union européenne accepteront-elles cette attaque stratégique sur le flanc sud du continent européen ?

Nous assistons depuis deux ans au développement de l’activité du groupe paramilitaire russe Wagner dans trois pays de la bande saharo-sahélienne, au détriment de la présence française dans les domaines politiques et militaires.

 

Un stratégie russe globale et planifiée

Les activités de Wagner, visant à la prise du pouvoir civil par des éléments militaires, constituent la partie très visible de la stratégie russe. Cette dernière s’accompagne d’une action informationnelle au sens large, orientée directement vers la population. Elle repose sur la mise en place de leaders et de relais d’opinion, à l’exemple de Nathalie Yamb (surnommée la Dame de Sotchi) et Kémi Seba. Leur action repose sur l’utilisation intensive des réseaux sociaux, dans lesquels sont diffusées des informations spécialement formatées. Cette stratégie de communication s’appuie également sur une capacité organisationnelle et financière de mobilisation des foules, avec slogans et pancartes ciblant la présence française, dont on a vu la mise en œuvre dans les trois pays du Sahel.

[Enquête I/II] Ethnocide des Touareg et des Peuls en cours au Mali : les victimes de Wagner témoignent

Ce dispositif apparaît donc global, et en conséquence particulièrement organisé. Cela implique l’élaboration d’un véritable plan, avec le temps nécessaire à la préparation de l’ensemble du processus. Ce que nous avons vu au cours de ces deux dernières années a donc été préparé très en amont. Le premier sommet Russie-Afrique de Sotchi en octobre 2019 a constitué le lancement visible de la stratégie du retour vers l’Afrique, élargie à l’ouest du continent. Depuis 2016, le Centre pour les Études Internationales et Stratégiques (CSIS), basé à Washington, avait identifié les activités de sociétés militaires privées (SMP) russes en Centrafrique, au Soudan, au Mozambique et Madagascar. L’établissement du plan global remonte donc très probablement au début des années 2010.

Dans l’ensemble de ce plan vers le Sahel, la Russie n’agit pas seule, elle est en plus accompagnée de son allié, la République islamique d’Iran.

 

Une stratégie iranienne silencieuse

L’Iran a commencé, depuis plusieurs années également, à mettre en œuvre une stratégie politique, économique, et d’influence dans la région Sahélienne.

L’action diplomatique la plus récente vient de se dérouler en ce début d’année avec le Mali, où le Conseil National de Transition (CNT) vient d’annoncer l’ouverture dès cette année de deux facultés de l’Université d’Iran « une technique et professionnelle, l’autre, un centre d’innovation informatique ». Cette annonce a été faite après une rencontre entre le président du CNT et l’ambassadeur d’Iran, M. Salehani. Ce dernier avait été reçu il y a trois mois par le ministre de la Défense, le colonel Sadio Camara, un des hommes forts de l’équipe au pouvoir.

À cette même période, le ministre des Affaires étrangères iranien, Hossein Amir Abdollahian, recevait à Téhéran le chef de la diplomatie du Niger, Bakary Yaou Sangaré. Ce dernier a rencontré le président iranien Raïssi qui a décrit « la résistance du peuple nigérien contre les politiques hégémoniques européennes comme étant le témoignage du refus du colonialisme par l’Afrique », selon les termes du communiqué de la présidence iranienne. Le positionnement politico-diplomatique anti-français, à l’image de la stratégie du Kremlin, est clair.

En ce qui concerne le Burkina Faso, la République islamique d’Iran a signé, à Ouagadougou, toujours à l’automne dernier, huit accords de coopération. Parmi ceux-ci figure un mémorandum d’entente dans les domaines de la coopération énergétique et minière, la coopération scientifique et technique dans le domaine de l’industrie pharmaceutique, et le développement de l’enseignement supérieur.

Dans la défense et la sécurité, Ouagadougou et Téhéran ont exprimé « leur volonté de coopérer dans ces domaines et décident de poursuivre les concertations à travers des canaux plus appropriés », a expliqué, dans un communiqué, le ministère des Affaires étrangères du Burkina Faso. La prochaine commission mixte de coopération entre les deux pays se tiendra à Téhéran en 2025. La coopération est globale et s’inscrit dans une volonté de continuité.

La diplomatie africaine de Téhéran apparaît donc comme un effet miroir de la politique africaine russe. La stratégie globale de déstabilisation de l’Afrique francophone s’inscrit également dans un troisième volet, celui de la mise en avant de candidat populiste à l’image d’Ousmane Sonko au Sénégal.

 

La perturbation populiste au Sénégal

Le populisme se définit selon Jean-Pierre Rioux, historien de la France contemporaine, comme « l’instrumentalisation de l’opinion du peuple par des personnalités politiques, et des partis, qui s’en prétendent des porte-parole, alors qu’ils appartiennent le plus souvent aux classes sociales supérieures ».

Tel apparaît Ousmane Sonko, opposant au président sortant Macky Sall. Ancien inspecteur principal à l’Inspection générale des impôts et domaines, ancien député, et actuellement maire d’une ville de plus de 200 000 habitants, Ziguinchor.

Homme de rupture, radié de son poste dans l’administration en 2016, pour manquement au devoir de réserve, il s’est politiquement positionné comme « antisystème » alors qu’il en est issu. Dans la ligne de ce positionnement, il n’apparaît pas porteur d’un programme précis, mais se concentre sur une critique systématique du président et du gouvernement.

Dans son discours, le populiste se caractérise par une stratégie d’attaque et de polémique. Telle fut son option lors de la précédente campagne électorale en 2019. Il n’a pas lésiné sur les moyens verbaux pour attaquer directement la personne de Macky Sall, le décrivant comme « un homme malhonnête, un partisan du népotisme et un dictateur qui ôte à son peuple la liberté d’expression » (Étude lexicologique de la campagne – BA Ibrahima Enseignant-chercheur, Dakar). Le président était présenté comme favorisant les intérêts français au détriment des « enfants du pays ». Utilisation, hélas trop connue, de l’argument de la France, exploiteuse des richesses au détriment des habitants. Argument russe, argument iranien…

Les tentatives de déstabilisation de l’Afrique francophone apparaissent donc au confluent de plusieurs stratégies et de plusieurs États, depuis des années. Ne faut-il pas s’interroger sur l’aveuglement et la surdité des services français qui n’ont détecté aucune de ces vibrations, et qui n’ont pu, en conséquence, ni lancer les alertes préalables, ni mettre en place les contre-feux nécessaires.

Avant son remplacement par Stéphane Séjourné, Catherine Colonna, ministre de l’Europe et des Affaires étrangères, a sommé l’Iran d’arrêter ses ingérences au Moyen-Orient. Ne conviendrait-il pas d’élargir le champ d’observation au continent africain ?

Article publié par La Tribune le 16 Janvier 2024, offert par l’auteur à Contrepoints.

NB : le ministre français des Affaires Etrangères Stéphane Séjourné vient de rencontrer le ministre iranien des Affaires Etrangères à New York le 23 janvier. Leur poignée de main était chaleureuse et le ministre s’est abstenu de mettre en garde son homologue iranien.

« Le coût de la décarbonisation sera très lourd » grand entretien avec Éric Chaney

Éric Chaney est conseiller économique de l’Institut Montaigne. Au cours d’une riche carrière passée aux avant-postes de la vie économique, il a notamment dirigé la division Conjoncture de l’INSEE avant d’occuper les fonctions de chef économiste Europe de la banque américaine Morgan Stanley, puis de chef économiste du groupe français AXA.

 

Y-a-t-il des limites à la croissance ?

Loup Viallet, rédacteur en chef de Contrepoints – En France, de plus en plus de voix s’élèvent en faveur d’une restriction de la production. Ralentissement, croissance zéro, décroissance, les partisans de ce mouvement idéologique partagent une approche malthusienne de l’économie. La croissance économique aurait des limites écologiques que l’innovation serait incapable de faire reculer. Cette thèse est au cœur d’un ouvrage souvent présenté comme une référence : le rapport du club de Rome de 1972 aussi appelé Rapport Meadows sur les limites de la croissance. Ses conclusions sont analogues à celles publiées l’année dernière dans le dernier rapport en date du Club de Rome, Earth for All. Quelle méthode scientifique permet-elle d’accoucher sur de telles conclusions ? À quel point est-elle contestable ? Comment expliquez-vous le décalage entre l’influence médiatique de ces idées et l’absence total de consensus qu’elles rencontrent parmi les chercheurs en économie et la majorité des acteurs économiques ?

Éric Chaney – Les thèses malthusiennes ont en effet le vent en poupe, encore plus depuis la prise de conscience par un grand nombre -surtout en Europe- de l’origine anthropomorphique du changement climatique causé par les émissions de gaz à effet de serre (GES, CO2 mais pas seulement). Le Rapport Meadows de 1972, commandé par le Club de Rome, avait cherché à quantifier les limites à la croissance économique du fait de la finitude des ressources naturelles. Si les méthodes développées au MIT à cet effet étaient novatrices et intéressantes, les projections du rapport originel étaient catastrophistes, prévoyant un effondrement des productions industrielle et alimentaire mondiales au cours de la première décennie du XXIe siècle. Rien de tel ne s’est produit, et malgré de nombreuses mises à jour du rapport Meadows, certes plus sophistiquées, les prévisions catastrophiques fondées sur l’apparente contradiction entre croissance « infinie » et ressources finies ne sont pas plus crédibles aujourd’hui qu’elles ne l’étaient alors.

Contrairement aux modèles développés à la même époque par William Nordhaus (prix Nobel d’économie en 2018), les modèles prônant la croissance zéro ou la décroissance n’intégraient pas de modélisation économique approfondie, pas de prix relatifs endogènes, ni même les gaz à effet de serre dont on sait depuis longtemps que les conséquences climatiques peuvent être véritablement catastrophiques.

Rappelons que Nordhaus publia en 1975 un article de recherche intitulé « Can we control carbon dioxide ». Malgré sa contribution essentielle à l’analyse économique des émissions de GES –Nordhaus est le premier à avoir explicité le concept de coût virtuel d’une tonne de CO2, c’est-à-dire la valeur présente des dommages futurs entraînés par son émission — il est vilipendé par les tenants des thèses décroissantistes, et c’est peut-être là qu’il faut chercher l’origine des dissonances cognitives qui les obèrent. Nordhaus est un scientifique, il cherche à comprendre comment les comportements économiques causent le changement climatique, et à en déduire des recommandations. Il est convaincu qu’à cet effet, les mécanismes de marché, les incitations prix en particulier sont plus efficaces que les interdictions. Il est techno-optimiste, considérant par exemple que les technologies nucléaires (y compris la fusion) lèveront les contraintes sur la production d’énergie. Alors que le camp décroissantiste est avant tout militant, le plus souvent opposé au nucléaire, bien qu’il s’agisse d’une source d’énergie décarbonée, et anticapitaliste, comme l’a bien résumé l’un de ses ténors, l’économiste Timothée Parrique, qui affirme que « la décroissance est incompatible avec le capitalisme ».

Pratiquement, je ne crois pas que ce courant de pensée ait une influence déterminante sur les décisions de politique économique, ni dans les démocraties, et encore moins dans les pays à régime autoritaire. En revanche, les idées de Nordhaus ont été mises en œuvre en Europe, avec le marché des crédits carbone (ETS, pour Emissions Trading System, et bientôt ETS2), qui fixe des quotas d’émission de CO2 décroissant rapidement (-55 % en 2030) pour tendre vers zéro à l’horizon 2050, et laisse le marché allouer ces émissions, plutôt que d’imposer des normes ou de subventionner telle ou telle technologie. De même la taxation du carbone importé que l’Union européenne met en place à ses frontières (difficilement, certes) commence à faire des émules, Brésil et Royaume-Uni entre autres, illustrant l’idée de Clubs carbone de Nordhaus.

 

Liens entre croissance et énergie

L’augmentation des émissions de gaz à effet de serre est-elle proportionnelle à la croissance de la production de biens et de services ?

Au niveau mondial, il y a en effet une forte corrélation entre les niveaux de PIB et ceux des émissions de CO2, à la fois dans le temps, mais aussi entre les pays.

Pour faire simple, plus une économie est riche, plus elle produit de CO2, en moyenne en tout cas. Il ne s’agit évidemment pas d’un hasard, et, pour une fois, cette corrélation est bien une causalité : plus de production nécessite a priori plus d’énergie, qui nécessite à son tour de brûler plus de charbon, de pétrole et de gaz, comme l’avait bien expliqué Delphine Batho lors du débat des primaires au sein des écologistes.

Mais il n’y a aucune fatalité à cette causalité, bien au contraire.

Prenons à nouveau l’exemple de l’Union européenne, où le marché du carbone fut décidé en 1997 et mis en œuvre dès 2005. Entre 2000 et 2019, dernière année non perturbée par les conséquences économiques de la pandémie, le PIB de l’Union européenne a augmenté de 31 %, alors que l’empreinte carbone de l’Union, c’est-à-dire les émissions domestiques, plus le carbone importé, moins le carbone exporté, ont baissé de 18 %, selon le collectif international d’économistes et de statisticiens Global Carbon Project. On peut donc bien parler de découplage, même s’il est souhaitable de l’accentuer encore.

En revanche, l’empreinte carbone des pays hors OCDE avait augmenté de 131 % sur la même période. Pour les pays moins avancés technologiquement, et surtout pour les plus pauvres d’entre eux, la décroissance n’est évidemment pas une option, et l’usage de ressources fossiles abondantes comme le charbon considéré comme parfaitement légitime.

 

Le coût de la décarbonation

Que répondriez-vous à Sandrine Dixson-Declève, mais aussi Jean-Marc Jancovici, Philippe Bihouix et tous les portevoix de la mouvance décroissantiste, qui estiment que la « croissance verte » est une illusion et que notre modèle de croissance n’est pas insoutenable ?

Je leur donne partiellement raison sur le premier point.

Pour rendre les difficultés, le coût et les efforts de la décarbonation de nos économies plus digestes pour l’opinion publique, les politiques sont tentés de rosir les choses en expliquant que la transition énergétique et écologique créera tant d’emplois et de richesse que ses inconvénients seront négligeables.

Mais si l’on regarde les choses en face, le coût de la décarbonation, dont le récent rapport de Jean Pisani et Selma Mahfouz évalue l’impact sur la dette publique à 25 points de PIB en 2040, sera très lourd. Qu’on utilise plus massivement le prix du carbone (généralisation de l’ETS), avec un impact important sur les prix, qui devront incorporer le renchérissement croissant du carbone utilisé dans la production domestique et les importations, ou qu’on recoure à des programmes d’investissements publics et de subventions massifs, à l’instar de l’IRA américain, le coût sera très élevé et, comme toujours en économie, sera payé au bout du compte par le consommateur-contribuable.

Tout au plus peut-on souhaiter que la priorité soit donnée aux politiques de prix du carbone, impopulaires depuis l’épisode des Gilets jaunes, mais qui sont pourtant moins coûteuses à la société que leurs alternatives, pour un même résultat en termes de décarbonation. Le point crucial, comme le soulignent les auteurs du rapport précité, est qu’à moyen et encore plus à long terme, le coût pour la société de ne pas décarboner nos économies sera bien supérieur à celui de la décarbonation.

J’ajouterais que si les statisticiens nationaux avaient les moyens de calculer un PIB corrigé de la perte de patrimoine collectif causée par la dégradation de l’environnement et le changement climatique – ce qu’on appelle parfois PIB vert, par définition inférieur au PIB publié chaque trimestre – on s’apercevrait que la croissance du PIB vert est plus rapide que celle du PIB standard dans les économies qui réduisent leurs atteintes à l’environnement et leurs émissions de GES. Sous cet angle, vive la croissance verte !

Sur le second point, je crois la question mal posée.

Il n’y a pas de « modèle de croissance » qu’on puisse définir avec rigueur. Il y a bien des modèles de gestion de l’économie, avec, historiquement, les économies de marché capitalistes (où le droit de propriété est assuré par la loi) d’un côté et les économies planifiées socialistes (où la propriété de l’essentiel des moyens de production est collective) de l’autre.

Mais ces deux modèles économiques avaient -et ont toujours pour leurs partisans- l’objectif d’augmenter la richesse par habitant, donc de stimuler la croissance. Du point de vue privilégié par Sandrine Dixson-Declève ou Jean-Marc Jancovici, celui de la soutenabilité, le modèle capitaliste devrait être préférable au modèle socialiste, qui, comme l’expérience de l’Union soviétique (disparition de la Mer d’Aral), de la RDA (terrains tellement pollués que leur valeur fut jugée négative lors des privatisations post-unification) ou de la Chine de Mao (où l’extermination des moineaux pour doubler la production agricole causa l’une des plus grandes famines de l’histoire de la Chine à cause des invasions de sauterelles) l’ont amplement démontré, prélevait bien plus sur le patrimoine naturel que son concurrent capitaliste.

La bonne question est celle des moyens à mettre en œuvre pour décarboner nos économies.

Réduire autoritairement la production comme le souhaitent les décroissantistes cohérents avec leurs convictions, demanderait l’instauration d’un régime politique imposant une appropriation collective des entreprises, puis une planification décidant ce qui est autorisé et ce qui ne l’est pas. Ne parlons pas de « modèle de croissance », mais de modèle économique, et le débat sera bien plus clair. Je suis bien entendu en faveur d’un modèle préservant la liberté économique, mais en lui imposant la contrainte de décarbonation par une politique de prix du carbone généralisée, la difficulté étant de faire comprendre aux électeurs que c’est leur intérêt bien compris.

 

Quand la Chine s’endormira

La tertiarisation de l’économie chinoise et le vieillissement de sa population sont deux facteurs structurant un ralentissement de la productivité. La croissance chinoise a-t-elle fini son galop ?

Oui, le régime de croissance de la Chine a fondamentalement changé au cours des dernières années. Après la libéralisation économique de Deng Xiaoping et l’application au-delà de toute prévision de son slogan, « il est bon de s’enrichir » grâce à l’insertion dans l’économie mondiale et à l’ouverture aux capitaux et technologies occidentales, la Chine a connu un rythme de développement et d’enrichissement (en moyenne, car les disparités villes-campagnes sont toujours profondes) unique dans l’histoire de l’humanité. Les masses chinoises sont sorties de la misère sordide dans laquelle les seigneurs de la guerre, puis l’occupation japonaise, puis enfin le régime maoïste les avait condamnées.

Mais la croissance « à deux chiffres » était tirée par le rattrapage technologique côté offre, l’investissement et les exportations côté demande, et ces moteurs ne peuvent durer éternellement. Côté offre, le rattrapage devient plus difficile lorsqu’on s’approche des standards mondiaux, ce que l’Europe a compris après 1970, d’autant plus que la rivalité stratégique avec les États-Unis réduit encore l’accès à l’innovation de pointe étrangère.

En interne, la reprise en main des entreprises par le Parti communiste, et la préférence donnée à celles contrôlées par l’État, l’obsession du contrôle du comportement de la population, réduisent considérablement la capacité d’innovation domestique, comme le fait remarquer depuis longtemps mon ancien collègue Stephen Roach.

Du côté de la demande, la Chine pourrait bien être tombée dans la trappe à dette qui a caractérisé l’économie japonaise après l’éclatement de ses bulles immobilières et d’actions du début des années 1970, en raison de l’excès d’offre immobilière et de l’immense dette privée accumulée dans ce secteur. Richard Koo avait décrit cette maladie macroéconomique « récession de bilan » pour le Japon. Les dirigeants chinois étaient hantés depuis longtemps par ce risque, qui mettrait à mal l’objectif de Xi Jinping de « devenir (modérément ajoute-t-il) riche avant d’être vieux », mais, paradoxalement, la re-politisation de la gestion économique pourrait bien le rendre réel. Comme la population active baisse en Chine depuis maintenant dix ans, et qu’elle va inévitablement s’accélérer, la croissance pourrait bien converger vers 3 % l’an, ce qui serait à tout prendre encore une réussite pour l’élévation du niveau de vie, voire encore moins, ce qui deviendrait politiquement difficile à gérer.

 

Dépendance au marché chinois

Faut-il anticiper un découplage de l’économie chinoise avec les économies de l’Union européenne et des États-Unis, dont de nombreux marchés sont devenus dépendants des importations chinoises ? Si celui-ci advenait, quels pays concernerait-il en priorité ?

L’économie chinoise occupe une place centrale dans l’économie mondiale, même si elle n’est pas tout à fait l’usine du monde comme on se plaisait à le dire avant 2008. Les tensions stratégiques avec les États-Unis mais aussi avec l’Europe, la réalisation par les entreprises que la baisse de coût permise par la production en Chine avaient un pendant. Je veux parler du risque de disruption brutale des chaînes d’approvisionnement comme ce fut le cas lors de l’épidémie de covid et des décisions de fermetures de villes entières avant que la politique (imaginaire) de zéro-covid ne fut abandonnée, mais aussi du risque d’interférence excessive des autorités chinoises.

La tendance précédente s’en est trouvée rompue.

Jusqu’en 2008, le commerce mondial croissait deux fois plus vite que le PIB mondial, en raison de l’ouverture de la Chine. De 2008 à 2020, il continua de croître, mais pas plus vite que la production. Depuis 2022, le commerce mondial baisse ou stagne, alors que la croissance mondiale reste positive. C’est la conséquence de la réduction du commerce avec la Chine. On peut donc bien parler de découplage, mais pour la croissance des échanges commerciaux, pas vraiment pour le niveau des échanges avec la Chine qui restent et resteront longtemps dominants dans le commerce mondial, sauf en cas de conflit armé.

En Europe, l’économie la plus touchée par ce renversement de tendance est évidemment l’Allemagne, dont l’industrie avait misé massivement sur la Chine, à la fois comme client pour son industrie automobile et de machines-outils, mais aussi pour la production à destination du marché chinois ou des marchés asiatiques. Ajouté au choix stratégique néfaste d’avoir privilégié le gaz russe comme source d’énergie bon marché, l’affaiblissement des échanges avec la Chine entraîne une profonde remise en question du modèle industriel allemand.

 

Impacts respectifs des élections européennes et américaines sur l’économie mondiale

Les élections européennes se tiendront en juin prochain. Les élections présidentielles américaines auront lieu cinq mois après, en novembre 2024. J’aimerais vous inviter à comparer leurs impacts potentiels sur l’avenir des échanges internationaux. Quels scénarios électoraux pourraient déboucher sur un ralentissement économique ? Sur une régionalisation des échanges ? Sur une croissance des conflits territoriaux ?

J’ai conscience que cette comparaison est limitée, l’Union européenne n’est pas un État fédéral, et il ne s’agit pas de scrutins analogues. Cependant, ces deux moments électoraux auront des conséquences concrètes et immédiates sur les orientations macroéconomiques à l’œuvre sur les deux premières économies du monde.

En cas de victoire de Donald Trump le 4 novembre, les échanges commerciaux avec les États-Unis seraient fortement touchés, avec une politique encore plus protectionniste qu’avec Biden, et un dédain complet pour toute forme de multilatéralisme.

Là encore, l’économie la plus touchée en Europe serait l’Allemagne, mais ne nous faisons pas d’illusions, toute l’Europe serait affaiblie. Plus important encore, une administration Trump cesserait probablement de soutenir financièrement l’Ukraine, laissant l’Union européenne seule à le faire, pour son propre intérêt stratégique. Ce qui ne pourrait qu’envenimer les relations au sein de l’Union, et restreindre les marges de manœuvre financières.

Enfin, une victoire de Trump signerait la fin de l’effort de décarbonation de l’économie américaine engagé par l’administration Biden à coups de subventions. Les conséquence pour le climat seraient désastreuses, d’autant plus que les opinions publiques européennes pourraient en conclure qu’il n’y a pas grand intérêt à faire cavalier seul pour lutter contre le changement climatique.

En revanche, les élections au Parlement européen ne devraient pas voir d’incidence significative sur nos économies. Le sujet ukrainien sera l’un des plus sensibles à ces élections, mais le pouvoir de décision restant essentiellement aux États, le changement ne serait que marginal.

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Crise du logement : problème insoluble pour le marché ? Avec Vincent Benard

Épisode #46

Vincent Bénard est économiste et ingénieur en aménagement du territoire. Il écrit régulièrement des articles remettant en cause la logique des politiques publiques. Spécialiste du logement, il a également consacré de nombreux textes à la problématique du changement climatique.

Dans cet entretien nous revenons sur les différentes causes de la grande difficulté d’accès au logement ces dernières années. Si vous ne serez pas surpris de découvrir que l’action de l’État a créé bien plus de problèmes qu’il n’a apporté de solutions, la cause principale de l’envolée des prix depuis une quinzaine d’années pourrait vous surprendre. Si comme nous, vous êtes convaincu de la responsabilité écrasante de l’État dans ce problème qui touche durement les jeunes générations, pensez à signer notre pétition. Enregistré fin décembre 2023 à Machecoul. 

Pour écouter l’épisode, utilisez le lecteur ci-dessous. Si rien ne s’affiche, rechargez la page ou cliquez directement ici.

Programme :

0:00 Introduction

1:07 Parcours et formation d’ingénieur

4:59 Pourquoi se loger est-il devenu si cher ?

6:33 La création monétaire peut-elle expliquer la hausse des prix ?

11:33 Pourquoi l’offre ne parvient pas à s’ajuster

15:10 Deux philosophies du droit des sols

20:21 La lutte contre « l’étalement urbain »

22:48 Les acheteurs ont-ils conscience du rapport foncier/bâti ?

26:15 Construire plus haut pour limiter l’étalement urbain ?

30:10 Les logements sont-ils les pires ennemis de la biodiversité ?

46:53 Le contrôle des loyers : fausse bonne idée

 

Pour aller plus loin : 

Articles de Vincent Benard dans Contrepoints 

Logement : crise publique, remèdes privés (Livre de Vincent Benard, 2006 )

Rapport sur la crise du logement (Vincent Benard, pour l’IREF)

Travaux de l’économiste Joseph Comby 

Order without Design: How Markets Shape Cities (livre d’Alain Bertaud)

« Une révolution fiscale pour sauver le logement » (Pétition lancée par Contrepoints)

https://www.contrepoints.org/2024/01/20/469878-petition-une-revolution-fiscale-pour-sauver-le-logement

Suivez-nous sur le web :

https://twitter.com/vbenard 

⁠https://twitter.com/contrepoints⁠

⁠https://fr.linkedin.com/company/contrepoints⁠

⁠https://www.facebook.com/Contrepoints

Industrie française : une récession est imminente – Entretien avec Charles-Henri Colombier (Rexecode)

Charles-Henri Colombier est directeur de la conjoncture du centre de Recherche pour l’Expansion de l’Économie et le Développement des Entreprises (Rexecode). Notre entretien balaye les grandes actualités macro-économiques de la rentrée 2024 : rivalités économiques entre la Chine et les États-Unis, impact réel des sanctions russes, signification de la chute du PMI manufacturier en France, divergences des politiques de la FED et de la BCE…

 

Écarts économiques Chine/États-Unis

Loup Viallet, rédacteur en chef de Contrepoints – Selon les statistiques du FMI, le PIB de la Chine ne représenterait aujourd’hui que 66 % du PIB des États-Unis, contre 76 % en 2021. Comment expliquez-vous ce décrochage ? Est-il symptomatique d’une tendance durable ?

Charles-Henri Colombier (Rexecode) – Depuis l’avant-covid fin 2019, le PIB chinois en volume et en monnaie nationale a augmenté de 18 %, tandis que le PIB américain a progressé de 7 %. En d’autres termes, la croissance chinoise n’a pas à rougir en comparaison de la croissance américaine, loin s’en faut.

L’explication du comparatif transpacifique des niveaux de PIB défavorable à la Chine depuis 2021 vient plutôt d’un effet de change, et plus spécifiquement de la dépréciation du yuan face au dollar. Le billet vert s’échange actuellement contre 7,10 yuans, quand il en valait seulement 6,35 fin 2021. Le taux de change dollar/yuan dépend pour une bonne part du différentiel de taux d’intérêt entre les deux pays, or la Fed a opéré une brutale remontée de ses taux, sans équivalent en Chine où l’inflation est restée très atone.

 

Sanctions russes : un effet boomerang ?

Y-a-t-il un effet boomerang des sanctions russes sur les économies européennes ? L’Europe est-elle en train de rentrer en récession à cause de l’embargo sur le gaz et le pétrole russe ?

L’interruption de l’approvisionnement énergétique de l’Europe depuis la Russie, concernant le pétrole mais surtout le gaz, a généré un choc d’offre négatif dont les effets ne se sont pas encore dissipés. En témoigne le fait que le prix de marché du gaz naturel coté à Rotterdam est toujours deux fois plus élevé qu’en 2019, tandis que la cotation Henry Hub aux États-Unis est à peu près inchangée.

Une énergie plus chère a trois types de conséquences principales : des pertes de pouvoir d’achat pour les ménages, un prélèvement sur les marges des entreprises, et un déficit de compétitivité prix préjudiciable à l’industrie notamment énergo-intensive. Les Etats-Unis et l’Asie n’ont pas eu à subir les mêmes chocs.

 

Comment la Russie contourne les sanctions commerciales

Les sanctions économiques n’ont pas mis fin à la guerre de la Russie en Ukraine. Pourquoi sont-elles aussi inefficaces ? Depuis 2022, les importations de pays proches géographiquement de la Russie (Azerbaïdjan, Géorgie, Kazakhstan, Kirghizistan, Turquie) ont explosé, et leurs exportations en Russie aussi. Doit-on y voir une stratégie de détournement des sanctions ? Quels pays européens (et quelles industries) participent à ce phénomène ?

L’inefficacité des sanctions occidentales contre la Russie tient d’abord au fait que certains pays tiers se sont substitués aux achats européens d’hydrocarbures russes. Au-delà des relations bien connues de la Chine avec la Russie, l’Inde absorbe désormais près de 40 % des exportations de pétrole russe, contre 5 % seulement en 2021. La manne des hydrocarbures, clé pour les finances publiques russes, a ainsi été préservée.

Par ailleurs, les mesures aboutissant à un retrait des entreprises occidentales de Russie ont parfois eu un effet de stimulation pour les entreprises russes, pouvant se saisir d’actifs bon marché et de nouvelles parts de marché domestiques. Enfin, il est vrai que certaines entreprises européennes contournent les sanctions, amenuisant leur efficacité. Certains pays comme la Turquie jouent un rôle de transit pour les flux commerciaux en question. Pour ne citer que quelques exemples, les exportations allemandes vers des pays comme le Kazakhstan, le Kirghizistan ou la Géorgie ont connu un décollage plus que suspect.

 

Industrie française : une récession est imminente

On constate une chute de l’indice PMI manufacturier en France. Que représente cette dégringolade pour l’économie française ?

L’indice PMI manufacturier mesure le climat des affaires à la lumière du sentiment exprimé par les directeurs d’achats. Le niveau de 42,1 qu’il a atteint en décembre (50 représente le seuil d’expansion) laisse peu de doute quant à l’existence d’une situation récessive pour l’industrie, en France mais aussi en Europe plus largement.

La dépense en biens des ménages avait déjà été décevante en 2023, celle des entreprises devrait désormais emboîter le pas en 2024, la hausse des taux d’intérêt et la contraction du crédit exerçant une pression croissante sur leur situation financière.

 

L’hypothèse d’un découplage économique avec la Chine

Les marchés américain et européen peuvent-ils se passer de la Chine ? Quelles seraient les conséquences d’une hypothétique rupture des relations commerciales entre la Chine et les marchés américain et européens ? Faut-il s’y préparer ?

Une rupture soudaine des relations économiques entre la Chine et l’Occident serait à n’en pas douter catastrophique pour les deux camps, tant les chaînes de valeur sont imbriquées. La Chine est devenue un fournisseur irremplaçable de nombreux intrants industriels, comme les problèmes d’approvisionnement apparus lors de la pandémie l’ont illustré.

Compte tenu des tensions entourant Taïwan, il faut se préparer à un tel scénario de rupture pour en minimiser l’impact. Mais il paraît illusoire d’imaginer que l’Europe puisse se passer de la Chine à court terme.

 

Les conséquences du statu quo de la BCE sur les taux directeurs

Contrairement à la FED, la BCE n’envisage pas de baisse des taux et affiche une ligne dure. Comment expliquez-vous cette divergence ? Quelles répercussions ces décisions auront-elles sur les échanges entre les économies de la zone euro et les États Unis ? Sur la croissance de leurs marchés respectifs ?

Le discours assez rigide de la BCE quant à l’éventualité d’une prochaine baisse des taux paraît surprenante au vu de la situation quasi-récessive de l’économie européenne. De récents travaux de la BCE montrent par ailleurs que l’essentiel de l’inflation observée ces dernières années est venu de facteurs liés à l’offre plutôt que d’un excès de demande qu’il faudrait briser.

Deux éléments permettent toutefois d’expliquer la prudence de la BCE.

Premièrement, le marché du travail européen, dont le degré de tension détermine en partie le dynamisme de l’inflation sous-jacente (l’évolution des prix hors composantes volatiles comme l’énergie), affiche toujours un niveau d’emplois vacants élevé malgré la faiblesse de l’activité. La disparition des gains de productivité du travail et le ralentissement démographique aboutissent au paradoxe que des difficultés de recrutement substantielles peuvent coexister avec une absence de croissance.

Deuxièmement, le contexte géopolitique reste très incertain. Les tensions récentes en mer Rouge ont déjà abouti à un doublement des taux de fret maritime sur les conteneurs, ce qui à terme pourrait souffler de nouveau sur les braises de l’inflation.

 

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Fabrice Le Saché, VP du Medef : « l’accord sur l’IA ne répond pas aux ambitions de départ »

Fabrice Le Saché est le vice-président du Medef en charge de l’Europe. Au cours de cet entretien, nous abordons les répercussions des nouvelles réglementations européennes (IA, minerais stratégiques, taxe carbone…) sur l’industrie française et européenne. Il est aussi question des réponses à apporter à la crise du logement et de l’impact des actions de sabotage des écologistes radicaux sur la croissance et l’emploi en France.

 

Intelligence artificielle

Loup Viallet, rédacteur en chef de Contrepoints – Le 08 décembre dernier, le commissaire européen Thierry Breton a qualifié d’« historique » l’accord de l’UE sur la réglementation de l’intelligence artificielle (IA ACT). Estimez-vous, avec M. Breton, que « L’Europe va devenir le meilleur endroit au monde pour faire de l’intelligence artificielle » ?

Fabrice Le Saché, vice-président du Medef chargé de l’Europe – Je souhaite tout d’abord rappeler un chiffre : 25 % des entreprises européennes utilisent l’intelligence artificielle (IA). Si la démocratie de l’IA est récente, l’IA n’est pas pour autant une technologie inconnue.

Le Medef a salué les ambitions initiales de Thierry Breton d’encadrer l’IA pour construire un écosystème favorable au tissu économique et à l’ensemble des citoyens. Une certaine idée de la régulation qui ne freine pas l’innovation et n’obère pas la compétitivité de nos entreprises. Nous avons toujours rappelé l’importance de maintenir une neutralité technologique et d’avoir une approche globale par les risques. Seul l’usage que l’on fait de l’IA doit définir son niveau de risque, et non les caractéristiques techniques de chaque modèle. Or, l’accord provisoire obtenu début décembre ne répond pas intégralement aux ambitions de départ. L’approche par les risques et le principe de neutralité technologique ont été fragilisés en intégrant des obligations propres aux IA génératives, ce qui ajoute de la complexité juridique. De plus, le texte nécessite de nombreuses lignes directrices et actes délégués de la Commission européenne pour être applicable, entraînant ainsi les entreprises dans une période d’incertitude et de flou juridique.

Dans la course mondiale à l’intelligence artificielle l’Europe est encore à la traîne, loin derrière les géants chinois et américains, mais nous pouvons encore combler notre retard. À condition de s’en donner les moyens, de mettre le pied sur le frein de la surrèglementation, et d’investir dans une politique d’innovation courageuse permettant de faciliter l’accès des entreprises aux financements, aux compétences et aux marchés.

Il est évident qu’aujourd’hui, le développement économique et l’innovation dépendent largement de l’évolution des compétences numériques, notamment dans le domaine de l’intelligence artificielle. Si notre pays veut jouer un rôle dans la révolution industrielle 5.0, nous devons constamment anticiper et nous adapter aux évolutions technologiques. Le défi pour les entreprises est double : recruter du personnel qualifié tout en veillant à la mise à jour des compétences des salariés. C’est pourquoi la formation doit être au cœur des stratégies d’entreprise.

 

Souveraineté minérale

Début décembre 2023, le Parlement européen a approuvé un texte sur les matières premières critiques, fixant des objectifs pour la production, le raffinage et le recyclage des minéraux indispensables à la transition écologique et numérique. L’Europe est-elle en train de réduire sa dépendance à l’égard de la Chine ? Cette législation va-t-elle faciliter la production de voitures électriques, de panneaux solaires, d’éoliennes et smartphones en Europe ? Quels effets produit-elle déjà sur le marché du travail ?

Les récentes crises ont démontré à quel point la France était dépendante des chaînes d’approvisionnements mondiales. Nous avons désormais pris collectivement conscience de la nécessité de retrouver un appareil de production performant et une culture industrielle forte. Cette indispensable souveraineté passe par la réduction de nos dépendances extérieures de l’Union européenne vis-à-vis des matières premières critiques. Le monde change, celui dominé par les énergies fossiles laissera bientôt sa place à un monde dominé par les matières premières minérales. Il sera sans carbone, mais riche en métaux : le marché du cuivre va doubler, celui du nickel va tripler, et celui du lithium va quadrupler au cours des dix prochaines années.

C’est pour cela que nous avons – dès mars 2023 – soutenu le règlement sur les matières premières critiques qui permettra d’identifier des projets stratégiques et sécuriser des chaînes d’approvisionnement. Pour garantir notre autonomie stratégique et contribuer au redressement de notre commerce extérieur, il faudra aller encore plus loin.

Tout d’abord, il est impératif de valoriser l’exploitation de minerais stratégiques tant en Europe qu’en France par des dérogations ponctuelles aux Codes minier et environnemental. La France dispose en la matière d’un savoir-faire historique qui lui a longtemps permis de compter parmi les principaux producteurs mondiaux de métaux stratégiques comme l’antimoine, le tungstène et le germanium. Dans ce sens, je salue l’initiative de l’entreprise Imerys qui s’apprête à exploiter la plus grande mine de lithium d’Europe dans l’Allier, capable de fournir assez de matière première pour produire 750 000 batteries par an. Ce projet répond à la fois aux enjeux d’indépendance énergétique, de réindustrialisation – et avec elle de création de richesse partout dans les territoires – et de décarbonation de notre mobilité.

Aussi, l’Europe doit aussi repenser ses relations avec les pays fournisseurs au travers d’une diplomatie des matières premières qui déboucherait sur des accords commerciaux larges et ambitieux, permettant le renforcement des coopérations, la négociation de quotas, ou encore l’élimination de tarifs douaniers. L’Union européenne devrait également chercher à réduire les écarts de compétitivité, en particulier dans les hautes technologies et l’économie numérique, et plus globalement garantir des conditions de concurrence équitables entre les entreprises de l’Union européenne et les concurrents chinois.

Bien évidemment, l’Union européenne et la Chine doivent renforcer leurs liens commerciaux et d’investissement, mais sans naïveté, en recourant aux instruments de défense commerciale pour dissuader la Chine de prendre des mesures unilatérales dommageables.

Enfin, notre stratégie ne pourra faire l’impasse du recyclage, qui doit être considéré comme un pilier essentiel de l’offre en matières premières critiques. Il convient d’une part d’accompagner les entreprises dans les démarches d’éco-conception des produits afin qu’elles réduisent leurs besoins en matières critiques (ou qu’elles les substituent) et d’autre part, d’allonger la durée de vie des produits afin que les matières critiques soient utiles plus longtemps.

 

Taxe carbone aux frontières de l’UE

À partir du 1er janvier 2026, les importateurs européens devront s’acquitter d’une taxe carbone aux frontières de l’Union européenne. Celle-ci va-t-elle renchérir les coûts de production pour les entreprises ? Pensez-vous que cette taxe est de nature à inciter les industriels européens à relocaliser leurs approvisionnements en matières premières à haute intensité de carbone ou, à l’inverse, qu’elle les encouragera à délocaliser leurs productions dans des zones où les normes environnementales sont plus légères, voire inexistantes (Maroc, Turquie..) ?

Le Carbon Border Adjustment Mechanism (MACF) ou la « taxe carbone aux frontières » s’inscrit dans un contexte de crise énergétique et d’un accroissement du différentiel de compétitivité entre l’Union européenne et le reste du monde. Le Medef soutient le principe d’une taxe carbone ambitieuse aux frontières, mais avec une surveillance forte pour éviter son contournement par nos partenaires commerciaux. Le texte de l’Union européenne ne répond toutefois pas entièrement aux inquiétudes des industriels, notamment sur les risques de contournement, et fera peser de nouvelles lourdeurs administratives sur les importateurs.

La mise en œuvre du MACF s’accompagnera d’une élimination progressive des « quotas gratuits » qui pèsera sur la compétitivité des exportations européennes face à une concurrence étrangère qui n’aura pas essuyé le même coût du carbone en amont. Rexecode entrevoit une dégradation des comptes d’exploitation des entreprises de l’ordre de 45 milliards d’euros par an au niveau européen, et 4 milliards en France. Le MACF représente une perte de marges estimée à 2,1 milliards pour l’industrie française (soit une baisse de 2,7 % du résultat courant avant impôts). La mise en route du MACF menacerait plus de 37 500 emplois industriels, soit 1,5 % du total des emplois industriels en France.

Les risques de délocalisation dépendront des mesures adoptées pour lutter contre le contournement. Le MACF ne couvre que quelques grands intrants industriels, et non l’ensemble des chaînes de valeur. Si l’aluminium étranger produit hors de l’Union européenne sera bien taxé à la frontière, un produit fini ou semi-fini à base d’aluminium et transformé hors de l’Union européenne échappera au MACF.

L’importateur européen n’aura donc pas à en acquitter le coût du carbone, ce qui peut l’inciter à opter pour cette solution plutôt que de se tourner vers la filière de fabrication française qui aura payé un coût du carbone dans tous les cas de figure. Dans les prochains mois, il sera donc essentiel de faire un suivi précis et de mener des évaluations régulières pour corriger toute conséquence négative sur notre tissu industriel et les emplois, ainsi que sur notre compétitivité à l’export.

Ce texte est ainsi loin de résoudre toutes nos difficultés. C’est pourquoi il faut mobiliser l’ensemble des leviers pour réindustrialiser notre continent, tels que l’assouplissement des règles sur les aides d’État, le financement de l’innovation bas carbone et l’adaptation des formations pour répondre aux besoins des entreprises.

 

Crise du logement

En 2023, la crise du logement s’est installée en France. Les taux d’emprunt ont continué à monter, les ventes de logements neufs ont chuté de 30 %, les délivrances de permis de construire ont baissé de 23 %, les prix des loyers ont augmenté dans la majorité des grandes villes. Dans le secteur du bâtiment, 180 000 emplois sont menacés dès cette année, 500 000 d’ici à 2025. Les pouvoirs publics ont-ils pris conscience de la situation ? À quel point cette crise affecte-t-elle le fonctionnement du marché européen ? Que préconisez-vous pour sortir de la crise actuelle ?

Le logement, c’est le socle de la cohésion, une condition essentielle du dynamisme économique et du bien-être de nos concitoyens. Sans possibilité de loger à hauteur des besoins nos salariés, nous ne pourrons pas continuer à assumer la volonté de retour au plein-emploi qui est la nôtre.

Dans un contexte économique marqué par le renchérissement du coût des matières premières et la hausse des taux d’intérêts, la situation du logement en France est aujourd’hui critique. La situation ne fait que de s’aggraver, notamment sous le coup de décisions prises sans concertation avec les acteurs économiques : le zéro artificialisation nette (ZAN), la révision tous azimuts des documents de planification urbaine, et la chute de la délivrance des permis de construire.

En un an, la production de logements a chuté de 20 %. Ce sont 100 000 logements manquants qui sont venus s’ajouter aux 600 000 logements abordables non construits. Pour nous, chefs d’entreprise, il nous faut répondre aux besoins en logement des salariés, là où sont les emplois, c’est-à-dire largement dans les métropoles, et ne pas imaginer que les emplois vont miraculeusement se déplacer dans les zones détendues, hors marché, plus difficiles d’accès.

La crise du secteur de la construction se propage dans toute l’Europe, alors que le secteur est un pilier de l’économie, il pèse 6 % du PIB de l’Union européenne et emploie 14 millions de personnes. Le ralentissement est particulièrement marqué en Allemagne où l’indice de production – prenant en compte les logements, mais aussi les magasins, usines et autres bâtiments à usage professionnel – est en chute de plus de 6 points depuis la guerre en Ukraine.

Il est encore temps d’agir pour sortir de la crise et les réponses à apporter devront être en grande partie nationales. C’est pour cette raison que le Medef propose d’organiser avec les pouvoirs publics une conférence annuelle sur le logement avec pour but de passer en revue, territoire par territoire, les objectifs de production, les réglementations contreproductives et les réalisations effectives. Le logement est la pièce maîtresse de nos équilibres économiques, personnels et collectifs. La relance d’une politique de logement est plus que jamais d’actualité.

 

Éco-sabotage

L’année 2023 a été particulièrement marquée par les actions de blocage ou de sabotage d’activités économiques intentées par des collectifs radicaux comme Soulèvements de la Terre ou Extinction Rébellion. Occupations de cimenteries, destructions de mégabassines, mobilisations contre l’autoroute A69, leurs initiatives montent en puissance. Avez-vous estimé le bilan économique et social de leurs destructions ? Représentent-ils un danger réel pour la croissance et l’emploi en France ? En Europe ?

Je tiens à condamner fermement les actions de blocage ou de sabotage d’activités économiques intentées par des collectifs radicaux. Ces actes sont inadmissibles, inquiétants et préjudiciables à tous. Manifester est un droit, saccager est un délit. Il existe des voies de recours légales pour tous les projets d’infrastructures. C’est valable pour l’A69, pour le Lyon-Turin et pour tous les autres projets. Il est très difficile d’estimer précisément le bilan économique des destructions, mais cette flambée de violence a bien évidemment de graves conséquences économiques et sociales. Cela se traduit non seulement par d’irréparables pertes d’exploitation pour les entreprises touchées, pouvant conduire à du chômage partiel, voire à des destructions d’emplois. Cette situation se traduit aussi par une dégradation de l’image de la France qu’il faudra redresser.

Au Medef, cela ne vous étonnera pas, nous ne croyons pas à la thèse de la décroissance. Nous pensons même qu’elle est fondamentalement destructrice pour la cohésion sociale. Pourtant, nos objectifs sont communs : assurer l’avenir de la planète. Mais nos solutions divergent. Nous sommes convaincus que seule une croissance responsable permettra de relever le défi climatique en finançant les investissements et en assurant l’acceptabilité sociale de cette nécessaire transition. La croissance responsable, c’est non seulement la condition absolue pour financer la décarbonation de l’économie mais aussi pour continuer à créer des emplois, soutenir le pouvoir d’achat et maintenir l’équilibre de nos régimes sociaux.

 

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Conflits d’intérêts et politiques de dépenses : le dessous des cartes économiques

La plateforme Spotify annonce le licenciement de 1500 employés, soit le sixième du total. Twilio, la plateforme d’hébergement de sites web, annonce le licenciement de 5 % de ses salariés. En plus de baisses des cours depuis deux ans, les entreprises perdent l’accès à des financements pour les pertes sur les opérations. Les levées de fonds, à travers le monde, baissent de 100 milliards de dollars par rapport aux niveaux de 2021.

Ainsi, les entreprises ont moins de moyens à disposition. Les gérants gagnent moins de primes. Les actionnaires subissent des pertes en Bourse. Un dégonflement de bulle a lieu depuis le début de hausse des taux.

À présent, l’espoir du retour à l’assouplissement par les banques centrales remet de l’air dans les marchés. La bulle reprend de l’éclat. Selon Reuters, le marché s’attend à une baisse de taux par la Banque centrale européenne de 1,40 % à fin 2024.

En France, le rendement sur les obligations du Trésor baisse depuis octobre. Sur les emprunts à dix ans de maturité, les taux passent d’un sommet de 3,6 %, le 4 octobre, à 2,8 % à présent.

Un retour des assouplissements plaît aux entreprises et aux marchés. Le Nasdaq prend 12 % depuis le sommet pour les taux, en octobre. Le CAC 40 grimpe de 9 %. Les autorités remettent en marche la création d’argent. Pourtant, selon les communications dans la presse, le gouvernement continue la lutte contre les hausses de prix.

Il annonce à présent le gel des tarifs de trains. Il a pris le contrôle des tarifs d’électricité. Il empêche les hausses de prix des péages.

Des ONG demandent davantage de contrôles sur les prix en magasins, avec des limites sur les marges. Les autorités – à l’origine de la création d’argent – prennent le rôle de sauveteurs contre les hausses de prix !

 

Plans de relance : retour des assouplissements

Les plans de relance ont de nouveau la cote autour du monde.

Les taux sur les obligations américaines à dix ans passent de 5 % en octobre, à 4,1 % à présent, en réponse aux déclarations de la Fed sur l’évolution de la politique de taux.

Autour du monde, les autorités préparent des incitations à l’endettement. En Chine, le gouvernement augmente le déficit à 4 % de la taille du PIB, et fournit davantage de garanties au secteur de l’immobilier. Selon la société d’analyse Gavekal, les promoteurs de projets d’immobilier chinois ont des impayés à hauteur de 390 milliards de dollars – envers des sous-traitants, fournisseurs, ouvriers, et créanciers.

La perspective d’un emballement de la dette du gouvernement – en raison des soutiens à l’immobilier – pousse Moody’s à une dégradation de la note de crédit.

Bloomberg donne des détails :

« L’économie de la Chine cherche à reprendre pied cette année, durant laquelle le rebond de l’économie – après la levée des restrictions du zéro covid – a déçu les attentes, et la crise de l’immobilier sème le doute. Les données économiques montrent que l’activité, à la fois dans les services, et l’industrie, chutent sur le mois de novembre, ce qui augmente les chances d’une politique de soutien de la part du gouvernement.

[…]

En octobre, le président chinois, Xi Jinping, a signalé qu’un ralentissement soudain de la croissance, et les risques de déflation, ne vont pas être tolérés, ce qui mène le gouvernement à tirer le déficit au niveau le plus élevé en trois décennies. »

Après un peu de répit à la dévaluation des devises, les autorités mettent à nouveau en marche les planches à billets, via les déficits et l’enfoncement des taux d’intérets.

 

Conflits d’intérêts sur les programmes de dépense

Le gouvernement français vient en aide à l’immobilier. Les ministres créent des mesures d’aide aux emprunteurs. La presse les présente comme un sauvetage du secteur face à la crise.

Vous ne verrez pas beaucoup de questions sur la nécessité de mesures. Peu de gens remettent en cause les programmes de dépenses. En effet, les mesures créent des conflits d’intérêts, en particulier dans la presse, les entreprises, et Think Tanks.

Les entreprises de bâtiment gagnent de l’argent sur la construction de logements. Des promoteurs font des bénéfices sur les volumes de vente aux particuliers. Les journaux font de la publicité et attirent des lecteurs sur le thème de l’investissement en immobilier. Les banques et courtiers génèrent des frais sur l’émission de crédits. Les sociétés de conseil proposent des études et rapports – sur l’impact des mesures – au gouvernement. Les particuliers voient dans l’accès au crédit une forme d’aide à l’achat.

Le même genre de conflit d’intérêts touche la plupart des programmes et interventions. Par exemple, la cybersécurité et l’IA créent des opportunités pour des contrats avec le gouvernement, et des sources de revenus pour les entreprises.

La société CapGemini publie un rapport au sujet de l’entrée en vigueur des normes de l’UE sur les services digitaux.

Dans l’introduction :

« En somme, le règlement DORA est prévu pour résoudre les risques de cybersécurité et de défaillances informatiques, en mitigeant la menace des activités illégales, et la disruptions aux services digitaux, avec des conséquences directes sur l’économie et la vie des gens. »

CapGemini n’ose pas les critiques de la loi. En effet, la société tire beaucoup d’argent des programmes du gouvernement. Selon Le Monde, la société de conseil a tiré 1,1 milliard d’euros de revenus grâce aux contrats avec le gouvernement, de 2017 à 2022 ! Elle ne veut pas courir le risque de perdre des contrats avec les autorités à l’avenir. Le groupe a ainsi un conflit d’intérêts dans l’analyse des décisions par les gouvernements.

De même, avec le projet d’un cadre de normes autour de l’IA, les entreprises et la presse ont des conflits d’intérêts. Elles les passent en général sous silence. Par exemple, Les Échos publie une tribune en soutien à la création de normes sur l’IA.

Selon l’auteur, le projet de loi crée « un cadre nécessaire à la protection et l’innovation ».

Il précise :

« Grâce au projet de règlement sur l’intelligence artificielle (AI Act), le législateur européen a l’opportunité de doper les investissements dans les secteurs de la culture et de l’innovation en Europe, et de montrer au monde la manière dont les entreprises d’IA peuvent prospérer au bénéfice de tous. »

L’auteur présente la loi comme une protection des artistes et créateurs de contenus contre la réutilisation par des IA, sans rémunération. Les régulations reviennent à bloquer l’activité des gens sous couvert de leur protection, incluant les consommateurs et les artistes.

L’auteur de la tribune, Robert Kyncl, a le même genre de conflit d’intérêts que les sociétés de conseil au sujet des projets du gouvernement. Il occupe le poste de PDG chez Warner Music Group. La société détient les droits d’auteur des catalogues de groupes comme Daft Punk ou David Bowie. Le groupe travaille aussi sur l’exploitation de l’IA pour tirer davantage de revenus des catalogues d’artistes. Il a en préparation un film sur la vie de la chanteuse, Édith Piaf, à base d’IA.

Les règles sur l’usage de l’IA, et la possibilité de barrières à l’entrée, présentent donc un intérêt pour M. Kyncl. Il a un avantage à la création de complications pour la concurrence. Les géants de la musique mettent à profit l’hystérie de la presse autour de l’IA – et l’envie de contrôle de la part des bureaucrates et représentants.

 

Climat : enjeux de centaines de milliards d’euros

L’Ademe publie une étude sur les coûts des dégâts faits à l’économie en raison de la hausse du carbone dans l’atmosphère. Ils estiment le bilan à 260 milliards d’euros par an à l’avenir. Comme le rapporte la presse, l’étude fait partie d’une commande du gouvernement.

Elle revient à une forme de communication en faveur des programmes – et des dépenses à hauteur de 110 milliards d’euros par an, selon les estimations du gouvernement, après 2030.

Une info-lettre que je reçois, au sujet du climat, effectue une campagne de dons. Des journalistes sont présents aux Émirats pour la COP28.

Dans la missive, de la part de Inside Climate News, l’auteur écrit : « Les journalistes sont des témoins. Nous sommes des diseurs de vérités. »

Sur le sujet du climat, les journalistes rapportent les décisions des dirigeants sans beaucoup de scepticisme. L’argent des programmes remplit beaucoup de poches.

(Suivez mes idées du moment sur la Bourse et les placements. Cliquez ici.)

Javier Milei peut-il vraiment fermer la banque centrale argentine ?

Un article de Daniel Lacalle.

Le trou fiscal et monétaire monumental que les péronistes Sergio Massa et Alberto Fernández ont laissé à Javier Milei est difficile à reproduire. L’ex-président Mauricio Macri lui-même a expliqué que l’héritage reçu par Milei est « pire » que celui qu’il avait reçu de Cristina Fernández de Kirchner.

Le péronisme laisse un pays en ruine et une énorme bombe à retardement pour la prochaine administration.

 

Un pays en ruine et une situation économique désastreuse

Les énormes problèmes économiques de l’Argentine commencent par un déficit budgétaire primaire de 3 % du PIB, et un déficit total (y compris les charges d’intérêt) dépassant 5 % du PIB.

De plus, il s’agit d’un déficit structurel qui ne peut être réduit sans une diminution des dépenses publiques. Celles-ci représentent déjà 40 % du PIB et ont doublé sous le kirchnerisme. Si l’on analyse le budget argentin, on constate que jusqu’à 20 % des dépenses sont des dépenses purement politiques. Selon l’Institut argentin d’analyse fiscale, l’administration de gauche précédente n’a réduit que les dépenses liées aux pensions, qui représentaient la moitié de l’ajustement en termes réels.

Les politiques interventionnistes et le contrôle des prix de Massa et Fernández ont entraîné une pénurie de viande et d’essence dans un pays pourtant riche en pétrole et en bétail, démontrant une fois de plus ce que disait Milton Friedman :

« Lirons-nous ensuite que le contrôle des prix par le gouvernement a créé une pénurie de sable dans le Sahara ? »

Il ne faut pas oublier que l’administration Fernandez laisse l’Argentine avec un taux d’inflation annuel de 140 % suite à une augmentation folle de la base monétaire de plus de 485 % en cinq ans, selon la Banque centrale d’Argentine.

Ces politiques fiscales et monétaires confiscatoires et extractives ont créé un désastre dans les réserves de la banque centrale. Fernandez laisse une banque centrale en faillite avec des réserves nettes négatives de 12 milliards de dollars, et une bombe à retardement de passifs rémunérés (Leliqs) qui dépassent 12 % du PIB et signifient effectivement davantage d’impression monétaire et d’inflation à l’avenir, lorsqu’ils arriveront à échéance. Avec un risque pays de 2400 points de base, le gouvernement autoproclamé du « socialisme du XXIe siècle » a laissé l’Argentine et sa banque centrale officiellement en faillite, avec 40 % de la population dans la pauvreté, et une monnaie en faillite.

Milei doit maintenant affronter cet héritage empoisonné avec détermination et courage. Mauricio Macri, qui a souffert de l’erreur du gradualisme, a récemment affirmé qu’il n’y avait pas de place pour les mesures légères, et il a raison.

Milei a promis de fermer la banque centrale et de dollariser l’économie. Mais est-ce possible ?

 

Dollariser l’économie : une proposition applicable ?

La réponse est oui. Absolument.

Pour comprendre pourquoi l’Argentine doit se dollariser, le lecteur doit comprendre que le peso est une monnaie en faillite, que même les citoyens argentins rejettent. La plupart des Argentins épargnent déjà ce qu’ils peuvent en dollars américains et effectuent toutes leurs principales transactions dans cette monnaie, car ils savent que leur monnaie locale sera dissoute par l’interventionnisme du gouvernement. Celu-ci dispose de 15 taux de change différents pour le peso, tous faux, bien sûr, et qui n’ont qu’un seul objectif : voler aux citoyens leurs dollars américains à un faux taux de change.

La banque centrale est en faillite, avec des réserves nettes négatives, et le peso est une monnaie en faillite. Par conséquent, il est essentiel de fermer la banque centrale, et le pays doit se doter d’un régulateur indépendant n’ayant pas le pouvoir d’imprimer de la monnaie et de monétiser tout le déficit fiscal, et qui doit éliminer la possibilité d’émettre le Leliq (dette rémunérée) insensé qui détruit la monnaie aujourd’hui et à l’avenir.

La fermeture de la banque centrale exige une solution immédiate et forte aux Leliqs, qui devra inclure une approche réaliste du décalage monétaire dans un pays où le « taux de change officiel » est la moitié du taux réel du marché par rapport au dollar américain. Prendre une mesure audacieuse pour reconnaître ce décalage monétaire, fermer la banque centrale et mettre fin à la monétisation de la dette sont trois étapes essentielles pour mettre un terme à la destruction d’un pays comparable à celui du Venezuela. Milei comprend cela et sait que les dollars américains que les citoyens épargnent avec d’énormes difficultés devraient revenir dans l’économie nationale en reconnaissant la réalité monétaire du pays, et en faisant du dollar américain une monnaie légale pour toutes les transactions.

La question monétaire n’est qu’un côté d’une médaille extrêmement problématique. Le problème fiscal doit être abordé.

 

Le problème du déficit budgétaire

Javier Milei doit mettre un terme au déficit budgétaire excessif, ce qui nécessite un ajustement qui élimine les dépenses politiques sans détruire les pensions.

Cela implique de vendre certaines des nombreuses entreprises publiques inefficaces et hypertrophiées, ainsi que les dépenses excessives en subventions purement politiques.

Deuxièmement, Milei doit mettre fin au déficit commercial ridicule. L’Argentine doit supprimer les lois protectionnistes et interventionnistes malavisées si les péronistes veulent s’ouvrir au monde et exporter tout ce qu’ils peuvent. Pour ce faire, elle doit mettre un terme au ridicule « blocage des taux de change » et aux 15 faux taux de change que le gouvernement utilise pour exproprier les citoyens et les exportateurs de leurs dollars par des taux injustes et des confiscations.

Les impôts doivent être abaissés dans un pays qui en compte 165, et où le coin fiscal est le plus élevé de la région, les petites et moyennes entreprises payant jusqu’à 100 % de leur chiffre d’affaires.

L’Argentine doit changer ce qui est actuellement un État confiscatoire et prédateur. En outre, les barrières bureaucratiques, les mesures protectionnistes et les subventions politiques doivent être supprimées. Milei doit garantir la sécurité juridique et un cadre réglementaire attrayant et fiable, où le fantôme de l’expropriation et du vol institutionnel ne reviendra pas.

Les défis de Javier Milei sont nombreux et l’opposition tentera de saboter toutes les réformes favorables au marché, car de nombreux politiciens argentins sont devenus très puissants et riches, transformant le pays en un nouveau Venezuela.

Si l’Argentine veut devenir une économie florissante qui renoue avec la prospérité, elle a besoin d’un système macroéconomique et monétaire stable. Elle doit reconnaître qu’elle a une monnaie défaillante et une banque centrale en faillite, et mettre en œuvre les mesures urgentes qui s’imposent le plus rapidement possible. Ce sera difficile, mais pas impossible, et le potentiel de l’économie est énorme.

L’Argentine était un pays riche rendu pauvre par le socialisme. Elle doit abandonner le socialisme pour redevenir riche.

Sur le web.

Les pays de l’Est de l’Europe enregistrent de fortes pertes de compétitivité

Auteur : , est Director of Economic Studies, IÉSEG School of Management

 

Pour les multinationales, les pays d’Europe de l’Est deviennent de moins en moins attractifs. En effet, on observe une forte perte de compétitivité coût dans la plupart de ces pays depuis 2015 par rapport à la zone euro. Cette tendance s’observe à la fois dans les pays membres de l’Union européenne (UE) qui ont adopté la monnaie commune, et dans ceux qui ont conservé leur monnaie nationale.

Parmi les pays entrés dans l’euro, à part le cas de la Croatie qui n’a adopté que récemment la devise européenne, la croissance du coût salarial unitaire a été très supérieure à celle observée dans l’ensemble de la zone euro. L’augmentation du coût salarial par unité produite, du 1er trimestre 2015 au 2e trimestre 2023, a en effet été de 73 % en Lituanie, 59 % en Lettonie, 55 % en Estonie, 38 % en Slovaquie, et 34 % en Slovénie.

Mais si les règles de fonctionnement de la monnaie unique, qui prive notamment les États de la possibilité de dévaluer leur monnaie pour regagner en compétitivité, ont empêché les pays de l’Est de la zone euro de compenser la hausse des salaires induite par une forte inflation, ceux qui ont gardé une monnaie nationale sont quand même confrontés aussi à une augmentation incontrôlée du coût du travail en euros.

 

L’impact du taux de change

En effet, le coût salarial par unité produite dans les pays hors zone monétaire, converti en euros, a augmenté de 67 % en Bulgarie, de 62 % en République tchèque, de 46 % en Roumanie, de 25 % en Pologne et de 19 % en Hongrie entre le 1er trimestre 2015 et le 2e trimestre 2023.

Sur cette période, la couronne tchèque s’est appréciée de presque 14 % contre l’euro. Le forint hongrois s’est déprécié de 19,7 %. Le zloty polonais s’est déprécié de 7 %. Le leu de la Roumanie s’est déprécié de 9 %. Quant à la Bulgarie, elle pratique un régime de currency board, ou directoire monétaire, avec un taux de change fixe contre l’euro. Le pays a gardé ce régime même après avoir rejoint le mécanisme européen de taux de change, qui aurait permis une certaine volatilité.

Certes, le taux de change par rapport à l’euro a pu aggraver ou réduire les différences de hausse des coûts salariaux en monnaie nationale, une fois convertis en euros. Toutefois, au bilan, on observe bien une perte de compétitivité de ces économies quand bien même leurs États disposaient du levier de la dévaluation.

 

Une menace pour l’industrie allemande

Comme les coûts salariaux unitaires de la plupart des pays de l’Est de l’UE ont augmenté avec une intensité supérieure à ceux de la zone euro, leur attractivité relative s’est quelque peu réduite pour les investissements étrangers. Aussi, les prix de vente en euros des biens et services produits par ces pays sont amenés à être moins inférieurs qu’avant aux prix de vente de ce qui est produit par la zone euro. Comme cette perte de compétitivité est susceptible de déprimer les exportations et de doper les importations des pays concernés, la balance commerciale de ces pays pourrait se dégrader.

Jusqu’à présent, c’est essentiellement en Roumanie que la balance commerciale des biens (hors énergie) s’est continument détériorée depuis 2015, avec une aggravation du déficit. Mais la situation pourrait vite concerner d’autres pays de la région.

Cette situation pose également problème aux partenaires commerciaux européens de cas pays, et surtout à l’Allemagne. En effet, l’industrie allemande a longtemps sous-traité massivement dans les pays de l’Est de l’UE, à bas salaires, ce qui lui permettait de réduire ses coûts. L’augmentation des coûts salariaux réduit cette aubaine dont l’Allemagne a beaucoup profité. Après la perte de l’approvisionnement en gaz russe à bas prix, une autre menace apparaît pour les fondements de la compétitivité de l’industrie de l’Allemagne. Bien sûr, les salaires des pays de l’Est de l’Union européenne sont encore inférieurs à ceux de l’Ouest, mais ils sont à corriger de la productivité, et les écarts se réduisent.

Vous pouvez retrouver cet article ici.

Quelques chiffres qui montrent que le « quoi qu’il en coûte » n’est pas fini…

Un article de l’IREF.

En janvier dernier, dans un entretien accordé au Journal du Dimanche, le ministre de l’Économie et des Finances, Bruno Le Maire, annonçait la fin du « quoi qu’il en coûte ».

L’examen parlementaire en cours des projets de loi de finances de fin de gestion pour 2023, et de loi de finances pour 2024 montrent à l’inverse que, loin d’être fini, le « quoi qu’il en coûte » se poursuit. Et ce en dépit d’un goulet d’étranglement appelé à se resserrer du fait de l’aggravation de la charge de la dette dans les prochaines années, exposant la France au risque d’une grave crise de ses finances publiques.

Plusieurs données tendent à prouver que les vannes ouvertes à l’occasion de la crise de la Covid-19 n’ont pas été refermées, ou que des politiques publiques jugées prioritaires ont été privilégiées sans que, symétriquement, soient définies des politiques qui ne le soient pas, ou plus. Pour reprendre la formule du rapporteur général du budget en commission des finances du Sénat, nous sommes entrés dans « l’ère des déficits extrêmes ».

Tandis que le déficit budgétaire annuel « moyen » n’était « que » de 89,8 milliards d’euros entre 2011 et 2019, depuis 2020, et en y incluant la prévision pour 2024, il est désormais de 172,3 milliards d’euros.

En 2023, le déficit budgétaire de l’État devrait être supérieur à 171 milliards d’euros, soit un déficit proche des sommets atteints pendant la crise sanitaire (quasiment 180 milliards d’euros).

Pour 2024, le déficit budgétaire est encore attendu à un niveau extraordinairement élevé de 144,5 milliards d’euros. Et pour cause : malgré le retrait des mesures de crise (- 40 milliards d’euros depuis 2022), les dépenses publiques devraient, toutes sphères d’administration confondues, augmenter de plus de 100 milliards d’euros en deux ans (1640 milliards d’euros en 2024, contre 1539 milliards d’euros en 2022).

Installé sur un plateau historiquement haut, le déficit de l’État représenterait l’an prochain 45,7 % de ses ressources. En 2024, le déficit public de la France serait ainsi le deuxième plus élevé de la zone euro. Sur les vingt pays membres de la zone euro, treize seraient sous la barre des 3 % de déficit, deux seraient même excédentaires : Chypre et Irlande. Selon le FMI, seule la Belgique (- 4,8 % du PIB) ferait pire que la France (- 4,5 % du PIB).

Naturellement, la France demeurerait en 2024 (109,7 % du PIB) sur le podium européen des pays les plus endettés (derrière la Grèce et l’Italie), avec une hausse de près de 12 points de la dette publique depuis 2017 (98,1 % du PIB), alors même que les autres pays ont eu affaire aux mêmes chocs exogènes. Sur les vingt pays de la zone euro, huit sont sous la barre des 60 % du PIB.

 

Le bond des émissions annuelles de dette est lui aussi spectaculaire : alors que l’État levait moins de 100 milliards d’euros jusqu’en 2007, il a successivement levé 200 milliards en 2019, 260 milliards en 2020, 2021 et 2022, 270 milliards en 2023, et 285 milliards en 2024 (projet de loi de finances).

Le coût de notre endettement est progressivement aggravé par la hausse des taux d’intérêt.

En 2024, les crédits liés à la dette (60,8 milliards d’euros pour la mission « Engagements financiers de l’État ») seront proches des crédits affectés à l’ensemble des missions régaliennes de l’État (73,8 milliards d’euros, dont 10,1 milliards pour la mission « Justice », 16,5 milliards pour la mission « Sécurités » et 47,2 milliards pour la mission « Défense »).

L’an prochain, 60 % des recettes d’impôt sur le revenu (94,1 milliards d’euros attendus) serviront à financer les seuls intérêts de la dette (56 milliards), lesquels devraient croître de 50 % d’ici la fin du quinquennat (84 milliards prévus en 2027).

Les évolutions de la masse salariale publique fournissent, elles aussi, un bon indicateur quant au souci porté à la gestion financière publique.

Lors du quinquennat de Nicolas Sarkozy, la masse salariale des administrations publiques avait baissé de 13,9 % en volume ; alors qu’elle n’avait augmenté « que » de 3,4 % sous François Hollande, la masse salariale publique a déjà bondi, en volume, de presque 10 % depuis l’élection d’Emmanuel Macron (+ 9,7 % entre 2017 et 2024).

L’an prochain, les effectifs de l’État (+ 6695 postes) et de ses opérateurs (+ 1578 postes) augmenteront encore, en contradiction avec les engagements pris dans le projet de loi de programmation des finances publiques (LPFP) pour les années 2023 à 2027…

Sur le web.

Guillaume Meurice convoqué par la police : et la liberté d’expression dans tout ça ?

La société française est malade. Elle souffre d’un mal insidieux dont les symptômes se laissent à peine voir. Ils sont pourtant bien-là et ces derniers jours, deux « polémiques » s’en sont fait l’écho.

C’est Guillaume Meurice, d’abord, convoqué par la police pour « provocation à la haine » après une blague de mauvais goût dans lequel l’humoriste avait comparé, au micro de France Inter, Benyamin Nétanyahou (Premier ministre israélien) à un « nazi sans prépuce ». C’est ensuite le rappeur Freeze Corleone, qui a vu son concert annulé par la préfecture de police, au prétexte que ses références antisémites et complotistes feraient planer des risques « sérieux » de trouble à l’ordre public.

Cette judiciarisation à outrance de la vie sociale, culturelle et politique témoigne d’une France fracturée et pétrifiée par une sensibilité maladive. Certes, les idées ici incriminées sont absolument condamnables. Mais cette condamnation doit se faire dans l’arène du débat d’idée plutôt que dans un tribunal.

Cette paralysie du débat démocratique devrait alerter infiniment plus qu’une blague de mauvais goût. Avons-nous atteint un tel niveau de fragilité ? Sommes-nous à ce point incapables d’accepter la contradiction, de supporter l’expression d’une idée que l’on juge en tout point détestable, voire choquante ? Il n’y a plus vil poison, pour une démocratie, que l’idée fallacieuse selon laquelle les mots pourraient heurter, et que de la parole à l’acte, il n’y aurait qu’un pas.

C’est justement en déplaçant la violence dans le monde des idées et de la parole que les institutions démocratiques sont parvenues à pacifier nos sociétés ! Croire une seule seconde qu’interdire l’expression d’idées bêtes, haineuses ou dangereuses, suffira à les faire disparaître est d’une naïveté confondante. De plus, ces institutions démocratiques ont besoin d’un socle sans lequel elles ne peuvent se maintenir : un corps social imprégné d’un esprit démocratique et libéral, acceptant que la diversité et la différence impliquent l’acceptation de l’expression d’idées choquantes et/ou stupides.

Que l’on puisse être convoqué par la police pour une blague de mauvais goût serait ironique, si ce n’était pas le symbole d’une crise profonde de la liberté en France. Du professeur qui s’auto-censure au citoyen juif qui cache sa kippa, en passant par l’humoriste ayant besoin de consulter un avocat avant de faire une blague, ce sont autant de phénomènes qui renseignent du niveau d’intolérance qui règne dans notre pays. L’ultra susceptibilité mène inévitablement à la limitation de la liberté d’expression.

Du reste, faut-il rappeler, encore et toujours, que la liberté d’expression ne s’arrête pas à la simple sauvegarde de sa propre liberté ? Se battre pour la liberté d’expression, c’est avant tout se battre pour la liberté de ses adversaires politiques, et ainsi défendre leur droit de dire des choses qui nous déplaisent et nous choquent.

C’est parce que je déteste les idées de Guillaume Meurice et de Freeze Corleone que je veux qu’ils puissent les exprimer sans être inquiétés, que ce soit par la main du pouvoir politique ou, plus insidieusement, par la pression sociale. Parce que les libertés sont solidaires les unes des autres, leur liberté est la seule véritable garantie de ma liberté.

Laissons-les s’exprimer, nous aurons tout le loisir de les réfuter.

La création monétaire peut-elle sauver la planète ?

Le Ministère du futur est le titre du dernier livre de Kim Stanley Robinson, un grand auteur de science-fiction qui se revendique de la gauche et de l’utopie.

 

L’avenir, c’est le passé

La thèse qu’il défend dans ce roman est que nous n’avons plus le temps d’inventer un modèle économique alternatif pour assurer « la survie de la biosphère ». La seule approche réaliste pour y parvenir serait de recycler d’urgence « de vieilles idées en les poussant plus loin ».

À ses yeux, John Maynard Keynes est l’auteur de la principale de ces vieilles idées lorsqu’il énonce qu’étant à l’origine de la création monétaire, les banques centrales ont la capacité de l’orienter pour résoudre le problème le plus grave du moment, soit le chômage hier et le changement climatique aujourd’hui.

Jézabel Couppey Soubeyran n’a peut-être pas lu Le Ministère du futur, mais la tribune qu’elle a signée récemment dans Le Monde suit la même piste.

Elle y souligne à juste titre que bien des dépenses nécessaires à la transition écologique ne sont a priori pas rentables. On note, ce qu’elle ne fait pas, que c’est déjà le cas de toutes les dépenses régaliennes et de bien d’autres qui, elles aussi, nécessitent un financement public.

La difficulté est que déjà très dégradées, les finances publiques de la plupart des pays, et de la France en particulier, ne sont pas à même de prendre en charge ces dépenses supplémentaires.

 

Le retour de la planche à billets

Qu’à cela ne tienne !

Si on voit les choses de très haut, comme le font des adeptes de la macro-économie, on peut agir sur le système économique en maniant deux types de levier.

Le premier est l’impôt. C’est la voie qu’emprunte le rapport Pisani-Ferry en prônant la création d’un « ISF vert ». Le moins qu’on puisse dire est que cette proposition passe mal dans un pays déjà très surtaxé.

D’où l’idée de recourir à la monnaie qui est le deuxième levier. Jézabel Couppey Soubeyran s’en saisit en proposant la création, autant qu’il le faudra, de « monnaie sans dette » par les banques centrales qui s’uniraient dans un même élan de coopération pour vaincre l’hydre climatique.

 

Haut les cœurs !

En effet, selon elle, la monnaie-dette, « pilier du capitalisme », « exclut les investissements socialement ou environnementalement indispensables ».

Il faut donc se libérer de ce carcan, en désencastrant la création de monnaie du marché de la dette, c’est-à-dire en l’émettant jusqu’à plus soif, sans contrepartie. Dans cette hypothèse, il va de soi que les banques centrales perdraient leur indépendance, alors qu’elle est la seule garantie d’un minimum de stabilité monétaire. Elles seraient purement et simplement aux ordres des autorités politiques.

Il suffisait d’y penser, en ayant soin d’occulter les échecs flagrants du passé, comme la faillite du système de Law ou le naufrage des assignats.

Pourquoi d’ailleurs, comme le préconise aussi Kim Stanley Robinson, ne pas pousser plus loin cette idée en mettant la création monétaire, non seulement au service de la lutte contre le réchauffement climatique, mais aussi à celui de tous les objectifs collectifs (fixés par qui ? comment ?) dès lors qu’on peut les placer « sous les signes du non marchand, du social et de l’écologie » ?

Force est d’ailleurs de constater que le périmètre de ces dépenses indispensables mais estimées non rentables, et donc à financer par création monétaire, n’est jamais clairement défini par la tribune. Une bonne part de celles qu’elle pointe, comme le traitement des eaux usées ou la collecte des déchets, sont d’ailleurs déjà très bien assurées par des groupes privés.

En tout état de cause, la frontière entre les activités qui à un moment donné sont rentables et celles qui ne le sont pas n’est pas fixe. Elle ne cesse d’évoluer sous l’influence des forces du marché qui n’est pas une « fabrique du diable » comme le prétendent ceux qui se réclament de Karl Polanyi, mais le processus le plus apte à trouver des solutions viables.

 

La Gosbank revisitée

Si on suit madame Couppey Soubeyran, comme au bon vieux temps de l’URSS, les banques centrales émettraient donc de la monnaie sans contrepartie et sans motif autre que l’exécution des directives d’une autorité de planification centralisée.

La somme correspondante serait alors inscrite sur le compte d’une société financière publique (dirigée par qui ? selon quelles règles ?) qui distribuerait la manne pour réaliser des projets d’investissement, sélectionnés justement parce qu’ils ne sont pas rentables.

Les Shadoks ne sont pas loin.

 

Taxer pour éponger

Surgit alors sous la plume de l’auteure une question candide : faut-il craindre que cela soit inflationniste ?

Elle reconnaît bien volontiers que ça le serait inévitablement, d’autant plus qu’à la différence de la monnaie standard qui disparaît quand la dette sous-jacente est remboursée, celle-ci aurait une durée de vie illimitée et s’accumulerait indéfiniment.

Alors que faire ? Sans surprise, la réponse est de taxer in fine tout ce qui peut l’être pour retirer cette monnaie du circuit, dès lors qu’elle devient trop abondante. Sorti par la porte, l’impôt revient par la fenêtre.

 

Faire confiance aux mécanismes de marché

Pour ne pas alourdir encore une charge fiscale devenue contre-productive, ce sont les dépenses publiques actuelles qu’il faut parvenir à diminuer et à réorienter grâce aux marges de manœuvre ainsi dégagées.

Il faut aussi faire confiance aux innovateurs dont les réalisations dégageront les gains de productivité indispensables pour faire face à de nouvelles dépenses.

L’approche par « la monnaie, sans dette » n’est qu’une énième version d’une antienne bien connue, selon laquelle le capitalisme agresse l’avenir, alors qu’il a engendré une « prospérité de masse » (Edmund Phelps) dont bénéficie le plus grand nombre dans les pays industrialisés.

Pour que celle-ci perdure, il faut laisser l’économie de marché trouver les solutions pertinentes dont la mise en œuvre passe par la fixation d’un prix unique du carbone et par l’essor de nouvelles technologies permettant de réduire les émissions de CO2.

Le salut se situe aux antipodes des solutions constructivistes prônées par les économistes hétérodoxes.

Au nom de ce qu’ils estiment être « le bien commun », ceux-ci osent tout.

C’est même à cela qu’on les reconnaît.

Taxe carbone : sauver le climat par le marché ?

Dans son quatrième rapport publié le 23 octobre, le Conseil national de productivité revient sur la performance économique française de ces derniers mois, les effets de l’optimisation fiscale sur la productivité et les actions pour le climat qui lui paraissent nécessaires à l’atteinte des objectifs de transition énergétique.

Sur ce dernier point, le rapport est particulièrement approfondi et mérite une lecture attentive.

En premier lieu, le rapport indique :

« Les études […] suggèrent que l’impact à long terme de la transition climatique sur la productivité serait négatif (respectivement positif) sans (respectivement avec) une innovation technologique et des investissements adaptés ».

De plus :

« En ce qui concerne l’impact de la transition sur la compétitivité, il est fort probable que la profitabilité des entreprises françaises et européennes et leur compétitivité seront dégradées dans une première phase, dans un scénario où seuls ces pays mettraient en place des mesures suffisantes pour atteindre la neutralité carbone en 2050. Elles pourraient rebondir à l’aune de nouveaux investissements qui allieraient gains de productivité et baisse des coûts de production, à condition cependant que la base productive ne se soit pas trop dégradée dans la première phase de perte de compétitivité. »

Le rapport s’inscrit donc dans le consensus actuel pouvant être résumé ainsi avec d’autres mots : la transition énergétique nécessitant « forçage réglementaire » de l’économie (c’est-à-dire la mise en place d’incitations réglementaires pour modifier les modes de productions et de consommations « spontanés »), cette modification pilotée de trajectoire s’inscrit par nature dans un optimum économique dégradé, sinon, au contraire, les changements seraient spontanés.

Mais ce faisant, elle suppose un investissement majeur dont les effets à termes pourrait être positif sur la productivité et l’innovation. Au final, l’impact sur la croissance dépendra de la forme de cette « courbe en U » et pourrait être positif si l’étape de dégradation n’est pas trop destructrice au départ et celle de l’innovation se révèle in fine efficace en termes de productivité.

 

Orienter l’offre ou la demande, les outils de l’État

Pour ce faire, l’État dispose d’outils permettant d’orienter l’offre ou la demande vers un équilibre moins polluant (réindustrialisation, subventions, normes, etc.).

Le rapport suggère d’en développer un nouveau qui consisterait en une contribution carbone sur les produits de grande consommation finale en fonction de leur contenu carbone sur l’ensemble du processus de production, avec une hausse préalable des revenus des ménages afin de préserver leur pouvoir d’achat, tout en contribuant à une réduction des inégalités.

Une évaluation de l’impact de ces mesures le chiffre à une réduction des émissions de 19 % pour un taux de taxe de 100 euros la tonne carbone sur les produits agro-alimentaires pour un taux de taxe médian de 4,8 %. Et avec ces taxes appliquées aux autres produits finis de grande consommation, la contribution carbone pourrait contribuer à plus de la moitié de l’objectif de baisse des émissions carbone en orientant la demande vers des produits moins carbonés.

D’un point de vue théorique, l’internalisation du coût environnemental des émissions de CO2 dans les prix à la consommation qui revient à un principe pollueur / payeur, est à la fois « juste » et « optimal » en termes d’équilibre offre-demande. En pilotant le niveau de fiscalité, il permet de modifier cet équilibre dans le temps de manière progressive, ce qui en augmente l’acceptabilité côté consommateur et l’adaptation de la production côté offre.

La mise en place d’une contribution carbone sur les produits de consommation finale présente deux avantages :

  1. Elle permettrait de taxer les émissions sur l’ensemble de la chaîne de production sans pénaliser les productions locales puisque les biens et services importés y seraient soumis.
  2. Elle avantagerait les productions locales au contenu généralement moins carboné que les importations.

 

Pour éviter une hausse des prélèvements obligatoires, le rapport préconise une hausse du revenu (par exemple par la baisse des cotisations salariales et/ou hausse de certaines prestations et/ou baisse de la TVA).

Cette étude très intéressante parait aller dans la bonne voie, celle de la taxation des produits de consommation qui permettra l’internalisation des coûts cachés, une meilleure différenciation-prix et donc des incitations claires.

 

Pour autant, la proposition pourrait être utilement étendue.

En effet, le succès nous semble reposer sur trois points clé :

  1. La neutralité financière de la mesure
  2. Sa simplicité de mise en œuvre
  3. La capacité des consommateurs à faire des choix rendant la mesure acceptable

 

La neutralité financière est un objectif de la proposition du rapport. En revanche, la mise en œuvre via un mix fiscal (dont cotisations sociales) nous parait extrêmement complexe à mettre en place de prime abord, et à faire évoluer (car l’équilibre financier du système devra être mobile). La notion de choix et d’optimisation du consommateur semble respectée (capacité d’arbitrage entre produits) via la possibilité d’utiliser le surcroit de revenu entre produits de différents niveaux de taxation, le cas échéant en maximisant le pouvoir d’achat en renonçant à une proportion élevée de produits polluants.

 

En conclusion

La proposition fournit des éléments de discussions documentés permettant de faire progresser le débat.

Nous restons convaincus que la notion de « revenu de transition » est plus pertinente pour compenser le surcoût de la transition en général qu’un mix fiscal complexe et non directement visible par les bénéficiaires.

Une telle prestation généralisée serait calibrée pour couvrir la taxation carbone de l’ensemble des consommations (produits de grande consommation, mais aussi besoin de chauffage, de transports, etc.) mais aussi potentiellement les besoins de base (quantité d’eau/électricité minimum par personne par exemple, car la hausse des prix associée au choc d’offre de transition ne diffusera pas uniquement via les taxes carbones, mais aussi via les prix de production).

Financée par l’impôt et le regroupement de prestations existantes, elle constituerait aussi un choc de simplification de l’aide sociale, et son financement pourrait être aisément piloté.

Pour Standard and Poor’s, le Bénin est le seul pays d’Afrique avec une perspective positive

Ce lundi 30 octobre, l’agence de notation financière Standard and Poor’s (S&P Global) a relevé la perspective de la note d’endettement à long terme du Bénin de « stable » à « positive », tout en maintenant sa note souveraine à B+. Le Bénin est le seul pays d’Afrique dans ce cas.

Si la note de la dette souveraine du Bénin reste dans la catégorie « hautement spéculatif », l’agence S&P Global considère qu’il est en capacité de faire face à ses engagements financiers, et anticipe une montée en gamme de sa croissance dans les trois années à venir.

Ce signe d’optimisme témoigne de la résilience de l’économie béninoise face aux répercussions des chocs liés à la pandémie de Covid-19, à l’invasion de l’Ukraine par la Russie, et à la dégradation de la situation sécuritaire aux frontières avec ses voisins sahéliens. Il souligne aussi l’efficacité des réformes conduites par le gouvernement du Bénin pour transformer son marché intérieur dans un contexte régional difficile : les coups d’État perpétrés au Mali, au Burkina Faso et au Niger ont fracturé l’Union Économique et Monétaire d’Afrique de l’Ouest (UEMOA), affaiblissant le marché commun auquel appartient le Bénin.

Les progrès macro-économiques du Bénin établissent un contraste de plus en plus saillant avec les échecs enregistrés par les économies voisines gouvernées par des juntes. Le décalage avec le Niger, qui a subi un putsch en juillet dernier, s’accroît ostensiblement. Tandis que plus d’un millier de camions de marchandises sont encore bloqués au nord du Bénin, et que le prix des denrées alimentaires flambe au Niger, la zone économique spéciale de Glo Djigbé, portée depuis trois ans par le gouvernement béninois, commence à porter ses fruits et à devenir un centre manufacturier. Les premiers tee-shirts made in Bénin y ont été fabriqués l’année dernière, et les matières premières traditionnellement exportées brutes (anacarde, soja, ananas, noix de cajou..) commencent à y être transformées.

Cet élan de diversification attire des investissements dans des secteurs connexes, comme le logement.

Robbie Mata Lemaire, investisseur congolo-belge intéressé par l’essor du pays, témoigne :

« L’émergence de Glo Djigbé rend possible la construction de logements pour le personnel dont le confort n’aura rien à envier aux standards occidentaux ».

Ironie de l’histoire : cinq mois avant d’être renversé, à l’occasion d’une visite officielle, le président du Niger Mohamed Bazoum avait déclaré vouloir s’en inspirer pour conduire un projet similaire dans son pays, appelant à développer une coopération avec le Bénin dans les mois suivants.

Les zones d’exonérations fiscales et sociales territoriales : 25 ans de saupoudrage d’argent public

Par Romain Delisle.
Un article de l’IREF.

Depuis les années 1990, la création de zones spécifiques disposant d’une fiscalité plus avantageuse a été un moyen privilégié pour l’État de mettre en œuvre ses politiques de développement territorial. L’impact économique a été décevant, mais ces zones n’en ont pas moins été multipliées jusqu’à l’excès, formant maintenant une usine à gaz complexe, impossible à démanteler sans susciter beaucoup d’hostilité.

À la fin de l’année 2023, le dispositif des zones franches urbaines (ZFU), censées faciliter l’implantation d’entreprises dans les banlieues sensibles via une batterie d’avantages fiscaux, arrivera à son terme. Il s’inscrivait, en fait, dans une vaste entreprise de distribution d’argent public que l’histoire a choisi de retenir sous le nom de politique de la ville.

Depuis cette période, l’État est intervenu plus largement dans trois types de territoires défavorisés, en délimitant des espaces particuliers où les entreprises privées seraient incitées, par des allègements fiscaux, à s’installer. Hors outre-mer, il s’agissait des territoires en reconversion industrielle, de la ruralité avec les zones de revitalisation rurale (ZRR) et des zones de développement prioritaire (ZDP), les quartiers urbains criminogènes avec les quartiers prioritaires de la ville (QPV), ainsi que les ZFU déjà citées.

Notons, accessoirement, que l’ensemble des critères pour accéder au statut de ZDP a été forgé uniquement dans l’intention d’en faire bénéficier la Corse

Force est de constater que ce fut un échec.  La création de valeur ajoutée n’a pas massivement décollé dans les espaces ciblés et, lorsqu’il y en a eu, ce fut bien évidemment au détriment des zones dans lesquelles l’activité était localisée auparavant.

 

Un empilement de différents découpages réalisés sans cohérence globale

Il y a trois ans, l’Inspection générale des affaires sociales (IGAS) avait évalué le coût minimum de l’ensemble de ces dispositifs à 620 millions d’euros (dont 179 millions d’exonération de charges sociales), un chiffre qui n’intègre pas les exonérations de taxes locales décidées par les collectivités elles-mêmes.

La gouvernance de cette politique publique est éclatée entre 7 administrations différentes (dont l’Agence nationale de cohésion des territoires, la Direction générale des Finances publiques, la Direction du Budget ou encore la Direction générale des collectivités territoriales), ce qui rend difficile le suivi des crédits publics.

Premier constat : la dépense fiscale a très largement bénéficié aux professions libérales individuelles (48 % de l’assiette de l’impôt exonéré) et créé assez peu d’emplois. Toujours selon l’IGAS, les professionnels de santé et les travailleurs sociaux, par exemple, ont concentré 32 % de l’assiette exonérée, contre seulement 5 % pour l’industrie manufacturière.

 

En plus d’un quart de siècle, aucune étude n’a pu démontrer un impact significatif de cette politique sur le développement des territoires

Dès 2011, l’Inspection générale des finances (IGF) avait noté le peu d’impact économique des ZRR et des ZFU.

Trois ans plus tôt, des chercheurs avaient même avancé, pour le coût d’un emploi créé ou maintenu en ZFU, le chiffre exorbitant de 31 500 euros. Ces constats auraient dû mener à l’extinction rapide de ces deux dispositifs, mais rien n’a bougé.

Dix ans plus tard, Jean-Noël Barrot, futur ministre du Numérique et alors simple député, arrivait aux mêmes conclusions dans un rapport : les incitations fiscales ne prévalent pas sur l’attractivité d’un territoire et, surtout en ce qui concerne les banlieues, sur son image auprès des chefs d’entreprise.

Dans les ZRR, seul 7 % des entreprises ont recours aux allégements fiscaux spécifiques. Les procédures administratives pour y accéder sont tellement complexes qu’elles préfèrent s’en tenir aux exonérations habituelles, plus simples à gérer. En somme, comme le note la Revue des dépenses publiques de 2015, ce type d’action publique crée surtout des effets d’aubaine, sans avoir d’impact économique réel à long terme.

En réalité, et c’est sans doute la principale raison de leur survie, ces dispositifs sont politiques et visent à ménager certains groupes sociaux qui pourraient manifester leur mécontentement dans les urnes ou dans la rue.

Ainsi que nous avons déjà eu l’occasion de le remarquer, cette manière de créer de la dépense fiscale menace le rendement de l’impôt, en mitant son assiette déjà fragilisée par les nombreuses niches qui érodent les recettes de l’État, et font pression à la hausse sur la fiscalité en général. Il faut donc recommander la rationalisation des exonérations fiscales territoriales, en les limitant clairement dans le temps ainsi qu’à des zones spécifiquement sinistrées. En revanche, il convient de laisser la liberté aux collectivités locales de mettre en œuvre les dépenses fiscales qu’elles souhaitent, pourvu qu’elles en soient responsables sur leurs propres deniers.

Enfin, il appartient de traiter les problèmes de fond qui ont conduit à ces situations :

  • la baisse des charges sociales et des impôts sur le capital doit être généralisée ;
  • les contrats de travail et les baux commerciaux, faire l’objet d’une réglementation plus souple ;
  • la sécurité des personnes et des biens dans ces zones à problèmes, garantie.

 

Une fois cela fait, les entreprises ne manqueront pas de se tourner vers des zones où coût de la main-d’œuvre et loyers sont avantageux (puisque l’activité y est plus faible). Et ce sera d’autant plus vrai que les collectivités locales sauront maintenir des services publics de qualité.

On n’attire pas des entreprises avec des cadeaux, mais avec des conditions de travail intéressantes.

 

Voir sur le web.

La Chine s’émancipe : un tournant dans la guerre technologique

Selon le Wall Street Journal du 6 septembre, après la Russie, la Chine a décidé d’interdire les iPhone et autres smartphones de marques étrangères à l’ensemble de ses fonctionnaires, lorsqu’ils sont au travail.

Autant dire que pour Apple, la nouvelle n’est pas à ranger dans le dossier des bonnes nouvelles. Cette décision a fait l’effet d’une bombe à fragmentation dans la mesure où elle ne cible pas Apple spécifiquement, mais elle est un moyen pour mettre à mal la stratégie de l’administration américaine dans sa volonté d’hégémonie technologique.

 

Conséquences pour la firme

Cette décision n’est pas sans lourdes conséquences pour la firme.

Le marché chinois représente 19 % des revenus de l’entreprise, et la Chine est également son principal centre de production.

Après l’annonce du gouvernement chinois, depuis le mercredi 6 septembre, « la capitalisation boursière d’Apple a fondu de plus de 200 milliards de dollars, pour s’établir à 2776 milliards de dollars ».

Nonobstant ce coût financier, la firme cherche à trouver d’autres implantations pour sa production, notamment en Inde (dans une usine située dans l’État du Tamil Nadu) et au Vietnam… Cela ne consolera guère les dirigeants et les salariés de la firme Apple, qui ne sont ni responsables ni coupables – selon la formule – de leurs déboires commerciaux.

 

Les dessous politiques d’une telle décision

Le fait est que la firme Apple paye une politique agressive à l’encontre des entreprises chinoises menée depuis plusieurs années par l’administration américaine.

Cette attaque n’est que la partie – de mon point de vue – émergée de l’Iceberg.

Qui cible véritablement le gouvernement chinois en s’en prenant ainsi à Apple me semble être la bonne question. Et pourquoi ? Plus encore, pourquoi maintenant ? Si nous allons plus loin, il est évident que pour l’administration américaine, cette décision de la Chine constitue un très lourd revers. Elle remet profondément en cause sa stratégie en matière de technologies, et sa politique ostensiblement anti-Chine.

 

Le retour de flamme de la stratégie « mondiale » anti-Huawei

Ayant, depuis la période Trump, sans jamais le formuler explicitement, désigné la Chine comme ennemi technologique n° 1, l’administration de Joe Biden aurait dû s’attendre à une réplique extrêmement offensive de l’empire du Milieu.

Rappelons à toutes fins utiles qu’en novembre 2022, dans la continuité de la stratégie de l’administration Trump, l’administration Biden avait interdit « la vente sur le territoire américain de nouveaux équipements de télécommunication par les groupes chinois Huawei Technologies et ZTE en raison d’un « risque inacceptable » pour la sécurité nationale des États-Unis ».

L’administration américaine aurait bien fait de s’inspirer d’un adage tiré de L’art de la guerre de Sun Tzu :

« Celui qui excelle à vaincre ses ennemis triomphe avant que les menaces de ceux-ci ne se concrétisent ».

Les États-Unis et leurs alliés se sont, à mon sens, montrés très « agressifs » (depuis la période Trump) et très (trop) présomptueux, pour ne pas dire naïfs vis-à-vis de la Chine à propos de sa puissance et sa capacité à contre-attaquer.

 

La Chine : du suivisme au leadership technologique… voire hégémonique

Pour rappel, la guerre ouverte commerciale et technologique entre les États-Unis et la Chine a été lancée en 2018 par Donald Trump.

La stratégie de l’administration Trump visait, autant que faire se peut, à laisser la Chine derrière elle d’un point de vue technologique, qu’elle soit cantonnée, par isolationnisme, à un rôle de fabricant-exécutant.

Dans cette dynamique, les États-Unis avaient été suivis (appuyés) par de nombreux États alliés qui ont tout fait pour nuire au développement de nombreuses firmes chinoises, à l’instar de l’emblématique Huawei pour ce qui est – entre autres – de la technologie 5G.

Tous ont adopté le même narratif vis-à-vis de leurs concitoyens, évoquant sans relâche la sécurité nationale, la protection des données, la souveraineté numérique, etc.

Ainsi, en 2018 l’Australie avait banni Huawei et ZTE de son réseau 5G.

En 2020, c’était au tour du Royaume-Uni d’annoncer qu’il interdirait désormais l’achat de nouveaux équipements Huawei pour les réseaux 5G, et exigerait que les équipements Huawei existants soient retirés d’ici 2027…

En 2022, la Commission fédérale des communications des États-Unis avait prohibé « la vente de tout nouveau produit sur le sol américain à plusieurs firmes chinoises », et ajouté des restrictions importantes sur l’utilisation des produits et services d’une demi-douzaine d’entreprises chinoises, dont Huawei et ZTE.

Ces restrictions comprenaient des interdictions d’achat de matériel de télécommunications chinois par les agences gouvernementales américaines. Dans cette dynamique « anti-techno chinoise » en juin 2023, la Commission européenne estimait à son tour que les fournisseurs de télécoms chinois, Huawei et ZTE, représentaient un risque pour la sécurité de l’Union européenne. Bruxelles avait alors « appelé les 27 pays membres et les opérateurs télécoms à exclure ces équipements de leurs réseaux mobiles. »

 

Problème de sécurité nationale, ou d’hégémonie technologique ?

Tandis que l’ensemble des acteurs concernés évoque des problématiques de data, de protections de données, de protections de citoyens, etc., ce qui est certes audible, notons toutefois que tous autant qu’ils sont disposent des moyens pour pirater qui ils veulent, et lorsqu’ils le veulent !

Certes, sur certaines applications comme TikTok ou d’autres réseaux, des exigences peuvent être émises pour une modération adaptée et non pernicieuse (cf. dysmorphie).

Pour le reste, ce discours demeure l’arbre qui cache la forêt. L’enjeu de ce « technodrame » technologique qui fait aujourd’hui la Une des médias est à mon sens autre, et d’une tout autre dimension.

Il s’agit ni plus ni moins pour les États, ici la Chine, de prendre le leadership sur les technologies, toutes les technologies ! Celui qui aura le leadership dominera le monde.

N’est-ce pas ce qu’avait déclaré Poutine au sujet de l’IA :

« Celui qui réalisera une percée marquante en intelligence artificielle dominera le monde. »

Voilà l’enjeu et le combat des puissances mondiales : dans le domaine technologique au sens large, 5G, IA, il s’agit de poser le premier pas sur cette planète en perpétuelle mutation, d’en avoir le contrôle, ce qui passe par une autonomie technologique totale !

Le pied de nez de la Chine, face à ce qui peut être considéré objectivement comme des agressions commerciales, aura été, par-delà les coups portés, la poursuite du développement d’entreprises chinoises comme Huwaei, que les États-Unis comptaient bien mettre à genoux.

 

La Chine s’éveille et s’émancipe technologiquement

Si vous ne saviez pas comment la Chine s’éveillerait, maintenant, vous le savez.

Pékin vise l’autosuffisance technologique sur 70 % des composants et matériaux-clés à l’horizon 2025, comme l’énonce l’ambitieux programme Made in China 2025. Le lancement par la firme du Huawei Mate 60 Pro en est la preuve. S’agit-il de coïncidence de calendrier ? Nullement !

Comme le dit fort justement le journaliste Thomas Estimbre  (JDG), ce smartphone est ni plus ni moins « le nouveau cauchemar des États-Unis ».

D’une part, son lancement se fait dans un timing pour le moins opportun ; d’autre part, s’il a provoqué l’ire de Washington, c’est que le géant chinois a sorti un produit doté d’une puce qu’il n’était pas censé être capable de fabriquer, et ce « en raison des sanctions américaines pesant sur les exportations de certains composants vers la Chine ».

Il se trouve que la Chine peut se révéler taquine ! Outre la décision de boycott d’Apple, le dévoilement en grande pompe de l’Huawei Mate 60 Pro par la société Huawei est intervenu le 29 août 2023, damant ainsi le pion à Apple qui n’a présenté sa nouvelle gamme d’iPhone, l’iPhone 15 Pro et l’iPhone 15 Pro Max que le 12 septembre 2023 ! Hasard ? Peut-être… Notons que ce hasard est stratégiquement habile.

Quand la Chine s’éveille et s’émancipe, elle frappe, et le moins que l’on puisse dire c’est qu’elle a frappé fort. Si elle a beaucoup subi, elle a patienté, et comme le disait Balzac, « la puissance ne consiste pas à frapper fort ou souvent, mais à frapper juste ».

Par l’intermédiaire de la société Huawei, la Chine, qui n’a eu de cesse d’être ostracisée par les États-Unis depuis le mandat de Donald Trump, puis par l’Europe (une Europe dont l’entreprise espérait le soutien) a frappé un grand coup dans la course à l’hégémonie technologique.

Les États-Unis, leurs alliés – dont l’Europe – qui se sont tant mobilisés pour freiner son autonomie technologique seraient dès lors bien avisés de repenser en profondeur et en urgence leur stratégie vis-à-vis de l’empire du Milieu…

Une mise en échec, c’est une chose, mais ne faut-il pas en tirer les leçons, à moins de poursuivre la même stratégie pour finir échec et mat ? Si tant est qu’en matière d’hégémonie technologique les jeux ne soient déjà faits.

« La première fois, c’est une erreur, la seconde c’est qu’on le fait exprès. » Proverbe chinois.

Existe-t-il une mesure objective de l’inflation des prix ?

L’objectif déclaré de la politique monétaire dans la zone euro est un taux d’inflation de 2 % par an en moyenne sur le moyen terme.

La mesure utilisée est ce que l’on appelle l’indice des prix à la consommation harmonisé (IPCH), qui est calculé chaque mois selon des normes uniformes dans tous les pays de l’UE. Mais ces normes conduisent-elles vraiment à un taux d’inflation objectif ? En aucun cas. Il ne peut pas y avoir d’évaluation objective de l’inflation des prix.

Cela n’est pas seulement dû au fait que les gens sont différents, et qu’il faudrait calculer une mesure de l’inflation individualisée pour chacun, en fonction de son propre comportement d’achat. Même pour une seule personne, nous ne pouvons pas calculer de manière irréprochable un taux d’inflation objectif. Cela est dû au fait que le comportement d’achat de chacun change au fil du temps. Les économistes parlent ici d’effets de substitution.

 

Peut-on réellement mesurer l’inflation de manière objective ?

Si le panier de biens et services achetés varie au fil du temps, la question se pose de savoir quel choix de biens et services peut fournir une base pertinente pour le calcul de l’inflation.

Imaginez la mesure de l’inflation d’une année à l’autre. Faut-il se baser sur le panier de la première année ou plutôt sur celui de la deuxième année ? Dans le premier cas, on calculerait ce que l’on appelle l’indice de Laspeyres. Dans le second cas, il s’agit de l’indice de Paasche. Les deux donnent des résultats différents, et il n’y a pas de raison impérieuse de privilégier l’un ou l’autre indice.

Le célèbre économiste américain Irving Fisher a donc proposé de calculer simplement la moyenne géométrique des deux indices. Il en résulte ce que l’on appelle l’indice de Fisher. Mais celui-ci ne fournit pas non plus une mesure objective de l’inflation.

La problématique de base peut être illustrée par un simple exemple chiffré.

Imaginons un scénario avec deux marchandises – des médaillons de veau et des bâtonnets de tofu. Supposons que le prix des médaillons de veau ait augmenté de 25 % d’une année à l’autre. Mais le prix des bâtonnets de tofu n’a augmenté que de 5 %. Comment faut-il pondérer ces différents taux de renchérissement ? La moyenne arithmétique simple donne une inflation de 15 %. Mais faut-il vraiment donner le même poids à ces biens ? Pas nécessairement.

Imaginons que pour un consommateur, la première année, 50 % des dépenses totales soient proportionnellement consacrées à des médaillons de veau et 50 % à des bâtonnets de tofu. Dans ce cas, l’indice de Laspeyres donnerait effectivement le même poids aux deux biens, et afficherait un taux d’inflation de 15 %.

Cependant, l’inflation hétérogène des prix de différents produits entraîne généralement des changements dans le comportement des consommateurs.

Imaginez qu’au cours de la deuxième année, les dépenses de consommation ne se répartissent plus de manière égale entre les deux produits, mais qu’au lieu de cela, seuls 20 % sont dépensés pour des médaillons de veau et 80 % pour des bâtonnets de tofu. Avec les dépenses proportionnelles de la deuxième année, on obtient donc une inflation moyenne pondérée de seulement 9 % (0,2*25 % + 0,8*5 %). L’indice de Paasche présente donc une inflation des prix nettement inférieure à celle de l’indice de Laspeyres.

L’indice de Fisher se situe exactement entre les deux, et afficherait une inflation des prix de 12% – 11,9598 % exactement, car il s’agit de la moyenne géométrique, qui est normalement légèrement inférieure à la moyenne arithmétique).

Il n’est pas possible de dire avec certitude quelle est la bonne mesure. Tout dépend des évaluations subjectives sous-jacentes du consommateur. Au fond, la mesure de l’inflation pose la question de savoir de combien un niveau donné de satisfaction des besoins, ou un niveau de vie donné, a renchéri.

Il faudrait donc déterminer si les paniers de biens de la première et de la deuxième année sont équivalents ou non du point de vue du consommateur.

Pour acheter le panier de biens de la première année également la deuxième année, le consommateur devrait dépenser 15 % de plus dans notre scénario. Il opte toutefois pour le panier de biens dont le prix n’a augmenté que de 9 % (20 % des dépenses totales pour le veau et 80 % pour le tofu). Si cette nouvelle combinaison de médaillons de veau et de bâtonnets de tofu satisfait aussi bien les besoins du consommateur que l’ancienne combinaison, alors la même satisfaction des besoins ne coûte en fait que 9 % de plus. L’indice de Paasche, qui indique 9 % d’inflation des prix, serait la bonne mesure.

Toutefois, si le consommateur préfère intrinsèquement la première combinaison, et n’achète la seconde que parce qu’elle est devenue moins chère, le changement de comportement d’achat s’accompagne d’une perte de satisfaction des besoins et les 9 % sous-estimeraient le taux d’inflation réel. Si le revenu reste constant et que les prix augmentent, c’est le cas normal : le consommateur doit se contenter de combinaisons de biens de moindre qualité, et le fait seulement parce que cela lui permet de maintenir l’augmentation des coûts à un niveau relativement faible. Il est donc naturel que les consommateurs achètent des biens dont l’inflation est relativement faible, plutôt que des biens dont l’inflation est relativement élevée.

C’est précisément cette observation qui a incité la commission Boskin aux États-Unis, au milieu des années 1990, à proposer un changement dans le calcul des indices de prix courants, qui s’est imposé jusqu’à aujourd’hui aux États-Unis et en Europe également.

L’argument était que les changements dans le comportement des consommateurs font que ces derniers n’achètent plus autant qu’avant les produits dont le prix a fortement augmenté, et qu’ils se tournent plutôt vers des alternatives moins chères. C’est pourquoi il faut adapter régulièrement les pondérations afin de ne pas surestimer l’inflation – selon la devise : si les produits fortement renchéris sont moins demandés, ils ne sont plus aussi pertinents pour les consommateurs et la mesure de l’inflation.

Au lieu de maintenir le panier de biens et services constant sur des périodes relativement longues (cinq années), on l’actualise désormais chaque année. D’un point de vue dynamique, l’IPCH, qui était à l’origine une sorte d’indice de Laspeyres, s’est ainsi rapproché de l’indice de Paasche. Cela a généralement pour conséquence que les taux d’inflation estimés sont plus bas qu’auparavant.

 

Il n’est pas possible de dire objectivement si ce changement conduit à une meilleure mesure de l’inflation.

Ce qui est clair, c’est que ce changement est dans l’intérêt de la politique. Les changements dans le calcul de l’inflation ont notamment fourni à la politique monétaire une raison d’augmenter encore plus la masse monétaire. Si l’on avait fait état d’une inflation plus élevée depuis la crise financière de 2008, ce qui aurait été le cas selon les anciennes normes de calcul, l’expansion de la masse monétaire aurait dû être limitée plus tôt. L’inflation élevée de ces derniers mois aurait été nettement plus faible et les ménages moyens auraient été épargnés par les dégâts qu’elle provoque.

Dans tous les cas, il est problématique qu’une valeur aussi floue que l’inflation des prix, qui ne peut pas du tout être appréhendée de manière objective, soit déclarée indicateur de la politique monétaire. Que vaut l’objectif de 2 % si 2 % d’inflation des prix n’ont aucune signification objective ?

Semi-conducteurs : l’indépendance technologique ne se limite pas à la fabrication

Par David Monniaux.

 

L’industrie des semi-conducteurs demande de lourds investissements. Le franco-italien STMicroelectronics (ST), un des quelques fabricants européens de circuits intégrés de haute technologie, va s’associer avec Global Foundries, un grand acteur international du secteur, pour étendre son usine de Crolles, près de Grenoble (Isère).

Cette extension fait polémique en raison, d’une part, des très fortes subventions publiques annoncées début juin 2023 pour cette installation (2,9 milliards d’euros) et, d’autre part, de la consommation en eau des installations. On justifie l’effort public européen dans les semi-conducteurs par l’indépendance technologique.

Mais qu’en est-il vraiment ?

On trouve des puces électroniques non seulement dans les ordinateurs, les téléphones portables, les tablettes… mais aussi dans une très grande part des appareils qui nous entourent, de la machine à café aux automobiles, en passant par les robots industriels. Le numérique est partout. Les difficultés d’approvisionnement dues à la pandémie de covid ont bien illustré notre dépendance aux fournisseurs de circuits intégrés.

 

La conception des puces est aussi une industrie

Ces puces électroniques sont produites dans des usines de haute technologie, avec un équipement très spécialisé et très coûteux. Certains de ces équipements ne sont produits que par un unique fabricant au niveau mondial, le néerlandais ASML. Pour produire des circuits du plus haut niveau de performance, ceux pour ordinateurs et smartphones, il faut une usine – une « fab », disent les professionnels du secteur – à l’état de l’art, dont le coût de construction est de l’ordre de 10 milliards de dollars.

Devant de tels montants d’investissement, on ne trouve plus à l’échelle mondiale que quelques fabricants, parmi lesquels le géant taïwanais TSMC, le Coréen Samsung, les Américains GlobalFoundries ou Intel, face auxquels ST apparaît de taille nettement plus modeste. On comprend l’enjeu stratégique de conserver en Europe de la fabrication de puces proches de l’état de l’art en performance. Toutefois, c’est avoir une vue très réductrice de cette industrie que de ne considérer que la fabrication.

La conception des puces est elle-même une industrie : produire le plan d’une puce demande de lourds investissements et une expertise considérable. On fait commerce de plans partiels, blocs de propriété intellectuelle (« blocs IP ») produits par des sociétés dont la britannique ARM est sans doute la plus connue – les puces sur modèle ARM équipent la plupart des téléphones portables et sont également la base des puces Apple des iPhone et des nouveaux Mac.

Cette industrie est internationale, mais largement invisible du grand public : pas d’usines, tout se passe dans des bureaux et par des échanges de fichiers. Les enjeux sont importants : lancer la fabrication d’une puce comportant des bugs a un coût qui, au mieux, se mesure en millions, mais peut être bien plus élevé – on évalue à un milliard de dollars actuels le coût pour Intel du fameux bug du Pentium en 1995 (cette puce calculait fausses certaines divisions).

Il y a même pour servir cette industrie de la conception de puces une industrie de logiciels spécialisés (conception, simulation, test, etc.), dont les acteurs sont par exemple les Américains Cadence ou encore Mentor Graphics. Signe de son caractère stratégique, cette dernière société a été rachetée par l’allemand Siemens.

On a ainsi largement découplé la conception et la fabrication des puces, à telle enseigne qu’il existe de très nombreux fabricants de puces fabless, c’est-à-dire qu’ils ne possèdent pas d’usine de fabrication et font fabriquer par d’autres, à l’image de TSMC. En France, c’est le cas notamment de l’Isérois Kalray, dont les puces ont maintenant un grand succès dans les centres de traitement de données. Ceci pose cependant la question de notre dépendance à l’industrie taïwanaise, avec l’épineuse question de ce qu’elle deviendrait en cas d’invasion de l’île par la Chine populaire.

 

Le risque d’une licence extraeuropéenne

Comment analyser, dans ce contexte, la subvention à ST, par rapport à l’objectif d’indépendance technologique ?

La plus grande partie de l’activité de ST en matière de processeurs consiste à fabriquer des puces (STM32) sous licence ARM. Or, ARM a failli être racheté par l’Américain Nvidia en 2022. Il n’y aurait guère d’indépendance technologique à fabriquer en Europe des puces sous licence américaine, potentiellement soumises aux conditions de commercialisation fixées par le gouvernement américain suivant ses objectifs stratégiques.

La dépendance de toute l’industrie des processeurs aux designs de deux grands acteurs (Intel et ARM) a suscité le développement d’une architecture ouverte nommée RISC-V. Tout un écosystème d’entreprises conçoit des puces RISC-V, et cette architecture reçoit l’attention tant des dirigeants européens (European processor initiative) que chinois, pour ses promesses d’indépendance technologique. Toutefois, faute de concevoir nous-mêmes les puces, le danger serait là encore de se contenter d’être fabricant sous licence extraeuropéenne (chinoise, américaine, ou encore russe ?).

Si nous voulons une réelle indépendance technologique et stratégique européenne en matière de « puces », il ne faut donc pas se concentrer uniquement sur la partie fabrication, mais sur toute la chaîne de valeur, y compris la conception de puces et la conception des logiciels de conception de puces.

 

David Monniaux, Chercheur en informatique, Centre national de la recherche scientifique (CNRS), Université Grenoble Alpes (UGA)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

L’inflation est-elle une taxe ?

Par Peter Jacobsen.

 

J’ai reçu une question intéressante de la part de Heath B. Il dit :

« Il s’agit d’une question concernant votre article intitulé Pourquoi la Réserve fédérale vise-t-elle un taux d’inflation de 2 % ?

Milton Friedman a déclaré un jour que « l’inflation est une taxation sans législation ». Pouvez-vous nous donner votre point de vue sur cette affirmation ? Si c’est vrai, pourquoi nous, citoyens américains, permettons-nous que cela se produise ? L’une des raisons pour lesquelles nous avons mené la guerre révolutionnaire était la taxation sans représentation. »

 

Les deux parties de la question de Heath m’intéressent. La réponse courte est oui, Friedman a raison. Mais comment fonctionne la taxe sur l’inflation et, pour reprendre les termes de Heath, pourquoi la tolérons-nous ?

 

La taxe d’inflation

En quoi l’inflation est-elle une taxe ? Pour comprendre, il faut d’abord se demander comment le gouvernement peut dépenser de l’argent. Le gouvernement n’est pas comme vous et moi, il ne gagne pas d’argent en produisant des biens et des services et en les vendant à des prix fixés d’un commun accord.

Au lieu de cela, il dispose essentiellement de trois moyens pour obtenir de l’argent et le dépenser : peut en le taxant, en l’empruntant ou en l’imprimant.

L’impot est le moyen le plus facile à comprendre, car nous payons tous des impôts. Le gouvernement vous fait payer une certaine somme pour obtenir des revenus, dépenser de l’argent, avoir un parent qui meurt, posséder des biens, ou faire quoi que ce soit, en fait. Vous payez, ou vous êtes condamné à une amende encore plus élevée, voire à de la prison.

L’État peut également emprunter de l’argent. Pour ce faire, il vend ce que l’on appelle une obligation. La personne ou l’organisation qui l’achètent donnent aujourd’hui de l’argent au gouvernement et, en échange, celui-ci promet de lui restituer davantage d’argent à l’avenir (le principal plus les intérêts). C’est de là que proviennent les déficits annuels, et la dette nationale elle-même.

Enfin, lorsqu’un gouvernement utilise une monnaie fiduciaire, il peut en dépenser en l’imprimant davantage. En réalité, la procédure suivie par le gouvernement américain est un peu plus confuse. Le gouvernement ne paie pas ses factures avec des dollars fraîchement imprimés. Au lieu de cela, la Réserve fédérale achète des obligations d’État à des organisations privées (par exemple des banques) avec de l’argent qu’elle crée de toutes pièces.

Comment cela produit-il des revenus ? Pour comprendre, imaginez avoir ce pouvoir. Imaginez que vous puissiez créer vos propres dollars et les utiliser uniquement pour acheter des obligations d’État. Le feriez-vous ? Oui, si vous vouliez un tas d’argent et si cela ne vous dérangeait pas de nuire à d’autres personnes. N’oubliez pas que la dette publique paie des intérêts. Ainsi, lorsque vous achetez des obligations avec de l’argent imprimé, vous échangez simplement l’argent que vous avez créé de toutes pièces contre un actif qui vous rapporte de l’argent.

Mais si le gouvernement est l’organisme qui paie les intérêts à la Réserve fédérale, comment cela se traduit-il par une augmentation des recettes pour le gouvernement ? Eh bien, après avoir déduit certains coûts, la Réserve fédérale reverse historiquement les intérêts au Trésor américain.

En d’autres termes, le Trésor a contracté un prêt (émis une obligation), la Réserve fédérale achète l’obligation au groupe ayant accordé le prêt au gouvernement, et la Réserve fédérale rend au Trésor tous les intérêts qu’il doit payer sur le prêt. Il s’agit en quelque sorte d’un prêt sans intérêt que le gouvernement a pu s’accorder à lui-même, et cela n’est possible que grâce à la création de monnaie par la Réserve fédérale.

Mais il s’agit de création monétaire, qu’en est-il de l’inflation ? L’inflation et la création monétaire vont de pair. Lorsque vous augmentez l’offre d’un bien quelconque, son prix diminue par rapport à ce qu’il serait si vous n’aviez pas augmenté l’offre. La création monétaire se traduit par un taux d’inflation relativement plus élevé. C’est pourquoi Milton Friedman a décrit l’inflation des prix comme étant « toujours et partout un phénomène monétaire ».

Ainsi, la banque qui revend une obligation à la Réserve fédérale reçoit de l’argent nouvellement imprimé. Cet argent frais est dépensé et, à mesure qu’il est dépensé, il fait augmenter les prix des biens et des services.

En fait, l’inflation aide davantage le gouvernement car, à mesure qu’elle augmente, le coût réel de la dette diminue puisque les soldes nominaux restent inchangés. Et, comme nous le savons tous, le gouvernement américain est lui-même un peu débiteur.

Le résultat est limpide. Le gouvernement dispose de plus d’argent grâce à la création monétaire. Et à mesure que l’inflation augmente, l’épargne des citoyens américains (ou de toute personne détenant des dollars américains, d’ailleurs) est grignotée. Il s’agit d’un transfert de richesse des épargnants vers le gouvernement américain.

Certains affirment qu’il ne s’agit pas d’une taxe en raison de détails techniques de définition, mais lorsque l’action du gouvernement transfère la richesse d’un groupe de personnes à elles-mêmes, il semble juste de l’appeler une taxe. Ainsi, dans la mesure où l’inflation est due à l’augmentation de la masse monétaire, à mes yeux, il s’agit bien d’une taxe !

 

Peuvent-ils continuer à s’en sortir ainsi ?

Cela nous amène à la deuxième question de Heath : comment les contribuables américains laissent-ils le gouvernement s’en tirer à si bon compte ?

Pour répondre à cette question, il est important de souligner que certaines parties bénéficient de la création monétaire.

Souvenez-vous que lorsque la Réserve fédérale achète des obligations, elle les achète à des organismes privés. Ceux-ci vendent les obligations à un taux qu’ils estiment rentable, sinon ils ne les vendraient pas en premier lieu. Lorsque cette organisation vend les obligations,  elle reçoit de l’argent nouvellement imprimé. Cet argent, qui entre sur le marché pour la première fois, n’a pas encore provoqué de hausse des prix.

En d’autres termes, le premier bénéficiaire de l’argent frais l’obtient avant que l’inflation ne réduise le pouvoir d’achat de la monnaie. Il y a un avantage à recevoir de l’argent frais en premier. Les économistes appellent cela l’effet Cantillon.

Qui reçoit l’argent frais en premier ? Ce sont souvent les grandes institutions financières, comme les banques. Elles sont bien organisées et comprennent l’avantage qu’il y a à obtenir de l’argent frais. Nous devrions donc nous attendre à ce qu’elles soient prêtes à dépenser des ressources pour s’assurer que la politique de la Réserve fédérale leur soit profitable.

D’autre part, qui souffre de l’inflation ? Eh bien, les coûts sont répartis entre des millions de personnes qui détiennent des dollars américains. Étant donné que ce coût est réparti entre un groupe aussi vaste et inorganisé, on peut s’attendre à ce qu’il soit trop coûteux pour qu’une seule personne puisse consacrer du temps à lutter contre ce type de politique.

Cela illustre ce que l’économiste Mancur Olson a appelé la logique de l’action collective. Étant donné que les avantages sont concentrés sur un petit groupe et que les coûts sont dispersés sur un grand groupe, il est plus facile pour le petit groupe de s’organiser en faveur de la politique.

Les économistes Louis Rouanet et Peter Hazlett expliquent comment, dans plusieurs cas, des groupes d’intérêts particuliers ont réussi à orienter les politiques des banques centrales à leur profit et au détriment de la société. Ils documentent ce phénomène dans le cas de la réponse de la Réserve fédérale à la crise financière de 2007, de la réponse de la Réserve fédérale au covid et du développement de l’euro.

Et bien que la politique de la Réserve fédérale puisse s’écarter de l’explication de base ci-dessus dans ces cas particuliers, le point fondamental illustré par Rouanet et Hazlett est le même. La Réserve fédérale est en mesure d’utiliser son dispositif de création monétaire pour satisfaire des groupes d’intérêts particuliers au détriment de tous les autres.

 

Traduction Contrepoints

Sur le web

❌