Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

Gabriel Attal : déjà dans l’impasse ?

Notre nouveau et brillant Premier ministre se trouve propulsé à la tête d’un gouvernement chargé de gérer un pays qui s’est habitué à vivre au-dessus de ses moyens. Depuis une quarantaine d’années notre économie est à la peine et elle ne produit pas suffisamment de richesses pour satisfaire les besoins de la population : le pays, en conséquence, vit à crédit. Aussi, notre dette extérieure ne cesse-t-elle de croître et elle atteint maintenant un niveau qui inquiète les agences de notation. La tâche de notre Premier ministre est donc loin d’être simple, d’autant que, sitôt nommé,  il se trouve devoir faire face à une révolte paysanne, nos agriculteurs se plaignant d’être soumis à des réglementations bruxelloises absurdes qui entravent leurs activités et assombrissent leur horizon.

Nous allons voir que, par divers signes qui ne trompent pas, tant dans le domaine agricole que dans le domaine industriel, notre pays se trouve en déclin, et la situation devient critique. Le mal vient de ce que nous ne produisons pas suffisamment de richesses et, curieusement, les habitants paraissent l’ignorer. Notre nouveau Premier ministre, dans son discours de politique générale du 30 janvier dernier, n’a rien dit de l’urgence de remédier à ce mal qui affecte la France.

 

Dans le domaine agricole, tout d’abord :

La France, autrefois second exportateur alimentaire mondial, est passée maintenant au sixième rang. Le journal l’Opinion, du 8 février dernier, titre : « Les exportations agricoles boivent la tasse, la souveraineté trinque » ; et le journaliste nous dit : « Voilà 20 ans que les performances à l’export de l’alimentation française déclinent ». Et, pour ce qui est du marché intérieur, ce n’est pas mieux : on recourt de plus en plus à des importations, et parfois dans des proportions importantes, comme on le voit avec les exemples suivants :

On est surpris : la France, grand pays agricole, ne parvient-elle donc pas à pourvoir aux besoins de sa population en matière alimentaire ? Elle en est tout à fait capable, mais les grandes surfaces recourent de plus en plus à l’importation car les productions françaises sont trop chères ; pour les mêmes raisons, les industriels de l’agroalimentaire s’approvisionnent volontiers, eux aussi, à l’étranger, trouvant nos agriculteurs non compétitifs. Aussi, pour défendre nos paysans, le gouvernement a-t-il fini par faire voter une loi qui contraint les grandes surfaces et les industriels à prendre en compte les prix de revient des agriculteurs, leur évitant ainsi le bras de fer auquel ils sont soumis, chaque année, dans leurs négociations avec ces grands acheteurs qui tiennent les marchés. Il y a eu Egalim 1, puis Egalim 2, et récemment Egalim 3. Mais, malgré cela, les agriculteurs continuent à se plaindre : ils font valoir qu’un bon nombre d’entre eux ne parviennent même pas à se rémunérer au niveau du SMIC, et que beaucoup sont conduits, maintenant, au désespoir. 

 

Dans le domaine industriel, ensuite : 

La France est un gros importateur de produits manufacturés, en provenance notamment de l’Allemagne et de la Chine. Il s’est produit, en effet, depuis la fin des Trente Glorieuses, un effondrement de notre secteur industriel, et les pouvoirs publics n’ont pas réagi. La France est ainsi devenue le pays le plus désindustrialisé d’Europe, la Grèce exceptée. Notre production industrielle, calculée par habitant, selon les données de la Banque mondiale (qui incorpore la construction dans sa définition de l’industrie) est faible, comme le montre le tableau ci-dessous :

Nous nous situons en dessous de l’Italie, et nous sommes à 50 % de l’Allemagne. 

Autre signe préoccupant : la France, depuis des années, a une balance commerciale déficitaire, et ce déficit va en s’aggravant, d’année en année :

En 2023, notre déficit commercial a été extrêmement important : 99,6 milliards d’euros. Les commentateurs de la vie politique ont longtemps incriminé des éléments conjoncturels : augmentation du prix du baril de pétrole, baisse des commandes chez Airbus, le Covid-19, etc… Ils ont fini par réaliser que la véritable raison tient à la dégradation de notre secteur industriel.

 

Des pouvoirs publics sans cesse impuissants : 

Les pouvoirs publics, depuis une quarantaine d’années, se sont montrés impuissants à faire face à la dégradation de notre économie : ils ne sont pas parvenus à faire que notre économie puisse assurer le bien être de la population selon les normes qui sont celles des pays les plus avancés. Cela vient de ce qu’ils n’ont pas vu que la cause fondamentale des difficultés que nous rencontrions provenait de la dégradation de notre secteur industriel. Ce qui s’est produit, c’est que nos dirigeants se sont laissés piéger par le cliché qui s’était répandu dans nos sociétés, avec des sociologues fameux comme Alain Touraine, selon lequel une société moderne est une société « postindustrielle », une société « du savoir et de la connaissance » où les productions industrielles sont reportées sur les pays en voie de développement qui ont une main d’œuvre pas chère et corvéable à merci. Jean Fourastié avait formulé « la loi des trois secteurs de l’économie » dans son ouvrage « Le grand espoir du XXe siècle » (Population – 1949) qui connut un succès considérable. Une société, quand elle se développe, passe du secteur agricole (le secteur primaire) au secteur industriel (le secteur secondaire), puis ensuite du secteur industriel au secteur des services (le secteur tertiaire) : on en a conclu qu’une société moderne n’avait plus d’activités industrielles. C’est bien sûr une erreur : le secteur industriel reste toujours présent avec, certes, des effectifs réduits, mais qui sont extrêmement productifs, c’est-à-dire à haute valeur ajoutée par emploi. Nos dirigeants ont donc laissé notre secteur industriel se dégrader, sans broncher, voyant dans l’amenuisement de ce secteur le signe même de la modernisation du pays. Ainsi, on est-on arrivé à ce qu’il ne représente  plus, aujourd’hui, que 10% du PIB : en Allemagne, ou en Suisse, il s’agit de 23 % ou 24 %.

 

Des dépenses sociales phénoménales 

Le pays s’appauvrissant du fait de l’amenuisement de son secteur industriel, il a fallu que les pouvoirs publics accroissent régulièrement leurs dépenses sociales : des dépenses faites pour soutenir le niveau de vie des citoyens, et elles sont devenues considérables. Elles s’élèvent, maintenant, à 850 milliards d’euros, soit 31,5 % du PIB, ce qui est un chiffre record au plan mondial. Le tableau ci-dessous indique comment nous nous situons, en Europe :

Le graphique suivant montre comment nos dépenses sociales se situent par rapport aux autres pays européens :

La corrélation ci-dessus permet de chiffrer l’excès actuel des dépenses sociales françaises, comparativement aux autres pays de cet échantillon : 160 milliards d’euros, ce qui est un chiffre colossal, et ce sont des dépenses politiquement impossibles à réduire en démocratie car elles soutiennent le niveau de vie de la population. 

 

Un endettement du pays devenu structurel :

Autre conséquence de l’incapacité des pouvoirs publics à maitriser la situation : un endettement qui augmente chaque année et qui est devenu considérable. Faute de créer une richesse suffisante pour fournir à la population un niveau de vie correct, l’Etat recourt chaque année à l’endettement et notre dette extérieure n’a pas cessé d’augmenter, comme l’indique le tableau ci-dessous :

Notre dette dépasse à présent le montant du PIB, et les agences de notation commencent à s’en inquiéter car elles ont bien vu qu’elle est devenue structurelle. Le graphique ci-dessous montre combien est anormal le montant de notre dette, et il en est de même pour la Grèce qui est, elle aussi, un pays fortement désindustrialisé.

 

 

Quelle feuille de route pour Gabriel Attal ?

Notre jeune Premier ministre a une feuille de route toute tracée : il faut de toute urgence redresser notre économie et cela passe par la réindustrialisation du pays.

Nous avons, dans d’autres articles, chiffré à 350 milliards d’euros le montant des investissements à effectuer par nos entreprises pour porter notre secteur industriel à 17 % ou 18 % du PIB, le niveau à viser pour permettre à notre économie de retrouver ses grands équilibres. Ce montant est considérable, et il faudra, si l’on veut aller vite, des aides importantes de l’Etat, comme cela se fait actuellement aux Etats Unis avec les mesures prises par le Président Joe Biden. Nous avons avancé le chiffre de 150 milliards d’euros pour ce qui est des aides à accorder pour soutenir les investissements, chiffre à comparer aux 1.200 milliards de dollars du côté américain, selon du moins les chiffres avancés par certains experts. Il faut bien voir, en effet, que les industriels, aujourd’hui, hésitent à investir en Europe : ils ont avantage à aller aux Etats-Unis où existe l’IRA et où ils bénéficient d’une politique protectionniste efficace. 

Emmanuel Macron a entrepris, finalement, de réindustrialiser le pays. On notera qu’il a fallu que ce soit la crise du Covid-19 qui lui fasse prendre conscience de la grave désindustrialisation de notre pays, et il avait pourtant été, précédemment, ministre de l’économie !  Il a donc  lancé, le 12 octobre 2021, le Plan « France 2030 », avec un budget, pour soutenir les investissements, de 30 milliards d’euros auquel se rajoutent 24 milliards restants du Plan de relance. Ce plan vise à « aider les technologies innovantes et la transition écologique » : il a donc un champ d’application limité.

Or, nous avons un besoin urgent de nous réindustrialiser, quel que soit le type d’industrie, et cela paraît échapper aux autorités de Bruxelles qui exigent que l’on n’aide que des projets bien particuliers, définis selon leurs normes, c’est à dire avant tout écologiquement corrects. Il faudra donc se dégager de ces contraintes bruxelloises, et cela ne sera pas aisé. La Commission européenne sait bien, pourtant, que les conditions pour créer de nouvelles industries en Europe ne sont guère favorables aujourd’hui : un coût très élevé de l’énergie, et il y a la guerre en Ukraine ; et, dans le cas de la France, se rajoutent un coût de la main d’œuvre particulièrement élevé et des réglementations très tatillonnes. Il va donc falloir ouvrir très largement  le champ des activités que l’on va aider, d’autant que nous avons besoin d’attirer massivement les investissements étrangers, les entreprises françaises n’y suffisant pas.

Malheureusement, on va buter sur le fait que les ministres des Finances de la zone euro, lors de leur réunion du 18 décembre dernier, ont remis en vigueur les règles concernant les déficits budgétaires des pays membres et leurs dettes extérieures : on conserve les mêmes ratios qu’auparavant, mais on en assouplit l’application.

Notre pays va donc devoir se placer sur une trajectoire descendante afin de remettre ses finances en ordre, et, ceci, d’ici à 2027 : le déficit budgétaire doit être ramené en dessous de 3 % du PIB, et la dette sous la barre des 60 % du PIB. On voit que ce sera impossible pour la France, d’autant que le taux de croissance de notre économie sur lequel était bâti le budget de 2024 était trop optimiste : Bruno le Maire vient de nous le dire, et il a annoncé que les pouvoirs publics allaient procéder à 10 milliards d’économies, tout de suite.

L’atmosphère n’est donc pas favorable à de nouvelles dépenses de l’Etat : et pourtant il va falloir trouver 150 milliards pour soutenir le plan de réindustrialisation de la France ! Où notre Premier ministre va-t-il les trouver ? C’est la quadrature du cercle ! Il est donc dos au mur. Il avait dit aux députés qu’il allait œuvrer pour que la France « retrouve pleinement la maîtrise de son destin » : c’est une bonne intention, un excellent projet, mais, malheureusement, il n’a pas d’argent hélicoptère pour le faire.

Investir dans l’immobilier ? 

Inflation et plus-value dans l’immobilier

En règle générale, les calculs du prix de l’immobilier publiés dans les journaux et revues, ou cités sur les sites internet ou les chaînes de radio-télévision sont effectués sans tenir compte de l’inflation. Les interprétations des résultats qu’ils présentent n’ont guère de sens.

La hausse des prix de l’immobilier est de toute évidence incontestable, mais il est nécessaire de rétablir une mesure rationnelle et réaliste de cette augmentation.

Cette mesure est déduite de deux indices définis par l’Insee :

  1. L’indice du prix des logements neufs calculé à partir de panels géographiques, et celui des logements anciens, déduits des informations transmises par les notaires sur les caractéristiques de confort, de surface etc. de chaque transaction. Il s’agit du prix net vendeur.
  2. L’indice des loyers des logements du secteur libre (environ 60 % du parc locatif) et du secteur social (40 %), loués vides et à qualité constante. Les données sont obtenues par l’enquête Loyers et charges (L&C) pour le secteur libre, et l’enquête sur les loyers auprès de bailleurs sociaux (ELBS).

 

Le graphique ci-dessous montre l’évolution de l’indice du prix des logements anciens à Paris et en province :

Évolution de l’indice du prix des logements anciens de 1960 à 2022 Source : France-inflation

Ce sont ces données qui sont commentées dans la plupart des journaux, sur les sites internet et les réseaux sociaux, ainsi que sur les chaînes de radio-télévision. On constate que le prix en 2020 a été multiplié par 3,5 à Paris, et par 2,5 en France par rapport à l’année 2000. Les données sont exactes mais très difficiles à interpréter parce qu’elles ne tiennent pas compte de l’inflation.

L’indice des prix de détail en janvier 2000 était de 79,17, et de 114,6 en janvier 2023 (base 100 en 2015). On en déduit qu’en euros constants, l’indice du prix de l’immobilier ancien à Paris a été multiplié par 2,42 (= 3,5 x 114,6 / 79,17), et non par 3,5 ; et par 1,73 en France et non par 2,5.

Les prix ont évidemment beaucoup augmenté, mais nettement moins en euros constants que ce qu’affirme le discours le plus fréquent.

 

Quelques exemples

Le Figaro

D’après Le Figaro immobilier, le prix moyen du m2 à Paris était en avril 2014 de 8917 euros, et de 10 499 euros en novembre 2023, soit une augmentation de 17,7 %.

Faisons les calculs :

  • Indice des prix à la consommation : 100,2 en avril 2014 et 118,23 en novembre 2023
  • Prix moyen du m2 en 2014 exprimé en euros 2023 : 8917 x 118,23 / 100,2 = 10 521 euros

 

L’évolution du prix est donc, hors inflation : (10 499 – 10521) / 10521, soit – 0,2 %. Ce résultat montre une très légère moins-value et n’a rien à voir avec le taux publié par le journal.

 

Century 21

Selon le réseau d’agences immobilières Century 21 cité par Le Monde, le coût moyen au m2 des appartements en France n’a baissé que de 3,4 % en 2023, en dépit de la forte hausse des taux d’intérêts. Le Monde, avec Century 21, considère que c’est peu au regard de la flambée des prix de 27 % enregistrée entre 2015 et 2022.

Faisons les calculs avec les chiffres de Century 21 :

  • Baisse des prix au m2 entre 2022 et 2023 : (4198 – 4277) / 4277 = -1,85 %
  • Hausse des prix au m2 entre 2015 et 2022 : (4277 – 3370) / 3370 =  27 %

 

On se demande comment Century 21 a obtenu -3,4 % pour la baisse des prix entre 2023 et 2022 au lieu de -1,85 %. Le second calcul est exact, mais ne prend pas en compte l’inflation, et donne un résultat en euros courants (comme le premier d’ailleurs).

Il faut tenir compte de l’évolution de l’indice des prix de détail entre 2015 et 2022 pour savoir si la hausse de l’immobilier a été particulièrement forte par rapport à la hausse générale des prix à la consommation :

  • Indice des prix en décembre 2015 : 100,04
  • Indice des prix en décembre 2022 : 114,16
  • Indice du prix de 2015 en euros 2022 : 3370 x 114,16 / 100,4 = 3831,9
  • Hausse du prix du m2 hors inflation : (4277 — 3831,9) / 3831,9 = 11,66 %

 

La hausse hors inflation est donc de 11,66 %. Elle s’explique par des facteurs exogènes tels que les nouvelles normes énergétiques, de confort et de sécurité, la hausse du prix du foncier, une augmentation particulière de la demande, une pénurie de l’offre etc.

On note que la plus-value est calculée en euros courants, ce qui revient à taxer l’inflation.

 

Les indices de Friggit

Friggit rapporte ces deux indices au revenu moyen annuel de l’ensemble de la population. Il mesure donc la part du budget consacrée au logement dans le budget total. Ce sont des indices macro-économiques. La date de référence de référence étant fixée au 1er janvier 2000.

Les évolutions de ces indices de 1965 à 2023 sont représentées dans la figure ci-dessous :

Indice du prix des logements et indice des loyers rapportés au revenu moyen par ménage Source : https://friggit.eu

L’indice du prix des logements rapporté au revenu moyen des ménages est resté stable jusqu’en 2000. L’augmentation a été ensuite très rapide jusqu’en 2008, assez irrégulière jusqu’en 2015, et a réaugmenté ensuite pour dépasser 80 % en 2022.

L’indice des loyers a baissé de 1965 à 1985, et est resté compris entre 0,9 et 1,1 fois sa valeur jusqu’en 2023 (c’est le tunnel de Friggit). La stabilité de l’indice des loyers pendant la période de hausse de l’indice des prix peut s’expliquer par la réglementation qui les encadre : hausse du loyer en fin de bail limitée à celle de l’indice de revalorisation des loyers, plafonnement dans les zones tendues, loyers contrôlés dans les logements sociaux etc. On observe une baisse de l’indice entre 2015 et 2023.

Cela ne signifie pas que la part du salaire consacrée au loyer ou à l’achat d’un bien dans chaque foyer soit restée stable depuis 1965 : la moyenne de rapports n’est pas le rapport des moyennes. Pour pouvoir effectuer cette interprétation, il faudrait connaître les rapports de chaque foyer d’un échantillon, et en calculer les moyennes.

 

Analyse financière

L’indice du prix de l’immobilier est défini par le prix net vendeur (PNV). Son augmentation est très rapide à partir de janvier 1999, et coïncide plus ou moins avec la baisse des taux d’intérêts. Il est nécessaire d’analyser le mécanisme de cette double évolution pour mieux la comprendre.

Le prix net acheteur (PNA) n’est pas le prix net vendeur. Il peut être décomposé de la façon suivante :

PNA = PNV + TF + MI

où PNV représente le prix net vendeur, TF les taxes et frais, et MI le montant des intérêts en cas d’achat à crédit. Ce dernier est accordé sous les conditions classiques :

  • le capital emprunté est en général égal à 70 % du prix net vendeur complété par les frais
  • l’amortissement mensuel est inférieur ou égal à 30 % du revenu de l’acheteur

 

On peut alors mesurer l’effet du taux sur le montant des intérêts. Pour un crédit de 100 000 euros, le total des intérêts pour un taux de 1 % sur vingt ans est de 10 374 euros, environ 10 % du capital emprunté. Nous avons fait le calcul jusqu’au taux de 9 % appliqué en 1990 :

Montant des intérêts en fonction du taux pour un capital emprunté de 100 000 euros sur 20 ans

Pour un taux de 8 % et plus, le total des intérêts dépasse le capital emprunté.

 

Estimation de la hausse des prix indépendamment de la baisse des taux d’intérêt

Le prix net acheteur est très différent du prix net vendeur suivant que l’acheteur demande un emprunt (ce qui est le cas le plus fréquent) ou non. Cela pose une difficulté au plan de l’estimation du bien, très différente suivant que l’on est vendeur ou acheteur.

La démarche suivie pour estimer la hausse des prix indépendamment de la baisse des taux d’intérêt consiste à calculer le prix net acheteur.

La date de référence étant 2000, on considère l’achat d’un logement de 100 000 euros. Le paiement est fait par un versement comptant de 30 000 euros et un emprunt de 70 000 euros. Le taux moyen en 2000 est de 5 %, l’amortissement mensuel de 461,97 euros. Le total des intérêts versés sur un emprunt de 70 000 euros est de 42 000 euros.

Le prix net acheteur intérêt compris est donc 142 000 euros.

En 2020, suivant l’indice du prix de l’immobilier de 1,70 rapporté au revenu moyen, le prix d’achat d’un bien immobilier équivalent au précédent est donc de 170 000 euros. L’acheteur verse 30 % comptant (51 000 euros) et emprunte le reste à un taux de 1,2 % pour un amortissement mensuel de 557,96 euros. Le total des intérêts versés sur un emprunt de 119 000 euros (70 % de 170 000 euros) est de 14 900 euros.

Le prix net d’achat est donc 184 900 euros.

L’augmentation du prix net acheteur est donc : (184 900 – 142 000) / 142000 = 30 %

L’indice des prix net acheteur rapporté au revenu moyen est de 1,3 au lieu de 1,7 net vendeur. Le gain sur les intérêts (28 900 euros) ne compense pas complètement l’augmentation du prix d’achat. Le versement comptant est nettement supérieur (70 % de plus). L’amortissement mensuel est augmenté de 20,8 %. L’achat en 2020 d’un logement équivalent ne peut être réalisé que si la situation financière de l’acheteur a progressé plus qu’en moyenne.

En considérant l’indice de Friggit, pour un prix de vente de 100 000 euros, le prix d’achat net intérêt compris est de 142 000, et le prix de vente 170 000 euros : sa plus-value se limite à 28 000 euros, soit 16,5 % en 20 ans, ou 0,7 % par an. Le calcul est effectué en euro constant. L’inflation n’est pas prise en compte dans l’amortissement du crédit, alors qu’elle diminue de façon significative les mensualités qui sont fixées à la souscription (les calculs sont approximatifs. Les données sont difficiles à trouver dans les banques de données d’Eurostat). L’investissement immobilier locatif ne présente donc un intérêt que si les loyers perçus sont suffisants pour augmenter ce taux. Mais ils sont plafonnés, et offrent un revenu fortement fiscalisé, avec un risque locatif élevé. L’investissement dans le logement locatif n’est pas particulièrement rentable.

Beaucoup d’articles critiquent actuellement ce type d’investissement pour des raisons différentes (par exemple, la tribune de Jezabel Couppey-Soubeyran, publiée dans Le Monde du 17 février 2024). Les investissements immobiliers sont accusés d’attirer les capitaux au détriment du secteur productif, d’engranger des plus-values sans risque, et leurs revenus sont considérés comme des rentes.

C’est assez surprenant et contradictoire. Surprenant parce que la hausse du prix du logement est la conséquence d’une pénurie de logements à louer provoquée par une réglementation très pénalisante, tant au plan légal qu’au plan fiscal (voir les articles sur le logement précédemment publiés sur ce site), et contradictoire parce qu’au plan financier, le secteur immobilier, dont l’indice a certes été multiplié par 3,5 et 2,5 depuis 1990, est moins valorisé que la Bourse : le CAC 40 était de 1517 en 1990, et dépasse largement les 7500 points actuellement.

L’idéologie est certainement impliquée dans ce genre de raisonnement, peut-être parce que le patrimoine immobilier en France est détenu en grande majorité par des retraités.

Ce serait encore contradictoire : la constitution d’un patrimoine immobilier n’a spolié personne, alors que le système par répartition qui finance les pensions est financé par des prélèvements sur les revenus. On a l’impression qu’une tendance générale des actifs est de chercher à prélever des richesses sur les retraités à leur profit, au nom d’une prétendue justice sociale chargée d’assurer l’égalité intergénérationnelle (Dherbécourt Clément, 2017, « Peut-on éviter une société une société d’héritiers ? », Note d’analyse n° 51 du 4 janvier, France-Stratégie, Paris). Il serait intéressant d’avoir une analyse de cette notion particulière d’égalité.

Jean-Marc Jancovici au Sénat : omissions et approximations

Je viens d’écouter l’audition d’une petite heure de Jean-Marc Jancovici au Sénat, qui a eu lieu le 12 février dernier dans le cadre de la « Commission d’enquête sur les moyens mobilisés et mobilisables par l’État pour assurer la prise en compte et le respect par le groupe TotalEnergies des obligations climatiques et des orientations de la politique étrangère de la France ».

Beaucoup d’informations exactes, qui relèvent d’ailleurs bien souvent du bon sens, mais aussi quelques omissions et approximations sur lesquelles je souhaite revenir ici.

Je tiens à préciser d’entrée que j’ai beaucoup de respect pour Jean-Marc Jancovici, dont j’ai vu un nombre incalculable de vidéos sur YouTube, notamment la série de huit cours donnés à l’école des Mines. J’ai aussi lu avec intérêt le livre résumant Le plan de transformation de l’économie française publié par le Shift Project, think tank qu’il a cofondé.

Entendons-nous déjà sur le constat qu’on peut facilement partager avec lui avant d’en venir aux différents points d’achoppement.

Oui, il est urgent d’amener à zéro les émissions nettes de gaz à effet de serre au maximum, et le plus vite possible.

Oui, en l’état, il semble impossible de limiter la hausse moyenne des températures à 1,5 °C au-dessus du niveau préindustriel.

Et oui, nous semblons bien partis pour dépasser la limite des 2°C.

La question comme toujours demeure : « Que faire et comment ? ». Comme à son habitude, Jean-Marc Jancovici prêche d’abord et avant tout pour une sobriété massive en France, la « pauvreté choisie » selon ses mots, afin de montrer l’exemple au reste du monde dans l’espoir de l’inspirer, « son pari pascalien », dit-il.

C’est déprimant. Si la sobriété peut avoir un rôle à jouer, elle ne suffira pas à elle seule. Le progrès technologique accéléré par l’économie de marché ne trouve pas grâce à ses yeux, c’est son angle mort.

Mes remarques.

 

Oubli d’une pompe à carbone amenée à jouer un rôle majeur

Je note déjà une erreur scientifique dès sa prise de parole, ce qui est assez surprenant de sa part. Il explique qu’il n’y a que deux façons pour le CO2 de quitter l’atmosphère : soit en étant absorbé par l’océan par « équilibrage de pressions partielles » ; soit en étant transformé, avec d’autres intrants, en biomasse suite à l’action de la photosynthèse des plantes.

Il oublie un phénomène qui a son importance, on va le voir, l’érosion chimique des roches silicatées : quand le CO2 de l’atmosphère se mêle à la pluie pour produire de l’acide carbonique (H2CO3), qui va ensuite réagir avec ces roches pour donner d’un côté un minéral carbonaté (contenant les atomes de carbone) et de l’autre du sable en général (contenant les atomes de silicium). Les minéraux carbonatés ainsi produits sont ensuite emportés par les rivières et fleuves jusqu’au fond des océans où il se déposent. Leurs atomes de carbone sortent alors de l’atmosphère pour le très long terme. C’est ce qu’on appelle le cycle lent du carbone.

Si Jean-Marc Jancovici n’en parle pas, c’est sans doute car, si sur le temps géologique long il peut induire des changements climatiques très marqués, à notre échelle temporelle il n’a que peu d’impact : on considère qu’il retire de l’atmosphère chaque année environ 300 millions de tonnes de CO2, et il est contrebalancé par les émissions de CO2 des volcans qui rejettent, eux, environ 380 millions de tonnes de CO2 chaque année au maximum. Ce cycle géologique semble donc ajouter en net du carbone dans l’atmosphère, à hauteur de 80 millions de tonnes de CO2 par an, soit 0,2 % des émissions de CO2 d’origine humaine (autour de 40 milliards de tonnes/an).

Un oubli pardonnable donc. Mais cela traduit en fait la courte vue de Jean-Marc Jancovici, car ce phénomène, l’érosion chimique des roches silicatées, représente a priori le moyen le plus économique de capturer et stocker pour le très long terme et à très grande échelle le CO2 en excès dans l’atmosphère.

S’il nous faut absolument cesser d’émettre des gaz à effet de serre au plus tôt, l’inertie de nos économies fait que cela prendra du temps, même si les solutions sont réelles. Nous allons donc continuer à pourrir la planète pendant encore un certain temps. Il est urgent de réfléchir à comment retirer pour de bon l’excès de carbone dans l’atmosphère, à hauteur de 1500 milliards de tonnes de CO2, pour réparer le mal déjà commis, et limiter au maximum la casse.

Un certain nombre de solutions sont envisagées.

Celles consistant à embrasser la photosynthèse sont difficiles à généraliser à grande échelle, on manque de place pour ajouter assez d’arbres par exemple, et quand bien même, on n’est pas sûr de pouvoir les maintenir en état dans un monde en réchauffement. D’autres pensent aux algues, mais le résultat est difficile à mesurer. L’autre classe de solution est la capture du CO2 ambiant grâce à des machines et son stockage en sous-sol.

Le problème de toutes ces solutions, quand elles sont pensées pour être durables, est in fine leur scalability et leur coût. Elles sont beaucoup trop chères, on peine à voir comment tomber en dessous des 100 dollars par tonne de CO2 capturé et séquestré. Comme ce CO2 capturé ne rapporte rien directement, il s’agit en fait d’une taxe que les contribuables du monde doivent se préparer à payer. Avec 1500 milliards de tonnes de CO2 en excès, un coût de 100 dollars par tonne et plus rend tout simplement l’opération inconcevable, on parle d’environ deux fois le PIB mondial ! Même réparti sur 20 ans, on tombe à 10 % du PIB mondial par an, une taxe bien trop lourde.

Démultiplier l’érosion chimique de roches silicatées, notamment l’olivine, semble offrir un moyen de faire tomber ce coût à 5 dollars par tonne, tel que le détaille cette projection.

L’olivine est assez abondante et accessible sur Terre pour capturer les 1500 milliards de tonnes de CO2 en excès dans notre atmosphère. L’idée consiste à extraire ces roches, les concasser en fine poudre à déverser dans la mer où leur constituant principal, la fostérite de formule Mg2SiO4, réagira avec l’acide carbonique de l’océan (formé par réaction de l’eau avec le CO2) pour précipiter notamment du bicarbonate de magnésium Mg2(HCO3qui pourra se déposer au fond des mers, séquestrant au passage ses atomes de carbone. Bien sûr, il faudra pour cela beaucoup de machines qui utiliseront possiblement des carburants hydrocarbonés, (même pas en fait à terme), mais leur impact sera largement compensé par le CO2 séquestré. On parle là d’un chantier vertigineux, sur au moins vingt années, mais à 5 dollars par tonne de CO2, cela devient une taxe digeste à la portée de l’humanité.

Ainsi, plutôt que d’être passablement ignorée comme l’a fait Jean-Marc Jancovici, cette pompe à CO2 méritait au contraire d’être citée, et devrait faire l’objet de beaucoup d’attention, d’études complémentaires et expérimentations, préalables aux investissements à suivre.

 

Non, notre siècle ne sera pas un monde d’énergie rare

Jean-Marc Jancovici part du postulat que nous entrons dans une ère de pénurie d’énergie du fait du tarissement de la production de pétrole et de gaz, et de la nécessité absolue de se passer des énergies fossiles pour minimiser la catastrophe climatique.

De là, il prévoit que nous ne pourrons plus produire autant d’engrais aussi bon marché qu’aujourd’hui, ce qui veut dire que la nourriture sera plus rare et plus chère. Couplé à la hausse des coûts du transport, il en conclut qu’il deviendra prohibitif d’approvisionner en nourriture une ville comme Paris (deux millions d’habitants) et qu’à l’avenir, la taille idéale d’une ville serait plutôt de l’ordre de celle de Cahors (20 000 habitants).

Mais pourquoi s’arrêter en si bon chemin ? Si ce postulat et les premières étapes du raisonnement sont valides pour ce siècle, alors il y a bien pire à prévoir que de voir Paris se vider et fleurir des Cahors.

Continuons ce reductio ad absurdum.

Si l’on pense véritablement qu’on ne pourra pas produire autant de nourriture qu’aujourd’hui, que les rendements agricoles vont baisser drastiquement, et que la nourriture coûtera bien plus cher à l’avenir, alors le premier des problèmes n’est pas le redimensionnement des villes. Non, c’est d’abord et avant tout le fait que la Terre ne pourra pas faire vivre huit milliards d’êtres humains. Ce qui voudrait dire que des milliards d’entre nous sont d’ores et déjà condamnés à mourir de faim au XXIe siècle ! Autant que Jean-Marc Jancovici le dise clairement !

Ce bien sinistre tableau ne tient pas la route, nous allons voir pourquoi.

Mais demandons-nous d’abord quelles sont les raisons profondes derrière le postulat initial de Jean-Marc Jancovici ?

Il considère que d’une part, pour satisfaire à tous les usages électrifiables, on ne parviendra pas à développer assez vite les infrastructures de production d’électricité pour en produire en quantité suffisante à prix abordable. Car construire du nucléaire prend trop de temps, et le renouvelable souffre d’après lui de problèmes rédhibitoires : intermittence, contrainte sur les matériaux et les sols, et enfin prix acceptables envisagés non crédibles, car permis justement par la dépendance aux machines fonctionnant aux carburants fossiles, dont il faudrait se débarrasser.

D’autre part, il explique qu’il n’y a pas de solution alternative aussi abordable que les énergies fossiles pour les usages qu’on ne pourra pas électrifier, notamment l’aviation long courrier et le transport maritime en haute mer. Annonçant ainsi la fin de la mondialisation et les joies du voyage en avion.

Ce raisonnement a tenu un temps. Mais des tendances de fond, dont on pouvait effectivement encore douter jusqu’il y a quelques années, sont aujourd’hui impossibles à ignorer, et nous font dire que le XXIe siècle sera bien au contraire un monde d’abondance énergétique !

Ces tendances, les voici :

• Chute continue du coût de l’énergie solaire photovoltaïque (PV), et en parallèle, la croissance exponentielle des déploiements, même trajectoire pour les batteries qui permettent notamment la gestion de l’intermittence sur le cycle diurne (jour/nuit).

• De nouvelles études montrent qu’il y aura assez de matériaux pour assurer la transition énergétique.

• Du fait du premier point, il sera possible de produire à grande échelle des carburants de synthèse carbonés avec le CO2 de l’atmosphère (aux émissions nettes nulles donc) à un tarif compétitif, puis plus bas que les énergies fossiles importées à peu près partout sur Terre d’ici à 2035-2040.

Le dernier point va justement permettre de verdir et faire croître l’aviation et le transport maritime, et de tordre le cou à l’objection du renouvelable abordable seulement du fait de la dépendance aux énergies fossiles. On ne se passera pas des énergies carbonées, mais on fera en sorte qu’elles ne soient plus d’origine fossile.

Détaillons.

 

Chute continue du coût du solaire PV et des batteries

Pour se donner une idée, un mégawatt-heure d’électricité solaire PV coûtait 359 dollars à produire en 2009, on est aujourd’hui autour de 25 dollars/MWh aux États-Unis sur les fermes solaires de pointe.

En avril 2021, on apprenait qu’un chantier en Arabie Saoudite vendra de l’électricité à un prix record mondial de près de 10 dollars/MWh. Il y a toutes les raisons de penser que cela va continuer à baisser au rythme actuel pour encore longtemps, pour les raisons que j’exposais dans cet article (économies d’échelles, loi de Wright, assez de matériaux). Sans surprise, le solaire PV est en plein boom. En 2023 en Europe, c’est l’équivalent en puissance d’une centrale nucléaire par semaine qui a été installée !

Ce phénomène de baisse des prix au fur et à mesure des déploiements est également à l’œuvre avec les éoliennes, dans des proportions moindres toutefois. Elles auront un rôle à jouer dans les pays les moins ensoleillés et en hiver, en complément du solaire PV.

Cette explosion des déploiements va s’accélérer grâce à la baisse parallèle du coût des batteries qui permettent de compenser les effets de l’intermittence sur la journée. Par exemple, les batteries Lithium Iron Phosphate (LFP) coûtaient autour de 110 euros/kWh en février 2023. Les industriels parlent d’atteindre 40 euros/kWh cette année, un chiffre qu’en 2021 on pensait atteindre vers 2030-2040. Tout s’accélère !

Autre exemple, Northvolt, une entreprise suédoise, a dévoilé une technologie de batterie révolutionnaire, « la première produite totalement sans matières premières rares », utilisant notamment le fer et le sodium, très abondants sur les marchés mondiaux. Son faible coût et la sécurité à haute température rendent cette technologie particulièrement attractive pour les solutions de stockage d’énergie sur les marchés émergents, notamment en Inde, au Moyen-Orient et en Afrique.

Bref, on assiste bien à la chute continue du coût des batteries couplée à la hausse continue de leur qualité (s’en convaincre en 6 graphiques ici).

Pour la gestion de l’intermittence saisonnière, on s’appuira sur un système combinant centrales nucléaires et au gaz de synthèse pour prendre le relais au besoin. On continuera à investir dans l’extension des réseaux électriques permettant par exemple d’acheminer de l’électricité solaire PV depuis le Sahara jusqu’à l’Europe.

Enfin, pour le stockage longue durée, c’est a priori le stockage hydraulique par pompage qui devrait s’imposer.

 

Nous disposons d’assez de ressources et métaux pour la transition énergétique

L’Energy Transition Commission (ETC) a publié un rapport important en juillet 2023, qui examine les besoins en minéraux de 2022 à 2050. Il repose sur un scénario ambitieux visant à atteindre zéro émission nette d’ici 2050 : électricité mondiale décarbonée, transport de passagers quasiment décarboné, industrie lourde approvisionnée en hydrogène vert, et 7 à 10 milliards de tonnes de CO2 de captage et de stockage du carbone pour les émissions restantes.

Le rapport montre que le monde possède en soi suffisamment de cuivre, nickel, lithium, cobalt et argent, même si nous devrons en rendre davantage économiquement viables, ou trouver de nouveaux gisements facilement accessibles.

Mais il faut noter que les industriels savent souvent remplacer un matériau lorsque son approvisionnement semble compromis, ou que son prix monte trop.

Par exemple, les projections sur le besoin en cobalt ont considérablement baissé à mesure que certains constructeurs de voitures électriques se sont tournés vers d’autres intrants. De la même façon, les prix élevés du cuivre entraînent une transition vers l’aluminium.

Et les estimations de l’ETC sur la demande en minéraux sont élevées par rapport à d’autres analyses. En recoupant ces hypothèses avec d’autres analyses, on constate que l’ETC est conservateur, prévoyant généralement la plus forte demande en minéraux. Citons par exemple :

L’Agence internationale de l’énergie (AIE) : « Il n’y a généralement aucun signe de pénurie dans ces domaines : malgré la croissance continue de la production au cours des dernières décennies, les réserves économiquement viables ont augmenté pour de nombreux minéraux de transition énergétique. »

Agence internationale des énergies renouvelables (IRENA) : « Les réserves de minéraux de transition énergétique ne manquent pas, mais les capacités d’extraction et de raffinage sont limitées. […] La production a augmenté pour de nombreux minéraux de transition énergétique, et les réserves extraites de sources économiquement viables ont augmenté. De plus, les innovations de rupture – telles que l’amélioration de l’efficacité et les substitutions de matériaux – sont déjà en train de remodeler la demande. »

 

Carburants carbonés de synthèse aux émissions nettes nulles

On parle d’e-carburants, ou encore d’électro-carburants, car on utilise de l’électricité pour capturer le CO2 de l’atmosphère et pour faire de l’électrolyse de l’eau permettant d’obtenir l’hydrogène H2 à faire réagir avec le CO2 capturé afin de produire ces carburants de synthèse. Il ne faut pas les confondre avec les biocarburants, sur lesquels je reviens en dernière partie.

Si l’électricité utilisée est verte, on a bien là des carburants verts, aux émissions nettes nulles, puisque le CO2 utilisé au départ provient de l’atmosphère. Brûler ces carburants n’ajoute pas de nouveau carbone à l’atmosphère tiré des entrailles de la Terre. (pour retirer en net du CO2 de l’atmosphère, il faudra, par contre, se tourner vers la solution évoquée en première partie.)

Aujourd’hui, fabriquer ces e-carburants reste prohibitif. Mais cela va bientôt changer du fait de la chute continue du coût de l’énergie solaire PV.

Pour rivaliser avec le kérosène fossile importé par exemple, il faudra que le coût de cette énergie solaire PV passe en dessous des 10 dollars/MWh.

On utilise pour cela l’électricité sur le point de production sans avoir besoin de se raccorder au réseau pour s’épargner les coûts (onduleurs, pertes en transmission) et délais associés, en intégrant bien dans le calcul l’intermittence du solaire PV, et donc l’utilisation des machines produisant ces e-carburants que 25 % du temps en moyenne. J’explique tout en détail dans cet article.

Un des freins relatifs au développement du solaire PV est l’embouteillage pour se raccorder au réseau (des années dans certains cas aux États-Unis) et la disponibilités des batteries (même si ça évolue très vite, on l’a vu). Mais cela ne s’applique pas à la production d’e-carburants : nul besoin du réseau électrique ni de batteries. Cela ne peut que contribuer à débrider plus encore l’explosion des déploiements de fermes solaire PV.

Au rythme actuel de la baisse des prix du solaire PV, les e-carburants produits sur place seront compétitifs avec les carburant fossiles importés avant 2030 dans les endroits les plus favorables et à peu près partout sur Terre d’ici à 2035-2040.

C’est inévitable.

La mondialisation soutenue par le commerce maritime ne s’arrêtera pas faute d’énergie. Et loin de ralentir, l’aviation sera en mesure d’exploser à partir des années 2040, sans que cela n’accroisse les émissions nettes de gaz à effet de serre.

Si certaines tensions seront observées sur les 10 à 15 prochaines années, le temps que ces solutions arrivent à maturité, il est clair par contre qu’ensuite, c’est bien un monde d’abondance énergétique propre qui nous attend.

 

Oui, les biocarburants sont une hérésie, mais pas que pour les raisons invoquées

Suite à une question sur la concurrence des sols entre nourriture et biocarburants, Jean-Marc Jancovici explique que d’une certaine façon, oui les terres dédiées à la production de biocarburants conduisent à de la déforestation, sous-entendant qu’il faudrait faire sans les biocarburants et réduire en conséquence le transport des hommes et marchandises, la sobriété d’abord et avant tout à nouveau.

Jean-Marc Jancovici a raison, les biocarburants sont une aberration, mais pas seulement pour les raisons qu’il donne. Ils ont vocation à rester chers car produire de la biomasse, la récolter, la transporter, la transformer, la conditionner ne se prêtera pas à des économies d’échelles suffisantes.

Et quand bien même cela pourrait devenir aussi abordable que les carburants fossiles, c’est un crime thermodynamique absolu de s’en servir pour le transport terrestre comparativement à la motorisation électrique.

Pour un moteur à combustion, sur 100 unités d’énergie au départ, seuls 20 sont transformés en mouvement, le reste est gâché en chaleur inutilisée. Pour une voiture électrique, on est proche de 89 % d’efficacité ! En réalité, pour ce qui est du transport terrestre, la messe est dite, les véhicules électriques vont éclipser tout le reste. Dans quelques années, à autonomie égale, il sera moins cher à l’achat et à l’usage d’opter pour un véhicule électrique plutôt que pour un véhicule à essence. Mêmes les engins agricoles et de minageune partie de l’aviation et le transport maritime fluvial et côtier seront électrifiés à terme !

On peut se passer des biocarburants et des énergies fossiles, mais cela ne veut pas dire que le transport doit diminuer. On l’a vu, le transport terrestre a vocation à être électrifié de bout en bout, et les solutions existent pour produire en masse à terme de l’électricité verte.

Et pour les usages où l’on ne pourra pas encore se passer des hydrocarbones, on comprend maintenant que le salut viendra non pas des biocarburants, mais des e-carburants ! Puisque Jean-Marc Jancovici parlait des sols, notons que pour une même dose de soleil reçue, l’efficacité énergétique des biocarburants est de l’ordre de 0,1 % tandis qu’on est autour des 5 % pour les e-carburants (produits avec de l’énergie solaire PV).

Autrement dit, pour une quantité égale de carburants, on aura besoin de 50 fois moins de terres avec les e-carburants, et on pourra d’ailleurs utiliser des terres arides. Oui, les biocarburants sont une hérésie sans avenir.

Voilà donc une somme de raisons d’entrevoir le futur avec le sourire, un sourire non pas benêt, mais ancré dans la conviction que l’ingéniosité humaine et les ressources de notre planète permettront bien à huit milliards d’êtres humains et plus de vivre confortablement et durablement.

Cette abondance nous tend les bras au XXIe siècle, mais le chemin pour y arriver va être tortueux pour encore une bonne décennie. En attendant, tout effort de sobriété est bienvenu, ne le nions pas non plus, mais par pitié, ouvrons aussi les yeux sur ces dernières tendances plus qu’encourageantes.

Les vrais chiffres de la balance commerciale 2023 

Comme chaque année, les chiffres de la balance commerciale sont minorés et présentés en retirant les frais de transport du montant de nos importations.

Les frais de transport sont pourtant une partie intégrante du coût de revient et sont répercutés sur le prix de vente au consommateur. Mais pourtant, ils sont retraités afin de les comparer aux chiffres des exportations qui, eux, n’intègrent pas les frais de transport. L’opération semble contestable…

Les « vrais » chiffres de la balance commerciale de 2022 avaient ainsi frôlé les 200 milliards d’euros de déficit pour se « rétablir » en 2023 à -135 milliards d’euros.

Rappelons qu’en 2019, c’est-à-dire avant la crise sanitaire et avant la guerre déclenchée par la Russie contre l’Ukraine, la balance commerciale s’établissait à un déficit de 77 milliards (quand l’Allemagne dépassait les 200 milliards d’excédent commercial).

Pour résumer, en l’espace de deux ans : 2019 à 2022, notre déficit commercial a quasiment triplé et le déficit de 2023 est maintenant équivalent au double de celui de 2019.

 

Une lueur d’espoir ? L’éternelle marotte de la solution par les exportations 

Face à des résultats accablants, l’idée selon laquelle la progression de nos exportations viendrait redresser la balance commerciale continue de perdurer et d’être promue comme la solution de reconquête de notre souveraineté. Est-ce bien réaliste ? Avec des exportations qui progressent mollement (+3 % en un an) et dont la hausse intègre nécessairement l’inflation, peut-on vraiment penser qu’elles seront à même de compenser notre dépendance structurelle aux importations sur la quasi-totalité des secteurs industriels ?

Pour comprendre la réalité de la balance commerciale, reprenons chaque secteur en distinguant les secteurs déficitaires des rares secteurs excédentaires.

 

Les secteurs déficitaires… Toujours plus déficitaires

Énergie : un déficit de 75 milliards, ou comment la France fait passer les intérêts de ses partenaires commerciaux avant les siens

Rappelons que dans les années 2000, date à laquelle la balance commerciale passe dans le rouge, le déficit énergétique s’affiche déjà à près de 25 milliards. En vingt ans, il double pour atteindre les 50 milliards en 2019. Puis de 2019 à 2022, il double à nouveau (quasiment 120 milliards !) et se redresse en 2023 à près de 75 milliards soit 50 % de plus qu’en 2019…

Si l’on entre dans les détails, on comprend bien la folie de notre politique énergétique qui nous place en position de dépendance vis-à-vis du gaz naturel que nous importons à des prix toujours plus élevés, sans pouvoir tirer profit de l’électricité que nous vendons… Au prix auquel nous la produisons !

Prenons notre premier poste d’importations énergétiques : les hydrocarbures naturels (gaz dont gaz de schiste et huiles brutes de pétrole) qui affichent à eux seuls un déficit de 56 milliards d’euros.

La guerre en Ukraine a lourdement marqué notre balance en matière d’hydrocarbures naturels avec une flambée des prix et un recours aux États-Unis très marqué et coûteux : le coût de nos importations a ainsi quasiment triplé de 2019 à 2022 avec un déficit atteignant les 75 milliards en 2022. Déficit qui s’est redressé à plus de 56 milliards en 2023. La situation est donc loin d’être rétablie.

Second poste du déficit énergétique, les produits pétroliers, a quant à lui doublé sur la période 2019-2022 passant de 15 à 30 milliards pour se rétablir à 20 milliards en 2023.

Si notre dépendance en hydrocarbures et produits pétroliers a toujours été avérée, notre force nucléaire, en revanche a toujours constitué un atout majeur.

Malheureusement, pour ce qui est de l’électricité, troisième grand poste de nos dépenses énergétiques, il est clair que nous ne tirons absolument pas avantage de notre force nucléaire dans laquelle nous avons tant investi. En 2022, le mécanisme de l’ARENH nous a fait atteindre une situation ubuesque de déficit commercial en électricité (8 milliards) en devant acheter plus cher à des fournisseurs étrangers un produit que nous devons leur vendre au prix coûtant. En 2023, les choses se rétablissent avec un excédent de 3 milliards qui, on le comprend bien, si nous n’étions pas entrés dans l’ARENH, devrait être nettement supérieur.

En synthèse, l’énergie que nous vendons et achetons se traduit par un solde déficitaire de 50 milliards. Notre position de leader nucléaire historique ne permet en rien de redresser ces résultats du fait des mécanismes de prix fixés par l’ARENH.

 

Le textile et l’habillement

Un redressement en demi-teinte porté par la croissance des exportations de produits de luxe.

Le déficit avait atteint les 12 milliards en 2019, frôlé les 13 milliards en 2022 et s’est contracté à 8 milliards en 2023. Ce rétablissement est entièrement porté par la progression des exportations sur le seul secteur du cuir/bagages/chaussures. En revanche, pour le reste de l’habillement, le montant des importations est en progression avec l’apparition marquée d’acteurs étrangers intervenant en vente directe, sans intermédiation, comme l’emblématique Shein.

 

Le déficit ancré de l’agro-alimentaire : une perte de souveraineté confirmée

Les résultats sont chaque année présentés comme positifs… À tort. En effet, les boissons (vins et spiritueux) viennent corriger ce qui est devenu un déficit structurel de la balance commerciale sur la totalité des produits à l’exception des produits laitiers. Corrigés des seuls chiffres des boissons les résultats sont alarmants : la dépendance aux produits étrangers, pour ce qui est de notre consommation de viande, de conserves, de fruits et légumes, et d’huiles est bel et bien confirmée. Tous ces secteurs sont déficitaires, entre 2 et 4 milliards chacun.

La balance commerciale du secteur agro-alimentaire marque donc, en réalité, un déficit de 10 milliards d’euros (soit 3 milliards de déficit supplémentaire par rapport à 2019).

Ce déficit n’est pas corrigé par la balance commerciale agricole, qui, après une progression en 2022 enregistre un excédent de 1,4 milliard. On peut donc dire que le secteur agricole, hors spiritueux, enregistre des déficits records, proches de 9 milliards !

 

Métallurgie, électronique, machines… : la chute libre

De nombreux autres secteurs historiquement déficitaires continuent leur plongée respective comme l’industrie métallurgique (doublement du déficit de 2019 à 2023 pour atteindre 15 milliards d’euros), les produits en plastique (-10 milliards), les produits informatiques (+50 % de déficit soit -10 milliards), la fabrication d’équipements électriques et de machines (-21 milliards).

 

Les rares secteurs excédentaires… En très fort recul

De façon encore plus inquiétante, on voit également se contracter des secteurs qui avait su rester excédentaires.

Premier concerné : l’industrie du transport (automobile, aérospatiale, navire) qui est passé de 15 milliards d’excédent en 2019 à… 6 milliards ! Cet effondrement est principalement corrélé à l’effondrement du secteur automobile dont le déficit passe de 15 à 25 milliards d’euros et dont les résultats de l’aérospatiale ne parviennent pas à compenser.

Deuxième secteur historiquement fort : l’industrie pharmaceutique qui voit un effondrement dans la balance commerciale que toute personne ayant besoin de se soigner peut constater. L’excédent de 6 milliards de 2019 s’est amoindri à moins d’un milliard en 2023.

Enfin l’industrie chimique, toujours présentée en bonne santé, doit à l’instar du secteur agro-alimentaire et des boissons, être retraitée de la cosmétique. Le solde le plus excédentaire de la balance commerciale, 20 milliards en 2023, se réduit à la peau de chagrin de 2,5 milliards une fois les cosmétiques retirés…

Globalement, sur 2023, en dépit de la contraction du déficit, les tendances lourdes se confirment et semblent ancrées de façon indélébiles dans les chiffres de la balance commerciale et dans la réalité de notre consommation quotidienne.

Au-delà des aides, des subventions, et des « encouragements », il est temps que l’industrie redevienne réellement une priorité nationale. La France doit revoir les normes et dispositifs dans lesquelles elle s’est enfermée au profit de ses partenaires et au détriment de ses propres intérêts commerciaux.

L’agriculture française face à de graves problèmes de stratégie

Le Salon de l’agriculture s’est ouvert à Paris le 24 février.

Nous sommes dans l’attente des réponses que le gouvernement va donner aux agriculteurs, suite à la révolte qui a éclaté dans ce secteur en janvier dernier. Pour la déclencher, il a suffi d’une simple augmentation du prix du GNR, le gas-oil utilisé pour leurs exploitations, et elle a embrasé subitement toute la France.

Tous les syndicats agricoles se sont entendus pour mobiliser leurs troupes, et des quatre coins du pays, des milliers de tracteurs ont afflué vers Paris pour tenter de bloquer le marché de Rungis qui alimente la capitale. Jamais encore on avait vu une révolte d’une telle ampleur dans ce secteur. Nos agriculteurs considèrent que leur situation n’est plus tenable et qu’ils sont délaissés par les gouvernants.

Ils veulent donc se faire entendre, et pour cela ils ont décidé d’agir très vigoureusement en voulant mettre le gouvernement au pied du mur. Ils se plaignent de ne pas parvenir à gagner leur vie malgré tout le travail qu’ils fournissent. Leur revendication est simple : « nous voulons être payés pour notre travail ». Ils expliquent que leur métier est très contraignant, les obligeant à se lever tôt, faire de longues journées de travail, et prendre très peu de vacances. Ils se révoltent pour que, collectivement, des solutions soient trouvées à leurs problèmes. Des barrages routiers ont été érigés à travers tout le pays.

Un parallèle peut être fait avec le secteur industriel : après s’être mis en grève sans succès pour obtenir des augmentations de salaire, les ouvriers vont occuper leur usine alors que leur entreprise est en train de déposer son bilan.

Dans un cas comme dans l’autre, nous sommes confrontés à des problèmes sans solution, des personnes désespérées qui n’ayant plus rien à perdre.

Pourquoi le secteur agricole français est-il dans une telle situation ?

 

Des chiffres alarmants

Que s’est-il donc passé ? On avait jusqu’ici le sentiment que la France était toujours une grande nation agricole, la première en Europe. Les agriculteurs nous disent maintenant qu’ils ne parviennent pas à gagner leur vie. Ils sont au bord du désespoir, et effectivement, un agriculteur se suicide chaque jour, selon la Mutualité sociale agricole.

Un premier constat : le pays a perdu 100 000 fermes en dix années, parmi lesquelles beaucoup d’exploitants qui ne parviennent pas à se rémunérer au SMIC, la survie de l’exploitation étant assurée par des aides de l’Europe via la PAC, et par le salaire de l’épouse lorsqu’elle travaille à l’extérieur.

Un deuxième constat : 20 % de ce que nous consommons quotidiennement provient de produits importés. En effet, les importations agricoles augmentent dans tous les secteurs :

  • 50 % pour le poulet
  • 38 % pour la viande de porc
  • 30 % pour la viande de bœuf
  • 54 % pour le mouton
  • 28 %  pour les légumes
  • 71 % pour les fruits (dont 30 % à 40 % seulement sont exotiques)

 

Notre agriculture est-elle donc à ce point incapable de pourvoir à tous nos besoins alimentaires ?

Par ailleurs, les Pays-Bas et l’Allemagne devancent maintenant la France dans l’exportation de produits agricoles et agroalimentaires, alors qu’elle était jusqu’ici en tête.

Un rapport du Sénat, du 28 septembre 2022 tire la sonnette  d’alarme :

« La France est passée en 20 ans du deuxième rang au cinquième des exportateurs mondiaux de produits  agricoles et agroalimentaires […] L’agriculture française subit une lente érosion. La plupart des secteurs sont touchés : 70 % des pertes de parts de marché s’expliquent par la perte de compétitivité de notre agriculture ».

ll s’agit donc de problèmes de compétitivité, et donc de stratégie qui n’ont pas été traités en temps voulu dans chacun des secteurs, ni par les responsables syndicaux ni par les pouvoirs publics.

 

Des problèmes de stratégie non résolus

Depuis la fin de la Seconde Guerre mondiale, le développement de l’agriculture française s’est effectué sans que les dirigeants des divers secteurs d’activité aient développé la moindre stratégie pour guider leur action.

L’agriculture française avait alors un urgent besoin de se moderniser : augmentation de la taille des exploitations, mécanisation des cultures, recours aux engrais et aux produits phytosanitaires, amélioration de la formation des agriculteurs.

Mais elle a évolué homothétiquement par rapport au passé, sans aucune pensée stratégique de la part des instances gouvernementales en charge de ce secteur.

Aujourd’hui, les exploitations sont plus grandes qu’autrefois (69 Ha en moyenne), mais ne permettent pas aux exploitants de gagner leur vie correctement. Ils ont pu survivre grâce aux aides européennes via le mécanisme de la Politique agricole commune (PAC) mis en place en 1962, avec pour objectif d’obtenir l’autosuffisance alimentaire de l’Union européenne. La France est le pays qui a le plus bénéficié de ces aides, soit 9,5 milliards d’euros en 2022, accordées au prorata des surfaces. L’objectif d’autosuffisance de l’Europe a bien été atteint, mais ces aides n’ont fait que retarder le moment de se poser des questions sur la façon de faire évoluer chacune des branches de notre agriculture pour rendre nos productions concurrentielles. On ne peut rien faire de bon avec des exploitations de 69 Ha : elles sont soit trop grandes soit trop petites si on reste bloqués sur les manières de cultiver d’autrefois.

 

Les exemples hollandais et danois

Nos voisins ont généralement bien mieux résolu leurs problèmes, tout spécialement les Pays-Bas et le Danemark.

 

Le cas de la Hollande

Malgré la dimension très faible de son territoire, les Pays-Bas sont devenus de très gros exportateurs de produits agricoles et agroalimentaires. Les exploitants sont intégrés verticalement au sein d’organismes qui assurent la commercialisation.

Les Pays-Bas ont résolu le problème des petites exploitations en les équipant de serres où tous les paramètres (chaleur, lumière et humidité) sont contrôlés en permanence par des ordinateurs. C’est ainsi que sont équipés les maraîchers et les horticulteurs. Il s’agit d’une agriculture de précision, numérique : la région du Westland, notamment, est couverte de serres équipées de lampes led, au spectre lumineux spécifique.

La Hollande est devenue le numéro un mondial dans le domaine de l’horticulture : elle détient 60 % du commerce mondial des fleurs. Royal Flora Holland est le leader mondial de la floriculture avec plus de 10 millions de fleurs et plantes vendues chaque jour. Au plan technique, les Hollandais sont très avancés, et le salon GreenTech à Amsterdam rencontre chaque année beaucoup de succès. Par exemple, dans le domaine floral, les Hollandais ont réussi à créer des roses noires, des rosiers sans épines, des roses qui ne fanent pas, etc. Dans le même temps, la France a perdu 50 % de ses exploitations horticoles en dix ans, et 90 % en 50 ans.

 

Le cas du Danemark

Le Danemark s’est spécialisé dans la production porcine et l’agrobiologie.

Ce petit pays est devenu le second exportateur mondial de porcs, après les États-Unis, les exportations représentant 90 % de la production nationale. Ramenées à la population du pays, les exportations représentent 338 kg/habitant au Danemark, contre 167 kg pour l’Allemagne qui est aussi un très gros exportateur de porcs, et 7 kg pour la France.

La qualité des porcs danois est mondialement réputée, et la productivité des truies est exceptionnelle : 33,6 porcelets sevrés en moyenne par truie. Aussi, DanBred, le grand spécialiste danois de la génétique porcine, vient de s’installer en France (à Ploufragan, en Bretagne) pour aider les producteurs bretons de porcs à améliorer leur productivité. Le porc danois est appelé « cochon à pompons » (pie noir) : c’est un animal musclé, très rustique, et particulièrement prolifique.

 

Le problème français

Dans le cas de l’agriculture française, la question de l’orientation à donner à chacun des grands secteurs de notre agriculture n’a jamais été posée.

Ni les ministres successifs, ni les dirigeants de la FNSEA, le principal organisme syndical des agriculteurs français, n’ont envisagé d’élaborer une stratégie pour chacun des grands secteurs, c’est-à-dire faire des choix en raisonnant en stratèges. On a laissé les choses aller d’elles-mêmes, et on a abouti aux résultats constatés aujourd’hui.

Deux secteurs seulement ont une stratégie précise de différenciation : la viticulture et la fromagerie.

Dans ces deux secteurs, les produits sont très différenciés de ceux de leurs concurrents, et cette différenciation choisie est reconnue mondialement. Les vins français sont réputés et se vendent sur les marchés étrangers à des prix supérieurs à la concurrence. Les fromages français sont très différenciés de leurs concurrents, la façon de les produire est réglementée par la profession, et chaque terroir procède à des actions de promotion nécessaires pour en assurer la promotion.

Dans tous les autres secteurs, il n’y a pas de stratégie, ou du moins ils sont acculés à mener une stratégie de coût sans l’avoir délibérément choisie, donc le dos au mur.

Les pouvoirs publics vont devoir comprendre pourquoi. Nous donnerons deux exemples illustrant ce manque de pertinence dans la façon d’opérer.

 

Le secteur laitier 

Aujourd’hui, dans ce secteur, la norme est à des gigafermes de 1000 vaches laitières, c’est la dimension qu’il faut atteindre pour être compétitif. Ce sont des stratégies de coût. Cette manière de produire du lait de vache est venue des États-Unis, où toutes les fermes laitières ont cette dimension, et parfois bien plus encore. Cette norme s’est imposée en Europe, notamment en Allemagne, avec les vaches Holstein, une race particulièrement productive en lait, et dont la mamelle est adaptée à la traite mécanique.

En France, il n’y a aucune ferme laitière de 1000 vaches. Michel Ramery, un industriel du bâtiment (classé 387e fortune française), a tenté cette aventure, mais a du finalement y renoncer. En 2011, il a voulu créer une mégaferme laitière de 1000 vaches dans la Somme : l’administration a donné son accord, mais très vite des obstacles ont surgi, à commencer de la part de la Confédération paysanne qui refuse l’industrialisation de l’agriculture. La population locale s’est également dressée contre ce projet, suivie de l’opinion publique, puis Ségolène Royal et le ministre de l’Agriculture de l’époque, Stéphane Le Foll, qui a déclaré : « Ce projet est contraire à l’orientation du gouvernement ». Finalement, Michel Ramery, qui avait réduit son projet à 500 ou 600 vaches laitières, déçu et las de tous ces combats stériles, a fermé son exploitation.

En France, les fermes laitières sont familiales, elles élèvent 80 à 100 vaches, quelques rares exploitations 250 ou 300 laitières. Les coûts de production sont donc élevés.

Le rapport de l’European Milk Board de 2019 donne les chiffres suivants :

  • 52,54 cent/kg en France
  • 47,44 cent/kg en Allemagne
  • 44,54 cent/kg en Hollande
  • 41,44 cent/kg au Danemark

 

La France importe donc de plus en plus de lait, comme le note l’IDELE dans son numéro 537 de février 2023 : « Les importations ont explosé en 2022, +38 % par rapport à 2021 ».

Toutefois, nous restons des exportateurs importants de produis dérivés du lait.

 

Le secteur de la production porcine 

L’Europe est un très gros consommateur de viande porcine. Les deux plus gros producteurs sont l’Allemagne, avec 5,2 MT, et l’Espagne avec 4,6 MT. La France vient en troisième position, loin derrière, avec 2,2 MT seulement.

Selon Pleinchamp :

« La filière porcine est structurellement déficitaire sous l’effet d’un déséquilibre entre l’exportation de produits bruts et l’importation de produits transformés ».

Nous nous approvisionnons tout spécialement en Espagne, qui a développé spectaculairement le domaine du porc ces dernières années, et qui exporte maintenant 60 % de sa production.

Nos éleveurs se sont bien sûr modernisés et spécialisés, mais la moyenne, en Bretagne (région spécialisée dans le porc) est de 3000 têtes/exploitation, contre 5200 au Danemark. En Espagne, 2000 exploitations ont même plus de 8000 cochons, et au Danemark, 4 % des exploitations ont plus de 10000 porcs.

Selon un article de 2012 de Viandes et Produits carnés :

« La filière porcine française est à la peine : elle a un urgent besoin de stratégies concertées faisant appel à des investissements importants au niveau agricole et industriel ».

Selon la coopérative Cooperl :

« Le manque de rentabilité porte en germe des difficultés de renouvellement des éleveurs, avec en filigrane le risque d‘une perte de production à moyen et long terme ».

Certes, dans le secteur porcin, les opérateurs porcins sont de taille beaucoup plus petite que leurs concurrents étrangers : Vion en Hollande, Danish-Crown au Danemark (22 millions de porcs/an), Campofrio en Espagne, etc.

 

Les enjeux de demain

L’agriculture française a fortement besoin de se restructurer et doit pour cela s’organiser elle-même,  car rien n’est à attendre de Bruxelles, sinon des contraintes.

La nouvelle PAC (2023-2027) qui n’a pas moins de dix objectifs divers et variés, et très généraux, est à caractère essentiellement écologique. Bruxelles se soucie avant tout de « renforcer les actions favorables à l’environnement et au climat ». Il n’y a donc rien, au plan stratégique, concernant l’agriculture du pays.

Les difficultés françaises, déjà grandes, vont être amplifiées par l’arrivée de l’Ukraine à qui l’Europe ouvre maintenant grand ses portes. C’est un pays agricole immense dont la surface agricole utilisée est de 41,5 millions d’hectares (contre 26,7 Ha pour la France), avec des terres extrêmement riches (60 % des surfaces sont du tchernoziom). Ce pays a hérité de la période soviétique de structures lui permettant d’être très compétitif, d’autant que la main-d’œuvre y est bon marché.

 

Quelles solutions ?

Pour être compétitifs, il faudrait faire grandir nos exploitations et les transformer en mégafermes pour jouer sur l’abaissement des prix par les volumes, c’est-à-dire chaque fois que des solutions existent, tirer parti des économies d’échelle.

Les Français y sont opposés, et on se heurte, de surcroît, en permanence à Greenpeace qui est très actif. Cette ONG a publié une carte des fermes usines en France, soit autant de combats à mener contre l’« industrialisation » de l’agriculture. Partout, en France comme en Europe, les écologistes veillent au grain. Il faudra donc réhabiliter les produits issus des mégafermes dans l’esprit des Français, car ils se sont laissé convaincre que ces productions nuisent à la santé.

Sur les petites surfaces, et comme l’ont fait nos voisins Hollandais, les exploitants ont la solution de recourir aux serres : tomates, poivrons concombres, fraises, floriculture, etc. C’est de la culture très intensive aux rendements extrêmement élevés, et sans aléas, car tous les paramètres sont contrôlés : par exemple, dans le cas de la tomate, 490 tonnes de tomates par hectare, contre 64 tonnes en plein air, en Italie. Et, à la manière des Hollandais, il faudra que les exploitants s’intègrent dans des structures verticales leur indiquant ce qu’ils doivent produire, et prennent en charge la commercialisation des productions.

Pour l’élevage, pour autant de vaches laitières, de porcs, que de volailles, il y a la solution des fermes-usines.

Pour le lait, la norme est à des mégafermes de 1000 vaches, voire bien plus encore.

Pour les volailles, les élevages intensifs sont la règle, ce qui n’exclut pas que, marginalement, certains fermiers puissent adopter une stratégie de différenciation, comme c’est le cas, par exemple, avec les poulets de Bresse élevés en plein air.

En Espagne, à Sinarcas (près de Valence) a été créée une ferme comprenant sept batteries de 12 étages qui logent 150 000 poules pondeuses, soit un million de poules, les équipements ayant été fournis par Big Deutchman, une firme allemande de Basse-Saxe.

Pour les porcs, les mégafermes sont, là aussi, la solution : en Espagne, il existe un bon nombre de macrogranjas de 2200 truies et 40 000 porcelets.

La Chine, très gros consommateur de viande de porc, en est au gigantisme. Par exemple, à Ezhou, une entreprise privée (Yangseiang) a édifié la plus grande porcherie du monde : un bâtiment de 26 étages pouvant loger 650 000 porcs. La firme Muyuan gère une ferme de 84 000 truies qui produit 2,1 millions de porcelets par an.

Enfin, pour les grandes cultures : blé, orge, avoine, maïs, colza, tournesol nécessitent des exploitations de 250 Ha, et pas moins, car c’est la dimension indispensable pour amortir les gros matériels : tracteurs surpuissants, moissonneuses batteuses, etc.

 

La politique du statu quo

Pour répondre à la révolte des agriculteurs, Gabriel Attal s’est prononcé en faveur de notre souveraineté alimentaire.

Nous n’en sommes pas là, mais des solutions existent pour avoir des prix compétitifs. Le chantier de restructuration de l’agriculture française est colossal. Quels pourraient bien être les acteurs de cette gigantesque révolution ? Il est à craindre que trop peu d’acteurs disposent des moyens financiers voulus. Nos dirigeants, tout comme la FNSEA, paraissent complètement dépassés par l’ampleur des problèmes à résoudre.

Nous allons donc rester là où nous en sommes, plutôt que se lancer dans ce colossal remue-ménage. Cela nécessite simplement que l’on continue à subventionner nos agriculteurs (la PAC, dont la France est le premier bénéficiaire), et que les Français veuillent bien payer plus cher les productions françaises que les produits importés. Ce n’est pas ce qu’ils font, car se posent à eux des problèmes de pouvoir d’achat et de fin de mois. Il faudrait, par conséquent, ériger des barrières douanières pour protéger notre agriculture des importations étrangères : mais l’ Europe l’interdit. C’est la quadrature du cercle ! Alors, que faire ? On ne sait pas ! Pour l’instant, rien ne sera résolu, c’est plus reposant.

On va simplement parer au plus pressé :

  • repousser de dix ans l’interdiction d’emploi du glyphosate,
  • faire une pause dans l’application du Plan Ecophyto,
  • suspendre la mesure de gel de 4 % des surfaces agricoles,
  • reporter à plus tard la signature des accords avec le Mercosur, etc.

 

On demandera aux fonctionnaires de Bruxelles de bien vouloir alléger les procédures pour la taille des haies et le curage des fossés : un pansement sur une jambe de bois !

Une balance commerciale impossible à redresser ?

Le service des douanes vient de faire connaître le résultat de notre commerce extérieur pour 2023 : à nouveau un solde négatif important de 99,6 milliards d’euros. Certes, c’est mieux que l’année précédente où le déficit avait été supérieur à cause de l’envolée des prix de l’énergie causée par la guerre en Ukraine, mais le solde est négatif, une fois de plus.

La balance du commerce extérieur français est donc régulièrement déficitaire depuis 2005, c’est-à-dire depuis maintenant une vingtaine d’années. Ce solde négatif a plutôt tendance à s’aggraver, comme le montre le tableau ci-dessous :

Selon le journal La Tribune du 7 février dernier, annonçant les résultats de notre commerce extérieur pour l’année 2023 :

« Les années se suivent et se ressemblent pour la balance commerciale française : le déficit commercial de 99,6 milliards est le deuxième plus élevé de l’histoire ».

On ne peut évidemment que s’inquiéter d’une telle évolution, d’autant que les autres pays de l’Union européenne dont les balances commerciales étaient également déficitaires dans les années 1970-80, sont parvenus à redresser la barre, comme le montre le tableau suivant :

Autre constat : c’est la balance des biens qui est particulièrement dégradée, les services étant là pour rattraper quelque peu le grave déséquilibre des biens :

 

Le rôle déterminant du secteur industriel

Longtemps, les commentateurs de notre vie économique ont expliqué le déficit du commerce extérieur par des éléments conjoncturels, généralement des variations des prix de l’énergie, la France étant un gros importateur d’hydrocarbures. Mais, à présent, chacun a bien compris que le déficit de la balance du commerce provient du déclin industriel français. En effet, l’industrie joue un rôle déterminant dans la balance commerciale des pays développés, intervenant pour environ 75 % dans les échanges commerciaux.

Aussi, si l’on examine la relation existant dans les pays développés entre l’importance de leur production industrielle et le résultat de leur balance commerciale, on voit que les pays à production industrielle faible ont des balances commerciales déficitaires, alors que les pays à production industrielle élevée présentent des balances commerciales positives.

C’est ce que montre le tableau ci-dessous où figurent, dans la première colonne, les productions industrielles des pays comptées en valeur ajoutée par habitant, comme le font les comptabilités nationales des pays, et selon les données de la BIRD, qui incorpore la construction dans la définition de l’industrie :

Le graphique ci-dessous indique la corrélation existant entre ces données :

L’équation de la droite de corrélation indique que pour avoir une balance commerciale équilibrée il faut que la production industrielle s’élève à 11 265 dollars par habitant. C’est une probabilité statistique qui peut souffrir chaque année des écarts par rapport à la moyenne.

Or, la France ne dispose que de 7200 dollars de production industrielle par personne. Il faudrait donc l’accroître de 56 % pour que la balance commerciale soit à l’équilibre. En se basant sur les ratios d’intensité capitalistique des entreprises industrielles existant déjà en France, cela signifie un effectif industriel passant de 2,7 millions de personnes à 4,2 millions : soit 1,5 million d’emplois industriels à créer pour que, demain, la balance commerciale soit régulièrement en équilibre. Les effectifs industriels de l’Allemagne étant bien plus élevés, de l’ordre de 7 millions de personnes, sa balance commerciale est régulièrement excédentaire. En fait, avec la quatrième révolution industrielle en cours, baptisée industrie 4.0, les intensités capitalistiques sont devenues extrêmement élevées : il va plutôt s’agir de la création de seulement environ un million d’emplois.

La corrélation mise en évidence permet de comprendre que le solde déficitaire de notre balance commerciale, rappelé plus haut, se soit régulièrement dégradé à mesure que notre secteur industriel faiblissait : entre la fin des Trente Glorieuses et aujourd’hui, l’industrie qui intervenait pour 24 % à 25% dans la formation du PIB n’intervient plus que pour 10 % seulement. La France est devenue le pays européen qui est le plus désindustrialisé, la Grèce mise à part. Avec la crise du covid, nos dirigeants ont finalement compris qu’il était nécessaire de réindustrialiser le pays, et Emmanuel Macron a lancé le Plan France 2030. Mais il sera extrêmement difficile de remonter la pente.

Dans le Figaro-économie du 12 février dernier, Anne de Guigné énonce :

« Après des années de délitement, l’industrie française a cessé de dépérir. Mais crier victoire paraît très exagéré quand les deux indicateurs les plus robustes du secteur, l‘évolution de la production manufacturière et celle de la valeur ajoutée de l’industrie demeurent en zone grise ».

Le Plan France 2030 est très insuffisant, car les moyens financiers manquent pour épauler le redressement de notre industrie, comme le font si bien maintenant les Américains avec l’IRA, un dispositif d’aide à l’investissement qui dispose d’un budget de 369 milliards de dollars.

 

Les PME appelées à la rescousse

Pour redresser rapidement notre commerce extérieur, le gouvernement a appelé les PME à la rescousse afin qu’elles exportent. Il veut faire passer le nombre d’entreprises exportatrices de 145 700 à 200 000. Dans son discours de Roubaix le 23 février 2018, Édouard Philippe avait annoncé la création de Team France Export, afin d’encourager les PME  à « chercher des aventures à l’étranger ». Team France Export est un dispositif au service des entreprises qui regroupe les services de l’État s’occupant d’exportation, Business France, Bpifrance, et les diverses CCI existant en France. Cet organisme dispose de 13 guichets régionaux, disséminés sur tout le territoire, et un réseau de 750 conseillers installés à l’étranger dans 65 pays. Précédemment, avait été créée en 2015, « Business France », une agence nationale ayant pour mission d’« aider les PME et les ETI à se projeter à l’international ». Nos entreprises ne sont donc pas dépourvues de conseillers pour les aider à exporter, et elles peuvent bénéficier de divers soutiens financiers pour prospecter à l’étranger et exporter.

Cette ambition de faire de nos petites PME industrielles, des entreprises exportatrices, n’est en fait pas très raisonnable : c’est leur faire courir beaucoup de risques et les détourner de leur tâche principale qui est, à ce stade de leur croissance, de développer et renforcer leurs avantages compétitifs. Hors les grandes entreprises, qui, elles, disposent du personnel voulu pour exporter, et dont les reins sont assez solides pour faire face aux aléas des opérations à mener dans des pays lointains que l’on connait mal, seules les ETI, (250 à 500 employés), sont capables d’avoir une politique suivie à l’exportation.

En matière d’exportation, le drame de la France est qu’elle dispose de relativement peu d’ETI, à la différence de l’Allemagne ou de la Grande-Bretagne : elles sont 5760 en France, contre 12 500 en Allemagne et 10 000 en Grande-Bretagne, et ne sont pas toutes dans le secteur industriel, loin de là. Pour exporter des biens industriels, il faut généralement avoir à l’étranger des accords avec des entreprises locales qui aideront les consommateurs à utiliser ces équipements et assureront l’après- vente, car faire de l’après-vente à partir de la France est une gageure. Ces partenaires étrangers exigeront que l’entreprise avec laquelle ils vont collaborer ait une certaine dimension : s’il s’agit d’une PME de taille modeste, ils ne seront pas partants et auront tendance à aller chercher ailleurs un exportateur plus solide avec lequel s’allier. Une PME peut exporter aisément, sans risque, des produits ne nécessitant aucune collaboration avec l’acheteur, et notamment pas d’après-vente, comme par exemple, la cristallerie ou les articles de porcelaine.

Augmenter les exportations et avoir une balance commerciale à l’équilibre sont donc des missions extrêmement ardues :

  • le secteur industriel s’est considérablement amenuisé, l’industrie manufacturière ne représente plus que 10 % du PIB, contre 23 % ou 24 % pour l’Allemagne.
  • le pays manque d’entreprises de taille intermédiaire, soit deux fois moins que l’Allemagne.

 

Rééquilibrer notre balance du commerce extérieur, mission qui est confiée au ministre chargé du Commerce extérieur, est une tâche de très longue haleine qui va demander de très nombreuses années, c’est-à-dire le temps que nos dirigeants mettront pour accroître de 56 % la production du secteur industriel.

Stratégie française pour l’énergie et le climat : une fuite en avant vers la décroissance

La nécessité de décarboner à terme notre économie, qui dépend encore à 58 % des énergies fossiles pour sa consommation d’énergie, est incontestable, pour participer à la lutte contre le réchauffement climatique, et pour des raisons géopolitiques et de souveraineté liées à notre dépendance aux importations de pétrole et de gaz, la consommation de charbon étant devenue marginale en France.

Cependant, la voie à emprunter doit être pragmatique et ne doit pas mettre en danger la politique de réindustrialisation de la France, qui suppose une croissance durable avec un accès à un approvisionnement énergétique abondant, à un prix accessible, et résilient aux aléas de toutes natures (sécurité d’approvisionnement).

Cette politique ne doit donc pas être guidée par une « urgence climatique » qui conduirait à se fixer des objectifs excessifs et irréalistes en terme de rythme de réduction de la consommation d’énergie, de décarbonation (le tout véhicules électriques avec interdiction des véhicules thermiques dès 2035, la suppression des chaudières à gaz…), et de développement à marche forcée des ENR, au risque de surcoûts non supportables par notre économie et le corps social, et de passage d’une dépendance aux importations de combustibles fossiles à une dépendance à l’achat de matériaux et d’équipements (batteries, panneaux solaires, éoliennes, électrolyseurs…) provenant d’Asie, et de Chine en particulier. Cela sans bénéfice climatique significatif pour la planète, car les produits fabriqués en Asie le sont avec une énergie largement dominée par le charbon …

Cette note démontre que la stratégie proposée (SFEC) n’échappe pas à ce risque, en se situant dans la perspective du « fit for 55 » européen, approuvé sous présidence française de l’UE, et qui s’apparente à une dangereuse fuite en avant, risquant de déstabiliser des pans entiers de l’industrie européenne.

La décarbonation des énergies, à l’échelle de la France, qui permet de remplacer des énergies fossiles importées par des énergies décarbonées produites en France, a un effet vertueux sur l’emploi, le PIB et la balance commerciale du pays (aux équipements importés près, comme les panneaux photovoltaïques) : c’est le cas du parc nucléaire et du parc hydraulique construits au siècle dernier, ainsi que pour les ENR électriques et les ENR thermiques développées depuis une quinzaine d’années.

C’est pour cela que fermer une centrale nucléaire comme Fessenheim a constitué une faute lourde, au détriment de la diminution des émissions de CO2, et de la santé de l’économie française (11 TWh de perte annuelle de production, soit 660 millions d’euros à 60 euros/MWh).

À l’exception de l’éradication du charbon, la décarbonation de la production d’électricité n’est pas un sujet en France, les parcs de production nucléaire et renouvelable (hydraulique, éolien, solaire et biomasse) représentant plus de 93 % de la production.

En termes de méthode, la préparation de cette stratégie s’est certes appuyée sur un travail de concertation avec des groupes de travail transpartisans et de participation citoyenne, mais il est regrettable que le rapport de la Commission d’enquête parlementaire du printemps 2023 sur la perte de souveraineté énergétique de la France n’ait pas été pris en compte, ce qui constitue un déficit de démocratie parlementaire incompréhensible.

 

Un objectif de réduction de la consommation d’énergie incompatible avec une réindustrialisation de la France

La stratégie proposée retient pour objectif une réduction de la consommation d’énergie finale à 1209 TWh en 2030 et à 900 TWh en 2050, alors que cette consommation était en 2021 de 1611 TWh (en lente diminution depuis le niveau de 2012 de 1661 TWh) :

Les efforts d’amélioration de l’efficacité énergétique conduits depuis près de 30 ans dans tous les secteurs de l’économie (bâtiments, transports, industrie), en intégrant la diminution de 3,1 % de la consommation en 2022 (augmentation des prix, plan de sobriété), ont permis de découpler croissance économique et consommation d’énergie, avec une diminution moyenne annuelle de 1,5 % par an de l’intensité énergétique, la consommation finale d’énergie par unité de PIB diminuant à 66 pour une base 100 en 1994 :

 

La légère diminution de la consommation d’énergie de 0,3 % par an observée de 2012 à 2019 (en deçà de l’objectif des PPE précédentes) est cohérente avec le taux annuel de croissance moyen du PIB de 1,2% en euros constants, et le taux d’amélioration de l’efficacité énergétique de 1,5 % par an.

L’objectif fixé pour 2030 (1209 TWh), en forte diminution par rapport à celui de la PPE précédente (1378 TWh), correspond à une diminution annuelle de la consommation d’énergie de 3,7 % par an : c’est une inflexion brutale correspondant à une croissance zéro du PIB, assortie d’une amélioration hypothétique de l’efficacité énergétique de 3,7 % par an, soit un rythme 2,5 fois supérieur au rythme historique.

Une croissance du PIB de 1,5 % par an, nécessaire dans le cadre d’une réindustrialisation de la France (remonter la part de la production industrielle dans le PIB de 10 % à 20 % en 2050), supposerait, pour atteindre l’objectif, une amélioration de l’efficacité énergétique de 5,3 % par an, qui apparaît totalement hors de portée, même en imposant des mesures de sobriété de façon autoritaire et « punitive » (interdictions d’usage et restrictions fortes des libertés individuelles, …).

L’objectif de 900 TWh fixé pour 2050, horizon théorique du « Net Zéro Carbone », correspond à une diminution moyenne de la consommation finale d’énergie de 2,1 % par an : si cet objectif est envisageable, c’est au prix d’une croissance nulle, incompatible avec une politique de réindustrialisation de la France, qui suppose une augmentation nette de la consommation énergétique du secteur. Une croissance du PIB de 1,5 % par an supposerait une amélioration de l’efficacité énergétique de 3,6 % par an, qui n’apparaît pas soutenable.

En effet, les efforts de sobriété auxquels ont consenti les Français en 2022, peuvent sans doute être consolidés dans la durée, mais ne sont pas cumulatifs. Ils constituent en quelque sorte un « fusil à un coup » : une fois que l’on a abaissé la température de chauffage à 18 ou 19 °C, on ne va pas la diminuer à 17 °C, puis de 1° C supplémentaire par an les années suivantes.

En conclusion, les « objectifs » de réduction de la consommation d’énergie de la SFEC conduisent au mieux à une croissance zéro, et plus probablement à une décroissance de l’économie, comme le démontre la modélisation du graphique suivant :  

Pour une croissance du PIB de 1,5 % par an, la quantité d’énergie nécessaire, avec un pilotage des actions d’amélioration de l’efficacité énergétique et le maintien des efforts de sobriété et de lutte contre le gaspillage, peut être estimée dans une fourchette de 1200 à 1350 TWh, sous réserve d’une amélioration de l’efficacité énergétique de 2,1 à 2,5 % par an, soit + 50 % par rapport au rythme historique, ce qui représente un effort considérable.

Fonder la stratégie énergétique de la France sur un tel oukase malthusien de réduction drastique de la consommation d’énergie est inconséquent, car de plus, cela fausse la vision de la production d’électricité bas carbone qui sera nécessaire pour décarboner l’économie : à horizon 2050, en retenant un taux d’électrification de l’ordre de 60 à 65 % dans la consommation finale d’énergie (production H2 incluse), la consommation d’électricité est de l’ordre de 560 TWh avec une hypothèse de consommation totale d’énergie de 900 TWh, et de l’ordre de 800 TWh avec la fourchette indiquée ci-dessus.

La trajectoire de la consommation d’énergie en France ne peut être fondée sur un objectif idéologique et irréaliste fixé a priori, mais être la résultante de la croissance du PIB, et d’une action déterminée dans la durée sur le levier de la diminution de l’intensité énergétique, pilotée avec des objectifs ambitieux mais réalistes par secteur.

En effet, l’évolution de l’intensité énergétique est différenciée par secteur :

On constate par exemple que les progrès en efficacité énergétique sont plus rapides dans les secteurs de l’industrie, du logement et, dans une moindre mesure, des véhicules légers, alors que les progrès dans les bâtiments tertiaires et les poids lourds sont plus lents.

Enfin, il convient de signaler une erreur de méthode contenue dans l’extrait suivant :

Si cette assertion est exacte pour le passage d’un véhicule thermique à un véhicule électrique (consommation de 20 kWh d’électricité stockés dans la batterie pour parcourir 100 km avec un véhicule léger, contre 60 kWh de carburant) – pour autant que l’électricité ne soit pas produite par une centrale à carburant, quand la recharge a lieu pendant les heures de pointe -, elle est manifestement fausse pour le passage d’un chauffage à combustion à une pompe à chaleur :

À isolation de l’enveloppe du bâtiment et usage identiques, on consomme la même quantité d’énergie finale : avec une pompe à chaleur on substitue en gros 3 kWh de combustion, par 1 kWh d’électricité (consommation de la pompe) et 2 kWh de chaleur renouvelable (ENR Thermique) extraite de l’environnement (air ou eau).

Les deux leviers de l’efficacité énergétique dans les bâtiments sont les suivants :

Un comportement des occupants économe en énergie

Notamment dans les bâtiments tertiaires où la consommation en dehors des heures d’utilisation (chauffage, éclairage) est excessive : la réduction drastique de ce gaspillage, qui demande peu d’investissements, devrait permettre en quelques années d’économiser plus de 50 TWh, sur une consommation annuelle totale de 260 TWh.

Isolation thermique et équipements économes en énergie (éclairage LED, électroménager,..)

Pour les bâtiments neufs, la Réglementation Environnementale RE 2020 (350 000 logements par an) garantit un niveau satisfaisant. Pour les bâtiments existants, la stratégie proposée priorise à juste titre la rénovation d’ampleur des « passoires énergétiques » (logements catégories F et G), mais ne doit pas conduire pour autant à vouloir les amener tous dans les catégories A, B ou C, ce qui conduirait à des dépenses prohibitives (coût de la tonne de CO2 évitée de 400 à 500 euros). À ce titre, la réforme de l’aide principale (MaPrimeRenov) pour 2024 apparaît bien adaptée : gain de deux catégories au minimum, un objectif réaliste pouvant consister à obtenir un bâti a minima de catégorie D. Cependant, il ne faudrait pas décourager les gestes successifs dans un parcours pluri-annuel visant cet objectif, pour ne pas exclure du marché les artisans.

Pour autant, l’objectif fixé pour 2030 par le décret éco énergie tertiaire de 2019 (réduction de la consommation totale de 40 %) et l’objectif annuel de rénovation globale de 200 000 logements dès 2024 (pour 100 000 actuellement), et jusqu’à 900 000 en 2030 apparaissent peu réalistes, alors que le nombre de logements de catégories F ou G est évalué à environ 5 millions : dans ces conditions, les échéances fixées à 2025 (G) et 2028 (F) d’interdiction de location de ces logements apparaissent difficilement soutenables.

 

Efficacité énergétique dans les transports : vers l’abandon du plan Fret Français Ferroviaire du Futur élaboré en 2020 ?

S’agissant du secteur des transports, la stratégie proposée ne retient comme vecteur d’efficacité énergétique que le véhicule électrique à batterie, qui est loin d’être une solution universelle, et est adaptée essentiellement pour les déplacements quotidiens des véhicules légers (moins de 150 km par jour, 75 % des km parcourus), mais pas pour les usages intensifs et les parcours longues distances, ni pour les transports lourds.

Le principal levier d’efficacité énergétique dans les transports est le remplacement du transport par camions par une combinaison intermodale camions / ferroviaire / fluvial : le transport d’une tonne de marchandise par le train consomme six fois moins d’énergie et émet neuf fois moins de CO2 que par la route.

Sur 490 TWh de carburants brûlés dans les transports routiers (dont 450 TWh issus du pétrole), 200 TWh sont consommés dans le transport de marchandises. La situation s’est largement dégradée depuis l’an 2000, la part modale du ferroviaire étant revenue de 18 % à 9 %, alors que la moyenne européenne est à 18 %, avec un objectif de 30 % pour 2030, déjà atteint par la Suisse et l’Autriche.

Le plan 4F ambitionne de doubler la part modale du ferroviaire d’ici 2030, ce qui permettrait d’économiser 22 TWh de carburants, et 60 TWh à l’horizon 2050, en portant la part modale à 33 %, soit un potentiel de 13 % d’économie sur le total de la consommation de pétrole dans les transports.

La SNCF a un rôle à jouer, mais parmi d’autres acteurs en concurrence, d’autant que la Commission européenne lui impose de réduire la voilure dans le fret.

Bien que faisant régulièrement l’objet d’annonces de soutien gouvernemental (en dernier lieu en mai 2023 avec 4 milliards d’euros d’investissement, ce plan prioritaire pour l’efficacité énergétique dans les transports ne figure pas dans la Stratégie énergie climat proposée, ce qui est incompréhensible.

En ce qui concerne le transport de voyageurs, hors décarbonation par les véhicules électriques, l’amélioration de l’efficience des véhicules thermiques (rajeunissement du parc), ainsi que le report modal vers les transports en commun (trains, tramways et RER métropolitains), le vélo et le covoiturage devraient permettre une économie de l’ordre de 30 TWh de carburants à l’horizon 2050.

 

Accélération des ENR et renforcement associé des réseaux : des objectifs irréalistes et coûteux

Le développement des ENR électriques intermittentes est utile et nécessaire pour parvenir à augmenter de plus de 60 % la production d’électricité à l’horizon de la décarbonation de l’économie française, dans la mesure où il est considéré comme un complément de production d’électricité décarbonée d’une base pilotable largement prépondérante (nucléaire et hydraulique), et non comme le moyen principal, comme cela est programmé dans l’Energiewende allemande, et, jusqu’à présent, par la Commission européenne.

La SFEC ne s’inscrit pas dans une telle perspective, en s’appuyant essentiellement sur un développement accéléré des ENR électriques, et en second lieu sur une relance limitée du nucléaire, qui en l’état ne permettra pas à l’horizon 2050 le maintien de la capacité de production nucléaire (voir chapitre suivant).

Enfin, une part de production intermittente prépondérante, avec une puissance installée largement supérieure à celle des centrales utilisant des machines tournantes pour produire de l’électricité (nucléaire, hydraulique, gaz ou biomasse), entraîne un risque élevé d’instabilité des réseaux, car il n’y a plus assez d’inertie dans le système électrique pour donner le temps suffisant pour réajuster la production en cas d’aléa. Ce risque de blackout total ou partiel est de plus aggravé dans le cadre du réseau européen interconnecté, avec notamment un pays comme l’Allemagne qui compte s’appuyer pour l’essentiel sur l’éolien et le solaire pour sa production d’électricité.

 

L’éolien maritime

Même en tenant compte de l’augmentation de la puissance unitaire des éoliennes, il est irréaliste de vouloir atteindre 45 GW en 2050, alors que la PPE en vigueur indique, sur la base d’une étude de l’ADEME, que le potentiel de l’éolien posé est de 16 GW, en raison de l’étroitesse du plateau continental le long du littoral Atlantique et de la Manche (il n’y a pas de potentiel en Méditerranée).

De même, l’objectif de 18 GW en 2035, alors qu’au maximum 3,6 GW seront mis en service en 2030, semble largement surévalué (un appel d’offres de 10 GW est prévu en 2025).

 

L’éolien flottant

La France y est en pointe, mais la technologie est encore au stade expérimental. Elle n’a pas à ce stade prouvé son intérêt économique (le prix est le double de celui de l’éolien posé), d’autant que le coût du raccordement électrique est aussi plus élevé (au-delà de 25 euros/MWh).

Il paraît prudent de faire une évaluation sur la base d’un retour d’expérience des trois fermes pilote de 30 MW en cours de réalisation en Méditerranée, avant de lancer définitivement les trois projets de 250 MW en cours d’instruction (en Bretagne Sud et en Méditerranée).

Écrire dans le document que 18 GW d’éolien offshore est l’équivalent de la production de 13 réacteurs nucléaires relève de la désinformation pure et simple du citoyen, pour trois raisons :

  1. 18 GW d’éolien flottant peuvent produire 60 TWh par an d’électricité (selon le document 70 TWh avec un taux de charge de 44 %), alors que 18 GW de nucléaire (correspondant à 11 réacteurs EPR2 en puissance installée) ont une capacité de production annuelle de 120 TWh
  2. La production éolienne ne peut se substituer à la production nucléaire, car elle est intermittente et n’offre aucune puissance garantie lors des pointes de consommation par grand froid hivernal.
  3. En termes de coût, les six premiers parcs (3 GW) ont un coût du MWh supérieur à 160 euros/MWh (raccordement compris qui s’impute sur le TURPE), et l’éolien flottant sera au même niveau : le coût moyen de l’éolien maritime est donc deux fois plus élevé que le coût du MWh du nouveau nucléaire. Le coût supplémentaire de la production de 14 GW d’éolien maritime pendant 20 ans (47 TWh par an) peut être estimé à 75 milliards d’euros, ce qui permettrait de construire 11 EPR2, qui vont produire 120 TWh par an pendant 60 ans.

De plus, il ne faut pas sous-estimer l’agressivité du milieu marin (salinité, tempêtes), avec un risque élevé sur la maintenance, et surtout sur la capacité au terme de 20 ans de pérenniser les installations, comme cela est envisagé pour l’éolien terrestre, avec le repowering.

En conclusion, l’éolien maritime n’est pas un moyen durable et écologique de production d’électricité en France, et sa part devrait rester marginale à l’horizon 2050 (10 à 15 GW), sauf à couvrir l’horizon de nos côtes de mâts d’éoliennes hauts de plusieurs centaines de mètres, pour un bilan économique calamiteux…

 

L’éolien terrestre

Conserver le rythme actuel de développement pour aboutir à 40 GW en 2035 revient à revenir sur la perspective tracée par Emmanuel Macron lors de son discours de candidat à Belfort, où il s’engageait à diminuer le rythme pour la bonne insertion des champs sur les territoires, en repoussant ce point d’arrivée à 2050.

Il faut en particulier tenir compte du fait que 1 GW par an (soit une centaine de parcs) arrive désormais en fin de contrat d’achat (15 ans), et que chaque parc concerné doit faire l’objet, soit d’un démantèlement s’il est placé trop près des habitations ou d’un site remarquable, soit d’un repowering : la décision devrait être prise par les élus locaux qui, dans la loi « d’accélération des renouvelables » du printemps dernier, ont l’initiative pour déterminer, en concertation avec la population, les zones d’implantation possibles des productions ENR.

En ce qui concerne le repowering, vouloir démanteler et remplacer les infrastructures existantes (mâts, massifs de béton, raccordement au réseau de distribution d’électricité) par de nouvelles éoliennes plus hautes et plus puissantes n’est pas très écologique, ni même économique : une politique de développement durable consisterait plutôt à conserver l’infrastructure et remplacer les équipements arrivés en fin de vie (générateur, pales), avec un investissement marginal qui autoriserait un coût du MWh très compétitif, ne demandant aucune subvention.

Cette politique permettrait aux opérateurs rénovant des parcs éoliens de proposer des contrats d’achat d’électricité éolienne à long terme pour, par exemple, produire de l’hydrogène bas carbone, en synergie avec l’électricité du réseau quand il n’y a pas ou peu de vent (majoritairement nucléaire en dehors des heures de pointe). Une production locale adossée à un parc éolien est également possible : un électrolyseur de 6 MW alimenté en priorité par un parc éolien de 12 MW, et en complément par le réseau (en dehors des heures de pointe) permet de produire 850 tonnes d’hydrogène par an, 50 % en autoconsommant 93 % de l’électricité éolienne, et 50 % avec l’électricité du réseau.

 

Solaire photovoltaïque

Les objectifs de 54 à 60 GW dès 2030, et de 75 à 100 GW dès 2035 apparaissent peu réalistes, alors que 16 GW sont installés, et que le rythme de 3 GW par an (grands parcs au sol et toitures) n’a encore jamais été atteint : 35 GW en 2030 et 50 GW en 2035 apparaîtraient déjà comme des objectifs très ambitieux.

Pour atteindre ces objectifs, la loi d’accélération des énergies renouvelables fixe en priorité l’utilisation de terrains déjà artificialisés et de toitures, mais ouvre la porte au défrichement de zones boisées (jusqu’à 25 Ha) et au développement de l’utilisation de terres agricoles (agrivoltaïsme), qui risquent de détourner les agriculteurs de leur vocation première, la production agricole servant en priorité l’alimentation humaine et animale.

Enfin, une telle accélération repose quasiment intégralement sur l’importation de panneaux solaires, principalement de Chine, qui ont de plus un bilan CO2 dégradé (45 g CO2 eq/kWh produit) en raison de leur process de fabrication utilisant largement de l’électricité produite à base de charbon : le critère qualitatif des appels d’offres lancés par la CRE (Évaluation Carbone Simplifié) ne permet pas de dissuader l’utilisation de panneaux à bas coût très chargés en carbone, le seuil de référence de la note zéro ayant même été relevé (de 700 kg CO2 à 1150 kg CO2 par KWhc de puissance) depuis 2018 !

Et le « mécanisme d’ajustement carbone aux frontières » que l’Union européenne met difficilement en place, et qui ne sera effectif sur un plan financier qu’à partir de 2026, ne concerne pas la production des panneaux solaires, ni d’ailleurs celle des batteries…

 

Développement des réseaux

La stratégie de développement à marche forcée des ENR conduit ENEDIS à porter ses investissements au-delà de 5 milliards d’euros par an, et RTE à prévoir 100 milliards d’euros d’ici 2042, soit là aussi 5 milliards par an, contre moins de 2 milliards jusqu’à présent : ces sommes sont considérables (plus de 35 milliards d’euros pour le raccordement de l’éolien maritime par exemple), et auront un impact sur le TURPE, que l’on peut évaluer à un besoin d’EBITDA supplémentaire de 4 à 5 milliards par an, soit environ 12 euros/MWh sur la facture des clients.

Le TURPE (Tarif d’Utilisation des Réseaux Publics d’Electricité) est déjà passé de 55 euros/MWh en 2022 à 61,5 euros/MWh en septembre 2023 pour les particuliers et les TPE, en raison de l’augmentation des investissements sur les réseaux de distribution et de transport d’électricité, mais aussi de l’augmentation du coût d’achat des pertes, celui-ci étant affecté par une diminution du volume de l’ARENH disponible, qui oblige ENEDIS et RTE à acheter environ 16 % d’un volume de 36 TWh sur le marché, contre seulement 4 % auparavant.

 

ENR thermiques

En dehors de la chaleur fatale récupérée et de la chaleur extraite de l’environnement (pompes à chaleur et géothermie), la source principale d’énergie renouvelable thermique est issue de la biomasse et de la valorisation de déchets, sous différentes formes : biocarburants liquides, biogaz et bois-énergie.

La SFEC insiste à juste titre sur le fait que les ressources de biomasse disponibles pour la production énergétique sont limitées et en concurrence avec les usages alimentaires (production agricole) et en matériaux biosourcés : il est donc nécessaire de mener une réflexion pour prioriser les formes d’énergie à développer et les usages, en améliorant leur efficacité (foyers fermés pour le chauffage bois par exemple).

Le développement de la production de biométhane par méthanisation est utile pour la décarbonation partielle du gaz distribué en réseau et la décarbonation des transports routiers lourds et maritimes (bio-GNV). Cependant, atteindre 50 TWh dès 2030 (11 TWh actuellement) est un objectif très ambitieux, alors que le potentiel de méthanisation mobilisable est de l’ordre de 100 TWh, à condition de développer les cultures intermédiaires (CIVE) et d’intégrer 15 % de cultures dédiées (maïs ensilage).

Comme le souligne le document, le coût du biométhane (80 à 110 euros/MWh) reste deux à trois fois supérieur au prix du gaz naturel importé (30 à 60 euros/MWh). Un volume de 50 TWh avec un niveau de subvention de 50 euros/MWh représente une charge annuelle de 2,5 milliards d’euros, à mettre en regard des émissions de CO2 évitées, et des bénéfices pour la balance commerciale, la valeur ajoutée domestique (emplois) et la diminution de l’utilisation d’engrais de synthèse grâce au digestat résidu de la méthanisation.

En ce qui concerne les biocarburants liquides, la SFEC prévoit à juste titre de passer à terme d’une utilisation en mélange dans les carburants routiers à une utilisation pour décarboner le transport aérien, ainsi que les secteurs de l’agriculture, du bâtiment-TP et de la pêche : à titre d’exemple, le volume de gazole non routier utilisé par les agriculteurs et les pêcheurs est de 35 TWh, qui pourraient être utilement remplacés par du biogazole B100 pour leur permettre de décarboner leur activité en conservant leur outil de travail (la production nationale de biocarburants attendue en 2030 est de 50 TWh, très majoritairement du biogazole).

 

Nucléaire : une relance insuffisante à l’horizon 2050

Pour disposer de 850 TWh de productible en 2050 (pertes comprises), volume nécessaire de production pour décarboner l’économie, et d’une capacité pilotable suffisante pour gérer les pointes de consommation hivernale lors des grands froids (qui pourront atteindre jusqu’à 110 GW avec l’électrification du chauffage des bâtiments, en tenant compte d’un effacement des électrolyseurs, de la production d’eau chaude et de la recharge des véhicules électriques), il y a besoin de 75 à 80 GW de puissance nucléaire installée, et les SMR n’en constitueront qu’une part très minoritaire (4 GW dans le scénario N03, le plus nucléarisé de RTE dans son étude « futurs énergétiques 2050 » publiée fin 2021).

Sur la base d’une prolongation de la durée de vie à 60 ans de l’ensemble des réacteurs encore en fonctionnement du parc historique (après fermeture anticipée de Fessenheim en 2020), et de la mise en service de l’EPR de Flamanville, un « effet falaise » se produira dès 2040, et la capacité nucléaire résiduelle sera au maximum de 16 GW en 2050, et de 1,6 GW en 2060 (EPR Flamanville) :

S’il est possible d’envisager une prolongation au-delà de 60 ans de la durée de vie pour certains réacteurs dans des conditions de sûreté acceptables (cela dépend de l’état de la cuve du réacteur, seul élément non remplaçable), il se peut aussi que certains réacteurs ne reçoivent pas l’autorisation d’exploitation jusqu’à 60 ans, et soient arrêtés lors de la visite décennale des 50 ans, voire des 40 ans : il est donc prudent de baser la stratégie sur cette hypothèse centrale d’une durée de vie de 60 ans, une adaptation restant bien entendu possible dans le temps en fonction du résultat des visites décennales.

La conclusion s’impose, si l’on veut maintenir l’échéance de 2050 pour le « Net Zéro Carbone » en France en 2050, et garantir une sécurité d’approvisionnement en électricité : au-delà des tranches de six et huit EPR2 décidées ou envisagées, c’est un rythme d’engagement et de construction de deux EPR2 par an qui s’avère nécessaire dans la durée jusqu’en 2050, afin de disposer en 2060 de 40 à 45 EPR en plus de l’EPR de Flamanville, quand l’ensemble du parc actuel aura dépassé l’âge de 60 ans.

À partir de 2035, en fonction des perspectives de prolongation avérées de la durée de vie des réacteurs existants, et de l’état du développement d’une filière de réacteurs nucléaires à neutrons rapides, la stratégie pourra être adaptée.

Si un tel rythme d’engagement et de réalisation ne se révèle pas soutenable, et que la construction de 14 EPR2 d’ici 2050 est confirmée comme étant un maximum, alors la capacité de production nucléaire sera revenue de 63 GW à moins de 45 GW (productible de 280 TWh), avec un mix électrique ne comportant plus que 36 % de nucléaire, et d’une capacité de production totale insuffisante (environ 780 TWh) pour assurer la décarbonation de l’économie et sa réindustrialisation, malgré des objectifs démesurément élevés en éolien offshore et solaire photovoltaïque.

La capacité pilotable ne dépassera pas 72 GW, en pérennisant les 9 GW de cycles combinés à gaz et turbines à combustion existantes (TAC), ainsi que les centrales bioénergies existantes et les centrales à charbon de Cordemais et Saint-Avold converties à la biomasse, comme le montre le tableau ci-dessous :

Une telle situation ne serait pas gérable, et nécessiterait a minima la construction de 20 à 25 GW de capacité en cycles combinés à gaz pour ne pas rendre la France plus dépendante qu’actuellement de ses voisins pour la sécurité d’alimentation en électricité lors des pointes hivernales.

 

Innovations de rupture nucléaire

Le plan France 2030 intègre le soutien au développement de petits réacteurs modulaires (SMR), soit avec une technologie classique à eau pressurisée (projet NUWARD d’EDF, puissance 2 x 170 MW), soit avec de nouvelles technologies, par exemple le projet de réacteur de 40 MW à neutrons rapides et sels fondus développé par la société NAAREA, qui permet la fermeture du cycle du combustible en brûlant des combustibles nucléaires usagés, et ne nécessite pas de source froide autre que l’air ambiant pour s’implanter (cycle CO2 supercritique).

Parmi les huit lauréats de l’appel à projet France 2030, il y a un projet de fusion nucléaire porté par la startup Renaissance fusion.

Signalons que de nombreux projets de développement de réacteurs à fusion portés par des startup existent aux USA, dont un projet porté par la société Helion avec une technologie originale : accélération et compression d’un plasma dans un tunnel linéaire, et production d’électricité directement par induction, sans recourir à un cycle vapeur. Helion construit un prototype Polaris d’une puissance de 50 MWe (MW électrique), avec une perspective de production d’électricité dès fin 2024 ou 2025, a signé un contrat de vente d’électricité avec Microsoft pour 2028, et développe un projet de réacteur de 500 MWe avec Nucor, un sidérurgiste. La concrétisation de la fusion nucléaire pourrait être bien plus rapide qu’anticipé actuellement avec le projet ITER…

Il est par contre extrêmement regrettable que la SFEC ne prévoie pas de reprendre un projet de réacteur à neutrons rapides de taille industrielle pour une production centralisée, qui pourrait prendre la relève des EPR à partir de 2040, et entérine de fait l’abandon définitif du projet Astrid et de toute l’expérience accumulée avec les réacteurs Phénix (qui a produit 26 TWh entre 1973 et 2009 avec une puissance de 250 MW), et Superphénix à Creys-Malville arrêté en 1997.

Cette lacune met en danger notre approvisionnement et notre gestion à long terme du cycle du combustible, sauf à recourir à terme à des technologies étrangères (la Chine vient de démarrer un réacteur de quatrième génération), alors que la France avait une (bonne) longueur d’avance dans cette technologie.

Poutine, Tucker Carlson et les bananes

La Russie de Poutine sera privée de bananes, considérées là-bas comme une source importante et peu chère de vitamines et de protéines. C’est le surprenant effet indésirable du transfert par l’Équateur aux États-Unis de six systèmes de missiles anti-aériens Osa-AKM, qui devraient ensuite être transférés à l’Ukraine. En contrepartie, les États-Unis fourniront à l’Équateur de nouveaux systèmes de défense aérienne américains, accompagnés d’une formation, d’un soutien, de pièces de rechange et d’une assistance technique continue.

En effet, pour contourner le refus des Républicains de voter une enveloppe d’aide à l’Ukraine, Joe Biden cherche partout sur la planète des armements qui pourraient être livrés au pays victime de la barbarie de Poutine, en les faisant transiter par les États-Unis.

Mais… Quel rapport avec les bananes ? 

Le rapport, c’est la stupidité des dirigeants russes qui, à l’annonce de cette information, ont décidé de boycotter l’Équateur qui était jusqu’alors leur principal, sinon l’unique fournisseur (92 à 98 %) de ce fruit dont la forme fait penser à un boomerang allongé.

Comble de l’hypocrisie, le Kremlin a « envoyé Rosselkhoznadzor, son service de contrôle phytosanitaire, vérifier la prochaine livraison de bananes de cinq grandes entreprises agricoles équatoriennes et y a trouvé une mouche à bosse polyphage. »

La Russie espère pouvoir se tourner vers l’Inde, mais les prix ne seraient pas aussi avantageux et rien n’est sûr au niveau des quantités.

Il est vrai cependant que la Russie dispose de milliards de roupies dans les coffres de New Delhi, produits de la vente de pétrole, dont elle ne sait que faire, à cause de l’inconvertibilité en dollars américains des deux devises.

Et la banane est aussi un sujet sociologique en Russie, rien de mieux pour le comprendre que de lire ce qu’un Russe en pense sur Télégram, avec un humour réaliste :

« Le problème ici, ce sont les bananes. Pour les Russes, elles sont devenues un produit de base. L’une des sources les plus accessibles non seulement d’énergie, mais aussi de vitamines et de minéraux. Du calcium, du fer.

L’autre aspect du problème est socio-économique. Pour des segments importants de la population, la banane reste le mets délicat et le dessert le plus abordable. Les ananas et les mangues, vous le savez, sont plus chers, et les oranges le sont désormais aussi. Il s’avère donc que pour les couches sociales les moins riches, la banane la plus ordinaire est le symbole d’un succès minime. Puisque vous pouvez vous permettre une banane, cela signifie que vous n’êtes pas un complet perdant ni un mendiant. »

La liste des pénuries alimentaires va s’allonger pour le pauvre peuple russe opprimé : œufs, viande de bœuf et de poulet, et maintenant bananes.

Sans parler des berlines allemandes, françaises ou japonaises dont ils étaient si fiers de se porter acquéreurs. Pendant ce temps, l’Ukraine inonderait l’Europe de ses poulets et de ses œufs à des prix imbattables. Un comble ! Mais elle ne produit pas encore de bananes.

 

Tucker Carlson, le trumpiste poutiniste

Le célèbre chroniqueur trumpiste expert en fakes et en provocation, qui était arrivé en Russie pour interviewer le maître du Kremlin, n’est pas le bienvenu pour une partie des Russes, qui s’en émeuvent sur les réseaux sociaux, tandis que les ultranationalistes plus fascistes que Poutine lui-même – on peut se demander comment c’est possible – se réjouissent par avance du tort de ce que son travail de sape pourrait faire à Joe Biden.

« Et pourquoi un tel amour pour ce colporteur de faux de haut vol, qui a été licencié de Fox News pour des dommages s’élevant à un milliard de dollars, précisément à cause d’allégations mensongères » s’interrogent les Russes raisonnables, ceux qui ont su préserver leur esprit des ravages de la propagande institutionnelle orchestrée par le FSB ex-KGB.

Le Kremlin a confirmé que Carlson avait bien rencontré le dictateur russe, Poutine ne pouvant bien sûr pas rater cette occasion de faire un pied de nez à l’adversaire de son allié objectif, Donald Trump.

Dmitri Peskov, porte-parole du Kremlin, a déclaré que les médias occidentaux n’essayaient même plus de paraître impartiaux dans leurs reportages sur la Russie, et qu’ils n’avaient plus envie de communiquer directement avec de tels médias.

Il est vrai qu’en matière d’impartialité, la Russie de Poutine coche toutes les (mauvaises) cases.

Le trublion du paysage médiatique américain a annoncé qu’il publierait son interview le 9 février sur son site internet.

Par ailleurs, Carlson prévoit de se rendre à Kyiv pour réaliser une interview, car selon lui, « toutes les interviews précédentes du dirigeant ukrainien avec les médias américains n’étaient pas du journalisme, mais de la propagande. »

À moins qu’un mandat d’arrêt ne soit opportunément lancé… Mais l’Union européenne ne semble pas l’envisager.

Pourquoi Gabriel Attal échouera à relever le pouvoir d’achat des Français

Parmi les sujets de mécontentement de la population il en est un qui est récurrent : la faiblesse du pouvoir d’achat. C’est encore une fois ce qu’a montré le dernier sondage IPSOS pour le CESE, en date du 26 octobre 2023. Les Français interrogés sur ce que sont leurs préoccupations placent le problème du pouvoir d’achat en tête, avec 40 % des réponses, suivi par la santé.

Aussi, dans sa déclaration de politique générale à l’Assemblée, le Premier ministre a déclaré qu’il voulait « desmicardiser » les Français, c’est-à-dire augmenter leur pouvoir d’achat : de trop nombreux salariés sont condamnés à rester indéfiniment au SMIC, et c’est insupportable.

Mais est-ce possible, et dans quels délais ?

Actuellement, les statistiques de la  DARES indiquent que 17,3 % des salariés français sont au SMIC, et ce pourcentage progresse : en 2021, il s’agissait de 12 % seulement. Les Français sont fortement préoccupés par « la faiblesse de leur pouvoir d’achat », et l’inflation depuis deux années exacerbe cette crainte.

Ce sentiment d’insuffisance du pouvoir d’achat, est-il justifié ? Est-ce un simple ressenti purement subjectif, ou bien, véritablement, une réalité intangible ?

Les Français sont un peuple d’éternels insatisfaits. François de Closets, dans Toujours plus expliquait que le « toujours plus » est une revendication endémique caractéristique du peuple français. En 2006, il récidivait avec Plus encore.

Un débat de même nature entre les ministres de l’Intérieur et de la Justice à propos des problèmes de sécurité : l’un parlant, chiffres en mains, d’un véritable problème de sécurité aujourd’hui en France, l’autre, d’un simple « sentiment d’insécurité », un sentiment non fondé. Éric Dupond-Moretti avait dit à Ruth Elkrief, sur Europe 1 : « Le sentiment d’insécurité, c’est un fantasme : c’est du populisme ».

Alors ? Véritable problème, cette fois, que celui de l’insuffisance du pouvoir d’achat, ou bien un fantasme ?

Que va donc pouvoir faire Gabriel Attal face à ce « populisme » ? 

Où en sommes-nous, et que disent les chiffres ?

 

Le SMIC en France est trop haut : explications

Le PIB français par habitant n’est pas un des plus élevés d’Europe, loin s’en faut, mais les Français paraissent ne pas en avoir réellement conscience. Le tableau ci-dessous indique comment notre SMIC se situe par rapport à quelques-uns de nos voisins. Il varie, évidemment, avec le niveau de richesse des pays :

Pour s’étalonner, il faut se reporter à la corrélation existant entre ces données, en prenant le PIB/tête comme variable explicative :

 

L’équation de la droite de corrélation indique que le PIB/capita qui est le nôtre devrait correspondre en à un  SMIC mensuel de 1587 euros seulement. Notre SMIC est donc fixé relativement trop haut : il est 10 % supérieur à ce qu’il devrait être, par rapport à ce que font les pays européens qui, comme nous, ont mis en place ce garde-fou. 

On voit que le SMIC est lié au PIB par habitant, et dans ce domaine la France est mal placée : elle est à la 13e position seulement en Europe, avec un PIB par tête 16% inférieur à celui de l’Allemagne, 30 %  inférieur à celui des Pays-Bas, et pas même la moitié de celui de la Suisse, des pays qui sont pourtant nos voisins.

Les Français semblent l’ignorer, contrairement aux frontaliers qui en sont bien conscients : ils sont actuellement environ 350 000 qui cherchent chaque jour à travailler en Suisse, au Luxembourg, ou en Allemagne, quand cela leur est possible. Cette relation étroite entre les PIB/capita et les salaires n’est en rien surprenante puisque, dans leur construction, les PIB sont constitués à plus de 60 % par les rémunérations des actifs.

 

Le niveau de vie des Français est supérieur à ce que leur rémunération mensuelle peut leur fournir

Depuis quelques années (cf. INSEE -France, portrait social), l’INSEE publie des tableaux « Niveau de vie et pauvreté dans l’UE » et chiffre les niveaux de vie à la fois en euros et en Parité de pouvoir d’achat. S’agissant, ici, d’une réflexion menée sur les salaires, qui sont l’élément principal qui détermine le niveau de vie, il convient de rapprocher les salaires des évaluations du niveau de vie exprimées en Parité de pouvoir d’achat, telles qu’elles sont produites par l’INSEE :

Le graphique ci-dessous montre la corrélation entre ces données, en prenant le niveau de vie comme variable explicative :

 

L’équation de la droite indique que le niveau de vie français correspond à un salaire plus élevé que celui effectivement perçu en moyenne, soit 4189 dollars, alors que nous en sommes à 3821 dollars seulement, soit environ à nouveau 10 % d’écart.

Selon cette approche, les Français auraient un niveau de vie supérieur à ce que leur rémunération mensuelle est capable de leur fournir. Cest dû à la façon dont l’État a organisé la vie de la société : soins et enseignement pratiquement gratuits, transports fortement subventionnés, temps de travail annuel plus court que dans les autres pays, départ à la retraite plus précoce.

Tous ces avantages sont fournis par des circuits très complexes de redistribution, ce qui a pour conséquence que les dépenses publiques sont bien plus élevées que dans tous les autres pays en proportion du PIB. L’État se trouve donc contraint de recourir chaque année à l’endettement pour boucler ses budgets, malgré des  prélèvements obligatoires les plus élevés de tous les pays européens. En somme, les Français vivent avec un salaire moyen fictif de 4189 dollars, plus élevé que le salaire mensuel qu’ils perçoivent, mais ils n’en ont nullement conscience. Faute d’avoir une appréhension objective de leur niveau de vie, ils ont facilement tendance à se plaindre et revendiquer des augmentations de salaire.

 

Pour accroître le niveau de vie des Français, il faut augmente le PIB par habitant

Il ne va pas être facile à notre Premier ministre d’accroître rapidement la rémunération des Français : le SMIC est déjà 10 % supérieur à ce qu’il devrait être, le niveau de vie est lui aussi de 10 % supérieur,  en moyenne, à ce que permettent les rémunérations des salariés.

Les Français bénéficient d’avantages considérables qui améliorent leur niveau de vie quotidien : sans le savoir, ils vivent avec un salaire fictif supérieur à leur salaire nominal. Ce sont des réalités qu’un homme politique, fut-il un bon communiquant, est totalement incapable d’expliquer à des foules qui viendraient manifester sous ses fenêtres.

L’augmentation du PIB per capita est donc la seule solution permettant de satisfaire le besoin d’amélioration du pouvoir d’achat des Français : il n’y a donc pas d’autre solution que de s’attaquer sérieusement à la dynamisation de notre économie pour faire de la croissance et augmenter rapidement le PIB, qui depuis bien longtemps ne croît pas assez vite, et génère en permanence du mécontentement. 

En 2018, le service des statistiques des Nations unies a examiné comment ont évolué sur une longue période les économies des pays.

Ci-dessous, les résultats de cette étude pour un certain nombre de pays européens, en réactualisant les données, et en mettant en exergue le cas d’Israël particulièrement exemplaire :

Depuis la fin des Trente Glorieuses, la France réalise de très mauvaises performances économique : en multipliant par 4,9 son PIB par tête, comme la Suisse ou le Danemark, on en serait à un PIB/capita de 62 075 dollars, supérieur à celui de l’Allemagne, comme c’était le cas en 1980. Mais nous en somme très loin ! 

Le secteur industriel français s’est complètement dégradé d’année en année, sans que les pouvoirs publics ne jugent nécessaire d’intervenir. Ils sont restés sur l’idée qu’une société moderne doit être post-industrielle, c’est-à-dire dépourvue d’industrie. Ce cliché a été développé en France par des sociologues, comme par exemple Alain Touraine en 1969 dans La société postindustrielle.

Aujourd’hui, le secteur industriel ne représente plus que 10 % du PIB en France (industrie, hors construction), alors qu’il est de 23 %  ou 24 % en Allemagne ou en Suisse. La France est le plus désindustrialisé de tous les pays européens, Grèce mise à part.

Pour redresser l’économie et la rétablir dans ses grands équilibres il va falloir porter à 18 % environ la contribution du secteur industriel à la formation du PIB, ce qui va demander beaucoup de temps, pour autant qu’on y parvienne. Emmanuel Macron n’avait pas considéré le problème au cours de son premier quinquennat, alors qu’il avait en charge le ministère de l’Économie.

Ce n’est qu’à l’occason de la crise du covid qu’il a pris conscience de la très grave désindustrialisation du pays, et a lancé, en octobre 2023, le Plan France 2030 doté d’un budget de 30 milliards d’euros. Ce budget est très insuffisant, et ne pourra s’appliquer qu’à des industries dites vertes, les aides à l’investissement, selon les directives de Bruxelles, ne pouvant bénéficier qu’à des projets écologiquement corrects. 

Nous avons chiffré, dans d’autres articles, à 350 milliards d’euros le montant des investissements à réaliser pour remonter le secteur industriel à 18 % du PIB. Les montants mobilisés du Plan France 2030 sont très éloignés de ce que le président Joe Biden fait aux États-Unis pour impulser la réindustrialisation du pays avec l’Inflation Réduction Act, qui rencontre un succès considérable, après le Chips and sciences Act. Les Bidenomics pourraient-ils être de nature à éclairer nos dirigeants sur ce qu’il conviendrait de faire pour redresser notre économie. Mais, les moyens financiers nous manquent.

Notre PIB par tête n’est pas près d’augmenter rapidement, et les salaires de progresser au rythme qui serait souhaitable. Les prix augmentent, et notre ministre de l’Économie a déclaré aux Français que le temps du « quoi qu’il en coûte » était terminé. En effet, l’État est terriblement endetté, il faut avant tout réduire dette et déficit budgétaire pour respecter les règles de la zone euro.

Et il est hors de question de fâcher les agences de notation, et les voir de nouveau, abaisser la note d’un cran. Notre jeune et brillant Premier ministre n’est donc pas près de desmicardiser les Français.

« Nous devons mettre en place une diplomatie de guerre » grand entretien avec Nicolas Tenzer

Nicolas Tenzer est enseignant à Sciences Po Paris, non resident senior fellow au Center for European Policy Analysis (CEPA) et blogueur de politique internationale sur Tenzer Strategics. Son dernier livre Notre guerre. Le crime et l’oubli : pour une pensée stratégique, vient de sortir aux Éditions de l’Observatoire. Ce grand entretien a été publié pour la première fois dans nos colonnes le 29 janvier dernier. Nous le republions pour donner une lumière nouvelles aux déclarations du président Macron, lequel n’a « pas exclu » l’envoi de troupes occidentales en Ukraine, à l’occasion d’une conférence internationale, lundi 26 février dernier.

 

Hypothèse d’une victoire russe : à quelles répercussions s’attendre ?

Loup Viallet, rédacteur en chef de Contrepoints – Dans Notre Guerre, vous écrivez : « Les aiguilles de l’horloge tournent sans relâche, associant toujours plus de morts à leur fuite en avant. Mais il arrive aussi un moment où le temps presse. L’Ukraine pourrait mourir. Ce sera de notre faute, et alors le glas de la mort sonnera pour nous. » Quelles seraient les conséquences d’une défaite de l’Ukraine ?

Nicolas Tenzer Elles seraient catastrophiques sur tous les plans et marqueraient un tournant à certains égards analogue mutatis mutandis à ce qu’aurait été une victoire de l’Allemagne nazie en 1945. Outre que cela entraînerait des centaines de milliers de victimes ukrainiennes supplémentaires, elle signifierait que les démocraties n’ont pas eu la volonté – je ne parle pas de capacité, car elle est réelle – de rétablir le droit international et de faire cesser un massacre d’une ampleur inédite en Europe, nettement supérieure à celui auquel nous avons assisté lors de la guerre en ex-Yougoslavie, depuis la Seconde Guerre mondiale.

La crédibilité de l’OTAN et des garanties de sécurité offertes par les États-Unis et l’Union européenne en serait à jamais atteinte, non seulement en Europe, mais aussi en Asie et au Moyen-Orient. Toutes les puissances révisionnistes s’en réjouiraient, en premier lieu la République populaire de Chine. La Russie poursuivrait son agression au sein du territoire des pays de l’OTAN et renforcerait son emprise sur la Géorgie, le Bélarus, la Syrie, certains pays d’Afrique ou même d’Asie, comme en Birmanie, et en Amérique du Sud (Venezuela, Cuba, Nicaragua).

Cela signifierait la mort définitive des organisations internationales, en particulier l’ONU et l’OSCE, et l’Union européenne, déjà minée par des chevaux de Troie russes, notamment la Hongrie et la Slovaquie, pourrait connaître un délitement. Le droit international serait perçu comme un torchon de papier et c’est l’ordre international, certes fort imparfait, mis en place après Nuremberg, la Charte des Nations unies et la Déclaration de Paris de 1990, qui se trouverait atteint. En Europe même, la menace s’accentuerait, portée notamment par les partis d’extrême droite. Nos principes de liberté, d’État de droit et de dignité, feraient l’objet d’un assaut encore plus favorisé par la propagande russe. Notre monde tout entier serait plongé dans un état accru d’insécurité et de chaos. Cela correspond parfaitement aux objectifs de l’idéologie portée par le régime russe que je décris dans Notre Guerre, qu’on ne peut réduire uniquement à un néo-impérialisme, mais qui relève d’une intention de destruction. C’est la catégorie même du futur qui serait anéantie.

C’est pourquoi il convient de définir clairement nos buts de guerre : faire que l’Ukraine gagne totalement et que la Russie soit radicalement défaite, d’abord en Ukraine, car telle est l’urgence, mais aussi en Géorgie, au Bélarus et ailleurs. Un monde où la Russie serait défaite serait un monde plus sûr, mais aussi moins sombre, et plus lumineux pour les peuples, quand bien même tous les problèmes ne seraient pas réglés. Les pays du sud ont aussi à y gagner, sur le plan de la sécurité énergétique et alimentaire, mais aussi de la lutte anti-corruption et des règles de bon gouvernement – songeons à l’Afrique notamment.

 

Peut-on négocier avec Poutine ?

Pourquoi pensez-vous qu’il n’est pas concevable de négocier avec la Russie de Poutine ? Que répondez-vous à l’ancien ambassadeur Gérard Araud qui plaide pour cette stratégie ? C’est aussi le point de vue de la géopolitologue Caroline Galacteros, qui écrit : « Arrêtons le massacre, celui sanglant des Ukrainiens et celui économique et énergétique des Européens . Négociations !! pendant qu’il y a encore de quoi négocier… ». Comment comprenez-vous cette position ? 

Je ne confondrai pas les positions de madame Galacteros, dont l’indulgence envers la Russie est bien connue, et celle de Gérard Araud qui n’est certainement pas pro-Kremlin. Ses positions me paraissent plutôt relever d’une forme de diplomatie classique, je n’oserais dire archaïques, dont je montre de manière détaillée dans Notre Guerre les impensés et les limites. Celles-ci m’importent plus que les premières qui sont quand même très sommaires et caricaturales. Je suis frappé par le fait que ceux, hors relais de Moscou, qui parlent de négociations avec la Russie ne précisent jamais ce sur quoi elles devraient porter ni leurs conséquences à court, moyen et long termes.

Estiment-ils que l’Ukraine devrait céder une partie de son territoire à la Russie ? Cela signifierait donner une prime à l’agresseur et entériner la première révision par la force des frontières au sein de l’Europe, hors Seconde Guerre mondiale, depuis l’annexion et l’invasion des Sudètes par Hitler. Ce serait déclarer à la face du monde que le droit international n’existe pas. De plus, laisser la moindre parcelle du territoire ukrainien aux mains des Russes équivaudrait à détourner le regard sur les tortures, exécutions, disparitions forcées et déportations qui sont une pratique constante, depuis 2014 en réalité, de la Russie dans les zones qu’elle contrôle. Je ne vois pas comment la « communauté internationale » pourrait avaliser un tel permis de torturer et de tuer.

Enfin, cela contreviendrait aux déclarations de tous les dirigeants politiques démocratiques depuis le début qui ne cessent de proclamer leur attachement à l’intégrité territoriale et à la souveraineté de l’Ukraine. Se déjuger ainsi serait renoncer à toute crédibilité et à toute dignité. Je trouve aussi le discours, explicitement ou implicitement pro-Kremlin, qui consiste à affirmer qu’il faut arrêter la guerre pour sauver les Ukrainiens, pour le moins infamant, sinon abject, quand on sait que, après un accord de paix, ceux-ci continueraient, voire s’amplifieraient encore.

Suggèrent-ils qu’il faudrait renoncer à poursuivre les dirigeants russes et les exécutants pour les quatre catégories de crimes imprescriptibles commis en Ukraine, crimes de guerre, crimes contre l’humanité, crime de génocide et crime d’agression ? Il faut leur rappeler que le droit international ne peut faire l’objet de médiation, de transaction et de négociation. Il s’applique erga omnes. Le droit international me semble suffisamment affaibli et mis à mal pour qu’on n’en rajoute pas. Cela fait longtemps que je désigne Poutine et ses complices comme des criminels de guerre et contre l’humanité et je me réjouis que, le 17 mars 2023, la Cour pénale internationale l’ait inculpé pour crimes de guerre. Il est légalement un fugitif recherché par 124 polices du monde. On peut gloser sur les chances qu’il soit un jour jugé, mais je rappellerai que ce fut le cas pour Milosevic. En tout état de cause, l’inculpation de la Cour s’impose à nous.

Veulent-ils signifier qu’on pourrait fermer les yeux sur la déportation de dizaines de milliers d’enfants ukrainiens en Russie, ce qui constitue un génocide, en vertu de la Convention du 9 décembre 1948 sur la prévention et la répression du crime de génocide ? On ose à peine imaginer qu’ils aient cette pensée. Là aussi, il est dans notre intérêt à donner des signaux cohérents et forts.

Entendent-ils enfin qu’il serait acceptable que la Russie soit dispensée de payer les réparations indispensables pour les dommages de guerre subis par l’Ukraine, qui sont aujourd’hui estimer à environ deux trillions d’euros ? Veulent-ils que cette charge incombe aux assujettis fiscaux des pays de l’Alliance ? Tout ceci n’a aucun sens, ni stratégique, ni politique.

Sur ces quatre dimensions, nous devons être fermes, non seulement aujourd’hui, mais dans la durée. Dans mon long chapitre sur notre stratégie à long terme envers la Russie, j’explique pourquoi nous devons maintenir les sanctions tant que tout ceci n’aura pas été fait. C’est aussi la meilleure chance pour qu’un jour, sans doute dans quelques décennies, la Russie puisse évoluer vers un régime démocratique, en tout cas non dangereux.

En somme, ceux qui souhaitent négocier avec la Russie tiennent une position abstraite qui n’a rien de réaliste et de stratégiquement conséquent en termes de sécurité. Si la Russie n’est pas défaite totalement, elle profitera d’un prétendu accord de paix pour se réarmer et continuer ses agressions en Europe et ailleurs. C’est la raison pour laquelle je consacre des développements approfondis dans la première partie de Notre Guerre à réexaminer à fond certains concepts qui obscurcissent la pensée stratégique que je tente de remettre d’aplomb. Je reviens notamment sur le concept de réalisme qui doit être articulé aux menaces, et non devenir l’autre nom de l’acceptation du fait accompli. Je m’y inspire de Raymond Aron qui, à juste titre, vitupérait les « pseudo-réalistes ».

Je porte aussi un regard critique sur la notion d’intérêt, et notamment d’intérêt national, tel qu’il est souvent entendu. Lié à la sécurité, il doit intégrer principes et valeurs. Je montre également que beaucoup d’analystes de politique étrangère ont, à tort, considéré États et nations dans une sorte de permanence plutôt que de se pencher sur les spécificités de chaque régime – là aussi, la relecture d’Aron est précieuse. Enfin, je démontre que traiter de politique étrangère sérieusement suppose d’y intégrer le droit international et les droits de l’Homme, alors qu’ils sont trop souvent sortis de l’analyse de sécurité. Pourtant, leur violation est le plus généralement indicatrice d’une menace à venir.

 

Sanctions : comment les rendre efficaces ?

Les sanctions économiques n’ont pas mis fin à la guerre de la Russie en Ukraine. Il semble que la Russie ait mis en place une stratégie de contournement plutôt efficace : depuis 2022, les importations (notamment depuis l’Allemagne) de pays proches géographiquement de la Russie (Azerbaïdjan, Géorgie, Kazakhstan, Kirghizistan, Turquie) ont explosé, et leurs exportations en Russie aussi… Sans parler de l’accélération des échanges entre la Russie et la Chine. Que faudrait-il vraiment faire pour isoler économiquement la Russie ?

C’est un point déterminant. Même si les différents paquets de sanctions décidés tant par l’Union européenne que par les États-Unis et quelques autres pays comme le Japon et la Corée du Sud, sont les plus forts jamais mis en place, ils restent encore incomplets, ce qui ne signifie pas qu’ils soient sans effets réels – ne les minimisons pas. Je reprends volontiers la proposition émise par la Première ministre estonienne, Kaja Kallas, qui proposait un embargo total sur le commerce avec la Russie. Je constate aussi que certains pays de l’UE continuent d’importer du gaz naturel liquéfié russe (LNG) et qu’une banque autrichienne comme Raiffaisen a réalisé l’année dernière la moitié de ses profits en Russie. Certaines entreprises européennes et américaines, y compris d’ailleurs françaises, restent encore présentes en Russie, ce qui me paraît inacceptable et, par ailleurs, stupide dans leur intérêt même.

Ensuite, nous sommes beaucoup trop faibles en Europe sur les sanctions extraterritoriales. Il existe une réticence permanente de certains États à s’y engager, sans doute parce que les États-Unis les appliquent depuis longtemps, parfois au détriment des entreprises européennes. C’est aujourd’hui pourtant le seul moyen pour éviter les contournements. Nous devons mettre en place ce que j’appelle dans Notre Guerre une diplomatie de guerre : sachons dénoncer et agir contre les pratiques d’États prétendument amis, au Moyen-Orient comme en Asie, qui continuent de fournir la machine de guerre russe.

Enfin, nous devons décider rapidement de saisir les avoirs gelés de la Banque centrale russe (300 milliards d’euros) pour les transférer à l’Ukraine, d’abord pour renforcer ses capacités d’achats d’armements, ensuite pour la reconstruction. Les arguties juridiques et financières pour refuser de s’y employer ne tiennent pas la route devant cette urgence politique et stratégique.

 

La nécessité d’une intervention directe

Les alliés de l’Ukraine soutiennent l’effort de guerre de l’Ukraine en aidant financièrement son gouvernement et en lui livrant des armes. Qu’est-ce qui les empêche d’intervenir directement dans le conflit ?

La réponse est rien.

Dès le 24 février 2022 j’avais insisté pour que nous intervenions directement en suggérant qu’on cible les troupes russes entrées illégalement en Ukraine et sans troupes au sol. J’avais même, à vrai dire, plaidé pour une telle intervention dès 2014, date du début de l’agression russe contre le Donbass et la Crimée ukrainiens. C’eût été et cela demeure parfaitement légal en vertu de l’article 51 de la Charte des Nations unies qui dispose que non seulement un État agressé peut répliquer en frappant les infrastructures militaires et logistiques sur le territoire de l’ennemi, mais que tout autre État se portant à son secours peut également légalement le faire. Cela aurait mis fin rapidement à la guerre et aussi épargné la mort de plus d’une centaine de milliers d’Ukrainiens, civils et militaires. Cela aurait renforcé notre sécurité et la crédibilité de notre dissuasion.

Si nous, Alliés, ne l’avons pas fait et si nous sommes encore réticents, c’est parce que nous continuons de prendre au sérieux les récits du Kremlin qui visent à nous auto-dissuader. Je consacre toute une partie de Notre Guerre à explorer comment s’est construit le discours sur la menace nucléaire russe, bien avant le 24 février 2022.

Certes, nous devons la considérer avec attention et sans légèreté, mais nous devons aussi mesurer son caractère largement fantasmé. Poutine sait d’ailleurs très bien que l’utilisation de l’arme nucléaire aurait pour conséquence immédiate sa propre disparition personnelle qui lui importe infiniment plus que celle de son propre peuple qu’il est prêt à sacrifier comme il l’a suffisamment montré. On s’aperçoit d’ailleurs que même l’administration Biden qui, au début de cette nouvelle guerre, avait tendance à l’amplifier, ce qui faisait involontairement le jeu de la propagande russe, a aujourd’hui des propos beaucoup plus rassurants. Mais cette peur demeure : je me souviens encore avoir entendu, le 12 juillet 2023, alors que j’étais à Vilnius pour le sommet de l’OTAN, Jake Sullivan, conseiller national pour la sécurité du président américain, évoquer le spectre d’une guerre entre l’OTAN et la Russie. Ce n’est pas parce que les Alliés seraient intervenus, ou interviendraient aujourd’hui, que cette guerre serait déclenchée. Je crois au contraire que la Russie serait obligée de plier.

Là aussi, il convient de remettre en question le discours de la propagande russe selon lequel une puissance nucléaire n’a jamais perdu la guerre : ce fut le cas des États-Unis au Vietnam et, de manière plus consentie, en Afghanistan, et bien sûr celui de l’ancienne URSS dans ce dernier pays. Songeons aussi au signal que, en refusant d’intervenir, nous donnerions à la Chine : cela signifierait-il que, parce qu’elle est une puissance nucléaire, elle pourrait mettre la main sur Taïwan sans que nous réagissions ? Il faut songer au signal que nous envoyons.

Enfin, et j’examine cela dans mon livre de manière plus détaillée, se trouve posée directement la question de la dissuasion au sein de l’OTAN. Celle-ci repose fondamentalement, du moins en Europe, sur la dissuasion nucléaire et la perspective de l’activation de l’article 5 du Traité de Washington sur la défense collective. Elle concerne aussi, par définition, les pays de l’Alliance, ce qui d’ailleurs montre la faute majeure qui a été celle de la France et de l’Allemagne en avril 2008 de refuser un plan d’adhésion de l’Ukraine et de la Géorgie à l’OTAN lors du sommet de Bucarest. Emmanuel Macron l’a implicitement reconnu lors de son discours du 31 mai 2023 lors de son discours au Globsec à Bratislava.

Une double question se pose donc. La première est celle de notre dissuasion conventionnelle, qui a été en partie le point aveugle de l’OTAN. Je propose ainsi qu’on s’oriente vers une défense territoriale de l’Europe. La seconde est liée au cas de figure actuel : que faisons-nous lorsqu’un pays non encore membre de l’Alliance, en l’occurrence l’Ukraine, est attaqué dès lors que cette agression comporte un risque direct sur les pays qui en sont membres ?

 

Hypothèse d’un retour de Donald Trump

Donald Trump est bien parti pour remporter l’investiture des Républicains en juin prochain. Quelles seraient les conséquences d’une potentielle réélection de l’ancien président américain sur la guerre en Ukraine ? 

À en juger par les déclarations de Donald Trump, elles seraient funestes. On ne peut savoir s’il déciderait de quitter l’OTAN qu’il avait considérée comme « obsolète », mais il est fort probable qu’il diminuerait de manière drastique les financements américains à l’OTAN et l’effort de guerre en faveur de l’Ukraine. Les Européens se trouveraient devant un vide vertigineux. S’il fallait compenser l’abandon américain, y compris sur le volet nucléaire – au-delà des multiples débats doctrinaux sur le rôle des dissuasions nucléaires française et britannique –, les pays de l’UE devraient porter leurs dépenses militaires à 6 ou 7 % du PIB, ce qui pourrait difficilement être accepté par les opinions publiques par-delà les questions sur la faisabilité. Ensuite, cela ne pourrait pas se réaliser en quelques mois, ni même en quelques années sur un plan industriel en termes d’armements conventionnels.

En somme, nous devons poursuivre nos efforts au sein de l’UE pour transformer de manière effective nos économies en économies de guerre et porter à une autre échelle nos coopérations industrielles en matière d’armement au sein de l’Europe. Mais dans l’immédiat, les perspectives sont sombres. Cela sonnera l’heure de vérité sur la volonté des dirigeants européens de prendre les décisions radicales qui s’imposent. J’espère que nous ferons en tout cas tout dans les mois qui viennent pour apporter une aide déterminante à l’Ukraine – nous avons encore de la marge pour aller plus vite et plus fort.

Les États-Unis et l’Europe restent encore à mi-chemin et n’ont pas livré à l’Ukraine toutes les armes, en quantité et en catégorie, qu’ils pouvaient lui transférer, notamment des avions de chasse et un nombre très insuffisant de missiles à longue portée permettant de frapper  le dispositif ennemi dans sa profondeur. Quant au président Biden, il devrait comprendre qu’il lui faut aussi, dans le temps qui lui reste avant les élections de novembre, donner à Kyiv toutes les armes possibles. Il serait quand bien mieux placé dans la course à sa réélection s’il apparaissait aux yeux de se concitoyens comme le « père la victoire ».

 

« La puissance va à la puissance »

La guerre d’agression de la Russie en Ukraine n’est pas un événement isolé. Il semble que l’impérialisme russe cherche à prendre notre continent en étau en déstabilisant nos frontières extérieures. À l’Est, via des actions d’ingérence militaire, de déstabilisation informationnelle, de corruption et d’intimidation qui ont commencé dès son arrivée au pouvoir dans les années 2000, et bien entendu à travers la guerre conventionnelle lancée contre l’Ukraine. Au Sud, la stratégie d’influence russe se développe depuis une décennie. Si elle est moins visible, elle n’en est pas moins nuisible. Ces dix dernières années, Moscou a approfondi sa coopération militaire avec le régime algérien et s’est ingéré dans le conflit libyen à travers des sociétés militaires privées comme Wagner. On a vu le seul porte-avions russe mouiller dans le port de Tobrouk en 2017, mais aussi des navires de guerre russes faire des exercices communs avec des bâtiments algériens sur les côtes algériennes en août 2018, en novembre 2019, en août et en novembre 2021, en octobre et en juillet 2022 et en août 2023. Au sud du Sahara, le régime de Poutine sert d’assurance-vie à la junte installée au Mali depuis 2020 et soutien l’Alliance des États du Sahel (composée des régimes putschistes du Mali, du Burkina Faso et du Niger). Quelle diplomatie adopter pour conjurer la menace russe, à l’Est comme au Sud ?

Votre question comporte deux dimensions qui sont à la fois sensiblement différentes et liées. La première est celle de la guerre de l’information et de ses manipulations. Celle-ci se déploie sur quasiment tous les continents, en Europe occidentale autant que centrale et orientale, dans les Amériques, du Nord et du Sud, au Moyen-Orient, en Afrique et dans certains pays d’Asie. Pendant deux décennies, nous ne l’avons pas prise au sérieux, ni chez nous ni dans certains pays où elle visait aussi à saper nos positions.

Malgré certains progrès, nous ne sommes pas à la hauteur, y compris en France, comme je l’avais expliqué lors de mon audition devant la Commission de l’Assemblée nationale sur les ingérences extérieures l’année dernière, et comme je le développe à nouveau dans Notre Guerre. Nous n’avons pas, dans de nombreux pays, une attitude suffisamment ferme à l’encontre des relais nationaux de cette propagande et n’avons pas mise à jour notre système législatif. En Afrique, la France n’a pas pendant longtemps mesuré, malgré une série d’études documentées sur le sujet, ni riposté avec la force nécessaire aux actions de déstabilisation en amont. Moscou a consacré des moyens considérables, et même disproportionnés eu égard à l’état de son économie, à ces actions et ses responsables russes n’ont d’ailleurs jamais caché que c’était des armes de guerre. Nous avons détourné le regard et ne nous sommes pas réarmés en proportion.

La seconde dimension est celle de l’attitude favorable de plusieurs pays envers Moscou, avec une série de gradations, depuis une forme de coopération étendue, comme dans le cas de l’Algérie, du Nicaragua, de l’Iran, du Venezuela, de Cuba, de l’Érythrée et de la Corée du Nord – sans même parler de groupes terroristes comme le Hamas –, une action commune dans le crime de masse – Syrie –, une complicité bienveillante – Égypte, Émirats arabes unis, Inde, Afrique du Sud, mais aussi Israël avec Netanyahou – et parfois active – République populaire de Chine – ou une soumission plus ou moins totale – Bélarus et certains des pays africains que vous mentionnez. Sans pouvoir entrer ici dans le détail, l’attitude des démocraties, qui doit aussi être mieux coordonnée et conjointe, ne peut être identique. Dans des cas comme celui de la Syrie, où nous avons péché par notre absence d’intervention, notre action doit être certainement militaire. Envers d’autres, nous devons envisager un système de sanctions renforcées comme je l’évoquais. Dans plusieurs cas, notamment en direction des pays ayant envers Moscou une attitude de neutralité bienveillante et souvent active, un front uni des démocraties doit pouvoir agir sur le registre de la carotte et du bâton. Nous payons, et cela vaut pour les États-Unis comme pour les grands pays européens, dont la France, une attitude négligente et une absence de définition de notre politique. Rappelons-nous, par exemple, notre absence de pression en amont envers les pays du Golfe lorsqu’ils préparaient le rétablissement des relations diplomatiques avec Damas, puis sa réintégration dans la Ligue arabe. Nous n’avons pas plus dissuadé l’Égypte de rétablir des relations fortes avec Moscou et cela n’a eu aucun impact sur nos relations avec Le Caire. Avec l’Inde, nous fermons largement les yeux sur la manière dont Delhi continue, par ses achats de pétrole à la Russie, à alimenter l’effort de guerre. Quant aux pays africains désormais sous l’emprise de Moscou, le moins qu’on puisse dire est que nous n’avons rien fait pour prévenir cette évolution en amont.

Nous sommes donc devant deux choix politiques nécessaires. Le premier, dont je développe les tenants et aboutissants dans Notre Guerre, est celui de la défaite radicale de la Russie en Ukraine, et celle-ci devra suivre au Bélarus, en Géorgie et en Syrie notamment. Je suis convaincu que si nous agissons en ce sens, des pays faussement neutres ou sur un point de bascule, dont plusieurs que j’ai mentionnés ici, verraient aussi les démocraties d’un autre œil. Elles auraient moins intérêt à se tourner vers une Russie affaiblie. Ce sont les effets par ricochet vertueux de cette action que nous devons mesurer, notamment dans plusieurs pays d’Afrique, d’Asie et du Moyen-Orient. C’est notre politique d’abstention et de faiblesse qui les a finalement conduits à se tourner vers la Russie. Si nous changeons, ces pays évolueront aussi. La puissance va à la puissance.

Le second choix, que je développe dans Notre Guerre, consistera à repenser de manière assez radicale nos relations avec les pays du Sud – un sud, d’ailleurs, que je ne crois pas « global », mais profondément différent, et avec lequel nous ne saurions penser nos relations sans différenciation. Ce sont les questions d’investissement, de sécurité énergétique et alimentaire, et de lutte contre la corruption qu’il faudra repenser. La guerre russe contre l’Ukraine est un avertissement et le pire serait, une fois que l’Ukraine aurait gagné et nous par la même occasion, de repartir avec les autres pays dans une sorte de business as usual sans aucun changement.

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Ces handicaps structurels qui entravent l’économie française

Le FMI a publié ses prévisions pour l’année 2024 : 2,9 % pour la croissance mondiale, et 1,2 % pour la zone euro, avec un net recul de l’inflation.

« So far, so good ! »  a commenté, non sans humour, Alfred Kammer, le directeur du Programme Europe de l’organisme international. C’est en effet un peu mieux que ce que l’on pouvait craindre, sachant que la plupart des économies européennes sont fortement affectées par la guerre en Ukraine.

En France, nos dirigeants n’ont pas devant eux une page blanche, loin s’en faut. Des niveaux records ont été atteints, aussi bien en dépenses publiques et sociales qu’en prélèvements obligatoires. Ajoutez à cela un déficit du commerce extérieur et un endettement qui ne cessent de croître d’année en année, et on comprend ainsi mieux pourquoi le pays fait figure de vilain petit canard concernant le respect des règles du Pacte de Stabilité et de Croissance imposées à la zone euro.

Ces règles, suspendues pendant la crise du Covid-19, ont été rétablies le 20 décembre dernier, avec toutefois un adoucissment de leur application, sur demande du ministre de l’Économie Bruno Le Maire.

Ainsi, en 2023, le déficit budgétaire de la France était de 4,7 % du PIB, et elle devra le réduire de 0,5 % point chaque année. La dette extérieure, actuellement à 111,7 % du PIB, devra progressivement être réduite de 1 % chaque année.

Cette obligation de résultat va nécessiter des efforts considérables, toutes ces dérives à corriger étant le fruit d’une économie qui accumule les mauvaises performances depuis de longues années.

Pour rappel, le dernier budget en équilibre remonte à 1974 ! La dette extérieure du pays, qui n’était que de 20 % du PIB en 1980, est aujourd’hui supérieure au PIB lui-même.

 

La France, mauvais élève de l’Europe

D’une manière stupéfiante, nos dirigeants ne semblent pas s’être aperçus que depuis plusieurs décennies, l’économie française réalisait des performances bien inférieures à celles des autres pays européens. C’est ce qu’a montré une étude de la Division de la statistique des Nations unies, publiée en 2018, qui a examiné comment l’évolution des économies des pays sur une période donnée. Les statisticiens de l’ONU ont pris tout simplement comme indicateur le PIB/capita des pays, et leur étude a porté sur la période 1980-2017.

Nous reproduisons ci-dessous les résultats de cette étude pour quelques pays européens, en prolongeant les séries jusqu’à la période actuelle, et en ajoutant le cas d’Israël qui est remarquable :

Si la France avait multiplié son PIB/capita par 4,2, comme l’Allemagne ou les Pays-Bas, on constaterait que ses taux de dépenses publiques et de dépenses sociales, par rapport au PIB, sont normaux.

À quoi tiennent ces contreperformances de l’économie française ?

 

La sociologie, une grille de lecture indispensable pour expliquer les faits économiques ?

Dans les processus économiques, les éléments sociologiques jouent un rôle déterminant.

Dans son livre La grande transformation (Gallimard, 1983) Karl Polanyi, économiste et anthropologue austro-hongrois, affirme « qu’il n’y a pas de relations économiques sans relations sociales ».

Dans son ouvrage L’éthique protestante et l’esprit du capitalisme (Librairie Plon, 1905), Max Weber a montré que la différence profonde de performances économiques entre les pays du nord de l’Europe et ceux du sud tient au fait que les uns sont protestants, alors que les autres sont catholiques.

En France, la sociologie du monde du travail a été forgée par l’orientation du mouvement syndical décidée au Congrès d’Amiens, en 1906. La motion très dure de Victor Griffuelhes adoptée au cours de cette assemblée a donné au syndicalisme le rôle de transformation de la société par l’expropriation capitaliste. Elle énoncait que le syndicalisme se suffisant à lui-même doit agir directement, en toute indépendance des partis politiques, avec comme moyen d’action la grève générale.

Était précisé dans cette motion : « Le syndicat, aujourd’hui groupement de résistance, demain groupement de production ». Ainsi, la Charte d’Amiens a-t-elle constitué l’ADN du syndicalisme français, et ce jusqu’à une période récente.

Le monde du travail a été confronté à un syndicalisme à caractère révolutionnaire : les chefs d’entreprise ont été, en permanence, entravés dans leurs actions par l’hostilité des syndicats. Ils sont soumis à un Code du travail très lourd et dissuasif imposé par une puissance publique qui a littéralement bridé leur dynamisme.

À l’inverse, en Allemagne, la collaboration des syndicats avec la Sozialdemokratie a permis de déboucher sur la cogestion des entreprises ; en Suisse, elle a conduit à un accord avec le patronat : La paix du travail. Un consensus prévoyait alors de régler les conflits par des négociations, et non plus par des grèves ou des lock-out.

Compte tenu de la position adoptée par la CGT au congrès d’Amiens, la France est restée bloquée à la sempiternelle « lutte des classes », et ce mauvais climat social a fortement nui au bon fonctionnement de l’économie.

 

Des anomalies structurelles entravent l’économie française

Avec ces innombrables luttes menées contre le pouvoir central et le patronat, les Français ont obtenu des « acquis sociaux » importants inscrits dans la législation du pays, un Code du travail volumineux et très rigide, nuisible à la bonne marche des entreprises.

Le mode de fonctionnement de l’économie française se caractérise par le tableau qui suit. Les pays scandinaves et la Suisse sont pris comme références pour définir des pays où l’économie est prospère et dynamique :

Ainsi, dans le cas de la France : taux de population active anormalement bas, durée de vie active plus courte, nombre d’heures travaillées/an inférieur à celui des pays du Nord ou de la Suisse, propension à recourir à la grève particulièrement élevée. Ce sont là les résultats des combats menés par les syndicats, auxquels s’ajoute un droit du travail particulièrement protecteur pour les salariés.

 

La population active de la France est aujourd’hui de 31,6 millions de personnes (données de la BIRD) : si ce taux était de 55 %, on atteindrait 37,2 millions d’actifs, ce qui signifie qu’il manque au travail 5,6 millions de personnes, soit à peu de choses près le chiffre des inscrits à Pôle Emploi : 5 404 000 personnes en novembre 2023 (toutes catégories confondues), dont 2 818 000 en catégorie A.

Il faudrait rallonger la durée de la vie active de 4 ou 5 années, mais on a vu combien cela est difficile avec la dernière tentative du gouvernement de réformer notre régime des retraites.

Il faudrait rallonger de 200 heures le nombre d’heures travaillées par an, ce qui représente, au plan national, un déficit d’environ 6 milliards d’heures, chaque année, c’est-à-dire un peu plus de 60 milliards d’euros, si on valorise ces heures au tarif du Smic.

De tous ces handicaps résultent des performances économiques très inférieures à celles des pays scandinaves et de la Suisse, d’autant que la France est devenue le pays le plus désindustrialisé d’Europe, la Grèce mise à part.

Le secteur industriel ne représente plus que 10 % du PIB alors que sa contribution à la formation du PIB devrait se situer au moins à 18 %, comme c’est le cas pour l’Allemagne ou la Suisse (autour de 23% ou 24 %).

Dans le tableau ci-dessous figure le classement des pays selon leur ressenti du bonheur (World Hapiness Report de l’ONU, année 2019). Malgré toutes ses dépenses sociales, la France est classée seulement en 24e position, entre le Mexique et le Chili.

Les Français ont le sentiment que le pays est en déclin, avec une économie à la traîne. En 2018, la crise des Gilets jaunes avait pour origine les difficultés des Français à finir le mois, et la désertification du territoire.

 

Réformer, une nécessité

La France a un immense besoin de réformes, mais nos dirigeants sont très loin de s’atteler à cette tâche. Le prochain président de la République devra présenter aux citoyens un diagnostic réel de la situation, ce qu’Emmanuel Macron n’a pas fait : les Français ne parviennent pas à prendre conscience que notre PIB par habitant est bien inférieur à celui de nos voisins du Nord.

Emmanuel Macron paraissait doté de tous les talents pour mener à bien le redressement de notre économie, d’autant qu’il avait été ministre de l’Économie. Malheureusement, ces espérances ont été déçues. La crise liée au covid a révélé la désindustrialisation du pays, et ce n’est que le 13 octobre 2021 qu’a été lancé le Plan France 2030, visant à « faire émerger les futurs champions technologiques de demain et accompagner les transitions de nos secteurs d’excellence […] favoriser l’émergence d’innovations de rupture ».

Rien n’est prévu pour corriger les distorsions structurelles qui plombent l’économie du pays, et pas davantage pour s’affranchir de la tutelle de la Commission européenne qui gouverne le pays. Et à quoi peut-donc servir le nouveau Commissariat au Plan dirigé par François Bayrou ? Cet allié politique est totalement muet alors qu’il avait pour mission d’« éclairer les choix collectifs que la nation aura à prendre pour maintenir ou reconstruire sa souveraineté ».

 

« Le coût de la décarbonisation sera très lourd » grand entretien avec Éric Chaney

Éric Chaney est conseiller économique de l’Institut Montaigne. Au cours d’une riche carrière passée aux avant-postes de la vie économique, il a notamment dirigé la division Conjoncture de l’INSEE avant d’occuper les fonctions de chef économiste Europe de la banque américaine Morgan Stanley, puis de chef économiste du groupe français AXA.

 

Y-a-t-il des limites à la croissance ?

Loup Viallet, rédacteur en chef de Contrepoints – En France, de plus en plus de voix s’élèvent en faveur d’une restriction de la production. Ralentissement, croissance zéro, décroissance, les partisans de ce mouvement idéologique partagent une approche malthusienne de l’économie. La croissance économique aurait des limites écologiques que l’innovation serait incapable de faire reculer. Cette thèse est au cœur d’un ouvrage souvent présenté comme une référence : le rapport du club de Rome de 1972 aussi appelé Rapport Meadows sur les limites de la croissance. Ses conclusions sont analogues à celles publiées l’année dernière dans le dernier rapport en date du Club de Rome, Earth for All. Quelle méthode scientifique permet-elle d’accoucher sur de telles conclusions ? À quel point est-elle contestable ? Comment expliquez-vous le décalage entre l’influence médiatique de ces idées et l’absence total de consensus qu’elles rencontrent parmi les chercheurs en économie et la majorité des acteurs économiques ?

Éric Chaney – Les thèses malthusiennes ont en effet le vent en poupe, encore plus depuis la prise de conscience par un grand nombre -surtout en Europe- de l’origine anthropomorphique du changement climatique causé par les émissions de gaz à effet de serre (GES, CO2 mais pas seulement). Le Rapport Meadows de 1972, commandé par le Club de Rome, avait cherché à quantifier les limites à la croissance économique du fait de la finitude des ressources naturelles. Si les méthodes développées au MIT à cet effet étaient novatrices et intéressantes, les projections du rapport originel étaient catastrophistes, prévoyant un effondrement des productions industrielle et alimentaire mondiales au cours de la première décennie du XXIe siècle. Rien de tel ne s’est produit, et malgré de nombreuses mises à jour du rapport Meadows, certes plus sophistiquées, les prévisions catastrophiques fondées sur l’apparente contradiction entre croissance « infinie » et ressources finies ne sont pas plus crédibles aujourd’hui qu’elles ne l’étaient alors.

Contrairement aux modèles développés à la même époque par William Nordhaus (prix Nobel d’économie en 2018), les modèles prônant la croissance zéro ou la décroissance n’intégraient pas de modélisation économique approfondie, pas de prix relatifs endogènes, ni même les gaz à effet de serre dont on sait depuis longtemps que les conséquences climatiques peuvent être véritablement catastrophiques.

Rappelons que Nordhaus publia en 1975 un article de recherche intitulé « Can we control carbon dioxide ». Malgré sa contribution essentielle à l’analyse économique des émissions de GES –Nordhaus est le premier à avoir explicité le concept de coût virtuel d’une tonne de CO2, c’est-à-dire la valeur présente des dommages futurs entraînés par son émission — il est vilipendé par les tenants des thèses décroissantistes, et c’est peut-être là qu’il faut chercher l’origine des dissonances cognitives qui les obèrent. Nordhaus est un scientifique, il cherche à comprendre comment les comportements économiques causent le changement climatique, et à en déduire des recommandations. Il est convaincu qu’à cet effet, les mécanismes de marché, les incitations prix en particulier sont plus efficaces que les interdictions. Il est techno-optimiste, considérant par exemple que les technologies nucléaires (y compris la fusion) lèveront les contraintes sur la production d’énergie. Alors que le camp décroissantiste est avant tout militant, le plus souvent opposé au nucléaire, bien qu’il s’agisse d’une source d’énergie décarbonée, et anticapitaliste, comme l’a bien résumé l’un de ses ténors, l’économiste Timothée Parrique, qui affirme que « la décroissance est incompatible avec le capitalisme ».

Pratiquement, je ne crois pas que ce courant de pensée ait une influence déterminante sur les décisions de politique économique, ni dans les démocraties, et encore moins dans les pays à régime autoritaire. En revanche, les idées de Nordhaus ont été mises en œuvre en Europe, avec le marché des crédits carbone (ETS, pour Emissions Trading System, et bientôt ETS2), qui fixe des quotas d’émission de CO2 décroissant rapidement (-55 % en 2030) pour tendre vers zéro à l’horizon 2050, et laisse le marché allouer ces émissions, plutôt que d’imposer des normes ou de subventionner telle ou telle technologie. De même la taxation du carbone importé que l’Union européenne met en place à ses frontières (difficilement, certes) commence à faire des émules, Brésil et Royaume-Uni entre autres, illustrant l’idée de Clubs carbone de Nordhaus.

 

Liens entre croissance et énergie

L’augmentation des émissions de gaz à effet de serre est-elle proportionnelle à la croissance de la production de biens et de services ?

Au niveau mondial, il y a en effet une forte corrélation entre les niveaux de PIB et ceux des émissions de CO2, à la fois dans le temps, mais aussi entre les pays.

Pour faire simple, plus une économie est riche, plus elle produit de CO2, en moyenne en tout cas. Il ne s’agit évidemment pas d’un hasard, et, pour une fois, cette corrélation est bien une causalité : plus de production nécessite a priori plus d’énergie, qui nécessite à son tour de brûler plus de charbon, de pétrole et de gaz, comme l’avait bien expliqué Delphine Batho lors du débat des primaires au sein des écologistes.

Mais il n’y a aucune fatalité à cette causalité, bien au contraire.

Prenons à nouveau l’exemple de l’Union européenne, où le marché du carbone fut décidé en 1997 et mis en œuvre dès 2005. Entre 2000 et 2019, dernière année non perturbée par les conséquences économiques de la pandémie, le PIB de l’Union européenne a augmenté de 31 %, alors que l’empreinte carbone de l’Union, c’est-à-dire les émissions domestiques, plus le carbone importé, moins le carbone exporté, ont baissé de 18 %, selon le collectif international d’économistes et de statisticiens Global Carbon Project. On peut donc bien parler de découplage, même s’il est souhaitable de l’accentuer encore.

En revanche, l’empreinte carbone des pays hors OCDE avait augmenté de 131 % sur la même période. Pour les pays moins avancés technologiquement, et surtout pour les plus pauvres d’entre eux, la décroissance n’est évidemment pas une option, et l’usage de ressources fossiles abondantes comme le charbon considéré comme parfaitement légitime.

 

Le coût de la décarbonation

Que répondriez-vous à Sandrine Dixson-Declève, mais aussi Jean-Marc Jancovici, Philippe Bihouix et tous les portevoix de la mouvance décroissantiste, qui estiment que la « croissance verte » est une illusion et que notre modèle de croissance n’est pas insoutenable ?

Je leur donne partiellement raison sur le premier point.

Pour rendre les difficultés, le coût et les efforts de la décarbonation de nos économies plus digestes pour l’opinion publique, les politiques sont tentés de rosir les choses en expliquant que la transition énergétique et écologique créera tant d’emplois et de richesse que ses inconvénients seront négligeables.

Mais si l’on regarde les choses en face, le coût de la décarbonation, dont le récent rapport de Jean Pisani et Selma Mahfouz évalue l’impact sur la dette publique à 25 points de PIB en 2040, sera très lourd. Qu’on utilise plus massivement le prix du carbone (généralisation de l’ETS), avec un impact important sur les prix, qui devront incorporer le renchérissement croissant du carbone utilisé dans la production domestique et les importations, ou qu’on recoure à des programmes d’investissements publics et de subventions massifs, à l’instar de l’IRA américain, le coût sera très élevé et, comme toujours en économie, sera payé au bout du compte par le consommateur-contribuable.

Tout au plus peut-on souhaiter que la priorité soit donnée aux politiques de prix du carbone, impopulaires depuis l’épisode des Gilets jaunes, mais qui sont pourtant moins coûteuses à la société que leurs alternatives, pour un même résultat en termes de décarbonation. Le point crucial, comme le soulignent les auteurs du rapport précité, est qu’à moyen et encore plus à long terme, le coût pour la société de ne pas décarboner nos économies sera bien supérieur à celui de la décarbonation.

J’ajouterais que si les statisticiens nationaux avaient les moyens de calculer un PIB corrigé de la perte de patrimoine collectif causée par la dégradation de l’environnement et le changement climatique – ce qu’on appelle parfois PIB vert, par définition inférieur au PIB publié chaque trimestre – on s’apercevrait que la croissance du PIB vert est plus rapide que celle du PIB standard dans les économies qui réduisent leurs atteintes à l’environnement et leurs émissions de GES. Sous cet angle, vive la croissance verte !

Sur le second point, je crois la question mal posée.

Il n’y a pas de « modèle de croissance » qu’on puisse définir avec rigueur. Il y a bien des modèles de gestion de l’économie, avec, historiquement, les économies de marché capitalistes (où le droit de propriété est assuré par la loi) d’un côté et les économies planifiées socialistes (où la propriété de l’essentiel des moyens de production est collective) de l’autre.

Mais ces deux modèles économiques avaient -et ont toujours pour leurs partisans- l’objectif d’augmenter la richesse par habitant, donc de stimuler la croissance. Du point de vue privilégié par Sandrine Dixson-Declève ou Jean-Marc Jancovici, celui de la soutenabilité, le modèle capitaliste devrait être préférable au modèle socialiste, qui, comme l’expérience de l’Union soviétique (disparition de la Mer d’Aral), de la RDA (terrains tellement pollués que leur valeur fut jugée négative lors des privatisations post-unification) ou de la Chine de Mao (où l’extermination des moineaux pour doubler la production agricole causa l’une des plus grandes famines de l’histoire de la Chine à cause des invasions de sauterelles) l’ont amplement démontré, prélevait bien plus sur le patrimoine naturel que son concurrent capitaliste.

La bonne question est celle des moyens à mettre en œuvre pour décarboner nos économies.

Réduire autoritairement la production comme le souhaitent les décroissantistes cohérents avec leurs convictions, demanderait l’instauration d’un régime politique imposant une appropriation collective des entreprises, puis une planification décidant ce qui est autorisé et ce qui ne l’est pas. Ne parlons pas de « modèle de croissance », mais de modèle économique, et le débat sera bien plus clair. Je suis bien entendu en faveur d’un modèle préservant la liberté économique, mais en lui imposant la contrainte de décarbonation par une politique de prix du carbone généralisée, la difficulté étant de faire comprendre aux électeurs que c’est leur intérêt bien compris.

 

Quand la Chine s’endormira

La tertiarisation de l’économie chinoise et le vieillissement de sa population sont deux facteurs structurant un ralentissement de la productivité. La croissance chinoise a-t-elle fini son galop ?

Oui, le régime de croissance de la Chine a fondamentalement changé au cours des dernières années. Après la libéralisation économique de Deng Xiaoping et l’application au-delà de toute prévision de son slogan, « il est bon de s’enrichir » grâce à l’insertion dans l’économie mondiale et à l’ouverture aux capitaux et technologies occidentales, la Chine a connu un rythme de développement et d’enrichissement (en moyenne, car les disparités villes-campagnes sont toujours profondes) unique dans l’histoire de l’humanité. Les masses chinoises sont sorties de la misère sordide dans laquelle les seigneurs de la guerre, puis l’occupation japonaise, puis enfin le régime maoïste les avait condamnées.

Mais la croissance « à deux chiffres » était tirée par le rattrapage technologique côté offre, l’investissement et les exportations côté demande, et ces moteurs ne peuvent durer éternellement. Côté offre, le rattrapage devient plus difficile lorsqu’on s’approche des standards mondiaux, ce que l’Europe a compris après 1970, d’autant plus que la rivalité stratégique avec les États-Unis réduit encore l’accès à l’innovation de pointe étrangère.

En interne, la reprise en main des entreprises par le Parti communiste, et la préférence donnée à celles contrôlées par l’État, l’obsession du contrôle du comportement de la population, réduisent considérablement la capacité d’innovation domestique, comme le fait remarquer depuis longtemps mon ancien collègue Stephen Roach.

Du côté de la demande, la Chine pourrait bien être tombée dans la trappe à dette qui a caractérisé l’économie japonaise après l’éclatement de ses bulles immobilières et d’actions du début des années 1970, en raison de l’excès d’offre immobilière et de l’immense dette privée accumulée dans ce secteur. Richard Koo avait décrit cette maladie macroéconomique « récession de bilan » pour le Japon. Les dirigeants chinois étaient hantés depuis longtemps par ce risque, qui mettrait à mal l’objectif de Xi Jinping de « devenir (modérément ajoute-t-il) riche avant d’être vieux », mais, paradoxalement, la re-politisation de la gestion économique pourrait bien le rendre réel. Comme la population active baisse en Chine depuis maintenant dix ans, et qu’elle va inévitablement s’accélérer, la croissance pourrait bien converger vers 3 % l’an, ce qui serait à tout prendre encore une réussite pour l’élévation du niveau de vie, voire encore moins, ce qui deviendrait politiquement difficile à gérer.

 

Dépendance au marché chinois

Faut-il anticiper un découplage de l’économie chinoise avec les économies de l’Union européenne et des États-Unis, dont de nombreux marchés sont devenus dépendants des importations chinoises ? Si celui-ci advenait, quels pays concernerait-il en priorité ?

L’économie chinoise occupe une place centrale dans l’économie mondiale, même si elle n’est pas tout à fait l’usine du monde comme on se plaisait à le dire avant 2008. Les tensions stratégiques avec les États-Unis mais aussi avec l’Europe, la réalisation par les entreprises que la baisse de coût permise par la production en Chine avaient un pendant. Je veux parler du risque de disruption brutale des chaînes d’approvisionnement comme ce fut le cas lors de l’épidémie de covid et des décisions de fermetures de villes entières avant que la politique (imaginaire) de zéro-covid ne fut abandonnée, mais aussi du risque d’interférence excessive des autorités chinoises.

La tendance précédente s’en est trouvée rompue.

Jusqu’en 2008, le commerce mondial croissait deux fois plus vite que le PIB mondial, en raison de l’ouverture de la Chine. De 2008 à 2020, il continua de croître, mais pas plus vite que la production. Depuis 2022, le commerce mondial baisse ou stagne, alors que la croissance mondiale reste positive. C’est la conséquence de la réduction du commerce avec la Chine. On peut donc bien parler de découplage, mais pour la croissance des échanges commerciaux, pas vraiment pour le niveau des échanges avec la Chine qui restent et resteront longtemps dominants dans le commerce mondial, sauf en cas de conflit armé.

En Europe, l’économie la plus touchée par ce renversement de tendance est évidemment l’Allemagne, dont l’industrie avait misé massivement sur la Chine, à la fois comme client pour son industrie automobile et de machines-outils, mais aussi pour la production à destination du marché chinois ou des marchés asiatiques. Ajouté au choix stratégique néfaste d’avoir privilégié le gaz russe comme source d’énergie bon marché, l’affaiblissement des échanges avec la Chine entraîne une profonde remise en question du modèle industriel allemand.

 

Impacts respectifs des élections européennes et américaines sur l’économie mondiale

Les élections européennes se tiendront en juin prochain. Les élections présidentielles américaines auront lieu cinq mois après, en novembre 2024. J’aimerais vous inviter à comparer leurs impacts potentiels sur l’avenir des échanges internationaux. Quels scénarios électoraux pourraient déboucher sur un ralentissement économique ? Sur une régionalisation des échanges ? Sur une croissance des conflits territoriaux ?

J’ai conscience que cette comparaison est limitée, l’Union européenne n’est pas un État fédéral, et il ne s’agit pas de scrutins analogues. Cependant, ces deux moments électoraux auront des conséquences concrètes et immédiates sur les orientations macroéconomiques à l’œuvre sur les deux premières économies du monde.

En cas de victoire de Donald Trump le 4 novembre, les échanges commerciaux avec les États-Unis seraient fortement touchés, avec une politique encore plus protectionniste qu’avec Biden, et un dédain complet pour toute forme de multilatéralisme.

Là encore, l’économie la plus touchée en Europe serait l’Allemagne, mais ne nous faisons pas d’illusions, toute l’Europe serait affaiblie. Plus important encore, une administration Trump cesserait probablement de soutenir financièrement l’Ukraine, laissant l’Union européenne seule à le faire, pour son propre intérêt stratégique. Ce qui ne pourrait qu’envenimer les relations au sein de l’Union, et restreindre les marges de manœuvre financières.

Enfin, une victoire de Trump signerait la fin de l’effort de décarbonation de l’économie américaine engagé par l’administration Biden à coups de subventions. Les conséquence pour le climat seraient désastreuses, d’autant plus que les opinions publiques européennes pourraient en conclure qu’il n’y a pas grand intérêt à faire cavalier seul pour lutter contre le changement climatique.

En revanche, les élections au Parlement européen ne devraient pas voir d’incidence significative sur nos économies. Le sujet ukrainien sera l’un des plus sensibles à ces élections, mais le pouvoir de décision restant essentiellement aux États, le changement ne serait que marginal.

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

Fabrice Le Saché, VP du Medef : « l’accord sur l’IA ne répond pas aux ambitions de départ »

Fabrice Le Saché est le vice-président du Medef en charge de l’Europe. Au cours de cet entretien, nous abordons les répercussions des nouvelles réglementations européennes (IA, minerais stratégiques, taxe carbone…) sur l’industrie française et européenne. Il est aussi question des réponses à apporter à la crise du logement et de l’impact des actions de sabotage des écologistes radicaux sur la croissance et l’emploi en France.

 

Intelligence artificielle

Loup Viallet, rédacteur en chef de Contrepoints – Le 08 décembre dernier, le commissaire européen Thierry Breton a qualifié d’« historique » l’accord de l’UE sur la réglementation de l’intelligence artificielle (IA ACT). Estimez-vous, avec M. Breton, que « L’Europe va devenir le meilleur endroit au monde pour faire de l’intelligence artificielle » ?

Fabrice Le Saché, vice-président du Medef chargé de l’Europe – Je souhaite tout d’abord rappeler un chiffre : 25 % des entreprises européennes utilisent l’intelligence artificielle (IA). Si la démocratie de l’IA est récente, l’IA n’est pas pour autant une technologie inconnue.

Le Medef a salué les ambitions initiales de Thierry Breton d’encadrer l’IA pour construire un écosystème favorable au tissu économique et à l’ensemble des citoyens. Une certaine idée de la régulation qui ne freine pas l’innovation et n’obère pas la compétitivité de nos entreprises. Nous avons toujours rappelé l’importance de maintenir une neutralité technologique et d’avoir une approche globale par les risques. Seul l’usage que l’on fait de l’IA doit définir son niveau de risque, et non les caractéristiques techniques de chaque modèle. Or, l’accord provisoire obtenu début décembre ne répond pas intégralement aux ambitions de départ. L’approche par les risques et le principe de neutralité technologique ont été fragilisés en intégrant des obligations propres aux IA génératives, ce qui ajoute de la complexité juridique. De plus, le texte nécessite de nombreuses lignes directrices et actes délégués de la Commission européenne pour être applicable, entraînant ainsi les entreprises dans une période d’incertitude et de flou juridique.

Dans la course mondiale à l’intelligence artificielle l’Europe est encore à la traîne, loin derrière les géants chinois et américains, mais nous pouvons encore combler notre retard. À condition de s’en donner les moyens, de mettre le pied sur le frein de la surrèglementation, et d’investir dans une politique d’innovation courageuse permettant de faciliter l’accès des entreprises aux financements, aux compétences et aux marchés.

Il est évident qu’aujourd’hui, le développement économique et l’innovation dépendent largement de l’évolution des compétences numériques, notamment dans le domaine de l’intelligence artificielle. Si notre pays veut jouer un rôle dans la révolution industrielle 5.0, nous devons constamment anticiper et nous adapter aux évolutions technologiques. Le défi pour les entreprises est double : recruter du personnel qualifié tout en veillant à la mise à jour des compétences des salariés. C’est pourquoi la formation doit être au cœur des stratégies d’entreprise.

 

Souveraineté minérale

Début décembre 2023, le Parlement européen a approuvé un texte sur les matières premières critiques, fixant des objectifs pour la production, le raffinage et le recyclage des minéraux indispensables à la transition écologique et numérique. L’Europe est-elle en train de réduire sa dépendance à l’égard de la Chine ? Cette législation va-t-elle faciliter la production de voitures électriques, de panneaux solaires, d’éoliennes et smartphones en Europe ? Quels effets produit-elle déjà sur le marché du travail ?

Les récentes crises ont démontré à quel point la France était dépendante des chaînes d’approvisionnements mondiales. Nous avons désormais pris collectivement conscience de la nécessité de retrouver un appareil de production performant et une culture industrielle forte. Cette indispensable souveraineté passe par la réduction de nos dépendances extérieures de l’Union européenne vis-à-vis des matières premières critiques. Le monde change, celui dominé par les énergies fossiles laissera bientôt sa place à un monde dominé par les matières premières minérales. Il sera sans carbone, mais riche en métaux : le marché du cuivre va doubler, celui du nickel va tripler, et celui du lithium va quadrupler au cours des dix prochaines années.

C’est pour cela que nous avons – dès mars 2023 – soutenu le règlement sur les matières premières critiques qui permettra d’identifier des projets stratégiques et sécuriser des chaînes d’approvisionnement. Pour garantir notre autonomie stratégique et contribuer au redressement de notre commerce extérieur, il faudra aller encore plus loin.

Tout d’abord, il est impératif de valoriser l’exploitation de minerais stratégiques tant en Europe qu’en France par des dérogations ponctuelles aux Codes minier et environnemental. La France dispose en la matière d’un savoir-faire historique qui lui a longtemps permis de compter parmi les principaux producteurs mondiaux de métaux stratégiques comme l’antimoine, le tungstène et le germanium. Dans ce sens, je salue l’initiative de l’entreprise Imerys qui s’apprête à exploiter la plus grande mine de lithium d’Europe dans l’Allier, capable de fournir assez de matière première pour produire 750 000 batteries par an. Ce projet répond à la fois aux enjeux d’indépendance énergétique, de réindustrialisation – et avec elle de création de richesse partout dans les territoires – et de décarbonation de notre mobilité.

Aussi, l’Europe doit aussi repenser ses relations avec les pays fournisseurs au travers d’une diplomatie des matières premières qui déboucherait sur des accords commerciaux larges et ambitieux, permettant le renforcement des coopérations, la négociation de quotas, ou encore l’élimination de tarifs douaniers. L’Union européenne devrait également chercher à réduire les écarts de compétitivité, en particulier dans les hautes technologies et l’économie numérique, et plus globalement garantir des conditions de concurrence équitables entre les entreprises de l’Union européenne et les concurrents chinois.

Bien évidemment, l’Union européenne et la Chine doivent renforcer leurs liens commerciaux et d’investissement, mais sans naïveté, en recourant aux instruments de défense commerciale pour dissuader la Chine de prendre des mesures unilatérales dommageables.

Enfin, notre stratégie ne pourra faire l’impasse du recyclage, qui doit être considéré comme un pilier essentiel de l’offre en matières premières critiques. Il convient d’une part d’accompagner les entreprises dans les démarches d’éco-conception des produits afin qu’elles réduisent leurs besoins en matières critiques (ou qu’elles les substituent) et d’autre part, d’allonger la durée de vie des produits afin que les matières critiques soient utiles plus longtemps.

 

Taxe carbone aux frontières de l’UE

À partir du 1er janvier 2026, les importateurs européens devront s’acquitter d’une taxe carbone aux frontières de l’Union européenne. Celle-ci va-t-elle renchérir les coûts de production pour les entreprises ? Pensez-vous que cette taxe est de nature à inciter les industriels européens à relocaliser leurs approvisionnements en matières premières à haute intensité de carbone ou, à l’inverse, qu’elle les encouragera à délocaliser leurs productions dans des zones où les normes environnementales sont plus légères, voire inexistantes (Maroc, Turquie..) ?

Le Carbon Border Adjustment Mechanism (MACF) ou la « taxe carbone aux frontières » s’inscrit dans un contexte de crise énergétique et d’un accroissement du différentiel de compétitivité entre l’Union européenne et le reste du monde. Le Medef soutient le principe d’une taxe carbone ambitieuse aux frontières, mais avec une surveillance forte pour éviter son contournement par nos partenaires commerciaux. Le texte de l’Union européenne ne répond toutefois pas entièrement aux inquiétudes des industriels, notamment sur les risques de contournement, et fera peser de nouvelles lourdeurs administratives sur les importateurs.

La mise en œuvre du MACF s’accompagnera d’une élimination progressive des « quotas gratuits » qui pèsera sur la compétitivité des exportations européennes face à une concurrence étrangère qui n’aura pas essuyé le même coût du carbone en amont. Rexecode entrevoit une dégradation des comptes d’exploitation des entreprises de l’ordre de 45 milliards d’euros par an au niveau européen, et 4 milliards en France. Le MACF représente une perte de marges estimée à 2,1 milliards pour l’industrie française (soit une baisse de 2,7 % du résultat courant avant impôts). La mise en route du MACF menacerait plus de 37 500 emplois industriels, soit 1,5 % du total des emplois industriels en France.

Les risques de délocalisation dépendront des mesures adoptées pour lutter contre le contournement. Le MACF ne couvre que quelques grands intrants industriels, et non l’ensemble des chaînes de valeur. Si l’aluminium étranger produit hors de l’Union européenne sera bien taxé à la frontière, un produit fini ou semi-fini à base d’aluminium et transformé hors de l’Union européenne échappera au MACF.

L’importateur européen n’aura donc pas à en acquitter le coût du carbone, ce qui peut l’inciter à opter pour cette solution plutôt que de se tourner vers la filière de fabrication française qui aura payé un coût du carbone dans tous les cas de figure. Dans les prochains mois, il sera donc essentiel de faire un suivi précis et de mener des évaluations régulières pour corriger toute conséquence négative sur notre tissu industriel et les emplois, ainsi que sur notre compétitivité à l’export.

Ce texte est ainsi loin de résoudre toutes nos difficultés. C’est pourquoi il faut mobiliser l’ensemble des leviers pour réindustrialiser notre continent, tels que l’assouplissement des règles sur les aides d’État, le financement de l’innovation bas carbone et l’adaptation des formations pour répondre aux besoins des entreprises.

 

Crise du logement

En 2023, la crise du logement s’est installée en France. Les taux d’emprunt ont continué à monter, les ventes de logements neufs ont chuté de 30 %, les délivrances de permis de construire ont baissé de 23 %, les prix des loyers ont augmenté dans la majorité des grandes villes. Dans le secteur du bâtiment, 180 000 emplois sont menacés dès cette année, 500 000 d’ici à 2025. Les pouvoirs publics ont-ils pris conscience de la situation ? À quel point cette crise affecte-t-elle le fonctionnement du marché européen ? Que préconisez-vous pour sortir de la crise actuelle ?

Le logement, c’est le socle de la cohésion, une condition essentielle du dynamisme économique et du bien-être de nos concitoyens. Sans possibilité de loger à hauteur des besoins nos salariés, nous ne pourrons pas continuer à assumer la volonté de retour au plein-emploi qui est la nôtre.

Dans un contexte économique marqué par le renchérissement du coût des matières premières et la hausse des taux d’intérêts, la situation du logement en France est aujourd’hui critique. La situation ne fait que de s’aggraver, notamment sous le coup de décisions prises sans concertation avec les acteurs économiques : le zéro artificialisation nette (ZAN), la révision tous azimuts des documents de planification urbaine, et la chute de la délivrance des permis de construire.

En un an, la production de logements a chuté de 20 %. Ce sont 100 000 logements manquants qui sont venus s’ajouter aux 600 000 logements abordables non construits. Pour nous, chefs d’entreprise, il nous faut répondre aux besoins en logement des salariés, là où sont les emplois, c’est-à-dire largement dans les métropoles, et ne pas imaginer que les emplois vont miraculeusement se déplacer dans les zones détendues, hors marché, plus difficiles d’accès.

La crise du secteur de la construction se propage dans toute l’Europe, alors que le secteur est un pilier de l’économie, il pèse 6 % du PIB de l’Union européenne et emploie 14 millions de personnes. Le ralentissement est particulièrement marqué en Allemagne où l’indice de production – prenant en compte les logements, mais aussi les magasins, usines et autres bâtiments à usage professionnel – est en chute de plus de 6 points depuis la guerre en Ukraine.

Il est encore temps d’agir pour sortir de la crise et les réponses à apporter devront être en grande partie nationales. C’est pour cette raison que le Medef propose d’organiser avec les pouvoirs publics une conférence annuelle sur le logement avec pour but de passer en revue, territoire par territoire, les objectifs de production, les réglementations contreproductives et les réalisations effectives. Le logement est la pièce maîtresse de nos équilibres économiques, personnels et collectifs. La relance d’une politique de logement est plus que jamais d’actualité.

 

Éco-sabotage

L’année 2023 a été particulièrement marquée par les actions de blocage ou de sabotage d’activités économiques intentées par des collectifs radicaux comme Soulèvements de la Terre ou Extinction Rébellion. Occupations de cimenteries, destructions de mégabassines, mobilisations contre l’autoroute A69, leurs initiatives montent en puissance. Avez-vous estimé le bilan économique et social de leurs destructions ? Représentent-ils un danger réel pour la croissance et l’emploi en France ? En Europe ?

Je tiens à condamner fermement les actions de blocage ou de sabotage d’activités économiques intentées par des collectifs radicaux. Ces actes sont inadmissibles, inquiétants et préjudiciables à tous. Manifester est un droit, saccager est un délit. Il existe des voies de recours légales pour tous les projets d’infrastructures. C’est valable pour l’A69, pour le Lyon-Turin et pour tous les autres projets. Il est très difficile d’estimer précisément le bilan économique des destructions, mais cette flambée de violence a bien évidemment de graves conséquences économiques et sociales. Cela se traduit non seulement par d’irréparables pertes d’exploitation pour les entreprises touchées, pouvant conduire à du chômage partiel, voire à des destructions d’emplois. Cette situation se traduit aussi par une dégradation de l’image de la France qu’il faudra redresser.

Au Medef, cela ne vous étonnera pas, nous ne croyons pas à la thèse de la décroissance. Nous pensons même qu’elle est fondamentalement destructrice pour la cohésion sociale. Pourtant, nos objectifs sont communs : assurer l’avenir de la planète. Mais nos solutions divergent. Nous sommes convaincus que seule une croissance responsable permettra de relever le défi climatique en finançant les investissements et en assurant l’acceptabilité sociale de cette nécessaire transition. La croissance responsable, c’est non seulement la condition absolue pour financer la décarbonation de l’économie mais aussi pour continuer à créer des emplois, soutenir le pouvoir d’achat et maintenir l’équilibre de nos régimes sociaux.

 

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

« Plan 15 000 » : un projet ambitieux mais inefficace pour les prisons françaises

Un article de l’IREF.

« Nous construirons 15 000 nouvelles places de prison ». La promesse de campagne d’Emmanuel Macron, en 2017, a débouché à l’automne 2018 sur un vaste plan de création de places en établissements pénitentiaires, le « Plan 15 000 » pour 2027. Un second plan est également lancé, prévoyant la construction de vingt centres éducatifs fermés (CEF) de deuxième génération pour les mineurs. Alors que la mi-parcours est passée, le rapporteur spécial des crédits de la mission « Justice », Antoine Lefèvre, dresse un bilan amer du projet.

La situation carcérale française est une épine dans le pied de chaque nouveau président : le nombre des détenus explose, la radicalisation en prison prospère, les injonctions et les condamnations internationales somment la France de prendre des mesures pour respecter les droits de l’homme. Au cours des dernières décennies, plusieurs plans avaient déjà été déployés mais aucun ne s’était révélé capable d’anticiper les besoins croissants de places en établissements pénitentiaires. Celui d’Emmanuel Macron se distinguait par son importance et pouvait laisser croire qu’une réforme du système pénitencier était imminente.

Un plan de construction insuffisant

Mais voilà, bien souvent les rapports du Sénat sonnent le glas des politiques hasardeuses, et c’est le cas en l’espèce. Le rapporteur est formel : « (…) En dépit de ses ambitions initiales, le Plan 15 000 ne permettra pas seul de remédier durablement à la dégradation des conditions de détention et de travail pour les personnels de l’administration pénitentiaire. Même si le plan venait à être achevé en 2027, ce qui apparait peu probable, les capacités du parc pénitencier seraient déjà saturées ». Et pour cause : la prévision de 75 000 détenus en 2027 s’est réalisée dès 2023 ! Pendant la période du Covid, un assez grand nombre de détenus ont été libérés mais une fois la crise sanitaire passée, les enfermements ont repris à un rythme encore plus soutenu, avec une hausse de près de 20% depuis 2020. En janvier 2022, le taux de densité carcérale était de 115%, plaçant la France au troisième rang européen derrière Chypre et la Roumanie. Avec une telle densité, il est quasi impossible de respecter le principe d’encellulement individuel ; l’objectif de 80% est ainsi repoussé de législation en législation, quelle que soit la couleur politique du garde des Sceaux. Les conséquences de la surpopulation carcérale sont pourtant connues : violences, manque d’hygiène, trafics facilités, radicalisation soutenue, réinsertion compromise… La contrôleuse générale des lieux de privation de liberté (CGLPL), Dominique Simonnot, dénonce dans son dernier rapport annuel « un abandon de l’Etat » : « On a laissé la prison se substituer aux asiles d’antan, enfermant dans ses murs plus de 30% de prisonniers atteints de troubles graves. Voilà comment, à leur corps défendant, surveillants et détenus ont, en quelque sorte, été contraints de se muer en infirmiers psychiatriques ». Les établissements pour peine respectant globalement ce principe, ce sont les maisons d’arrêt qui suscitent l’inquiétude, le taux d’encellulement individuel y évoluant autour de 20%[1].

Un budget intenable et des délais qui explosent

Face à ces défis, l’argent est le nerf de la guerre. Et d’argent, on ne manque pas, à tel point que le budget initial a pu être rehaussé de deux milliards d’euros sans que quiconque s’en émeuve. Les premières annonces ministérielles annonçaient 3,6 milliards, avant de grimper rapidement à 4,3 milliards ; et en juin 2022, la direction du budget a relevé encore la facture à 5,4 milliards d’euros. Un an après, le rapporteur estime que le coût du Plan 15 000 sera d’au moins 5,55 milliards d’euros, soit 30% de plus que le coût d’abord prévu. S’agissant des centres éducatifs fermés, on est passé de 30 millions d’euros à plus de 76 millions dans le dernier budget… avant que le rapporteur ne l’estime à au moins 110 millions d’euros ; et nous ne sommes qu’à mi-chemin. Plus le calendrier de livraison s’allonge, plus les coûts explosent. Moins de la moitié des places prévues a pu être livrée, avec (pour l’instant) un retard de deux ans sur le calendrier initial. La maison d’arrêt de Basse-Terre (Guadeloupe) sera par exemple livrée avec plus de sept ans de retard.

Le sénateur Antoine Lefèvre formule une douzaine de recommandations suivant trois principes : « Anticiper, s’adapter et évaluer ». Est-il possible que cette approche élémentaire n’ait pas été celle des politiques publiques ? La réponse est évidemment oui, et la précision des recommandations frise le ridicule, telle que celle d’équipes-test sur chacun des chantiers engagés. En effet, « il est difficilement admissible qu’un établissement pénitencier tout juste livré nécessite de lourds travaux d’aménagement pour remédier à des failles de sécurité ou de fonctionnement, telles que l’installation de fenêtre pouvant être ouvertes en moins de deux minutes à l’aide d’un coupe-ongle acheté au supermarché ». Coût du changement des châssis des fenêtres du centre pénitentiaire Mulhouse-Lutterbach : 600 000 euros. Et de citer d’autres « erreurs de conception » : par exemple, des boutons « sécurité incendie » ouvrant toutes les portes et accessibles à tous dans un centre éducatif fermé …

Le chantier des établissements pénitentiaires est donc colossal. Alors qu’un détenu coûte 100 euros par jour au contribuable, l’IREF appuie la proposition du député Eric Pauget (LR) de faire payer aux détenus une partie significative de leurs frais d’incarcération. Ajoutons qu’il n’y a rien de surprenant à ce que le suivi des chantiers soit négligé lorsque le futur gérant de la prison est une administration. La privatisation des prisons permettrait sans doute de réduire fortement les coûts de construction et de réduire les délais. Plusieurs pays s’y sont déjà essayés : le Royaume-Uni, l’Australie et les Etats-Unis. La gestion privée demeure « incontestablement plus simple que la gestion publique », ainsi que le relève la Cour des comptes.

Sur le web.

L’illusion des e-carburants : le miroir aux alouettes énergétique

Par : Michel Gay

Les e-fuels, aussi appelés e-carburants ou carburants de synthèse, sont reconstitués à partir d’eau, d’électricité décarbonée (nucléaire, hydraulique, éolien et solaire…) et de gaz carbonique (CO2).

Ils pourraient représenter une remarquable solution durable de substitution au pétrole (et à ses dérivés), ainsi qu’au gaz, dans les secteurs les plus difficiles à décarboner en « électrifiant » indirectement les transports aériens, maritimes, les camions et les voitures, tout en créant de l’activité en France et des emplois industriels.

Euréka ! Extraordinaire ! Révolutionnaire ! Miraculeux !

Hélas, il y a des obstacles rédhibitoires et des désillusions sur la route qui mène au Graal d’un monde sans combustibles fossiles…

 

La mariée est belle !

L’idée lumineuse est de faire croire qu’il sera possible de remplacer les énergies fossiles (notamment gaz et pétrole) par ces e-fuels constitués d’hydrogène issu d’électrolyse, et de carbone issu de monoxyde de carbone (CO), ou de dioxyde de carbone (CO2) récupéré de l’industrie (à la sortie d’une usine de ciment par exemple), ou dans l’air ambiant.

Ces e-fuels liquides ou gazeux ont un atout de taille : ils ont l’avantage de pouvoir être utilisés directement dans les moteurs à combustion interne existants sans modifications majeures, puisqu’ils sont quasiment identiques aux carburants fossiles.

Et le CO2 émis dans l’atmosphère lors de leur combustion est équivalent au CO2 capturé qui, sans cette capture, serait directement diffusé dans l’air.

Ces e-fuels, « vecteurs d’énergie électrique », pourraient aussi fournir les réactifs pour l’industrie chimique (plastiques, etc.) et recycler le CO2 non évitable émis par certaines industries comme les cimenteries.

Certains e-fuels sont déjà certifiés et incorporés en faibles quantités dans l’industrie et les transports aériens, maritimes et terrestres.

La localisation en France de la chaîne de valeur de production de carburants et combustibles réduirait les risques d’approvisionnement (en se substituant aux énergies fossiles importées), et améliorerait aussi la balance commerciale, ainsi que la souveraineté énergétique.

Ces avantages pourraient compenser leur coût de revient industriel qui serait environ deux fois plus élevé que leurs équivalents fossiles.

Le modèle financier est encore incertain. Les e-fuels devront faire face à la concurrence commerciale mondiale fondée sur des énergies fossiles relativement bon marché. Ces dernières doivent être extraites et raffinées mais existent déjà « gratuitement » dans le sous-sol de la Terre (il suffit de les récupérer) alors que les e-fuels sont coûteux à fabriquer.

Hélas, la fabrication industrielle de ce « fabuleux » e-fuel nécessite beaucoup trop d’électricité et de CO2 pour répondre aux besoins de la France (et encore plus à ceux de l’Europe et du monde).

 

Un énorme besoin d’électricité et de CO2

Aujourd’hui, les 24 projets identifiés par SIA Partners de production d’e-fuels en France (dont le coût prévisionnel s’élève déjà à 3,6 milliards d’euros) représentent seulement environ 0,5 million de tonnes d’équivalent pétrole (Mtep) par an à l’horizon 2030 (environ 0,25 Mtep d’e-méthanol et 0,25 Mtep d’e-kérosène).

Pourtant, cette quantité minime (0,5 Mtep, soit un centième des 50 Mtep consommées uniquement par les transports) nécessiteront 14 térawattheures (TWh) d’électricité bas carbone par an du mix électrique français, soit presque deux EPR (le procédé d’électrolyse de l’eau représente 85 % de la consommation, et la synthèse des e-fuels 15 %), et 1,7 million de tonnes (Mt) de CO2 par an.

Or, en France, la production annuelle d’électricité est d’environ 500 TWh, et le gisement de CO2 industriel non évitable produit principalement par des industries lourdes comme le ciment (dont les réductions d’émissions induisent des coûts prohibitifs) est estimé par SIA Partners à 12 Mt.

Mais d’où proviendraient alors les énormes quantités d’électricité et de CO2 nécessaires si les e-fuels avaient vocation à remplacer les énergies fossiles (carburants pour les véhicules et combustibles pour le chauffage) ?

 

Des problèmes insolubles à l’horizon 2030…

À longue échéance, une production significative d’e-fuels multipliée par environ… 50 (!) pour commencer à répondre aux besoins de la France fera émerger des problèmes insolubles d’approvisionnement en électricité et en CO2.

Par exemple, remplacer par des e-fuels les 50 Mtep de carburants fossiles consommés actuellement dans nos seuls véhicules en France supposerait de construire… une centaine de réacteurs nucléaires EPR pour produire l’électricité nécessaire à leur synthèse.

Il serait également nécessaire d’extraire 165 Mt de CO2 par an d’une production nationale de 240 Mt de ciment en France pour capter une telle quantité de CO2 (voir explications en annexe).

Or, la production totale française de CO2 est actuellement de moins de… 17 Mt (en 2017), soit 7 % du besoin en CO2.

Une autre source est parfois évoquée : le captage directe de CO2 dans l’air (DAC). Mais elle nécessite des moyens gigantesques techniquement et financièrement impossibles au niveau requis pour la France. Elle ne présente donc aucun intérêt, même lorsque le CO2 industriel ou biogénique est peu disponible localement (explications en annexe).

Pour faire bonne mesure, il faudrait aussi remplacer les combustibles (gaz et fuel) nécessaires pour le chauffage des logements dont encore plus de la moitié (54 %) sont chauffés au gaz et au fuel (27 Mtep, soit 330 TWh) et représente environ la moitié de la consommation d’énergies fossiles des transports. Ce chauffage pourrait être avantageusement directement électrifié pour éviter les pertes (50 %) de transformations en e-fuels.

Le développement de la filière est donc impossible à cause des ressources insuffisantes en électricité et en CO2 qui représentent un insurmontable goulot d’étranglement au moins pour un siècle.

 

Un rêve ruineux assis sur des subventions

Les e-fuels, aujourd’hui poudre de perlimpinpin, deviendront peut-être un jour un petit complément coûteux à la consommation d’énergies fossiles au-delà de ce siècle.

Mais produire des e-fuels pour remplacer majoritairement les énergies fossiles restera ruineux et industriellement utopique au cours de ce siècle. Personne ne sait encore comment trouver les énormes quantités d’électricité et de CO2 nécessaires à la fabrication de ces e-fuels pour remplacer seulement un quart de la consommation de carburant du transport en France.

Cependant, cet idéal merveilleux du recyclage perpétuel du CO2 en e-fuel grâce à de l’eau, du nucléaire, du vent et du soleil, permettra à quelques-uns de rêver longtemps (mais attention aux désillusions…).

Quelques autres (commerciaux, ingénieurs, producteurs de e-fuels) qui cherchent aujourd’hui des « soutiens » (subventions) par des mécanismes liés au développement de l’industrie verte, pourront peut-être vivre de recherches subventionnées pendant des décennies…

L’e-fuel, ça sonne bien, c’est beau, et c’est politiquement correct pour faire croire que l’humanité pourra s’extraire de la consommation des énergies fossiles. Mais c’est, hélas, inefficace et idiot pour encore au moins un siècle !

Annexe

 

Quelques chiffres à placer en face des mots…

La physique et la chimie (CO2 + 3H2 à CH3OH + H2O) indiquent que la production d’une tonne de méthanol (CH3OH) nécessite environ 1,4 tonne de gaz carbonique (CO2) et 0,2 tonne d’hydrogène (H2), lui-même fabriqué industriellement avec au moins 11 MWh d’électricité et de l’eau (H2O).

En résumé, 1 tonne de e-méthanol nécessite 1,4 t CO2 + 11 MWhe

Pour information :

  • 1 t de e-méthane nécessite 2,9 t CO2 + 33 MWhe
  • 1 t de e-kérosène nécessite 3,7 t CO2, 28 MWhe

 

Production d’électricité

La production d’un kilogramme (kg) d’hydrogène par électrolyse (qui contient 33 kWh d’énergie et occupe un volume de 11 m3 à la pression atmosphérique) nécessite, en pratique industrielle, entre 55 à 66 kWh d’électricité.

Le coût de production de l’hydrogène ainsi obtenu serait de 4 €/kg à 7 €/kg selon le coût initial de l’électrolyseur et le temps de fonctionnement sur une année.

Le coût moyen serait d’environ 5 €/kg pour un coût d’électrolyseur de 1,2 million d’euros par mégawatt installé, 7000 heures de fonctionnement par an (80 % du temps), et un coût d’électricité à 70 €/MWh.

Un kg de méthanol (qui ne contient que 5,5 kWh d’énergie) mais qui a nécessité plus de 11 kWh d’électricité, comprend donc au minimum 0,77 € d’électricité.

La cimenterie Vicat de Montalieu-Vercieu vise la production optimiste de 125 000 tonnes par an d’e-méthanol dès 2025 grâce à un électrolyseur d’une puissance de 180 MW, soit une consommation de 1,6 TWh/an, dans l’hypothèse d’un fonctionnement continu (facteur de charge égal à 100 %).

Utiliser uniquement les surplus des pics de production des énergies renouvelables intermittentes (EnRI) quand il y a du vent et du soleil pour profiter de prix faibles influence grandement le temps de fonctionnement annuel des électrolyseurs et leur rentabilité.

De plus, si l’alimentation en électricité est fournie par des EnRI, l’effet d’un fonctionnement variable et intermittent sur la durée de vie des électrolyseurs n’est pas connu. Les quelques unités actuelles fonctionnent industriellement en régime permanent.

Produire de l’hydrogène seulement lorsque les prix de l’électricité sont bas pendant les périodes de surproduction des énergies renouvelables serait techniquement coûteux, voire impossible, même avec un stockage tampon d’hydrogène comprimé à chaque électrolyseur (qui a aussi un coût) pour fonctionner un ou plusieurs jours en autonomie.

Par MW installé, les électrolyseurs alcalins industriels produisent environ 180 tonnes d’hydrogène par an (soit 0,5 tonne par jour (t/j) et par MW) qui permettent théoriquement de produire 960 tonnes de méthanol.

En tenant compte du rendement global (environ 80 %) et des arrêts pour entretien, la production annuelle des électrolyseurs serait de 760 tonnes de méthanol par MW installé, soit une moyenne d’environ 2 t/j d’éthanol par MW d’électrolyseur.

 

Extraction du CO2

Il faudra aussi ajouter le coût d’achat ou d’extraction du CO2 encore inconnu (qui ne sera certainement pas gratuit), l’amortissement des unités de synthèse, et le coût de fonctionnement de l’ensemble (personnel, entretien…).

Le CO2 biogénique issu de procédés mettant en jeu de la biomasse (biogaz, biocarburants, pâte à papier, déchets organiques, bois-énergie, cogénération, etc) ne représente que 2 % (1 Mt), et les 76 % restants (40 Mt) proviendraient de CO2 industriel évitable.

Afin de minimiser les coûts et les émissions liés au processus de captage de CO2, les principaux projets d’e-fuels sont aujourd’hui situés à proximité de complexes industriels fortement émetteurs de CO2.

La région des Hauts-de-France concentre le plus gros gisement captable de CO2 (15 Mt par an), notamment du fait de sa production industrielle d’acier, devant la région de Provence-Alpes-Côte- d’Azur et son hub industriel avec 11 Mt.

Le projet Reuze, situé à proximité de la zone industrielle de Dunkerque, vise à valoriser 300 000 tonnes de CO2 par an (800 tonnes par jour) à partir des émissions des installations de sidérurgie d’ArcelorMittal, avec un objectif de production de plus de 100 000 tonnes de carburants et de naphta par an.

L’utilisation du CO2 industriel non évitable, ou biogénique (produit par la décomposition de matières organiques) est considéré comme neutre pour le climat, car il est issu d’un cycle court du carbone.

 

Les quantités en jeu

La consommation annuelle d’énergie du transport en France atteint 50 Mtep (représentant aussi 600 TWh d’énergie), soit 140 000 tep/jour, (1,65 TWh/j).

Or, il faudrait 110 Mt de méthanol (contenant seulement 5,5 TWh d’énergie) par an pour remplacer uniquement le pétrole importé pour le transport, soit 300 000 t/j nécessitant environ 50 000 t/j d’hydrogène combinées à 450 000 t/j de CO2… par jour.

Un réacteur nucléaire EPR de 1600 MW couplé à des électrolyseurs permettrait de produire 3200 t/j de méthanol (consommant 40 000 MWh d’électricité par jour).

Remplacer la totalité des carburants fossiles consommés actuellement dans nos seuls véhicules en France par des e-fuels supposerait de construire… une centaine (!) de réacteurs nucléaires EPR pour produire l’électricité nécessaire à la synthèse de ces 300 000 t/j de méthanol… sans compter les combustibles (gaz et fuel) nécessaires pour le chauffage des habitations.

 

Le captage direct de CO2 dans l’air (DAC)

L’air ambiant au niveau de la mer pèse 1,3 kg par m3 et contient 0,04 % de CO2 (0,5 gramme par m3). Des aspirateurs électriques et des filtres gigantesques devraient traiter chaque jour 9000 milliards de m3 (près de 12 milliards de tonnes d’air en supposant que tout le CO2 soit capté) pour extraire quotidiennement ces 450 000 tonnes de CO2

La consommation électrique d’une telle « usine à gaz » devra être gigantesque, sachant qu’un réacteur d’un Airbus A380 à pleine puissance (40 MW) n’aspire « que » 100 000 t/j d’air, il en faudrait donc… 120 000 ! (4800 gigawatts (GW) de puissance, alors que la totalité du parc nucléaire en France ne représente que 63 GW).

Les effluents gazeux de l’industrie du ciment contiennent de 14 à 33 % de CO2 en masse et produisent entre 630 et 760 kg de CO2 par tonne de ciment (selon les différentes régions du monde).

En prenant une moyenne de 0,7 tonne de CO2 émis par tonne de ciment, il faudrait produire 650 000 tonnes de ciment chaque jour en France pour capter.

Or, la production française de ciment est de moins de 50 000 tonnes par jour (17 millions de tonnes en 2017), soit actuellement 7 % du besoin en CO2.

 

Les coûts

Une estimation grossière aboutit à environ 1,2 €/kg de méthanol, soit 0,22 €/kWh au minimum à la sortie de l’unité, alors que ce coût est de 0,05 €/kWh pour l’essence ou le diesel.

En effet, ce kg de méthanol contient deux fois moins d’énergie (5,5 kWh) qu’un kg d’essence ou de diesel (12 kWh) dont le coût de production est d’environ 0,6 € à la sortie de la raffinerie.

Le coût de production énergétique du méthanol est donc au moins 4 fois plus élevé que celui de l’essence.

En maintenant les taxes sur les carburants au niveau actuel (presque 1,5 € par litre d’essence contenant 10 kWh, soit 0,1 €/kWh), il faudra payer 3,7 € pour l’équivalent énergétique en méthanol (10 kWh x 0,22 €/kWh + 1,5 € de taxes), contre 2 € aujourd’hui pour un litre d’essence ou de diesel.

La création monétaire peut-elle sauver la planète ?

Le Ministère du futur est le titre du dernier livre de Kim Stanley Robinson, un grand auteur de science-fiction qui se revendique de la gauche et de l’utopie.

 

L’avenir, c’est le passé

La thèse qu’il défend dans ce roman est que nous n’avons plus le temps d’inventer un modèle économique alternatif pour assurer « la survie de la biosphère ». La seule approche réaliste pour y parvenir serait de recycler d’urgence « de vieilles idées en les poussant plus loin ».

À ses yeux, John Maynard Keynes est l’auteur de la principale de ces vieilles idées lorsqu’il énonce qu’étant à l’origine de la création monétaire, les banques centrales ont la capacité de l’orienter pour résoudre le problème le plus grave du moment, soit le chômage hier et le changement climatique aujourd’hui.

Jézabel Couppey Soubeyran n’a peut-être pas lu Le Ministère du futur, mais la tribune qu’elle a signée récemment dans Le Monde suit la même piste.

Elle y souligne à juste titre que bien des dépenses nécessaires à la transition écologique ne sont a priori pas rentables. On note, ce qu’elle ne fait pas, que c’est déjà le cas de toutes les dépenses régaliennes et de bien d’autres qui, elles aussi, nécessitent un financement public.

La difficulté est que déjà très dégradées, les finances publiques de la plupart des pays, et de la France en particulier, ne sont pas à même de prendre en charge ces dépenses supplémentaires.

 

Le retour de la planche à billets

Qu’à cela ne tienne !

Si on voit les choses de très haut, comme le font des adeptes de la macro-économie, on peut agir sur le système économique en maniant deux types de levier.

Le premier est l’impôt. C’est la voie qu’emprunte le rapport Pisani-Ferry en prônant la création d’un « ISF vert ». Le moins qu’on puisse dire est que cette proposition passe mal dans un pays déjà très surtaxé.

D’où l’idée de recourir à la monnaie qui est le deuxième levier. Jézabel Couppey Soubeyran s’en saisit en proposant la création, autant qu’il le faudra, de « monnaie sans dette » par les banques centrales qui s’uniraient dans un même élan de coopération pour vaincre l’hydre climatique.

 

Haut les cœurs !

En effet, selon elle, la monnaie-dette, « pilier du capitalisme », « exclut les investissements socialement ou environnementalement indispensables ».

Il faut donc se libérer de ce carcan, en désencastrant la création de monnaie du marché de la dette, c’est-à-dire en l’émettant jusqu’à plus soif, sans contrepartie. Dans cette hypothèse, il va de soi que les banques centrales perdraient leur indépendance, alors qu’elle est la seule garantie d’un minimum de stabilité monétaire. Elles seraient purement et simplement aux ordres des autorités politiques.

Il suffisait d’y penser, en ayant soin d’occulter les échecs flagrants du passé, comme la faillite du système de Law ou le naufrage des assignats.

Pourquoi d’ailleurs, comme le préconise aussi Kim Stanley Robinson, ne pas pousser plus loin cette idée en mettant la création monétaire, non seulement au service de la lutte contre le réchauffement climatique, mais aussi à celui de tous les objectifs collectifs (fixés par qui ? comment ?) dès lors qu’on peut les placer « sous les signes du non marchand, du social et de l’écologie » ?

Force est d’ailleurs de constater que le périmètre de ces dépenses indispensables mais estimées non rentables, et donc à financer par création monétaire, n’est jamais clairement défini par la tribune. Une bonne part de celles qu’elle pointe, comme le traitement des eaux usées ou la collecte des déchets, sont d’ailleurs déjà très bien assurées par des groupes privés.

En tout état de cause, la frontière entre les activités qui à un moment donné sont rentables et celles qui ne le sont pas n’est pas fixe. Elle ne cesse d’évoluer sous l’influence des forces du marché qui n’est pas une « fabrique du diable » comme le prétendent ceux qui se réclament de Karl Polanyi, mais le processus le plus apte à trouver des solutions viables.

 

La Gosbank revisitée

Si on suit madame Couppey Soubeyran, comme au bon vieux temps de l’URSS, les banques centrales émettraient donc de la monnaie sans contrepartie et sans motif autre que l’exécution des directives d’une autorité de planification centralisée.

La somme correspondante serait alors inscrite sur le compte d’une société financière publique (dirigée par qui ? selon quelles règles ?) qui distribuerait la manne pour réaliser des projets d’investissement, sélectionnés justement parce qu’ils ne sont pas rentables.

Les Shadoks ne sont pas loin.

 

Taxer pour éponger

Surgit alors sous la plume de l’auteure une question candide : faut-il craindre que cela soit inflationniste ?

Elle reconnaît bien volontiers que ça le serait inévitablement, d’autant plus qu’à la différence de la monnaie standard qui disparaît quand la dette sous-jacente est remboursée, celle-ci aurait une durée de vie illimitée et s’accumulerait indéfiniment.

Alors que faire ? Sans surprise, la réponse est de taxer in fine tout ce qui peut l’être pour retirer cette monnaie du circuit, dès lors qu’elle devient trop abondante. Sorti par la porte, l’impôt revient par la fenêtre.

 

Faire confiance aux mécanismes de marché

Pour ne pas alourdir encore une charge fiscale devenue contre-productive, ce sont les dépenses publiques actuelles qu’il faut parvenir à diminuer et à réorienter grâce aux marges de manœuvre ainsi dégagées.

Il faut aussi faire confiance aux innovateurs dont les réalisations dégageront les gains de productivité indispensables pour faire face à de nouvelles dépenses.

L’approche par « la monnaie, sans dette » n’est qu’une énième version d’une antienne bien connue, selon laquelle le capitalisme agresse l’avenir, alors qu’il a engendré une « prospérité de masse » (Edmund Phelps) dont bénéficie le plus grand nombre dans les pays industrialisés.

Pour que celle-ci perdure, il faut laisser l’économie de marché trouver les solutions pertinentes dont la mise en œuvre passe par la fixation d’un prix unique du carbone et par l’essor de nouvelles technologies permettant de réduire les émissions de CO2.

Le salut se situe aux antipodes des solutions constructivistes prônées par les économistes hétérodoxes.

Au nom de ce qu’ils estiment être « le bien commun », ceux-ci osent tout.

C’est même à cela qu’on les reconnaît.

Taxe carbone : sauver le climat par le marché ?

Dans son quatrième rapport publié le 23 octobre, le Conseil national de productivité revient sur la performance économique française de ces derniers mois, les effets de l’optimisation fiscale sur la productivité et les actions pour le climat qui lui paraissent nécessaires à l’atteinte des objectifs de transition énergétique.

Sur ce dernier point, le rapport est particulièrement approfondi et mérite une lecture attentive.

En premier lieu, le rapport indique :

« Les études […] suggèrent que l’impact à long terme de la transition climatique sur la productivité serait négatif (respectivement positif) sans (respectivement avec) une innovation technologique et des investissements adaptés ».

De plus :

« En ce qui concerne l’impact de la transition sur la compétitivité, il est fort probable que la profitabilité des entreprises françaises et européennes et leur compétitivité seront dégradées dans une première phase, dans un scénario où seuls ces pays mettraient en place des mesures suffisantes pour atteindre la neutralité carbone en 2050. Elles pourraient rebondir à l’aune de nouveaux investissements qui allieraient gains de productivité et baisse des coûts de production, à condition cependant que la base productive ne se soit pas trop dégradée dans la première phase de perte de compétitivité. »

Le rapport s’inscrit donc dans le consensus actuel pouvant être résumé ainsi avec d’autres mots : la transition énergétique nécessitant « forçage réglementaire » de l’économie (c’est-à-dire la mise en place d’incitations réglementaires pour modifier les modes de productions et de consommations « spontanés »), cette modification pilotée de trajectoire s’inscrit par nature dans un optimum économique dégradé, sinon, au contraire, les changements seraient spontanés.

Mais ce faisant, elle suppose un investissement majeur dont les effets à termes pourrait être positif sur la productivité et l’innovation. Au final, l’impact sur la croissance dépendra de la forme de cette « courbe en U » et pourrait être positif si l’étape de dégradation n’est pas trop destructrice au départ et celle de l’innovation se révèle in fine efficace en termes de productivité.

 

Orienter l’offre ou la demande, les outils de l’État

Pour ce faire, l’État dispose d’outils permettant d’orienter l’offre ou la demande vers un équilibre moins polluant (réindustrialisation, subventions, normes, etc.).

Le rapport suggère d’en développer un nouveau qui consisterait en une contribution carbone sur les produits de grande consommation finale en fonction de leur contenu carbone sur l’ensemble du processus de production, avec une hausse préalable des revenus des ménages afin de préserver leur pouvoir d’achat, tout en contribuant à une réduction des inégalités.

Une évaluation de l’impact de ces mesures le chiffre à une réduction des émissions de 19 % pour un taux de taxe de 100 euros la tonne carbone sur les produits agro-alimentaires pour un taux de taxe médian de 4,8 %. Et avec ces taxes appliquées aux autres produits finis de grande consommation, la contribution carbone pourrait contribuer à plus de la moitié de l’objectif de baisse des émissions carbone en orientant la demande vers des produits moins carbonés.

D’un point de vue théorique, l’internalisation du coût environnemental des émissions de CO2 dans les prix à la consommation qui revient à un principe pollueur / payeur, est à la fois « juste » et « optimal » en termes d’équilibre offre-demande. En pilotant le niveau de fiscalité, il permet de modifier cet équilibre dans le temps de manière progressive, ce qui en augmente l’acceptabilité côté consommateur et l’adaptation de la production côté offre.

La mise en place d’une contribution carbone sur les produits de consommation finale présente deux avantages :

  1. Elle permettrait de taxer les émissions sur l’ensemble de la chaîne de production sans pénaliser les productions locales puisque les biens et services importés y seraient soumis.
  2. Elle avantagerait les productions locales au contenu généralement moins carboné que les importations.

 

Pour éviter une hausse des prélèvements obligatoires, le rapport préconise une hausse du revenu (par exemple par la baisse des cotisations salariales et/ou hausse de certaines prestations et/ou baisse de la TVA).

Cette étude très intéressante parait aller dans la bonne voie, celle de la taxation des produits de consommation qui permettra l’internalisation des coûts cachés, une meilleure différenciation-prix et donc des incitations claires.

 

Pour autant, la proposition pourrait être utilement étendue.

En effet, le succès nous semble reposer sur trois points clé :

  1. La neutralité financière de la mesure
  2. Sa simplicité de mise en œuvre
  3. La capacité des consommateurs à faire des choix rendant la mesure acceptable

 

La neutralité financière est un objectif de la proposition du rapport. En revanche, la mise en œuvre via un mix fiscal (dont cotisations sociales) nous parait extrêmement complexe à mettre en place de prime abord, et à faire évoluer (car l’équilibre financier du système devra être mobile). La notion de choix et d’optimisation du consommateur semble respectée (capacité d’arbitrage entre produits) via la possibilité d’utiliser le surcroit de revenu entre produits de différents niveaux de taxation, le cas échéant en maximisant le pouvoir d’achat en renonçant à une proportion élevée de produits polluants.

 

En conclusion

La proposition fournit des éléments de discussions documentés permettant de faire progresser le débat.

Nous restons convaincus que la notion de « revenu de transition » est plus pertinente pour compenser le surcoût de la transition en général qu’un mix fiscal complexe et non directement visible par les bénéficiaires.

Une telle prestation généralisée serait calibrée pour couvrir la taxation carbone de l’ensemble des consommations (produits de grande consommation, mais aussi besoin de chauffage, de transports, etc.) mais aussi potentiellement les besoins de base (quantité d’eau/électricité minimum par personne par exemple, car la hausse des prix associée au choc d’offre de transition ne diffusera pas uniquement via les taxes carbones, mais aussi via les prix de production).

Financée par l’impôt et le regroupement de prestations existantes, elle constituerait aussi un choc de simplification de l’aide sociale, et son financement pourrait être aisément piloté.

Prix Nobel d’économie : Claudia Goldin et l’écart salarial hommes-femmes

En 2006, le prix Nobel d’économie fut remis à l’économiste Edmund Phelps pour ses travaux sur le marché du travail.

À cette occasion, comme pour tous les autres prix Nobel, les grands organes de presse ont écrit un article résumant les principales découvertes.

Dans le cas d’Edmund Phelps, ils nous ont rappelé qu’il a publié des articles académiques extrêmement critiques du salaire minimum et de la surrèglementation des marchés financiers.

L’Associated Press avait noté son opposition au salaire minimum.

Ceci est parfaitement conforme à ses positions. Cette année-là, notre prix Nobel avait écrit que « les lois sur le salaire minimum rendent les [travailleurs moins qualifiés] inabordables pour les employeurs respectueux des lois ».

Le professeur Phelps n’est pas un libéral sur toutes les questions – il s’était opposé aux baisses d’impôts du président Bush en 2001[i] – mais ses travaux académiques sont définitivement intéressants à éplucher en détail pour toute personne intéressée par les rouages du marché du travail.

 

La réception du prix Nobel d’économie 2006 en France

Si nous relisons les articles parus en 2006 à l’occasion de la remise du Prix Nobel à Edmund Phelps, en particulier celui de Jean-Paul Fitoussi dans Le Monde, ou celui de Christian Losson dans Libération, nous n’apprenons jamais qu’Edmund Phelps est opposé au salaire minimum.

Jean-Paul Fitoussi nous apprend que c’est à Phelps « que l’on doit la théorie du taux naturel de chômage » sans vraiment nous expliquer en quoi elle consiste. Les travaux sur le salaire minimum sont passés sous silence. Il est fait mention du fait qu’Edmund Phelps serait « néo-keynésien ».

De son côté, Christian Losson ne se risque pas à le rattacher à une école de pensée. Tout en assenant un certain nombre de contrevérités, il nous explique donc que c’est un « type inclassable ». Certes.

Je laisse le soin au lecteur de décider pour lui-même si ces deux personnes n’avaient pas lu les travaux dont elles parlent, ou si elles ont décidé de les cacher au public français…

 

Le prix Nobel d’économie 2023

Lundi dernier, le prix Nobel d’économie a été décerné à l’économiste de l’Université de Harvard, Claudia Goldin.

Le prix récompense donc une nouvelle fois des travaux sur l’économie du travail.

Le résultat à la fois le plus important et le plus controversé de Claudia Goldin est le fait que ses études rigoureuses de l’écart de salaire hommes-femmes montrent qu’il est… quasi-inexistant si l’on tient compte de tous les paramètres explicatifs !

En effet, s’il est bien connu qu’en moyenne, l’ensemble féminin des salariées gagne seulement 68 à 75% du salaire horaire de l’ensemble masculin des salariés, ce résultat est une analyse univariée : l’unique variable est le sexe.

Lorsque l’on se livre à une analyse multivariée – comme il se doit – on découvre que de nombreuses variables influent sur l’écart de salaire et le réduisent presque à néant.

En particulier, les femmes s’orientent naturellement vers des professions dont le salaire est plus faible et dont les horaires sont plus flexibles.

Elles choisissent également disproportionnellement des emplois dans l’éducation et la santé, emplois qui sont plus souvent fonctionnarisés que ceux des professions choisies par les hommes : elles sont ainsi pénalisées par l’écrasement de l’échelle des salaires de la fonction publique relativement au privé.

De plus, elles sortent plus souvent du marché du travail – pour élever leurs enfants – que ne le font leurs conjoints : comme l’explique la revue Science à propos de Claudia Goldin :

« Les hommes et les femmes sans enfants ont des revenus très similaires, mais l’arrivée des enfants entraîne une baisse forte et persistante des revenus des femmes, tout en ayant peu d’effet sur les hommes. »

Selon Claudia Goldin dans un article du site libéral EconLib :

« À mesure que de plus en plus de femmes entraient sur le marché du travail, bon nombre des nouvelles entrantes avaient très peu d’expérience sur le marché du travail et peu de compétences. »

Si les femmes ont tendance à rester sur le marché du travail une fois qu’elles y sont entrées, le grand nombre de nouvelles entrantes diluera continuellement l’expérience moyenne sur le marché du travail de toutes les femmes employées.

Diverses données démontrent que l’expérience professionnelle moyenne des femmes employées n’a pas beaucoup progressé entre 1950 et 1980, alors que les taux d’activité ont augmenté considérablement.

Les économistes James P. Smith et Michael Ward ont constaté que parmi les femmes actives âgées de quarante ans, par exemple, l’expérience professionnelle moyenne en 1989 était de 14,4 années, soit pratiquement aucune augmentation par rapport à l’expérience moyenne de 14,0 années en 1950.

Parce que les revenus reflètent les compétences et l’expérience des salariés, il n’est pas surprenant que le rapport entre les gains des femmes et ceux des hommes n’ait pas augmenté entre 1950 et 1980.

L’écart de rémunération entre hommes et femmes a considérablement diminué au cours des années 1980.

En 1989, le rapport entre les gains des femmes et ceux des hommes pour ceux qui travaillent à temps plein tout au long de l’année avait augmenté d’environ 8 points de pourcentage pour atteindre 68 %. Ainsi, au cours des neuf années allant de 1980 à 1989, 20 % de l’écart salarial préexistant entre les sexes avait été éliminé. De plus, l’ampleur de l’écart entre les sexes a été surestimée. En effet, les femmes travaillant à temps plein travaillent environ 10 % d’heures de moins que les hommes. Par heure travaillée, les femmes gagnent désormais environ 75 % de ce que gagnent les hommes.

Enfin, les hommes ont plus souvent tendance à poursuivre leurs études et à effectuer des heures supplémentaires accumulant ainsi relativement plus de capital humain.

Selon Claudia Goldin :

« Les individus exerçant certaines professions travaillent 70 heures par semaine et reçoivent bien plus du double des gains de ceux qui travaillent 35 heures par semaine. Mais ce n’est pas le cas dans d’autres professions. Certaines professions présentent une linéarité par rapport au temps travaillé tandis que d’autres présentent une non-linéarité (convexité). Lorsque les revenus sont linéaires par rapport au temps travaillé, l’écart entre les sexes est faible ; lorsqu’il y a non-linéarité, l’écart entre les sexes est plus élevé. » (ici)

Lorsque Claudia Goldin tient compte de tous ces paramètres, et compare les salaires horaires des deux sexes, il n’y a que 2 à 3 % d’écart de salaire entre les deux sexes.

Ses collègues de Harvard, Valentin Bolotnyy et Natalia Emanuel ont examiné (ici et ) les données de la Massachusetts Bay Transportation Authority (MBTA), une entreprise d’État complètement syndiquée, avec des salaires horaires uniformes où les hommes et les femmes adhèrent aux mêmes règles et reçoivent les mêmes avantages.

Les travailleurs sont promus sur la base de l’ancienneté plutôt que de la performance, et les travailleurs et travailleuses de même ancienneté ont les mêmes choix en matière d’horaires, d’itinéraires, de vacances et d’heures supplémentaires. Il n’y a donc pratiquement aucune possibilité pour un patron sexiste de favoriser les hommes par rapport aux femmes.

Et pourtant ! Même dans un tel cadre, les femmes gagnent 11 % de moins que les hommes.

Les conducteurs de train et de bus de sexe masculin effectuaient environ 83 % de plus d’heures supplémentaires que leurs collègues féminines, et étaient deux fois plus susceptibles d’accepter un poste de travail supplémentaire (qui est rémunéré à 150 %) dans un court délai. Environ deux fois plus de femmes que d’hommes n’ont jamais fait d’heures supplémentaires. Les travailleurs masculins prenaient chaque année 48 % d’heures de congé non rémunérées en moins en vertu de la loi sur le congé familial pour raisons médicales. Les travailleuses étaient plus susceptibles d’emprunter des itinéraires moins recherchés si cela impliquait de travailler moins de nuits, de week-ends et de jours fériés, tous payés davantage.

Si l’on tient compte du fait que « les femmes apprécient davantage le temps et la flexibilité que les hommes », l’écart de salaire disparaît complètement.

Notre nouveau prix Nobel – le millième prix décerné depuis celui de Wilhelm Röntgen pour la découverte des rayons X – n’est pas vraiment beaucoup plus libérale qu’Edmund Phelps. Son principal collaborateur n’est autre que son mari, le professeur Lawrence F. Katz de l’Université de Harvard qui a été économiste en chef au Département américain du travail de 1993 à 1994 sous la présidence de Bill Clinton.

Mais sur ses sujets de recherche, elle rappelle volontiers que « la solution [aux écarts de salaire] ne nécessite pas (nécessairement) l’intervention de l’État ».

Nous retrouvons ici une règle intéressante : presque tous les grands économistes (même « de gauche ») sont plus libéraux dans leur sujet de recherche que dans les domaines de l’économie sur lesquels ils n’ont rien publié (dans un cadre académique).

Nous pourrions noter que nous pouvions connaître ces résultats empiriques par un simple raisonnement, presque apodictique : si les femmes étaient vraiment payées 68 % du salaire horaire des hommes, n’embaucher que ces dernières serait un moyen de faire un pur profit considérable. La concurrence entre les entreprises conduirait à une demande plus forte pour les femmes sur le marché du travail, et l’écart disparaîtrait.

Dès 1955, Gary S. Becker, prix Nobel d’économie en 1992, avait démontré dans sa thèse – par des raisonnements théoriques aussi bien qu’empiriques – que la discrimination à l’embauche est d’autant plus faible qu’une industrie est plus fortement concurrentielle. La concurrence sur le marché du travail suffit à effacer les différences de rémunération pour une hypothétique parité de productivité marginale.

Ceci dit, les travaux académiques de Claudia Goldin sont tout à fait dignes d’intérêt pour ceux qui veulent comprendre le marché du travail. Ses travaux s’inscrivent dans la droite ligne d’une application empirique rigoureuse de ceux de Gary S. Becker.

 

Le prix Nobel d’économie 2023 en France

Dès l’heure de l’annonce du prix Nobel d’économie, j’ai effectué une recherche sur Google News.

Après quelques minutes d’excitation en découvrant le nom de la lauréate – et en imaginant ce qu’allaient bien pouvoir dire les féministes – je me suis tourné vers l’article de Libération.

Sans surprise, la référence de la presse de gauche recommence l’« opération Phelps » et arrive donc à parler de la lauréate sans parler de ses travaux.

En fait, l’article lui-même est assez féministe. Il commence par noter que les femmes sont très sous-représentées parmi les lauréats du prix Nobel d’économie.

Après une courte introduction sans substance, l’auteur entame un paragraphe intitulé « Faux Nobel » pour rappeler que le prix Nobel d’économie a été créé après la mort d’Alfred Nobel. L’idée subliminale est donc bien que le lecteur de Libération devrait consacrer son temps à un autre sujet.

Le Monde ne fait pas beaucoup mieux et reprend de nombreuses phrases à l’identique de la dépêche AFP. Comme il se doit, l’article conclut par le fait que le prix d’économie « à la mémoire d’Alfred Nobel » [porte] « le sobriquet de faux Nobel ».

 

Conclusion

Bien souvent, les féministes réclament l’« égalité des salaires » dans les industries de haute technologie où les salariés doivent à la fois continument réapprendre et fournir une large quantité d’heures, ce qui rend une sortie temporaire du marché très coûteuse en termes de capital humain et, donc, de productivité marginale du travail, c’est-à-dire de salaire horaire marginal.

De façon amusante, les féministes demandent même parfois la parité ou des quotas dans ces professions à hauts salaires sans, curieusement, faire les mêmes caprices pour le ramassage des poubelles.

Même pour ce qui est de professions à hauts salaires mais très dangereuses – comme la pêche en haute mer ou l’abattage des arbres – nous n’assistons pas à autant de manifestations de la République à la Bastille.

Ces demandes incessantes ont tendance à conduire à des politiques absurdes.

Les travaux de Claudia Goldin et de ses collègues de Harvard montrent que les femmes ne sont pas victimes de discrimination (ici et ) et que l’écart de salaire résulte presque entièrement de leurs choix personnels.

Si un individu – homme ou femme – fait le choix de travailler un moindre nombre d’heures, l’économiste n’a pas à porter de jugement de valeur : c’est au philosophe d’éventuellement regretter que de nombreuses femmes très diplômées ne participent pas au marché du travail.

Mais il convient de faire attention ! Si madame Dupont, ingénieur, reste à la maison pour éduquer ses enfants, c’est bien pour transformer son temps – et donc cet argent qu’elle ne gagne pas – en capital humain, celui de sa progéniture.

Dans une société qui a fait le choix collectif de taxer plus fortement le salaire du conjoint (par les taux marginaux très élevés) et à matraquer les donations et les legs des « riches », il peut être parfaitement rationnel pour la conjointe de travailler en autarcie : les impôts sur le travail – surtout s’ils sont progressifs – réduisent considérablement la division du travail.

S’il est vrai que l’écart de salaire réel (ou simplement inexpliqué) entre hommes et femmes est d’environ 2 % à 3 %, imposer des quotas ou des hausses artificielles du salaire des femmes ne peut conduire qu’à des injustices.

Sans la liberté de fixer ces salaires, et dans le climat juridique absolument délétère que fait régner le type de lois qui impose des quotas ou des rémunérations artificielles, les employeurs hésiteront simplement à embaucher des femmes de peur qu’elles ne quittent momentanément le marché du travail, ou décident de ne pas mettre leurs connaissances à jour.

Comme l’affirme David R. Henderson dans le Wall Street Journal, ce prix Nobel est « très mérité », et il est donc urgent que nos féministes prennent connaissance des travaux de Claudia Goldin. Mais ni dans Libération, ni dans Le Monde !

[i] En toute honnêteté, l’auteur de ces lignes considère que ces baisses d’impôts ont été les plus coûteuses des 50 dernières années pour un bien piètre résultat économique.

Revendre l’essence « à perte » : les incohérences de l’interventionnisme français

Pour répondre aux inquiétudes des consommateurs, le gouvernement a décidé d’autoriser temporairement la grande distribution à revendre l’essence « à perte ».

Autrement dit, à commercialiser les carburants à un prix inférieur à ce qu’ils lui ont coûté 1.

La mesure est loin d’avoir suscité l’enthousiasme, faisant même l’objet de vives critiques. Elle a même été poliment écartée par les distributeurs ! Les polémiques qui l’accompagnent, autant que le contexte qui l’entoure, sont révélateurs des incohérences politiques françaises, et de la façon dont la concurrence est perçue dans notre pays.

 

Première incohérence : conciliation entre concurrence et pouvoir d’achat

Les oppositions, notamment la droite qui tente pourtant de faire croire qu’elle n’est pas hostile à l’économie de marché, se sont indignées dans un renversement d’argumentation qui révèle soit une forme d’inconsistance idéologique, soit un esprit de contradiction obsessionnelle. « Comment le gouvernement ose-t-il promouvoir ainsi la concurrence ? », clament-elles.

La revente à perte bénéficie au consommateur. Elle correspond à un choix assumé du vendeur de perdre de l’argent sur un produit, en le vendant à un prix cassé. Évidemment, cela correspond à une stratégie commerciale : le produit vendu à un prix négatif est ainsi subventionné par le distributeur et sert de « produit d’appel ». Autrement dit, le commerçant brade un produit dans l’espoir d’attirer les consommateurs, et que ceux-ci réalisent d’autres achats dans son point de vente. Ce n’est pas au législateur de décider si cette promotion est saine ou non, mais aux consommateurs.

De belles âmes s’inquiètent car il s’agirait d’une forme de dumping commercial. La critique est difficilement compréhensible, car le dumping correspond à une pratique financée par l’argent public : elle se réalise lorsqu’un État subventionne ses producteurs afin qu’ils puissent baisser artificiellement leurs prix.

Dans le cas de la revente à perte, il n’en est rien : le commerçant baisse les prix de façon offensive, mais cela n’a rien de fictif puisqu’il réalise une perte qui n’est compensée que par les ventes qu’il espère réaliser sur d’autres produits. C’est donc un pari commercial. S’il se trompe, il en assumera seul les conséquences, en perdant de l’argent. Là aussi, le politique n’a pas à se substituer au distributeur pour déterminer sa stratégie commerciale.

 

Deuxième incohérence : conciliation entre transition environnementale et pouvoir d’achat

La faille dans l’annonce du gouvernement est qu’elle a eu lieu le jour même où il présentait un nouveau « bonus écologique »…

Cette concomitance révèle à tout le moins une grande inconsistance, voire un pilotage à courte vue, plutôt que le déploiement d’une vision stratégique forte et cohérente. Sinon, comment expliquer ces choix distants de quelques heures seulement visant d’une part à encourager le recours aux véhicules émetteurs de carbone (via la baisse du prix de l’essence) et d’autre part, à promouvoir des moyens de transport dont on se félicite qu’ils sont « propres » ? Est-il possible d’être plus contradictoire, favorisant d’un côté ce contre quoi on prétend lutter de l’autre ?

Cette confusion brouillonne illustre que les responsables politiques n’ont toujours pas trouvé la façon d’assumer et de faire accepter que la transition environnementale est coûteuse, potentiellement douloureuse, et le sera encore plus.

 

Troisième incohérence : conciliation entre concurrence et stabilité parfaite des acteurs sur le marché

Si la revente à perte est interdite en droit français, c’est afin de protéger le petit commerce.
Le législateur a souhaité préserver des magasins de centre-ville, craignant qu’ils ne disparaissent, emportés par une concurrence trop offensive des grandes surfaces. Le choix n’est pas illégitime, et il appartient au politique de conjuguer des intérêts divergents.

Cela étant, alors même qu’il annonçait l’autorisation temporaire de revente à perte des carburants par les grandes surfaces, le gouvernement a également fait savoir qu’il distribuerait des aides aux petits distributeurs d’essence, afin de compenser la mesure. En somme, l’État promeut la concurrence et mobilise « en même temps » des ressources publiques pour effacer les effets compétitifs de la politique qu’il promeut ! « Nonsense », comme disent les Anglais.

Certains répondent qu’outre la préoccupation de soutien au tissu commercial local, ces mesures compensatoires pourraient se justifier par le maintien d’une concurrence effective : en subventionnant les petits distributeurs, le gouvernement assure qu’une concurrence sera préservée. De cette façon, l’État empêcherait que les offreurs diminuent les prix suffisamment longtemps pour tuer leurs concurrents, avant de les remonter une fois qu’ils seront en monopole.

Outre que cette vision de la concurrence fondée sur la seule atomisation du marché (au demeurant asymétrique) peut largement être contestée, l’argument semble faible.

D’abord, la pratique d’ajustement tactique des prix n’est pas parfaitement évidente à mettre en œuvre, ni courante en réalité.

Ensuite, elle n’est pas tenable si le marché est vraiment concurrentiel ; autrement dit, dès lors que l’offreur réaugmentera ses prix, il devrait être confronté à de nouveaux entrants ou des concurrents qui reviendront sur le marché pour profiter de l’opportunité ouverte par l’inflation artificielle.

Gary Becker, prix Nobel d’économie cité par Thomas Sowell dans son excellent Basic economics écrivait ainsi, de façon catégorique : « je ne connais pas de cas documenté de prix prédateurs ».

 

Quatrième incohérence : volontarisme politique d’un côté et défaut de responsabilité de l’autre

L’annonce du gouvernement n’a pas suscité d’enthousiasme démesuré de la part des distributeurs.

On les comprend : sa proposition embarrasse ceux qui se retrouvent aujourd’hui contraints de baisser les prix sous la pression, sans que cela ne corresponde à une stratégie anticipée. Et ils devront surtout assumer seuls de les remonter lorsque l’exception de vente à perte arrivera à son terme.

Le gouvernement aura alors beau jeu de s’étonner de ce retour à des prix plus élevés…

 

Dernière incohérence : conciliation entre saine gestion des ressources publiques et réflexe interventionniste

L’annonce de la possibilité temporaire de pratiquer la revente à perte montre, bien sûr, que l’État arrive chaque jour un peu plus au bout des solutions qu’il peut proposer lui-même.

La bise est venue, et il se trouve fort dépourvu, privé d’un recours facile à l’argent public qu’il ne trouve plus en dépit de sa créativité fiscale tous azimuts.

Pourquoi alors, annoncer le même jour des subventions aux petits distributeurs en compensation de la mesure ? Par quelle incohérence absurde arrive-t-on à mobiliser l’argent public pour résoudre les problèmes qu’on a soi-même créés le matin ?

Décidément, le chemin est long…

  1. En réalité, le droit parle de prix effectif défini ainsi (attention, bienvenue dans le monde merveilleux de la simplification administrative 🙂 : « Le prix d’achat effectif est le prix unitaire net figurant sur la facture d’achat, minoré du montant de l’ensemble des autres avantages financiers consentis par le vendeur exprimé en pourcentage du prix unitaire net du produit et majoré des taxes sur le chiffre d’affaires, des taxes spécifiques afférentes à cette revente et du prix du transport. Le prix d’achat effectif ainsi défini est affecté d’un coefficient de 0,9 pour les grossistes. »

Les carburants sont-ils aussi chers que l’on pense ?

Depuis début août, la hausse du prix des carburants revient régulièrement en boucle dans les médias et sur les réseaux sociaux, un carburant jugé toujours plus cher, avec notamment la barre symbolique des deux euros dépassée.

Pourtant, depuis janvier 2023, la hausse du SP95 n’est que de 4 %, et de seulement 1 % par rapport à avril.

En revanche, on observe d’importantes variations au sein des différents facteurs contribuant au prix du baril.

Décomposition du litre d’essence durant l’année 2023 

(source des donnes UFIP)

Rappelons que le prix du litre d’essence se décompose en quatre parties distinctes :

  1. Cours du baril
  2. Marge de raffinage (différence entre la valeur du produit raffiné et celle du baril de pétrole)
  3. Marge de distribution (incluant le transport vers le site de distribution)
  4. Taxes (TICPE fixe de 69 centimes pour le SP95, et 20 % de TVA sur la somme HT + TICPE)

 

Par ailleurs, le baril de pétrole étant coté en dollar, le prix en euro dépend aussi implicitement du change euro/dollar. Depuis le début de l’année, ce dernier n’a que peu varié, et son taux actuel (1,07) est plutôt favorable par rapport à 2022 (<1).

Depuis début 2023, le prix du baril s’est renchéri de 4 %.

Cette hausse est liée à des tensions sur les marchés pétroliers : forte demande du Sud-Est asiatique et baisse de l’offre imposée par les pays de l’OPEP pour maintenir des prix hauts. L’accroissement du prix du baril ne justifie toutefois que deux centimes supplémentaires sur le prix du litre d’essence.

En revanche, la marge de raffinage (+35 %) a explosé au cours de ces derniers mois, avec une augmentation de 35 % justifiant un incrément de 5 centimes sur le prix du litre de SP85. Ceci est dû à de très fortes tensions sur le marché des produits raffinés, dont une partie significative était importée de Russie avant le conflit russo-ukrainien. Les raffineries européennes ne pouvant à elles seules satisfaire la demande de produits raffinés (SP95 mais aussi diesel), l’Europe est obligée d’importer ces produits du Moyen-Orient, mais aussi de l’Inde.

En revanche, alors qu’au début de l’année, les marges de distribution étaient anormalement élevées (0,27 centime en avril), au cours de ces derniers mois, et pour des raisons commerciales, les distributeurs les ont réduites en moyenne de 5 centimes.

En conséquence si, depuis janvier, le prix HT a augmenté de 7 %, le prix du litre à la pompe TTC n’a finalement pris que 4 %, passant en moyenne de 1,88 euro à 1,96 euro. Compte tenu de l’engagement de TotalEnergies de maintenir sous les deux euros le prix de l’ensemble des carburants (SP95, SP98 et diésel), on ne devrait pas assister à de nouvelles augmentations au cours des quatre prochains mois.

Cette analyse montre que sur une année, les prix des carburants ont moins augmenté que l’inflation (+4,8 % en un an), et bien moins que les produits alimentaires (+11 % sur un an).

Cette observation est d’ailleurs confirmée par l’histoire.

Entre 1960 et 2020, alors que le SMIC a été multiplié par 40 et le prix du pain par 20, le prix moyen des carburants a été multiplié par 10, soit moins que l’inflation globale. Et pourtant, la perception de la population est tout autre.

Evolution des prix depuis 1960

(source des données France Inflation)

Contrairement aux autres matières premières (acier, cuivre, blé…) diluées sous forme manufacturée dans les biens et les services, l’essence est en prise directe sous sa forme (quasi) brute avec les consommateurs. Cette prise directe confère aux produits pétroliers un caractère d’instantanéité : contrairement aux prix des produits manufacturés, les prix à la pompe varient au jour le jour. De cette prise directe et de cette instantanéité résultent des réactions émotionnelles où le ressenti l’emporte sur la réalité.

Dans les faits, la précarité énergétique des plus modestes s’est donc largement réduite au cours des trente dernières années.

Pourtant, dans les faits de nombreux ménages rechignent à s’éclairer, à se chauffer ou à prendre des douches. La précarité énergétique n’est en rien liée aux prix de l’énergie, mais à l’arbitrage du budget des ménages en faveur d’autres postes comme l’alimentation, et surtout le logement dont les prix ont largement excédé l’inflation.

En filigrane des prix trompeurs de l’énergie, l’amélioration du pouvoir d’achat demande d’aller bien au-delà d’un poste énergétique représentant finalement moins de 10 % du budget des ménages. Une stratégie à l’opposé de celle du gouvernement dont le package pouvoir d’achat (plus de 50 milliards d’euros) a reposé à 80 % sur des aides énergétiques.

Le socialisme aime tant les pauvres qu’il les fabrique

Le Secours populaire et Ipsos ont sorti une étude abondamment commentée, en même temps que l’association Les Restos du Cœur faisait part de ses difficultés financières.

Les points saillants de l’enquête Secours populaire IPSOS :

  • 53 % des Français déclarent ne pas pouvoir épargner.
  • 45 % déclarent avoir du mal à assumer leurs dépenses courantes, chiffre en hausse de 6% par rapport à l’année dernière.
  • 18 % vivent à découvert.

 

Tous ces chiffres sont en hausse.

Par ailleurs, ils sont 60 % à déclarer que la hausse des prix a fait baisser leur pouvoir d’achat (40 % sont donc probablement des esprits purs qui se télétransportent, ne se nourrissent pas, ne s’éclairent pas, et ne se chauffent pas).

X-Tweet du journal Le Parisien sur ce sujet :

La situation économique des Français ne cesse de se dégrader. C’est le constat que dresse ce mercredi le Secours populaire dans son dernier baromètre de la pauvreté et de la précarité
➡ https://t.co/R9C1zZJGIC pic.twitter.com/bJUNyJCwS7

— Le Parisien (@le_Parisien) September 6, 2023

 

Dans un billet bien troussé sur la polémique relative au don de la famille Arnault aux Restos du Cœur, le blogueur Charles Sannat met en regard deux autres statistiques prises sur le site viepublique.fr :

  1. À la date de l’enquête (mi-2022), 87 % des répondants possédaient un smartphone. Chez les plus jeunes, 18 à 25 ans, c’est 98 %.
  2. La durée moyenne de temps passé sur un écran s’élève à 32 heures par semaine.

 

Trente-deux heures, presque une semaine de travail à temps plein.

Pourquoi cette statistique est-elle importante ?

En 2014, Julien Damon, ancien président de l’Observatoire national de la pauvreté et de l’exclusion sociale, décrivait :

« Aujourd’hui, le pauvre est jeune, vient d’une famille monoparentale, demeure en zone urbaine et ne parvient pas à s’insérer sur le marché du travail ».

Le jeune possède un smartphone, et il est souvent au chômage. Il a le temps de surfer sur des publicités qui sèment la confusion entre besoins et envies.

 

Lutte contre la pauvreté ou l’inégalité : ce n’est pas la même chose

Les statistiques ont cela de merveilleux qu’elles concernent tout le monde, mais que personne ne s’y reconnaît.

Niveau de vie, pouvoir d’achat, revenu par habitant sont des notions en apparence simples, mais en réalité complexes. Une fois passé du nécessaire à la survie, chaque individu ne consomme pas les mêmes choses, n’a pas les mêmes besoins en fonction de son âge, du climat auquel il est soumis, etc.

L’INSEE considère qu’un foyer est pauvre si son revenu est inférieur à 50 % du revenu médian. Pour Eurostat, ce niveau se situe à 60 %.

La pauvreté telle que la mesure l’INSEE (ou Eurostat) est en réalité une mesure d’inégalité, entachée d’idéologie.

Petit exercice arithmétique pour prouver ce point.

Supposons que le Bar des Amis compte cinq habitués qui gagnent respectivement 50, 60, 80, 120 et 150 euros.

Le salaire médian est donc 80 euros (deux personnes ont plus, et deux personnes ont moins), et le salaire moyen est de 92 euros. Selon l’INSEE, aucun pauvre ne fréquente le Bar des Amis. Un beau jour, Bernard Arnault – qui gagne 10 000 euros- pousse la porte de notre paisible bistro et se retrouve inclus dans les statistiques du Bar des Amis. Le revenu médian du Bar des Amis va légèrement remonter pour se caler sur 100 euros (intermédiaire en 80 et 120 euros) et non plus sur 80 euros. L’irruption de Bernard Arnault a créé un pauvre. C’est proprement scandaleux, s’étoufferont les suppôts de la Nupes ! Inversement, le départ de Bernard Arnault fera disparaître ce pauvre éphémère.

Un pauvre est, sans aucun doute statistique, quelqu’un qui ne peut atteindre l’indépendance financière. Dans nos sociétés modernes, cet état est adouci par la redistribution, mais être dépendant de subsides étatiques ou de la charité, c’est toujours être dépendant. D’où la frustration des « sans-dent » comme les désignait avec compassion un président socialiste.

 

La lutte contre les inégalités engendre la pauvreté

Quelques chiffres et ratios clés de la fabrique de pauvres :

  • La France consacre 31,6 % de son PIB aux dépenses sociales, premier rang parmi les 34 pays de l’OCDE (source Statista)
  • 82,8 % d’une classe d’âge obtient son baccalauréat, contre 35 % il y a quarante ans (source INSEE). Mais le chômage des jeunes de moins de 25 ans atteint 32 % (source viepublique.fr)
  • Les entreprises subissent des prélèvements record par rapport à leurs résultats comptables comparés aux autres pays de l’OCDE.
  • Entre 1990 et 2012, le nombre d’agents publics a augmenté de 26,2 %, tandis que l’augmentation de la population n’était que de 12,5 %. La France compte 5,67 millions d’agents publics (source viepublique.fr) dont la masse salariale représente 22 % du budget de l’État, et 13,5 % du PIB, un des niveaux les plus élevés des pays développés.
  • Les chômeurs s’ajoutant aux retraités et aux assistés, à peine 40 % des Français produisent par leur travail les ressources qui font vivre l’ensemble de la population.
  • Le dette publique dépasse 3000 milliards d’euros, suite à une politique de déficits chroniques appliquée depuis plus de 50 ans.
  • Les déficits commerciaux s’enchaînent depuis vingt ans.

 

Un pays qui consomme plus que ce qu’il produit s’appauvrit.

Plus d’exclus, plus de pauvres mais toujours plus d’impôts, de taxes, de charges, de dettes… censés justement lutter contre les inégalités, faire régner la « justice sociale ». Et si c’était politiquement planifié ?

 

Il est de l’intérêt des politiciens de créer la dépendance

L’influence d’un homme politique est proportionnelle à la masse d’argent qu’il distribue. Plus de nécessiteux, c’est davantage de dépendance à la redistribution, et davantage de voix faciles à conquérir. Si rien ne change, c’est que l’ordre établi satisfait ceux qui nous gouvernent.

La fabrique de pauvres est donc voulue et assumée par la classe politique, quel que soit le bord dont elle se réclame. Il y a des socialistes de gauche et des socialistes de droite, mais toujours des socialistes.

Lorsque l’environnement économique international était particulièrement porteur, la France aurait pu corriger le tir et mener une véritable politique de pouvoir d’achat.

Mais les gouvernements de l’époque ont préféré importer encore plus de pauvres et taxer plus.

« La France ne peut accueillir toute la misère du monde » indiquait Michel Rocard en 1989 avant de se reprendre et de préciser : « La France ne peut accueillir toute la misère du monde, mais elle doit en prendre sa part ».

David Ricardo : qu’en reste-t-il deux siècles plus tard ?

David Ricardo est mort le 11 septembre 1823, il y a deux siècles exactement. Jean-Baptiste Say en personne lui consacra alors un article nécrologique :

« Cet homme éclairé, cet excellent citoyen, est mort dans la force de l’âge, au bout de cinq jours de maladie, à la suite d’une tumeur dans l’oreille. » 1

Moins connu qu’Adam Smith, Ricardo reste associé à la fameuse histoire du vin portugais échangé contre du drap anglais démontrant les vertus du libre-échange. Mais le choix même de cet exemple arbitraire, ne correspondant à aucune réalité, illustre la méthode paradoxale d’un économiste dont les apports restent très discutés, voire très discutables aux yeux de certains.

On a pu parler de « mythe ricardien ».

De Quincey voyait en lui l’apôtre de la vérité. John Stuart Mill exaltait ses « lumières supérieures » à celles d’Adam Smith. Luigi Cossa le considérait, pas moins, comme « le plus grand économiste de ce siècle » (entendons le XIXe siècle). Mais d’autres se montraient plus critiques. Pour Joseph Rambaud, et ce n’était pas un compliment, Ricardo a été  « le métaphysicien de l’économie politique ».

En effet, le marxisme s’est emparé de certaines propositions de Ricardo, notamment la valeur travail, « pour les travestir et pour asseoir sur elles les plus dangereux et les plus subtils sophismes. »2.

Et d’une certaine façon, l’économie telle qu’elle est présentée en France (et dans les documentaires d’Arte) ressemble beaucoup à du ricardisme pour les mal-comprenants.

 

Financier audacieux, écrivain timide

Ricardo tenait son patronyme peu britannique d’un négociant juif d’origine hollandaise « qui le destina, dès l’adolescence aux affaires, mais qui l’abandonna bientôt parce qu’il désapprouva sa conversion au christianisme. »3

Ce fils de financier qui fit fortune en bourse et mourut millionnaire, « passa de la spéculation lucrative à la spéculation désintéressée ». La lecture d’Adam Smith, faite un peu par hasard, décida de sa vocation. La crise des finances publiques en Angleterre lui donna l’occasion d’écrire une brochure en 1809 sur Le haut prix des lingots, preuve de la dépréciation des billets de banque qui établit sa réputation.

Son œuvre maîtresse, Des Principes de l’économie politique et de l’impôt est publiée en 1817 un peu malgré lui. Ricardo « circonspect et timide », « qui n’a pas reçu l’éducation d’un homme de lettres, se défie de son aptitude à exprimer clairement ses pensées, écrit péniblement, et hésite à publier » 4

C’est James Mill, le père de John Stuart Mill, qui le pousse à écrire, tout comme à entrer au Parlement en 1819.

 

Ricardo parlementaire écouté

Selon Jean-Baptiste Say, Ricardo devait être « dans le Parlement, un homme indépendant de tous les partis. Il ne savait pas ce que c’était que d’avoir une opinion de position ; c’est-à-dire de voter pour ce que l’on sait injuste, et de repousser ce que le bien du pays veut qu’on adopte, simplement en raison de la situation où l’on se trouve.[…] Ricardo n’était pas ce qu’on appelle un orateur ; mais comme il ne parlait que sur ce qu’il savait bien et ne voulait que ce qui était juste, il était toujours écouté. »

Dunbar a noté ce curieux paradoxe5 :

« Quand il parlait devant une assemblée, Ricardo puisait largement dans sa vaste et profonde connaissance des faits de la vie, les utilisant pour illustrer, confirmer son argumentation ; mais dans ses Principes de l’Économie politique, les mêmes questions sont traitées avec une singulière exclusion de tout rapport avec le monde actuel qui l’enveloppe. »

 

Ricardo et la distribution des richesses

Les Français font à Ricardo les mêmes reproches qu’à Adam Smith concernant la forme.

« La rédaction de son livre est médiocre ; le plan est informe » mais aucun ouvrage n’a eu « sur les lecteurs de langue anglaise principalement, une influence aussi profonde et aussi durable. »6

L’auteur a clairement défini l’objectif de son livre dans une lettre à Malthus du 10 octobre 18207 : « la recherche des lois qui déterminent le partage du produit entre les classes qui concourent à sa formation ».

Ricardo divise la population en trois classes : les propriétaires du sol qui bénéficient de la rente, les capitalistes qui récupèrent les profits, et enfin les travailleurs qui reçoivent des salaires.

 

L’économie politique devient théorique

Avec Ricardo, à la différence de Smith, l’économie politique devient une théorie détachée de la pratique, qui a pour objet des lois sur la distribution naturelle des richesses. En cela, il se rapproche des économistes français du XVIIIe siècle, des physiocrates, comme de Turgot.

Condorcet avait exprimé, avec sa clarté habituelle, cette volonté d’une science des lois héritée des Lumières8 :

« Quelles sont les lois suivant lesquelles ces richesses se forment ou se partagent, se conservent ou se consomment, s’accroissent ou se dissipent ? […] Comment dans ce chaos apparent, voit-on néanmoins, par une loi générale du monde moral, les efforts de chacun pour lui-même servir au bien-être de tous, et, malgré le choc extérieur des intérêts opposés, l’intérêt commun exiger que chacun sache entendre le sien propre et puisse y obéir sans obstacle ? »

Jean-Baptiste Say s’efforce de réaliser ce programme dans son Traité d’Économie politique (1803).

Au fatras confus de Smith, plein de digressions et de contradictions, se substitue un arrangement logique des matières, comme le reconnaît Ricardo. Il y voit ce qu’il y cherche : « une exposition de faits généraux, constamment les mêmes dans des circonstances semblables ».

 

Ricardo, théoricien déductif

Lors des longues promenades qu’il aimait à faire avec Ricardo, James Mill va lui donner des leçons de méthode et le goût de l’abstraction. C’est par sa médiation que l’économiste découvre les idées de Jean-Baptiste Say, notamment sa loi des débouchés. Cette influence de Mill sera aussi décisive que funeste aux yeux de certains. La métaphore euclidienne fait, par là, son entrée dans le langage de l’économie politique.

Le succès Des Principes de l’économie politique et de l’impôt tient au fait que Ricardo est un théoricien déductif. Il part des principes pour en tirer un ensemble de déductions logiques débouchant sur une théorie générale de la répartition.

La valeur repose ainsi pour Ricardo sur le seul travail :

« Nous avons regardé le travail comme le fondement de la valeur des choses, et la quantité de travail nécessaire à leur production comme la règle qui détermine les quantités respectives des marchandises qu’on doit donner en échange pour d’autres » même s’il doit reconnaître qu’il puisse y avoir « dans le prix courant des marchandises quelque déviation accidentelle et passagère de ce prix primitif et naturel. »

 

Une théorie de la valeur rigide

Cette théorie de la valeur, très rigide, néglige, par exemple, le rôle joué par l’utilité dans la demande. Jean-Baptiste Say fait remarquer9 :

« Quand M. Ricardo dit qu’un produit vaut toujours ce que valent ses frais de production, il dit vrai, mais que valent ses frais de production ? Quel prix met-on aux services capables de produire un produit appelé une livre de café ? Je réponds qu’on y met d’autant plus de prix… que les services propres à produire du café sont plus rares et plus demandés. »

Pour Ricardo, le prix du travail, c’est-à-dire le salaire, repose sur le coût des subsistances : « c’est celui qui fournit aux ouvriers, en général, les moyens de substituer et de perpétuer leur espèce, sans accroissement ni diminution. » Ainsi donc une « hausse du prix de ces objets fera hausser le prix naturel du travail, lequel baissera par suite de la baisse des prix. »

Il n’y a rien là de très nouveau que l’on ne trouve déjà chez Turgot ou Adam Smith, et qui sera repris par Marx. Certes, David Ricardo, optimiste par inadvertance, affirme que le prix naturel du travail peut tendre à la hausse « parce qu’une des principales denrées qui règlent ce prix naturel tend à renchérir, en raison de la plus grande difficulté de l’acquérir », à savoir le blé en raison de la mise en culture de terres de moins en moins fertiles.

 

Ricardo pessimiste

Le prix courant du travail dépend de l’offre et de la demande, et peut ainsi se maintenir plus haut que le prix naturel, mais « dans la marche naturelle des sociétés, les salaires tendront à baisser […] car le nombre des ouvriers continuera à s’accroître dans une proportion un peu plus rapide que la demande. » De plus, la hausse des salaires en argent peut en réalité masquer une diminution du salaire réel si elle n’est pas proportionnelle à celle du prix des marchandises.

Pour Ricardo, l’entrepreneur (ou plutôt le capitaliste) réalise un gain qu’il partage uniquement avec ses ouvriers : si les salaires s’élèvent, les profits diminuent, et réciproquement. Mais là aussi, le pessimisme est de rigueur. « Les profits tendent naturellement à baisser, parce que, dans le progrès de la société et de la richesse, le surcroît de subsistances exige un travail toujours croissant. »

David Ricardo n’envisage nullement qu’une augmentation du revenu de l’entreprise puisse permettre à l’entrepreneur d’avoir un profit accru tout en payant des salaires plus élevés. Le monde ricardien est un monde malthusien soumis à la double malédiction de la loi de la population, et de la loi de la rente foncière.

 

De Ricardo à Marx

La loi des rendements décroissants, comme le note H. Denis, mène à la lutte des classes10 :

« La dynamique abstraite de Ricardo marquera en traits de plus en plus durs l’opposition des intérêts, l’insolidarité grandissante des classes ; elle creusera, si j’ose dire, de plus en plus profondément, l’abime de l’inégalité et aboutira, sans ses conclusions logiques ultérieures, à un déchirement, à un contraste absolu, où la classe des propriétaires dont la rente aura atteint la limite extrême en résorbant tout le produit net, se trouvera en présence de celles des travailleurs dont le salaire sera désormais enchaîné à un minimum inflexible. »

C’était ouvrir un boulevard à toutes les théories socialistes.

C’est bien le reproche que lui faisait Frédéric Bastiat qui rejetait ce « pessimisme, à la fois géométrique et glacial ». Dans cette approche ricardienne, l’accroissement de la population amène inéluctablement « opulence progressive des hommes de loisir, misère progressive des hommes de travail. »

Refusant le travail comme mesure de la valeur, Bastiat devait tâcher de lui substituer une autre définition, le prix du service rendu. Ainsi, les richesses ne s’échangent plus entre elles, seuls les services sont l’objet de l’échange et ont une valeur.

 

Loi de la rente foncière et théorie des prix

David Ricardo a beaucoup contribué à la théorie du prix en démontrant que le prix unique qui se forme sur un marché repose sur le coût le plus élevé de la marchandise nécessaire à l’approvisionnement de ce marché.

Say avait ainsi résumé cette loi de la rente foncière dans la nécrologie de 1823 :

« Le profit que fait un propriétaire foncier sur sa terre, c’est-à-dire ce que lui paie son fermier, ne représente jamais que l’excédent du produit de sa terre sur le produit des plus mauvaises terres cultivées dans le même pays. »

Ainsi, la rente des terres les plus favorisées est d’autant plus élevée que l’excédent de travail appliqué aux terres les moins favorisées est plus considérable.

Ricardo invente ainsi paradoxalement le raisonnement à la marge dont les marginalistes, partisans d’une théorie subjective de la valeur, feront leur miel plus tard !

 

Avec Ricardo, l’économie tourne le dos à l’observation

Pour John Kells Ingram11, l’influence de Ricardo a perverti la méthode économique :

« La science fit fausse route et tourna le dos à l’observation : elle chercha à renverser les lois des phénomènes ; à les tirer, par un jeu de logique, d’un petit nombre de généralisations hâtives. »

Ricardo, étudiant la valeur, néglige ainsi l’importance de la demande et exagère celle de l’offre. Étudiant la rente agricole, il se préoccupe plus de la fertilité des sols que de la distance au marché, il ne songe pas assez à l’influence du progrès susceptible de neutraliser la hausse progressive des denrées agricoles, etc.

Aussi pour Leroy-Beaulieu, « les disciples aveugles de Ricardo ne voulant voir en action dans le monde que la loi découverte par leur maître, sont arrivés à des observations et à des prévisions que tous les faits contemporains ont déjoués. »12

 

Un chef-d’œuvre de théorie déductive

Pour un de ses zélateurs13, « tout en n’ignorant pas que l’utilité est le fondement, mais non la mesure de la valeur, il formula la théorie classique du coût de production et celle du coût comparatif dans les échanges internationaux ».

Malheureusement, « s’étant servi du concept, mal déterminé, de la quantité de travail, qui s’identifiait pour lui avec les dépenses de production (y compris l’influence du capital), on en a tiré la théorie socialiste pseudo-ricardienne du travail cause unique de la valeur ».

En somme, même les admirateurs de David Ricardo conviennent que, dans son œuvre, trop de choses restent incomplètes et « mal formulées ». Les socialistes ont ainsi tiré de la notion de salaire naturel, la loi d’airain du salaire réductible au minimum des subsistances pour faire vivre les ouvriers et leurs familles.

« Au total, la théorie de la Répartition de Ricardo, est un chef-d’œuvre de théorie déductive mais qui, comme toutes les théories déductives, repose sur des propositions insuffisamment démontrées, et, en fin de compte, inexactes. »14

  1. Les Tablettes universelles, 27 septembre 1823, p. 23-26
  2. Rambaud, Histoire des doctrines économiques, 3e édition, Paris 1909, p. 327
  3. Luigi Cossa, Histoire des doctrines économiques, Paris 1899, p. 320
  4. Élie Halévy, La Révolution et la doctrine de l’utilité (1789-1815), Paris 1900, p. 223
  5. Cité dans Revue d’économie politique, 1902, p. 287
  6. Bertrand Nogaro, Le développement de la pensée économique, Paris 1944, p. 77
  7. Revue d’économie politique, 1902, p. 283
  8. Condorcet, Progrès de l’esprit humain, 9e époque
  9. Ricardo, Oeuvres complètes, éd. Guillaumin, 1882, ch XXX, p. 361
  10. Revue d’économie politique, p. 290
  11. John Kells Ingram, « Esquisse d’une histoire de l’économie politique, » Revue positiviste internationale, Paris 1907, p. 156
  12. Leroy-Beaulieu, Traité théorique et pratique d’économie politique, p. 732
  13. Luigi Cossa, op. cit., p. 324-325
  14. Bertrand Nogaro, op. cit., p. 132

Non, les petits pays ne sont pas désavantagés en économie

Par Lipton Matthews.

Certains analystes affirment que la taille peut être un obstacle à la prospérité économique, et que les petits États sont donc particulièrement vulnérables aux chocs économiques et environnementaux. En général, les petits États sont abordés sous l’angle de leurs limites, et des défis qu’ils doivent relever. Même leurs dirigeants décrivent sincèrement leur dimension comme un obstacle au progrès futur. L’idée que la petitesse est un obstacle à surmonter est devenue parole d’évangile dans certains milieux.

Les dirigeants des Caraïbes ont coutume de rappeler à la communauté internationale que leurs pays se trouvent dans une situation précaire en raison de l’augmentation des niveaux d’endettement et des obligations liées au changement climatique. Toutefois, avec l’aide d’agences mondiales, les petits pays ont eu accès à des possibilités de financement. Les acteurs mondiaux sont très réceptifs au lobbying des petits États des Caraïbes. Certains soutiennent même les appels à l’allègement de la dette afin de libérer la marge de manœuvre budgétaire de ces petits États.

 

Les pays des Caraïbes sont confrontés à d’autres obstacles

Après tout, ils sont exposés à de graves catastrophes naturelles, et leur économie sont encore en pleine évolution.

Mais ces obstacles ne devraient pas les empêcher d’atteindre des niveaux de prospérité plus élevés. Dans les Caraïbes, on a malheureusement tendance à porter la souffrance comme un insigne d’honneur. En fait, les dirigeants caribéens sont très respectés lorsqu’ils attribuent les problèmes régionaux à des chocs extérieurs.

Plutôt que de tirer les leçons du spectacle offert par les tigres asiatiques, les dirigeants des Caraïbes préfèrent s’apitoyer sur leur sort et se plaindre que la géographie les a malmenés. Ils font pression avec véhémence pour obtenir de l’aide, mais lorsqu’on les encourage à soutenir les accords commerciaux, certains affirment que leurs pays n’ont pas grand-chose à exporter. C’est une piètre excuse, car la Suisse et le Japon sont de grands exportateurs de produits à valeur ajoutée, bien qu’ils soient des pays pauvres en ressources.

Les petits pays n’ayant pas de marchés intérieurs de taille suffisante, ils n’ont d’autre choix que de se mondialiser.

Le commerce y représente une part plus importante du produit intérieur brut, et ils s’en sortent mieux dans un régime de libre-échange. Singapour, la Finlande et l’Irlande sont souvent cités comme des exemples de petits pays qui ont stimulé leur croissance économique en tirant parti de la mondialisation. En adoptant des technologies clés et en investissant dans le capital humain, plusieurs petits pays sont devenus des acteurs majeurs de l’économie mondiale.

La recherche a même réfuté l’idée selon laquelle les petits États sont plus vulnérables aux fluctuations économiques mondiales en raison de leur plus grande dépendance à l’égard du commerce extérieur.

En s’engageant dans le commerce mondial, et en développant des marchés de niche, les petits États deviennent plus productifs, et réduisent ainsi leur exposition aux retombées économiques. Les petites nations peuvent construire des économies diversifiées qui génèrent des taux de croissance élevés, et leur revenu par habitant n’est en moyenne pas inférieur à celui des grandes nations. De nombreuses nations au revenu par habitant élevé sont des pays exceptionnellement petits et, dans le monde développé, certains des pays les plus riches sont relativement petits, comme la Suède et le Danemark. Les grands pays comme l’Allemagne et les États-Unis sont des exceptions dans le monde riche.

Sur le continent africain, les petits États se distinguent par leur liberté économique et la qualité de leurs institutions.

D’après les indicateurs de qualité de vie, les pays les plus performants d’Afrique sont de petite taille, comme l’île Maurice et le Botswana, plutôt que le Nigeria et l’Afrique du Sud. Sur le plan social, les réalisations des petits États sont tout aussi impressionnantes. Leur homogénéité cultive la confiance, un ingrédient nécessaire à la croissance économique et à la distribution des biens. Les petits pays étant moins peuplés et moins diversifiés que les grands, ils sont plus faciles à gouverner, et mieux gérés.

 

Dans un rapport de 2014 comparant les performances des petits et des grands pays, le Crédit Suisse conclut que les petits pays obtiennent de meilleurs résultats dans la plupart des domaines. Les petits pays obtiennent de meilleurs résultats en matière de mesures institutionnelles, fournissent des services sociaux de qualité, et enregistrent des adultes plus riches. Les petits pays obtiennent systématiquement de bons résultats dans les classements internationaux, et leur taille ne peut donc pas être un inconvénient comme le prétendent certains d’entre eux.

Les pays des Caraïbes sont petits, mais politiquement stables, diplomatiquement liés à d’importantes puissances occidentales et dotés de ressources ; il n’y a donc aucune raison pour qu’ils ne soient pas compétitifs. Leur incapacité à l’être est le reflet d’un leadership terne et rétrograde plutôt que d’une exposition aux chocs mondiaux ou à l’héritage du colonialisme.

Sur le web

Prix de l’essence : les causes ne sont pas nécessairement celles que l’on croit !

Depuis le début du mois de juillet 2023 les prix des carburants sont largement repartis à la hausse, le SP95 passant en un mois de 1,81 euro à 1,93 euro. Il se rapproche ainsi de la limite symbolique des deux euros, qui, selon toute vraisemblance, devrait être atteinte à l’automne.

La raison principale invoquée dans les médias est celle du prix du baril de pétrole qui depuis fin juin s’est réenchéri de 11 % passant de 75 dollars à 85 dollars. Cette hausse rapide est liée d’une part à une demande très soutenue des pays du sud-est asiatique, d’autre part à une volonté des pays producteurs, Arabie Saoudite en tête, de maintenir des prix hauts via une réduction des quotas.

Pourtant, quand on analyse en détails les différents facteurs contribuant au prix de l’essence, les causes ne sont pas nécessairement celles que l’on croit.

Rappelons que le prix de l’essence peut être décomposé en cinq parties :

  1. Le prix du baril de brut
  2. Le change euro/dollar
  3. La marge de raffinage
  4. La marge de distribution incluant le transport des produits raffinés
  5. Les taxes.

 

1) Depuis la crise énergétique de l’automne 2021 renforcée par le conflit russo-ukrainien, le baril de pétrole qui se vendait 42 dollars en 2020 n’est plus jamais descendu sous les 70 dollars. Toutefois, depuis le début 2023 les prix sont assez stables autour de 80 dollars, alors qu’en 2022, ils on en moyenne largement dépassé les 100 dollars.

2) Le taux de change euro dollar 2023 (autour de 1,09 dollar/euro) est nettement plus favorable qu’en 2022 (autour de un dollar/euro)

3) Suite au conflit russo-ukrainien et à l’assèchement des produits raffinés, la marge de raffinage avait atteint des sommets en 2022 avec notamment un invraisemblable pic historique à 190 euros/tonne en octobre 2022. Si la marge de raffinage reste aujourd’hui élevée (de l’ordre de 50 euros/tonne) par rapport à la normale (elle devrait se situer entre 20 euros et 25 euros par tonne), elle a très fortement baissé par rapport à la moyenne 2022.

5) Les taxes sont quant à elles restées constantes avec une TICPE à 0,68 euro et une TVA de 20 % appliquée au prix HT.

Rappelons également que durant l’année 2022, l’État avait largement mis la main à la poche avec une ristourne de l’ordre de 0,15 centimes entre avril et septembre puis portée à 0,30 euros/litre en septembre et octobre 2022 puis finalement supprimée début 2023.

4) Reste la marge de distribution. Au cours du premier semestre 2022, compte tenu des prix très élevés du baril et de la marge de raffinage, les distributeurs avaient pour des raisons commerciales évidentes baissé leur marge entre 15 et 20 centimes d’euro. Depuis l’automne 2022 profitant des ristournes puis de la baisse du prix du baril et des marges de raffinage, les distributeurs ont accru leur marge de façon substantielle avec un pic à 28 centimes en avril 2023. Depuis, l’accroissement du prix du baril les a conduits à de nouveau baisser leur marge. Ainsi observe-t-on une corrélation inversée très nette entre marge de distribution et prix du baril.

Gauche : évolution de la marge de distribution
Droite : corrélation marge de distribution et prix du baril de Brent 
(Source des données UFIP)

 

L’augmentation récente du prix du baril n’explique donc que partiellement le prix à la pompe dont la valeur élevée reflète aussi une extra marge de distribution toujours effective. Conformément à la logique commerciale décrite ci-dessus, une baisse de la marge de distribution autour de 20  centimes à la rentrée devrait absorber en partie l’accroissement récent du prix du baril.

Trois leçons d’économie pour vous aider à tirer le meilleur parti de votre carrière (et de votre vie)

Par David Youngberg.

 

En tant qu’enseignant en économie, je plains les professeurs d’autres disciplines parce qu’ils n’ont pas l’occasion d’enseigner l’économie. Bien que les courbes en spaghetti qui dominent l’enseignement de l’économie ne soient généralement pas très excitantes, l’économie est vraiment une discipline qui permet de trouver les règles de la vie quotidienne et d’en tirer parti. Il est étonnant de constater à quel point nos idées nous amènent à repenser le monde, et à quel point cette remise en question peut être utile.

Les étudiants aspirent à juste titre à quelque chose de pratique, à des concepts qu’ils peuvent intérioriser et appliquer dans leur vie. L’économie ne manque pas d’idées importantes de ce type.

Voici trois idées qui peuvent aider tout un chacun à tirer le meilleur parti de la vie.

 

1. Compenser les différences

La nature du travail est l’une des principales raisons pour lesquelles certains emplois sont mieux rémunérés que d’autres. Un travail peu stressant ou agréable ne sera pas très bien rémunéré parce que les employeurs n’ont pas besoin de payer beaucoup pour attirer un bon candidat au contraire d’un travail stressant ou dangereux qui sera lucratif parce que les employeurs doivent offrir un salaire élevé.

Il s’agit donc d’écarts compensatoires : les différences de conditions de travail sont compensées par les différences de salaires. Si l’on maintient constante la difficulté d’accès à l’emploi (comme le niveau d’études requis), les écarts de compensation impliquent un compromis qui donne à réfléchir : il n’existe pas d’emploi parfait pour tout le monde, parce que tout le monde voudrait cet emploi et le salaire baisserait, et l’emploi ne serait plus si génial que cela.

Il est important de se rappeler que les différentiels de rémunération ne sont pas basés sur les préférences d’une seule personne, mais sur celles de la plupart des gens. Il s’agit de la pression du marché, et ces forces peuvent pousser ou tirer le salaire d’une multitude de façons. Le niveau d’indépendance, le sentiment d’accomplissement, la flexibilité des horaires, le stress, la disponibilité attendue, le travail émotionnel, le danger physique, la sécurité de l’emploi et les possibilités d’avancement ont tous un impact sur le salaire.

Leçon : ne construisez pas votre carrière uniquement en fonction de ce que vous aimez ; construisez-la en fonction de ce que vous avez d’original. Avec autant de facteurs en jeu, il est facile de trouver une ou deux dimensions dans lesquelles vous n’êtes pas comme la plupart des gens, et vous pouvez utiliser cette singularité à votre avantage.

Il faut beaucoup d’introspection pour découvrir ce à quoi on tient et en quoi on n’est pas comme la majorité. J’ai la chance d’avoir appris à l’université à quel point ma préférence pour l’indépendance est exceptionnellement forte, et à quel point ma préférence pour le luxe est exceptionnellement faible. Le monde universitaire, relativement peu rémunéré, avec ses tonnes de flexibilité, me convient parfaitement.

Tirez parti de vos préférences inhabituelles. Évitez les travaux qui vous procurent des sensations agréables, à moins qu’ils n’éveillent sérieusement votre âme, car vous serez payé comme si votre âme était éveillée chaque jour. Comprenez que travailler sur les projets les plus excitants signifie que vous ferez probablement beaucoup de corvées, car beaucoup aiment la simple idée d’être impliqués dans l’excitation. Même si vous n’aimez que vaguement l’informatique, vous devriez sérieusement envisager ce domaine parce que vous serez payé comme si vous le détestiez.

 

2. Coût d’opportunité

Le coût d’opportunité est l’avantage auquel on renonce à la suite d’un choix. L’économie consiste à faire de bons choix, et obtenir quelque chose d’extraordinaire signifie que l’on doit renoncer à quelque chose d’autre d’extraordinaire. Tous les coûts sont en réalité des coûts d’opportunité, car l’argent, le temps ou les efforts dépensés auraient pu être utilisés pour autre chose.

Les études supérieures illustrent bien cette idée. Les étudiants qui sortent de l’université alors que le marché du travail est tendu peuvent obtenir un bon salaire et acquérir une expérience précieuse dès leur sortie de l’université. Tout cela signifie que le coût d’opportunité des études supérieures est élevé – vous donnez tellement que les inscriptions dans les écoles supérieures chutent pendant les périodes d’expansion économique. En revanche, lorsque le marché de l’emploi est médiocre, le coût d’opportunité des études supérieures est faible, et les écoles sont inondées de candidats.

Leçon : si vous envisagez d’obtenir un diplôme d’études supérieures, inscrivez-vous dans une école d’études supérieures lorsque l’économie est forte. Vous serez confronté à une concurrence beaucoup moins forte et vous pourrez fréquenter un meilleur établissement (et lorsqu’il s’agit d’études supérieures, l’établissement que vous fréquentez compte beaucoup).

Certes, vous perdrez quelques années d’expérience et de salaire, mais si vous prévoyez de faire des études supérieures de toute façon, le coût réel est la valeur ajoutée que le boom économique a apportée. Il est préférable de faire l’investissement lorsque les bénéfices potentiels sont les plus élevés.

 

3. L’avantage comparatif

Lorsqu’il s’agit de déterminer qui doit accomplir une tâche particulière, la plupart des gens ont pour réflexe d’identifier celui qui peut le mieux le faire, mais les économistes savent qu’il faut se garder d’un raisonnement aussi simpliste. Chaque décision a un coût d’opportunité, et toute personne capable de faire une chose extraordinaire peut généralement en faire d’autres aussi. L’avantage comparatif tient compte, non seulement de ce qui est fabriqué, mais aussi de ce qui ne l’est pas.

Un créateur de mode peut concevoir d’excellents vêtements, mais le temps qu’il consacre à la double couture d’un pantalon ne peut pas être utilisé pour créer de nouveaux looks. Même si il est le meilleur en couture, il ne dispose pas d’un avantage comparatif dans ce domaine, car la création de nouveaux looks est bien plus précieuse. Un stagiaire peut avoir du mal à faire passer le fil dans l’aiguille, mais il est trop peu qualifié pour faire quoi que ce soit d’autre. Son coût d’opportunité est faible, et c’est donc lui qui a un avantage comparatif dans la couture.

Leçon : dans les emplois de début de carrière, vous aurez un avantage comparatif dans les travaux pénibles – c’est pour cela que vous avez été embauché. Reconnaissez-le. Acceptez-le. Si vous avez du mal à faire quelque chose que votre patron pourrait faire deux fois plus vite que vous, vous devriez quand même essayer de vous débrouiller tout seul. Il est bien plus important de faire gagner une heure à votre patron que de vous en faire gagner deux (ou cinq ou dix). Votre patron renonce à prendre des décisions cruciales. Vous renoncez à l’archivage.

 

En bref : la vie est une affaire de compromis

« L’étude de l’humanité dans les activités ordinaires de la vie » : c’est ainsi que l’économiste Alfred Marshall, de la fin du XIXe siècle, définissait sa discipline. Bien que Marshall soit peut-être surtout connu pour avoir créé notre diagramme fondamental de l’offre et de la demande, il avait compris que les diagrammes n’étaient que des outils permettant d’éclairer nos idées fondamentales. L’économie est en fait la discipline de la vie quotidienne.

La vie est faite de compromis, et l’économie prend cette contrainte à cœur mieux que toute autre science sociale. Tout ce qui est acquis a un coût – c’est le fil conducteur de chacune de ces leçons.

Accepter cette réalité est le seul moyen de tirer le meilleur parti de la vie.

 

Sur le web

5 raisons pour lesquelles les gens finissent par avoir des dettes de carte de crédit

Aujourd’hui, l’endettement par carte de crédit aux États-Unis est plus important que jamais. Selon un rapport récent, les Américains ont accumulé 986 milliards de dollars de dettes de cartes de crédit.

Il est tout aussi alarmant de constater que la génération Z s’endette plus rapidement que les générations précédentes.

Les raisons pour lesquelles les gens accumulent des dettes de cartes de crédit sont nombreuses.

Pour les jeunes générations, cela peut être le signe d’un pas vers l’indépendance qui peut expliquer une partie de la dette de carte de crédit, mais cela n’explique pas la grande majorité de cette dette.

Si la carte de crédit n’aide pas à avancer dans la vie, mais freine au contraire son détenteur avec des chaînes pesantes, il est temps d’envisager de développer de meilleures habitudes. Pourquoi tant de personnes se retrouvent-elles avec une dette de carte de crédit ? Voici cinq raisons courantes.

 

1. Dépenser plus que ce que l’on gagne

La majorité des gens souhaite naturellement ressentir un plaisir immédiat tout en retardant les difficultés le plus longtemps possible, ou en les évitant complètement.

Les cartes de crédit donnent cette possibilité, tout en permettant de supporter le fardeau du remboursement de la dette bien plus tard. Avec une carte de crédit, une personne se voit accorder une somme d’argent, sous forme de dette, lui permettant de payer plus que ce qu’elle a réellement ou même que ce qu’elle gagne. Elle peut faire des achats et effectuer des paiements minimum chaque mois sur une période plus longue. Progressivement, les achats commencent à s’accumuler avec de plus en plus d’accès au crédit, tandis que le délai de remboursement intégral est de plus en plus repoussé. Les dettes de carte de crédit s’accumulent progressivement avec les intérêts. Ainsi, non seulement les achats supplémentaires augmentent la dette globale, mais les intérêts et les frais l’augmentent également.

Pour de nombreuses personnes, un bon moyen de s’attaquer à ce problème est d’établir un budget. Si vous l’envisagez, consultez l’article utile de Peter Jacobsen, How to Make a Budget in Just a Few Easy Steps (Comment établir un budget en quelques étapes simples).

 

2. Les excès

Les excès peuvent signifier qu’une personne dépense sans compter ou de manière extravagante : fréquentes escapades de shopping, achats quotidiens sur Amazon, achats excessifs de bonnes affaires, voyages impulsifs, vacances exotiques, rencontres sans lendemain, sorties dans les bars chaque week-end, dîners luxueux, fréquents repas au restaurant, nombreux concerts et festivals, mariages princiers, etc. Les cartes de crédit peuvent donner un faux sentiment de sécurité financière tout en retardant les paiements, conduisant dans un cercle vicieux.

Si cela correspond à votre dette de carte de crédit, il est temps de vous atteler à la tâche et d’élaborer un plan spécifique et stratégique pour sortir de l’endettement. En nous efforçant de rembourser nos dettes, nous nous développons personnellement et nous nous libérons des chaînes de nos désirs consuméristes les plus primaires. Malheureusement, nombreux sont ceux qui confondent le consumérisme et le capitalisme, et rejettent faussement la faute sur celui-ci. En réalité, c’est le manque de responsabilité personnelle que l’on trouve dans le consumérisme qui mérite d’être blâmé.

 

3. Les urgences

Les situations d’urgence sont inévitables et font partie intégrante de la vie : problème médical personnel, blessure, urgence vétérinaire pour votre animal de compagnie, réparation de véhicule, téléphone cassé ou perdu, panne informatique vous empêchant de travailler, parmi bien d’autres situations. Sans budget disponible pour y faire face, demander un crédit est alors une possibilité.

Certaines de ces situations d’urgence peuvent avoir des coûts financiers importants qui mettent des années à être remboursés, en particulier lorsque seuls les montants minimums dus sont payés à la fois. Si vous obtenez une carte de crédit en urgence, vous aurez probablement un taux d’intérêt plus élevé parce que vous n’avez pas pu faire le tour du marché, ce qui alourdit la dette.

 

4. Les taux d’intérêt élevés

Les taux annuels en pourcentage (TAEG) ont un impact sur la dette totale d’une carte de crédit, car plus le taux d’intérêt est élevé, plus la personne doit payer pour le crédit. Si vous avez besoin d’aide pour améliorer votre cote de crédit, consultez l’article « 5 étapes faciles pour améliorer votre cote de crédit.»

Les taux d’intérêt ont augmenté au cours des dernières années, et la moyenne nationale pour une nouvelle carte de crédit a un TAEG de 22,26 % tandis que les cartes de crédit existantes ont un TAEG moyen de 20,9 %. Tant que vous avez un solde, le montant restant doit être remboursé avec le taux d’intérêt. C’est la raison pour laquelle certaines personnes procèdent à une consolidation de dettes, afin de regrouper leurs multiples dettes de cartes de crédit et d’obtenir un taux d’intérêt plus bas lorsqu’elles le peuvent. La consolidation de dettes n’améliore pas nécessairement votre cote de crédit, mais elle peut vous aider à rembourser vos dettes de carte de crédit plus rapidement. La consolidation de dettes peut se faire par le biais d’un prêt bancaire, d’un prêt d’une coopérative de crédit ou en ouvrant une nouvelle carte de crédit et en transférant la dette sur cette nouvelle carte.

 

5. L’inflation

Les prix augmentent, votre argent vous permet d’acheter de moins en moins.

Cela peut avoir un effet sérieux sur votre budget, et de nombreuses personnes utilisent des cartes de crédit lors des périodes particulièrement inflationnistes. L’alimentation, l’essence, l’assurance, les repas, le logement et les voyages sont autant d’exemples de prix en hausse. Si les coûts poussent une personne à dépasser son budget, il est peut-être temps d’envisager de créer un nouveau budget, de déménager dans une région plus abordable ou de chercher un travail mieux rémunéré.

 

Conclusion

Dans l’ensemble, il existe des moyens d’éviter d’accumuler d’énormes quantités de dettes de cartes de crédit, et il y a certainement des moyens de s’en libérer.

Nous ne pouvons pas contrôler tout ce que la vie nous réserve, mais il existe des précautions pratiques et des mesures que nous pouvons prendre en utilisant les cartes de crédit de manière appropriée sans nous endetter gravement. Une grande partie des dettes liées aux cartes de crédit peut être éliminée grâce à un plan financier personnel stratégique, à un budget strict et à une diligence loyale tout au long du processus.

Se libérer de ses dettes est autant une question de finances que de responsabilité personnelle et de liberté.

Sur le web

Geoffroy Lejeune : la chasse aux sorcières continue…

Alors que Geoffroy Lejeune a été licencié du magazine Valeurs actuelles, où il occupait le poste de directeur de la rédaction, le voilà maintenant pressenti pour prendre la tête du Journal du dimanche (JDD). Au grand dépit de ses équipes de journalistes, qui se disent sidérés et se sont mis aussitôt en grève, craignant une « croisade réactionnaire » au sein de leur rédaction.

Si l’on peut tout à fait comprendre leur ressenti et considérer comme légitime une telle expression de leur mécontentement et de leurs inquiétudes, ce qui est en cause est davantage le déséquilibre devenu traditionnel – si on élargit les réactions à l’ensemble des médias – entre la capacité à être scandalisé par des événements lorsqu’ils se situent dans le « camp » de la droite plutôt que lorsqu’ils le sont dans le « camp » de la gauche (la politique est très guerrière, là où certains d’entre nous préférerons plutôt le simple débat démocratique). Ce deux poids deux mesures ne date hélas pas d’hier.

 

Le camp du Mal

Dans cette vision très binaire, tout ce qui se situe « à droite » ou est considéré comme tel (car il n’est pas rare pour les gens situés très à gauche d’avoir une vision très restrictive de la gauche) représente bien souvent le Mal, qu’il convient donc généralement de dénoncer, de décrédibiliser, de caricaturer, ou de houspiller autant que faire se peut, afin d’intimider ceux qui seraient tentés de s’en rapprocher d’un iota.

Dans l’affaire du licenciement de Geoffroy Lejeune, nous sommes ici dans le cadre de choix éditoriaux. Un organe de presse appartient à un propriétaire. Et il est en principe géré à la manière d’une entreprise. Il peut donc sembler a priori légitime qu’un groupe comme Valmonde -propriétaire du magazine Valeurs actuelles – décide à un moment donné de se séparer de certains de ses salariés. Ici, pour des raisons apparemment stratégiques et de ligne éditoriale (en simplifiant, car je ne connais pas le détail de ce qui s’est réellement déroulé en coulisses, la politique ayant là aussi certainement joué son rôle).

De la même manière, un autre patron de presse, Vincent Bolloré, à qui appartient le Journal du dimanche, est libre d’employer qui il veut. L’affaire, on l’a insinué, est probablement assez politique, et le capitaine d’industrie a certainement jugé qu’il n’y avait pas de raison de laisser à la gauche (et ses journaux, pour beaucoup, subventionnés) le monopole de la liberté d’expression à géométrie variable. D’autant qu’il a dû considérer qu’il s’agissait d’un jeune journaliste indépendant et réputé brillant (y compris par ses ennemis, je pense, qui le jugent d’autant plus « dangereux »). N’en déplaise aux journalistes du JDD qui, même si on peut les comprendre, sont en théorie toujours libres de partir.

 

Le deux poids deux mesures

Revenons sur le « deux poids deux mesures ».

De quoi est « accusé » Geoffroy Lejeune ? De défendre des analyses proches de celles d’Éric Zemmour, qualifiées par conséquent – avec cet art traditionnel de la gauche de catégoriser les gens – « d’extrême droite ».

Par nature, la presse ne peut prétendre à la neutralité. Tout journal défend donc une ligne éditoriale qui suit forcément certaines orientations, même si l’on encourage une certaine diversité de points de vue au sein de cette ligne. Il n’est donc pas très difficile d’avoir une idée – même si leur métier est avant tout le journalisme – de vers où balance le cœur de tel ou tel journal. La gauche, à ce titre, semble loin d’être lésée. Et un journal comme Libération a beau jeu de dénoncer un prétendu « mouvement de pure extrême droitisation des médias », dont ce dernier événement dont il est question serait « la preuve ».

À souligner que, comme de nombreux Français l’ont souvent constaté et le déplorent régulièrement – leur confiance en la presse étant de plus en plus sujette à caution – le travail des journalistes n’est pas toujours très scrupuleux. Or, s’il y a bien une journaliste dont je salue personnellement la qualité du travail (quels que soient ses thèmes de prédilection, qui déplaisent naturellement à beaucoup de gens de gauche), c’est Charlotte d’Ornellas qui, avec beaucoup de dignité, a choisi de quitter elle aussi la rédaction de Valeurs actuelles, faisant preuve d’un courage dont peu pourraient se targuer.

Il se trouve que, contrairement à Geoffroy Lejeune que je connais moins, j’ai assez régulièrement eu l’occasion de suivre ses éditoriaux vers 19 h 30 sur cette chaîne elle aussi exécrée qu’est CNews, et je suis à chaque fois impressionné par son vrai travail de journaliste, très précis et factuel, qui fonde ses points de vue. Cela me fait d’autant plus de peine de la voir étiquetée aussitôt, sans autre forme de procès, de « figure médiatique d’extrême droite ». Une manière bien spécifique à la gauche (si tolérante) d’étiqueter ses opposants pour mieux les rendre par avance inaudibles…

 

Une violence plus ou moins légitimée

Là où le bât blesse, c’est que cette gauche si vertueuse – ou qui se croit telle – a un rapport très trouble à la violence et à la liberté d’expression ; sans doute un héritage de la Révolution française, à moins que ce ne soit dans ses gènes.

Que ne s’offusquera-t-on lorsque des personnes présumées « d’extrême droite » s’expriment ou sont représentées dans les médias. Quelles réactions outrées aura-t-on à l’annonce de la dissolution du groupe « Soulèvements de la Terre », pourtant auteur régulier de violences incontestables, quand les mêmes ont applaudi à la dissolution du groupe « Génération Identitaire » (auquel je me suis peu intéressé, mais dont je ne saurais citer des violences manifestes). Avec quelle absence de remords une Sandrine Rousseau prompte aux « débordements » réguliers se livre aux condamnations sommaires les plus décomplexées. Avec quel incroyable manque de pudeur les « plus grandes consciences » de la gauche vont convertir un acte héroïque peu ordinaire en satire, là encore en y attachant de manière obsessionnelle le nom de Bolloré…

En revanche, on n’hésitera pas à se livrer à une véritable chasse à l’homme lorsqu’il s’agit de délivrer les universités du risque droitier (bien limité, à vrai dire). Ou à défendre la dictature des minorités. Pas plus qu’on ne sourcillera outre mesure à l’annonce de l’assaut extrêmement violent de militants prétendument « antifascistes » contre un hôtel et des personnes, à l’occasion d’une séance de dédicace d’un livre du pestiféré Éric Zemmmour, en quelque sorte illégitime car catégorisé lui aussi comme « d’extrême droite », et donc à bannir, comme tout ce qu’il représente, aux yeux de ses ennemis. Que ne dirait-on si des propos aussi violents que ceux tenus à l’égard du même Éric Zemmour par un militant cégétiste (donc situé du bon côté politique) avaient été tenus par une personne engagée à droite ? Comment comprendre qu’une « responsable » comme Sophie Binet en vienne à transformer les faits en changeant, selon toute vraisemblance, « Auschwitz » par « Vichy » et en intervertissant ainsi le sens de l’attaque, pour défendre un militant pourtant coupable d’un acte antisémitite bien évident ?… Et nous pourrions bien sûr multiplier les exemples.

 

Un « grave danger pour la démocratie » ?

En conclusion, et bien que je ne me présente pas comme un partisan ni d’Éric Zemmour, ni de Marion Maréchal, pas plus qu’un admirateur particulier de Geoffroy Lejeune que je connais insuffisamment pour me prononcer (je m’adresse, ce faisant, à ceux qui souhaiteraient moi aussi me catégoriser), je déplore cette chasse aux sorcières permanente qui pollue les débats et est un obstacle au jeu démocratique tel qu’il devrait se dérouler.

La liberté d’expression est précieuse et c’est elle qu’il s’agit de défendre. Lorsque je lis des réactions au tweet de Sophie Binet dans lesquels on inverse la situation en qualifiant de « grave danger pour la démocratie » la plainte plus que légitime d’Éric Zemmour contre ce militant cégétiste qui a tenu des propos clairement inacceptables, il y a de quoi s’interroger.

Et, je le répète – pour en revenir au point de départ de cette chronique – si les journalistes du JDD sont tout à fait en droit de réagir et de manifester leur mécontentement à l’égard de la nomination de Geoffroy Lejeune à la tête de leur journal, il ne s’agira pas là non plus d’une atteinte à la démocratie si elle est confirmée. Ils devront composer avec, garder leur style et leur déontologie, ainsi que leur savoir-faire, tout en s’adaptant au mieux à la ligne éditoriale, et sans jamais se pervertir. Et contrairement à ce qui est affirmé par le journaliste de Libération cité plus haut, on ne pourra pas pour autant parler de « droitisation des médias », tout au plus d’un léger rééquilibrage (à supposer que la ligne change réellement), même si cela déplaît à cette gauche (pas toute, bien évidemment) si démocrate et tolérante… tant que seules ses idées sont représentées.

Salon du Bourget : l’avion vert restera longtemps une chimère 

Par : Michel Gay

L’avion vert revient à la mode au dernier Salon du Bourget comme une des voies prometteuses pour « sauver la planète ». Beaucoup en rêvent, mais bien peu connaissent vraiment le sujet quand il s’agit de placer des chiffres en face des mots, souvent creux et ronflants.

« Yaka, faut qu’on ! » et l’intendance suivra… Ce n’est hélas pas si simple !

 

L’avion vert

L’avion devient vert si son carburant est vert. C’est-à-dire si ce dernier est décarboné : il ne doit pas provenir d’énergies fossiles (pétrole, gaz ou charbon).

Toutefois, il ne s’agit pas d’un carburant nouveau mais d’un carburant standard, produit autrement, devant répondre aux normes sévères actuelles et aux exigences techniques pour être compatible avec les infrastructures existantes. Il doit aussi être fongible (concept « Drop in »), c’est-à-dire « mélangeable » avec les carburants actuels.

Cependant, il contient moins « d’aromatiques » précurseurs de suie susceptible de diminuer les trainées de condensation, et pas de soufre (il en reste toujours un peu dans les carburants fossiles).

Mais il y a un hic de taille : les énergies fossiles existent à l’état naturel et il suffit de les extraire pour les convertir relativement facilement en une matière utilisable, mais ce n’est pas le cas des carburants verts (aussi appelés SAF : Sustainable Aviation Fuel). Ces derniers doivent être reconstitués et fabriqués à partir de carbone, de CO2, et d’hydrogène en apportant parfois beaucoup de biomasse et, surtout, une gigantesque quantité d’électricité bas carbone pour extraire l’hydrogène de l’eau par électrolyse.

Techniquement, les chimistes, certaines sociétés et les grandes industries, y compris pétrolières, savent fabriquer des SAF à partir principalement de trois filières (il en existe d’autres) : oléochimique, e-bioSAF et e-SAF.

Mais ce n’est pas suffisant…

Les deux premières voies nécessitent des huiles de cuisson usagées, des graisses animales, et/ou une grande quantité de biomasse qui est une matière première précieuse et rare. Compte tenu de la ressource limitée, de la concurrence dans l’affectation des sols, et des conflits d’usage prévisibles, elles ne pourraient fournir au maximum que 20 % du kérosène en France, et beaucoup moins (1 % à 3 %) dans d’autres pays.

La production massive de carburant vert à grande échelle pouvant répondre au besoin de l’aviation dans l’avenir reposerait donc sur le « e-SAF » produit à partir du CO2 capté directement dans l’air (qui n’en contient que 0,04 %, ce qui nécessite beaucoup de chaleur et d’électricité pour l’extraire) et d’hydrogène obtenu par électrolyse (nécessitant aussi beaucoup d’électricité).

Mais combien faudrait-il de biomasse, de CO2, d’hydrogène et donc d’électricité (qui viendra d’où ?) pour fabriquer la quantité de carburant « vert » (e-SAF) capable de se substituer à la consommation actuelle en France, en Europe et dans le monde… et à quel coût ?

 

Et là, c’est le drame : le rêve s’effondre

L’Académie des technologies a publié en février 2023 un rapport « La décarbonation du secteur aérien par la production de carburants durables ».

D’hypothèses optimistes sur les rendements, en incertitudes gigantesques sur les ressources, en « besoin de maturation » pour les procédés industriels, et en « analyses complémentaires nécessaires », il ressort de cette étude que l’urgence soulignée de s’engager dans cette voie en créant une filière industrielle est plus que prématurée !

Pourtant, comme l’indique ce rapport, la France possède un atout important pour produire, un jour peut-être (au-delà de 2050 ?), ce carburant vert avec une électricité parmi les plus décarbonées du monde, grâce principalement à sa production nucléaire.

Mais « la plus belle femme du monde ne peut donner que ce qu’elle a ». Même avec un immense programme de construction de nouvelles centrales nucléaires, la France ne pourra pas disposer en 2050 (et encore moins les autres pays) de l’électricité nécessaire à la production de 20 % de e-SAF pour sa consommation.

 

Des mots et des chiffres

Décarboner les transports terrestre et aérien est une excellente idée qui permet pour le moment de se donner une image verte et une bonne conscience. Elle deviendra une nécessité dans quelques dizaines d’années devant la raréfaction des ressources fossiles.

Mais elle doit se préparer consciencieusement, sans effet de manche, et ne pas être mise en œuvre à l’aveugle en se fixant des objectifs inatteignables ne tenant pas compte des réalités physiques, économiques, et industrielles.

Quelques chiffres en ordres de grandeurs pour fixer les esprits :

L’aviation consomme chaque année en France 10 millions de tonnes (Mt) de carburant aéronautique (kérosène), 50 Mt en Europe, et consommera 400 Mt dans le monde en 2050.

Fabriquer une telle quantité de SAF mobiliserait la moitié de toute l’énergie électrique produite actuellement dans le monde…

Est-ce bien raisonnable ?

Avec des hypothèses optimistes de production industrielle, et en supposant probable une faible ressource disponible en biomasse (en concurrence avec d’autres usages), la production de 60 % de SAF (6 Mt) pour la consommation française en 2050 nécessiterait environ 240 térawattheures (TWh) d’électricité, soit près de la moitié de la production nationale d’électricité actuelle !

Viser « seulement » 20 % de SAF nécessiteraient encore 80 TWh d’électricité alors que dans 25 ans nos centrales nucléaires atteindront 60 ans et devront être remplacées.

Est-ce bien raisonnable ?

Et en plus, la fourniture de cette électricité doit être stable sur l’année pour le bon fonctionnement des électrolyseurs et assurer leur rentabilité. Est-ce bien compatible avec une production éolienne et solaire fortement et aléatoirement variable, voire intermittente ?

Est-ce bien raisonnable ?

Certes, la production d’électricité nucléaire serait à son avantage, mais elle n’a pas besoin de cet expédient pour mettre en avant ses qualités qui seront encore mieux employées à décarboner l’industrie, le chauffage, et la mobilité terrestre qui, eux-aussi, exigeront de plus en plus d’électricité.

Cette électricité nucléaire très bas carbone (moins de 4 gCO2/kWh) serait même probablement plus efficace à l’exportation pour aider à décarboner le mix électrique de l’Europe (environ 300 gCO2/kWh).

 

Parlons argent…

Soyons clairs : hors taxes et coûts de distribution, et avec un coût de production d’électricité du nouveau nucléaire d’environ 7 c€/ kWh (il est même déjà de 10 c€ (9,25 cents) par kWh sur 35 ans pour la centrale nucléaire d’Hinkley Point en Grande-Bretagne), ce carburant vert e-SAF coûtera 4 à 6 fois plus cher à l’achat que le prix du carburant fossile estimé à 1 euro/litre en 2050. Ce dernier est aujourd’hui d’environ 0,5 euro/litre (avec d’importantes variations).

Avec une consommation d’environ 40 kWh d’électricité par kg d’e-SAF produit, cet « ingrédient » amène donc déjà le litre d’e-SAF à près de 2,5 euros, auquel il faut ajouter l’amortissement des infrastructures et les coûts d’exploitation. Ces derniers sont estimés à environ 3 euros le litre par l’Académie des technologies, ce qui conduit au total à près de 6 euros par litre (c’est un ordre d’idée… hors taxes), malgré les économies d’échelle attendues.

Il existe donc actuellement au moins deux solides verrous : l’un est matériel (la ressource), l’autre économique (le coût).

 

Gargarisme intellectuel

L’aviation ne représente que 3 % de la consommation d’énergies fossiles en France, et elle ne représentera que 6 % en 2050.

Dans leur volonté acharnée à vouloir décarboner l’aviation, l’Europe et la France peuvent toujours se gargariser de mots creux (urgence, développement industriel…) et d’objectifs irréalistes (à atteindre avec l’argent public) listés sur une lettre au Père Noël pour les 20 ou 30 ans à venir, mais les contraintes physiques et les nécessités économiques rappelleront quelques rêveurs à la réalité.

Jusqu’à présent, il existe un réseau d’industriels qui courent à la pêche aux subventions renouvelables et aux « incitations économiques » des pouvoirs publics qui ruissellent pour des recherches et développement (R et D) sur les « carburants verts », ce qui occupe des ingénieurs et finance « des travaux ».

Ainsi, selon le rapport de 2015 « BioTfuel a, par exemple, bénéficié d’une aide de 30 millions d’euros de l’Ademe, à laquelle s’est ajouté un apport régional (Picardie/FEDER) de 3,2 millions d’euros ».

Qui sait ce qu’est devenu le projet de biocarburant subventionné « Kerosalg » de 650 000 euros de la PME Phycosourse prévoyant une production de 100 kg d’huile de microalgues par jour, et dont l’objectif en 2012 était d’atteindre 5 % de la consommation de kérosène en France (soit 500 000 tonnes par an…) en 2022 ? Dans les chiffres « clés », 10 créations d’emplois était envisagées pour 2016… sur son site internet qui semble figé depuis 2012.

 

Et maintenant ?

Les carburants « verts » issus de matière végétale, animales, ou de déchets existent déjà et sont « parfaitement compatibles avec une utilisation en mélange jusqu’à 50 % dans du jet fuel fossile ».

Toutefois, la ressource très limitée les confinera à un appoint négligeable de quelques pourcents. Ce faible apport ne résoudra pas le grave problème du remplacement des carburants liquides aéronautiques qui ne sont pas substituables par d’autres sources d’énergies (électricité, hydrogène…) dans les 50 ou 100 prochaines années.

Afin de ne pas engager trop tôt la France dans cette impasse industrielle, il serait simplement judicieux pour la collectivité d’y penser avant de se ruiner prématurément dans un secteur d’activité internationale concurrentiel.

Il est légitime et sain que le transport aérien se mobilise depuis plus de 20 ans (2002) pour réduire son empreinte carbone afin de « garantir son développement de manière durable » selon les termes du  rapport de 2015 « Quel avenir pour les biocarburants aéronautiques ? ».

Ce rapport indiquait alors que « les biojet fuels seront chers et il n’y a pas aujourd’hui de marché », et que « la contribution des biojet fuel à l’offre de jet fuel alternatif risque donc d’être limitée ».

Il précisait aussi prudemment que le transport aérien « s’engage dans des programmes » mais que certains objectifs sont « aspirational » (sic).

En effet, « il ne s’agit pas d’engagements, mais de souhaits visant à faire participer de façon optimale le transport aérien à la limitation du changement climatique ».

Enfin, ce rapport de 2015 indique en annexe :

« L’Académie de l’air et de l’espace n’a en conséquence pas vraiment conclu sur l’avenir des biocarburants aéronautiques, sauf sur la nécessité d’approfondir les différentes questions soulevées ».

Dont acte. Le carburant vert pour l’avion vert a de l’avenir… pour longtemps !

 

Article mis à jour le 28/06/23 à 15h35.

❌