Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

La stratégie de Bruxelles sur l’IA bénéficiera-t-elle d’abord au Royaume-Uni ?

Par : Jason Reed

Voilà maintenant quatre ans que le Royaume-Uni a officiellement quitté l’Union européenne. Depuis le Brexit, la Grande-Bretagne a connu trois Premiers ministres, et d’innombrables crises gouvernementales. Néanmoins, malgré le chaos de Westminster, nous pouvons déjà constater à quel point les régulateurs du Royaume-Uni et de l’Union européenne perçoivent différemment l’industrie technologique. Le Royaume-Uni est un pays mitigé, avec quelques signes encourageants qui émergent pour les amateurs de liberté et d’innovation. L’Union européenne, quant à elle, poursuit une réglementation antitrust agressive sur plusieurs fronts.

 

La Déclaration de Bletchley

Cette tendance apparaît clairement dans le domaine de l’intelligence artificielle, peut-être le domaine d’innovation technologique le plus attrayant pour un organisme de réglementation. Rishi Sunak, Premier ministre britannique, est un féru de technologie et se sentirait comme un poisson dans l’eau dans la Silicon Valley. On le retrouve d’ailleurs régulièrement en Californie où il passe ses vacances. Cette vision du monde se reflète dans l’approche du gouvernement britannique en matière d’IA.

En novembre 2023, Rishi Sunak a même accueilli le premier sommet mondial sur la sécurité de l’IA, le AI Safety Summit. À cette occasion, des représentants du monde entier – y compris des États-Unis, de l’Union européenne et de la France – ont signé au nom de leur gouvernement ce qu’on appelle la « Déclaration de Bletchley ».

Sur la Déclaration de Bletchley, le gouvernement britannique adopte un ton modéré.

Le communiqué officiel indique :

« Nous reconnaissons que les pays devraient tenir compte de l’importance d’une approche de gouvernance et de réglementation pro-innovation et proportionnée qui maximise les avantages et prend en compte les risques associés à l’IA ».

En d’autres termes, la Grande-Bretagne n’a pas l’intention de laisser libre cours à l’IA sur un marché non réglementé, mais ne considère pas non plus l’innovation comme une menace. Elle reconnaît que ne pas exploiter les opportunités de l’IA reviendrait à faire une croix sur les bénéfices que les générations actuelles et futures pourraient en tirer. La Déclaration de Bletchley incarne une approche réfléchie de la réglementation de l’IA, qui promet de surveiller de près les innovations afin d’en détecter menaces liées à la sécurité, mais évite de laisser le gouvernement décider de ce que l’IA devrait ou ne devrait pas faire.

 

Rishi Sunak, Elon Musk et l’avenir de la Grande-Bretagne

La position britannique adopte donc un ton très différent de celui des régulateurs du reste du monde, qui semblent considérer toute nouvelle percée technologique comme une occasion de produire de nouvelles contraintes. Dans l’Union européenne, par exemple, ou aux États-Unis de Biden, les régulateurs sautent sur l’occasion de se vanter de « demander des comptes aux entreprises technologiques », ce qui signifie généralement freiner la croissance économique et l’innovation.

La Grande-Bretagne est sur une voie qui pourrait, si elle reste fidèle à sa direction actuelle, l’amener à devenir un des principaux pôles technologiques mondiaux. Rishi Sunak a même profité du sommet pour interviewer Elon Musk. « Nous voyons ici la force la plus perturbatrice de l’histoire », a déclaré Musk à Sunak lors de leur discussion sur l’IA. « Il arrivera un moment où aucun emploi ne sera nécessaire – vous pourrez avoir un travail si vous le souhaitez pour votre satisfaction personnelle, mais l’IA fera tout. »

De SpaceX à Tesla en passant par Twitter, Elon Musk, bien qu’il soit souvent controversé, est devenu un symbole vivant du pouvoir de l’innovation technologique et du marché libre. En effet, demander à un Premier ministre, tout sourire, de venir le rejoindre sur scène avait sûrement vocation à envoyer un signal au monde : la Grande-Bretagne est prête à faire des affaires avec l’industrie technologique.

 

Bruxelles, Londres : des stratégies opposées sur l’IA

L’approche britannique plutôt modérée de l’IA diffère radicalement de la stratégie européenne. Bruxelles se targue avec enthousiasme d’avoir la première réglementation complète au monde sur l’intelligence artificielle. Sa loi sur l’IA, axée sur la « protection » des citoyens fait partie de sa stratégie interventionniste plus large en matière d’antitrust. Le contraste est limpide.

Si la Grande-Bretagne, en dehors de l’Union européenne, a réussi à réunir calmement les dirigeants mondiaux dans une pièce pour convenir de principes communs raisonnables afin de réglementer l’IA, le bloc européen était plutôt déterminé à « gagner la course » et à devenir le premier régulateur à lancer l’adoption d’une loi sur l’IA.

 

Les résultats de la surrèglementation de l’UE

La Grande-Bretagne post-Brexit est loin d’être parfaite, mais ces deux approches opposées de la gestion de l’IA montrent à quelle vitesse les choses peuvent mal tourner lorsqu’une institution comme l’Union européenne cherche à se distinguer par la suproduction normative. Une attitude qui tranche avec le comportement adopté par les ministres du gouvernement britannique à l’origine du projet de loi sur la sécurité en ligne, qui ont récemment abandonné leur promesse irréalisable d’« espionner » tout chiffrement de bout en bout.

Les résultats de la surrèglementation de l’Union européenne sont déjà évidents. OpenAI, la société à l’origine de ChatGPT soutenue par Microsoft, a choisi de placer sa première base internationale à Londres. Au même moment, c’est Google, autre géant de la technologie mais également leader du marché dans la course aux pionniers de l’IA via sa filiale DeepMind, qui a annoncé son intention de construire un nouveau centre de données d’un milliard de dollars au Royaume-Uni. Ces investissements auraient-ils été dirigés vers l’Union européenne si Bruxelles n’avait pas ainsi signalé aux entreprises technologiques à quel point le fardeau réglementaire y serait si lourd à porter ?

 

Se rapprocher de Washington ?

Malgré des discours d’ouverture et des mesures d’encouragement spécifiques destinés à attirer les startupeurs du monde entier, les bureaucrates européens semblent déterminés à réglementer à tout-va. En plus d’avoir insisté sur la nécessité de « protéger » les Européens de l’innovation technologique, ils semblent également vouloir recueillir l’assentiment d’officiels Américains sur leurs efforts de réglementation.

Le gigantesque Digital Markets Act et le Digital Services Act de l’Union européenne semblaient bénéficier de l’approbation de certains membres de l’administration Biden. La vice-présidente exécutive de la Commission européenne, Margrethe Vestager, a été photographiée souriant aux côtés des fonctionnaires du ministère de la Justice, après une visite aux États-Unis pour discuter de ses efforts antitrust.

 

Un scepticisme partagé à l’égard de la technologie

Lors du voyage transatlantique de Margrethe Vestager, il s’est révélé évident que l’Union européenne et les États-Unis adoptaient une approche similaire pour attaquer la technologie publicitaire de Google par crainte d’un monopole. Travaillaient-ils ensemble ? « La Commission [européenne] peut se sentir enhardie par le fait que le ministère de la Justice [américain] poursuive pratiquement la même action en justice », a observé Dirk Auer, directeur de la politique de concurrence au Centre international de droit et d’économie.

Lina Khan, la présidente de la Federal Trade Commission des États-Unis, connue pour avoir déjà poursuivi des entreprises technologiques en justice pour des raisons fallacieuses, a également indiqué qu’elle partageait le point de vue de l’Union européenne selon lequel la politique antitrust doit être agressive, en particulier dans l’industrie technologique.

Elle a récemment déclaré lors d’un événement universitaire :

« L’une des grandes promesses de l’antitrust est que nous avons ces lois séculaires qui sont censées suivre le rythme de l’évolution du marché, des nouvelles technologies et des nouvelles pratiques commerciales […] Afin d’être fidèles à cette [promesse], nous devons nous assurer que cette doctrine est mise à jour. »

 

Les électeurs européens sanctionneront-ils la stratégie de Bruxelles sur l’IA en juin prochain ?

La volonté de Bruxelles d’augmenter de manière exponentielle le fardeau réglementaire pour les investisseurs et les entrepreneurs technologiques en Europe profitera au Royaume-Uni en y orientant l’innovation.

Malgré son immense bureaucratie, l’Union européenne manque de freins et de contrepoids à son pouvoir de régulation. Des membres clés de son exécutif – comme les dirigeants de la Commission européenne, telle qu’Ursula von der Leyen – ne sont pas élus. Ils se sentent toutefois habilités à lancer des croisades réglementaires contre les industries de leur choix, souvent technologiques. Peut-être, cependant, seront-ils surpris et changeront-ils d’attitude à la vue des résultats des élections européennes qui auront lieu en juin prochain.

Will the EU AI Act benefit the UK first ?

Par : Jason Reed

It has been four years since the UK formally left the European Union. Since Brexit, Britain has been through three prime ministers and countless government crises. Nonetheless, despite the chaos of Westminster, it is already becoming clear how differently regulators in the UK and EU view the technology industry. The UK is a mixed bag, with some encouraging signs emerging for fans of freedom and innovation. The EU, meanwhile, is pursuing a path of aggressive antitrust regulation on various fronts.

 

AI ‘Bletchley Declaration’

Nowhere is this trend clearer than in artificial intelligence, perhaps the most inviting area of innovation in tech for a regulator to get their teeth into. Rishi Sunak, Britain’s prime minister, is tech-savvy and would not look out of place in Silicon Valley. He is even found holidaying regularly in California. This worldview filters through into the British government’s approach to AI.

Sunak hosted the world’s first AI Safety Summit in November 2023. Representatives from all over the world – including from the US, EU, and France – signed a document he created called the “Bletchley Declaration” on behalf of their governments.

In describing the Bletchley Declaration, the British government strikes a tone of moderation. “We recognise that countries should consider the importance of a pro-innovation and proportionate governance and regulatory approach that maximises the benefits and takes into account the risks associated with AI,” says the official statement.

In other words, Britain has no intention of allowing AI to run wild in an unregulated marketplace, but it also does not see innovation as a threat. It recognises that failing to harness the opportunities of AI would mean letting down current and future generations who might benefit from it. The Bletchley Declaration represents a thoughtful approach to regulating AI which promises to monitor innovations closely for signs of threats to safety but avoids placing government at the centre of the narrative and being prescriptive about what AI should or should not do.

 

Rishi Sunak, Elon Musk, and Britain’s Future

The British position, therefore, strikes a very different tone to activist regulators elsewhere in the world who appear to view any and all new technological breakthroughs as an opportunity to flex their muscles. In the EU, for example, or in Biden’s USA, regulators leap at the opportunity to boast about “holding tech companies to account”, which generally means making economic growth and innovation more difficult.

Britain is on a different path which could, if it stays true to its current direction, mark it out as a future hub of technological and economic activity. Sunak even took the opportunity during the summit to interview Elon Musk. “We are seeing the most disruptive force in history here,” said Musk to Sunak in their discussion about AI. “ »There will come a point where no job is needed – you can have a job if you want one for personal satisfaction, but AI will do everything.”

From SpaceX to Tesla to Twitter, Musk has become a harbinger of the power of technological innovation and the free market. Although he is often controversial, embracing him in this way by having a smiling prime minister speak to him on stage was surely intended to send a signal to the world that Britain is ready to do business with the tech industry.

 

Brussels does things differently

This moderate British approach to AI stands in contrast with the EU’s strategy. Brussels boasts enthusiastically that its AI Act is the world’s first comprehensive regulation on artificial intelligence, focussed on ‘protecting’ citizens from AI and forming part of the EU’s broader interventionist strategy on antitrust. The contrast is clear: Britain is willing to work with tech companies, whereas the EU believes it must suppress them.

While Britain, outside the EU, was able to calmly get world leaders in a room together to agree on sensible common principles for regulating AI, the European bloc was instead determined to ‘win the race’ and become the first regulator to break ground on passing an AI law.

 

The results of EU overregulation

Post-Brexit Britain is far from perfect, but these two contrasting approaches to dealing with AI show how quickly things can go wrong when an institution like the EU gets into its head that it has a duty to regulate more and more with each passing year. There are encouraging signs elsewhere, too. The British government ministers behind the ‘online safety bill’ finally dropped their unworkable promise to ‘spy’ on all end-to-end encryption.

The results of the EU’s overregulation are already becoming clear. OpenAI, the company behind ChatGPT which is backed by Microsoft, chose London as the location for its first international base. Meanwhile, Google, another tech giant which is also a market leader in the AI pioneering race via its DeepMind subsidiary, announced plans to build a new $1bn data centre in the UK. Would these investments have gone to the EU instead if Brussels had not sent the message to tech companies that Europe would be a harsh regulatory environment for them?

 

Cozying up to Washington?

Despite claiming to want to empower a generation of tech entrepreneurs, European bureaucrats seem determined to regulate everything in sight. No antitrust measure is off limits. As well as their insistence on the need to ‘protect’ Europeans from technological innovation, they also seem to enjoy winning attention from across the Atlantic Ocean with their regulatory endeavours.

The EU’s mammoth Digital Markets Act and Digital Services Act seemed to enjoy approval from some appointees of President Biden. European Commission executive vice president Margrethe Vestager was photographed smiling with officials in the department of justice after travelling to the US to discuss her antitrust efforts.

 

A shared scepticism of tech

Around the time of Vestager’s trans-Atlantic trip, it became apparent that the EU and the US were taking a similar approach to attacking Google’s advertising technology out of fears of a monopoly. Were they working together? “The [European] commission may feel emboldened by the fact that the [US] DOJ is pursuing virtually the same lawsuit”, observed Dirk Auer, director of competition policy at the International Center for Law and Economics.

Lina Khan, the activist chairwoman of the US Federal Trade Commission who fills her days by taking tech companies to court for spurious reasons, has also made clear that she shares the EU’s view that antitrust must be active and aggressive in its battles against the tech industry. “One of the great promises of antitrust is that we have these age-old statutes that are supposed to keep pace with market developments, new technologies and new business practices,” she said at a university event recently. “In order to be faithful to that [promise], we need to make sure that doctrine is updated.”

 

What happens next?

Whether the EU’s true motivations are genuine or political, the fact remains that Brussels’ apparent willingness to exponentially increase the regulatory burden for tech investors and entrepreneurs in Europe will only hurt Europeans, and perhaps indirectly benefit the UK by directing innovation there instead.

Despite its immense bureaucracy, the EU lacks checks and balances on its regulatory power. Key members of its executive – such as the leaders of the European Commission, like Ursula von der Leyen – are unelected. They feel empowered to launch regulatory crusades against industries of their choosing, often technological. Perhaps, though, they will be shocked into changing their ways after the results of the European parliamentary elections in a few months’ time.

« Le coût de la décarbonisation sera très lourd » grand entretien avec Éric Chaney

Éric Chaney est conseiller économique de l’Institut Montaigne. Au cours d’une riche carrière passée aux avant-postes de la vie économique, il a notamment dirigé la division Conjoncture de l’INSEE avant d’occuper les fonctions de chef économiste Europe de la banque américaine Morgan Stanley, puis de chef économiste du groupe français AXA.

 

Y-a-t-il des limites à la croissance ?

Loup Viallet, rédacteur en chef de Contrepoints – En France, de plus en plus de voix s’élèvent en faveur d’une restriction de la production. Ralentissement, croissance zéro, décroissance, les partisans de ce mouvement idéologique partagent une approche malthusienne de l’économie. La croissance économique aurait des limites écologiques que l’innovation serait incapable de faire reculer. Cette thèse est au cœur d’un ouvrage souvent présenté comme une référence : le rapport du club de Rome de 1972 aussi appelé Rapport Meadows sur les limites de la croissance. Ses conclusions sont analogues à celles publiées l’année dernière dans le dernier rapport en date du Club de Rome, Earth for All. Quelle méthode scientifique permet-elle d’accoucher sur de telles conclusions ? À quel point est-elle contestable ? Comment expliquez-vous le décalage entre l’influence médiatique de ces idées et l’absence total de consensus qu’elles rencontrent parmi les chercheurs en économie et la majorité des acteurs économiques ?

Éric Chaney – Les thèses malthusiennes ont en effet le vent en poupe, encore plus depuis la prise de conscience par un grand nombre -surtout en Europe- de l’origine anthropomorphique du changement climatique causé par les émissions de gaz à effet de serre (GES, CO2 mais pas seulement). Le Rapport Meadows de 1972, commandé par le Club de Rome, avait cherché à quantifier les limites à la croissance économique du fait de la finitude des ressources naturelles. Si les méthodes développées au MIT à cet effet étaient novatrices et intéressantes, les projections du rapport originel étaient catastrophistes, prévoyant un effondrement des productions industrielle et alimentaire mondiales au cours de la première décennie du XXIe siècle. Rien de tel ne s’est produit, et malgré de nombreuses mises à jour du rapport Meadows, certes plus sophistiquées, les prévisions catastrophiques fondées sur l’apparente contradiction entre croissance « infinie » et ressources finies ne sont pas plus crédibles aujourd’hui qu’elles ne l’étaient alors.

Contrairement aux modèles développés à la même époque par William Nordhaus (prix Nobel d’économie en 2018), les modèles prônant la croissance zéro ou la décroissance n’intégraient pas de modélisation économique approfondie, pas de prix relatifs endogènes, ni même les gaz à effet de serre dont on sait depuis longtemps que les conséquences climatiques peuvent être véritablement catastrophiques.

Rappelons que Nordhaus publia en 1975 un article de recherche intitulé « Can we control carbon dioxide ». Malgré sa contribution essentielle à l’analyse économique des émissions de GES –Nordhaus est le premier à avoir explicité le concept de coût virtuel d’une tonne de CO2, c’est-à-dire la valeur présente des dommages futurs entraînés par son émission — il est vilipendé par les tenants des thèses décroissantistes, et c’est peut-être là qu’il faut chercher l’origine des dissonances cognitives qui les obèrent. Nordhaus est un scientifique, il cherche à comprendre comment les comportements économiques causent le changement climatique, et à en déduire des recommandations. Il est convaincu qu’à cet effet, les mécanismes de marché, les incitations prix en particulier sont plus efficaces que les interdictions. Il est techno-optimiste, considérant par exemple que les technologies nucléaires (y compris la fusion) lèveront les contraintes sur la production d’énergie. Alors que le camp décroissantiste est avant tout militant, le plus souvent opposé au nucléaire, bien qu’il s’agisse d’une source d’énergie décarbonée, et anticapitaliste, comme l’a bien résumé l’un de ses ténors, l’économiste Timothée Parrique, qui affirme que « la décroissance est incompatible avec le capitalisme ».

Pratiquement, je ne crois pas que ce courant de pensée ait une influence déterminante sur les décisions de politique économique, ni dans les démocraties, et encore moins dans les pays à régime autoritaire. En revanche, les idées de Nordhaus ont été mises en œuvre en Europe, avec le marché des crédits carbone (ETS, pour Emissions Trading System, et bientôt ETS2), qui fixe des quotas d’émission de CO2 décroissant rapidement (-55 % en 2030) pour tendre vers zéro à l’horizon 2050, et laisse le marché allouer ces émissions, plutôt que d’imposer des normes ou de subventionner telle ou telle technologie. De même la taxation du carbone importé que l’Union européenne met en place à ses frontières (difficilement, certes) commence à faire des émules, Brésil et Royaume-Uni entre autres, illustrant l’idée de Clubs carbone de Nordhaus.

 

Liens entre croissance et énergie

L’augmentation des émissions de gaz à effet de serre est-elle proportionnelle à la croissance de la production de biens et de services ?

Au niveau mondial, il y a en effet une forte corrélation entre les niveaux de PIB et ceux des émissions de CO2, à la fois dans le temps, mais aussi entre les pays.

Pour faire simple, plus une économie est riche, plus elle produit de CO2, en moyenne en tout cas. Il ne s’agit évidemment pas d’un hasard, et, pour une fois, cette corrélation est bien une causalité : plus de production nécessite a priori plus d’énergie, qui nécessite à son tour de brûler plus de charbon, de pétrole et de gaz, comme l’avait bien expliqué Delphine Batho lors du débat des primaires au sein des écologistes.

Mais il n’y a aucune fatalité à cette causalité, bien au contraire.

Prenons à nouveau l’exemple de l’Union européenne, où le marché du carbone fut décidé en 1997 et mis en œuvre dès 2005. Entre 2000 et 2019, dernière année non perturbée par les conséquences économiques de la pandémie, le PIB de l’Union européenne a augmenté de 31 %, alors que l’empreinte carbone de l’Union, c’est-à-dire les émissions domestiques, plus le carbone importé, moins le carbone exporté, ont baissé de 18 %, selon le collectif international d’économistes et de statisticiens Global Carbon Project. On peut donc bien parler de découplage, même s’il est souhaitable de l’accentuer encore.

En revanche, l’empreinte carbone des pays hors OCDE avait augmenté de 131 % sur la même période. Pour les pays moins avancés technologiquement, et surtout pour les plus pauvres d’entre eux, la décroissance n’est évidemment pas une option, et l’usage de ressources fossiles abondantes comme le charbon considéré comme parfaitement légitime.

 

Le coût de la décarbonation

Que répondriez-vous à Sandrine Dixson-Declève, mais aussi Jean-Marc Jancovici, Philippe Bihouix et tous les portevoix de la mouvance décroissantiste, qui estiment que la « croissance verte » est une illusion et que notre modèle de croissance n’est pas insoutenable ?

Je leur donne partiellement raison sur le premier point.

Pour rendre les difficultés, le coût et les efforts de la décarbonation de nos économies plus digestes pour l’opinion publique, les politiques sont tentés de rosir les choses en expliquant que la transition énergétique et écologique créera tant d’emplois et de richesse que ses inconvénients seront négligeables.

Mais si l’on regarde les choses en face, le coût de la décarbonation, dont le récent rapport de Jean Pisani et Selma Mahfouz évalue l’impact sur la dette publique à 25 points de PIB en 2040, sera très lourd. Qu’on utilise plus massivement le prix du carbone (généralisation de l’ETS), avec un impact important sur les prix, qui devront incorporer le renchérissement croissant du carbone utilisé dans la production domestique et les importations, ou qu’on recoure à des programmes d’investissements publics et de subventions massifs, à l’instar de l’IRA américain, le coût sera très élevé et, comme toujours en économie, sera payé au bout du compte par le consommateur-contribuable.

Tout au plus peut-on souhaiter que la priorité soit donnée aux politiques de prix du carbone, impopulaires depuis l’épisode des Gilets jaunes, mais qui sont pourtant moins coûteuses à la société que leurs alternatives, pour un même résultat en termes de décarbonation. Le point crucial, comme le soulignent les auteurs du rapport précité, est qu’à moyen et encore plus à long terme, le coût pour la société de ne pas décarboner nos économies sera bien supérieur à celui de la décarbonation.

J’ajouterais que si les statisticiens nationaux avaient les moyens de calculer un PIB corrigé de la perte de patrimoine collectif causée par la dégradation de l’environnement et le changement climatique – ce qu’on appelle parfois PIB vert, par définition inférieur au PIB publié chaque trimestre – on s’apercevrait que la croissance du PIB vert est plus rapide que celle du PIB standard dans les économies qui réduisent leurs atteintes à l’environnement et leurs émissions de GES. Sous cet angle, vive la croissance verte !

Sur le second point, je crois la question mal posée.

Il n’y a pas de « modèle de croissance » qu’on puisse définir avec rigueur. Il y a bien des modèles de gestion de l’économie, avec, historiquement, les économies de marché capitalistes (où le droit de propriété est assuré par la loi) d’un côté et les économies planifiées socialistes (où la propriété de l’essentiel des moyens de production est collective) de l’autre.

Mais ces deux modèles économiques avaient -et ont toujours pour leurs partisans- l’objectif d’augmenter la richesse par habitant, donc de stimuler la croissance. Du point de vue privilégié par Sandrine Dixson-Declève ou Jean-Marc Jancovici, celui de la soutenabilité, le modèle capitaliste devrait être préférable au modèle socialiste, qui, comme l’expérience de l’Union soviétique (disparition de la Mer d’Aral), de la RDA (terrains tellement pollués que leur valeur fut jugée négative lors des privatisations post-unification) ou de la Chine de Mao (où l’extermination des moineaux pour doubler la production agricole causa l’une des plus grandes famines de l’histoire de la Chine à cause des invasions de sauterelles) l’ont amplement démontré, prélevait bien plus sur le patrimoine naturel que son concurrent capitaliste.

La bonne question est celle des moyens à mettre en œuvre pour décarboner nos économies.

Réduire autoritairement la production comme le souhaitent les décroissantistes cohérents avec leurs convictions, demanderait l’instauration d’un régime politique imposant une appropriation collective des entreprises, puis une planification décidant ce qui est autorisé et ce qui ne l’est pas. Ne parlons pas de « modèle de croissance », mais de modèle économique, et le débat sera bien plus clair. Je suis bien entendu en faveur d’un modèle préservant la liberté économique, mais en lui imposant la contrainte de décarbonation par une politique de prix du carbone généralisée, la difficulté étant de faire comprendre aux électeurs que c’est leur intérêt bien compris.

 

Quand la Chine s’endormira

La tertiarisation de l’économie chinoise et le vieillissement de sa population sont deux facteurs structurant un ralentissement de la productivité. La croissance chinoise a-t-elle fini son galop ?

Oui, le régime de croissance de la Chine a fondamentalement changé au cours des dernières années. Après la libéralisation économique de Deng Xiaoping et l’application au-delà de toute prévision de son slogan, « il est bon de s’enrichir » grâce à l’insertion dans l’économie mondiale et à l’ouverture aux capitaux et technologies occidentales, la Chine a connu un rythme de développement et d’enrichissement (en moyenne, car les disparités villes-campagnes sont toujours profondes) unique dans l’histoire de l’humanité. Les masses chinoises sont sorties de la misère sordide dans laquelle les seigneurs de la guerre, puis l’occupation japonaise, puis enfin le régime maoïste les avait condamnées.

Mais la croissance « à deux chiffres » était tirée par le rattrapage technologique côté offre, l’investissement et les exportations côté demande, et ces moteurs ne peuvent durer éternellement. Côté offre, le rattrapage devient plus difficile lorsqu’on s’approche des standards mondiaux, ce que l’Europe a compris après 1970, d’autant plus que la rivalité stratégique avec les États-Unis réduit encore l’accès à l’innovation de pointe étrangère.

En interne, la reprise en main des entreprises par le Parti communiste, et la préférence donnée à celles contrôlées par l’État, l’obsession du contrôle du comportement de la population, réduisent considérablement la capacité d’innovation domestique, comme le fait remarquer depuis longtemps mon ancien collègue Stephen Roach.

Du côté de la demande, la Chine pourrait bien être tombée dans la trappe à dette qui a caractérisé l’économie japonaise après l’éclatement de ses bulles immobilières et d’actions du début des années 1970, en raison de l’excès d’offre immobilière et de l’immense dette privée accumulée dans ce secteur. Richard Koo avait décrit cette maladie macroéconomique « récession de bilan » pour le Japon. Les dirigeants chinois étaient hantés depuis longtemps par ce risque, qui mettrait à mal l’objectif de Xi Jinping de « devenir (modérément ajoute-t-il) riche avant d’être vieux », mais, paradoxalement, la re-politisation de la gestion économique pourrait bien le rendre réel. Comme la population active baisse en Chine depuis maintenant dix ans, et qu’elle va inévitablement s’accélérer, la croissance pourrait bien converger vers 3 % l’an, ce qui serait à tout prendre encore une réussite pour l’élévation du niveau de vie, voire encore moins, ce qui deviendrait politiquement difficile à gérer.

 

Dépendance au marché chinois

Faut-il anticiper un découplage de l’économie chinoise avec les économies de l’Union européenne et des États-Unis, dont de nombreux marchés sont devenus dépendants des importations chinoises ? Si celui-ci advenait, quels pays concernerait-il en priorité ?

L’économie chinoise occupe une place centrale dans l’économie mondiale, même si elle n’est pas tout à fait l’usine du monde comme on se plaisait à le dire avant 2008. Les tensions stratégiques avec les États-Unis mais aussi avec l’Europe, la réalisation par les entreprises que la baisse de coût permise par la production en Chine avaient un pendant. Je veux parler du risque de disruption brutale des chaînes d’approvisionnement comme ce fut le cas lors de l’épidémie de covid et des décisions de fermetures de villes entières avant que la politique (imaginaire) de zéro-covid ne fut abandonnée, mais aussi du risque d’interférence excessive des autorités chinoises.

La tendance précédente s’en est trouvée rompue.

Jusqu’en 2008, le commerce mondial croissait deux fois plus vite que le PIB mondial, en raison de l’ouverture de la Chine. De 2008 à 2020, il continua de croître, mais pas plus vite que la production. Depuis 2022, le commerce mondial baisse ou stagne, alors que la croissance mondiale reste positive. C’est la conséquence de la réduction du commerce avec la Chine. On peut donc bien parler de découplage, mais pour la croissance des échanges commerciaux, pas vraiment pour le niveau des échanges avec la Chine qui restent et resteront longtemps dominants dans le commerce mondial, sauf en cas de conflit armé.

En Europe, l’économie la plus touchée par ce renversement de tendance est évidemment l’Allemagne, dont l’industrie avait misé massivement sur la Chine, à la fois comme client pour son industrie automobile et de machines-outils, mais aussi pour la production à destination du marché chinois ou des marchés asiatiques. Ajouté au choix stratégique néfaste d’avoir privilégié le gaz russe comme source d’énergie bon marché, l’affaiblissement des échanges avec la Chine entraîne une profonde remise en question du modèle industriel allemand.

 

Impacts respectifs des élections européennes et américaines sur l’économie mondiale

Les élections européennes se tiendront en juin prochain. Les élections présidentielles américaines auront lieu cinq mois après, en novembre 2024. J’aimerais vous inviter à comparer leurs impacts potentiels sur l’avenir des échanges internationaux. Quels scénarios électoraux pourraient déboucher sur un ralentissement économique ? Sur une régionalisation des échanges ? Sur une croissance des conflits territoriaux ?

J’ai conscience que cette comparaison est limitée, l’Union européenne n’est pas un État fédéral, et il ne s’agit pas de scrutins analogues. Cependant, ces deux moments électoraux auront des conséquences concrètes et immédiates sur les orientations macroéconomiques à l’œuvre sur les deux premières économies du monde.

En cas de victoire de Donald Trump le 4 novembre, les échanges commerciaux avec les États-Unis seraient fortement touchés, avec une politique encore plus protectionniste qu’avec Biden, et un dédain complet pour toute forme de multilatéralisme.

Là encore, l’économie la plus touchée en Europe serait l’Allemagne, mais ne nous faisons pas d’illusions, toute l’Europe serait affaiblie. Plus important encore, une administration Trump cesserait probablement de soutenir financièrement l’Ukraine, laissant l’Union européenne seule à le faire, pour son propre intérêt stratégique. Ce qui ne pourrait qu’envenimer les relations au sein de l’Union, et restreindre les marges de manœuvre financières.

Enfin, une victoire de Trump signerait la fin de l’effort de décarbonation de l’économie américaine engagé par l’administration Biden à coups de subventions. Les conséquence pour le climat seraient désastreuses, d’autant plus que les opinions publiques européennes pourraient en conclure qu’il n’y a pas grand intérêt à faire cavalier seul pour lutter contre le changement climatique.

En revanche, les élections au Parlement européen ne devraient pas voir d’incidence significative sur nos économies. Le sujet ukrainien sera l’un des plus sensibles à ces élections, mais le pouvoir de décision restant essentiellement aux États, le changement ne serait que marginal.

Vous souhaitez réagir à cet entretien ? Apporter une précision, un témoignage ? Ecrivez-nous sur redaction@contrepoints.org

La diplomatie française est prisonnière de l’hyper présidentialisme d’Emmanuel Macron

À l’heure où Stéphane Séjourné vient de succéder à Catherine Colonna au Quai d’Orsay, il ne paraît pas superflu d’esquisser un panorama de la situation de la France et de ses Outre-mer à l’international. Disons-le tout de go, la météo diplomatique n’est pas au beau fixe sur plusieurs fronts : celui, d’abord, de nos relations avec plusieurs pays du continent africain auprès desquels la France a accusé ces derniers mois une perte d’influence considérable ; celui des relations franco-américaines avec en toile de fond le conflit russo-ukrainien et le spectre d’une attaque de Taïwan par la Chine. Ces deux tableaux autorisent à faire un bilan plus que mitigé de la diplomatie macronienne qui s’est vue reprocher, dans des situations pourtant distinctes : incohérence, manque de fiabilité, improvisation, paternalisme et arrogance.

Cette communauté de reproches est d’autant plus frappante à souligner qu’elle a des sources distinctes (chefs d’État, commentateurs de la vie politique et internationale, anciens ambassadeurs, anciens ministres…) et converge vers la personne même du président. En effet, c’est davantage à ce dernier qu’à sa dernière ministre des Affaires étrangères qu’il faut, semble-t-il, imputer ce triste constat qu’a cristallisé l’absence de nombreux chefs d’État ou de personnalités de premier plan lors du Sommet pour la Paix tenu à Paris en novembre dernier. Une partie de notre ancien personnel diplomatique, plusieurs chefs d’État étranger—à l’exception notable de Narendra Modi en Inde —, de nombreux fonctionnaires du ministère en désaccord avec la suppression du corps diplomatique, n’ont pas été, c’est peu dire, enthousiastes, devant les initiatives emphatiques et non-coordonnées prises unilatéralement par le chef de l’État, tel le projet de coalition internationale contre le terrorisme lancé lors d’une déclaration conjointe avec Benjamin Netanyahou au cours d’une visite en Israël le 24 octobre 2023.

 

Le problème majeur de la diplomatie française en ce début 2024, c’est le président lui-même

Le problème majeur de la diplomatie française en ce début 2024, c’est ainsi le président lui-même, en raison de l’interprétation maximaliste — bonapartiste, faudrait-il ajouter ? — qu’il fait de la fonction présidentielle dans le sillage de De Gaulle. On peut identifier, dans la pratique, et ce depuis maintenant six années consécutives— bien que sous l’ère Le Drian les envolées solitaires d’Emmanuel Macron aient été moins frappantes—, ce que je qualifierais volontiers d’abus de la fonction présidentielle.

C’est dans le droit fil de la doctrine gaulliste, qui fait des relations avec l’étranger le domaine réservé du président, quitte à déclencher maints accrocs et tiraillements avec nos alliés, que se situe Emmanuel Macron qui ajoute à ce parti pris une dose d’idéalisme allemand et de Descartes mal digéré qu’on pourrait résumer par une parodie du Cogito : « Je pense et je me pense, donc j’agis. »

Raymond Aron, en rupture de ban avec la tendance idéaliste de la philosophie française, fustige, tout au long de ses Mémoires, l’attitude solipsiste qu’est celle du Général, attitude qui ne va pas sans un « culte de la personnalité » tôt perçu et rejeté par Aron, dès son arrivée à Londres en 1940. De tels traits ne se retrouvent-ils pas chez le président actuel ? Certainement, mais ils sont encore hypertrophiés et intensifiés par une carence en autorité qui, elle, faisait moins défaut au Général, auréolé par ailleurs d’un prestige moral et politique non usurpé.

Dans le domaine des relations internationales, comme sur bien d’autres volets de la politique intérieure française, c’est l’hyper-verticalité des décisions prises par le locataire de l’Élysée qui apparaît ainsi comme un continuum délétère. Un gaullisme outré et un gaullisme survolté, tel apparaît le macronisme dans la manière, ô combien théâtrale, par ailleurs, de gérer les relations internationales. Ce faisant, il s’oppose aux tenants d’un libéralisme politique cohérent qui privilégierait davantage de collégialité et de concertation dans les initiatives, et tenterait véritablement de donner vie et voix au Parlement en matière de politique extérieure.

Macron se prétend pourtant libéral… Que faut-il donc comprendre ? Que c’est la transgression, comme méthode, qui définit son exercice du pouvoir, et que le macronisme, tout comme le gaullisme, ont très peu rimé avec « libéralisme » au sens politique du terme qu’on rappellera avec Aron :

La philosophie libérale ou démocratie est une philosophie du respect de l’homme. À ce titre elle n’est donc nullement liée à une conception individualiste de la société. Bien loin de nier les communautés réelles, elle apprend à chacun à se connaître dans un monde dont il n’est ni le centre ni le tout.

Rien d’un Benjamin Constant, donc, chez l’auteur de Révolution. ses convictions européennes auraient certes pu, et dû, faire signe vers celles de Germaine de Staël, mais là encore la pratique du président en matière de relations internationales est bien trop proche de celle de Bonaparte dans la manière martiale qu’il a de paraître imposer les volontés françaises à nos voisins, qui se méfient d’ailleurs toujours d’un penchant bien français vers l’autoritarisme. Entre De Staël et Bonaparte, il y a une contradiction manifeste, et originelle. Force est de constater que la formule d’un bonapartisme staëlien (ou constantien) ne marche pas. Il serait grand temps d’en tirer les conséquences en cessant de cultiver des oxymores.

 

L’inexistence du Parlement quant aux choix de politique étrangère place la France dans une situation d’anomalie vis-à-vis des autres démocraties occidentales

Pour revenir au rôle du Parlement, son inexistence quasi-complète quant aux choix de politique étrangère — il est à peine, voire pas du tout consulté, et son vote n’est pas requis — place assez nettement la France dans une situation d’anomalie vis-à-vis d’autres démocraties occidentales. Le fait qu’il ait fort peu voix au chapitre nous affaiblit sur le long terme : l’exécutif non pas fort, mais presque tout-puissant, donnant l’illusion d’une plus grande efficacité, ce qui est de plus en plus discutable.

Cet hyper-gaullisme pratiqué par Emmanuel Macron, tant sur la forme que sur le fond, apparaît d’autant plus, en raison de la guerre entreprise par la Russie contre l’Ukraine. Et c’est sur la manière dont la France se positionne à l’égard de Kiev que je voudrais m’arrêter un peu longuement en ce qu’elle cristallise certains tropismes français de mauvais aloi : un anti-américanisme atavique, les annonces de livraison d’armes et la réalité de ces mêmes livraisons qui renvoient au manque de fiabilité de la France sur le plan logistique, des ambiguïtés ici et là dans le soutien à l’Ukraine, et enfin un « neutralisme » larvé dans une façon d’essayer de tenir la neutralité de la France dans le conflit en voulant, tout d’abord, « ne pas humilier Moscou », puis en tergiversant sur le niveau de l’aide matérielle à apporter à Kiev. Une aide dont Jean-Dominique Merchet, entre autres, a souvent pointé dans ses très informés articles de L’Opinion l’opacité, en même temps que la grande faiblesse en comparaison des contributions de nos voisins européens.

C’est à nouveau à Aron, atlantiste tranquille, que je voudrais me référer, et à un passage, en particulier, de ses Mémoires, qui prend place dans la section intitulée « Le Partage de l’Europe » qui fait fort à propos écho à la situation actuelle, dans les hésitations d’une partie de la classe politique, intellectuelle et médiatique française à prendre fait et cause pour l’Ukraine. Le conflit débuté le 24 février 2021 contraint nécessairement à ne pas mettre sur un pied d’égalité Washington et Moscou, à moins de tomber dans ce qu’Aron appelait « l’Imposture de la neutralité » au sujet des divisions suscitées par l’adoption ou le rejet par la France du pacte Atlantique.

Aron rapporte les immenses réserves d’Hubert Beuve-Méry (dans un papier datant du 19 octobre 1945 dans l’hebdomadaire Temps Présent) envers ce pacte, la nécessité à ses yeux pour la France de se tenir à équidistance des deux blocs dans ces prémices de guerre froide. Aron rappelle une phrase du fondateur du journal Le Monde qui le laissa, et le laisse toujours perplexe, trente ans plus tard au moment de l’écriture de ses Mémoires. Aron commente en ces termes la position « neutraliste » de Beuve-Méry : « Enfin il pensait que l’adhésion de la France à l’un des camps accroîtrait les dangers de guerre » puis cite la phrase du grand éditorialiste qu’il tient pour « aberrante » :

Il se peut que l’Europe n’ait pas finalement le moyen d’empêcher la guerre, mais elle est à peu près sûre de la précipiter si elle se laisse glisser dans un camp ou dans un autre.

Aron résume un peu plus loin son sentiment quant à cette position alors très partagée par l’aile gaulliste :

En dernière analyse, tant qu’à choisir, le directeur du Monde choisissait l’Occident bien que son allergie aux États-Unis l’incitât à critiquer peut-être plus souvent les turpitudes du capitalisme américain que les cruautés du totalitarisme soviétique.

Cette réflexion d’Aron au sujet de la position d’Hubert Beuve-Méry me paraît tout à fait transposable aux réserves de certains éditorialistes ou politiques français à l’endroit d’une prise de position ferme et claire de la France pour l’Ukraine qui aggraverait selon eux la guerre.

Les réserves de certains et certaines à l’endroit d’une entrée de Kiev dans l’Union européenne et dans l’OTAN sont, toutes choses étant égales par ailleurs, similaires à celles exprimées par Étienne Gilson (grand médiéviste et universitaire catholique) et Beuve-Méry à l’endroit du pacte Atlantique qui donna lieu à une vive controverse avec Aron. Ce dernier leur répondit à plusieurs reprises dans Le Figaro puis dans des articles de la revue Liberté de l’Esprit.

Gilson, rapporte Aron « accusait [par exemple] les Américains de vouloir acheter avec des dollars le sang français », accusations qu’Aron trouvait non seulement extravagantes mais fumeuses en comparaison des horreurs du régime stalinien. De Gaulle trancha finalement, de justesse, pour la position de Aron en acceptant le pacte, ainsi que le relate Claude Mauriac dans son livre Un autre De Gaulle, journal 1944-1954, pouvant laisser conclure au « spectateur engagé » que ses articles avaient effectivement influencé in extremis le général. Un gaullisme tempéré d’aronisme, tel fut alors le choix sage de De Gaulle dont notre président ferait peut-être bien de se rappeler.

Les réserves actuelles du même ordre à l’endroit des États-Unis dont Emmanuel Todd a souhaité ce jeudi 11 janvier « la disparition » qui serait « la meilleure chose qui puisse arriver à l’Europe » paraissent relever du même niveau de fantasme — à ceci près que Gilson est une signature universitaire d’un tout autre calibre que celle de M. Todd.

 

Les Européens ne doivent pas attendre, pour préparer leurs opinions publiques, une intensification de la guerre de la Russie contre l’Ukraine

Un des enjeux pour la diplomatie française à l’heure des élections américaines en novembre prochain est donc qu’elle se prépare, avec nos alliés européens, à la possibilité d’un « lâchage » de l’Europe via l’Otan si Donald Trump (ou un concurrent républicain) remportait les suffrages. Mais même en cas d’une réélection de Joe Biden ou d’un Démocrate à la Maison Blanche, les Européens ne doivent pas attendre, pour préparer leurs opinions publiques, une intensification de la guerre de la Russie contre l’Ukraine et des contrecoups éventuels pour eux-mêmes.

Une réorientation partielle de l’appareil industriel français au service de la production de munitions ne serait pas du luxe. Mais comme l’écrivait Malraux à Aron en 1950 :

« Étrange pays qui croit assez à la guerre pour stocker des sardines, c’est la principale occupation des Parisiens ici) mais pas assez pour s’occuper de la défense. »

On est toujours là, semble-t-il, en l’absence de courage politique et définition d’une ligne politique claire.

La France, sur ces deux points, devrait être plus avancée, quoique ne soit pas sans écueils cette double recommandation, à l’heure où nos marges budgétaires sont étroites, et où l’état de nos armées n’est pas optimal. Raison de plus pour être courageux. Le projet de Défense européenne étant bloqué, il s’agit pour nous d’appuyer et de conforter les pays voisins, notamment d’Europe centrale et d’Europe de l’Est, par nos initiatives, plutôt que d’haranguer dans le vide ces pays lassés par la rhétorique macronienne trop peu souvent suivie des faits, sinon contradictoire.

 

Ce n’est pas de « locomotive » que la France doit faire figure mais d’ancre, de pays stable et constant dans sa volonté de faire gagner l’Ukraine

Mieux, la France n’ayant jamais fait figure de leader dans le dossier ukrainien, il est impératif qu’elle clarifie sa position en apparaissant comme une alliée fiable et solide aux yeux de Kiev en contribuant davantage à l’effort de guerre ukrainien : c’est par des actes concrets, et non par des mots que notre crédibilité, seulement, viendra. Ce n’est pas de « locomotive » que la France doit faire figure mais d’ancre, de pays stable et constant dans sa volonté, non plus seulement de ne pas laisser gagner la Russie mais de faire gagner l’Ukraine. Les errements, revirements, petites ambiguïtés et flottements du président ne peuvent plus être de mise à l’heure où la victoire peut basculer d’un côté comme de l’autre sur le front ukrainien.

Les États-Unis auraient également besoin d’une France solide et ferme sur ses appuis à un moment où l’électorat américain peut se montrer plus hésitant qu’avant en faveur du financement des Ukrainiens. L’Oncle Sam ne peut avoir l’impression qu’il paie seul la facture de cette guerre se substituant par là même aux responsabilités qui incombent pourtant prioritairement aux Européens. De ce point de vue, la France a un rôle dans lequel elle ne s’investit pas encore de manière suffisante.

Si nous avons perdu du crédit dans les mois passés auprès des États-Unis, notamment suite à notre position confuse sur Taïwan (lors d’une visite d’État d’Emmanuel Macron en Chine) et qui a laissé perplexe nos alliés en général, il n’est pas trop tard pour montrer au monde que nous ne sommes pas que de beaux parleurs en quête d’hypothétique prix sur la scène internationale, mais que nous savons faire preuve de clairvoyance et de solidarité en nous rangeant aux cotés de l’Ukraine et des États-Unis via l’apport d’un soutien logistique plus conséquent.

 

Constance, modestie, sérieux, fiabilité

Notre ligne de conduite en politique étrangère serait ainsi un bon cap à adopter pour notre politique intérieure : constance, modestie, sérieux, fiabilité — et surtout moins de communication. Bref, qu’Emmanuel Macron s’inspire de De Gaulle quand il écoute Raymond Aron, c’est-à-dire qu’il devienne libéral sur le plan politique, et abandonne le « en même temps » appliqué aux relations internationales qui s’apparente à une neutralité mal à propos. Redisons-le avec Aron, la neutralité est une imposture — et sans doute aussi une lâcheté.

Si l’on veut que gagne l’Ukraine, et non pas simplement ne pas la laisser perdre, prendre résolument position est une obligation. Cela vaut également pour les États-Unis d’Amérique qui pourraient être encouragés à faire davantage si leur alliée de toujours, la France, première armée européenne, s’engageait bien plus substantiellement dans l’effort de guerre ukrainien. À craindre Poutine, nous lui donnons raison, et nos tergiversations dans le passage à l’action pourraient finir par coûter cher au continent européen. Il est encore temps de nous ressaisir, en surmontant nos peurs.

L’islamisation de l’Europe : qu’en est-il vraiment ?

À New York comme au Parlement belge, je rencontre de plus en plus d’interlocuteurs qui se disent convaincus que l’islamisation de Bruxelles — et de Londres, ajoutent-ils fréquemment — est désormais inéluctable et n’est plus qu’une question de temps. C’est un pronostic qui paraît audible, mais qui mérite plus que des nuances.

Commençons par relever, sans nous perdre dans les chiffres, que la progression de la population musulmane, à Bruxelles, est aussi massive que fulgurante. Depuis cinquante ans, le nombre de musulmans ne cesse de croître, et vu l’abaissement des frontières européennes, en fait quand ce n’est pas en droit, le mouvement ne semble pas prêt de s’enrayer.

 

Les chiffres

Toutefois, les chiffres ne sont pas aisés à établir. Si l’on veut rester scientifique et factuel, ce n’est pas en constatant la popularité du prénom Mohamed que l’on avancera. C’est là une fallace statistique classique — dénoncée à juste titre par Nassim Nicholas Taleb : la popularité du prénom Mohamed reste très élevée parmi les musulmans, donc à populations égales il y aura plus de Mohamed que de Pierre, Jan et Eric. Ce qui ne « prouve » strictement rien.

La dernière étude fiable sur le sujet date malheureusement de 2015/2016. C’est l’étude du Pr. Jan Hertogen, généralement considérée comme fiable et reprise par le Département d’État américain. Selon cette étude, le pourcentage de musulmans à Bruxelles était en 2015 de 24 %. Des chiffres plus récents sont fournis par le Pew Research Center, mais seulement pour la Belgique dans son ensemble, sans détail par ville. En 2016, 29 % des Bruxellois se revendiquaient musulmans. Si l’on contemple la courbe de progression, on peut estimer que le pourcentage de musulmans à Bruxelles se situe très probablement aujourd’hui en 2023 au début des 30 %.

Les chiffres n’attestent donc en rien une majorité musulmane à Bruxelles — ni sa réalité ni son imminence. Contrairement aux fantasmes d’une certaine droite qui réfléchit aussi mal que la gauche, en Europe, le taux de fécondité des femmes musulmanes s’est effondré, suivant en cela la courbe générale (même s’il reste plus élevé que chez les « natifs » : la faute à qui ?). Le fantasme d’une fécondité musulmane explosive en Europe est un pur mythe. Les préventions légitimes à l’égard de l’islam comme doctrine politique ne doivent pas nous éloigner des catégories élémentaires du raisonnement.

 

L’immigration

Bruxelles n’est pas majoritairement musulmane, et rien ne permet d’affirmer avec certitude qu’elle le deviendra. Car l’immigration n’est pas une donnée invariable, à l’instar de la gravitation universelle. Force est de constater que, dans l’ensemble de l’Europe sauf la Wallonie, nous assistons à l’ascension au pouvoir de partis et personnalités qui tendent vers l’immigration zéro, à tout le moins un moratoire sur l’immigration. Qu’on approuve ou pas cette tendance, c’est un fait.

Car, en dépit des allégations de la gauche, qui présente l’immigration vers l’Europe comme inéluctable, l’immigration n’a strictement rien d’inéluctable. C’est la jurisprudence de la CEDH qui a créé le chaos migratoire actuel, en combinaison avec le Wir Shaffen Das de Angela Merkel.

L’immigration n’est pas une sorte de catastrophe naturelle qui s’abattrait sur l’Europe, inévitablement, à l’instar d’une invasion de sauterelles ou d’un orage d’été. Le chaos migratoire que nous connaissons, en Europe, est un phénomène purement humain, causé par des politiques et des juges.

Or, ce qui a été fait peut être défait. L’afflux de migrants que nous connaissons actuellement peut s’interrompre — après-demain, en neutralisant la CEDH. De ce point de vue, il sera intéressant d’observer ce que fera aux Pays-Bas Geert Wilders, qui a certes mis de l’eau dans son vin, mais qui souhaite mordicus mettre un terme au déferlement migratoire que connaît son joli pays. Sortir de la CEDH est une option — parmi d’autres.

 

La tentation de l’essentialisation

L’implantation massive de populations musulmanes en Europe — 50 millions de personnes en 2030, selon le Pew Research Center — est vécue de façon douloureuse et même dramatique quand dans le même temps une fraction notable de ces populations se radicalise. Par exemple, à la faveur du conflit israélo-palestinien. En France, l’écrasante majorité des actes et agressions antisémites est le fait de musulmans. En Belgique, les préjugés antisémites sont nettement plus répandus parmi les musulmans. Les défilés propalestiniens depuis le 7 octobre sont, trop souvent, le prétexte de slogans antisémites haineux comme nos rues n’en ont plus connu depuis les meetings du NSDAP dans les années trente et quarante du XXe siècle.

Pour autant, il faut se garder de la tentation de cette essentialisation tellement répandue à gauche : l’islam n’est pas une race, ni une fatalité. L’islam est une doctrine politique. On en sort comme on sort du socialisme, de l’écologisme, ou de la religion catholique. Je ne prétends pas que la majorité des musulmans d’Europe reniera l’islam — rien ne permet de le présager — ni que l’islam en Europe se pliera aux normes et valeurs de la civilisation occidentale : là encore, rien ne l’annonce.

Mais considérer que l’islam est une sorte de bloc infrangible, de Sphinx face au temps, qui se maintiendra immuable dans la courbe des siècles, abrogeant tout autre facteur, écrasant toute autre considération, revient à raisonner comme un islamiste, pour qui l’Univers se réduit à l’islam et selon lequel sortir de l’islam est un crime indicible.

Dis autrement, considérer dès à présent que Bruxelles — Paris, Londres — deviendra immanquablement islamique a fortiori islamiste revient à commettre une erreur de fait, et offrir par avance la victoire aux pires extrémistes parmi les musulmans. C’est le type par excellence de cette pensée défaitiste, dont Churchill enseignait dans sa somme magistrale Second World War qu’elle était, dès 1939, plus menaçante que l’ensemble des divisions nazies.

LFI & RN : la théorie du fer à cheval est-elle si pertinente ?

Peut-on dire que la motion de rejet du projet de loi immigration votée le 11 décembre 2023 est une illustration de la théorie du fer à cheval ? Forgée dans les années 1970, elle considère le spectre politique sous la forme d’un arc de cercle dont les extrémités gauche et droite se rejoignent. Mais disons-le d’emblée, la « horseshoe theory » est moins un postulat étayé qu’un jugement spontané. Il a pourtant eu l’intérêt de mettre la lumière sur la structure de l’offre et de la demande politique. Côté demande, si un tiers des électeurs de La France Insoumise (LFI) ont choisi de voter pour Emmanuel Macron au second tour des présidentielles de 2022, 43 % d’entre eux se sont abstenus[1]. Côté offre, n’avons-nous pas vu LFI et le Rassemblement national (RN) soutenir le mouvement des Gilets jaunes ou rejeter le projet de loi de réforme des retraites ?

Soutenir la thèse d’une similitude doctrinaire des extrêmes serait verser dans le syllogisme. La proximité idéologique de deux partis politiques ne peut se mesurer uniquement à des prises de position ponctuelles. C’est une condition probablement nécessaire, mais loin d’être suffisante, pour au moins trois raisons. D’abord parce que la démocratie accorde une place essentielle à l’opposition. Il est sain dans une société que l’individu puisse devenir citoyen et se dresser contre ce qui lui parait injuste. Afin d’endiguer le risque de la tyrannie de la majorité, la théorie libérale prévoit d’institutionnaliser le conflit, c’est-à-dire de protéger celui qui se refuse à adhérer à l’avis des autres. À la suite de Marc Sadoun, on se rappellera la maxime suivante dont Benjamin Constant a la paternité : « Si tous les hommes moins un partageait la même opinion, ils n’en auraient pas pour autant le droit d’imposer silence à cette personne, pas plus que celle-ci, d’imposer silence aux hommes si elle en avait le pouvoir[2] ».

En deuxième lieu, la proximité politique des partis qui se situent aux extrémités du spectre politique peut s’étudier de façon objective, ce qui signifie qu’elle est mesurable. La base de données DatAN met à notre disposition de précieuses informations sur la vie parlementaire. On peut y recueillir la répartition des votes qui rythment le calendrier législatif. Arrêtons-nous sur les 39 textes recensés pour la XVIe législature, amorcée en juillet 2022. Le RN a voté à 24 reprises avec la NUPES, et à 17 reprises avec Renaissance (RE), le groupe de la majorité présidentielle. DatAN fournit une classification des votes en fonction du thème des textes[3]. En économie, le RN et la NUPES se sont plus fréquemment rejoints (8) que le RN et RE (2). Il en est de même dans le domaine des affaires étrangères et européennes (RN-NUPES : 4 ; RN-RE : 0) ou dans celui des Affaires sociales et de santé (RN-NUPES : 9 , RN-RE : 4).

La proximité idéologique des extrêmes peut enfin s’étudier du point de vue du contenu de leurs propositions. On trouve dans la recherche anglo-saxonne, hélas trop souvent caricaturée par nombre de nos universitaires locaux, des enquêtes d’une utilité certaine. Une équipe de politistes a mis au point la PopuList, une banque d’informations qui établit le caractère populiste et eurosceptique des partis européens depuis 1989. Elle établit que le RN et la NUPES sont des partis populistes, eurosceptiques et respectivement d’extrême gauche et d’extrême droite. La définition du populisme à partir de laquelle le classement est construit nous intéresse : « Les partis populistes sont ceux qui soutiennent l’ensemble d’idées selon lequel la société est finalement divisée en deux groupes homogènes et antagonistes, les « gens purs » contre « l’élite corrompue » et affirment que la politique devrait être une expression de la volonté générale du peuple[4] ». Souvent, ils partagent un euroscepticisme plus ou moins exacerbé selon la conjoncture. Dans un second temps, les chercheurs qui ont forgé cet inventaire caractérisent différemment le populisme des extrêmes gauche et droite. Le premier est fondé sur un rejet du capitalisme et sur le désir de rénovation totale des institutions existantes. Le deuxième sur un nationalisme « nativiste » – dans cette optique, l’État doit être « exclusivement habité par les autochtones » – et autoritaire. Les plus perspicaces l’auront deviné, la LFI et le RN cochent les cases. Ce travail a le mérite de dépasser la théorie du fer à cheval car il pointe les différences de ces partis tout en fixant leurs dénominateurs communs.

Pour enfoncer le clou, j’importerai à ces observations le raisonnement de Gérald Bronner. Selon lui, « la spécificité de la pensée extrême tiendra au fait qu’elle adhère radicalement à une idée radicale[5] ». Un extrémiste défend inconditionnellement des positions qui sont intrinsèquement radicales. Mais comment alors jauger la radicalité d’une idée ? Dans le sillage de Raymond Boudon, Bronner définit les idées radicales comme « faiblement transsubjectives » et fortement « sociopathique ». La transsubjectivité d’une idée correspond à sa « capacité à être endossée par un ensemble de personne ». En ce sens, malgré leur irrationalité objective – par exemple : la terre est plate – certaines idées peuvent avoir du succès sur le marché cognitif. Les idées extrêmes sont faiblement transsubjectives. Elles sont peu convaincantes car éloignées de la vérité scientifique. Une idée sera sociopathique si elle contient une dimension conflictuelle. Elle interdit la coexistence entre des blocs de la société qu’elle voit comme antagoniste (par exemple riches et pauvres, étrangers et autochtones etc.).

Le 16 décembre, Manuel Bompard a prononcé la phrase suivante : « Notre projet politique, c’est de renverser le capitalisme dans la septième économie mondiale, et ça ne se fera pas avec des bouquets de fleurs ». Rien que ça. L’objectif du député de LFI serait-il donc de faire passer la 7e économie mondiale au 57e rang ? En plus d’espanter les Hommes de raison, cette déclaration concorde avec les définitions de la PopuList et de l’héritage boudonien. Mais n’allez pas croire que ce dérapage n’est pas programmé. On pourrait faire le florilège des affirmations sensationnelles de la gauche extrême. Elles s’inscrivent dans une stratégie assumée de conflictualisation du politique, imaginée par la chercheuse Chantal Mouffe. Qu’a-t-elle trouvé, cette politiste belge dont les titres de livres ne donnent pas envie de les disposer au pied d’un sapin de Noël ? Au choix, pour pimenter vos fêtes vous pourrez trouver dans L’illusion du consensus (2016), ou dans Pour un populisme de gauche (2019), un tutoriel pour conquérir le pouvoir en faisant revivre la conflictualité entre les familles politiques. Du combat entre le peuple opprimé et les élites néolibérales corrompues, la gauche devrait sortir victorieuse. C’est en peu de mots le résumé caricatural de la pensée caricaturale qui guide l’attitude démagogiques de LFI. Pourquoi marcher contre l’antisémitisme quand on peut défiler au son d’un mélodieux « Dieu est grand ! » dans Paris ?

Mais ne faisons pas de jaloux. L’extrême droite ne s’est pas épargnée de retentissantes sorties tribuniciennes. Voyons-voir la dédiabolisation. Dès la deuxième minute de son débat avec Mathilde Panot, Marion Maréchal annonce sans mauvais jeu de mots la couleur : « Ce débat politique qui va nous confronter ce soir est le grand débat politique des prochaines années. C’est un véritable enjeu de civilisation qui va se jouer […]. Moi je suis contre la disparition de la France, sous le poids de l’immigration et de l’islamisation, vous vous en félicitez, vous l’encouragez, vous l’accélérez. Je suis contre le phénomène de grand remplacement de la population et de la culture française…[6] ». La théorie du grand remplacement, forgée par Renaud Camus est un archétype de la pensée extrême. Faiblement transsubjective car scientifiquement démontée et sociopathique car il n’est pas chaleureux d’être xénophobe dans la vie politique, elle s’accroche au populisme de droite comme une moule à son rocher. On avait presque oublié que le lepénisme dispose également de ses intellectuels. Ne les traiteraient-on pas d’académo-militants s’ils enseignaient leurs pseudo-vérités à l’Université ? Ce n’est pas la question à laquelle je souhaite répondre aujourd’hui, mais elle permet de souligner la présence d’idéologues néfastes de ce côté-ci également du spectre politique.

Extrême gauche et extrême droite s’équivalent-ils ? Non, tout n’est pas relatif. Mais qu’ils soient anticapitalistes, nativistes ou eurosceptiques les populismes sont des antithèses de la pensée libérale et par là du projet républicain. Radicalement radicaux, dangereusement sociopathiques, leur montée en puissance nous impose le retour permanent à une lucidité rigoureuse et au sang froid de la raison. Cela implique, lorsqu’il s’agit de les affronter, de ne pas les renvoyer dos à dos comme les deux faces d’une même pièce, mais bien de forger des argumentaires singuliers pour répondre à chacun d’eux. Les vases ne communiquent probablement pas. Si c’était le cas, la tâche qui incombe au libéralisme serait plus simple. En réalité, il a affaire à deux ennemis distincts, aux visages distincts. Préférons la métaphore du funambule. Sur son flanc gauche, le péril anticapitaliste. Sur son flanc droit, le péril ultranationaliste. Au sol, la fosse aux lions.

[1] IPSOS, Second tour : profil des abstentionnistes et sociologie des électorats, https://www.ipsos.com/fr-fr/presidentielle-2022/second-tour-profil-des-abstentionnistes-et-sociologie-des-electorats

[2] Marc Sadoun, « Opposition et démocratie », Pouvoirs, Le Seuil, 2004

[3] Sur ce point précis, le site n’explique cependant pas sa méthodologie, ce qui peut s’avérer problématique concernant certains textes

[4] https://www.cambridge.org/core/journals/british-journal-of-political-science/article/populist-a-database-of-populist-farleft-and-farright-parties-using-expertinformed-qualitative-comparative-classification-eiqcc/EBF60489A0E1E3D91A6FE066C7ABA2CA

[5] Gérald Bronner, « A la recherche de la pensée extrême », Cités, Presse Universitaire de France, p. 141-150

[6] Mathilde Panot/Marion Maréchal, le débat, BFM TV, https://www.youtube.com/watch?v=OdCvq3ViEsM&t=1307s

La loi ne peut régir la nature qu’avec la main tremblante

Un article de l’IREF.

« Dans la sphère économique, a écrit Bastiat en 1850, un acte, une habitude, une institution, une loi n’engendrent pas seulement un effet, mais une série d’effets. De ces effets, le premier seul est immédiat ; il se manifeste simultanément avec sa cause, on le voit. Les autres ne se déroulent que successivement, on ne les voit pas ; heureux si on les prévoit ».

 

Ce qu’on ne prévoit pas 

Pendant son Grand bond en avant, Mao voulut exterminer de Chine les moineaux qui mangeaient les fruits et graines et réduisaient les récoltes. Toute la population fut dévouée à la chasse des moineaux et bientôt l’opération réussit si bien qu’il n’y en eut quasiment plus. Mais l’homme ne prévoit pas tout. Mao avait oublié que les moineaux mangeaient les insectes nuisibles. Ceux-ci proliférèrent, notamment des nuées de criquets migrateurs qui dévastèrent le pays et causèrent une grande famine en Chine de 1958 à 1962, entraînant selon certaines estimations une trentaine de millions de morts.

Depuis le 1er juin 2022 en France, la loi dite Lemoine est entrée en vigueur. Elle interdit aux assureurs d’interroger sur leur état de santé les ménages souscrivant un emprunt de moins de 200 000 euros dont la fin du remboursement intervient avant les 60 ans des emprunteurs. La conséquence ne s’est pas fait attendre. Les prix de ces assurances ont augmenté de 15 à 20 %, voire 30 %, et nombre de ces contrats ont désormais réduit leur champ de couverture, notamment en supprimant les suites et conséquences des pathologies antérieures.

L’égalitarisme à l’école abaisse le niveau de tous les élèves, sauf ceux qui bénéficient d’une solide éducation à la maison, ce qui accentue l’inégalité.

Les écologistes vont tous nous obliger bientôt à avoir des bacs à compost pour y mettre les résidus alimentaires que nous ne pourrons plus vider dans nos poubelles. Mais déjà ces bacs attirent à Paris et ailleurs une foultitude de rats. Faudra-t-il attendre le retour de la peste pour réagir ?

 

L’homme n’est pas omniscient

« Entre un mauvais et un bon économiste, poursuit Bastiat, voici toute la différence : l’un s’en tient à l’effet visible ; l’autre tient compte et de l’effet qu’on voit et de ceux qu’il faut prévoir ».

Trop de gouvernants, élus et technocrates, ne sont sensibles qu’à l’effet visible et immédiat, qui leur permettra une prochaine réélection ou promotion. La démocratie porte en elle ce défaut d’inciter au court terme. Or, ajoute-t-il « il arrive presque toujours que, lorsque la conséquence immédiate est favorable, les conséquences ultérieures sont funestes, et vice versa. — D’où il suit que le mauvais Économiste poursuit un petit bien actuel qui sera suivi d’un grand mal à venir, tandis que le vrai Économiste poursuit un grand bien à venir, au risque d’un petit mal actuel ».

En effet, c’est le rôle des gouvernants et des économistes de prévoir les conséquences de leurs décisions. Et certains économistes sont meilleurs que d’autres, estiment mieux les conséquences des mesures qu’ils proposent. Mais l’homme étant faillible par nature, et n’étant pas omniscient, nul ne saurait tout prévoir.

 

Favoriser l’autopilotage

D’autant que l’être humain a néanmoins une grande qualité qui consiste à savoir s’adapter. Il dispose d’une intelligence et d’une intuition par lesquelles il évalue à tout moment les situations et y réagit. Par sa liberté et sa volonté, il est capable, dans de nombreux cas, d’adopter des décisions ou des comportements inattendus qui vont modifier la chaîne causale de telle ou telle mesure politique ou économique. C’est ce qui rend toute prévision particulièrement difficile et rend nécessaire une souplesse, une liberté d’appréciation et d’adaptation permanentes pour que les systèmes se conforment à tout moment aux actions humaines et se corrigent en fonction des réactions que nous imposent les lois de la nature.

Il faut en quelque sorte un autopilotage, comme ce que Hayek nommait catallaxie pour signifier « l’espèce particulière d’ordre spontané produit par le marché à travers les actes des gens qui se conforment aux règles juridiques concernant la propriété, les dommages et les contrats ». Cet ordre n’est pas immuable et évolue « par l’ajustement mutuel de nombreuses économies individuelles sur un marché ».

Toute planification recèle l’immense risque d’emmener toute une société dans des erreurs monumentales, imprévues et parfois irréversibles. Le communisme en a été le parangon. Ce n’est pas pour autant qu’il ne faut rien prévoir bien sûr. Mais toute loi impérative, surtout quand elle cherche à modifier l’ordre habituel et/ou naturel des choses, ne doit être prise qu’avec la main qui tremble et laisser toujours la liberté d’y remédier.

Sur le web.

Disney : quand les réalités du marché remettent les entreprises sur les rails

Début décembre, Bob Iger faisait grand bruit :

« Les créateurs ont perdu de vue ce que devait être leur objectif numéro un. Nous devons d’abord divertir. Il ne s’agit pas d’envoyer des messages. » 

Cette mise au point tardive mais bienvenue de l’actuel PDG de Disney tranche avec la politique menée ces dernières années par ce géant du spectacle, encore renforcé par les rachats de l’univers de super-héros Marvel et de Lucasfilm.

Disney perd de l’argent alors que cette compagnie a longtemps eu l’habitude d’en gagner énormément. La plateforme Disney + a ainsi peiné à convaincre, les séries adaptées de l’univers Marvel étant pour la plupart considérées comme étant particulièrement médiocres, et de nombreux amateurs de Star Wars jugeant que la postlogie de Kathleen Kennedy avait trahi le travail de George Lucas.

Bref, tout n’est pas rose du côté de la firme aux grandes oreilles avec l’essoufflement du genre super-héroïque au cinéma. L’overdose de super slips aura en effet fatigué jusqu’aux amateurs, suites et séries en pagaille rendant cet univers de plus en plus difficilement compréhensible.

Pis encore, la volonté d’« inclusivité » a planté un dernier clou dans le cercueil de ce type de films, Marvel et Disney semblant lutter à chaque instant pour trouver des super-héros de couleur ou d’orientations sexuelles minoritaires censément « représentatifs » de la « diversité ».

Cette politique s’est toutefois traduite par des succès commerciaux. Ce fut le cas de la série de films Black Panther inspirée du super-héros du même nom créé dans les années 1960 et 1970. Désormais personnalité fictive emblématique de la communauté afro-américaine, Black Panther vient du pays imaginaire du Wakanda, îlot de prospérité technologique caché au cœur du continent noir. Dans le deuxième volet sorti en 2022, intitulé Wakanda Forever, le réalisateur Ryan Coogler se permettait d’ailleurs d’amener une intrigue jouant de la rhétorique antifrançaise et faisant passer notre pays pour une État prédateur, colonial et soutien du terrorisme…

Il est amusant de se dire que l’œuvre créée par l’immense Walt Disney est désormais aux mains d’activistes politiques appartenant au pire de la gauche dite « woke » d’Amérique du Nord. Le vieux Walt se retournerait d’ailleurs probablement dans sa tombe s’il avait connaissance de cette forfaiture, lui qui n’aimait rien tant que la magie de l’imagination et du rêve. Disney n’a pas eu besoin de politiques « inclusives » pour proposer des films qui l’étaient par essence. Quoi de plus universel en effet qu’une jeune femme devant déjouer la jalousie d’une rivale plus âgée ? Quoi de plus traditionnel que le message de la transmission paternelle véhiculé par Le Roi Lion ? Mais l’époque est au grand renversement : il faut tuer l’héritage de Disney, l’occulter et le cacher afin de ne pas offenser cette tyrannie des minorités qui domine d’une main de fer l’État de Californie et l’Hollywood contemporains.

Certains films ont même été retirés du catalogue de la plateforme Disney +, à l’image de Peter Pan parce qu’on y trouve des peaux-rouges ou des Aristochats dont le personnage de chat siamois serait insultant pour les Asiatiques…

En revanche, Disney ne se gêne pas pour changer l’ethnie de la Petite Sirène d’Andersen née pourtant au Danemark, pays européen s’il en est. Le monde anglo-saxon semble s’abandonner à une folie révisionniste, voire dans certains cas négationnistes, touchant même les personnages historiques. La BBC n’a par exemple pas hésité à proposer des séries avec des vikings incarnés par des Africains subsahariens. Disney est dans ce genre exemplaire, allant au-delà des attentes de son public le plus radical. Car, au fond, le problème est que Disney ne s’adresse plus aujourd’hui uniquement aux enfants, mais bien à une part croissante du public occidental bloqué dans l’enfance, réagissant hystériquement à chaque sortie de film.

Reste que la résistance passive ou active s’organise. « Go woke, go broke », disent aujourd’hui certains analystes de la vie économique américaine. Avec sa campagne inhabituelle convoquant Dylan Mulvanay, célèbre trans américain, le brasseur Budweiser a perdu énormément de clients.

Cela a aussi été le cas pour Gillette qui a misé sur une campagne inclusive pour… vendre des rasoirs à des hommes.

La règle d’or de la publicité est de s’adresser à ses consommateurs. La règle d’or du commerce est de vendre le produit qu’attendent les clients. Disney doit offrir des films de grand spectacle aux valeurs universelles afin d’entrer dans ses comptes. Les messages politiques le desservent. Gageons que nous retournions vite à la normale, la tyrannie des minorités aura une fin.

Paternalisme et centralisation : les bons remèdes de monsieur Attal

Jeudi 5 décembre 2023. L’ange Gabriel (Attal) descend sur la France, porteur d’une bonne et d’une mauvaise nouvelle.

Commençons par la mauvaise : les conclusions de la dernière étude PISA pointent les résultats catastrophiques des petits Français, en particulier en mathématiques. Une « baisse historique » des performances, peut-on lire çà et là. Rien de surprenant pourtant : l’enseignement public est en piteux état depuis des décennies. Il ne se relèvera pas spontanément de cette longue maladie.

Heureusement – et voilà la bonne nouvelle ! – Gabriel Attal apporte des remèdes. Une thérapie à base d’électrochocs : « le choc des savoirs ». « Pour chaque élève, il y aura un avant et un après » assure-t-il. On se prend à croire aux miracles…

À sa décharge, M. Attal n’est ministre de l’Éducation nationale que depuis peu. Ce n’est pas à lui mais à ses prédécesseurs qu’il faut imputer la déroute de l’école publique. Enfin… n’oublions quand même pas que c’est ce gouvernement qui a permis à M. Pap Ndiaye d’imposer ses lubies écologico-sexuelles et à M. Jean-Michel Blanquer de se déguiser en réac afin d’amadouer la droite tout en interdisant l’instruction en famille et en instaurant l’obligation scolaire à 3 ans…

Monsieur Attal se voit en homme providentiel : grâce à des mesures qu’il présente lui-même comme « de bon sens », il s’engage à renflouer une institution à la dérive et à réformer un corps professoral de 860 000 personnes, coiffé d’une administration pléthorique.

N’écoutant que son courage, il souhaite « lever un tabou » en permettant aux enseignants de décider du redoublement des élèves. Notons au passage que le redoublement est généralement demandé par des parents, et refusé par les enseignants… Bref. Il promet aussi de créer des groupes de niveaux « dans chaque collège ». Il a bien insisté sur le fait qu’aucun collège n’échapperait à cette mesure. Cela me rappelle le bon temps où Najat Vallaud-Belkacem jurait que 100 % des élèves seraient dotés d’une tablette dans 100 % des classes, elles-mêmes équipées de tableaux numériques interactifs. Le démon uniformisateur habite nos ministres, et passe de l’un à l’autre sans perdre de sa puissance.

Gabriel Attal annonce aussi qu’il mettra très vite au travail le Conseil supérieur des programmes pour que ceux-ci s’articulent autour de quatre priorités : clarté, exigence, sciences et culture générale. Après « l’école de la confiance » et « l’école de l’engagement », on comprend qu’il veut un revirement à 180 degrés. Et d’ailleurs, est-ce bien le même homme qui nous promettait des cours d’empathie ?

 

Juste constat, fausses solutions

Avec ce retournement, il marque des points : l’école souffre en effet de ne plus transmettre de connaissances, de privilégier le bien-être plutôt que l’effort.

Mais elle pâtit surtout d’un manque d’autonomie. Ses acteurs réclament davantage de liberté et de responsabilité : comment accepter que le remplacement d’une chaudière prenne des semaines, en plein hiver, alors que des lycéens grelottent en doudounes ? Comment supporter que tous les écoliers soient évalués avec un livret scolaire unique (le LSU) obligeant des centaines de milliers d’enseignants à jongler entre compétences et pastilles de couleurs ?

Pourtant, lorsqu’on écoute attentivement monsieur Attal, on entend un ministre fier de tenir en sa main le sort de 12 millions d’élèves.

« Je suis à la tête de la plus grosse administration européenne » a-t-il rappelé avec un sourire satisfait lors d’un récent reportage télévisé1. Il est issu d’un établissement privé renommé. Pourtant, à aucun moment il n’a évoqué la liberté pour les parents de choisir la meilleure école. Il ne remet pas en cause la sectorisation qui assigne à résidence les familles les plus modestes. Il n’est plus question d’autonomie des chefs d’établissements mais, au contraire, de faire labelliser des manuels par le ministère. Par qui seront-ils rédigés ? Les enseignants ne souhaitant pas utiliser ces manuels d’Etat devront-ils se justifier auprès des inspecteurs ? Quid de l’innovation pédagogique dont font preuve les éditeurs privés ?

Il souhaite que les professeurs aient le dernier mot quant au redoublement. Mais – faut-il le rappeler ? – la France est signataire de conventions internationales affirmant que les parents sont les premiers éducateurs de leurs enfants. Plutôt que « lever le tabou du redoublement » monsieur Attal pourrait mettre en place un nouveau certificat d’études. Seuls les heureux détenteurs de ce « certif » accéderaient au collège, ce qui rendrait caduques les tractations privées.

 

Opposition du corps enseignant

Il a à peine évoqué la formation des enseignants.

Elle constitue pourtant un problème crucial : on confie aujourd’hui sans vergogne des cohortes d’enfants à des professeurs n’ayant que de vagues connaissances disciplinaires et qui, pour nombre d’entre eux, embrassent cette carrière pour décrocher le statut de fonctionnaire, Graal moderne.

Il faut revoir d’urgence le contenu des formations délivrées par les Inspections dont les sites vantent « l’appropriation de l’éducation à la sexualité » (Inspection de Lille) ou les formations sur les « inégalités de genre » (Inspé de Toulouse), en écriture inclusive bien sûr. Il faut redonner aux enseignants des raisons d’être fiers : enseigner est le plus beau métier du monde à condition de l’exercer librement, dans un pays qui valorise la transmission d’un patrimoine, la responsabilité individuelle, et non l’engagement à tout prix.

Monsieur Attal se montre tour à tour paternaliste et autoritaire. Malheureusement, il ne suffira pas de repeindre l’école de 2023 en école de la Troisième République pour résoudre les graves problèmes auxquels elle fait face.

Ce que refusent de voir les ministres successifs, et Gabriel Attal n’échappe pas à la règle, c’est d’abord leur impuissance face à un corps professoral fortement syndiqué, formé dans des centres où règne sans partage une idéologie gauchiste, et à une administration tentaculaire. Rappelez-vous monsieur Blanquer exigeant que l’on rétablisse la méthode syllabique, et se heurtant à l’inertie du corps professoral. Quatre années plus tard, la méthode semi-globale est encore très largement utilisée dans les classes de CP… Voyez la façon dont le « pacte » proposé aux enseignants a été écarté d’office par la plupart des syndicats, suivis par leurs ouailles. Les réactions aux annonces de ce jour ont été immédiates : les mêmes organisations syndicales dénoncent un ministre « loin des réalités », inconscient des conséquences de ses annonces, en particulier celle de l’organisation de classes de niveaux qui nécessite une réorganisation complète du collège.

 

La fuite vers l’enseignement privé

Les occupants de la rue de Grenelle ignorent aussi superbement la fuite des élèves vers les écoles privées dites hors contrat, libres de la tutelle étatique. Elles sont pourtant souvent plus chères car les salaires des enseignants, les locaux, l’ensemble des dépenses y sont couvertes par les parents. Alors, qu’est-ce qui les rend si séduisantes ? N’ayant pas adhéré au fameux contrat avec l’État, elles peuvent recruter, former (et licencier !) leurs professeurs car ceux-ci ne sont pas fonctionnaires ; elles sont aussi libres de leurs horaires et de l’affectation de leurs budgets. Elles doivent atteindre les objectifs de fin de cycle, mais ne sont pas tenues d’appliquer les programmes ni de se laisser envahir par les nouvelles technologies, l’écologie, l’idéologie… Elles évaluent leurs élèves comme bon leur semble. Cette liberté s’exerce dans le respect de l’ordre public bien sûr : elles sont inspectées bien plus souvent et minutieusement que les écoles publiques. Elles scolarisent environ 120 000 élèves, soit 1 % des effectifs, nombre encore jamais atteint en France, et en croissance constante.

Autrefois réservées aux riches et aux initiés, elles se démocratisent largement grâce à des fondations, comme Excellence ruralités qui bataille pour recréer des écoles dans les déserts français, et des projets personnels originaux. Au cours Candelier par exemple, dans le Nord, les enfants apprennent la grammaire « à l’ancienne », le dessin académique, les mathématiques avec la fameuse méthode Singapour que vient de découvrir M. Attal, le chant choral et la calligraphie. On n’y enseigne ni les écoquartiers ni les dangers d’internet, et on n’oblige pas les élèves à ramasser des mégots ou à reboiser le pays pour servir l’État. Depuis sa création en 2010, cette école joue à guichets fermés. Rigueur, exigence, responsabilité : les parents, les professeurs et leurs élèves en redemandent.

Devant le gaspillage de l’argent public, 56 % des Français souhaitent que l’État finance l’école de leur choix2, quel que soit son statut. Ils sont de plus en plus nombreux à le faire eux-mêmes, alors qu’ils paient régulièrement leurs impôts : ils « double-paient » donc pour échapper à la mainmise du ministère, pour sauver leurs enfants du naufrage. Comme l’écrit Chantal Delsol : « on n’entre pas dans le public parce qu’il est meilleur, mais parce qu’il est monopolistique. »3

 

L’enseignement à la peine en Occident

Ne nous y trompons pas : nous sommes loin d’être les seuls à rencontrer des difficultés pour instruire nos enfants.

Les ravages du covid, l’hétérogénéité des élèves, la concurrence des écrans et l’abandon d’un certain modèle transmissif ne sont pas spécifiques à la France. De nombreux pays occidentaux voient leurs résultats régresser. Il faudra nous montrer créatifs et cesser d’appliquer à des problèmes modernes des solutions anciennes (qui n’ont parfois jamais vraiment fonctionné). Il faudra ouvrir le système à la concurrence, favoriser la transparence, permettre aux enseignants de se former vraiment, en Inspé ou ailleurs si ceux-ci ne s’acquittent plus de leur office.

Souhaitons que les mesures qu’envisage M. Attal portent leurs fruits. Espérons qu’elles permettent de gommer un peu les inégalités que l’école française reproduit et amplifie plus que les autres. En attendant, ne sacrifions pas plus longtemps des millions d’enfants sur l’autel de l’égalitarisme. Permettons-leur de bénéficier des meilleures pratiques, d’où qu’elles viennent, sans a priori politique.

  1. « Zone interdite » du 12 novembre 2023. M6
  2. Sondage IFOP de mai 2023 sur « l’égalité d’accès à une éducation de qualité en France ».
  3. La Détresse du petit Pierre qui ne sait pas lire.

L’enfer est pavé de bonnes intentions (22) – Le piège de l’identité

Le politologue, conférencier et professeur d’université américain Yasha Mounk retrace dans un livre qui devrait faire parler de lui, les conséquences et les dangers d’une idéologie actuellement très en vogue aux États-Unis, et qui se rapproche de plus en plus de chez nous en Europe.

Sous couvert de bonnes intentions, elle s’annonce un facteur de divisions, voire de conflits haineux et montants.

 

La fin de l’universalisme

Par un retournement inouï de l’Histoire, la ségrégation raciale est réapparue en de nombreux lieux des États-Unis, paradoxalement, sous le prétexte de lutter contre le racisme !

Pare exemple, dans certaines écoles ou grandes universités, des enfants ou étudiants sont désormais séparés dans des classes selon leur couleur de peau, non à l’initiative de Blancs, mais la plupart du temps de Noirs, voire d’Asiatiques. Étonnamment, l’affirmation explicite de l’identité raciale est considérée alors comme « un effort en faveur de la diversité, de l’égalité et de l’inclusion ». Drôle d’époque…

Le séparatisme « progressiste » est ainsi en train de gagner de plus en plus de terrain aux États-Unis, en lieu et place de cet universalisme que nous avons mis tant de siècles à ériger, valeur à présent nettement en recul. Il s’impose chaque jour davantage dans le discours dominant américain. Et progresse en Europe.

Il en va de même pour les questions de genre, d’origine culturelle ou d’orientation sexuelle. Nombre d’institutions considèrent désormais que leur responsabilité est de traiter les individus différemment selon leur groupe d’appartenance. Jusque dans la médecine, les prescriptions médicales et les actes chirurgicaux, où les Noirs et Hispaniques – par une forme mesquine de présumée « équité » au regard du passé – deviennent par exemple prioritaires en cas de pénurie, sans plus de considération pour ce qui a toujours guidé les valeurs fondamentales de la médecine : sauver des vies, qui n’est plus la priorité. Même chose dans d’autres domaines pour les femmes ou les trans, comme les aides financières.

Tout phénomènes fruits de la montée en puissance de la cancel culture. Dont Yasha Mounk nous démontre ici le caractère idéologique et délétère (si je reprends le sous-titre de l’ouvrage), aux conséquences graves, tant en matière de libertés que d’égalité.

Il considère que nous aurions tort de ne pas prendre au sérieux la montée inexorable de ces mouvements. C’est pourquoi il propose de commencer par comprendre ce qui fait leur attrait. Il élabore ainsi un diagnostic de ce qu’il choisit d’appeler « la synthèse identitaire ». Celle-ci provient de la persistance d’inégalités et d’injustices à l’égard de différentes minorités malgré les grands progrès accomplis au cours des dernières décennies. Le sentiment que les choses ne vont pas assez vite. Le problème n’est donc pas tant dans le diagnostic que dans les solutions que cette synthèse propose.

 

Les défenseurs de la synthèse identitaire rejettent les valeurs universelles et les règles de neutralité, telles que la liberté d’expression et l’égalité d’accès à toute dignité, comme des diversions visant à occulter et à perpétrer la marginalisation des groupes minoritaires. Toujours selon eux, tenter de progresser vers une société plus juste en redoublant d’efforts dans la poursuite de ces idéaux serait voué à l’échec. C’est pourquoi ils mettent les communautés au centre de la réflexion, à la fois pour comprendre le monde et informer nos actions en son sein […] Elle confère à ses défenseurs le sentiment d’appartenir au grand mouvement historique qui rendra le monde meilleur. Tout cela explique son attrait, en particulier chez les jeunes idéalistes.

 

Selon eux, tout doit être analysé sous le prisme des catégories identitaires, même des situations qui semblent pourtant sans rapport. Mais en réalité, les bonnes intentions se transforment en piège. Et les résultats sur lesquels elles vont déboucher seront contre-productifs, car elles incitent chaque communauté à se battre pour les intérêts collectifs de son groupe particulier. Ceci ne peut que mener à des tribus en guerre les unes contre les autres.

 

Une analyse historique

Retraçant les grandes phases marquantes du XXe siècle, Yascha Mounk en vient à présenter l’itinéraire et la place qu’y occupe la pensée de Michel Foucault. Celui par qui – rejoint bientôt par d’autres à l’image de Deleuze – le rejet de l’identité va prendre forme intellectuellement.

Il va inspirer plus tard un scepticisme encore plus radical de la part de certains de ses lecteurs et penseurs postmodernes, qui vont aller beaucoup plus loin dans ce rejet, rejoints par les penseurs postcoloniaux des années 1970 et 1980, qui se baseront sur l’éthique postmoderne de Foucault pour fonder leurs idées de déconstruction des discours et grands récits de l’ère coloniale.

Ce qui rend la lecture intéressante est la manière dont Yasha Mounk nous conte l’histoire notamment du mouvement des droits civiques, dont les succès trop limités vont déboucher sur de profondes déceptions. On comprend mieux ainsi comment ce mouvement finit par être peu à peu rejeté, pour laisser place à ses opposants de la théorie critique de la race. Directement en lien avec l’histoire des États-Unis, en fin de compte. C’est également cette narration historique qui nous permet de mieux comprendre dans quel contexte est née l’intersectionnalité, bien avant qu’elle ne se durcisse pour aboutir au mouvement que nous connaissons aujourd’hui.

La chute du Mur de Berlin en 1989 et l’effondrement du communisme, principal artisan de la critique des démocraties libérales, a laissé place à un nouveau facteur de cohésion de la gauche, qui a ainsi pu recycler les questions d’identité (y compris de genres). À travers leurs circuits traditionnels : les Universités et la sociologie.

La synthèse identitaire va ainsi peu à peu s’imposer, en occupant une place de plus en plus importante et quasi obsessionnelle dans la société américaine. Ce sont surtout les réseaux sociaux qui vont jouer un rôle majeur, en diffusant des modes très simplifiés de communication (à la première personne du singulier) sur les communautés identitaires. Qui vont révolutionner la manière d’exprimer des idées très sommaires, qui se répandent ensuite vers les organes de presse traditionnels comme le New York Times. Jusqu’à ce que le cadre de pensée d’une grande partie des Américains en soit transformé, paradoxalement particulièrement chez les Blancs très diplômés. Et qu’il touche ensuite les institutions des États-Unis, les fondations et ONG, le monde du travail, des affaires, du spectacle et de la politique. Jusqu’à une grande firme comme Coca-Cola, qui s’est lancée en 2020 dans un grand plan d’inclusion, demandant entre autres à ses employés « d’être moins blancs » !

C’est surtout dans les entreprises américaines les plus prestigieuses que le militantisme s’est développé depuis quelques années, avant de se répandre ensuite à toutes les entreprises des mêmes secteurs. La judiciarisation croissante autour des discriminations raciales ayant en sus renforcé encore le phénomène.

 

La courte marche au travers des institutions a commencé dans les entreprises de la tech et les firmes recrutant en priorité dans les universités d’élite, en compétition pour le recrutement des talents et très soucieuses d’éviter toute publicité négative. D’autres grandes entreprises ont vite suivi le mouvement en raison du militantisme interne de leurs employés et d’incitations juridiques à émuler les actions de leurs concurrentes.

 

Institutions progressistes et orthodoxie identitaire

L’arrivée de Donald Trump au pouvoir n’a fait que renforcer les adhésions à ces mouvements, en réaction à ce qu’il pouvait représenter aux yeux de beaucoup.

Puis, c’est dans les milieux « progressistes », à l’Université et dans les journaux, que la radicalisation s’est imposée, après une sorte de chasse aux sorcières et des pressions entre pairs qui a amené une nouvelle orthodoxie, avant de s’étendre aux entreprises et aux associations. Il était vite arrivé, au sein même des milieux progressistes, de se retrouver suspect d’être raciste, sexiste, ou même partisan de Donald Trump. De véritables luttes internes ont laissé la place aux plus extrémistes, puis au conformisme désormais de rigueur.

Dans la troisième partie de l’ouvrage, Yasha Mounk porte un regard critique sur la manière dont la synthèse identitaire subvertit les normes et les valeurs, à travers cinq applications motivées au départ par des injustices authentiques, mais qui débouchent en définitive sur un piège, dans la mesure où elles nuisent au but qu’elles sont censées servir.

Afin de ne pas surcharger cette présentation déjà longue, nous nous contenterons de citer ces cinq doctrines mises en œuvre, qui donnent lieu chacune à des développements à travers un chapitre à part entière :

  1. La théorie du point de vue (qui postule que les citoyens de groupes différents ne pourront jamais totalement se comprendre, et que les privilégiés devraient s’en remettre aux exigences politiques des marginalisés),
  2. L’appropriation culturelle (qui considère que les groupes doivent jouir d’une forme de propriété collective de leurs produits et artefacts culturels, des modes vestimentaires aux plats traditionnels, leur usage étant soumis à des restrictions pour qui n’appartient pas à ces groupes),
  3. Les limites de la liberté d’expression (l’État et la société devant veiller, y compris par la loi, ou à travers une « culture des conséquences », à dissuader d’exprimer des propos jugés offensants à l’égard des groupes minoritaires),
  4. Le séparatisme progressiste (visant à ce que chacun s’identifie à son groupe ethnique, religieux et sexuel d’appartenance, et bénéficie d’espaces réservés afin de renforcer la prise de conscience),
  5. Les politiques publiques sensibles à l’identité (dont le but est de redresser les inégalités socio-économiques durables entre communautés, l’État devant favoriser les groupes historiquement discriminés).

 

Cinq chapitres instructifs dans lesquels de multiples exemples concrets sont présentés, donnant un aperçu évocateur des orientations actuelles de la société américaine. De manière souvent ahurissante (que l’on ne souhaite pas vraiment voir se répandre chez nous, même si cela a en partie commencé à se diffuser, y compris dans des domaines où nous aurions refusé de croire, il y a encore peu, que cela était imaginable ici).

 

Défendre l’universalisme

C’est avec des concepts comme le racisme structurel – venu supplanter la définition traditionnelle du racisme – que l’on en vient à nourrir des préjugés dangereux à l’égard de communautés considérées comme « privilégiées », par exemple « les Blancs », à l’égard desquels l’idée de racisme est considérée par ses promoteurs comme tout simplement impossible. De la même manière, ceux qui – sous prétexte de défendre les droits des trans – entendent rendre caduque pour tous la réalité de l’existence du sexe biologique, mettent en danger les réalités de la médecine, de certaines institutions, des compétitions sportives.

En outre, les militants de la synthèse identitaire – soucieux de remettre en cause certaines injustices réelles en la matière – entendent contester la méritocratie. Là où une égalité des chances correctement mise en œuvre serait bien plus pertinente et efficace que leur remède « qui serait pire que le mal ». Et là où la défense de l’universalisme a toutes les raisons d’aboutir à des solutions bien plus opportunes. Ce qui fait l’objet de la dernière partie de l’ouvrage.

Selon Yasha Mounk, les principaux adversaires de la synthèse identitaire sont les libéraux, à travers notamment leurs principes universalistes. C’est justement le libéralisme honni qu’il choisit quant à lui de défendre. Et c’est une réponse libérale qu’il entend leur opposer, en s’attaquant à leurs fondations logiques, en particulier à leur propension à vouloir expliquer tous les événements historiques ou présents à l’aune de la race, du genre et de l’orientation sexuelle ; ou à opposer systématiquement la domination des privilégiés ou groupes dominants aux marginalisés (à l’image du marxisme dans un autre domaine). Pour finalement tenter de favoriser ceux qui ont été historiquement pénalisés, en établissant de nouvelles normes et valeurs se substituant aux valeurs universelles.

Là où le libéralisme et ses principes universels n’entend aucunement défendre des élites. Au contraire, le libéralisme est attaché à l’idée que les hommes naissent libres et égaux en droits. Il est attaché à l’égalité politique des citoyens, aux libertés individuelles, à l’idée que les individus doivent disposer des mêmes droits et devoirs, quelle que soit leur communauté religieuse, ethnique ou culturelle. C’est le sens même de l’universalisme. Et Yasha Mounk poursuit en montrant les succès des démocraties libérales.

C’est pourquoi, dans son chapitre de conclusion, il s’interroge sur les manières d’échapper au piège de l’identité, que de plus en plus d’individus jusque-là enthousiastes cherchent à présent à fuir. L’identité, remarque l’un d’entre eux, « devient une sorte de marqueur de légitimité idéologique ou stratégique intrinsèque. Une identité marginalisée se déploie comme le convoyeur d’une vérité qui doit simplement être acceptée ». Débouchant sur des menaces, des autodafés, des démissions forcées, des séparatismes, de nouvelles normes, des chasses aux sorcières, des annulations de concerts, spectacles ou conférences, ou encore des censures. Et un pessimisme ambiant peu à même de permettre d’aller de l’avant, de mener des projets sains et porteurs de talents.

Un caractère destructeur et manichéen qu’il sera difficile de vaincre, tant certaines normes illibérales se sont imposées et ancrées dans les institutions centrales. Yasha Mounk note cependant que depuis un ou deux ans, des signes d’inflexion apparaissent, que le piège identitaire commence un peu à passer de mode. Ce qui lui laisse penser qu’au moins les pires excès du piège identitaire devraient disparaître au cours de la décennie à venir. Pour le reste, il reviendra aux libéraux notamment de favoriser le débat en vue de défendre nos valeurs fondamentales. Même si cela ne sera pas facile, tant la peur règne. Il délivre quelques conseils susceptibles d’aller en ce sens, en s’armant du courage qui vient trop souvent à manquer, et sans lequel rien ne sera possible.

 

Yasha Mounk, Le piège de l’identité, Editions de l’Observatoir, novembre 2023, 560 pages.

 

À lire aussi :

[Série sur les mythes de la diversification IV/IV] L’endettement favorise la diversification, la diversification favorise l’endettement

Dernier article de la série sur les mythes liés à la diversification. Partie I ; Partie II ; Partie III.

La diversification agit comme une bombe à neutrons et s’apparente de plus en plus à un pont de la rivière Kwaï : elle détruit la réalité en maintenant les apparences, et plus elle est « bien faite » et plus le mal s’aggrave. Un mal profondément anti-libéral.

Tout ce qui précède a en effet des conséquences en cascade, ne serait-ce que par le canal de la finance. Or, nos économies sont très financiarisées, elles ne l’ont jamais été autant, pour le meilleur (le levier de la dette peut permettre d’accélérer le temps) et pour le pire (confiez un levier important à une personne peu compétente, vous obtiendrez de drôles de résultats).

On ne peut plus discuter 15 minutes avec son dentiste sans entendre parler de placements, de taux d’intérêt, de rendements locatifs. Dans ce contexte, une allocation du capital perverse n’est pas sans conséquences sociétales majeures. A fortiori quand notre épargne financière devient assez riquiqui en comparaison des engagements titanesques que nous avons déjà pris et que nous continuons allègrement à prendre (engagements climatiques par exemple, pas mieux provisionnés que les engagements de l’État-providence), sur fond de baisse tendancielle de ce qui permet en théorie de les couvrir (la croissance).

Quand on produit de telles quantités de dettes sans vrais collatéraux économiques, il vaut mieux ne pas se tromper du tout au tout quant à l’allocation de l’épargne.

 

La diversification est un vecteur de diversion des investissements

D’abord, la diversification radicale donne sa chance à des produits et à des comportements qui devraient être éliminés.

Des canards boiteux, des firmes zombies, de faux actifs. En un sens, c’est un voile anti-darwinien, un vecteur de diversions qui nous empêche de cheminer vers les vrais prix, qui entretient l’écart entre le prix et la valeur. Le biais de diversification entraîne d’abord une complaisance malsaine pour les affaires de l’État et ses dettes surnuméraires ; mais ce point est tellement documenté et consensuel que je fais vite ici.

Il contribue ensuite à bloquer la mobilité, la méritocratie ou ce qu’il en reste, dans un contexte où, au niveau de la firme, l’entrepreneur est de plus en plus exfiltré au bénéfice de comités diversitaires. On dissuade même l’épargnant de mettre son argent dans une entreprise pilotée de façon tranchée par un fondateur avec alignement radical des intérêts : au nom du risque du key man (alors que pour ma part je suis plutôt rassuré quand une entreprise est pilotée par un homme clé plutôt que par un comité de managers). De plus en plus nous vivons dans un monde où il faut échouer dans les règles plutôt que réussir en dehors : un monde anti-utilitariste, à 180 degrés de Brad Gilbert ou de Jack Bauer. Où les décideurs de la gestion des actifs ressemblent à ces chamans des peuples primitifs en plein culte du Cargo, ou à ces enfants qui crient « maison magique » en sautant sur le canapé, bien mieux protégés en effet que les épargnants qui n’ont quant à eux récolté avec la diversification qu’un faux sentiment de sécurité et un brouillage complet dans l’imputation des responsabilités.

Il y a toute une culture du non-choix qui domine désormais dans tous les domaines et qui pousse à la diversification, mais il existe aussi des signaux de plus en plus nombreux selon lesquels la diversisification renforce cette culture du non-choix. D’où une dynamique de spirale, de crise mimétique, l’impression qu’on ne va pas s’en sortir de sitôt, et un nouveau recul de la tradition libérale si on se souvient que cette dernière reposait sur une propriété pas trop diluée, la concurrence pour faire du marché une machine à apprendre, et le questionnement de l’autorité.

À l’arrivée, une société du faux-semblant, où plus personne ne prend ses responsabilités, et où plus personne ne fait son travail initial. En effet, dans un monde devenu irréel, les gens ne font plus leur travail, ce qui ne signifie pas qu’ils ne font rien, mais disons qu’ils s’éloignent de leur périmètre initial. Ils diversifient en un sens. Les salariés font des fresques climatiques. Le Conseil constitutionnel (qui ne comporte désormais aucun constitutionnaliste) ne regarde plus la Constitution, et comme le Conseil d’État, invente des principes, les banquiers centraux (qui même aux USA ne sont plus économistes) ne font plus de la politique monétaire mais un tas d’autres choses (supervision bancaire, encadrement du crédit, surveillance des finances publiques, pressions pour une modération salariale, séminaires sur les aspects structurels, la natalité et la fonte des glaciers).

Pourquoi dans ces conditions les conseillers en gestion de patrimoine travailleraient-ils encore pour leurs clients au lieu de se protéger prioritairement du devoir de conseil ? Ce qu’ils nomment pompeusement « Diversification » n’est le plus souvent qu’une technique de diffraction du blâme.

La dévalorisation de la connaissance est particulièrement inquiétante, qu’elle soit cause ou conséquence de la diversification. Sur les dettes, elle a conduit à ignorer les collatéraux, à un désintérêt pour la substance (mentalité « après nous le déluge » et « pourvu que ça dure »).

Sur les actions, cela confine au ridicule puisque la création de valeur dans le monde est le fait essentiellement depuis 15 ans d’une dizaine de boîtes du même secteur et du même pays : « the winner takes all », partout sauf dans les portefeuilles de nos bons élèves diversifiés. Sur les taux de change, le refus de comprendre est à son zénith (en lien avec une culture monétaire en chute libre en Occident) : c’est presque un gros mot dans les réunions, alors que le FX a rarement été aussi crucial, comme indicateur avancé, et comme possible moteur de performance dans un contexte de riquiquisation de la croissance.

 

Dans le secteur immobilier le bilan de la diversification est effroyable

Qu’ont accompli en 25 ans les dispositifs Périssol, Besson, Borloo, Robien, Scellier, Duflot ou Pinel, sinon contribuer à une allocation disproportionnée vers la pierre ?

Un secteur qui crée très peu de valeur, des emplois peu qualifiés et une assiette fiscale fixiste, mais qui fonctionne grâce au levier de la dette, dont les prix montent grâce aux restrictions sur l’offre et où on observe des marges cossues pour toute une chaîne d’intermédiaires cartellisés : la rente idéale pour les élites politiques et financières (jusqu’à ce qu’ils changent subitement d’avis à 180 degrés en laissant le grand public dans la panade).

On a ainsi créé une épargne financière rare, paresseuse et hypocrite, bien taillée pour financer l’économie d’hier, les entreprises à comités, l’immobilier vide de bureaux, le genre Caisse des dépôts et consignations. Cette épargne particulière est un magot aussi inerte que convoité. Les dispositifs se multiplient donc pour la mettre au service de toutes les causes vertueuses (la vertu étant définie chez nous par des énarques) : transition énergétique, réindustrialisation, logement social, sauvegarde des bébés phoques.

Le « fléchage » de cet argent est une affaire qui mobilise les esprits les meilleurs et les plus désintéressés, toujours au nom de la protection par la diversification, est-il besoin de le préciser. Notre fonds vert vous protégera des incidents climatiques. Notre fonds Made in France vous protégera d’une crise de démondialisation. Pour chaque peur il y a une solution, un canal de distribution, et souvent une carotte fiscalo-sociale dédiée.

Mais reprenons un peu de hauteur pour identifier l’origine du mal.

 

La culture de la diversification : paresse et aversion au risque

L’enfermement dans la monoculture diversificationniste repose sur des logiques puissantes.

Quand on remonte les chaînes causales on voit que ce n’est pas un simple complot, une mode passagère ou un accident.

En amont, si l’on admet qu’il y a une demande de bureaucratie avant qu’il y ait une offre, et une « envie de pénal » avant les dérives persécutrices, il y a probablement, avant les excès de la diversification, la disparition du courage en Occident. Qui conduit au relativisme.

Et après le relativisme et le suivisme arrive l’aquoibonisme. À quoi bon sélectionner pendant des centaines d’heures les meilleurs investissements possibles si le marché ou ses serviteurs le font pour moi, vite et à moindre frais ? À quoi bon me distinguer et risquer de prendre des coups si je peux proposer à mon client une solution standardisée, pré-packagée, qui ne me fera courir aucun risque personnel ? À quoi bon développer des compétences sur une classe d’actifs si je peux en vendre plusieurs, aveuglément, et le tout avec la bénédiction des plus hautes autorités ?

Ensuite arrivent en effet les régulateurs et les banquiers centraux, qui poussent eux aussi dans cette direction conformiste, sans forcément le vouloir. Tout se ligue pour prohiber la concentration, les choix, l’audace. Mais j’insiste sur le fait que le client a sa part de responsabilité.

Il est de plus en plus prudent. Il faut dire aussi qu’il est de plus en plus vieux. Ceci explique-t-il cela ? Ou faut-il invoquer Pareto, qui notait que les gens ont tendance à mettre un vernis logique à leurs actions ? De nos jours, la diversification sert de vernis principal, et quand il craque on en remet une couche, jusqu’au point où on ne sait plus vraiment ce qu’il recouvre. Ce processus d’effacement des traces, qui rend vaine toute évaluation sérieuse, est bien pratique. Vous n’avez pas bénéficié de l’enrichissement fabuleux lié aux GAFAM, mais rassurez-vous, votre portefeuille a été bien diversifié tout du long, dans le respect des normes d’équilibre et de modération.

Un système bien intentionné, mais qui se fiche des résultats et vire à l’absurdistan scientiste, qui vous expose en prétendant vous protéger, et où une petite élite s’engraisse sans prendre aucun risque véritable, cela ne vous rappelle rien ? Eh oui, c’est le socialisme, bravo. Le capitalisme financier moderne partage de nombreux points avec le socialisme brejnévien, à commencer par le rejet de la conviction, le recours à une novlangue pour dissimuler les failles du système. Et bientôt la tendance à traiter les opposants comme des cas psychiatriques ?

Ce soviétisme n’est pas incompatible avec des réactions nobiliaires. On l’a vu avec le Bitcoin, Tesla, ou Gamestop. Rien ne doit dépasser, sinon c’est une bulle, une saleté. Du moins, le temps de récupérer l’idée : il y aura bientôt un ETF de Blackrock sur les cryptomonnaies, on les fera donc entrer demain sur les étagères. De même, Tesla n’est devenue « honorable » que lors de son entrée dans l’indice SP500 (quand sa capitalisation ne permettait vraiment plus de l’en écarter…), et encore, à condition de mépriser les avis des agences de notation (qui continuent de traiter les très rares dettes de cette firme comme ultra-risquées, là où les dettes surabondantes d’acteurs en perte de vitesse sont bien mieux notées. Toute coïncidence avec la structure de rémunération des dites agences serait parfaitement fortuite).

 

L’endettement favorise la diversification, la diversification favorise l’endettement

Si l’endettement pousse à la diversification, la diversification favorise l’endettement. De nouvelles formes de dettes apparaissent donc chaque année pour diversifier les poches obligataires, des dettes certifiées vertes, sociales, islamiques, fédérales européennes, etc. Le plus souvent en dépit du bon sens (les dettes pseudo-européennes ne sont pas adossées à un contribuable européen, les green bonds transpirent le greenwashing, etc.). Des métastases qui se prennent pour des solutions.

Il n’y a qu’un seul domaine où tous les acteurs ne pousseront que rarement à la diversification, précisément le domaine où une plus grande diversification se justifierait très bien : l’internationalisation des portefeuilles.

Car votre banquier, votre gestionnaire de fonds et votre conseiller en gestion de patrimoine sont des acteurs locaux soumis au biais d’habitat, un biais domestique : le grand large est pour eux une chose compliquée, hostile, il ne leur sera jamais reproché de pousser du Sanofi ou du Air Liquide, alors qu’un nom américain et a fortiori chinois, même de grande qualité ne bénéficierait pas, en cas d’échec, de la même indulgence.

La seule zone de diversification qu’il vous faut donc travailler un peu est celle des titres et des produits non libellés en euro. Là, il y a un manque criant, et presque systématiquement défavorable à votre rapport rendement/risque de moyen terme : vous êtes trop hexagonaux et/ou trop europhiles dans vos investissements, alors que toute l’expérience des dernières décennies tend à montrer que conserver des portefeuilles à plus de 70 % investis en zone euro revient à attribuer à nos décideurs une indulgence qu’ils ne méritent plus et à cette économie une confiance exagérée.

Quelles que soient vos opinions fondamentales sur le dollar américain, le franc suisse ou le yuan, dites-vous que l’euro est bien plus mortel, dans tous les sens du terme. Sans compter que vous y êtes déjà très exposés au quotidien. Cela ne signifie pas qu’il faut acheter tout ce qui passe en monnaie étrangère et à tout moment, mais c’est un axe d’amélioration évident, et en même temps un axe de sécurisation pour le cas où les choses monétaires tourneraient mal chez nous (ce qui constitue la tendance de fond depuis 2007, et ce qui pourrait s’accélérer). Pensez à l’épargnant russe en 1914, ou au japonais en 1990. Et l’on pourrait même étendre cette méfiance aux USA, dans une moindre mesure : que 50 % des titres financiers de cette planète soient localisés à New York et dans sa proche banlieue est de plus en plus anachronique.

Le jeune Occidental de moins en moins bien formé veut devenir influenceur sur YouTube pour dispenser des conseils beauté, le jeune Chinois de mieux en mieux formé veut finir astronaute. Il y a sans doute pour l’investisseur moyen/long terme un intérêt à investiguer dans cette direction, au fur et à mesure que les marchés chinois gagnent en maturité ; ce qui élargira au passage sa gamme de choix.

 

En conclusion, une bonne culture financière  permet d’éviter les pièges de la diversification

Un jour, un journaliste traînait du côté des courts de tennis où s’entraînaient les champions. Il repéra qu’Ivan Lendl passait son temps à faire des séries de coups droit. Il vint le voir après la séance d’entrainement et lui demanda : « Mr Lendl, pourquoi peaufiner sans cesse ce coup droit dans lequel vous excellez ? Ne serait-il pas plus judicieux de faire des séries de revers ? Vous avez déjà le meilleur coup droit au monde ». Et le n°1 de répondre sèchement : « Mais à votre avis, pourquoi ai-je le meilleur coup droit ? ».

Voilà quelque chose qui n’est compris que par les artistes, les grands entrepreneurs, les champions : on ne peut pas exceller en tout (c’est un mythe de khâgneux). Il faut travailler ses points forts et non colmater ses points faibles, et c’est en renforçant son avantage comparatif qu’on va créer la percée, le déséquilibre chez l’autre, peut-être la grâce en soi, qui sait ? Certainement pas en dispersant ses efforts harmonieusement, « en même temps », le long d’une ligne Maginot.

Je gage que le journaliste n’avait pas bien compris la réponse d’Ivan Lendl, surtout s’il était français.

Je gage aussi qu’une minorité des épargnants redeviendront des investisseurs, et non plus des optimisateurs sous contraintes : tant que le courage ne reviendra pas, il n’y a pas grand-chose à espérer. Tout juste peut-on exposer un peu plus à la lumière les fausses promesses d’une gestion des actifs présentée comme un long fleuve tranquille à condition de faire comme le troupeau.

La plupart des fortunes en ce bas monde ont été bâties en ne détenant qu’un seul business. Si ce dernier est solide et que vous le comprenez bien, vous devriez l’aimer et lui rester fidèle, au lieu de courir des dizaines de lièvres : fuyez ceux qui vous disent qu’il ne faut pas tomber amoureux de ses investissements, ce ne sont pas des investisseurs mais des Don Juan à la petite semaine. La mentalité petite-bourgeoise est plus souvent punie que récompensée sur les marchés. Aimer quelques rares titres dûment sélectionnés vous procurera des avantages cruciaux : plus de connaissances, moins d’allers et retours donc moins de frais, moins de ventes dans la panique, et moins d’achats dans la bulle. C’est aussi beaucoup plus intéressant. Pour citer Chamfort, les raisonnables ont duré mais les passionnés ont vécu.

Plus pragmatiquement, si le processus d’investissement doit s’attacher autant à éviter les loosers qu’à sélectionner les winners, j’évite pour ma part (modulo de rares exceptions) les secteurs qui prévoient toujours des hausses de prix parce qu’ils aiment l’idée que leurs revenus vont monter quoi qu’ils fassent : les pétrolières, avec le prix du baril ; les bancaires, avec les taux ; les grosses pharmaceutiques, avec les remboursements des caisses sociales ; les foncières, avec les restrictions sur la construction.

Je préfère les secteurs qui réalisent de la croissance et des gains de productivité, qui recrutent des gens pointus, qui sont largement mondialisés (comprendre : implantés en Chine), pas complètement capturés par les managers et sans trop de dettes nettes : quelques entreprises de la Tech, Tesla en tête.

La vraie protection ? une bonne culture économique et financière, de la patience, une marge de sécurité autour de chaque décision, ne pas avoir honte de garder du cash (pourquoi les analystes se moquent-ils du cash ? Parce que ce sont des analystes !), travailler ses points forts comme Ivan Lendl. La réponse de premier rang en cas d’incompétence n’est pas la diversification mais la non-participation, l’abstentionnisme financier.

La vraie honnêteté ? l’alignement des intérêts, et une opération vérité sur la rémunération des intermédiaires, autrement dit la concurrence et un écosystème de la pensée critique. C’est peu dire que l’épargne fléchée et administrée s’éloigne des principes libéraux les plus avérés.

La vraie épargne ? en faveur des forces productives : mobilière, assumée, longue, internationalisée, moins matraquée par le fisc et par les intermédiaires ; et elle se marierait bien avec une vraie participation, pas seulement de l’intéressement à la marge pour des cadres supérieurs.

Quel est le taux de marge acceptable par les consommateurs ?

C’est la question que tout le monde se pose :

  • les associations de consommateurs qui soupçonnent les producteurs, mais aussi les grandes surfaces de s’enrichir en période de crise ;
  • les producteurs, intermédiaires et distributeurs qui ne cessent de se réunir au moins mensuellement pour ajuster le taux ;
  • la classe politique qui se partage entre ceux qui pensent que le pouvoir fait tout pour sauvegarder le pouvoir d’achat (par exemple en contrôlant les prix des produits de première nécessité) ;
  • ceux qui se révoltent contre les politiques financières et budgétaires qui créent et amplifient l’inflation qui ruine le pouvoir d’achat.

 

À mon sens, la question n’a ni queue ni tête, parce que la formation des prix, et les « marges » qui en découlent obéissent à une logique que tout le monde semble ignorer, du moins dans notre pays.

Qu’apprend-on à l’école (quand on apprend quelque chose) et quel est le bon sens populaire ? C’est l’équation : Recettes – coûts = bénéfices, que l’on peut décliner sous diverses formes : Coûts + bénéfices  = prix de vente (ou l’inverse)

 

Valeur intrinsèque et valeur marchande

Pour moi, et pour de nombreux économistes, ces formules sont celles des XVIIe et XVIIIe siècles, lorsque la théorie de la valeur était balbutiante.

C’est peut-être la faute d’Adam Smith, c’est sûrement celle de David Ricardo : la valeur d’un produit n’est pas marchande, elle est intrinsèque.

L’exemple de la valeur-travail, qui hante encore les esprits deux siècles plus tard, est simple : un produit a une valeur double de celle d’un autre s’il a fallu 10 heures de travail pour l’un contre 5 heures pour l’autre.

De plus, la frontière n’est pas dessinée entre la valeur et le prix : le prix n’est que l’expression monétaire de la valeur, la stabilité de l’étalon monétaire est assurée. C’est dire que l’on n’a même pas compris les leçons des dérapages financiers et monétaires du XVIIe siècle et des inflations qui se sont succédé.

Plus tranquilles, les physiocrates français s’en remettaient à la seule valeur fondamentale, d’après eux : la terre. Et ici il ne s’agit ni de prix ni de coût : la propriété foncière rapporte une rente, c’est-à-dire un revenu sans travail dont l’origine est le droit de propriété foncière. David Ricardo en est bien persuadé, et il prépare la légère amodiation qu’apportera Marx : ce n’est pas la propriété foncière qui enrichit sans cause, c’est la propriété du capital industriel. C’est donc la propriété qui est le vice du système capitaliste.

J’ai fait ce court rappel historique pour indiquer que tous les économistes n’ont pas été aussi aveugles.

Après Turgot, c’est surtout Jean-Baptiste Say qui va enfin comprendre ce qu’il faut pour produire : du travail certes, du capital (investissement), mais aussi un « entre-preneur » dont la mission est de se situer entre les besoins des consommateurs et les moyens de satisfaire leurs besoins. Il fait faire un double progrès à la science économique, d’abord en reprenant Smith et Turgot sur la théorie de l’échange, l’économie reposant sur la diversité des individus et la personnalisation des choix ; ensuite en mettant en lumière le personnage de l’entrepreneur, qu’il connait d’autant mieux qu’il appartient à une famille d’entrepreneurs. Dès lors, l’entrepreneur mérite d’être rémunéré pour le service qu’il rend, et cette rémunération s’appelle le profit.

À son époque, on estimait que les profits étaient minces et que peu de personnes créaient des entreprises, du moins en France (et il part en Angleterre, fâché avec Napoléon qui n’aime pas le libre-échange). Donc, dans la valeur finale du bien ou du service il y aura addition des salaires, des intérêts, des profits. Les profits ne sont prélevés ni sur les salariés ni sur les financiers qui avancent les capitaux, ils sont une rémunération indispensable de l’art d’entreprendre.

 

Néo-classiques et Autrichiens

La science économique va continuer à progresser dans cette direction.

À la fin du XIXe siècle, Carl Menger économiste autrichien, va réagir contre les excès et les erreurs de ceux que l’on nomme les « néo-classiques » (Alfred Marshall) qui veulent résumer la conduite individuelle à un pur calcul rationnel : homo œconomicus. Il n’y aurait qu’une façon et une seule de fixer les prix, qui eux-mêmes dépendent des quantités offertes et demandées. La loi de l’offre et de la demande semble avoir tout réglé. On introduit quelques amendements pour rendre compte que le calcul rationnel ne peut exister que dans un climat de concurrence pure et parfaite. Mais dans les années 1920, on va placer l’homo œconomicus face à des marchés de concurrence imparfaite, d’oligopoles, etc. jusqu’à ce qu’on s’aperçoive que toutes ces approximations étaient pures inventions.

Par contraste, Carl Menger revient à la dimension marchande de l’économie, donc à l’importance des comportements individuels. Ludwig von Mises, un de ses premiers disciples, parlera de l’économie comme de « la science du comportement humain », la praxéologie.

Mais Carl Menger avait repris l’idée de Jean-Baptiste Say sur le rôle décisif de l’entrepreneur, et il a lié la qualité de ce dernier à deux variables décisives : le temps et l’information.

Il avait ainsi établi les piliers de la science économique contemporaine.

 

Le facteur résiduel

Une autre aventure a permis de progresser.

Dans les années 1960, plusieurs économistes se sont mis à travailler sur ce que nous appellions les fonctions de production. Dans la valeur d’un produit, quel est l’apport de différents facteurs de production ?

Ces fonctions se sont libérées du vieux théorème : V= f (W,K) (la valeur est fonction du travail et du capital), et en observant des milliers de cas, ils se sont mis à mesurer ce qui pouvait augmenter si on ajoutait à W et K quelque chose d’autre, que l’on va appeler facteur résiduel. Dans les manuels d’économie français le facteur résiduel, inexpliqué a priori, est identifié comme le progrès technique.

Dans les années 1960, quand j’étais étudiant, voici importées des États Unis les nouvelles fonctions de production avec Solow et Cobb-Douglas, qui nous renseignent mieux sur ce qui se passe au niveau de la valeur :

  1. Le facteur a beau être résiduel, il explique la moitié de la valeur ajoutée par le travail et le capital réunis
  2. La valeur varie lorsqu’on substitue du travail au capital ou l’inverse : on calcule des élasticités de substitution 
  3. Dans la plupart des cas étudiés, on ne peut caractériser l’origine du facteur résiduel, ou sa mesure est impossible.

 

Finalement, on va en déduire que la valeur que l’acheteur final (en principe le consommateur) est amené à payer dépend d’une multitude de facteurs, et que l’entreprise y est sans doute pour quelque chose puisque, conformément à ce que disait Jean-Baptiste Say, c’est bien lui qui gère les facteurs de production, mais c’est aussi bien lui qui comprend ce que veut sa clientèle.

Donc, on peut dire qu’une partie au moins du facteur résiduel représente la rémunération de l’art d’entreprendre, et cette rémunération est le profit. Il y a loin de ce profit à cette marge calculée dans les livres d’écoliers.

 

L’art d’entreprendre dans une économie de libre marché

Mais on en sait un peu plus sur l’art d’entreprendre depuis Carl Menger, et grâce en particulier à Israël Kirzner, dernier membre vivant des disciples de Mises.

En insistant sur le temps et l’information, Menger et Mises avaient démontré toute la dimension du travail de l’entrepreneur, parce que le temps et l’information varient avec les individus et avec les circonstances.

Kirzner va décrire ce que sait faire l’entrepreneur. Non, il n’est pas l’homme hors du commun imaginé par Joseph Schumpeter (qui finira socialiste), tout le monde peut devenir entrepreneur dès lors qu’il a compris ce que d’autres n’avaient pas encore perçu : il a une antériorité de perception, parce qu’il sait traduire les signaux du marché : « alertness », il trouve évident ce que d’autres n’ont pas encore perçu. Cela peut être le cas de l’ouvrier dans un atelier qui s’aperçoit qu’il est plus facile de travailler avec un outil qu’avec un autre, d’un côté ou de l’autre ; c’est le cas de celui qui sait qu’au bout du marché le cageot de raisin se vend 25 euros au lieu de 40 ailleurs.

La vie économique organisée par le marché concurrentiel, avec libre entrée et libre sortie, est d’une telle richesse qu’elle secrète des innovations, des changements en permanence : c’est un « processus de découverte » dit Kirzner.

Bien évidemment, nous ne vivons pas dans une économie de marché, parce que les États et la politique s’en sont occupés. De la sorte, le profit n’entre plus en scène, et les marges sont fixées avant même que le prix ait été connu.

Voilà donc l’absurdité de la question aux yeux de la science économique : comment connaître une marge, un bénéfice, alors même que le prix n’est pas encore connu, ou n’est pas pris en compte ? Le prix mesure la valeur, la valeur dépend de l’apport des facteurs de production et de ce que l’entrepreneur en aura fait pour les adapter aux goûts et aux moyens de la clientèle.

C’est bien ce que je disais : il faut ignorer la science économique pour fixer ex ante un taux de marge.

[1] On pourra se reporter au livre de Pierre Garello La concurrence, Processus de Découverte Economics, éd. 2014

Sur le web.

[Série sur les mythes de la diversification III/IV] Les ravages de la diversification

Partie I & Partie II.

« Il est difficile d’imaginer une façon plus stupide ou plus dangereuse de prendre des décisions qu’en les mettant entre les mains de personnes qui ne paient aucun prix pour avoir tort » – Thomas Sowell

La neutralité était l’apanage des profs des universités, quand leurs théories hérésiarques servaient jadis à injecter une discipline utile ; ce n’est pas le cas de leurs successeurs, des corporates et des commerciaux qui ont un biais très fort sur ce sujet. Un biais que vous devriez connaître.

Ce n’est pas que votre conseiller financier soit foncièrement malhonnête. Mais vous devez vous mettre quelques minutes à sa place.

Comprendre un peu son degré d’information et surtout la structure de ses incitations. Ce n’est pas un investisseur, ce n’est pas son argent, et il est exposé à un risque de réputation. S’il s’engage en délivrant un avis tranché ou non-conformiste, c’est tout son commerce qui se retrouve en risque. On lui reprochera moins des performances durablement médiocres qu’une erreur saillante à un moment donné sur un dossier identifiable. Cela limite son assertivité, pour ne pas parler de son envie de creuser sur tel ou tel segment. Il dira alors qu’il est « agnostique » sur les classes d’actifs et sur les entreprises, ce qui de nos jours signifie concrètement qu’il est athée. Rien n’incite au courage dans ce milieu (il est vrai que l’on peut en dire autant d’autres secteurs économiques !), et l’asymptote d’un tel système est un mix entre le Too big to fail et le « tout se vaut. » Option inch’Allah, spécialité « c’est pas ma faute à moi ».

 

Les ravages du conformisme financier

S’il n’est pas indépendant, le conseiller financier n’est qu’un maillon d’une chaîne industrielle très conformiste qui pousse à vendre un peu de tout un peu tout le temps pour engranger un maximum de fees le plus longtemps possible.

S’il est indépendant, il reste dépendant du qu’en dira-t-on, et trop petit pour risquer une erreur qui ferait tache, et le plus souvent trop isolé pour avoir le temps de creuser la recherche loin dans une direction particulière. Dans tous les cas il a intérêt à promouvoir la diversification, à pousser une multiplicité de produits, et à recommencer le plus souvent possible car il est davantage rémunéré à la transaction qu’à la performance. Son mantra : offrir des « solutions », recommander au client d’être pleinement investi ou d’acheter « de façon disciplinée » (comprenez : régulièrement). Mais s’agit-il pour lui de soigner vos actifs ou de lisser son passif ?

Pourquoi vous pousse-t-on vers de la dette privée, du Private Equity, des SCPI et diverses « solutions » de pierre-papier, vers des produits structurés ? Du fait des marges. De leurs marges. Dans votre grande distraction capitaliste, vous restiez sur quelques actions ou des obligations simples, vous n’aviez pas tout un tas de choses. On vous les propose, après un relooking, un rebrandage : les junk bonds (obligations pourries) sont devenus du High Yield (obligations à haut rendement), les penny stocks sont devenus des small caps, etc.

Dans les fonds, la discrétion du gérant est partout, votre intérêt n’est peut-être pas la priorité. Vous croyez vous être lié à une règle (la diversification), vous voilà lié à l’agent de la règle. Très exactement ce que les pères théoriciens voulaient éviter !

Ce paradoxe ne devrait pas nous étonner. On l’a bien vu à l’échelle macroéconomique avec l’indépendance des banques centrales, qui était censée réduire la marge discrétionnaire des détenteurs de l’arme monétaire et qui, dans les faits, a encouragé l’irresponsabilité, la personnification et l’opacité dans les affaires monétaires. Pour s’immuniser du chant des sirènes, on a sanctuarisé un acteur qui poursuit son propre agenda, qui interprète son objectif à sa guise, qui peut désormais exercer toutes sortes de chantages, et contre lequel il n’y a ni appel ni cassation.

De la même manière, vous faites de l’indiciel, parce que c’est labellisé donc « sûr », et puis chemin faisant et logique commerciale aidant, vous voilà avec des « ETF intelligents » et autres produits hybrides. Vous vouliez vous lier les mains pour résister aux tentations discrétionnaires, vous vous retrouvez avec plein de choses non-maitrisées (et de plus en plus souvent illiquides) dans votre portefeuille… Par contre, vos mains sont bien liées. Si l’approche est « disciplinée », elle l’est curieusement dans le sens des intérêts de l’industrie de la gestion d’actifs. À se demander si ce n’est pas cette dernière qui distribue les labels de rectitude, en se servant de la théorie des années 1950-1960 comme d’un paravent, d’une caution et d’un couteau suisse.

 

À qui la faute ?

Est-ce la faute des experts ? Oui et non.

Comme le dit le dicton, il est difficile de faire comprendre une chose à un homme quand son salaire dépend de sa capacité à ne pas la comprendre. L’expert pharmaceutique est payé pour placer les produits maison ; l’expert en cyclisme à France 2 a longtemps été payé pour ne pas trop parler du dopage ; l’expert égyptologue ne peut pas dénoncer l’incurie des autorités locales, et en particulier la malhonnêteté de Zahi Hawass, sinon il perdrait l’accès aux sites de fouilles ; l’expert financier n’est pas vraiment poussé à exposer toutes les limites d’une diversification maximale (il « tuerait le business »).

On ne peut se fier aux experts que si l’on maîtrise à peu près les règles du jeu qu’ils pratiquent.

Il existe ici comme ailleurs deux catégories de personnes : celles qui ne savent pas ce qu’elles disent, et celles qui ne disent pas ce qu’elles savent.

Les premières promeuvent la diversification car c’est dans les manuels, c’est la doxa, et elles n’ont pas la force ou la légitimité d’aller contre l’opinion du grand public, et contre les travaux anciens des universitaires.

Les secondes promeuvent la diversification dans le cadre d’un rapport rendement/risque plus cynique, quitte à ne pas la pratiquer dans leurs finances privées : celles-là se voient souvent comme des gérants de supermarchés, qui ont intérêt à disposer d’un grand nombre d’étagères et de marques pour satisfaire toutes les demandes des clients. Il ne faut pas compter sur eux pour promouvoir une logique plus exigeante ou plus éducative, à la Jacques Chancel (« ne pas donner aux gens ce qu’ils aiment, mais ce qu’ils pourraient aimer »).

Tous ces gens veulent des revenus diversifiés et récurrents, d’où leur dégout vis-à-vis du cash et du choix, leur amour pour les produits illiquides, les montages sophistiqués, l’immobilier tant que ça monte, et les slogans prémâchés (« trend is your friend », « le carry est mon ami », etc.).

Ils dirigent une boutique, pas un centre de recherche. Même s’ils parviennent parfois à faire croire le contraire (Ray Dalio, Kathy Wood…), n’oubliez pas qu’ils doivent davantage leur fortune aux frais de gestion et à leur business communicationnel qu’à leurs performances nettes sur l’ensemble du cycle. Ce sont les vendeurs qui règnent sur la finance, pas les analystes, pas les économistes : si vous pouvez lever un demi-milliard et obtenir des fees de 1,5 % par an en bloquant les clients pour une décennie, vous pouvez finir dans une île du Pacifique (votre île), même si les performances du fonds sont minables sur toute la période. L’analyste lui ne dépassera pas 300 000 par an, ce qui à New York le fait arriver tous les matins en métro ; et si en plus il est honnête, il risque de finir tout en bas de l’échelle.

 

Quand les mythes régulent l’investissement

Les idées ne sont qu’un decorum, la recherche est partout le parent pauvre. Les économistes de marché sont utilisés comme des danseuses. Les « convictions fortes » qui traînent sur les marchés ne sont que des slogans faussement provocateurs, du story telling jamais très loin des souhaits d’équipes commerciales (pensez à la « Grande Rotation », par exemple). Les prophètes de malheur (Roubini, Edwards…) font partie du spectacle, contre 50 000 la conférence ils fournissent les petits frissons que nous aimons détester : une dissidence bon marché.

De tout cela vous devriez retenir que votre épargne intéresse tout un système qui pousse à la gloutonnerie et pas du tout à la sélectivité.

J’exagère ? Une étude universitaire récente consacrée à l’épargne privée en Europe a montré que l’année dernière, les rétrocessions, ces frais versés aux distributeurs, ont atteint 350 milliards d’euros. Face à de tels enjeux, vous vous doutez que la question de savoir si l’on vend un fonds performant ou un fonds non-performant n’est peut-être pas prioritaire.

On parle gentiment d’« asymétrie d’information », de « relation principal-agent », pour ne surtout pas appeler un chat un chat : pile, je suis payé par les frais et les performances ; face, je suis payé par les frais. Alors, tant que je ne constate pas des décollectes massives sur mon fonds, tout va bien. D’où la force des discours lénifiants, un peu partout : les gestionnaires ne veulent pas trop d’entrées de capitaux (qui perturbent leur gestion), mais surtout ils ne veulent pas de sorties. Ils font alors croire que le temps travaille pour vous sur les marchés, que la nonchalance est une stratégie. Ne regardez pas vos comptes toutes les semaines, disent-ils, pour votre confort mental bien entendu !!

Leur rêve ? La poursuite du hiatus géant entre leurs rémunérations dignes de stars et leurs comportements benchmarkés/indiciels qu’un bon diplômé de BTS (et demain une intelligence artificielle bas de gamme) pourrait répliquer sans peine.

Leur méthode ? Faire croire que tout est très compliqué, et qu’en même temps tout a vocation à être acheté (éventuellement en même temps, on dira alors que l’on fait une « stratégie de Barbell » : ce n’est qu’un jeu de bonneteau mais ça fait chic).Leur allié ? Un gouvernement et une banque centrale peuplés d’anciens et de futurs banquiers, mais surtout la passivité des braves gens.

Un exemple concret : la « démocratisation » du Private Equity. Un piège à cons.

L’idée officielle est noble, faire participer les roturiers du retail aux gains fabuleux sans volatilité aucune que l’on observe depuis des années sur le segment des boites non-cotées. Le paradis du rendement sans risque n’existant pas, il faut accepter d’être bloqué pour longtemps dans un fonds qui est de facto une boîte noire, et se dire que les performances à l’avenir ne seront pas aussi mirifiques que dans le passé.

C’est donc exactement ce que les autorités vont dissimuler, cependant que les assureurs s’engagent à faire la liquidité des fonds de Private Equity au sein des unités de compte logées dans les contrats. En apparence, un bon deal pour tout le monde : les marges bien grasses du non-coté rémunèrent tout l’écosystème, les assureurs collectent, de petites boîtes trouvent de nouveaux financements (ce n’était guère l’urgence, mais pourquoi pas), l’épargnant accède à de nouvelles actions, Macron aide ses amis, la Banque Publique d’Investissement multiplie les conflits d’intérêt, tout va bien.

Mais il y a un hic : tous les fonds de Private Equity ne se valent pas. Voilà ce que l’on ne dit pas aux clients.

Les aristocrates ont le droit aux fonds de la catégorie A : les meilleurs dossiers gérés par les meilleurs gérants (ceux qui ont mis de leur argent personnel dans les deals), distribués confidentiellement aux gros institutionnels et à quelques Family offices.

La catégorie B est déjà plus douteuse, des dossiers moins qualitatifs, avec plus de dettes, vers un public de faux riches (la banque privée).

Le grand public n’aura accès (sauf exceptions) qu’aux fonds de catégorie C : tout ce que les professionnels de la profession (et dans le Private Equity ils se connaissent tous !) ne veulent pas inscrire à proximité de leurs fonds propres.

Tout ce qui a été acheté en haut de cycle, ce qui peut basculer en cas de crise et devenir très illiquide. Le retail est le dindon de la farce, comme toujours. Il rêvait de Wasserstein Perella & co et se retrouve avec des bouts de trucs. Il est « encore plus diversifié », certes, mais exposé à une classe d’actifs pas si évidente (elle n’est pas faite et ne sera probablement jamais faite pour lui) et pas si décorrélante, au moyen des fonds les plus miteux du secteur et aux frais scandaleux, le tout en contribuant à dégrader potentiellement les perspectives de la collectivité des assurés dans son ensemble. Et en cas de désastre les politiques et les petits marquis de la BPI seront aux abonnés absents et encore moins punis que les dirigeants d’H20. Après tout, n’auront-ils pas œuvré pour une saine diversification de l’épargne populaire ?

Très souvent, les sociétés de gestion diversifient pour simplement diffracter le blâme, minimiser la responsabilité du gérant, et économiser de la recherche au passage. En un mot, pour noyer le poisson. On ne peut en vouloir à personne en particulier, c’est un système. Mais ne soyons pas dupes : quand un gérant qui a 150 lignes en portefeuille vous dit qu’il a une orientation « recherche » et des convictions fortes, soit il bluffe, soit, ce qui est pire, il évolue dans un univers parallèle.

Ce n’est pas de nos jours la concentration extrême des performances qui pose problème comme le disent tous les commentateurs ; c’est le manque extrême de concentration des portefeuilles, cette fâcheuse habitude de faire comme Jacques Martin dans « L’école des fans », mettre 10/10 à tout le monde pour ne fâcher personne et pour ne surtout pas se fâcher avec soi-même.

 

Investissez dans les secteurs que vous connaissez

Chers épargnants, vous ne pouvez pas jouer à ces petits jeux coûteux avec votre argent, à moins d’avoir des conflits à l’intérieur de votre propre cerveau.

Ne diversifiez pas pour apaiser des dissonances cognitives, ou pour parer des reproches que vous pourriez vous faire ex post ! Investissez en priorité dans des domaines où vous avez de la connaissance, qui vous plaisent, pour acquérir encore plus de connaissance, pour bénéficier d’un vrai avantage compétitif.

À la limite, si vous êtes un fan de sport automobile et que vous vous passionnez pour le marché des vieilles voitures des années 1960, ou si vous êtes un spécialiste des meubles du XVIIIe siècle, amusez-vous avec des achats et des ventes dans ces domaines, les mises sont moins considérables que dans l’immobilier, votre passion limitera les tentations courtermistes, et vos connaissances limiteront vos pertes éventuelles. C’est quand on ne détient plus de belles affaires industrielles ou commerciales dans son portefeuille mais des « lignes » que les choses se dégradent, non seulement pour les rendements, mais aussi du côté des risques…

Bien entendu, il existe des exceptions à tout ce qui précède, devant certains profils de clients. Imaginons que vous ayez beaucoup d’argent et aucune compétence ou appétence financière (une configuration qui se fait tout de même un peu rare).

Pour peu que vous ayez en plus des considérations de transmission en tête (vous oubliez que les enfants sont ingrats, que ce n’est pas vraiment un cadeau de leur léguer un patrimoine financier, qu’il vaut mieux leur transmettre du capital humain), la fiscalité du patrimoine est pour vous plus importante qu’un ou deux points de rendement en plus. Il devient nécessaire d’adopter un comportement très défensif qui se marie assez bien avec un certain degré de diversification, dans l’assurance-vie par exemple. Toutes les grandes fortunes industrielles en Europe ont des comptes chez des assureurs au Luxembourg, où la priorité ne réside pas tant dans la sélection de valeurs que dans leur conservation au sein de fonds diversifiés.

Ceci dit, même dans cette configuration, il y a tout de même quelque chose de pourri dans le duché de la gestion d’actifs quand on s’occupe de façon diversifiée de patrimoines qui ont presque tous été conçus sur des bases non-diversifiées : il s’agit le plus souvent d’anciens entrepreneurs qui ont mis toute leur énergie et toutes leurs ressources pendant des années sur UNE idée, UNE entreprise, et à la retraite que leur dit-on ? qu’il faut placer ce résultat magnifique sur… 500 entreprises, « pour plus de sécurité », le tout au nom d’une « science financière » pleine de trous, dirigée par des gens qui n’ont ni vos préférences ni votre horizon, conçue il y a six décennies par des gens qui n’ont jamais créé un capital de toute leur vie, distribué par des artistes des rétrocommissions, et mis en œuvre par des salariés en télétravail.

Un recours aux ETFs ou à des fonds diversifiés ne se justifie à mon avis que lorsque la connaissance est très coûteuse, sur des causes gagnantes à long terme, et il y en a peu : Biotechs, Chine, pays frontières, semi-conducteurs…  En première approximation, un manque de connaissances devrait plutôt revenir à un « faites autre chose dans la vie ». Non pas diversifier, mais au contraire ne pas entrer du tout sur les marchés financiers : où les touristes ont vocation à se faire promener et les moutons à se faire tondre.

[Série sur les mythes de la diversification II/IV] La diversification ne protège pas les épargnants

Lire la première partie.

 

« Peu importe que vous soyez intelligent si vous ne vous prenez pas le temps de réfléchir » – Thomas Sowell

Revenons brièvement sur les idées reçues sur lesquelles s’appuie le dogme de la diversification.

On ne se souvient même plus que la promesse de départ consistait à atteindre la médiane des performances, ni plus ni moins.

« La théorie moderne de portefeuille vous apprend comment vous y prendre pour avoir la moyenne. Mais je pense que la plupart des gens savent comment il faut faire pour avoir la moyenne dès la classe de 6e » (Warren Buffet).

Oui, la diversification protège, mais… seulement les incompétents : des gens dont on devrait se demander ce qu’ils font sur les marchés financiers, après tout. Trop d’épargnants ont davantage peur de perdre de l’argent que de ne pas en gagner ; s’ils sont à ce point averses au risque, ils ne devraient pas placer un seul euro sur les marchés, point barre.

 

La stratégie de la diversification offre des protections très limitées aux investisseurs

Et encore, cette « protection » a eu lieu dans une phase de financiarisation, disons à partir de 1982 (en net et en termes réels, bien peu de gens ont gagné de l’argent sur les marchés financiers entre 1929 et 1982…), phase où la sélectivité n’était pas essentielle parce que toutes les classes d’actifs montaient, montaient. Mais à partir d’aujourd’hui, c’est beaucoup plus discutable : le monde qui se prépare en Occident n’est probablement pas celui où une marée montante fera monter tous les bateaux.

Le client ainsi protégé à triple tour est bien souvent incité à faire un peu de tout ; il se retrouve à jouer au service-volée sur terre battue, ou à lifter sur gazon : par exemple, des comportements de rentier sur les actions, guidé par des YouTubeurs pas du tout racoleurs qui font la promotion de revenus fixes par les dividendes ; ce qui n’est pas fidèle à l’esprit de cette classe d’actifs, et maintien au dessus de la ligne de flottaison un certain nombre de boites satrapiques.

Il ne suffit de toute façon pas de signer en faveur de la protection pour l’obtenir. C’est un peu comme s’inscrire à un club de gym pour perdre du poids : personne n’a jamais obtenu un résultat de cette façon ; c’est l’effort concret qui compte, pas le bulletin d’inscription. La diversification peut protéger de la volatilité excessive, mais ce n’est pas un vaccin infaillible et elle n’est jamais gratuite ; attention à ce qu’elle ne vous protège davantage de la hausse que de la baisse.

Nous pourrions ensuite évoquer les nombreuses failles de la théorie, par exemple le fait que le cash n’est pas vraiment modélisé (de sorte qu’il est en fait assez possible de battre le marché avec de la patience et une petite culture du cycle), ou par exemple le fait que le modèle de valorisation des actifs repose sur une accumulation de bizarreries (existence consensuelle d’un « actif sans risque », et des taux d’actualisation traficotés qui divorcent de plus en plus des taux d’intérêt…) ; mais creusons plutôt ici dans une direction moins souvent analysée : les pertes cognitives.

 

« Le risque varie en fonction inverse de la connaissance »

Car à mesure que l’on se diversifie, on perd en connaissance. Personne ne le dit, alors que c’est un fait indubitable, inexorable, bien documenté. « Le risque varie en fonction inverse de la connaissance » notait déjà Irving Fisher.

Mais peut-être qu’une métaphore serait ici plus parlante. Billy Rose exposait ainsi le problème :

« You’ve got a harem of seventy girls; you don’t get to know any of them very well »

Ma traduction : si vous disposez d’un harem avec 70 filles, vous n’allez pas bien connaître une seule d’entre elles. Un portefeuille très diversifié est un portefeuille qui n’est plus maitrisé, et qui se retrouve en risque, du fait même de son obsession pour la maitrise du risque.

Un professionnel très entraîné peut suivre dix boîtes, et encore. Quand il prétend pouvoir en surveiller 200, il se trompe, ou il vous trompe. Quand on a des centaines d’entreprises (pardon, on dit de façon révélatrice des « lignes »…) dans le portefeuille, et plusieurs portefeuilles, les bilans et les comptes trimestriels ne sont plus vraiment regardés, les perspectives deviennent floues, la qualité du management est ignorée, le risque est géré : c’est-à-dire d’une façon administrativo-journalistique.

 

Une perte de temps et d’efficacité

C’est pourquoi un surcroit de diversification offre une protection le plus souvent illusoire.

D’une part, quand les choses tournent vraiment mal sur les marchés, on se rend compte mais un peu tard que les titres sont bien plus corrélés qu’on ne le croyait : votre « stratégie » de protection ne fonctionne que par mer calme, lorsque tout monte.

D’autre part, le fait de s’asseoir sur une base très large de valeurs n’incite pas à une attitude guerrière, tout l’instinct qu’il faudrait aiguiser se retrouve comme anesthésié.

Enfin, il y a les pertes cognitives, tous ces détails qui tuent que l’on perd de vue à force de se diversifier ou d’élever le niveau du débat (une façon sûre de le perdre de vue : combien de fois ai-je vu des analystes perdre la moitié de leur temps à discuter de la FED ou de la BCE quand ils auraient mieux fait de laisser cela à des économistes et de retourner sur le terrain disséquer des bilans et des perspectives d’entreprises concrètes !).

Au fond, c’est un viol de la division du travail, une approche plus marxiste que smithienne. Le moindre des paradoxes n’est pas qu’on couple ce travers avec un dogmatisme pro-marché caricatural, digne des nouveaux convertis.

Un exemple. L’idée que le marché a toujours raison est une confusion temporelle en plus d’être une simplification abusive. Après avoir correctement observé qu’il est le plus souvent efficient, les académiques et les modélisateurs en sont venus à conclure incorrectement qu’il est toujours efficient.

Or, la différence entre ces deux propositions est, comme le notait Warren Buffet, « night and day ».

Citons-le complètement :

« We are enormously indebted to those academics: what could be more advantageous in an intellectual contest—whether it be bridge, chess, or stock selection than to have opponents who have been taught that thinking is a waste of energy ? ».

On peut donc profiter de ce refus de savoir.

Encore faut-il aiguiser son sens critique. La valeur est créée depuis toujours par des outsiders, pas par des apparatchiks : en diversifiant, vous attribuez pour votre argent autant d’importance aux bureaucrates qu’aux entrepreneurs, aux margoulins des SCPI qu’aux industriels innovants. La diversification maximaliste dit implicitement que tous les secteurs sont grosso modo égaux du point de vue de l’actionnaire.

Ce n’est juste pas vrai. Plusieurs secteurs sont des tonneaux des Danaïdes pour l’investisseur de moyen/long terme, pour diverses raisons dont la capture par les managers. On connait l’usage du « Hollywood accounting », on sait que les compagnies aériennes multiplient les trous d’air depuis 1973, on observe une bureaucratisation inouïe des banques européennes, et personne ne gagne sur les matières premières à long terme. Faire croire à l’égalité ou au retour à moyenne, c’est tromper le public, et à terme, c’est le dégoûter d’une épargne financière qui est pourtant un bien privé et un bien public. Nous y reviendrons.

 

Le refus du savoir est rarement un bon signe

En paraphrasant un très beau texte de Marcel Gauchet où il notait que le niveau montait, mais que le livre baissait, je dirai que le niveau des encours monte mais que la connaissance et la conviction baissent. À défaut, je peux augmenter mon QI instantanément sur les marchés en choisissant des problèmes que je peux résoudre. Mais refuser à la fois de connaître et de choisir est un boulevard pour le désastre.

Markowitz, Fama, Sharpe raisonnaient sur des portefeuilles de professionnels qui n’ont pas besoin de bien connaitre les filles de leur harem. Vous ne boxez pas, chers épargnants individuels, dans cette catégorie. Les investisseurs institutionnels ne jouent pas avec leur propre argent. Vous, si. Ils sont rémunérés à la fin du mois pour avoir géré (c’est-à-dire pour éviter des risques), vous n’êtes récompensés que si vous avez pris quelques risques. En tant que particulier, vous devriez vous méfier lorsqu’on vous propose de dupliquer une salle de marché, même si techniquement vous pouvez désormais le faire et pour pas trop cher avec des ETF.

Les règles (très souvent idiotes) de diversification ou de biais domestique ne s’appliquent pas à vous : les gérants vous battront au jeu du rendement/risque, mais vous pouvez aisément les battre sur le seul rendement… à condition de ne pas jouer leur jeu. Au lieu de cela, il existe partout un discours sur la polarisation du succès mais… les portefeuilles financiers restent affreusement diversifiés.

Et à la fin, tout sur l’immobilier ! Paradoxe d’une religion diversificationniste objectivement alliée à une poche qui représente les deux tiers de l’épargne européenne ; un « big ticket » qui, lui, n’est pas diversifié du tout, impunément, comme si son prix ne pouvait jamais baisser. Or, la pierre ne protège pas, elle est peu créatrice de valeur, car elle est très illiquide, elle est basée sur le levier de la dette, et 25 années de hausse quasi-ininterrompue des prix implique désormais une grande vulnérabilité (rareté des primo-accédants, inutilité croissante des bureaux, maturité des emprunts déjà très étirée, ratios de solvabilité à la limite).

L’or et les matières premières n’ont jamais protégé, sauf en cas de guerre, et encore. Ils n’offrent aucun rendement, leurs déterminants changent et sans visibilité aucune (on saura dans trois ans si telle ou telle banque centrale a acheté de l’or aujourd’hui), leur financiarisation via les ETF est suspecte et les expose aux mouvements des autres classes d’actifs (qui sont beaucoup plus volumineuses). En un mot ce sont des reliques, des objets de spéculation à la rigueur, mais en aucun cas des protections. L’obligataire, qui a bien rempli sa mission protectrice pendant près de 40 ans, arrive quant à lui à la fin de son parcours : trop d’émissions et un pilotage capricieux des taux par le banquier central rendent l’obligation bien moins fiable aux yeux de l’investisseur moyen/long terme. La vraie protection se niche de plus en plus dans la qualité de la sélection des actions, dans la fluidité du portefeuille, dans la gestion d’une poche de cash, dans des astuces de convexité ou d’internationalisation, bien plus que dans le nombre de classes d’actifs, dans le nombre de titres détenus.

Analogie. Quand un gouvernement affiche 15 priorités, quand il prétend vouloir défendre l’État Providence tout en développant une « start up Nation » et tout en luttant contre le réchauffement global, on comprend qu’en fait il se disperse.

Il arrose et il communique, mais au final il va échouer, par manque de conviction, par manque de cohérence : idem avec votre portefeuille. Qui trop embrasse mal étreint. Acheter tout le marché signifie que vous allez vous faire balloter au gré des (gros) flots, avec pour seule boussole cette idée selon laquelle les marchés sont assez porteurs à long terme. Ce qui est vrai mais uniquement depuis 1982, et sans garantie aucune que cette période porteuse soit éternelle : les performances passées ne présagent pas des performances futures, c’est d’ailleurs marqué en Arial 6 sur les documents que votre courtier vous a fait signer.

[Série sur les mythes de la diversification I/IV] En finir avec le dogme de la diversification

« Toutes choses étant égales, c’est la conviction qui gagne. Alliée à une volonté de vaincre, elle sert de détonateur, suscite des idées, disperse les doutes et aide à penser clairement » (Robert Fischer).

Parfois des sectes deviennent des religions et finissent en théocraties tyranniques. Je vais vous raconter les dessous d’une histoire qui de nos jours plait beaucoup à Jean-Michel Consensus mais qui repose sur des malentendus et parfois sur des arnaques, qui à large échelle détruit de plus en plus de valeur et qui pourrait bien finir par nous ensevelir tous : la diversification maximale de l’épargne.

La diversification privilégiée

Elle est de nos jours considérée comme l’alpha et l’oméga de la gestion, le dernier free lunch avant la fin du monde, une sorte de religion civile avec ses séminaires, ses indulgences.

Il n’en a pas toujours été ainsi, il s’agissait à la base d’une petite secte de théoriciens.

Nous allons montrer ici que ce culte protège mieux son clergé que les clients, car la diversification tue la recherche de nouvelles pistes, conduit au relativisme et à un faux sentiment de sécurité, et surtout elle est biaisée, les intérêts ne sont pas « alignés » comme on dit pudiquement. Il y a d’abord le vite dit (la diversification protège), puis le mal dit (la pseudo-neutralité des propagandistes zélés de la diversification) et enfin les non-dits, les dégâts que l’on ne voit pas (une économie zombifiée, une société Potemkine, un viol des mécanismes libéraux les plus solides).

Mais avant d’étudier les mythes de la diversification, commençons par un peu d’histoire :

Au commencement était le monde non-diversifié. Jusqu’aux années 1970, les marchés financiers (il est vrai assez peu développés à l’époque) étaient dominés par une mentalité de stock-picking à la petite semaine : les gens misaient sur des boites comme on mise sur des chevaux au bar PMU, ils ne cherchaient pas à mettre de la science dans leurs portefeuilles (l’idée leur aurait paru incongrue !), ils s’en remettaient à un mélange d’analyses locales ou sectorielles, de « tuyaux » et de bon sens, d’intuition et d’expérience, sans trop de soucier du cross-asset ou des ratios de concentration ; de sorte que Warren Buffet n’était pas un acteur trop isolé quand sa principale position représentent jusqu’à un bon tiers de ses actifs totaux. La formule d’Andrew Carnegie était considérée comme la sagesse même : « Concentrez vos énergies, vos pensées et votre capital. Le sage met tous ses œufs dans le même panier et veille sur le panier » ; de nos jours, ce serait plutôt chez les gestionnaires d’actifs la définition la plus admise de la folie.

 

Les conséquences de la crise de 1974

Et puis, en 1974, tout chuta. Les firmes, même les mieux établies, perdirent subitement la moitié de leur capitalisation. Confrontés à ce carnage inexplicable, les gens de Wall Street firent ce qu’ils refusaient jusque-là de faire (et ce qu’ils refuseront de faire après 2008…) : aller trouver de nouvelles idées, ailleurs.

Ils se tournèrent en l’occurrence vers des gens qu’ils méprisaient intégralement, les académiques. Ces professeurs, qui pour la plupart n’ont jamais ouvert un compte titres de toute leur vie, avaient développé depuis la fin des années 1950, dans leurs tours d’ivoire aux environs de Chicago, une jolie littérature bourrée de lettres grecques et appelée « théorie moderne du portefeuille », dans laquelle ils démontraient que, vue l’hypothèse d’efficience du marché (qui implique que le prix des actifs reflète toute l’information disponible), la gestion se résume à un problème banal d’optimisation quadratique le long de frontières efficientes.

Pour résumer ce qui nous intéresse ici, et laissez-moi extrapoler un peu : on ne peut pas battre durablement et significativement le marché (le plus grand collecteur d’informations possible) à moins de prendre des risques considérables, de sorte qu’il est assez vain de chercher l’aiguille dans la botte de foin ; mieux vaut acheter la botte de foin, via des solutions diversifiées.

Les articles académiques n’étaient pas lus par des adultes sérieux et solvables : Markowitz était bien seul dans les années 1950, comme Fama ou Sharpe dans les années 1960. Et puis soudain, après 1974, ils devinrent des stars, les nouveaux papes de Wall Street. En moins de 20 ans le monde de la gestion d’actifs devint une industrie, basée sur leurs principes, leurs règles. Les progrès de l’informatique aidant, les raisonnements anciens furent balayés et remplacés par leurs modèles, traduits via des algorithmes : disciplinés dans le sens de la minimisation du risque (risque compris comme une mesure de la volatilité du marché), rassemblés autour du même outil (la VaR, Value at Risk) et réassurés par une cascade de marchés dérivés ; en bref, organisés par des allocataires d’actifs, et non plus par des boursicoteurs plus ou moins inspirés. 

En un mot, on sanctifia cette théorie moderne, on importa des ingénieurs pour la faire tourner, et des vendeurs pour la propager, on leur confia les clés du royaume, puis, protégés par leur jargon, ils firent tout ce qu’ils voulaient faire, à savoir sophistiquer leurs modèles jusqu’à l’absurde et s’auto-attribuer des bonus faramineux (au grand dam de la théorie pure, qui tablait sur un environnement concurrentiel susceptible d’émasculer les marges des intermédiaires, mais passons).

 

De crise en crise, les mythes sur la diversification se sont pérennisés

Cette évolution a continué même après le scandale LTCM en 1998, quand il devint évident que la bonne gestion n’était pas qu’un exercice de maths, et même après la grande crise de 2008, quand on s’aperçut qu’à force de découper le risque en petits bouts façon puzzle on se retrouvait partout avec plein de produits non-maitrisés. La théorie moderne est souvent critiquée, vous avez probablement entendu parler du « cygne noir » de Nassim Nicholas Taleb (cette idée selon laquelle la théorie standard est trop liée à des distributions gaussiennes) ou de telle ou telle autre critique, contre la VaR, contre la titrisation, contre l’hybridation des classes d’actifs, etc. ; mais de facto elle n’est pas vraiment entravée, nous allons le voir, et la religion de la diversification devient petit à petit une théocratie. 

Comme toutes les révolutions, elle dévore ses propres enfants. Elle s’appuie désormais sur les ETF (les trackers) pour compléter son travail de sape, sa lutte sans merci contre la conviction. Il y aura bientôt un plus grand nombre d’ETF que d’actions. Et si cela continue, Blackrock, Blackstone et Vanguard seront les trois principaux actionnaires de toutes les grandes boîtes cotées. C’est le triomphe des petits hommes gris sur les grands investisseurs : pendant que le grand public est dupé par des histoires anachroniques de traders atypiques, de chiens fous et de loups solitaires, les bureaucrates dans l’ombre envahissent tout.        

À chaque fois qu’un accident économique ou financier survient, c’est toujours la même rengaine : tel acteur n’était pas assez diversifié, tel autre aurait dû davantage « hedger » ses positions, etc. De sorte qu’un surcroît de diversification est préconisé après chaque échec, même si l’échec en question est dû le plus souvent… à un excès de diversification ayant conduit à des pertes cognitives et/ou à un endormissement.

 

Bienvenue en absurdie

La diversification, de nos jours, fonctionne comme dans cette vieille blague sur la psychanalyse :

« Si vous vous sentez bien et que vous n’utilisez pas la diversification, vous êtes considérés en situation de déni ; si vous vous sentez mal et que vous n’utilisez pas la diversification, vous êtes un idiot ; si vous êtes en thérapie de diversification et que vous vous sentez bien, alors c’est grâce à cette thérapie ; si vous êtes en thérapie de diversification et que ne vous sentez pas bien, alors c’est que vous avez encore plus besoin de la thérapie ».

Non, tout n’est pas relatif !

Depuis Einstein, la théorie de la relativité a rejoint l’univers des métaphores pseudo-analytiques des sciences sociales. Aujourd’hui abondant, cet univers fait passer des images pour des raisonnements, et des procédés stylistiques pour des démonstrations intellectuelles solides. Souvent, ce sont des vues de l’esprit. Si elles n’étaient assises que sur du vent, ce ne serait pas un problème.

Mais ces petits jeux avec les concepts scientifiques ne reposent pas uniquement sur des ambitions littéraires. Ils sont fréquemment les instruments de défense de visions du monde que l’on appelle communément « idéologies ». Ainsi du relativisme, utilisé à tort, à travers et à contresens, pour défendre une cause un jour, et son opposé le lendemain.

À l’instar de Darwin qui ne projetait strictement aucun projet eugénique, Einstein n’augurait pas de la conversion sociologique de sa théorie. Pourtant, pas un jour ne passe sans que responsables politiques et chercheurs n’en fassent usage. Certes, on ne cite plus nommément Albert Einstein pour appuyer ses convictions. Mais on souscrit aisément à l’aphorisme populaire selon lequel « tout est relatif ».

Un citoyen sur 182 000 marcheurs contre l’antisémitisme exprime à la télévision « qu’il y a une importance aujourd’hui de prendre conscience du problème de l’islamisation » ?

Je n'y étais pas, je ne dirais pas que c'était représentatif du public mais à coup sûr il avait bien compris à quoi sert de manifester avec Zemmour, Le Pen, Ciotti ou Meyer Habib… https://t.co/6lmcC0o5Xg

— Aurélien Saintoul (@A_Saintoul) November 12, 2023

 

Cela permet à Antoine Léaument de justifier l’absence active de membres de La France Insoumise à la manifestation du 12 novembre :

« Défendre les juifs en attaquant les musulmans, c’est ça le projet ? ».

https://twitter.com/ALeaument/status/1723715520644432184

Dans un autre genre, le relativisme permet à Aymeric Caron de trouver matière à disserter, à relativiser sur la séquence filmée des attentats commis par le Hamas :

« Il faut quand même aussi avoir conscience que c’est un film qui est réalisé par l’armée israélienne et qu’il y a un but ».

Bientôt, les négationnistes de La France Islamiste vont nous expliquer que les films sur les camps de concentrations nazis sont à prendre avec précaution parce qu’ils ont été tournés par l’armée américaine. 🤮 https://t.co/zXTT6tM0lC

— Bertrand Martinot (@BMartinot) November 15, 2023

 

Le même qui, quelque temps plus tôt, ne voyait aucun inconvénient à comparer les moustiques à des mères qui risquent leur vie pour leurs enfants.

Toute perspective étant équivalente par ailleurs, l’usage du relativisme permet à n’importe qui de dire n’importe quoi. Il est surtout un moyen utile de défendre un agenda politique.

Un sociologue, aujourd’hui oublié de ses pairs, avait proposé en son temps une réflexion qui peut nous éclairer. Raymond Boudon distinguait deux sortes de relativisme : cognitif et culturel.

Le premier dissout la vérité objective dans la (métaphorique) construction sociale. Exemple : Louis Pasteur n’est pas l’inventeur du vaccin contre la rage. Il a été construit comme tel, car il a emporté la victoire dans la guerre (une fois encore métaphorique) qui l’opposait à ses détracteurs. Grace au dénominateur commun du « construit », les différences objectives disparaissent. Comme écrivait Boudon : « Il s’agit d’une banalité si l’on s’en tient à cette proposition ou d’une contre-vérité si on y lit un message relativiste[1] ».

Le relativisme culturel poursuit en ce sens. Il horizontalise les pratiques sociales. Toutes les cultures se valent et subséquemment, tous les types de gouvernement. De cette façon, on peut relativiser la différence entre la démocratie et la dictature, l’inscrire sur un continuum, comparer Emmanuel Macron à Caligula, et l’abaya à un symbole de respect de la femme.

Boudon s’interrogeait sur le succès de ces deux postures dans les sciences sociales.

Selon lui, « le relativisme représente l’une des thèses fondamentales de la sociologie et de l’anthropologie contemporaine[2] ».

Ce constat est encore vrai de nos jours. La littérature académique est parsemée de pièges relativistes dont il faudrait réaliser l’inventaire à la Prévert.

Bruno Latour indiquait être en désaccord avec ceux qui le considéraient comme un relativiste. Il se disait « relationniste ». La différence apparait comme purement intellectuelle. Dans La science en action, il écrivait :

« Puisque les humains doués de parole aussi bien que les non-humains muets ont des porte-parole je propose d’appeler actants tous ceux, humains ou non-humains, qui sont représentés afin d’éviter le mot d’acteur trop anthropomorphique ».

Voilà qu’à travers le mot actant, Aymeric Caron pourra quelques années plus tard, dans le plus grand des calmes, ne voir aucune différence entre une larve et un nouveau-né. Le latourisme est un relativisme. Signataire d’une tribune de soutien à Éric Piolle, repris (malgré les débats qu’il peut y susciter) par une large partie de la gauche insoumise, Bruno Latour est une de ces illustrations de la conversion du relativisme intellectuel en relativisme vulgaire.

Le 13 mai 2020, il amorçait un entretien accordé à Libération par une idée pour le moins surprenante :

« On ne peut encore cerner le virus, socialement, politiquement, collectivement. Il est une construction extrêmement labile… ».

Pourquoi ne pas s’arrêter à la première proposition ? Un virus est-il une construction ? Ou est-il d’abord ce que les autorités scientifiques disent qu’il est ?

Pour Raymond Boudon, le succès du relativisme était dû à la radicalisation du principe du tiers exclu.

Celui-ci « érige des termes contraires en termes contradictoires[3] ». Autrement dit, « si un objet n’est pas blanc, c’est qu’il est noir[4] ». Ou encore pourrait-on dire si un parti ne suit pas la ligne des Insoumis, c’est qu’il est fasciste. Le tiers exclu nous invite au manichéisme et à la simplification de la réalité entre les gentils et les méchants.

Boudon ajoutait que « l’utilité » d’une théorie, c’est-à-dire son adéquation avec les préoccupations intellectuelles du moment, était un autre facteur de succès du relativisme. Aujourd’hui, c’est un outil qui semble effectivement « utile » à un certain nombre de factions, lorsqu’il s’agit par exemple de qualifier une marche contre l’antisémitisme de manifestation d’extrême droite.

On peut raisonnablement penser que, d’un point de vue éthique ou a minima philosophique, il est utile de chercher à se mettre à la place d’une personne distincte de la nôtre pour pouvoir la comprendre. Un pas est franchi à partir du moment où cette posture est dévoyée pour en faire un sortilège de post-verité.

Boudon ne disait pas autre chose :

« Le bon [relativisme] nous permet de comprendre l’Autre. Le mauvais met tous les comportements, tous les états de choses et toutes les valeurs sur un même plan[5] ».

On pouvait difficilement rétorquer à Boudon de ne pas voir les similitudes entre de nombreux phénomènes sociaux. Il était loin de nier par exemple que la science et la religion procèdent toutes deux de croyances de la part des individus[6]. Mais il n’en inférait pas pour autant qu’aucune différence n’existait entre les deux. Faire un bon usage du relativisme, c’est en faire un usage en raison, c’est-à-dire en gardant sa capacité de juger. C’est surtout ne pas oublier que si expliquer, ce n’est pas excuser, relativiser peut parfois tendre à tolérer…

[1] Raymond Boudon, Essais sur la théorie générale de la rationalité, PUF, 2007

[2] Boudon, Raymond. Renouveler la démocratie. Éloge du sens commun. Odile Jacob, 2006

[3] Boudon, Renouveler la démocratie

[4] Ibid.

[5] Boudon, Raymond. Le relativisme. Presses Universitaires de France, 2008

[6] Boudon, Essais sur la théorie générale de la rationalité

Les sept raisons pour lesquelles vous êtes (déjà) en train de rater le virage de l’IA

À moins que vous n’ayez vécu sur Mars ces derniers mois, vous n’avez pu ignorer l’énorme écho médiatique autour du développement de l’intelligence artificielle (IA).

Ce développement est fulgurant, chaque exploit succédant au précédent, avec des réalisations qui auraient semblé impossibles il n’y a pas si longtemps. Il est vrai que le monde de la technologie a tendance à exagérer l’importance de ses inventions, et certaines ne durent que le temps d’un matin, mais on peut dire avec une assez grande assurance que ce n’est pas le cas avec l’IA.

Après des années de bouillonnement, son développement est véritablement entré dans une phase exponentielle. Pourtant, et malgré des résultats souvent impressionnants, beaucoup d’acteurs restent attentistes.

Dans mon expérience, il y a sept raisons qui expliquent cet attentisme, et qui correspondent chacune à un modèle mental bien ancré. Examinons ces raisons pour montrer en quoi elles sont fallacieuses.

Sept raisons qui expliquent cet attentisme

1 – L’IA va massivement supprimer des emplois »

Derrière cette raison il y a la vieille crainte que l’automatisation supprime des emplois.

Or, ce n’est pas ce qu’on constate historiquement. L’automatisation augmente la productivité, ce qui abaisse les coûts et permet de développer le marché, ce qui, en retour alimente la croissance et le besoin en emplois.

2 – « L’IA va remplacer les humains »

L’IA est un outil puissant qui ne fonctionne que s’il est bien utilisé. Depuis toujours, l’être humain a utilisé la technologie pour faire mieux certaines choses (productivité) et aussi pouvoir en faire des nouvelles (innovation).

L’IA ne remplacera pas les humains, elle trouvera son plein potentiel dans la façon dont les humains l’utiliseront. Ceux qui gagneront seront ceux qui apprendront à bien l’utiliser, comme ceux qui ont gagné dans le passé étaient ceux qui ont maîtrisé le feu et la fabrication de flèches.

3 – « Avec l’IA, les moins qualifiés seront largués »

Bien au contraire, l’IA est la chance des moins qualifiés.

Elle permet par exemple à ceux qui n’ont pas pu apprendre de langue étrangère de se débrouiller malgré cela grâce à un traducteur automatique. Elle est le grand facteur de remise à niveau de ceux qui n’ont pas pu faire d’études. L’IA, c’est 150 ans d’études dans votre poche.

4 – « L’IA n’est qu’une techno »

Sous-entendu, cela ne concerne pas la direction générale qui ne s’abaisse pas à parler cuisine. Grosse erreur.

Bien sûr, l’IA est une technologie, mais ce serait une erreur de la mettre simplement au service de ce qui existe déjà pour l’améliorer. La bonne approche est de repenser entièrement son métier, ou son activité, à partir de l’IA. Comme la presse il y a vingt ans qui s’est demandée : « C’est quoi être un journal à l’heure d’Internet quand on peut trouver l’info gratuitement sur Google ? »

L’IA, c’est une techno, certes, mais d’importance stratégique.

5 – « L’IA n’est pas au point, il vaut mieux attendre… »

Aucune techno n’est jamais au point. On n’a jamais attendu qu’aucune le soit pour l’utiliser.

L’automobile a mis des années avant d’être à peu près utilisable par le commun des mortels. Pourtant cela n’a pas empêché qu’elle soit utilisée avec un très gros impact. Si vous attendez que l’IA soit au point, à supposer que ce soit définissable, il sera trop tard quand vous vous y mettrez.

6 – « On ne sait pas comment l’IA fonctionne vraiment, donc c’est dangereux »

C’est quelque chose qu’on entend beaucoup, notamment des professeurs de morale, qui supposent qu’on ne peut utiliser quelque chose que si on le comprend parfaitement. Mais c’est faux.

La plupart des innovations humaines ont été intuitives, et on n’a souvent compris comment elles marchaient que bien plus tard. Sait-on parfaitement comment fonctionne un juge d’instruction ou un comptable ? Non. Et pourtant ils sont très utiles. Lady Montaigu a diffusé la pratique de la variolisation au début du XVIIIe siècle, ancêtre de nos vaccins. Elle ne savait pas expliquer comment ça marchait, mais ça marchait, et c’est ce qui comptait.

7 – « L’IA je n’y comprends rien, je vais attendre que les choses s’éclaircissent… »

Ici, l’erreur est de penser qu’on ne peut comprendre quelque chose que lorsque tout devient clair.

Or, pour quelque chose d’aussi complexe que l’IA (qui est un champ d’innovations multiples à lui tout seul), ce ne sera jamais le cas. La seule façon de se faire une idée de ce qu’est l’IA, c’est de pratiquer. Et pratiquer ne veut pas dire poser une question à ChatGPT et raconter le résultat à ses voisins. Pratiquer, c’est investir du temps pour s’exercer sur des cas réels, et ainsi pouvoir mesurer les forces et les faiblesses de la technologie. Cela permet aussi de mieux imaginer les possibilités (cf. raison 4).

 

Petites victoires

Comme je le disais récemment à une audience d’experts inquiets du développement de l’IA, il ne s’agit pas d’interrompre vos activités et de vous mettre à plein temps sur l’IA.

Il s’agit d’y consacrer un peu de temps, mais de manière systématique.

Par exemple demander à l’un des collaborateurs de devenir le « monsieur ou madame IA » avec quelques heures par semaine. Ce temps doit être garanti par la direction générale et mesuré comme un investissement, pas considéré comme un loisir.

Il constitue une perte acceptable : si cela ne donne rien, ce n’est pas grave, car ce temps est limité d’entrée de jeu (mais comment cela pourrait-il ne rien donner ?).

Si cela donne quelque chose, on peut décider d’investir plus. On procède ainsi par petites victoires : on avance, on construit quelque chose, mais en contrôlant le risque en procédant par petits pas. Ne ratez pas le virage de l’IA en tombant dans des pièges vieux comme le monde.

Sur le web.

« Quand la peur gouverne tout » de Carine Azzopardi

Carine Azzopardi est une journaliste qui a subi la perte de son compagnon et père de ses deux filles lors de la monstrueuse attaque terroriste du Bataclan. Au-delà de cette tragédie personnelle, à travers cet essai, elle entend dénoncer la peur, le manque de courage, mais aussi les dangereuses compromissions, qui amènent une partie des politiques, médias, associations et autres acteurs de la société à se voiler la face ou à céder face aux assauts idéologiques et manipulations allant à l’encontre de la démocratie.

 

Censure et liberté d’expression

La journaliste commence par montrer de quelle manière s’est faite l’apparition du wokisme, d’abord outre-Atlantique, puis ici, et le temps qu’il a fallu pour que l’on mette un mot dessus, que l’on prenne conscience peu à peu de son ampleur et de ses effets. Mais surtout, outre le nombre croissant d’anecdotes révélatrices à son sujet, elle montre qu’il n’a pas fallu longtemps pour que ceux qui emploient le terme ou l’évoquent soient stigmatisés, catégorisés comme réactionnaires, obsessionnels, ennemis des féministes, antiracistes, anticapitalistes, voire – terme devenu très à la mode et très commode pour faire taire un adversaire –« d’extrême droite ».

Non seulement des formes insidieuses de censure règnent de plus en plus sur énormément de sujets, mais des formes de collusion se sont également développées entre wokisme et islamisme. C’est l’objet de l’essai de Carine Azzopardi.

Quand l’antiracisme devient une aubaine, que des concepts inouïs tels que la « blanchité » sont créés – présentant les Blancs comme des oppresseurs, racistes à leur insu, qu’il faudrait rééduquer pour qu’ils s’éveillent (théories actuellement en vogue aux États-Unis) –, et que la victimisation devient un opportunisme, alors le malaise et la division deviennent de réelles menaces pour notre cohésion. Engendrant également la peur et la paralysie de nos décideurs, engoncés dans le déni.

 

Un fort déni de l’islamisme existe chez certaines élites françaises qui préfèrent fermer les yeux face au réel et analyser chaque événement se rapportant à ce phénomène comme étant le fait de populations discriminées, de délinquants, voire de déséquilibrés. Les actes ne sont reliés ni au discours ni à l’idéologie islamiste. Une analyse relativement commune, c’est qu’il s’agit d’un effet de la misère sociale, de « dominés » qui se rebellent face aux « dominants ». Le journaliste Edwy Plenel, fondateur du site Mediapart, analyse par exemple les attentats de janvier 2015 comme étant le fait de monstres que la société française a engendrés.

 

Certains milieux universitaires et une partie de la presse américaine ont même été jusqu’à analyser les attaques du 13 novembre 2015 à Paris comme une simple conséquence de la « suprématie blanche », et l’attaque au Bataclan comme celle du racisme de l’Occident blanc. Preuve que certains mélangent tout, et inversent les causalités. C’est le résultat du processus de déconstruction à l’œuvre, dans le prolongement de la discrimination positive amorcée dès les années 1960. Ce qui est comparable, estime l’auteur, à l’endoctrinement qui régnait en Chine sous Mao.

La « théorie critique de la race » née sur les campus américains et apparue dans les programmes scolaires américains en est le dernier avatar. Les discriminations raciales y sont considérées comme le facteur explicatif des inégalités sociales. Et à ce titre, elles doivent être éradiquées par des formes d’autocritique et de pratiques nouvelles relevant d’un véritable fanatisme. Comme pour la disparition des cours de musique dans certaines écoles, accusées de promouvoir la suprématie blanche.

 

Les collusions entre wokisme et islamisme

Carine Azzopardi analyse ensuite les rapports étroits qu’entretiennent les mouvements woke, décoloniaux, antiracistes (dont on peut largement douter du bienfondé de la dénomination) et progressistes identitaires (encourageant en réalité les communautarismes), avec l’islamisme.

Une sorte de jeu de dupes dans lequel les islamistes ont appris à maîtriser les codes woke, y voyant une opportunité de faire avancer leur cause, sur un temps long (et c’est bien le problème). Avec en particulier à la manœuvre les Frères musulmans, maîtres dans l’art du double discours (« l’un pour les mécréants, l’autre pour les croyants »), très implantés notamment dans les universités de sciences humaines et sociales, où ils manœuvrent à diffuser leur idéologie antidémocratique en utilisant la rhétorique de la discrimination, de l’antiracisme ou de l’intersectionnalité, avec l’appui de tous les traditionnels « idiots utiles » fidèles au rendez-vous. N’hésitant pas à se parer des vertus du progressisme (jusqu’à défendre de manière très opportune, ce qui peut apparaître comme un surprenant paradoxe, les thèses LGBT).

Maîtrisant parfaitement les codes, les outils numériques, les formats vidéo en vogue sur les réseaux sociaux dans nos sociétés, pour marteler insidieusement leurs véritables messages auprès en particulier des plus jeunes, et promouvoir en outre le séparatisme des musulmans sur notre territoire, ils fascinent et exercent une forte attraction sur les mouvements révolutionnaires d’extrême-gauche et partis politiques à l’image du NPA, leur insufflant l’idée d’ennemis communs. Avec la complicité des mouvements décoloniaux. J’étais d’ailleurs stupéfait de lire ceci :

 

Deux jours après la mort de Samuel Paty, une affiche est montrée place de la République par trois personnes, dont Assa Traoré, qui la poste sur les réseaux sociaux. La pancarte mentionne le nom de l’enseignant assassiné sur lequel des gouttelettes rouges ont été éparpillées et l’expression suivante écrite : « Mort en saignant. » Un jeu de mots d’un goût extrêmement douteux, qui entre ces mains pourrait faire penser à un clin d’œil complice. Les mêmes, qui ont des pudeurs de gazelle lorsque des journaux satiriques comme Charlie Hebdo représentent le prophète Mahomet, n’hésiteront pas à brandir cette pancarte lors d’une manifestation en hommage à un professeur décapité deux jours plus tôt, et à le faire savoir.

 

Par ailleurs, la journaliste parle de « chantage à l’islamophobie » au sujet de ce prétexte très pratique et très utilisé qui consiste à dénoncer, censurer, faire taire, stigmatiser des opposants pour mieux faire régner ses intérêts, à travers une stratégie de victimisation bien orchestrée. Elle y consacre un chapitre à part entière, très documenté, avant de revenir aussi sur l’attitude, non seulement du Conseil de l’Europe et de la Commission européenne en faveur du voile, mais également d’Amnesty international, qui a défendu le port du voile intégral en Suisse, le présentant comme un symbole de liberté, tout en reconnaissant son caractère oppressif en Iran.

Des positions pour le moins paradoxales, défendues également par des mouvements néoféministes qui, selon la journaliste, n’ont plus grand-chose à voir avec le féminisme. Entre culpabilisation et relativisme, les intersectionnelles et leurs alliées néoféministes semblent aveugles aux faits lugubres que relate le livre quant au sort quotidien de nombreuses femmes, et aux véritables motivations de leur port du voile parfois dès le plus jeune âge, au nom d’une prétendue tolérance en réalité pleine de condescendance, sous couvert de « diversité » et de « résistance au capitalisme », écrit Carine Azzopardi, qui estime qu’il s’agit d’une diabolisation du corps des femmes en général.

 

La liquidation des Lumières

C’est le titre que l’auteur donne à l’un des chapitres, dans lequel elle montre comment l’adoption de plus en plus répandue du discours intersectionnel et son obsession de la recherche systématique d’inégalités et de discriminations en tous genres a pour effet, en réalité, de jouer contre les valeurs de l’universalisme, d’ailleurs accusé par certains d’être celui des hommes « cis blancs ». Un jeu dangereux auquel se prêtent des professionnels du monde artistique ou universitaire, voire des ministres. Qui aboutit, comme nous le savons, à de multiples censures de pièces de théâtre, conférences, œuvres littéraires ou cinématographiques, à l’initiative de militants antiracistes woke. Et en définitive à une célébration des communautarismes.

 

Or, le « droit la différence » ne s’oppose pas à l’universalisme. C’est jeter le bébé avec l’eau du bain que de le croire, une sorte de caprice d’enfant gâté qui sacrifierait la liberté et l’émancipation au nom du droit des minorités, et de l’appartenance communautaire.

 

… Quand ce ne sont pas les mathématiques elles-mêmes (mais aussi d’autres sciences, y compris la médecine) qui sont remises en cause comme étant développées par les « dominants blancs », selon certains mouvements antiracistes woke là encore !

 

Concrètement, certaines écoles américaines prennent désormais en compte l’origine raciale des élèves, pour ne pas « stigmatiser » des populations « racialisées », qui auraient, par nature, des difficultés avec une matière intrinsèquement blanche, donc raciste. Vous ne rêvez pas. Les premières « classes racisées » ont été mises en place dans la banlieue de Chicago, par exemple, où l’on regroupe les élèves en mathématiques selon la couleur de leur peau.

 

L’idéologie et les croyances en viennent ainsi à remplacer la raison et à dévoyer la science ou l’histoire, mais aussi à œuvrer chaque jour de plus en plus (aux États-Unis pour l’instant) pour purger le langage lui-même. Processus dont on sait où il mène

Le problème, nous dit l’auteur, c’est qu’à vouloir s’attaquer à l’universalisme en tant que soubassement de nos démocraties, c’est à une autre forme d’universalisme que nous laissons place : celui que tentent de promouvoir les islamistes et leur communauté mondiale des croyants. C’est en cela que les armes rhétoriques des antiracistes leur sont particulièrement utiles, s’appuyant sur le droit et les institutions internationales pour mieux s’attaquer insidieusement aux principes démocratiques et imposer peu à peu, de manière très stratégique, l’islam politique.

Pour ne rien arranger – et c’est l’objet d’un autre chapitre également très documenté – Carine Azzopardi montre le vide académique qui existe sur le sujet de l’islamisme. De moins en moins de chercheurs, de plus en plus militants, prennent la place des rares spécialistes qui traitent vraiment du sujet de manière factuelle et réaliste, progressivement isolés ou mis au ban, le langage étant là aussi purgé de tout ce qui fâche. L’ignorance prend ainsi le pas, une fois encore, sur la connaissance, à laquelle est préféré le wokisme, son vocabulaire spécifique et ses concepts foisonnants, la question devenant l’apanage des plus extrêmes.

 

Les dérives des théories du genre

Avec le wokisme, nous assistons au triomphe de la pensée binaire.

Non seulement on peut avoir peur aujourd’hui d’être rapidement traité d’islamophobe, mais on peut tout autant craindre désormais d’être traité de transphobe. Les théories du genre vont de plus en plus loin dans l’offensive, militant pour la « déconstruction », avec la volonté de « s’émanciper du système hétéronormé dominant ».

Une vive opposition existe désormais entre féministes universalistes et différentialistes ou intersectionnelles. Ces dernières assimilent la définition de l’identité sexuelle à un genre comme une norme fasciste. Elles prônent au contraire la « plasticité indéfinie de l’individu » (d’où le sigle LGBTQQIPS2SAA+). Les choses vont très loin en la matière, dans la mesure où utiliser le langage traditionnel à cet égard peut être jugé discriminant et vous valoir des ennuis. Pas tellement encore de ce côté de l’Atlantique, mais avec une vigueur parfois étonnante de l’autre ; avec des visées planétaires.

Là où le bât blesse, c’est que certains tenants de ces théories ont conclu une forme d’alliance rhétorique avec les islamistes, dont les ressorts sont grandement contradictoires avec leurs fondements théoriques respectifs, et résultent d’une grande part d’aveuglement.

Pour finir l’ouvrage, Carin Azzopardi écrit un chapitre dans lequel elle montre comment un antisémitisme décomplexé est réapparu et s’est développé de manière croissante au cours des années 2000, certains allant – même parmi des stars grand public – jusqu’à assimiler Juifs et blanchité et considérer l’Holocauste comme « un crime de Blancs sur des Blancs ». Dans une surenchère haineuse – aux accents clientélistes – de termes révélateurs d’une pensée là aussi très binaire, antimoderniste, voire révisionniste, ou même complotiste, qui ajoute aux confusions, divisions, absence de nuances, clichés, et délires « progressistes » peu à même d’aller dans le sens de l’apaisement, de la coexistence pacifique et de la véritable démocratie, plus que jamais en danger. Là encore accentuée par les dérives préoccupantes… du wokisme.

 

 

À lire aussi :

Une philosophie de la liberté, avec Damien Theillier

Damien Theillier est professeur de philosophie en terminale et en classes préparatoires à Paris, fondateur de l’Institut Coppet et président de l’Académie Libre des Sciences Humaines.

J’ai la chance de connaître Damien depuis au moins 2015, lorsque j’ai été invité à parler d’économie numérique pour l’École de la Liberté, devenue depuis Académie Libre des Sciences Humaines. Au cours de notre discussion nous sommes revenus sur son parcours d’apprentissage puis d’enseignement de la philosophie, et de sa rencontre avec les idées libérales pour la connaissance desquelles il œuvre inlassablement depuis. Nous avions lancé l’idée d’une interview lors du précédent Weekend de la Liberté à Dax, une idée concrétisée après nous être de nouveau croisés à Biarritz en août 2023 où Damien, grand amateur de Bitcoin, a donné une présentation originale sur le lien entre la mauvaise santé de nos monnaies et celles de nos corps, un angle original et provocateur qui a suscité le débat.

 

Enregistré à Paris le 4 octobre 2023. Pour écouter l’épisode, utilisez le lecteur ci-dessous. Si rien ne s’affiche, rechargez la page ou cliquez directement sur ce lien.

 

Programme

Introduction – 0:00

Présentation de l’invité – 0:32

Fondation de l’Institut Coppet – 9:28

Lancement de l’École de la Liberté (Académie Libre des Sciences Humaines) – 16:16

Le nécessaire retour au débat contradictoire – 18:40

Le Cercle Frédéric Bastiat et le Weekend de la Liberté – 21:47

Déclin civilisationnel et libéralisme tragique ? – 23:24

Le rôle de la monnaie dans l’évolution économique et sociale – 28:55

Bitcoin est-il un espoir pour « réparer » la monnaie ? – 32:12

Notre santé, victime collatérale du système monétaire « fiat » ? – 34:03

Pas de complot, mais des incitations – 46:13

 

Références générales

Bitcoin, Bifteck et Civilisation (Keynote à Surfin’ Bitcoin 2023)

Site personnel de notre invité consacré à F. Bastiat

La philosophie en 60 livres

École de la liberté, vidéos en ligne

Institut Coppet

Weekend de la liberté : découvrez nos conférenciers

Bitcoin présenté par Pierre Schweitzer en 2016

 

Références alimentation et santé

Dr David Perlmutter, Ces glucides qui menacent notre cerveau

Dr Robert Lustig, Metabolical

Gary Taubes, Pourquoi on grossit

Nina Teicholz, Manger gras, la grosse surprise

Lierre Keith, Le mythe végétarien

 

Pour nous suivre

Twitter Contrepoints

Twitter Pierre Schweitzer

Facebook – Contrepoints

Youtube – Contrepoints

Twitter Damien Theillier

LinkedIn Damien Theillier

Baisse de niveau en mathématiques : les élèves paient les conséquences de l’égalitarisme

Le Conseil scientifique de l’Éducation nationale (CSEN) a récemment mis en lumière un problème majeur dans l’enseignement des mathématiques en France : un énorme déficit de compréhension des fractions chez les élèves.

Dans sa dernière note d’alerte, il relève que seule la moitié des élèves qui entrent en sixième savent répondre à la question « Combien y a-t-il de quarts d’heure dans trois quarts d’heure ? » : 22 % placent correctement la fraction 1/2 sur une ligne graduée de 0 à 5, confusion fréquente 1/2 avec 1,2, ou encore 2/1 avec 2,1. Et 45 % des élèves de seconde générale échouent sur des fractions simples.

Le CSEN insiste sur la nécessité d’introduire les concepts mathématiques plus tôt dans la scolarité, et de façon progressive, à l’instar de la méthode singapourienne. En France, les décimaux et les fractions sont enseignés trop tardivement, respectivement en CM1 et CM2.

La mise en place de groupes de niveau en mathématiques et en français, comme le suggère Gabriel Attal, ministre de l’Éducation nationale, risque d’avoir un impact marginal : la majorité des recherches n’ont pas réussi à démontrer une plus grande efficacité dans cette méthode pédagogique pour améliorer le niveau général des élèves.

Les fondamentaux pédagogiques peuvent attendre

Ne nous méprenons pas : cette situation est le résultat de plusieurs décennies de politiques égalitaristes dans l’Éducation nationale, qui consistent à niveler par le bas et à abaisser les critères au lieu de maintenir un niveau d’exigence élevé.

Cela se traduit par des décisions telles que le passage en année supérieure d’un élève malgré la non-validation des acquis, la difficulté à recruter des enseignants, ou encore le gonflement des notes aux examens du baccalauréat.

En 2022, une étude de la Direction de l’évaluation, de la prospective et de la performance (DEPP) – le service statistique du ministère lui-même – soulignait qu’environ « 21 % des élèves âgés de 15 ans n’ont pas un niveau suffisant de compétences en compréhension de l’écrit, culture mathématique et culture scientifique ». Malgré ces constats inquiétants, le ministère préfère consacrer 500 millions d’euros sur le quinquennat pour financer des projets liés au développement durable, à la transition écologique et au climat. Les fondamentaux pédagogiques peuvent attendre.

La perte d’attractivité de l’Éducation nationale est à demi avouée par certains de ses représentants.

Pap Ndiaye, ancien ministre, préfère inscrire ses enfants au sein de la prestigieuse École alsacienne, un établissement privé, plutôt que sur les bancs de l’école publique républicaine, férue de mixité sociale et de transition écologique. Nous assistons ici au phénomène parfaitement décrit par Tocqueville deux siècles auparavant : l’obsession de l’égalité absolue contribue à renforcer les inégalités.

L’Éducation nationale en est la meilleure illustration : en s’enlisant dans l’égalitarisme, elle accentue les disparités entre les élèves qui ont la possibilité de se soustraire d’un système en déclin, et ont les moyens d’investir pour obtenir des meilleures conditions de travail (écoles privées, cours particuliers, etc.), et ceux condamnés à rester dans le carcan socialo-étatiste.

La liberté scolaire

Pour améliorer le niveau des élèves français, il est nécessaire d’envisager des réformes plus profondes. Les bénéfices de la liberté scolaire et de la privatisation sont observés aux États-Unis, notamment à travers les charter schools. Dans son dernier rapport publié en 2023, le Center for Research on Education Outcomes (CREDO) de l’université de Stanford s’est intéressé aux résultats des élèves inscrits dans ces écoles américaines à financement public, mais qui se caractérisent par une grande autonomie dans l’enseignement et les programmes scolaires.

Après avoir combiné les données de 31 États sur la période 2015-2019, le constat est sans appel. En mathématiques, les élèves des charter schools ont en moyenne une avance de six jours d’apprentissage en mathématiques, et de 16 jours en lecture par rapport à leurs pairs.

 

En conclusion, le déficit de compréhension des fractions parmi les élèves français est le reflet de problèmes plus profonds dans le système éducatif. Des réformes sont nécessaires pour inverser cette tendance, en commençant par une plus grande liberté des établissements dans le choix des programmes pédagogiques et une réévaluation des priorités du ministère de l’Éducation nationale.

En s’inspirant des succès d’autres systèmes éducatifs, la France pourrait prendre des mesures significatives pour améliorer le niveau de ses élèves.

La démocratie représentative aujourd’hui

Par Hadrien Gournay.

démocratie périclès credits tim brauhn (licence creative commons)
démocratie périclès credits tim brauhn (licence creative commons)

Une plus grande réceptivité aux projets de réformes économiques libérales depuis quelques années n’a pas pour autant permis une meilleure connaissance des idées libérales en général.

Ce mouvement récent s’accompagne d’ailleurs d’un goût prononcé pour l’autorité, au point d’être devenu incompatible avec les implications politiques de la philosophie libérale. Preuve de la difficulté à admettre toutes les implications de l’idée de liberté, il y a une dizaine d’années, la situation était exactement inversée : les implications économiques du libéralisme économique semblaient inacceptables, alors que ses implications politiques bénéficiaient d’un consensus très large.

Pour répondre à la difficulté posée par la réunion, sous un même vocable, de deux réalités que leur système de valeurs oppose, bien des commentateurs distinguent un libéralisme politique (qu’ils apprécient) et un libéralisme économique (qu’ils exècrent) alors que rien ne le justifie historiquement.

Certes, il est possible d’adhérer à l’un des aspects du libéralisme sans se rallier à l’autre, mais pas sans avoir compris leur développement conjoint.

Certes, une politique libérale peut en apparence s’appuyer sur plusieurs fondations, l’une plus « philosophique », l’autre plus « économique », mais cette distinction est en grande partie illusoire : dans la mesure où une science ne peut justifier seule une solution normative sans système de valeur qui la soutient, un libéralisme économique sans principes philosophiques serait réduit à l’impuissance.

Aussi, il serait plus juste d’opposer une philosophie libérale « jusnaturaliste » (fondée sur le droit naturel, même si le terme est assez éloigné de l’idée qu’en avaient les anciens) à une philosophie libérale « utilitariste » ou « conséquentialiste ».

Or, la philosophie libérale « jusnaturaliste » inclut et défend dès le départ les libertés politiques et économiques. Il suffit de lire John Locke puis les déclarations des droits des révolutionnaires pour s’en convaincre.

Ce n’est pas le seul enseignement qu’une connaissance de l’histoire du libéralisme peut donner. Si nous nous intéressons aux formes laissées à nos institutions politiques par le libéralisme, nous constatons qu’il a fait le choix de la démocratie représentative par opposition non seulement aux monarchies, souvent absolues, qui dominaient l’Europe à l’époque, mais aussi aux démocraties directes dont l’antiquité – et plus particulièrement Athènes – offrait le modèle.

Les principes du gouvernement représentatif conçus à l’époque restent encore de mise dans les sociétés qui les ont adoptés et continuent de s’étendre à de nouvelles populations. Ils constituent un legs du XVIIIe siècle au monde contemporain. Ce succès apparent n’est pas total puisque les peuples qui appliquent ce système sont de plus en plus désabusés par leur classe politique.

Toujours est-il que cette expérience de plus de deux siècles doit nous permettre d’examiner si la conviction que ce système de gouvernement était supérieur à la démocratie directe était fondée.

À cet égard, le legs représentatif semble aujourd’hui ambigu : aux principaux avantages de la démocratie représentative, il semble que des défauts équivalents fassent un triste contrepoids. C’est le cas de la compétence des élus et de leur modération.

 

imgscan contrepoints 2013-2412 démocratie directeCompétence des élus

L’idée que les élus sont plus qualifiés que la population moyenne pour distinguer le bien commun à long terme de la société trouvera sans doute de nombreux contestataires mais n’en conserve pas moins un soutien plus grand que l’optimisme relatif à leur vertu.

À l’appui de cette affirmation on remarque que, s’ils sont loin de constituer l’élite resserrée, plus caractéristique de la haute administration et des ministères, que l’on pourrait attendre, les élus des grandes villes ou les députés ont en moyenne un niveau d’étude supérieur à celui de l’ensemble de la population française : seuls 4 % n’ont pas le baccalauréat (le chiffre est à comparer à celui de la population du même âge).

De plus, en dehors de celles qui leur sont spécifiques, ces élus ont probablement plus facilement accès à des compétences de qualité pour décider et s’informer.

Ces faits ne sont pas nécessairement incompatibles avec l’impression de bêtise laissée par la moyenne des élus à des personnes instruites.

En effet, une confiance en soi permettant d’exprimer des opinions avec une force sans rapport avec la compétence ou le degré d’analyse qui les soutiennent est malheureusement favorable jusqu’à un certain point à l’action politique. Si l’on ajoute à cette fatuité le cynisme des élus qui disent, non pas ce qu’ils pensent, mais ce qui peut séduire l’électorat dont ils briguent les suffrages ou ce qui plait à la direction de leur parti, le tout peut donner l’impression aux personnes ayant un niveau d’étude au moins équivalent à celui des parlementaires que les chambres, pour prendre cet exemple, sont le règne d’une futile et incompétente arrogance.

Il reste que ces réserves n’invalident pas le constat d’une qualification moyenne des élus supérieure à celle de la population générale.

Toutefois, une plus grande compétence des représentants pour discerner l’intérêt de la population n’offre un avantage que si cet intérêt est l’objectif qu’ils poursuivent. Si vous confiez votre patrimoine à un gestionnaire de fortune très compétent, la très grande perspicacité de votre choix dans l’appréciation de cette compétence risque d’être pour vous une très faible consolation au moment où celui-ci détournera votre argent !

Mis à part les erreurs des élus pour le déterminer, cela pose la question des initiatives des élus contraires à l’intérêt général en toute connaissance de cause. Malheureusement, l’existence de choix politiques, en raison, non de l’intérêt des électeurs mais de la classe politique elle-même est une réalité indéniable. Seule la connaissance de son importance réelle peut nous faire savoir si le phénomène réfute la préférence moderne pour le gouvernement représentatif.

La réalité des motivations égoïstes des élus se manifeste avec le plus d’évidence par l’octroi d’avantages personnels ou strictement limités à leur groupe, hors de toute légalité lorsqu’ils sont corrompus, ou dans un cadre légal lorsqu’ils s’accordent des avantages que rien ne justifie, comme le régime des retraites très favorable des députés.

Ces faits sont particulièrement scandaleux lorsqu’ils sont examinés en particulier, mais leur cumul est toutefois moins nuisible pour la population que celui qui procède de la jonction/insertion de la caste élective avec/dans une caste plus large, la caste politico-administrative et l’extension des prérogatives de l’État qui en résulte.

Les politiciens et les députés sont dans une très grande proportion des fonctionnaires, voire des énarques, corporations dont ils représentent bien souvent la culture et les intérêts et qui, s’ils étaient trop peu dociles, pourrait s’appuyer sur les partis politiques, arbitres de la carrière des élus, et « tenus » par un exécutif lui-même dominé par l’administration. À ce stade, ce n’est plus la recherche d’avantages strictement personnels qui est en cause mais plutôt le processus de développement incontrôlé de l’administration.

Aussi, la distinction présentée plus haut entre les simples erreurs des élus et les actes contraires à l’intérêt général « en toute connaissance de cause » est relativisée car, tant que le contraste n’est pas trop criant, chacun a tendance à croire que ce qui avantage son groupe est à la fois juste et favorable au pays. Il y a bien une erreur mais beaucoup plus viciée qu’une erreur d’appréciation ayant des causes toutes intellectuelles.

La démocratie représentative dispose pourtant de mécanismes pour éviter que le problème ne prenne des proportions trop importantes.

L’alternance politique (la prochaine élection) est le meilleur remède pour empêcher qu’une minorité ne tyrannise la majorité. Cela s’applique également à la minorité que constituent les élus eux-mêmes. La séparation des pouvoirs par laquelle les « représentants » n’ont pas des intérêts strictement identiques mais concurrents est d’une efficacité comparable.

Dans les deux cas, cependant, l’efficacité du remède n’est pas totale et faiblit avec le temps.

La possibilité donnée aux électeurs de choisir d’autres représentants si ceux qui sont en place ne donnent pas satisfaction est une indication pour ces représentants que leur intérêt strictement personnel peut s’opposer à leur intérêt de représentant, et qu’il leur faudra choisir entre voter des dispositions qui leur sont très favorables et être réélus.

Malgré tout, cette indication est ressentie de façon plus éloignée que ne le présume cette présentation. Le choix des partis et des représentants est en effet limité par le processus électoral. Celui-ci divise la compétition entre tendances modérées et extrêmes qui par nature ont rarement la victoire. Au sein des tendances modérées la compétition est limitée par le fait que les acteurs ont un intérêt à se regrouper en grands partis pour l’emporter.

Au final l’électeur n’aura alors le choix qu’entre deux formations soutenant les mêmes mesures, très favorables aux élus. Lorsqu’un très grand nombre de variables sont à prendre en compte dans un choix, il est nécessaire que le nombre de concurrents soit lui aussi important pour qu’il y ait une incitation à prendre en compte ces variables dans l’offre. De ce point de vue, le marché politique est un des marchés les moins efficaces. Cela provient en grande partie du fait qu’il ne fait qu’un vainqueur et des vaincus. Les marchés « économiques » ne font que des vainqueurs relatifs en fonction des choix des consommateurs.

La séparation des pouvoirs est très efficace pour empêcher le développement très rapide d’un pouvoir autoritaire mais n’interdit pas les petits accommodements sur lesquels s’accordent des gens raisonnables. Après un temps très long, ces petits accommodements s’ajoutant les uns aux autres, tous favorables au pouvoir discrétionnaire de l’État, ce dernier devient de plus en plus difficile à distinguer de l’état autoritaire auquel la séparation des pouvoirs devait lui interdire de ressembler. Les situations de crises aigües sont également propices au développement de la compétence illimitée de l’État. L’actualité nous en offre la triste illustration.

La démocratie directe n’a pas besoin de ces remèdes, car elle n’est pas par nature touchée par le problème que constitue l’intérêt propre des élus ou l’intérêt plus large de l’administration. Elle a ses limites propres dans une moindre compétence des votants, présentée plus haut et dans le fait que l’intérêt de la majorité ne coïncide pas nécessairement avec l’intérêt général. Une majorité fanatique peut opprimer une minorité. La démocratie représentative offre-elle par sa modération une protection contre ce danger ?

 

Modération des élus et protection des minorités

élection vote (crédits : René Le Honzec/Contrepoints, licence Creative Commons)Les catégories supérieures auxquelles appartiennent les représentants ont des idées plus modérées et rêvent de changements moins violents que les catégories populaires qui, n’approuvant pas leur situation actuelle, sont plus souvent tentées par des solutions violentes et radicales.

Les catégories populaires (chômeurs, ouvriers, employés) votent davantage en faveur de l’extrême droite et de l’extrême gauche que les catégories supérieures, auxquelles appartiennent les représentants.

Ces énoncés liant catégorie supérieure et modération et catégories supérieures et représentants ne sont cependant pas une preuve entièrement décisive d’une plus grande modération des représentants.

Après tout, les catégories populaires peuvent favoriser des représentants qui leur ressemblent, à hauteur de leur poids électoral, quand bien même ceux-ci seraient choisis parmi les élites. Les idées des représentants seraient alors plus proches de l’ensemble de la population que de celle de leur groupe social d’appartenance. Le succès des mouvements populistes prouvent d’ailleurs que représentation et mépris des élites ne sont pas incompatibles.

Le mode de scrutin joue un rôle très important dans la sélection des idées représentées dans les chambres en comparaison de celles du reste de la population.

Dans l’optique d’une comparaison extrémisme/modération, il est important de comprendre que l’opinion de l’électeur médian a tendance à être plus modérée que les électeurs extrêmes.

Supposons que le sujet de société porte sur les coiffeurs. L’extrême le plus hostile au coiffeur proposera d’interdire l’exercice du métier sous les peines les plus lourdes. L’extrême opposé tentera d’octroyer des privilèges à cette profession ou voudra des lois. Ainsi pour chaque groupe identifié (minorité ethno-religieuse, groupe professionnel), la population se répartissant entre les deux pôles que sont la franche hostilité et un favoritisme caricatural, l’opinion médiane a plus de chances d’être équilibrée.

Ce constat probabiliste n’est pas une garantie. Si par nature les pôles extrêmes ne peuvent fournir d’opinion modérée, celle-ci peut par exemple se situer au point 20/80 de la répartition.

Le mode de scrutin assurant la meilleure représentation de l’électeur médian est donc celui qui favorise a priori le mieux la modération.

À ce titre le scrutin majoritaire à deux tours donne un poids plus grand aux préoccupations de l’électeur médian.

Il permet de prendre en compte davantage l’opinion des électeurs sur le candidat qui leur déplait le moins que sur le candidat qu’un plus grand nombre d’électeurs placent en premier choix. L’élection présidentielle de 2002 a montré que si Jean-Marie Le Pen arrivait presque à égalité comme « premier choix », il paraissait en revanche un très mauvais choix pour les électeurs n’ayant voté ni pour lui ni pour Jacques Chirac au premier tour. Les candidats extrêmes sont par définition de très mauvais seconds choix pour l’électeur médian sans lequel une élection à deux tours ne peut être gagnée.

Le mode de scrutin proportionnel ne favorise ni ne défavorise l’électeur médian.

Il donne simplement la représentation des premiers choix des électeurs. Le scrutin à un tour sur la base de la majorité relative est le plus aléatoire. Il peut favoriser outrageusement les partis soutenus par l’électeur médian, mais il peut tout à fait donner le pouvoir à un parti extrémiste lorsque celui-ci recueille un grand nombre de suffrages.

Appliqué aujourd’hui, ce mode de scrutin serait probablement très favorable au Front national comme il aurait pu être très favorable au Parti communiste dans les années 1950.

L’élection de Salvador Allende qui divisa profondément la société chilienne et aboutit au coup d’État sanglant de Pinochet, emprunte beaucoup à la logique du scrutin uninominal à un tour. En effet, à l’issue du premier tour les voix s’étaient réparties, à peu près à égalité, entre trois candidats, celui du centre, celui de la droite et celui de la gauche (Allende). Allende ayant eu le plus grand nombre de voix fut alors désigné comme président de la République pour former un gouvernement comme le voulait la constitution chilienne.

Sous réserve d’un mode de scrutin bien conçu, mieux protéger les droits des minorités que ne le ferait la démocratie directe est probablement à mettre au crédit de la démocratie représentative. Le favoritisme à l’égard des minorités en est simplement le revers.

Appliqué aux activités économiques ce favoritisme prend la forme du corporatisme. Alors, de nombreuses professions dont chacune, considérée isolément, forme une minorité dans ses rapports avec le consommateur majoritaire, reçoivent des privilèges. Ces privilèges ne s’expliquent aucunement par des principes de justice, et même dans l’hypothèse où chaque profession bénéficierait de façon équivalente de ces législations particulières, l’effet total en serait défavorable à chacun dans sa double qualité de professionnel et consommateur.

Cette particularité des démocraties représentatives modernes est expliquée par les économistes théoriciens du choix public par le fait que les minorités professionnelles ont une motivation pour se mobiliser et obtenir des lois en leur faveur bien plus forte que les majorités dont l’intérêt est opposé parce que la répartition de l’avantage que la loi produit sur chaque membre de la minorité est bien supérieur à celle de l’inconvénient sur chaque membre de la majorité.

Cet aspect peut l’emporter sur l’opinion de l’électeur médian sur la bonne mesure à prendre à l’égard de la profession considérée. La démocratie représentative se retrouve alors dans un extrémisme plus proche des minorités.

À l’opposé, la démocratie directe devrait être beaucoup moins touchée par ce problème.

En effet, il n’est pas naturel de voter pour un avantage particulier dont on n’est pas bénéficiaire, et la plus forte mobilisation des professionnels comptant sur un privilège ne pourra compenser le déséquilibre numérique de départ au point d’inverser le résultat du scrutin.

 

Conclusion

Le succès de la démocratie représentative peut être mesuré sur deux plans différents.

Un premier genre de succès pour un régime politique, assez semblable à celui d’une marque de lessive, consiste à être adopté par un grand nombre de populations différentes. Ici, le succès de la démocratie représentative est indéniable : le régime représentatif persiste remarquablement dans les premières sociétés qui l’ont adopté et des populations de plus en plus nombreuses y ont accédé ou désirent le faire.

Un autre genre de succès est d’atteindre les buts pour lesquels les philosophes libéraux du XVIIIe siècle l’ont instituée.

Le premier genre de succès n’implique que partiellement le second.

Certes, la persistance des démocraties représentatives est le signe d’une préservation minimale des libertés car, au-delà d’un certain stade, l’atteinte aux libertés implique un changement de régime. Certes, les cas où les régimes représentatifs ont basculé vers une dictature, par un coup d’État ou par le jeu des institutions, sont l’exception malgré l’exemple mémorable du nazisme. Toutefois, l’accroissement continu du rôle économique de l’État au cours du XXe siècle montre que ce régime n’est pas à l’abri d’une lente dérive étatiste.

Par ailleurs, les représentants sont peut-être un peu plus compétents que la population majoritaire et moins passionnés, ils risquent moins d’opprimer des minorités mais cette compétence un peu supérieure est loin de correspondre à une vertu, elle conduit bien souvent à préserver les intérêts de l’État, des clientèles des représentants ou des représentants eux-mêmes.

La démocratie directe n’est pas pour autant une solution évidente, les deux sources démocratiques possibles des lois présentant pour les libertés des défauts qui leur sont propres.

Donner un droit de veto populaire aux lois votées par les élus pourrait être une manière élégante de réunir les avantages des deux systèmes.

J’envisage pour ma part une solution complémentaire.

Elle implique que le budget de l’État soit entièrement financé par un impôt unique et à taux également unique. La population voterait alors directement pour le taux auquel elle souhaite être prélevée. Différents taux seraient proposés, et c’est le vote médian et non le vote moyen qui serait pris en compte.

Cette réforme étant assortie d’une interdiction des déficits (ou d’une autorisation sous réserve d’un référendum les approuvant pour chaque exercice), la dépense publique s’en trouverait limitée. Il est vrai que la majorité peut avoir un intérêt de court terme à la redistribution, mais elle n’en a pas à ce que cette redistribution passe spécifiquement par la croissance de l’appareil d’État. Une des causes de l’augmentation de la dépense publique s’en trouverait éliminée.

___

Article publié initialement le 1er décembre 2015.

Lire l’article de José Lopez-Martinez : Pour en finir avec la démocratie directe

Lire l’article de Jacques Garello : Les bienfaits de la démocratie directe

Quand Diderot envoyait un économiste libéral à la cour de Catherine II

coppet_russieAinsi que nous le savons bien, l’Impératrice Catherine II de Russie fut particulièrement mêlée à la scène littéraire et philosophique européenne. Admiratrice de L’Encyclopédie, correspondante de Voltaire, elle a aussi entretenu avec Denis Diderot une longue amitié.

À de nombreuses occasions, Catherine II profita de cette relation pour faire venir auprès d’elle quelques gloires qu’elle admirait. Un exemple des plus fameux fut celui d’Étienne Maurice Falconet (1716-1791). Ce sculpteur français fut un proche de Diderot, qui le missionna de composer l’article « Sculpture » de L’Encyclopédie. En avril 1765, il fut recommandé à l’Impératrice russe, qui l’employa pendant plus de treize ans exactement, de septembre 1765 à septembre 1778.

Une autre fois, Diderot lui recommanda non un sculpteur, mais un économiste, et non seulement un économiste, mais un économiste libéral. Ce fut un disciple de François Quesnay, le physiocrate Mercier de la Rivière, en 1767.

Si nous souhaitons raconter cet épisode aujourd’hui, c’est qu’il reste encore peu connu, et que quand il est raconté, il l’est d’une manière très approximative, pour ne pas dire erronée.

 

L’admiration de Diderot pour Mercier de la Rivière

Il peut paraître étonnant que Diderot ait envoyé un économiste libéral comme Mercier de la Rivière.

En vérité, Diderot était un grand admirateur de cet économiste. Selon Charles de Larivière, Denis Diderot « mettait Mercier de la Rivière à côté et même au-dessus de Montesquieu. » 1 Compte tenu de la célébrité justement méritée de Montesquieu, comment comprendre cette préférence de Diderot ?

Mercier de La Rivière s’était fait connaître par un ouvrage intitulé L’Ordre naturel et essentiel des sociétés politiques, qui parut la première fois en 1767. Ancien conseiller au Parlement de Paris et intendant de la Martinique, l’économiste, disciple de Quesnay, acquit ainsi la plus grande des célébrités. Il s’était fait déjà remarquer par ses qualités d’administrateur en Martinique, mais ce livre le propulsa à de bien autres niveaux. Tout ce que la France comptait de grands esprits se jetèrent sur ce livre, qui avait fait parler de lui et qui s’était en effet très bien vendu (deux éditions furent écoulées successivement).

catherine IIPendant qu’à Paris les esprits s’échauffaient sur le livre de Mercier de la Rivière, en Russie, Catherine II cherchait désespérément un grand esprit pour l’aider à réformer les lois de la Russie.

La tsarine avait déjà rédigé une Instruction pour le code, une espèce de plan général fondé sur les maximes de Montesquieu, ainsi qu’elle l’avouera à d’Alembert en lui envoyant le texte :

« Vous y verrez comment, pour l’utilité de mon Empire, j’ai pillé le président de Montesquieu sans le nommer ; j’espère que si de l’autre monde il me voit travailler, il me pardonnera ce plagiat pour le bien de 20 millions d’hommes qui doit en résulter. Il aimait trop l’humanité pour s’en formaliser. Son livre est mon bréviaire. » 2

Catherine II avait d’abord jeté son dévolu sur l’italien Cesare Beccaria, l’illustre auteur du traité Des délits et des peines, dont elle s’était également beaucoup inspirée, mais sans le reconnaître. Malheureusement pour la tsarine, Beccaria refusa l’offre et resta en Italie pour enseigner l’économie politique. Catherine II manda donc Diderot, qui était pour elle le plus grand des philosophes, de lui trouver un substitut.

Très impressionné par la lecture de L’Ordre naturel et essentiel des sociétés politiques, Diderot choisit son auteur, Mercier de la Rivière. Il annonça ce choix à son ami Falconet, alors en Russie, dans des mots qui illustrent parfaitement sa très grande admiration pour l’économiste physiocrate.

« Dans six semaines, au plus tard, vous recevrez cette lettre, et vous embrasserez celui qui vous la remettra, parce qu’il vous remettra une lettre de votre ami. Je ne vous nomme point cet homme. Il a reçu de la nature une belle âme, un excellent esprit, des mœurs simples et douces. La méditation assidue sur les plus grands objets et l’expérience des grandes affaires ont achevé de perfectionner l’ouvrage de la nature. Ah ! Si Sa Majesté Impériale a du goût pour la vérité, quelle sera sa satisfaction ! Je la devine d’avance et la partage. Nous nous privons de cet homme pour vous. Il se prive de nous pour elle. Il faut que nous soyons tous étrangement possédés de l’amour du genre humain. Il sera précédé d’un ouvrage intitulé : De l’ordre naturel et essentiel des sociétés policées. C’est l’apôtre de la propriété, de la liberté et de l’évidence. De la propriété, base de toute bonne loi ; de la liberté, portion essentielle de la propriété, germe de toute grande chose, de tout grand sentiment, de toute vertu ; de l’évidence, unique contre-force de la tyrannie et source du repos. Jetez-vous bien vite sur ce livre. Dévorez-en toutes les lignes comme j’ai fait. Sentez bien toute la force de sa logique, pénétrez-vous bien de ses principes, tous appuyés sur l’ordre physique et l’enchaînement général des choses ; ensuite allez rendre à l’auteur tout ce que vous croirez lui devoir de respect, d’amitié et de reconnaissance. Nous envoyons à l’impératrice un très habile, un très honnête homme. Nous vous envoyons à vous un galant homme, un homme de bonne société. Ah ! mon ami, qu’une nation est à plaindre, lorsque des citoyens tels que celui-ci y sont oubliés, persécutés et contraints de s’en éloigner, et d’aller porter au loin leurs lumières et leurs vertus ! Nos premières entrevues se sont faites dans la petite maison. Nous nous y retrouverons aujourd’hui pour la dernière fois. Lorsque l’impératrice aura cet homme-là, et de quoi lui serviraient les Quesnay, les Mirabeau, les de Voltaire, les d’Alembert, les Diderot ? À rien, mon ami, à rien. C’est celui-là qui a découvert le secret, le véritable secret, le secret éternel et immuable de la sécurité, de la durée et du bonheur des empires. C’est celui-là qui la consolera de la perte de Montesquieu. » 3

Très admiratrice de l’œuvre de Mercier de la Rivière également, Catherine II ne fut pas surprise du peu de cas que le pouvoir royal français faisait de cet économiste. Après tout, quelques mois auparavant, le livre de Beccaria, qu’elle admirait beaucoup, avait été interdit en France parce qu’il « manquait de respect à la législation ». Ce qu’elle craignait en revanche, c’est que la France n’empêche le départ de Mercier de la Rivière pour Saint-Pétersbourg. Pour cette raison, elle incite ses correspondants en France à la plus grande prudence.

Elle écrit à son correspondant, M. Panin :

« Monsieur Panin. Je vous conjure d’écrire à Stakelberg et, s’il n’est plus en France, au prince Galitzin, pour qu’ils entrent en négociations avec ce M. de la Rivière pour transporter cet homme en Russie. Souvenez-vous surtout de ne point compromettre son nom, afin que le ministère de la France ne l’empêche pas de venir ici. Ayant été longtemps employé à la Martinique, il y a de très bonnes idées dans son mémoire, et il nous sera plus utile qu’à eux qui ne savent pas s’en servir. » 4

Catherine II débloqua pas moins de 12 000 livres pour financer le transport de notre économiste, qui ne tarda pas à accepter l’offre. Les lauriers de la gloire n’avaient pas tardé à venir pour Mercier de la Rivière. Le succès littéraire était encore tout frais quand il partit en direction de la Russie, et pour cause : son livre n’avait paru que depuis huit jours.

Mercier de la Rivière partit donc à Saint Pétersbourg, où il attendit l’impératrice de Russie, restée à Moscou. Le 26 septembre 1767, après un long voyage, il arriva passablement fatigué dans la ville où il devait retrouver la tsarine.

 

Un voyage qui tourne court

Une lettre de Mercier de la Rivière à Diderot nous informe qu’à peine quelques jours après son arrivée, notre économiste prévoit déjà son retour en France. Nous ne savons pas si cela est le résultat d’une brouille avec Catherine II et avec ses hommes, ou simplement à cause du climat, comme nous l’affirme Mercier de la Rivière. 5 En tout cas, l’économiste physiocrate patientait à Saint-Pétersbourg et regrettait peut-être sa venue.

Dans cette attente, et sans doute en partie à cause d’elle, Mercier de la Rivière cultiva un esprit étonnamment critique envers la nation russe. Il rabaissa ce pays, peut-être parce qu’il l’accueillait d’une façon qui ne lui convenait pas, en le faisant attendre de manière excessive.

Deux semaines après son arrivée, il écrivit une lettre à l’abbé Raynal, dans lequel il tint un langage très vigoureux à l’encontre de la Russie :

« Mon cher abbé, tout est à faire dans ce pays. Pour parler mieux encore, il faudrait dire : tout est à défaire et à refaire. Vous sentez bien qu’il est impossible que le despotisme arbitraire, l’esclavage absolu et l’ignorance n’aient pas planté des abus de toute espèce qui ont jeté des racines très profondes, car il n’y a point de plante si féconde, si vigoureuse que les abus. Ils croissent partout où l’ignorance les cultive. […] Vous voyez que j’ai lieu d’espérer que mon voyage ne sera pas infructueux à l’humanité. » 6

Ces remarques illustrent bien les préjugés de Mercier de la Rivière à l’égard de la nation russe, préjugés qui s’étaient transformés en certitudes, dirons-nous en évidences, avant sa rencontre finale avec Catherine II.

Cette rencontre était un sujet d’éternelle excitation pour l’économiste français. Tandis qu’en France les succès de la Physiocratie étaient encore difficiles à déceler, voilà que Mercier de la Rivière, revenu de la Martinique sans beaucoup d’éloges, s’apprêtait à appliquer les idées de l’école de Quesnay à une nation de plus de 20 millions d’âmes. Pris par cet enthousiasme certainement excusable, Mercier de la Rivière tint devant la tsarine des propos qui parurent offensants à la nation russe.

Annoncé par des histoires qui le rendaient indésirable, Mercier de la Rivière eut donc également un comportement très excessif à son arrivée en Russie. C’est en tout cas ce que raconte le comte de Ségur dans ses Mémoires. Il dit que l’Impératrice a tenu ces mots :

 

« M. de La Rivière, me dit l’impératrice, se mit en route avec promptitude ; et, dès qu’il fut arrivé, son premier soin fut de louer trois maisons contiguës, dont il changea précipitamment toutes les distributions, convertissant les salons en salles d’audiences, et les chambres en bureaux.

M. Le philosophe s’était mis dans la tête que je l’avais appelé pour m’aider à gouverner l’empire, et pour nous tirer des ténèbres de la barbarie par l’expansion de ses lumières. Il avait écrit en gros caractères sur les portes de ses nombreux appartements : département de l’intérieur, département du commerce, département de la justice, département des finances, bureaux des impositions, etc. ; et en même temps il adressait à plusieurs habitants russes ou étrangers, qu’on lui indiquait comme doués de quelque instruction, l’invitation de lui apporter leurs titres pour obtenir les emplois dont il les croirait capables.

Tout ceci faisait un grand bruit dans Moscou, et comme on savait que c’était d’après mes ordres qu’il avait été mandé, il ne manqua pas de trouver bon nombre de gens crédules, qui d’avance lui faisaient leur cour.

Sur ces entrefaites j’arrivai, et cette comédie finit. Je tirai ce législateur de ses rêves ; je m’entretins deux ou trois fois avec lui de son ouvrage, sur lequel j’avoue qu’il me parla fort bien ; car ce n’était pas l’esprit qui lui manquait. La vanité seule avait momentanément troublé son cerveau. Je le dédommageai convenablement de ses dépenses. Nous nous séparâmes contents ; il oublia ses songes de premier ministre, et retourna dans son pays en auteur satisfait, mais en philosophe un peu honteux du faux pas que son orgueil lui avait fait faire. »

 

Ce fut en faisant allusion à cette anecdote que l’impératrice écrivit à Voltaire :

« M. de La Rivière est venu ici pour nous législater. Il nous supposait marcher à quatre pattes, et très poliment il s’était donné la peine de venir de la Martinique pour nous dresser sur nos pieds de derrière. » (Mémoires du comte de Ségur, Œuvres complètes de M. le comte de Ségur, Paris, 1826, pp.39-40)

Et c’en fut fini des espoirs de l’école libérale française quant à l’application de leurs idées dans un pays aussi grand et aussi peuplé que la Russie.

Article publié initialement en 2014.

Sur le web.

  1. Charles de Larivière, « Mercier de La Rivière à Saint-Pétersbourg en 1767 d’après de nouveaux documents », Revue d’histoire littéraire de la France, 4e année, N°4, 1897, p.581
  2. Cité par Albert Lortholary, Le mirage russe en France au XVIIIe siècle, Éditions contemporaines, Paris, 1951, p.102
  3. Denis Diderot, Lettres à Falconet, Texte établi par J. Assézat et M. Tourneux, Garnier, 1875-77 (XVIII, pp. 229-251), Lettre XIV, juillet 1767
  4. Lettre de Catherine II à Panin, Recueil de la Société impériale historique russe, tome 20, p.240
  5. Lettre de Mercier de la Rivière à Diderot, 4/15 octobre 1767.
  6. Cité dans Edmund Richner, Le Mercier de La Rivière: ein Führer der physiokratischen Bewegung in Frankreich, Girsberger, 1931, p.58

Les contraintes écologiques pèsent de plus en plus lourd sur les propriétaires

Après une interview du président avec un Youtubeur, les médias rapportent la possibilité d’une interdiction de la vente des logements de note G+, les moins économes en termes de consommation d’énergies…

Le gouvernement nie le projet. Le ministère du Logement ne prépare « absolument pas d’interdiction » de la vente de logements pour excès de consommation d’énergies, affirment-ils au journal Capital.

Néanmoins, même sans interdiction des ventes par les propriétaires, les autorités inventent d’autres types d’entraves et de contraintes.

Les normes visent en particulier les logements pour la location.

Ainsi, les propriétaires portent de plus en plus de coûts du programme d’écologie.

La Dépêche :

« Selon la loi Climat et Résilience de 2021, le gouvernement prévoit l’extension de l’interdiction aux passoires thermiques d’étiquette G en 2025, puis les logements anciens classés F en 2028 et enfin aux logements notés E en 2034. »

Pour la plupart des gens, les règles ont peu d’impact dans l’immédiat.

À terme, les directives mènent vers une baisse du nombre de logements à la location, et à davantage de tension sur les loyers, en plus de pertes de revenus pour les propriétaires.

BFM offre les détails :

« Au 1er janvier 2022, il y avait ainsi 1,6 million de passoires énergétiques (F et G) dans le parc locatif privé, soit un peu moins de 20 % des 8 millions de logements qui composent le parc locatif privé selon les données de l’Observatoire national de la rénovation énergétique (ONRE). Mais à terme, il faudra donc aussi y ajouter les logements du parc locatif privé classés E (interdits à partir de 2034), soit 1,9 million de logements supplémentaires. En tout, ce sont autour de 3,5 millions de logements loués actuellement qui ne seront plus dans les clous en 2034. Soit pratiquement 44 % du parc locatif privé. »

Ainsi, le gouvernement menace environ la moitié des logements d’une interdiction de mise en location au cours de la prochaine décennie, en l’absence de travaux de rénovation.

 

Objectifs de dépense

Les dirigeants n’ont pas de souci pour les surcoûts – peut-être sans retour sur investissement – aux propriétaires, et pour les risques de déséquilibre dans le marché, en raison de la perte d’accès à des logements.

Par contre, les mesures poussent les propriétaires à la dépense, en ligne avec les objectifs d’investissement du gouvernement en matière d’écologie.

En effet, le gouvernement vise une hausse des dépenses de 70 milliards d’euros par an, par rapport aux niveaux d’aujourd’hui.

La majorité de la hausse en vue provient non du gouvernement, mais des entreprises et particuliers, sous forme des travaux d’isolation, par exemple, sous la pression des normes et menaces d’interdiction.

Selon le gouvernement, la part de subventions et dépenses des autorités compte pour seulement 7 milliards d’euros par an. Ainsi, ils prévoient – pour 90 % de la hausse – des dépenses de particuliers et entreprises, sous l’effet d’incitations ou de contraintes.

Avec le durcissement de normes, le gouvernement atteint ainsi des objectifs de dépense en rapport au climat, sans paiement de subventions.

 

Plus de mesures, voire d’interdictions de vente

Certes, le gouvernement nie pour l’instant le projet d’interdiction des logements par le biais des normes.

Par contre, les objectifs sur le climat demandent sans doute davantage de normes et de contraintes.

Comme le rapportent les infos au sujet du Plan d’écologie, le gouvernement prépare des objectifs pour chacun des aspects de l’économie et de la vie des Français.

Les Échos :

« La France dispose désormais de critères précis à atteindre dans chaque secteur (transports, bâtiment, agriculture…) pour atteindre ses objectifs de réduction d’émissions de CO2. Cet exercice inédit qui fixe par exemple année après année le nombre de rénovations énergétiques d’habitations à effectuer, ou la montée en charge à atteindre pour le parc de véhicules électriques, a d’ailleurs été largement salué, car il concrétise un exercice jusque-là très théorique pour les acteurs. »

En fonction des résultats des mesures, le gouvernement peut créer plus de contraintes – voire créer des entraves ou surtaxes à la vente de biens.

Ainsi, le gouvernement fera pression sur une plus grande part du marché des logements, en vue des objectifs de dépenses.

Les directives en matière d’écologie demandent certes des déficits du gouvernement. Elles mènent aussi à plus de coûts pour les particuliers, et une perte de biens sur le marché.

 

Vous pouvez me suivre gratuitement pour mes analyses sur la Bourse et l’économie. Cliquez ici.

Les couperets de la loi anti « passoires thermiques » 

Le décret sur la fin des locations des passoires thermiques vient d’être publié et précise certaines modalités d’application – ou de non-application – de la loi. Tous les propriétaires bailleurs de logements mal notés sur le plan énergétique l’attendaient.

Rappel de la saison 1 : promulgation de la loi n° 2021-1104 du 22 août 2021 portant lutte contre le dérèglement climatique et renforcement de la résilience face à ses effets.

Les mesures consistent à interdire à la location les logements considérés insuffisamment isolés, et donc trop soumis aux déperditions d’énergie, soit les classes F et G du diagnostic de performance énergétique.

Comme le dit son intitulé, cette loi énonce l’existence d’un « dérèglement climatique » et assume qu’isoler un logement permet de le rendre « résilient ». Ce mot, qui désigne en physique des matériaux ayant la capacité de résistance aux chocs, s’emploie désormais à tout propos. Le dérèglement climatique est donc assimilé à un choc (thermique ?), et un logement situé à Dunkerque ou à Marseille nécessiterait les mêmes normes d’isolation thermique.

C’est une loi mal ficelée, dans l’air du temps, conçue pour plaire aux écologistes au détriment de propriétaires qu’elle contraint à réaliser des travaux avec de l’argent qu’ils n’ont pas, travaux qui ne seront jamais rentabilisés. Quand la loi est mal fichue, sa mise en pratique est ardue, d’où probablement le long délai de parution du décret.

 

Les dates sont bien arrêtées

Le décret précise que le couperet tombera le 1er janvier 2025 pour les logements classés G, et au 1er janvier 2028 pour ceux classés G.

Les propriétaires bailleurs ont donc un peu plus d’un an pour organiser de lourds travaux. Sachant par exemple que le délai de réalisation de fenêtres est actuellement de six mois.

Si un logement est en dessous de la norme, le locataire peut saisir la justice pour que le bailleur le mette en conformité. Le juge, transformé en expert immobilier, décidera alors de la nature des travaux et de leurs délais. En attendant, le loyer peut être minoré ou suspendu. À noter : la loi ne prévoit pas d’obligation de relogement du locataire durant les travaux (au Cerfaland, cette idée aurait pu effleurer le législateur toujours si généreux avec l’argent des autres).

 

Le cas épineux des copropriétaires

Dans beaucoup de cas, les propriétaires d’un logement situé dans une copropriété ne pourront pas atteindre le niveau exigé par la loi, et encore moins dans les délais impartis.

En effet, le bilan prend en compte l’isolation générale de l’immeuble et, lorsque c’est le cas, le type de chauffage collectif. Or, les toitures, les combles et greniers, les caves, certaines parties des plafonds et planchers, les murs extérieurs, les chaudières sont des parties communes. Et les propriétaires occupants ne tombent pas sous le coup de la loi. Ils ne sont donc pas grisés à l’idée d’entreprendre des travaux collectifs dont le coût (répétons-le au risque de radoter) ne sera pas nécessairement amorti par les économies de charges réalisées.

Mais ce n’est pas parce que vous savez que le niveau requis ne sera pas atteint que vous êtes dispensé d’initier vos travaux privatifs d’amélioration (changement de fenêtres, isolation par l’intérieur, etc.). Dans ce cas, après confirmation d’un DPE toujours défavorable, il vous faudra en plus produire les pièces justifiant que vos efforts de persuasion pour aboutir à la réalisation de travaux relevant des parties communes ou d’équipements communs n’ont pas abouti.

 

Choc climatique sur le patrimoine architectural

Le décret prévoit aussi le cas des bâtiments classés, des travaux qui fragiliseraient les structures, ou qui nécessiteraient des autorisations d’urbanisme, ou des permis de construire de la part de différentes autorités administratives qui les bloqueraient.

Soit, résumé en bon langage juridico-technocratique moderne écrit par la plume alerte du législateur :

« Les travaux nécessaires, entraînant des modifications de l’état des parties extérieures, y compris du second œuvre, ou de l’état des éléments d’architecture et de décoration de la construction, ont fait l’objet, pour ce motif, d’un refus d’autorisation par l’autorité administrative compétente sur le fondement des dispositions législatives et réglementaires du livre VI du Code du patrimoine, du titre IV du livre III du Code de l’environnement ou du livre Ier du Code de l’urbanisme. »

Alors dans ce cas, après avoir produit les dizaines de Cerfas et centaines de pièces nécessaires :

« Le juge peut, notamment, surseoir à statuer dans l’attente de l’intervention de la décision de l’autorité administrative compétente pour autoriser la réalisation de ces travaux. »

Bref, vous l’aurez déjà compris, cette loi va contribuer à engorger les tribunaux et nourrir de nombreux experts.

Au 1er janvier 2022, selon les données de l’Observatoire national de la rénovation énergétique, il y aurait 1,6 million de passoires thermiques dans le parc locatif privé, soit 20 %. Donc 20 % du parc locatif est à terme condamné.

Si votre logement est situé dans le grand Paris, et vacant pendant les Jeux Olympiques, vous pourrez à ce moment-là, tirer une dernière cartouche en le louant à prix d’or en meublé de courte durée. Pour le moment, la loi ignore les locations meublées type Airbnb.

 

Ce qui commence à se voir : choc social en vue

Plus sérieusement, les conséquences directes sont pour le moment :

  • Un afflux d’offres de vente de logements classés F et G (+8 % selon MeilleursAgents et SeLoger) alors que les acheteurs se raréfient en raison des hausses de taux
  • Une tension sur le marché locatif dès cette rentrée, abondamment relayée par les médias
  • Sur les réseaux sociaux, des crispations de plus en plus visibles entre la jeune génération active et les retraités. La première doit faire face à l’envolée des prix de l’immobilier, la hausse des taux, l’inflation et un salaire net qui s’essouffle, puisque la retraite par répartition les condamne à payer les pensions de la génération précédente. Et la population des retraités compte de nombreux propriétaires immobiliers.

 

Dans sa passoire thermique, face à sa cheminée illuminée du premier feu de l’automne, le philosophe reliera Frédéric Bastiat :

« Dans la sphère économique, un acte, une habitude, une institution, une loi n’engendrent pas seulement un effet, mais une série d’effets. De ces effets, le premier seul est immédiat ; il se manifeste simultanément avec sa cause, on le voit. Les autres ne se déroulent que successivement, on ne les voit pas ; heureux si on les prévoit. »

L’effet social est désastreux : cette loi ne fait qu’accélérer la crise immobilière et augmenter les crispations intergénérations.

Quant à l’effet sur le climat, je suis prête à parier qu’il sera nul.

Le consumérisme est-il réellement une pathologie libérale ?

Ce matin, comme chaque jour, j’ai pris le train pour aller travailler. En marchant jusqu’à la gare, j’ai pu voir un graffiti sur un mur : « Travaille, emprunte, consomme, crève », était-il écrit.

Un tag anodin, d’autant que je ne saurais dire depuis combien de temps il était sur ce mur. Loin de toutes les questions de respect du droit de propriété d’autrui, la première réflexion qui m’est venue portait sur l’incroyable contrainte que l’auteur a voulu révéler quant au système capitaliste. « Consomme ».

Ce mot me hantait. Le libéral que je suis ne comprenait pas comment autant de violence pouvait surgir d’une idée qui, pour moi, était synonyme de liberté et de respect de la nature humaine. Loin de m’en laver les mains comme j’aurais pu le faire en évoquant un jeune adolescent déphasé, j’ai cherché comment le capitalisme a pu faire naître un tel contresens.

Toute la journée, j’ai repensé à mes cours d’économie, mes recherches personnelles, mes lectures de philosophie, mes cours de droit… « Consomme ». Ce mot était devenu mon fil d’Ariane. La société de consommation est un ordre social défini par les antilibéraux, et notamment le postmoderne Jean Baudrillard dans son ouvrage éponyme de 19701. Cette société serait fondée sur la stimulation permanente et abondante de l’acte d’achat de biens inutiles et éphémères.

Elle a pourtant émergé de concert avec l’application des politiques keynésiennes des Trente Glorieuses, comme l’État-providence et les politiques de relance.

Loin d’être le fruit du capitalisme libéral fustigé par la démagogie de l’extrême gauche, la société de consommation est en effet le produit naturel du keynésianisme.

 

Une société aux antipodes des idéaux libéraux

Lorsque vous nommez le capitalisme à un quidam interpellé dans la rue, il y a de fortes chances qu’il vous parle de la World Company, cette société parodique de l’émission Les Guignols de l’Info supposée représenter la globalisation. Très peu vous parleront d’un système économique fondé sur la propriété privée des moyens de production.

Ajoutez le terme « libéral » à celui de « capitalisme », et vous observerez les gens se raidir.

Les plus engagés feront rapidement le lien entre des notions très diverses telles que l’obsolescence programmée, et bien sûr la société de consommation, pour ne pas dire le consumérisme de masse. Pourtant, ses caractères convergent davantage vers le capitalisme de connivence que vers une société capitaliste pure.

Reprenons la définition du libéralisme économique du Larousse :

« Doctrine économique qui privilégie l’individu et sa liberté ainsi que le libre jeu des actions individuelles conduisant à l’intérêt général ».

Si nous sommes d’accord pour contester l’idée que le libéralisme est une doctrine, il comporte plusieurs caractères. Parmi eux, citons rapidement l’État de droit, ou Rule of Law, que Friedrich Hayek estime comme préalable à tout système capitaliste, et le droit de propriété considéré par Milton Friedman comme la base même de ce système.

Mais deux autres caractères présentent un intérêt certain pour notre démonstration : à savoir la liberté contractuelle et la liberté des prix. Cette dernière liberté, condition essentielle pour le Français Jacques Rueff, sert à la fois à la coordination et à l’information des acteurs du marché.

Le théoricien principal de la société de consommation, le postmoderne Jean Baudrillard, lui, donne pour principale caractéristique une incitation à consommer des biens moins chers et plus accessibles. L’idée même d’incitation est déjà contraire à l’idée de capitalisme libéral.

En effet, l’idée même de liberté contractuelle, intrinsèque au libéralisme, nie purement et simplement toute idée d’inciter à consommer. Les individus peuvent contracter ou ne pas contracter selon leurs intérêts et avec les modalités qu’ils définissent.

De même, la liberté des prix est totalement contraire à l’idée de coûts plus bas permettant de rendre les biens plus accessibles. Le mécanisme des prix ne dépend pas d’une volonté de faire consommer, mais des intérêts propres à chaque acteur.

Si la société de consommation devait être rapprochée d’un modèle capitaliste, il faut nous tourner vers le capitalisme de connivence.

Souvent confondu à dessein avec le capitalisme libéral, le capitalisme de connivence est un système économique fondé sur la collusion entre l’État et le patronat. Il se manifeste par des privilèges, du soutien mutuel entre les grandes entreprises et les hommes politiques, aboutissant à la loi du plus fort et à la corruption.

Jean Baudrillard, toujours dans son ouvrage de 1970, écrit que dans la société de consommation, l’État est en soutien de l’activité économique, et procède à des politiques de redistribution, afin de permettre à chacun d’avoir les moyens d’acheter des produits.

Ainsi, toute incitation à la consommation à grande échelle ne peut être que le fait d’une politique étatique ou d’un travail de longue haleine mené par un consortium de grandes entreprises avec le concours de la puissance publique.

L’idée reine est ici de déboucher sur de la croissance. Si cette dernière constitue la justification de beaucoup de libéraux quant à leurs convictions, la croissance n’est pas en elle-même l’objectif des libéraux. En témoigne la décroissance assumée par les survivalistes animés par les théories libertariennes.

On l’aura compris : le principal acteur de la société de consommation est l’État. En cela, il n’est pas étonnant de voir que la société de consommation a émergé de concert avec les politiques keynésiennes. Ces dernières ont enfanté le consumérisme que les antilibéraux fustigent tant.

 

Un produit du keynésianisme

Le problème intrinsèque de tout système économique fondé sur l’État repose dans l’autophagie. Celle-ci entraîne, à long terme, l’effondrement pur et simple du système économique.

De la même manière, la société de consommation a pour autre caractéristique un goût prononcé pour le matérialisme. L’occasion de remarquer que la société fonctionnant comme un individu, la propension à acheter abondamment est souvent signe de dépression.

Pourtant, certains confondent régulièrement libéralisme et matérialisme.

Avec l’idée de capitalisme de connivence, le concept de matérialisme est l’un des autres contresens qui a la vie dure. Rappelons, sans entrer dans des détails, que Ludwig Von Mises était très critique envers le matérialisme du fait du relativisme qui en découle2.

La société de consommation épouse totalement les théories keynésiennes, et ce sur deux points : la consommation y est vue comme une fin, et l’État y joue un rôle primordial.

De quoi la rapprocher des théories keynésiennes.

En effet, Jean Baudrillard estime que la société de consommation consiste en une profusion de biens. Cette abondance crée une dépendance matérielle vue comme la fin de toute activité économique. Cette divinisation des éléments matériels aboutit à légitimer la hiérarchie sociale.

Une incitation à la consommation qui n’est pas sans rappeler la dialectique marxiste qui dispose que ce sont les conditions matérielles d’existence des hommes qui déterminent leur conscience. L’homme est, ici, la somme de son patrimoine, et non sa valeur intrinsèque en tant qu’humain.

Dans la logique keynésienne des politiques de relance, le principal ennemi est l’épargne. Cet ennemi est ici combattu par des liquidités à faible taux. Cela dans l’espoir de déboucher sur un effet multiplicateur, avec toutes les conséquences néfastes que nous connaissons et qu’il serait inutile ici de décrire en détails, notamment s’agissant de l’inflation.

La logique des politiques de relance se rapproche donc fortement des politiques d’incitation à la consommation, par un État et des banques centrales arrosant régulièrement le marché de liquidités à bas coût.

De la même manière, comme nous l’avons vu plus tôt, la société de consommation suppose nécessairement un soutien de l’État à l’activité économique. Cela se fait par des mécanismes de redistribution. De quoi nous rappeler les caractères fondamentaux de l’État-providence.

L’État-providence, à distinguer de l’État régalien – appelé péjorativement État gendarme, et ce y compris dans l’enseignement supérieur, axant par là la dimension prétendument sécuritaire – désigne l’intervention de l’État dans le domaine social et, parfois, économique.

Les exemples les plus parlants sont ici les mécanismes de régulation et de redistribution. Souvenons-nous du plan Marshall ou du rapport Beveridge. Toute la logique d’économie planifiée et de contrôle des prix s’est alors trouvée bien plus légitimée qu’avant la guerre.

Jean Baudrillard ne dit pas autre chose lorsqu’il évoque une hausse du pouvoir d’achat et le soutien à l’activité économique par les politiques publiques.

Dernier point : Jean Baudrillard évoque le problème de l’uniformisation de la culture induite par la société de consommation. L’information doit servir la consommation. De cette façon, la publicité est primordiale. L’apparence devient la norme sociale. L’apparence doit guider le réel. La logique est donc profondément constructiviste.

 

Une imposture constructiviste

Keynes écrivait :

« L’amour de l’argent comme objet de possession […] sera reconnu pour ce qu’il est : un état morbide plutôt répugnant, l’une de ces inclinations à demi criminelles et à demi pathologiques dont on confie le soin en frissonnant aux spécialistes des maladies mentales »3.

Pourtant, sur le long terme, ses théories ont engendré l’inverse.

La consommation est devenue, ici, une fin, au mépris de toute nature humaine. Celle-ci ne saurait être garantie que par l’application de principes de liberté.

Produit de l’État-providence, la société de consommation, comme système fondé sur l’abondance et l’incitation à l’achat de biens toujours plus inutiles et de moins bonne qualité, suit toute la logique d’intervention de l’État dans l’économie, à savoir un échec inévitable sur le long terme.

Cet échec est d’autant plus patent dans un pays malthusien comme la France.

La société de consommation, comme l’idéologie fasciste, fait donc partie de ces grandes impostures du XXe siècle inventées par la gauche constructiviste pour masquer sa véritable responsabilité dans leur création.

 

Article paru initialement en janvier 2017.

  1. La société de consommation, 1970.
  2.  The Ultimate Foundation of Economic Science: An Essay on Method, 1.8, The Absurdity of Any Materialistic Philosophy, 1962.
  3. Essais sur la monnaie et l’économie : les cris de Cassandre, 1931.

« La vérité a une telle puissance qu’elle ne peut être anéantie » d’Olivier de Kersauson

Olivier de Kersauson est connu pour son franc-parler et sa liberté de parole, et aussi son côté pince-sans-rire. Pour autant, si cette personnalité m’intéresse, j’ai très peu vu l’homme dans les médias, malgré les fréquentes apparitions qu’il a dû y faire, même si cela m’aurait intéressé.

Le lire est ainsi une excellente occasion de le découvrir et d’apprécier l’esprit qui guide une personnalité libre et authentique.

 

Le rejet de la superficialité et de la pensée molle

Fidèle à sa liberté de parole et à son sens de l’ironie (du peu que je le connaisse), Olivier de Kersauson se pose ici en observateur de la société.

Un observateur qui dispose de tout le recul et l’indépendance de parole de celui qui a la chance de pouvoir se mettre régulièrement en retrait, et de prendre ses distances avec l’agitation humaine quotidienne, mais aussi avec le grand cirque médiatique. Et c’est ce recul qui, justement, est intéressant, nous permettant de nous enrichir de la vision d’un être indépendant, qui observe notre société de loin, tout en ne s’en excluant nullement, et en conservant le caractère humble qui le définit (ce qui est une qualité hélas pas toujours la plus partagée) et ne le range aucunement parmi les donneurs de leçons.

Ce qu’il exècre – tout en faisant preuve d’une certaine indulgence envers la faiblesse humaine – est la superficialité, les apparences, l’agitation permanente pour faire parler de soi (le buzz), la flagornerie, la pensée molle (qui passe souvent par le langage convenu), et les impostures de toutes sortes.

Aussi se livre-t-il ici à un certain nombre de confidences sur sa manière de voir le monde, son évolution, ses failles, ses vertus dévoyées, et les illusions qui trop souvent nous entretiennent.

 

Où est passé le bon sens ?

Car, comme il le constate, c’est trop souvent le nivellement par le bas et le manque de réflexion qui caractérisent notre époque.

Les bons sentiments prédominent au mépris du bon sens. Comme en matière d’écologie, apparentée par certains à « une nouvelle religion d’où sortent des messies qui font dans l’incantatoire et se posent en modèles de vertu, alors qu’en réalité ils uniformisent la pensée ».

À cette aune, les médias ne sont pas en reste, puisque :

 

Les médias sont devenus comme le monde qui nous entoure. Jadis, dans les journaux, il y avait les signatures de ceux qui avaient réfléchi, s’étaient cultivés. Aujourd’hui, la plupart des journalistes font au plus court, ils n’ont plus le temps de la réflexion, ils sont des arbitres, ils nous affirment ce qui est de bon ton ou ne l’est pas. Le camp du bien et celui du mal. Chacun vend une manière de penser. Et je n’accorde pas obligatoirement aux stars du petit écran une qualité. Leurs jugements m’intéressent assez peu. Car, bien souvent, ils sont assez peu intéressants. Le bavardage a pris le pas sur tout. Un événement ? Vingt-cinq experts décryptent. C’est miraculeux. Au vrai, ils expliquent à tout le monde ce qu’ils n’ont compris qu’en partie.

 

La bêtise humaine le dispute avec le règne de la victimisation, qui lui inspire cette formule : « Malheur à ceux qui n’en ont pas ». Celle-ci n’étant que l’un des symptômes classiques de notre époque, qui se caractérise aussi par des tendances dangereuses et opposées à ce que nous connaissions auparavant, à l’image de ce phénomène très contemporain qu’il résume ainsi : « Le communautarisme, quel qu’il soit, c’est le rejet de l’autre ».

Comment, alors que nous avons accès à de nombreuses connaissances, pouvons-nous sombrer le plus souvent dans l’irrationnel, les croyances, les artifices du langage et le manque de profondeur ? Au lieu de nous fonder sur nos peurs, interroge Olivier de Kersauson, ne devrions-nous pas réapprendre à réfléchir par nous-mêmes, et moins nous fier au règne des réseaux sociaux, et ce qu’ils véhiculent comme vacuité, qui confine trop souvent à la tyrannie du divertissement ?

C’est d’une vraie crise de l’éducation et de la transmission que, de fait, nous souffrons. Une éducation qui était basée sur le bon sens, la réflexion, une transmission de valeurs fondée sur le respect, le rapport au temps, et non fleurtant avec le culte de l’immédiat et le règne de l’ignorance.

 

Superficialité vs capacité à s’enchanter

En voyageur aguerri, Olivier de Kersauson observe avec regret le changement d’état d’esprit qui caractérise notre époque.

Là où le voyage appelait le rêve, la curiosité, la découverte, l’imprévu et le voyage intérieur, il constate que la plupart des gens ne font en réalité que « se déplacer », sans chercher à comprendre où ils vont, ne faisant que parcourir sans sensibilité particulière, cherchant essentiellement à se distraire en se mouvant dans l’univers de la norme et du surfait, loin des particularismes, au contraire de ce que l’on connaît, qui rassure, qui colle à ses habitudes. Dans un monde mû par la vitesse.

La religion, le temps, la vie, la souffrance, la mort, le sens du dérisoire, les bonheurs simples, la bonne humeur, la capacité à s’enchanter, mais aussi à s’adapter, Olivier de Kersauson nous expose sa vision de l’existence, que je qualifierais d’assez stoïcienne, caractérisée par le refus de sombrer dans le pessimisme et la lamentation, mais plutôt de profiter de chaque instant, de voir ce qu’il y a de beau en lui, de savoir se contenter de ce que l’on a, de considérer la vie comme un privilège. Sans pour autant, naturellement, faire preuve de naïveté.

 

Olivier de Kersauson, Veritas tantam potentiam habet ut non subverti possit, Le cherche midi, novembre 2022, 208 pages.

Les 3 moteurs du capitalisme, les 3 principes de la liberté

Par Thierry Godefridi.

Corentin de Salle est probablement le principal expert contemporain ès libéralisme et capitalisme de langue française.

Auteur d’un compendium en trois tomes de 500 pages chacun sur la Tradition de la liberté des origines de la pensée libérale à nos jours, il avait été invité à s’exprimer sur l’émergence du capitalisme en Europe dans le cadre des séminaires que le Centre Jean Gol consacre à Bruxelles aux fondements de la société européenne, et dont la trame s’inspire du remarquable livre de Philippe Nemo Qu’est-ce que l’Occident

Docteur en philosophie et juriste, Corentin de Salle démontre une connaissance encyclopédique des idées et, au contraire de nombre d’autres philosophes, il ne s’embarrasse pas de fioritures de langage ou d’expression. Il affiche une clarté d’esprit et de parole qui rend son propos compréhensible aux moins avertis (si ce n’est quand il lit de longs extraits de l’œuvre de Karl Marx, fussent ceux dans lesquels ce dernier encense la bourgeoisie).

De Salle énuméra, comme facteurs de l’avènement du capitalisme, trois moteurs (l’accumulation, le progrès et la nécessité), trois principes (la liberté, la propriété et l’isonomie – l’égalité en droit) et un ordre spontané en guise de superstructure.

Pas de liberté sans prospérité

Quel est le rapport entre le capitalisme et le libéralisme ?

Le libéralisme vise à consacrer et à accroître la liberté. Le capitalisme vise à créer et à développer la prospérité. Ce dernier a réussi à faire en sorte que la prospérité soit la règle, et non plus l’exception, alors que c’était la pauvreté qui était la règle par le passé (de 1820 à nos jours, le seuil de pauvreté est tombé de 85 % de la population mondiale à 20 %, et l’espérance de vie a plus que doublé). Le libéralisme ne se conçoit pas sans le capitalisme. Ventre affamé n’a point de liberté.

Bien qu’il ne s’agisse pas de sous-estimer le rôle du progrès et sa mobilisation de l’intelligence, ni le défi de la nécessité et, pour le relever, l’inventivité qui explique l’opulence relative de pays tels que la Suisse, les Pays-Bas et Hong Kong par rapport à des pays bien mieux pourvus au départ en richesses naturelles (Afrique ou Amérique latine), Corentin de Salle s’attarda à cette notion bien dans l’air du temps – « des riches de plus en plus riches » – et propre à l’activité capitalistique qu’est l’accumulation.

Si l’accumulation relève, certes, du désir humain de s’enrichir, elle correspond aussi, selon de Salle qui se réfère aux paraboles des talents, du jeune homme riche et des ouvriers de la onzième heure (Évangile selon Matthieu), à une exigence de responsabilité qui remonte à la Bible d’engendrer des richesses, et de se prémunir contre les années de vaches maigres en s’abstenant de consommer tout le produit des années de vaches grasses.

Si le pape actuel se fait la caisse de résonance des idées partageuses et rétrogrades de la gauche (des inégalités à la décroissance), les enseignements de Jésus en faisaient un précurseur de la théorie économique de l’école autrichienne.

Pas de prospérité sans liberté

Cela peut paraître l’évidence mais, en cette période de mesures liberticides à tout-va sous tous les prétextes même les plus abscons, sans doute est-il utile de le rappeler : quelle qu’en soit la forme, du serf à l’assujetti, l’esclavagisme constitue le système économique le moins efficace, le seul souci de l’esclave étant de manger le plus possible, et d’en faire le moins possible. De ce point de vue, le capitalisme d’État est un oxymore, car le capitalisme ne peut être sans liberté individuelle, liberté d’entreprendre, et liberté d’échanger.

Se référant aux travaux de l’économiste péruvien Hernando de Soto portant sur le rôle de l’accès à la propriété privée dans l’émancipation et l’enrichissement des populations, de Salle insista dans son exposé sur le principe de propriété comme facteur indispensable de réussite capitaliste : faute d’être proprement cadastré, le capital du tiers monde est du capital mort, limitant l’individu dans sa liberté d’être, d’entreprendre et d’échanger.

Un ordre spontané

C’est le propre du capitalisme d’avoir synthétisé des éléments empruntés à des traditions et activités humaines très diverses et, notamment, le droit romain (contrats, obligations, responsabilité civile, etc.), la monnaie, la banque, l’épargne et le prêt à intérêt, la bourse, l’éthique du travail, la propriété, l’organisation de la production, la spécialisation des tâches, une vision prométhéenne de l’humanité, la rule of law, la comptabilité en partie double, le marketing, etc. sous la forme d’un ordre spontané de type « bottom up », et évolutionniste comme le sont le langage ou le droit, à l’opposé d’une structure de commandement de type « top down » comme l’est, par exemple, un gouvernement.

Et, c’est précisément dans cette absence de dessein délibéré que réside la fragilité de ce système produit par l’action diffuse des hommes.

En entraver la liberté de disposer d’eux-mêmes comme ils l’entendent – par l’intervention et la coercition de l’État – suffirait à condamner le système, fût-il, pour paraphraser Churchill au sujet de la démocratie, « le pire des systèmes à l’exclusion de tous les autres ».

Publié initialement le 10 juin 2016.

Sur le web

Le PIB fournit une lecture erronée de l’état de l’économie

Par Frank Shostak.

La statistique du PIB reflète l’idée que le facteur clé de la croissance économique n’est pas la production de richesses mais plutôt leur consommation. Il s’agit plutôt d’un calcul de la valeur des biens et services finaux produits pendant un intervalle de temps donné, généralement un trimestre ou une année. Comme les dépenses de consommation représentent la plus grande partie de la demande globale, de nombreux commentateurs estiment que les dépenses de consommation sont le principal moteur de la croissance économique.

Tout ce qui compte dans cette optique, c’est la demande de biens et de services qui, à son tour, donnera lieu presque immédiatement à leur offre. Comme l’offre de biens est considérée comme acquise, ce cadre ignore les différentes étapes de la production qui précèdent l’émergence du bien final.

Dans le cadre du PIB, les biens apparaissent en raison du désir des gens d’en acquérir.

Cependant, il ne suffit pas d’avoir une demande de biens, il faut aussi avoir les moyens de les acheter. Les moyens sont divers biens de consommation finaux nécessaires pour soutenir les individus dans les différentes étapes de la production.

La source principale des moyens de subsistance est l’épargne des individus.

Par exemple, Jean le boulanger produit dix pains et en consomme deux. Les huit miches de pain non consommées constituent une épargne. Jean le boulanger pourrait échanger les huit pains économisés contre les services d’un technicien afin d’améliorer son four, c’est-à-dire l’amélioration de son infrastructure. Avec l’aide d’une infrastructure améliorée, Jean pourrait augmenter la production de pain, augmentant ainsi la croissance économique. Notez que les huit pains économisés assurent la vie et le bien-être du technicien pendant qu’il améliore le four.

L’épargne détermine la croissance future.

Si un renforcement de la croissance économique nécessite une infrastructure particulière alors qu’il n’y a pas assez d’épargne pour réaliser une telle infrastructure, alors la croissance économique n’émergera pas. Le cadre du PIB ne peut pas nous dire si les biens et services finaux qui ont été produits au cours d’une période donnée sont le reflet de l’expansion de la richesse ou le résultat de la consommation de capital.

 

Le PIB et l’économie réelle : quelle relation ?

Il est difficile de calculer le PIB réel.

Pour calculer un total, il faut additionner plusieurs choses qui doivent avoir une unité en commun. Or, il n’est pas possible d’ajouter les réfrigérateurs aux voitures et aux chemises pour obtenir le total des biens finaux. Pour surmonter cette difficulté, les économistes utilisent la dépense monétaire totale en biens, qu’ils divisent par un prix moyen de ces biens. Il n’est cependant pas possible de calculer le prix moyen.

Supposons que deux transactions aient été effectuées. Dans la première transaction, un téléviseur est échangé contre 1000 dollars. Dans la deuxième transaction, une chemise est échangée contre 40 dollars. Le prix ou le taux d’échange de la première transaction est de 1000 dollars/TV. Le prix de la deuxième transaction est de 40 dollars/chemise. Pour calculer le prix moyen, il faut additionner ces deux rapports et les diviser par deux. Cependant, on ne peut pas additionner 1000 dollars/TV et 40 dollars/chemise, ce qui implique qu’il n’est pas possible d’établir un prix moyen.

L’emploi de diverses méthodes sophistiquées pour calculer le niveau moyen des prix ne peut contourner le problème essentiel qu’il n’est pas possible d’établir un prix moyen de divers biens et services. Par conséquent, les divers indices de prix que les statisticiens gouvernementaux calculent ne sont que des chiffres arbitraires. Si les déflateurs de prix n’ont aucun sens, il en va de même pour la statistique du PIB réel.

Puisqu’il n’est pas possible d’établir quantitativement l’état du total des biens et services réels, on ne peut pas prendre au sérieux les diverses données comme le PIB réel que les statisticiens de l’État produisent. Le concept de PIB donne l’impression qu’il existe une chose appelée production nationale. Or, dans une économie de marché, la richesse est produite par les individus et leur appartient indépendamment.

Selon Ludwig von Mises, l’idée que l’on puisse établir la valeur de la production nationale ou de ce que l’on appelle le PIB est farfelue :

Si un calcul commercial évalue une réserve de pommes de terre à 100 dollars, l’idée est qu’il sera possible de la vendre ou de la remplacer contre cette somme. Si une unité entrepreneuriale entière est estimée à 1 000 000 dollars, cela signifie que l’on s’attend à la vendre pour cette somme. L’homme d’affaires peut convertir son bien en argent, mais pas une nation.

Que devons-nous donc penser des déclarations périodiques selon lesquelles l’économie, telle qu’elle est représentée par le PIB réel, a augmenté d’un certain pourcentage ?

Tout ce que nous pouvons dire, c’est que ce pourcentage n’a rien à voir avec la croissance économique réelle et qu’il reflète très probablement le rythme du pompage monétaire. Le PIB étant exprimé en dollars, il est évident que ses fluctuations seront déterminées par les fluctuations de la quantité de dollars injectés dans l’économie. Nous pouvons également en déduire qu’un taux de croissance élevé du PIB réel est susceptible de refléter un affaiblissement du processus de formation de la richesse.

Lorsque l’on se rend compte que la croissance économique dite réelle, telle que représentée par le PIB réel, reflète les fluctuations du taux de croissance de la masse monétaire, il devient clair qu’un boom économique n’a rien à voir avec une véritable expansion économique. Au contraire, un boom conduit à une contraction économique réelle, puisqu’il sape la réserve de richesse, qui est au cœur de la croissance économique réelle.

Comme le cadre du PIB suppose que la banque centrale peut provoquer une croissance économique réelle, la plupart des commentateurs suivent servilement ce récit. Une grande partie de la soi-disant recherche économique apporte un soutien scientifique au point de vue selon lequel le pompage monétaire peut permettre à l’économie de croître. Ce que ces études négligent, c’est qu’aucune autre conclusion ne peut être tirée une fois que l’on a réalisé que le PIB est un proche parent de la masse monétaire.

 

Pourquoi avons-nous besoin d’informations sur la croissance économique ?

On est tenté de se demander pourquoi il est nécessaire de connaître la croissance de ce que l’on appelle l’économie.

À quoi peut servir ce type d’information ? Dans une économie libre, ce type d’information serait peu utile aux entrepreneurs. Le seul indicateur auquel tout entrepreneur se fierait serait celui des pertes et profits. Comment l’information selon laquelle l’économie a augmenté de 4 % au cours d’une période donnée peut-elle aider un entrepreneur à générer des bénéfices ?

Ce dont un entrepreneur a besoin, ce n’est pas d’informations générales, mais plutôt d’informations spécifiques concernant la demande d’un ou de plusieurs produits spécifiques. L’entrepreneur doit lui-même établir son propre réseau d’informations concernant une entreprise particulière.

Les choses sont différentes, cependant, lorsque l’État et la banque centrale manipulent le cours des affaires. Dans ces conditions, aucun homme d’affaires ne peut ignorer la statistique du PIB puisque l’État et la banque centrale réagissent à cette statistique par le biais de politiques fiscales et monétaires.

Grâce au cadre du PIB, les responsables des États et des banques centrales donnent l’impression qu’ils peuvent piloter l’économie.

Selon ce mythe, l’économie est censée suivre une trajectoire de croissance définie par des fonctionnaires omniscients. Ainsi, chaque fois que le taux de croissance tombe en dessous du sentier de croissance défini, les fonctionnaires sont censés donner à l’économie une impulsion appropriée. Inversement, lorsque l’économie croît trop rapidement, les fonctionnaires sont censés intervenir pour ralentir le taux de croissance de l’économie.

Si l’effet de ces politiques se limitait uniquement à la statistique du PIB, l’ensemble de l’exercice serait inoffensif. Cependant, ces politiques altèrent les activités des producteurs de richesse et nuisent ainsi au bien-être des gens. De même, par le biais du pompage monétaire et de la manipulation des taux d’intérêt, la Réserve fédérale ne contribue pas à générer plus de prospérité, mais met plutôt en mouvement un « PIB plus fort » et la menace conséquente du cycle d’expansion et de contraction qui aboutit à l’appauvrissement économique.

 

Conclusion

La statistique du PIB fournit un cadre de référence illusoire pour évaluer les performances des responsables étatiques. Les mouvements du PIB ne peuvent toutefois pas nous fournir d’informations significatives sur ce qui se passe dans l’économie réelle.

En fait, elle peut même nous donner une fausse impression. Dans la plupart des cas, un fort taux de croissance du PIB est susceptible d’être associé à une dilapidation intensive de la masse des richesses. Ainsi, malgré de « bonnes données » sur le PIB, beaucoup plus d’individus peuvent avoir beaucoup plus de mal à joindre les deux bouts.

Traduction Contrepoints.

Article publié initialement le 24 juillet 2022.

Sur le web

Pourra-t-on un jour traiter des cancers avec des sous-produits de l’industrie textile ?

Par Cyrille Monnereau et Clément Cabanetos.

 

Les cancers sont la cause principale de mortalité précoce dans les pays développés, entraînant près de 1,5 million de décès annuels dans l’Union européenne. Ils constituent un enjeu de santé publique majeur. La diversité de leurs formes, localisations et expressions implique que les traitements mettent en œuvre une grande variété de modalités thérapeutiques complémentaires, des rayons X, chimiothérapie, chirurgie, immunothérapie entre autres.

Parmi l’arsenal des traitements développés pour cibler des cancers de types très différents, la photochimiothérapie (dite aussi photothérapie dynamique ou PDT en anglais) utilise l’interaction entre un colorant et une source lumineuse, qui génère des composés chimiques qui sont toxiques pour les cellules.

Ce protocole thérapeutique est utilisé depuis une quarantaine d’années, et de manière croissante depuis le début des années 2000, en milieu clinique principalement pour le traitement de cancers de la peau ou de l’épithélium, mais également dans le traitement de la dégénérescence maculaire liée à l’âge (une maladie caractérisée par le développement anarchique de vaisseaux sanguins au niveau du centre la rétine conduisant à une dégradation puis une perte progressive de la vue).

La photochimiothérapie présente des avantages en comparaison aux autres chimiothérapies, notamment parce qu’elle permet de cibler plus finement les cellules cancéreuses (par rapport aux cellules saines de l’organisme) par une irradiation lumineuse sélective.

Avec nos collaborateurs, nous avons récemment montré qu’une nouvelle molécule, dérivée d’un colorant abondamment utilisé dans l’industrie, présente des propriétés remarquables pour la photochimiothérapie. Nous espérons qu’elle pourrait être une perspective intéressante dans de futurs protocoles de traitement de cancers par cette méthode.

 

La lumière peut transmettre de l’énergie à son environnement

La lumière est porteuse d’énergie. Cette même énergie qui permet la photosynthèse et apporte à la terre les conditions climatiques propices au développement de la vie est absorbée par les molécules et matériaux qui constituent notre environnement, ce qui leur confère leur couleur. Certaines molécules, appelées « colorants » ou « pigments », présentent des teintes particulièrement vives et caractéristiques qui ont été mises à profit depuis l’aube de l’humanité pour la réalisation d’œuvres picturales ou la teinture de vêtements, comme pour le colorant utilisé comme base moléculaire dans notre étude, en particulier.

Suite à l’absorption d’un photon, chaque molécule de colorant atteint un état d’énergie élevé, dit « excité », qui est par nature instable : afin de retrouver sa stabilité, la molécule va chercher à se débarrasser de cet excès d’énergie. Généralement, elle vibre fortement et transmet cette chaleur à son environnement.

 

fiole de colorant photoluminescent

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Le composé de la nouvelle étude est dérivé d’un colorant industriel. À la lumière du jour, il est jaune, mais sous ultra-violets, il apparaît vert : c’est la photoluminescence.
Clément Cabanetos, Fourni par l’auteur

 

Elle peut aussi se désexciter en émettant un nouveau photon, d’énergie un peu plus basse que celui absorbé – et donc d’une couleur différente. Ce phénomène est appelé photoluminescence et explique par exemple la brillance des vêtements blancs sous l’éclairage ultra-violet des boîtes de nuit.

Lorsqu’aucun de ces deux mécanismes n’est possible, la molécule utilise son énergie excédentaire pour produire des transformations chimiques. C’est ce qu’on appelle la photochimie, dont les utilisations pratiques couvrent une très large gamme d’applications, allant du stockage de l’énergie à la production de médicaments ou de matériaux polymères.

 

Comment utiliser la lumière pour attaquer des cellules cancéreuses ?

Une application moins connue mettant en jeu ce processus est la photochimiothérapie. Le concept est relativement simple : une molécule, appelée photo-sensibilisateur, est appliquée localement sur la zone à traiter, ou injectée par voie intraveineuse. Elle s’accumule dans les cellules cancéreuses, idéalement avec une forte sélectivité (c’est-à-dire qu’elle ne s’accumule pas, idéalement, dans les cellules saines).

Puis, sous l’effet d’une irradiation lumineuse, dont la longueur d’onde peut s’étendre, suivant le type de tumeur à traiter et la profondeur ciblée, du proche UV au proche infrarouge la molécule excitée va transmettre l’énergie absorbée aux molécules voisines, en premier lieu de dioxygène.

Le dioxygène est en effet présent partout dans l’organisme car il est un carburant indispensable à la production d’énergie par la machinerie cellulaire. Mais sa forme excitée, dite « singulet », conduit à un emballement de sa réactivité chimique. Ainsi, produire cette forme excitée « singulet » à proximité de biomolécules aussi importantes que l’ADN ou l’ARN fait l’effet d’une bombe : des cascades de réaction oxydatives conduisent à la dégradation des séquences de bases nucléiques, qui codent l’information génétique. Ceci empêche la production de protéines, enzymes et autres biomolécules indispensables au bon fonctionnement de la cellule.

deux photos de microscopie
Des cellules cancéreuses avant et après traitement par une nouvelle molécule sensible à la lumière. Le colorant rouge est un indicateur indirect de la dégradation cellulaire. La barre d’échelle représente 20 micromètres.
Marco Deiana et Nasim Sabouri, Université de Umea, Suède, Fourni par l’auteur 

Devenue non viable, la cellule va rapidement déclencher une cascade de mécanismes qui conduit à sa mort par « apoptose » et à son élimination par le système immunitaire.

La photochimiothérapie présente de nombreux avantages, notamment par rapport aux autres chimiothérapies classiquement utilisées dans le traitement du cancer : bien que dans toute chimiothérapie, le traitement soit dès l’origine conçu pour s’accumuler préférentiellement dans les tissus cancéreux, une certaine proportion de la molécule va inévitablement s’accumuler dans des cellules saines, notamment si ces dernières ont des phases de multiplication rapide. C’est ainsi que la plupart de ces traitements s’accompagnent, parmi les effets secondaires les plus visibles, d’une perte des cheveux, et sont généralement mal tolérés par l’organisme.

Dans le cas de la photochimiothérapie, ces effets secondaires sont minimisés par le fait que l’activation du traitement nécessite, en plus de la molécule, un second levier : l’irradiation lumineuse du tissu à traiter.

En revanche, le traitement par photochimiothérapie est limité par la profondeur de pénétration de la lumière, ce qui restreint son utilisation aux cancers superficiels de la peau (carcinomes), ou accessibles par endoscopie (cancers de la vessie, de la prostate, de l’œsophage, des poumons…) ou encore en appui à une intervention chirurgicale d’exérèse (c’est-à-dire retrait) de la tumeur notamment par coelioscopie.

Dans ce cadre, les travaux pionniers d’une équipe française Inserm du CHU de Lille ont conduit au développement d’une approche novatrice alliant microchirurgie et photochimiothérapie pour le traitement du glioblastome, l’une des formes de tumeurs cérébrales les plus agressives.

 

Une nouvelle molécule prometteuse pour la photochimiothérapie

Ainsi, nous avons développé avec nos collègues du CNRS, de l’université d’Anjou, de l’ENS, de l’université de Yonsei en Corée du Sud et de l’université d’Umea en Suède une nouvelle molécule dont les premières études semblent indiquer une efficacité exceptionnelle en photochimiothérapie.

simulation moléculaire
Interaction du colorant (orange) avec des petits fragments d’ADN (bleu) – modélisation moléculaire.
Natacha Gillet, Fourni par l’auteur 

Cette molécule a été conçue selon le principe du surcyclage, c’est-à-dire la valorisation par modification chimique d’une molécule existante afin de lui apporter de nouvelles propriétés.

La molécule que nous avons utilisée est un colorant jaune utilisé à la tonne depuis les années 1970 comme colorant pour l’industrie textile et plastique. Nous avons fonctionnalisé ce colorant en lui ajoutant des groupements chimiques, ce qui la rend extrêmement photosensible et capable d’exciter la forme singulet du dioxygène.

Au contact des cellules cancéreuses (in vitro, sur cellules cancéreuses ou ex vivo sur des organoïdes tumoraux de pancréas de souris), le colorant s’accumule spécifiquement au sein des « exosomes ». Les exosomes sont des compartiments cellulaires surexprimés dans les cellules cancéreuses, qui sont impliqués dans la communication intercellulaire, et très probablement dans les processus de diffusion des cancers par métastase.

Nous avons identifié, à l’intérieur de ces exosomes, que la molécule de colorant modifié interagit avec des fragments spécifiques d’ADN. Sous irradiation par lumière bleue, ces fragments se dégradent fortement, ce qui conduit à une mort cellulaire. De façon cruciale, cette mort cellulaire est atteinte à des concentrations du colorant photosensibilisateur 10 à 100 fois inférieures aux composés utilisés cliniquement, généralement accumulés dans le noyau ou les mitochondries des cellules (des compartiments considérés comme les rouages essentiels de la machinerie cellulaire).

En revanche, en l’absence d’irradiation, aucune toxicité n’est observée même à des concentrations élevées de la molécule, ce qui laisse espérer des effets secondaires modérés en comparaison aux traitements PDT existants, par exemple la temoporfin. Bien que le chemin soit encore long avant une utilisation clinique, cette molécule et plus généralement le ciblage des exosomes pour la PDT apparaissent riches en promesses.

 

Cyrille Monnereau, Docteur en chimie et science des matériaux, professeur associé, ENS de Lyon et Clément Cabanetos, CNRS researcher, Centre national de la recherche scientifique (CNRS)

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

Comment la musique permet de lutter contre les effets de Parkinson

Par Loïc Damm, Benoît Bardy et Valérie Cochen de Cock.

 

Battements de notre cœur, flux d’air dans nos poumons, prosodie de notre voix ou mouvements de nos jambes… Notre corps est une mer de rythmes différents. Aucun des systèmes biologiques qui les génèrent n’est isolé : chacun interagit avec son environnement, constitué d’autres systèmes à l’intérieur ou à l’extérieur de notre corps qui ont leur propre rythmicité.

Le mouvement est un bel exemple d’interactions entre rythmes. Le simple fait de marcher, pas après pas, est en effet une construction complexe ! Que cette construction se grippe, et le mouvement en pâtit. D’où cette question : peut-on redonner du rythme à ceux qui le perde ? Oui, suggèrent certaines recherches. Petite explication, en partant des fondamentaux…

Si notre cerveau est à la manœuvre, tout un ensemble de structures nerveuses gouverne les cycles associés : des réseaux situés dans la moelle épinière insufflent les alternances d’activations musculaires nécessaires à sa genèse, mais ce sont les centres cérébraux supérieurs qui amènent la plasticité puisque c’est à leur niveau que se planifie l’initiation du mouvement ou la prise en compte des conditions de sa bonne exécution (évitement d’obstacles, etc.).

Le programme de base issu des réseaux de la moelle épinière est ainsi remodelé en fonction des exigences de l’environnement, retranscrites par nos sens… S’opère ce que les neuroscientifiques appellent le « couplage perception-action » : parce qu’il commande nos muscles et intègre les informations auditives ou visuelles, le système nerveux est capable de coupler nos sens à nos comportements.

C’est ce qui se passe lorsque nous jouons de la musique en groupe, où la coordination temporelle de nos gestes avec ceux de nos partenaires nous permet d’être à l’unisson. Cette synchronisation est possible par l’ajustement entre les rythmes auditifs/perçus et moteurs/exécutés. Cela signifie que les structures plutôt dédiées à la perception, et celles plutôt dédiées au mouvement, voient leurs liens se renforcer, formant un réseau fonctionnel dans le cerveau.

En d’autres termes, les structures cérébrales qui nous font bouger sont aussi celles qui nous font percevoir. Lors de l’écoute de morceaux de musique, qui combinent des séquences structurées de durées, de timbres et d’accents, la perception de la pulsation est l’événement psychologique qui revient le plus régulièrement.

 

Quand la maladie fait dérailler la machine

Des pathologies peuvent entraver la production de ces rythmes. C’est le cas de la maladie de Parkinson pour laquelle les difficultés à se déplacer sont le premier handicap rapporté.

Les patients sont sujets à un « gel de la marche », c’est-à-dire une difficulté dans son initiation et sa progression à l’approche d’un obstacle ou d’un virage. Ces deux séquences majeures du mouvement sont affectées par la perte progressive des neurones sécrétant de la « dopamine » – un neurotransmetteur, soit une molécule assurant la transmission de l’information entre les cellules nerveuses.

Une structure cérébrale dite profonde, car enfouie sous les hémisphères cérébraux, les ganglions de la base (ou noyaux gris centraux), est particulièrement touchée. Or, ils gèrent la transition d’une étape à l’autre d’un mouvement : l’altération de leur fonctionnement va donc affecter toute la production de mouvements rythmiques en perturbant les rythmes cérébraux nécessaires au déclenchement des sous-mouvements composant une action.

Une marche hachée est symptomatique de cette difficulté de passer d’un sous-mouvement à l’autre. Si un patient dont la marche est irrégulière peut continuer à pédaler de façon plus fluide, c’est parce que le pédalage est moins dépendant du traitement séquentiel des informations sensorielles.

Le cycle de marche exige en effet la prise en compte de nombreuses informations sensorielles (par le cortex prémoteur) qui rendent compte tant des contraintes de l’environnement que de la bonne exécution du mouvement en cours : ce processus porte le nom d’intégration. La bonne connexion entre cortex et ganglions de la base permet l’adaptation de la marche aux spécificités de l’environnement – virage à anticiper, escalier à négocier, rue à traverser…

La perte des neurones à dopamine inhérente à la maladie de Parkinson empêche l’établissement de ces connexions (on parle de circuitopathie). Un large spectre d’effets moteurs en est la manifestation, de la locomotion à l’élocution.

 

Les effets de la musique

Pourtant ce déficit peut être surmonté par une stratégie simple : en tirant simplement profit de l’appétence du cerveau pour des rythmes « pertinents », ceux avec lesquels nous pouvons synchroniser nos mouvements.

L’utilisation d’une horloge externe fournissant des repères réguliers, comme des stimulations auditives périodiques, permet de compenser les difficultés d’initiation et de maintien du mouvement en redonnant une structure temporelle aux actions. Cette stratégie est appelée « indiçage ».

Les patients bénéficient de cet indiçage qu’il soit visuel, tactile ou auditif – ce dernier permettant plus facilement de discriminer les rythmes envoyés. En témoigne une augmentation de la cadence et de la longueur des pas ainsi qu’une correction des asymétries de la démarche. Le patient marche plus vite et sa stabilité accrue réduit le risque de chute. Cette amélioration traduit le meilleur couplage entre flux auditif et appareil locomoteur au niveau du cerveau. Ces bénéfices se prolongent au-delà des séances de marche en musique.

Il y a deux explications possibles (qui ne sont pas exclusives) à ces améliorations :

  1. L’activation résiduelle des ganglions de la base
  2. La mise en place de mécanismes compensatoires qui reposeraient sur le cortex et le cervelet. L’hyperactivation du cervelet a d’ailleurs été rapportée chez des patients lors de tâches de coordination sensori-motrice.

 

Un élément majeur a été émis en évidence : la précision de la perception du rythme détermine la force du couplage entre la locomotion et la musique.

Des tests ont été développés pour évaluer nos capacités de perception d’une part, et nos capacités de synchronisation de nos mouvements avec la musique d’autre part. Par exemple remarquons-nous le décalage entre un métronome désynchronisé et les pulsations de la musique ? Sommes-nous capables de battre la mesure de morceaux à la rythmicité plus ou moins évidente ?

La précision de la perception du battement et de sa régularité est représentative des capacités de coordination, et peut être comparée à des normes établies. Ce qui permet d’en quantifier l’altération et peut parfois de servir d’aide au diagnostic.

 

Une rééducation possible

Il existe une apparente contradiction entre l’influence bénéfique de l’indiçage et la détérioration de la perception des patients.

L’évaluation concomitante des capacités de perception et de la démarche sous l’influence de stimulations auditives a permis de clarifier ce point. Les patients qui bénéficient le plus de l’indiçage sont ceux qui ont préservé leurs capacités perceptives. Cela renforce l’hypothèse de la primauté de la force du couplage audio-moteur pour prédire les bénéfices de l’indiçage.

Les conséquences de la dégradation de la perception ne sont cependant pas une fatalité. Un réentraînement est possible grâce à des jeux sérieux au cours desquels le patient réapprend à se synchroniser avec la musique, à la danse qui est une activité de synchronisation sensorimotrice par excellence, etc.

Si la marche est améliorée par des indices auditifs délivrés au bon tempo, l’interactivité de ces stimulations est aussi un facteur essentiel à considérer pour améliorer la force du couplage.

Nous avons montré que le contrôle en temps réel de la relation entre les pulsations musicales et les pas du patient, par l’adaptation en continu du tempo musical, garantit un couplage audio-moteur idéal. Associés aux effets positifs de la musique, neurochimiques par la libération des hormones du plaisir, et psychologiques par le sentiment d’évasion qu’elle procure, les effets de la stimulation sur la marche sont immédiats. Les bénéfices de l’indiçage s’en trouvent encore améliorés.

L’un des défis actuels est d’évaluer les effets à long terme d’une telle approche.

 

Des perspectives à moyen et long termes

La pleine perception de la musique passe par des structures motrices : n’a-t-on pas besoin de mettre tout notre corps en mouvement pour battre la mesure d’un morceau difficile ? Le recouvrement entre les structures de notre cerveau qui nous permettent de percevoir, et celles qui nous font bouger, ouvre une opportunité thérapeutique.

La rééducation du mouvement par la musique renforce en effet les liens entre la perception auditive rythmique et le comportement moteur. La musique s’immisce dans les réseaux moteurs du cerveau et peut compenser certains déficits créés par la maladie de Parkinson. Cette approche peut contribuer à améliorer la qualité de vie des patients et à réduire leur dépendance aux médicaments. Il s’agit donc d’un puissant outil de rééducation complémentaire de la thérapie pharmacologique.ré

D’autres pathologies présentant des déficits de la motricité sont également concernées. Sclérose en plaques, suite d’accident vasculaire cérébral (AVC) ou encore diabète de type II sont en cours d’études au sein de notre équipe.

 

 

Loïc Damm, Postdoctoral Researcher, Université de Montpellier; Benoît Bardy, Professeur en Sciences du Mouvement, fondateur du centre EuroMov, membre de l’Institut Universitaire de France (IUF), Université de Montpellier et Valérie Cochen de Cock, Docteure en neurologie, chercheuse HDR au sein de l’unité EuroMov Digital Health in Motion, Université de Montpellier – IMT Mines Ales, Université de Montpellier

Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.

The Conversation

❌