Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierEchoRadar.eu

Achat du Groenland par les États-Unis : une continuité géohistorique

Par Yannick Harrel

Deux semaines avant son déplacement au Danemark en septembre 2019, le président Donald Trump émit l’idée de l’achat de la deuxième plus grande île du monde, le Groenland. Émoi dans le landerneau diplomatique qui n’avait pas été averti de l’intention de l’hôte de la Maison Blanche quant à un tel négoce et qui se heurta à un refus sec du premier ministre danois Mette Frederiksen.

Pour scandaleux que celui puisse paraître, il n’en apparaît pas moins que le propos – du point de vue américain – se justifie amplement par une histoire fondée sur l’appropriation puis l’aménagement du territoire au travers de la conquête militaire… et des cessions. Certaines d’entre elles le furent au travers d’une transaction commerciale : territoire contre versement numéraire [1] : la Lousiane en 1803 (entendue au sens très large puisqu’elle débordait sur treize états actuels tout de même) ; l’extension de l’Arizona et du Nouveau Mexique en 1853 (prévu initialement pour favoriser le chemin de fer transcontinental) ; l’Alaska en 1867 (opérée par le Tsar pour des raisons de difficultés logistiques en cas d’agression par les États-Unis ou le Royaume-Uni) ; Porto Rico en 1898 (suite à la guerre victorieuse contre l’Espagne mais la cession s’est opérée malgré tout avec une compensation financière) et enfin les Îles Vierges en 1917. Ce dernier exemple doit être souligné au regard de la présente proposition puisque ces territoires maritimes appartenaient justement au… Danemark (oui, il y eut une colonisation scandinave et balte en zone Amérique du Nord et Caraïbes mais ceci est une autre histoire).

En aparté, l’annexion de la République de Hawaï fut le fait d’hommes d’affaires et riches cultivateurs américains qui durent se résoudre à déposer la reine par un coup d’État vu que cette dernière se refusait à devenir un simple monarque d’apparat. Cette situation fut attestée postérieurement par l’Apology Resolution de 1993 [2].

Ainsi, si le propos du responsable américain actuel peut paraître provoquant, si ce n’est choquant, il s’enracine dans une habitude propre à ses homologues du passé de proposer une contrepartie financière à un achat territorial. Et le Groenland ne manque pas d’attrait, notamment avec le dégagement de la route vers le Nord de l’Arctique suite au recul des glaces : un phénomène géoclimatique qui attise nombre de spéculations commerciales de la part de pays riverains (Canada, Russie, Norvège) et même lointains (Japon, Chine, Angleterre). En outre, le Groenland possède une position stratégique très enviable, comme l’atteste la présence militaire américaine sur la base de Thulé depuis 1943. Alors, si en complément l’on subodore que des ressources naturelles non exploitées sont envisagées comme très prometteuses dans la région, l’on perçoit mieux pourquoi – sur le fond – l’offre américaine est tout à fait censée.

Ce faisant, elle bute sur deux écueils conséquents : le premier est l’autonomie renforcée du Groenland, notamment depuis une loi de 2009, où la population verrait d’un oeil mauvais sa souveraineté partiellement acquise déjà bradée ; le second est la main-mise du Danemark sur une situation qui pourrait lui être favorable en tant que pivot géostratégique d’une nouvelle route commerciale.

En dépit du refus danois, rien n’interdit de penser qu’une stratégie détournée puisse être mise en place ces prochaines années en poussant le Groenland vers l’indépendance (la loi de 2009 prévoit une telle éventualité) tout en rendant l’appui financier, logistique et/ou militaire américain indispensable pour les indépendantistes. Le procédé serait tout à fait viable, moins offensant pour les intéressés et suffisamment souple pour les bénéficiaires.La sonde envoyée par Donald Trump est à considérer avec sérieux : l’approche directe, mercantile, percutante, a le mérite de positionner de suite les intentions états-uniennes quant à un potentiel bouleversement dans les flux de circulation maritimes, et par là même commerciaux et militaires. Et surtout, rapidement prendre place avant que la Chine ne s’implante fermement sur le territoire [3]. Plutôt que de se focaliser sur la forme, retenons le fond.

[1] Le cas de la Floride est singulier puisqu’il ne s’agit pas à proprement parler d’une transaction commerciale – territoire contre versement d’une somme définie – mais d’un traité léonin qui prévoyait toutefois une exonération pour les citoyens américains s’estimant spoliés par l’acte diplomatique. Ce dispositif prémunisait l’Espagne de toute réclamation financière de leur part sans constituer pour autant une contrepartie.

[2] Whereas, on January 14, 1893, John L. Stevens (hereafter referred to in this Resolution as the “United States Minister”), the United States Minister assigned to the sovereign and independent Kingdom of Hawaii conspired with a small group of non-Hawaiian residents of the Kingdom of Hawaii, including citizens of the United States, to overthrow the indigenous and lawful Government of Hawaii;

Whereas, in pursuance of the conspiracy to overthrow the Government of Hawaii, the United States Minister and the naval representatives of the United States caused armed naval forces of the United States to invade the sovereign Hawaiian nation on January 16, 1893, and to position themselves near the Hawaiian Government buildings and the Iolani Palace to intimidate Queen Liliuokalani and her Government; [3] En 2018, le conglomérat China Communications Construction Company avait proposé ses services à la ville de Nuuk, la capitale du Groenland, afin d’agrandir ses infrastructures aéroportuaires. Le Danemark y mit son veto au grand dam des autorités locales tout en proposant en compensation d’augmenter ses investissements dans le pays.

 

Cet article Achat du Groenland par les États-Unis : une continuité géohistorique est apparu en premier sur EchoRadar.eu.

Les nourritures terrestres de l’intelligence artificielle

Par Informatiques Orphelines

L’intelligence artificielle est on ne peut plus à la mode. Il faut en parler, car elle est censée façonner le monde à venir. De ce fait, elle est soit encensée (l’IA nous libérera ! de quoi, cela reste à définir) soit elle est dénigrée car elle fit peur, elle effraye. Et dans la catégorie anxiogène, on convoque bien évidemment le grand méchant Vlad qui aurait dit “Celui qui deviendra leader en ce domaine sera le maître du monde.”

Alors, comme il ne faut pas laisser les cosaques dominer le monde, une course à l’IA a été lancée.

Source

C’est un truisme maintenant que de dire que l’IA repose sur de l’apprentissage. Mais l’apprentissage nécessite des données en (très) grande quantité. Donc plus la quantité de données est importante, meilleur l’apprentissage pourra être. Mais on n’en est pas sûr. Par contre, on est sûr que si la quantité de données est faible, la qualité de l’apprentissage sera médiocre. Tout développement de l’IA a donc comme préalable la constitution d’un stock de données très important.

Avant de poursuivre, et pour éviter de s’esbaudir devant les capacités de l’IA, rappelons que Luc Julian a déclaré dans L’intelligence artificielle n’existe pas (First Editions, 2019, p 119) “Pour qu’une machine reconnaisse un chat avec une précision de 95%, on a besoin de quelque chose comme 100 000 images de chat.”  Tout cela alors qu’un enfant n’a besoin de voir que 2 ou 3 fois un chat pour reconnaître toute sorte de chats dans la suite de sa vie.

Pour constituer ce stock d’images, il me semble qu’il n’y a que deux possibilités :

  1. demander aux utilisateurs la libre utilisation de leurs données dans des conditions bien précises, avec un but bien précis, bref en respectant la loi ;
  2. s’asseoir sur le consentement des utilisateurs, étant entendu que ces travaux sont effectués pour le bien de l’Humanité.

Comment procèdent donc les géants auto proclamés de l’IA, à savoir la Chine et les USA ?

La Chine

La Chine fait peur lorsqu’on parle d’IA (plus que la Russie) à cause de ce que l’on appelle le crédit social. La reconnaissance faciale à haute dose couplée à des algorithmes classant le comportement de chacun existe, mais ce n’est pas pour asseoir la domination du parti. Selon wikipedia, l’objectif de cette initiative, selon le schéma de programmation, est « la sensibilisation à l’intégrité et à la crédibilité au sein de la société ». Comme nous le voyons, c’est pour le bien de la Chine et des Chinois.

Ce programme est en phase de test depuis 2018 et devrait être généralisé dans Pékin dès 2021.

Ne nous leurrons pas, si la Chine procède aussi de manière aussi massive à de la vidéosurveillance c’est aussi vraisemblablement pour récupérer des données de manière à développer son intelligence artificielle. Le “crédit social” n’est donc pas seulement une menace pour les libertés publiques c’est aussi un moyen de construire et d’acquérir une supériorité en intelligence artificielle sur le monde occidental.

Les USA

Aux USA qui sont, comme chacun sait, le pays où les libertés sont les mieux respectées, il ne viendrait pas l’idée de collecter de manière aussi massive des données. Non, bien sûr, même les fédéraux ne le feraient pas.

Alors d’autres, totalement indépendants des fédéraux, s’en chargent : Facebook a ainsi payé des tiers pour transcrire les enregistrements audio des conversations de certains de ses utilisateurs : “Un fait qui a été confirmé par la société qui affirme que les utilisateurs dont les enregistrements audios avaient été écoutés et transcrits, avaient choisi l’option de l’application Messenger de Facebook pour la transcription de leurs conversations vocales. Un chose que certains qualifient de malhonnête de la part de Facebook, car il semblerait que ce paramètre soit activé par défaut sans même que l’utilisateur le sache vraiment et nécessite qu’il le désactive lui-même pour empêcher à Facebook d’utiliser ses audios. Les sous-traitants avaient donc selon Facebook, pour seul rôle, de s’assurer que l’intelligence artificielle de la société interprète correctement les messages.”

En outre, Apple, la marque si choubidou parce que Steve Jobs, on apprend que : Un choc. C’est ce que Guillaume, cadre dans la logistique, a ressenti lorsqu’il a commencé à explorer les paramètres de son iPhone. « En allant dans “réglages”, “confidentialité” puis “service de localisation”, j’ai remarqué tout en bas de l’écran un bouton “services système”, puis à nouveau, en bas d’une liste, “lieux importants”. » En cliquant sur ce dernier bouton, il a alors découvert que son téléphone stockait tous les lieux où il s’était rendu ces dernières semaines ! De façon ultra-précise, avec l’heure à laquelle il est arrivé et reparti de chaque endroit. « Le temps que j’ai passé au bureau, en rendez-vous, à faire les courses… Tout est même indiqué sur une carte. J’ai halluciné. Évidemment, dès que j’ai vu ça, j’ai tout effacé et supprimé cette fonction qui est activée par défaut. »

Mais comme il ne s’agit pas de reconnaissance faciale, l’honneur est sauf. Ou presque…

Dans les deux cas précités, pour acquérir des données en grande quantité qui sont la condition sine qua non du développement de l’IA, les États sont prêts à beaucoup de choses. Voyons ce qu’il en est en Gaule.

Et la France

La question qui se pose est de savoir ce que la France va faire, elle qui prétend devenir un géant de l’IA, car on ne badine pas, céans, avec la préservation des libertés. Et comme nous avons les mathématiciens, les scientifiques, les innovateurs que le monde nous envie et, en même temps, des gouvernants que le monde nous envie, nous allons développer une IA éthique en répondant aux besoins des industriels. Cédric O nous l’explique à propos de la reconnaissance faciale :

Faut-il faciliter les expérimentations en la matière ?

Il ne faut pas avoir une vision exclusivement nihiliste de la reconnaissance faciale : il y a beaucoup d’usages qui, s’ils sont bordés juridiquement et techniquement, ne posent aucun problème et apportent de la simplification – par exemple, pour tout ce qui nécessite aujourd’hui de se présenter à un guichet ou pour valider une formation en ligne. Expérimenter est également nécessaire pour que nos industriels progressent.

Que proposez-vous ?

Je propose de créer en coordination avec la CNIL une instance spécifique, composée de membres issus de différentes administrations et régulateurs, sous la supervision de chercheurs et de citoyens. Cette instance superviserait et évaluerait les expérimentations. Dans un deuxième temps, il faut un débat citoyen sur le sujet afin d’examiner les questions légitimes sur l’équilibre entre usages, protection et libertés. Il me semble par ailleurs important qu’il y ait une supervision de la société civile car le sujet est trop sensible : l’État doit se protéger de lui-même.

Génial, encore un machin !

L’utilisation de mécanismes de reconnaissance faciale en temps réel sur les images de vidéosurveillance est-elle envisageable ?

Je suis extrêmement partagé sur la question. On en voit très bien l’utilité, par exemple pour identifier des terroristes dans une foule, mais aussi les risques. Il faut donc en définir très clairement le cadre et les garanties pour éviter la surveillance généralisée. Je pense que nous devons avoir un débat citoyen sur le sujet, en associant les parlementaires et les élus locaux. C’est, d’une certaine manière, aux Français de choisir, car les décisions seront lourdes de conséquences. C’est le genre de décisions sur lequel vous ne revenez que très difficilement. Et nous avons une responsabilité vis-à-vis des générations à venir. Il ne faut toutefois pas se laisser emporter par une vision dystopique ni utopique de la reconnaissance faciale et se saisir de la question à un moment où le débat est encore relativement apaisé.

En résumé, nous allons faire mais en bordant cela juridiquement pour que tout se fasse dans le respect de la loi.

In fine se pose la question de savoir si nous, braves citoyens qui, par définition n’avons rien à cacher, allons voir nos données personnelles captées à des fins autres que celles pour lesquelles nous étions d’accord. Un lecteur du Point a répondu à sa façon (on peut être d’accord ou non avec le fond de sa pensée, mais la formulation est intéressante) :

Par Vivelevant   Boire le calice jusqu’à la lie

La reconnaissance faciale c’est comme le mariage pour tous. D’abord on a juré qu’il n’y aurait pas de PMA puis maintenant on nous balance la PMA et on jure qu’il n’y aura pas de GPA. Etc.
Là pareil, et bientôt viendra le crédit social comme en Chine, faut pas se faire d’illusions. On boira le calice jusqu’à la lie avant de se réveiller avec la gueule de bois.

Ce qui me fait penser, allez savoir pourquoi, à ce que déclarait Benoît XVI à la tribune de l’ONU le 18 avril 2008 : Il ne s’agira jamais de devoir choisir entre science et éthique, mais bien plutôt d’adopter une méthode scientifique qui soit véritablement respectueuse des impératifs éthiques.

Cet article Les nourritures terrestres de l’intelligence artificielle est apparu en premier sur EchoRadar.eu.

L’écho du bocal avec un hacker

Par Informatiques Orphelines

Aujourd’hui, l’écho du bocal donne la parole à un hacker, terme que l’intéressé préfère à celui de pirate. Il témoigne sous anonymat complet, sans fournir son nom ni le pseudonyme sous lequel il est connu dans ce milieu. La personne qui a recueilli ses propos témoigne de la réalité de son existence (ce n’est pas un avatar ni un hologramme) et de ses qualités professionnelles.

Hacker

Source

1 Avez-vous, durant vos activités de pirate, constaté une évolution de la qualité de la protection informatique des organisations ou le constat est-il toujours désolant ?

Il y a clairement depuis quelques années une prise de conscience de la part des entreprises de l’intérêt de la SSI. Notamment, suite aux dernières attaques de ransomware qui contrairement au vol de données ont détruit des SI complétement et fait perdre des milliers d’euros à certaines entreprises.
Par ailleurs, l’ANSSI est montée en puissance ces dernières années et à contribuer fortement à la protection des OIV en exigeant un minimum en terme de sécurité des SI.

2 Tous les pirates possèdent-ils une sorte de limite liées à certaines activités particulièrement abjectes (pédopornographie, terrorisme) ? Existe-t-il une éthique du pirate informatique ?

La qualification de pirate est un terme utilisé par les médias et sûrement les néophytes en la matière. Nous n’utilisons que très peu ce terme, et préférons nous qualifier d’experts en informatique ou de bidouilleurs. J’ai l’espérance que dans le milieu chacun à ses limites. Ces limites sont souvent conduites par l’appât du gain financier facile ou alors par des convictions politiques, religieuses.

3 Quels sont les pays réellement en pointe en matière de cyberdéfense ? (par commodité on y intégrera la protection et la défense des SI tout comme les outils offensifs)

Il est toujours difficile de répondre à cette question puisque à priori un pays qui est à la pointe protège ses techniques. La sécurité par l’obscurité n’est pas une solution, mais il s’agit d’une première barrière en terme sécurité. On peut supposer que les grandes puissances mondiales sont à la pointe en matière de cyberdéfense.

4 Que pensez-vous de la politique du Hack Back prônée par certains élus américains? La France pour l’instant s’y refuse mais est-ce une position tenable contre la première cyberpuissance mondiale?

Je pense que dans certains cas, il faut agir pro activement lorsque la menace est connue afin de pouvoir se prémunir de futures attaques.

5 Les techniques d’intelligence artificielle, y compris complexes, sont-elles de plus en plus utilisées ?

En France beaucoup de recherches sont menées pour utiliser l’IA afin de tenter de détecter des attaques.

6 Faut-il craindre l’avènement de la 5G ? Certains experts redoutant le renforcement des difficultés à intercepter les communications des structures criminelles ?

La 5G changera peu de choses en ce qui concerne l’interception des communications mis à part le coût que les fournisseurs télécoms vont devoir investir afin d’être en mesure de pouvoir monitorer ce réseau sous demande. Aujourd’hui l’enjeu étant l’utilisation du chiffrement bout en bout par les criminels ainsi que de serveurs et réseaux dédiés et hors juridiction.

7 Comment “travaille” un pirate informatique ? Travaillez vous seul ou en équipe ? Si vous le faites en équipe, comment sélectionnez -vous vos coéquipiers ? Pouvez décrire les différentes communautés de pirates informatiques au niveau international ? Comment choisissez-vous vos cibles ?

Il y a souvent un vrai réseau avec de multiples compétences. Imaginons le cas d’un ransomware, il y a souvent une équipe s’occupant de la distribution, l’autre de la charge active, du packer, une autre du C&C et finalement l’une des plus important du blanchiment et l’anonymisation de la cryptomonnaie.
L’organisation est telle une vraie entreprise et le niveau technique peut être meilleur voire souvent que de nombreuses entreprises. En ce qui concerne le recrutement il faut souvent faire ses preuves pour être intégrer.
Pour la cible, tout dépend de l’objectif. Est-ce l’argent ou alors un mouvement activiste prônant certaines idées ?

8 Comment vous formez-vous pour être toujours au même niveau que les avancées technologiques ?

Il existe de nombreuses conférences, forums et outils sur lesquels des chercheurs en sécurité communiquent. Il est assez facile de se tenir au niveau des avancés technologiques. Mais en général, il faut se faire soi même sa R&D et réalisant sa rétro et en analysant les correctifs de sécurité régulièrement envoyés par les sociétés par exemple.

9 Un peu de prospective : quel pourrait être le paysage international cyber dans 5 ans ?

La sécurité s’améliore constamment, trouver de la donnée non chiffrée sera de plus en plus rare en dehors de la RAM qui elle même est déjà scramblée.

10 Que pensez-vous du bocal ?

Lorsque vous travaillez dans le milieu de la sécurité informatique vous avez besoin de penser différemment des autres afin de trouver la vulnérabilité qui vous permettra de passer root ou d’exploiter votre logiciel. Si vous vous contentez d’être ou penser comme les autres et donc être dans le bocal, vous passez à coté de pleins de choses. Quand je vois certaines attaques cybercriminelles ou exploits réalisés par des gens qualifié de hacker, je dirais plutôt que ce sont des artistes.

Cet article L’écho du bocal avec un hacker est apparu en premier sur EchoRadar.eu.

Rallye des 1000 pistes : la compétition au son du clairon

Par Yannick Harrel
Un rallye de type africain en pleine Provence? Un rallye sur un champ de manoeuvres militaires ? Le propos pourrait être incongru s’il n’avait été réalisé entre 1976 et 1986 dans un contexte, il est vrai, assez singulier de méfiance entre forces armées et population civile. Il faut rappeler que dans les années 1970 la création ou l’extension de camps était très mal accepté par les expropriés, bénéficiant le cas échéant d’un soutien médiatique, politique et physique comme ce fut le cas avec la lutte du Larzac. De fait, les autorités militaires prirent conscience que les rapports avec la population devaient évoluer, ce qui imposait de promouvoir une nouvelle image des armées précisément.

 

L’occasion fut saisie avec l’enthousiasme de l’ASA Team Dragon (une structure associative de sport automobile) et la volonté du commandant du camp de Canjuers, le colonel Sirvent, d’offrir plus qu’un terrain d’entente : un terrain de compétition. 110 kilomètres de route asphaltée, 400 de piste en terre, un sol calcaire aride, des passages à gué et une activité d’artillerie soutenue toute l’année : tel était le camp Canjuers, alors plus grande enceinte militaire en Europe. L’accord fut scellé de la façon suivante : l’armée mettait à disposition l’ensemble des installations (restauration, hébergement, service médical) pour les concurrents, leur équipe technique ainsi que pour la presse présente. De même que des moyens logistiques conséquents (véhicules tout-terrain, camions de dépannage et hélicoptères). L’association prenait pour sa part à sa charge les frais de carburant et l’organisation générale sur le parcours. L’improbable fut ainsi réalisé onze éditions durant : un rallye dans un camp militaire français!

Ce rapprochement n’était pas si pittoresque que cela puisque les analogies entre le compétiteur de sports mécaniques et le soldat sont assez nombreuses : le mental tout d’abord, la possibilité d’atteindre l’objectif dépend conséquemment de sa capacité à endurer les épreuves ; la préparation ensuite, car si les imprévus peuvent survenir dans le déroulement de l’épreuve, l’entraînement n’est jamais superfétatoire ; l’adversité, puisque l’on combat contre autrui et que les concurrents peuvent être pugnaces et inventifs ; l’obligation d’une connaissance de soi, des autres et du matériel avec tous les aléas que l’on peut deviner ; une discipline et un réglement à observer car une compétition sportive n’est pas l’anarchie, il y a des instances hiérarchiques, des règles impératives, des appels, des vérifications et des sanctions ; et enfin une camaraderie de fin d’épreuve, facilitée par les conditions éprouvantes subies par l’ensemble des candidats.

Quant à l’appellation, elle est un pur produit marketing pour faire miroir au fameux rallye finlandais des 1000 lacs. Du reste, 1000 pistes n’était pas inapproprié au regard de la multitude de parcours possibles sur un terrain occupant une surface de 35 000 hectares (350 km2).

Anedocte sympathique : lors du premier lever aux aurores pour la compétition naissante, le colonel Despont, alors adjoint du commandant du camp, fit résonner la fanfare du régiment afin d’inviter les participants à profiter des premiers rayons du soleil et se diriger vers le réfectoire pour prendre leur petit-déjeuner.

Plusieurs grands noms participèrent aux différents éditions, et si tous ne laissèrent pas leur empreinte sur les tablettes de l’épreuve, en revanche l’épreuve les marqua substantiellement. En premier lieu, Jean-Louis Clarr qui fut le premier à emporter l’édition d’inauguration, avec son Opel Kadett GT/E à peine préparée ; Jean-Luc Thérier, quatre fois détenteur du titre, une vraie bête de compétition ; Carole Vergnaud qui s’offrit la toute dernière édition sur une Citroën Visa 1000 Pistes la bien nommée ; Guy Fréquelin, sortant vainqueur de l’épreuve sur deux véhicules différents, une Talbot Sunbeam Lotus puis une Opel Manta 400.

Outre ces grands noms, les militaires se prirent aussi au jeu de la compétition avec le fidèle adjudant-chef Gérard Boin répondant présent lors des éditions de 1978 à 1985.

Précision d’importance : les conducteurs de chars n’étaient pas invités à se produire durant l’épreuve avec leur matériel habituel.

Une longévité d’autant plus remarquable que le rallye n’était prévu que pour trois ou quatre éditions selon les initiateurs du projet. Avec à la clef un succès médiatique dépassant largement le cadre régional pour s’établir au niveau européen avec des compétiteurs britanniques et finlandais ainsi que des vétérans du rallye de Côte d’Ivoire (le Bandama).

La fin fut inéluctable cependant car le cigarettier Rothmans, principal soutien financier de l’épreuve, allait subir la loi anti-tabac en discussion, lui interdisant toute dépense en marketing lors d’épreuves grand public. Cette législation couplée à l’arrivée au camp d’un nouveau colonel respectueux de la tradition mais sans l’enthousiasme des pionniers (le colonel Sirvent, ferveur soutien du projet et facilitateur de la mise à disposition du matériel) ainsi qu’au retrait de la compétition de tout championnat d’envergure achevèrent de convaincre les organisateurs qu’un temps était révolu.

Des souvenirs appelés à jaunir?

Pas forcément dans le sens où le tout nouveau Rallye Terre du Haut Var 2019 s’est déroulé… au sein du camp de Canjuers. Avec la notable présence du nonuple champion du monde Sébastien Loeb à bord d’une Hyundai R5 et la bienveillance des autorités militaires. Jolie résurrection!

Éditions du Baquet
176 pages

Cet article Rallye des 1000 pistes : la compétition au son du clairon est apparu en premier sur EchoRadar.eu.

5 ans d’ECHORADAR – Collapsologie, un malware cognitif ?

Par Thierry Berthier

Les collapsologues sont à la mode, présents dans tous les médias pour nous alerter à l’heure du déjeuner sur l’effondrement majeur imminent de nos sociétés industrielles, capitalistes, libérales, et forcément décadentes. Dans certains milieux, l’irrationnel apocalyptique a définitivement pris le dessus sur toute argumentation scientifique pour devenir une norme de communication.

A force d’être répétée, la surenchère de promesses de catastrophes à court terme devient une vérité inattaquable par la seule force de sa diffusion et de sa capacité de sidération sur des publics jeunes, vulnérables, influençables.

Les mécanismes humains et numériques qui alimentent cette boucle systémique de l’effondrement ressemblent de plus en plus à ceux d’un malware informatique appliqué au champ cognitif, à dissémination large et rapide. On peut désormais objectivement utiliser le terme de malware cognitif.

Bien sûr, les marchands de fin du monde ont toujours existé à travers l’histoire et ont toujours su trouver des oreilles complaisantes pour faire fructifier leurs commerces à base de messages apocalyptiques. Mais aujourd’hui, ils bénéficient d’un terrain informationnel beaucoup plus favorable pour amplifier leurs discours, le distribuer très largement et élargir leur auditoire en quelques clics.  Le public potentiel traverse lui aussi une phase propice à la réception et à l’acceptation du message prophétique apocalyptique sans démonstration tangible. Le manque de culture scientifique, le recul de la rationalité et plus particulièrement celui de la démarche réflexive basée sur la logique mathématique favorisent le consentement et la croyance d’affirmations sans preuves. Ce contexte cognitif dégradé ouvre alors un champ des possibles presque sans limite. Toutes les thèses, avec ou sans preuve, se valent à partir de l’instant de leur mise en ligne par un média établi on non.

La collapsologie a su tirer parti de cette jachère cognitive pour se développer et produire son infrastructure prophétique. Depuis un an, les alarmes bibliques se sont multipliées : disparition imminente de toutes les espèces à l’échelle planétaire, inondations continentales, tremblements de terre en cascade dus au réchauffement climatique, guerres de l’eau, de l’électricité, du gaz et de l’air respirable. Une romancière qui ne souhaitait pas en rester là nous a promis 4 milliards de morts immédiates si la température augmentait de deux degrés. Bigre ! 4 milliards c’est presque de l’extinction d’espèce. Comment arriver à un tel chiffre à partir de deux degrés ? que devient ce chiffre si l’on passe à trois degrés ?

Pablo Servigne [1], conférencier, spécialiste des questions de transition écologique, d’agroécologie, de collapsologie et de résilience collective, coauteur de « Une autre fin du monde est possible : Vivre l’effondrement » vient de prédire un effondrement très probable en 2020. Il nous reste donc quatre petits mois pour régler nos affaires courantes, profiter de la vie telle qu’on la connait, consulter un manuel de survie et creuser un abri sous terrain dans un bois très isolé. D’autres experts en collapsologie nous fournissent heureusement des solutions sur étagère pour sortir à temps de la crise ou pour amortir les futurs chocs. Ce sont finalement ceux que l’on a envie d’entendre. Unique chemin vers la miséricorde de l’empreinte carbone et vers la rédemption, la décroissance à toute échelle s’impose comme une vérité verte autoproclamée dispensée de toute preuve scientifique.

Concept surpuissant, la décroissance autorise toutes les spéculations à peu de frais et permet de remballer de vieilles idéologies marxistes dans un papier cadeau vert émeraude. Pour le « décroissantiste », le capitalisme, le libéralisme et le progrès scientifique sont des métastases qui détruisent la planète et qui provoquent l’effondrement des sociétés corrompues. Il convient donc d’éradiquer ces dérives techno-capitalistes pour revenir aux fondamentaux salutaires du repli collectiviste planifié.

Dès lors cette idéologie radicale engendre des interdictions qui permettent de « décroitre » efficacement et in fine d’alléger le poids des décombres durant l’effondrement.

Ainsi, on a pu lire depuis quelques mois les propositions suivantes [2] :

« Ne plus prendre l’avion lorsqu’il existe une offre ferroviaire équivalente ». L’écrivain et homme politique Raphael Glucksmann nous conseille d’éviter les week-ends de détente inutiles à Barcelone, bien trop polluants pour la communauté et nous enjoint à accepter les futures restrictions et contraintes vertes sans sourciller. Le message est clair : nous devons changer dans le bon sens de l’histoire, ne plus consommer, ne plus voyager, ne plus inventer, ne plus produire, ne plus penser à produire…

Plus grave encore, d’autres prédicateurs adeptes de la décroissance universelle demandent aux européens de limiter leur descendance et idéalement de ne plus avoir d’enfants.

D’autres encore nous expliquent qu’il ne faudra plus soigner les malades au-delà de soixante-dix ans pour réaliser des économies et faire de la place aux plus jeunes.

Le progrès technologique, vecteur de croissance, doit lui aussi être contenu puis stoppé. Certains militants verts ont conseillé au spationaute Thomas Pesquet de renoncer purement et simplement à ses ambitions spatiales car tout cela coûte très cher à la communauté en énergie et en carbone. L’argument pour laisser tomber la conquête spatiale est limpide : elle ne concerne finalement que quelques privilégiés sélectionnés par le grand capital et n’a aucune retombée positive pour le peuple…

La transition numérique et la montée en puissance de l’intelligence artificielle constituent, comme l’on pouvait s’y attendre, des progrès maléfiques qui nous conduisent tout droit à un Armageddon cybernétique. Il est donc urgent de s’opposer à l’IA et aux moteurs de recherche sataniques en l’interdisant.

Que dire de plus après ce registre de préconisations radicales et délirantes mais qui trouvent pourtant des soutiens au sein du grand public ?

Il faut les combattre sans relâche par tous les moyens, comme l’on cherche à éradiquer un malware infectant un système d’information car l’idéologie sous-jacente ne peut qu’accélérer le dérèglement climatique. Annoncer la fin du monde chaque jour finit par lasser le public qui devient insensible aux vraies alarmes le jour où elles surviennent !

 

 

Références

[1] https://pabloservigne.com/bio/

https://twitter.com/i/videos/1163102470995927040?embed_source=facebook

 

[2] https://www.europeanscientist.com/fr/editors-corner-fr/petit-ecolo-betisier-de-lete/

 

 

 

Cet article 5 ans d’ECHORADAR – Collapsologie, un malware cognitif ? est apparu en premier sur EchoRadar.eu.

5 ans d’EchoRadar – Climat, je t’aime, moi non plus !

Par 3C SecuSystJuri

C’est incontestable, nous le savons depuis des décennies, la planète subit un réchauffement climatique et il est urgent de réduire la production de CO2. Face à ce constat simple, que faisons – nous et surtout avec quelle efficacité ?
Le point de départ de cet article qui s’inscrit dans le dossier anniversaire d’EchoRadar est la tenue de la COP 21 de décembre 2015, événement marquant choisi dans la période de 2014 à 2019.

Source image : AFP/Archives – LIONEL BONAVENTURE

Une vision politique du climat – la COP 21 et les suivantes
La COP est une conférence internationale sur le climat qui réunit chaque année les pays signataires de la Convention Cadre des Nations Unies sur le Changement Climatique (CCNUCC). L’édition 2015 (COP21) a été organisée par la France. L’Accord de Paris qui y a été adopté engage toutes les parties signataires à réduire leurs émissions de gaz à effet de serre et à maintenir le réchauffement sous la barre des 2°C d’ici à 2100. Belle performance médiatique et politique puisque le 4 novembre 2016, un an seulement après la COP21, l’Accord de Paris est entré en vigueur car le double seuil nécessaire a été atteint, ratification par 55 pays couvrant au moins 55% des émissions de gaz à effet de serre, grâce à la ratification des pays les plus émetteurs comme le Canada, la Chine, les États-Unis, l’Inde. Cet accord incarne un repère historique pour les négociations internationales sur le climat ainsi qu’un éveil médiatique et citoyen sur la nécessité de lutter contre le réchauffement climatique.
Mais 3 ans après, l’accord est affaibli par le retrait des États Unis ainsi que l’inaudibilité des COP 22 et suivantes sur la poursuite d’un plan d’actions cohérent et efficace.
Ces accords politiques certes nécessaires sont loin d’être suffisants pour l’efficience de l’action politique sur le climat.

Une vision scientifique du climat – les rapports du GIEC
Le 8 août dernier, le GIEC a publié un nouveau rapport qui dénonce notamment la surexploitation des ressources et alerte sur les effets dramatiques des « changements climatiques, la désertification, la dégradation des terres, la gestion durable des terres, la sécurité alimentaire et les flux de gaz à effet de serre dans les écosystèmes terrestres ».
Le GIEC désigne le “Groupe d’experts intergouvernemental sur l’évolution du climat” (“IPCC” en anglais), qui fut récipiendaire du prix Nobel de la Paix en 2007. Cet organisme créé en 1988 dans le cadre du G7 et sur décision de l’ONU et de l’Organisation Météorologique Mondiale, a pour fonction de recenser, d’évaluer les travaux scientifiques disponibles sur le réchauffement climatique, et de fournir régulièrement un état des lieux des connaissances.
L’utilité de ces études se matérialise en brossant à destination des politiques un diagnostic servant de base de travail lors des conférences sur le climat et d’orientations pour les décisions.
Cependant, et à nouveau, le constat demeure que les rapports du GIEC s’enchaînent et se ressemblent surnageant dans le bruit de fond médiatique permanent.

Une vision citoyenne du climat – le phénomène Greta Thunberg
Sans entrer dans la polémique autour de cette jeune fille qui divise l’opinion, il est préférable d’y voir la porte parole de l’urgence climatique et le besoin impératif d’agir. Certes, son choix est d’adopter un ton alarmiste qui a le mérite de faire réagir et de secouer les esprits conscients mais un peu engourdis par le ronronnement des déclarations officielles, comme le montrent les paragraphes précédents.
Elle incarne également le renouvellement des figures médiatiques relatives au climat et d’entraîner avec elle les nouvelles générations.
Il me semble qu’il ne s’agit pas de culpabiliser l’opinion mais de faire de l’écologie l’affaire de tous où chaque citoyen peut agir à son propre niveau en modifiant petit à petit ses habitudes et en essayant d’améliorer son quotidien. Cela passe simplement par le tri de ses déchets, limiter les achats en plastique inutile, éviter l’utilisation de la voiture quand les transports en commun efficaces et équivalents existent, etc.
Mais bien évidemment, il est illusoire de penser que tout le poids du changement climatique repose sur les citoyens.

Quelle vision industrielle du climat ?
Mais en définitive qui pollue le plus ? Sans aucun doute, les industries, les transports et les secteurs résidentiels et commerciaux.
Quels outils existent -ils pour inciter ces acteurs à moins polluer ?
Une des solutions réside dans la fixation du prix du carbone. La tarification du carbone permet avant tout d’envoyer une incitation stable et durable aux acteurs économiques pour qu’ils s’engagent sur la voie d’une économie bas carbone, en réduisant leurs émissions et en recevant les signaux appropriés pour investir dans les technologies vertes sobres en carbone.
En effet, fixer un prix au carbone permet de reconnaître le poids des dommages venant des émissions de gaz à effet de serre pour ceux qui en sont responsables et qui ont la possibilité de les réduire.
Les mécanismes de tarification du carbone explicites les plus utilisés dans le cadre des politiques publiques, taxes carbone et systèmes d’échange de quotas (également appelés « marchés carbone »), peuvent être adaptés aux particularités des pays concernés, éventuellement utilisés de manière complémentaire. Le principe est simple, chaque assujetti a intérêt à réduire ses émissions dont le coût de réduction est inférieur au prix du carbone (défini réglementairement ou par le marché).
Généralement, les sources fortement émettrices (production d’électricité à partir de combustibles fossiles, grosses industries) sont plus souvent incluses au sein d’un marché carbone, alors que les « petits émetteurs » (petites entreprises) ou les sources diffuses (véhicules, chauffage et eau chaude sanitaire dans les bâtiments, agriculture, etc.) seront plutôt concernés par une taxe carbone.
En parallèle de la mise en place de ces outils réglementaires, des initiatives volontaires de tarification du carbone se développent au sein même des entreprises, avec la mise en place de prix internes du carbone. De nombreux pays ont déjà mis en place une politique de tarification carbone, 46 pays, selon l’Institute for Climate Economics mais cela reste encore insuffisant car d’une part, la Chine, premier émetteur de CO2, ne taxe pas encore les émissions carbone et, d’autre part, les tarifs du marché du carbone restent insuffisants, l’écart entre le prix du carbone et le coût réel des émissions est encore trop important.
Une généralisation du marché carbone avec un juste prix du carbone contraignant au niveau international devrait constituer la prochaine avancée internationale lors de la prochaine COP, la COP25 qui aura lieu à Santiago, au Chili du 2 au 13 décembre 2019.

En conclusion, n’avoir qu’une vision manichéenne comme une position pro ou contre Greta ne permet pas d’avoir une réflexion rationnelle du réchauffement climatique et empêche la mise en place de mesures efficaces et graduées. La question climatique s’articule autour à la fois des enjeux économiques et politiques d’une part, mais également des enjeux scientifiques et sociétaux. Chaque acteur, du citoyen à la collectivité territoriale à la multinationale, aux États et aux groupements économiques ont chacun leur part de responsabilité et peuvent mettre en place des solutions qui mises bout à bout, maillon après maillon, ont plus de chance d’aboutir à une réponse à plus grande échelle.

Sources :

Le Monde – Un rapport spécial du GIEC : l’humanité épuise les terres : https://www.lemonde.fr/planete/article/2019/08/08/l-humanite-epuise-les-terres-selon-le-dernier-rapport-du-giec_5497654_3244.html

France Culture – Climat : de Thatcher à Greta Thunberg, le Giec en 4 points de Hélène Combis: https://www.franceculture.fr/environnement/climat-de-thatcher-a-greta-thunberg-le-giec-en-4-points?utm_medium=Social&utm_source=Twitter#Echobox=1565364406

Site web du Ministère de la Transition écologique et solidaire – prix du carbone : https://www.ecologique-solidaire.gouv.fr/prix-du-carbone

Sciences et Avenir – Climat : pour l’OCDE, le prix du carbone augmente trop peu pour sauver le climat, le 20 septembre 2018: https://www.sciencesetavenir.fr/nature-environnement/climat-pour-l-ocde-le-prix-du-carbone-est-insuffisant_127664

 

Cet article 5 ans d’EchoRadar – Climat, je t’aime, moi non plus ! est apparu en premier sur EchoRadar.eu.

5 ans d’EchoRadar – Une expansion chinoise ou une obsession américaine nommée Huawei

Par Charles Bwele

Depuis quelques années, la firme chinoise Huawei est une véritable obsession pour les Etats-Unis. À l’ère où la maîtrise des réseaux informatiques constitue un atout-maître des grandes puissances, l’expansion internationale des plateformes numériques made in China révèle et accélère le déclin relatif de l’Amérique sur la scène technologique.

 


America Online

Au-delà des terres américaines, les analystes de la chose technologique ignorent ou omettent à quel point “le cyberespace, plus que tout autre espace de la mondialisation, est conçu par les Américains comme un prolongement de leur territoire national. Pour les Américains, l’imaginaire d’Internet est très proche de celui d’un nouveau Far-West […] Un lieu à découvrir, à explorer, à conquérir mais aussi à créer à sa convenance.” (1)

Quelques évidences démontrent amplement comment le Web a été façonné par la main de l’Amérique depuis les années 1990.

À ce jour, la gestion des serveurs DNS, serveurs racines d’Internet, est aux mains d’une écrasante majorité d’organisations américaines. Le Cloud Act (Clarifying Lawful Overseas Use of Data Act) est littéralement la version numérique de l’extraterriotalité du droit américain. Les systèmes d’exploitation les plus répandus dans le monde (Windows, Android, iOS) sont américains. Les plus grosses plateformes numériques (Google, Apple, Facebook, Amazon, Microsoft, Youtube, Netflix, Paypal, Uber, AirBnB) sont américaines. Elles sont quasi incontournables dans le quotidien de milliards d’humains, sont porteuses d’innovations et de disruptions (vie pratique, information, commerce, transport, hôtellerie, loisirs, etc), définissent des standards, imposent leurs modèles économiques à la sphère réelle, exercent une énorme influence sur les états, sur leurs politiques économiques et industrielles et questionnent la notion de souveraineté. En bref, “les plateformes numériques digèrent le monde. (2)

À l’ère de l’humain connecté, la plateforme numérique made in USA est la continuation de la politique et de l’économie américaines par des moyens informatiques. Ce qui est bon pour la plateforme numérique est bon pour l’Amérique. Pour ces mêmes raisons, le moindre octet en mouvement sur l’Internet doit être étroitement surveillé afin de garantir la bonne santé et la sécurité de l’Amérique.

Tout se passait pour le mieux dans le meilleur des mondes américains jusqu’à ce que plusieurs success stories typiquement chinoises (Huawei, ZTE, Netease, Honor, Oppo, Baidu, Alibaba, Tencent, Xiaomi) s’invitent sur la scène mondiale, fortes de leur remarquable “plateformisation” dans un écosystème grandement isolé du Web mondial et férocement protectionniste… notamment envers les plateformes américaines GAFA (Google Apple Facebook Amazon) qui pataugent ou s’écrasent sur ce marché de 800 millions de mobinautes.

Make it possible

Au début des années 2010, les smartphones et tablettes Huawei connaissent de francs succès en Asie, en Afrique et au Moyen-Orient. De nombreux pays émergents ou pauvres doivent énormément leurs architectures en téléphonie 3G/4G à Huawei et à ZTE qui fournissent des solutions télécoms & Internet adaptées aux besoins locaux et couronnées par de judicieux rapports qualité/prix. Les firmes chinoises sont solidement implantées dans ces régions depuis une petite dizaine d’années et nettement mieux positionnées que leurs concurrentes européennes et américaines sur ces marchés juteux à fort potentiel…

Un bonheur ne venant jamais seul, Huawei et ZTE deviennent les équipementiers préférés de plusieurs opérateurs télécoms nord-américains, européens, asiatiques et africains. En Grande-Bretagne, 70% de l’infrastructure 4G a été conçue par Huawei. (3).

En 2018, Huawei parvient sur le podium mondial des smartphones et arrache la deuxième place à l’américain Apple, juste derrière le coréen Samsung. Il occupe également la première place des équipements de réseaux (modems USB, clés Wi-fi, clés 4G) et des assistants vocaux, et investit massivement dans les datacenters et l’intelligence artificielle. Parallèlement, les smartphones de sa fililale Honor et des marques chinoises Xiaomi et Oppo acquièrent leurs lettres de noblesse en Amérique du nord et en Europe grâce à des modèles moyenne gamme n’ayant que peu à envier aux modèles haut de gamme tels que le Galaxy (Samsung) et l’iPhone (Apple). Entretemps, Huawei s’est forgé une expertise pionnière dans la téléphonie 5G et devient le partenaire priviliégié de nombreux opérateurs télécoms en Amérique du nord et en Europe.

Pas à pas, la firme chinoise prépare le terrain à son expansion sur le Web mondial et sur le futur Internet industriel via les architectures télécoms, les terminaux fixes / mobiles, les objets connectés, les systèmes d’exploitation et les applications. Car la téléphonie 5G sera l”infrastructure numérique de l’Internet des Objets, des automobiles connectées, des systèmes intelligents (domotique, médecine, bâtiments, usines) et des applications d’intelligence articielle et de réalité virtuelle / augmentée. D’une certaine façon, elle donnera véritablement corps à l’informatique ubiquitaire ou à la “communication ambiante” grâce à un Internet mobile, omniprésent et ultra-rapide, avec des bandes passantes comparables à celles de la fibre optique et des latences nettement plus réduites que celles de la téléphonie 4G.

Technocapitalisme.cn contre technocapitalisme.us

Dans un futur conditionnel assez proche, la 5G et les partenariats de Huawei ouvrent des boulevards vers le Web mondial et l’Internet industriel aux BATX (Baidu Alibaba Tencent Xiaomi), équivalents et concurrents chinois des GAFA, et à une myriade de startups chinoises. Ces plateformes du Far-East deviennent quasi incontournables dans le quotidien de milliards d’humains et porteuses d’innovations et de disruptions (vie pratique, téléphonie, information, commerce, transport, hôtellerie, divertissement, industrie, etc), multiplient les gammes de services dédiés à l’Internet des Objets et aux applications d’intelligences artificielles et de réalité virtuelle / augmentée, définissent des standards, imposent leurs modèles économiques à la sphère réelle, exercent une énorme influence sur les états et sur leurs politiques économiques et industrielles, et questionnent la notion de souveraineté. À leur tour, les plateformes numériques chinoises digèrent le monde. L’extraterritorialité de la législation chinoise et le contrôle social inhérent s’étendent à l’international via les réseaux numériques.

Corollairement, “une lettre et un esprit à la chinoise” deviennent sources d’inspiration dans divers domaines (gestion, marketing, innovation, normes, société, etc)

À l’ère de l’objet connecté, la plateforme numérique made in China est la continuation de la politique et de l’économie chinoises par des moyens informatiques. Ce qui est bon pour la plateforme numérique est bon pour la Chine. Pour ces mêmes raisons, le moindre octet en mouvement sur le réseau 5G doit être étroitement surveillé afin de garantir la bonne santé et la sécurité de la Chine.

La téléphonie 5G suscitera inéluctablement de nouveaux enjeux de cybersécurité notamment sur l’Internet des Objets et sur les réseaux industriels. Les hackers et les services de sécurité de tous bords qui s’en donnent à coeur joie sur l’Internet actuel ne s’en priveront guère sur l’Internet futur… parce qu’ils peuvent le faire et parce que tout le monde fait. Des soupçons et des accusations d’espionnage pèsent dejà lourd dans les frictions entre Pékin et Washington et seront monnaie courante.

Dès lors, l’enjeu devient stratégique pour Washington qui somme plus ou moins ses alliés européens et de l’OTAN (en particulier les Five Eyes : Etats-Unis, Canada, Royaume-Uni, Australie, Nouvelle-Zélande) d’éviter ou d’évincer Huawei de leurs architectures 5G. Personne n’est à l’abri d’une porte dérobée ou d’une faille zero day. Ce nécessaire principe de précaution relève aussi d’un protectionnisme déguisé et de la volonté conséquente d’établir des monopoles légaux ou de favoriser des firmes locales ou régionales montrant d’office patte blanche. Aux États-Unis comme ailleurs, la sécurité nationale a l’immense mérite de sa géométrie variable et de ses cinquante nuances de gris…

En France, la “loi Huawei” déroule le tapis rouge aux solutions 5G du suédois Ericsson et du finlandais Nokia et marginalise tacitement la firme chinoise. En Grande-Bretagne, les deux firmes nordiques ont remplacé Huawei auprès de British Telecom. En Allemagne, les autorités considèrent que les risques liés à Huawei demeurent gérables et ne veulent pas frustrer les puissantes industries allemandes, très à cheval sur la connectivité de leurs usines intelligentes et donc sur leur compétitivité.

Ainsi, l’Amérique assiste à l’expansion imminente ou annoncée du Far-East numérique et du techno-capitalisme chinois qui pourraient bousculer l’american way of business en ligne, en restant hors de portée ou largement protégé des GAFA et compagnie… qui devront redoubler d’énergie, d’audace et d’ingéniosité pour se maintenir et affronter les BATX et compagnie. Le choc serait d’autant plus déstabilisant face à des entreprises chinoises mues par des paradigmes et des stratégies souvent éloignées de celles occidentales.

Aux yeux de Washington, Huawei est une boîte de Pandore made in China qui pourrait sonner le glas de la prédominance américaine sur l’Internet. Tous les ingrédients d’une guerre technologique sont réunis.

Far-West, Far-East

Après maints aboiements en crescendo de Washington contre Huawei (et ZTE), rythmés par des échanges réciproques de “coups de sabre laser” (4), l’administration Trump a émis un décret (5) interdisant temporairement ou définitivement (?) aux sociétés américaines de fournir la firme chinoise en applications et en composants… Pour des raisons de sécurité nationale. La Maison Blanche espère faire d’une pierre deux coups : menacer ou enrayer l’expansion de Huawei en Amérique du nord et en Europe et pousser Pékin vers la table des négociations ; le tout sur fond de guerre commerciale et “d’équilibre de la terreur (6) entre des ennemis intimes et mutuellement structurants. 

Consécutivement, Google, Microsoft, Intel, Qualcomm et d’autres entreprises américaines perdraient un très gros client – en l’occurrence le numéro deux (ou trois ?) des smartphones – qui achète chaque année des milliards de dollars en licences logicielles et en composants électroniques. À l’été 2019, l’administration Trump accorde à Huawei un deuxième sursis de 90 jours (7) permettant de poursuivre sa collaboration avec ses partenaires américains… qui craignent sérieusement pour leurs chiffres d’affaires, bénéficient de l’attention de la Maison blanche et, au besoin, savent se faire entendre dans le Bureau ovale.

L’équilibre de la terreur a son versant technologique et la Chine n’hésite pas à asséner ou rendre des coups en douce.

Ces “montagnes russes” de sanctions ont probablement encouragé les firmes chinoises dans leur quête d’indépendance technologique. En quelques semaines, Huawei a officialisé son système d’exploitation open source HarmonyOS destiné aux terminaux fixes ou mobiles et aux objets connectés, et qui ferait office de solution de transition ou de secours à Android (8). Alibaba, homologue et rival chinois d’Amazon, a dévoilé sa puce Xuantie 910 (9) basée sur l’architecture open source Risk-V et dédiée à l’Internet des Objets et à l’intelligence artificielle. Dans les deux cas, le choix de l’open source n’est pas anodin car il s’agit d’attirer autant de fabricants et de développeurs que possible.

Afin de remplacer et concurrencer Google Maps, Huawei s’est associé à l’infomédiaire russe Yandex et à l’américain Booking Holdings pour créer Maps Kits (10). Une association est envisagée avec Alibaba et Tencent en vue de monétiser cette application de géolocalisation et de cartographie.

Ces alternatives techniques sauront-elles muer en alternatives pratiques suffisamment séduisantes et convaincantes sur le marché mondial ? Les échecs cuisants de Windows Mobile et de BlackberryOS ont démontré l’énorme difficulté à fournir un système d’exploitation aussi efficace et aussi intégré qu’Android. En outre, les produits d’Intel et de Qualcomm sont des standards performants, fiables, éprouvés et compatibles avec une diversité de produits technologiques. Toutefois, pour peu que les initiatives chinoises réussissent, les partenaires américains paieraient le prix fort.

L’histoire technologique dira si la stratégie de Washington contre Huawei a porté ses fruits ou si elle n’a été qu’un pétard mouillé. Néanmoins, tout semble indiquer que le duel américano-chinois animera et façonnera l’Internet (ou “les Internets”) dans les prochaines décennies.

Questions à 500 Mo/s par seconde : quel sort subira l’Europe, dépourvue d’industrie d’informatique et de plateforme numérique dignes de ces noms, sous ce choc de titans ? Sera-t-elle cantonnée aux fonctions d’observation, de consommation et de réglementation pendant que les Etats-Unis et la Chine font la technologie et des affaires ? Assistera-t-elle, passive ou impuissante, à “la digestion de son monde” par les plateformes américaines et chinoises ?

Charles Bwele, Electrosphère

Annexes :

  1. Pourquoi l’Amérique nous espionne | Olivier Chopin, Hikari Editions
  2. Les plateformes numériques digèrent le monde | Fred Cavazza
  3. L’Europe et la 5G : le cas Huawei | Institut Montaigne
  4. Cybersécurité : la « stratégie du sabre laser » au cœur de la guerre commerciale entre la Chine et les États-Unis | Thierry Berthier, The Conversation
  5. Chine/Etats-Unis : Game of phones | France Culture
  6. Destruction mutuelle assurée, l’équilibre de la terreur à l’épreuve des tarifs | Le Grand Continent
  7. Huawei : les autorités américaines accordent un délai de 90 jours au groupe | Le Journal du Geek
  8. HarmonyOS : qu’est-ce que le nouvel OS de Huawei et à quoi servira-t-il ? | Frandroid
  9. Alibaba Xuantie 910 : Une puce taillée pour les traitements IA et IoT | Le Monde Informatique
  10. Huawei va lancer son concurrent à Google Maps en octobre 2019 | Frandroid

Cet article 5 ans d’EchoRadar – Une expansion chinoise ou une obsession américaine nommée Huawei est apparu en premier sur EchoRadar.eu.

5 ans d’EchoRadar – Spatial: Vers l’Infini et l’au-delà !

Par Thomas Schumacher

Il serait aventureux d’affirmer que le secteur spatial, à l’époque où nous vivons, a pu être considéré une seule seconde comme secondaire dans les politiques stratégiques des grandes (ou moins grandes) puissances de ce monde. Cependant, il est intéressant de se pencher sur ces 5 dernières années. Retour sur un incroyable alignement des astres qui a remis l’espace au centre des priorités stratégiques. 

 

2014: devant les premières tentatives (et les échecs) de SpaceX pour récupérer, régénérer et ré-employer ses boosters dans un délai record de quelques mois, l’Europe se cherche, et hésite sur l’avenir à donner à son programme Ariane, dont les coûts de lancement sont désormais trop chers pour le marché qui se dessine. Berlin plaide alors pour une évolution d’Ariane 5, tandis qu’une bonne majorité de nos industriels déclare publiquement ne pas croire dans les technologies de réutilisation, tout en dénonçant par ailleurs le système de financement du New Space américain, dont les grandes figures agissent il est vrai sous confortable perfusion de fonds publics émanant de la NASA… et du Pentagone.

Au tournant de l’année 2015, les Européens auront finalement choisi de lancer le programme Ariane 6, avec objectif 2020, tandis que SpaceX et Elon Musk réaliseront progressivement leur pari de faire revenir les premiers étages pour ensuite les reconditionner, et ce sous les applaudissements de la planète.

 

2019: Emmanuel Macron annonce le 13 juillet que la France fait de sa stratégie spatiale de défense une priorité, ce qui entraîne la création un commandement spatial militaire à Toulouse, sous l’égide de l’Armée de l’air qui deviendra même à terme, “Armée de l’air et de l’espace”. Thomas Pesquet, astronaute de son état, est lui devenu une véritable star et l’ambassadeur des ambitions scientifiques françaises.

SpaceX récupère désormais (première en août 2019) la coiffe de son lanceur, et fait maintenant face à une concurrence démultipliée. Les lancements privés voient également le jour en Chine, où au milieu du nombre faramineux de lancements institutionnels, les première firmes estampillées “New Space” commencent à montrer de véritables compétences, y compris dans la récupération. La récupération, l’Europe y croît désormais, et étudie plusieurs pistes pensées comme des briques technologiques qui pourraient servir le futur d’Ariane ou Vega. Côté New Space en revanche, nous n’y sommes pas, mais la graine est néanmoins plantée.

Le monde de 2019 est sur une série d’avancées scientifiques extraordinaires: on photographie des trous noirs, découvre des exo-planètes par centaines, se déplace dans l’espace avec une voile, des missions visent bientôt chaque corps de notre système solaire… et cela avec l’engouement du grand public.

Sur le plan stratégique, quand à Paris/Bruxelles ou Moscou, on s’inquiète pour ses capacités souveraines, la géolocalisation notamment, à Washington et Pékin, on pense suprématie. Et 50 ans après, tous regardent désormais à nouveau vers la Lune, avant poste vers les ressources innombrables qui intéressent même Indiens ou Israéliens.

 

Bien évidemment, ces faits, ces dates, ne suffisent à contempler l’exhaustivité des programmes en cours, la plupart ayant d’ailleurs été décidés, et même démarrés dans la décennie 2000, voire avant. Par exemple, quand l’atterrisseur Philae fait la fierté de l’Europe en se posant sur la comète Tchouri en septembre 2014, cela fait 10 ans que la sonde qui l’emporte, Rosetta, a quitté notre orbite.

Car à notre petite échelle de terrien, le système solaire, c’est déjà le temps long, très long. Il n’en demeure pas moins que lors des cinq dernières années, tout semble avoir changé. Dans une atmosphère moribonde dictée par les coupes budgétaires et annulations qui touchent la NASA sous les administrations Bush, puis Obama, nos chers programmes spatiaux vont dans cette période percuter de plein fouet la révolution du New Space, mais aussi celle des réseaux sociaux. L’effet combiné va se révéler particulièrement efficace.

Le New Space d’abord, va voir l’entrée fulgurante sur le marché des nouveaux acteurs issus de secteurs traditionnellement non liés à l’espace: en ligne de mire, l’exploitation des marchés satellitaires, éventuellement le tourisme mais bien plus encore, l’exploitation des ressources du système solaire. Ainsi fin 2015, dans une certaine discrétion, l’administration américaine légiférait en faveur de l’exploitation privée des ressources des astéroïdes. Une révolution alors que depuis plus d’un demi-siècle, le droit international sacralisait l’espace comme un bien de l’humanité toute entière (et un lieu démilitarisé, chose également remise en cause dans les faits). Ce renouveau de l’écosystème amène avec lui investissements privés et recherche de productivité, entraînant à la fois une baisse des coûts et une accélération de l’innovation.

Et le New Space, avec Elon Musk en son sommet, a besoin pour avancer de générer du buzz, en jouant des formes modernes, et parfois loufoques (une Tesla dans l’espace), de communication. Une pratique dont vont rapidement s’emparer les agences spatiales nationales, avec plus ou moins de réussite, la NASA multipliant les effets d’annonces, stratégie critiquée par certains. L’ESA, et surtout notre CNES, ne s’en sortent pas trop mal en la matière, ayant totalement revu leur communication et étant aujourd’hui bien plus présents sur les réseaux sociaux, avec des présentations pédagogiques souvent de qualité. Aujourd’hui, chaque décollage d’Ariane est diffusé en live sur vos réseaux. Mais ce sont toujours des t-shirts NASA que l’on voit dans les rues de Paris…

 

En France donc, acteur historique d’envergure mondiale, le grand moment de ces 5 dernières années aura bien sûr été le séjour de 6 mois de Thomas Pesquet sur l’ISS entre 2016 et 2017 (mission Proxima/ photo d’illustration ©ESA). Grâce à une communication maîtrisée comme rarement dans ce pays, l’ESA, le CNES, mais surtout la maison France auront su se trouver un formidable ambassadeur. A tel point qu’on murmure le nom de Thomas Pesquet pour des missions vers la Lune, autour de laquelle une future station internationale “LOPG” devrait orbiter à l’horizon 2025.

Côté hard power, les choses se précipitent. Conscient des enjeux renouvelés du domaine spatial, notamment chez les puissances majeures de la planète, le Président Macron entend en faire une priorité. Si déjà, la Loi de Programmation Militaire prévoyait un budget conséquent de 3,6 milliards d’euros pour la modernisation des capacités militaires existantes, les récentes annonces concernent le renforcement et la protection de ces capacités, grâce à diverses innovations à moindre coût, principalement incarnées dans les nano-satellites… et le recours à des services privés. Des services qui sont encore l’apanage de nos grands groupes, puisqu’en raison de nos logiques programmatiques lourdes et à échelle européenne (et soumises au sacro-saint principe de retour géographique), ces acteurs destinées à structurer le New Space européen n’ont pas encore émergé. Chaque pays les y pousse désormais, ce qui risque d’entraîner une concurrence parfois meurtrière. Les start-up espagnoles ont par exemple déjà pris de l’avance. Mais concurrence signifie aussi émulation…

 

De façon générale, c’est le monde entier qui regarde de nouveau envieusement vers les étoiles. Quasiment chaque opération sur cette planète, militaire ou civile, est dépendante d’un réseau satellitaire. Il en est tout autant des sciences déterminantes pour la compréhension et la gestion future de notre monde (qui a dit climatologie ?). Aussi la récente et ahurissante tribune d’un collectif de chercheurs en écologie politique, parue dans Libération, et appelant Thomas Pesquet à se prononcer contre l’exploration spatiale, dont les cerveaux et budgets seraient soit-disant plus utiles à la préservation de la planète, est logiquement tombée à plat.

Car la dynamique est nette, franche. Avec la hausse des budgets, la multiplication des programmes… ce sont des emplois, des carrières, des vocations qui se développent. Redevenu “tendance”, le spatial découvre les vents de la globalisation. Et ce second âge d’or semble parti pour durer.

 

Thomas Schumacher.

Cet article 5 ans d’EchoRadar – Spatial: Vers l’Infini et l’au-delà ! est apparu en premier sur EchoRadar.eu.

5 ans d’EchoRadar – Et soudain, le sémantique !

Par Informatiques Orphelines

L’apparition du cyberespace s’est accompagnée de questions relatives à sa nature : n’était-il que la prolongation de l’informatique ? Etait-il un nouvel espace au sens propre du terme “espace” ? De quoi était-il composé exactement ou, en d’autres termes, de combien de couches était-il constitué ?

Source

Rapidement, un consensus naquit sur l’existence des couches physique (ordinateurs, commutateurs, etc.) et logicielle. Nier leur existence aurait été en effet ridicule. Cependant, une controverse plutôt larvée apparut à propos de la couche sémantique, bien que personne ne semblait nier farouchement son existence. Était-elle une couche constitutive de ce nouvel espace au même titre que les deux précédentes, ou n’était-elle qu’une élucubration accompagnant, comme de coutume en ces occasions, un phénomène nouveau ?

D’un côté, certains happy few ont, dès les commencements du cyberespace, attiré l’attention sur cette couche non-technique qui venait hybrider les couches matérielles et logicielles du cyber. Leur réflexion a d’ailleurs fait progresser la connaissance de ce nouvel espace. De l’autre, la majorité évoquait cette couche sans paraître convaincue de sa singularité, mais parce qu’elle leur permettait de ne pas laisser la réflexion sur le cyber aux seuls techniciens. Notons d’ailleurs que cet espace n’était pas vu comme un domaine scientifique, mais comme purement technique, réservé aux geeks, néologisme indispensable pour montrer que ce nouvel espace était bien étrange.

Néanmoins, cette couche sémantique nourrissait quelques débats justifiés par le fait que le cyber s’immisçait de plus en plus dans la vie quotidienne de chacun par le développement d’applications en tout genre, et que les aspects scientifique et technique ne pouvaient à eux seuls expliquer cette immixtion. Pourtant, ces débats demeuraient plutôt superficiels : si les capacités techniques du cyber étaient bien observées et analysées, il n’en était pas de même pour la couche sémantique, bien que son importance était rappelée régulièrement, même si c’était en « sautant sur sa chaise comme un cabri en disant sémantique, sémantique », la majorité des débatteurs semblant avares d’explications claires. Cela était vraisemblablement dû au fait que leur pensée était trop complexe, trop subtile, trop intelligente quoi, pour que tout un chacun les comprenne.

Et, alors que tout semblait ordre et beauté, luxe, calme et volupté, une armée de trolls fit soudainement irruption dans leur cyber merveilleux, tout couverts de sang et de poussière, semant partout l’effroi dans leur armée entière : référendum sur l’indépendance de l’Écosse perdu de peu (heureusement), élection de Trump, Brexit, présence de Marine Le Pen au second tour de la présidentielle française… Ces quatre trolls de l’apocalypse jetèrent la consternation et semèrent le désarroi dans un cyber bien huilé.

Tout se passait alors comme si la couche sémantique, négligée pendant des années par des vendeurs de vent, faisait soudainement irruption, tel un serpent qu’ils auraient couvé en leur sein sans s’en rendre compte.

Après un moment de panique dû à l’absence d’explication rationnelle, les fake news vinrent à a rescousse de ces bonimenteurs. Ils n’avaient pas été pris de court, c’est simplement qu’un phénomène nouveau, corollaire de la nouveauté du cyber, était apparu. L’alt truth d’abord qui finit par atteindre son paroxysme dans les fake news. Notons que la définition de ce nouveau terme peine à émerger, tant il semble difficile de le départager des bobards, intoxications, feintes, mensonges et consorts. Fort heureusement donc, telles un Antéchrist moderne précédant les quatre trolls de cette apocalypse précédemment nommés, les fake news étaient la cause de ce désordre, et de même que l’Antéchrist, il était nécessaire de les enfermer pour l’éternité.

Ceci étant dit, il est indispensable de répondre posément à la question : le sémantique constitue-t-il une véritable couche du cyberespace occultée par la fascination de la technique qui fait oublier le principe de réalité, ou sommes-nous face à l’émergence d’un phénomène nouveau que personne n’avait vu venir et qui pourrait être un espace informationnel ?

Trois exemples serviront à démontrer que, quoi qu’on en dise, l’Internet ne peut se concevoir sans la couche sémantique : la cybercriminalité, le développement des entreprises, et les rapports entre l’Internet et les États.

La cybercriminalité

Affirmer que la cybercriminalité, dans son ensemble, prouve l’existence de la couche sémantique serait aller un peu vite en besogne. Il est en effet possible de décomposer la cybercriminalité en deux sous-catégories (sans prétendre à l’unicité de cette décomposition) :

– la criminalité « de vive force » qui consiste à voler de façon brutale et à s’exfiltrer rapidement une fois le forfait accompli ;

– la criminalité « par la séduction » qui consiste à berner la victime en lui contant une histoire qui la séduit, tel l’espoir d’un gain financier rapide ou d’une rencontre amoureuse de nature à transformer sa vie, ou en la persuadant de faire ce qu’elle ne ferait jamais à tête reposée.

Si la première forme de cybercriminalité ne nécessite qu’une faible utilisation de la couche sémantique du cyberespace (tels les vols de numéros de cartes de crédits), la seconde en implique une réelle utilisation. Il faut en effet pousser une personne à lui faire croire ou lui faire faire ce qui est, rationnellement parlant, totalement absurde.

Il y a ainsi de grandes chances pour que Tatiana, superbe blonde aux yeux bleus et aux mensurations affolantes se languissant désespérément d’une réponse à ses messages d’amour en Ukraine, Biélorussie voire en Russie, s’appelle en réalité Boris ou Dimitri, et soit au choix un golgoth de 2 mètres et 120 kg ou un adolescent boutonneux. Ce numéro d’artiste serait digne des plus grands transformistes s’il n’était le fait d’escrocs qui ont identifié le point faible de leur correspondant et en abusent.

Mentionnons également l’escroquerie dite « à la Nigériane » et ses variantes promettant une fortune rapide en aidant une personne dans le besoin à transférer de l’argent sur le compte d’un parfait inconnu choisi au hasard, moyennant un versement initial substantiel pour amorcer la pompe.

Ces arnaques réalisées initialement par courriel ont su quitter leur medium de prédilection pour se diversifier et se développer via les réseaux sociaux, pures créatures du cyber. Jack Nicas a ainsi rendu compte le 28 juillet dernier dans les pages du New York Times de la façon dont Renée Holland a envoyé des milliers de dollars à un de ses amis Facebook qu’elle croyait être un ancien combattant dans le besoin1. Étonnamment (?) il n’était ni ancien combattant ni dans le besoin…

Alors qu’on ne cesse de parler de ces arnaques et de mettre en garde contre elles, pourquoi continuent-elles de fonctionner ? Peut-être pour les mêmes raisons que les arnaques au faux président prouvent leur longévité2… Un mélange d’ennui dans la vie quotidienne auquel on ajoute des relations humaines (professionnelles ou privées) perfectibles, bref un terreau favorable (une insatisfaction réelle) conjugué à un point faible (besoin de reconnaissance, appât du gain, quête sentimentale), éléments propices à l’apparition d’un vendeur de lendemains qui (dé)chantent.

Ce qui est cependant loin d’être une nouveauté.

Baltasar Gracian3, dans l’Art de la prudence, mentionnait ainsi la vulnérabilité de chacun : « Tous les hommes sont idolâtres, les uns de l’honneur, les autres de l’intérêt, et la plupart de leur plaisir. L’habileté est donc de bien connaître ces idoles pour entrer dans le faible de ceux qui les adorent : c’est comme tenir la clé de la volonté d’autrui4. »

Notons également que, dans ce domaine, les cybercriminels n’ont rien inventé. Ce type d’escroquerie existait déjà dans le monde réel, l’Internet leur a simplement offert de nouveaux horizons.

Les entreprises

L’irruption de l’Internet dans le monde des affaires a poussé les entreprises à se transformer. Souvenons-nous que les prémisses de cette transformation ont été accompagnées d’un enthousiasme déraisonnable qui s’est notamment traduit par une forte bulle spéculative durant laquelle il suffisait presque d’inscrire le terme Internet dans son business plan pour lever des fonds.

Le temps a fait son œuvre, et l’inscription de ce mot magique dans leurs documents n’a pas suffi à sauver les entreprises au plan de développement fumeux ou indigent.

Malgré le temps écoulé depuis l’apparition des fameuses « autoroutes de l’information », la transformation des entreprises n’est pas encore achevée. Elle se poursuit, quand bien même le terme utilisé a changé et qu’on parle plus volontiers de numérisation5.

Ceci étant posé, si l’on met de côté les éventuelles querelles sémantiques (paradoxal dans ce billet, je vous l’accorde), on remarque que l’Internet a d’abord été vu comme un nouveau canal d’achat et de réservation de marchandises, quelle qu’en soit leur nature : tant matériels qu’immatériels, tous les biens ont pu être achetés ou réservés via le net. Tel fut le premier mode d’utilisation de l’Internet par les entreprises.

Par la suite, elles ont développé et continuent de développer leurs canaux de communication avec leurs clients, tout simplement parce que ces derniers les ont poussées à agir en ce sens. Le développement des smartphones a accru la nécessité de diversifier les canaux, dans la mesure où les clients voulaient pouvoir communiquer avec l’entreprise via ce medium. Pourtant, les entreprises n’ont pas suffisamment écouté leurs clients pour anticiper ce qui pouvait être une de leurs demandes, elles se sont contenté de suivre le mouvement, souvent parce que leurs concurrents plus proactifs s’y étaient mis. Beaucoup ont donc adopté une posture réactive, ce qui peut laisser perplexe quant à leur compréhension du cyber. Notons qu’à l’heure actuelle cette prise en compte est loin d’être terminée, et que même si des canaux de communication diversifiés existent entre l’entreprise et ses clients (courriel, SMS, téléphone, twitter, etc.), les messages émis par les clients vers l’entreprise via ces canaux ne sont pas toujours lus avec attention : beaucoup demeurent sans réponse. Sont-ils tout simplement lus ? Citer les entreprises défaillantes serait bien trop long, et la liste des entreprises lisant l’intégralité des messages qui leur sont adressés serait bien plus courte à énoncer.

Ce retard à prendre en compte les différents canaux de remontée de l’information montre que les entreprises n’ont pas pris conscience de la dimension sémantique du cyberespace, car les canaux de communication ne sont pas tant une manifestation de la technique que celle de l’importance de la sémantique. Quand un client s’adresse à une entreprise, c’est qu’il a souvent quelque chose à lui dire et qu’il attend en retour une écoute et une réponse.

Car une entreprise a besoin, pour vendre ses produits, d’un minimum d’avis de ses clients : le temps où Henry Ford pouvait ironiser sur le choix de la couleur des voitures est révolu. Si le produit ne plaît pas aux clients, ils ne l’achèteront pas, ou du moins pas en quantité suffisante pour que l’entreprise en retire les bénéfices espérés6.

Les entreprises vivent donc un paradoxe, car l’attention à la couche sémantique est indispensable à leur succès. En témoigne le livre Le seigneur des robots d’Arnaud de Lacoste7 dans lequel l’auteur évoque une conversation ininterrompue entre l’entreprise et ses clients, l’entreprise devant être tout particulièrement attentive aux « moments de vérité » durant lesquels la qualité de l’échange entre l’entreprise et le client doit être d’une grande qualité. Et pourtant, elles semblent ne pas y porter un grand intérêt pratique, contredisant en cela leurs discours dans lesquels l’occurrence du terme confiance est importante, oubliant qu’on ne peut faire confiance à une personne ou une organisation qui ne nous écoute pas.

Et le paradoxe est consommé quand on se rend compte que de plus en plus d’entreprises jouent ou tentent de jouer sur les émotions de leurs clients. Même le MEDEF, en son temps, voulait « réenchanter l’entreprise8. »

Les entreprises agissent donc comme si elles avaient conscience qu’elles étaient en retard dans la prise en compte de la couche sémantique du cyber, et que la seule solution qui s’offrait à elles pour le combler était d’engranger le plus possible de données personnelles de leurs clients. Données qui prouvent l’importance de la couche sémantique de l’Internet, car beaucoup d’informations peuvent en être extraites, même si le lien entre les données collectées peut paraître ténu.

Les États

On aurait pu penser que devant la rapidité de l’appropriation de la couche sémantique par les cybercriminels et la différence de succès des entreprises selon qu’elles l’aient ou non prise en compte, les États auraient une conscience aiguë de la situation et de ses conséquences potentiellement dévastatrices. Mais, alors que « commander c’est prévoir », les États ont encore expérimenté la surprise, une fois de plus à leurs dépens. Et pourtant, comme le doit l’entreprise, un État se doit de dialoguer avec ses citoyens, car ne pas le faire revient à terme à s’en couper, ce qui est préjudiciable aux États démocratiques, mais égal aux États autoritaires.

Vint tout d’abord l’émergence des « printemps » dans des États dont les standards de la démocratie ne sont pas les nôtres9, à propos desquels des communicants de renom (donc a priori experts es sémantique) déclarèrent que les communications via l’Internet les avaient facilités. Cette immixtion inattendue et intense de la couche sémantique dans la vie politique a fait prendre conscience au plus grand nombre de son existence, puisque une forte médiatisation a accompagné ces printemps10.

Il faut croire que la secousse n’était cependant pas assez forte pour réveiller les États occidentaux, ou que leurs gouvernements ont cru que ce phénomène ne pourrait leur arriver, car leur prise de conscience de ce potentiel problème n’eut lieu qu’avec les récentes élections évoquées dans l’introduction. Comme si les urnes bourrées et les élections truquées n’avaient existé que dans les imaginaires complotistes et que les résultats des élections n’étaient pas disponibles tout d’abord sur les réseaux sociaux…

Prenons le cas de la dernière élection présidentielle américaine. Si l’on en croit ce qui se dit, Trump n’a été élu que parce que Poutine aurait, sous les dorures du Kremlin, ordonné aux trolls de la cyber apocalypse d’influencer les électeurs américains pour qu’ils se détournent du vote Clinton. Les réseaux sociaux auraient ainsi favorisé l’élection d’un président d’autant plus mal élu que Clinton avait gagné le vote populaire11.

C’est oublier qu’à leur époque, les campagnes d’Obama étaient citées en exemple de l’utilisation du cyberespace comme lieu de campagne électorale. Ainsi, le prix Nobel de la paix aurait loué des espaces publicitaires dans des jeux vidéos pendant sa campagne pour que, même en se divertissant, les familles américaines sachent que leur salut résidait en Barack. Home sweet home

Et pourtant, une étude menée par Samuel Woolley dans neuf pays montre que les États sont prêts à tout pour créer du consentement grâce à des armées de bots12. Dans neufs pays, 12 chercheurs ont épluché les preuves et stigmates d’une propagande étatique sur les réseaux sociaux. L’étude tend à montrer qu’il existe des volontés gouvernementales de prendre en otage les réseaux sociaux afin de les rendre plus légitimistes à leur égard, et que cette volonté d’influence semble traverser tous les grands systèmes politiques mondiaux.

Dans un registre moins polémique (quoi que…) le 100° anniversaire de la guerre de 14-18 a montré l’incompréhension de la couche sémantique par l’État français, totalement dépassé par l’initiative « un jour un poilu », et qui se résolut à la mentionner après que des twittos ont clamé leur incompréhension de cet oubli13.

Depuis lors, la menace a été prise en compte et les entreprises créatrices des réseaux sociaux collaborent sans aucun problème avec les États, reléguant aux oubliettes les apparentes pudeurs d’Apple à coopérer avec le FBI pour décrypter les messages stockés dans les I-phones. C’est ainsi que Facebook n’a aucun scrupule à supprimer, à la demande des États, des comptes qui diffuseraient de fausses informations. Et dans le même ordre d’idées, Twitter supprime des comptes qui tiennent des « discours de haine ».

L’abondance des projets et textes de lois pour « protéger » la démocratie en réduisant de facto la liberté d’expression sur les réseaux sociaux est-elle la preuve que les États auraient fini par prendre en compte la couche sémantique du cyber ? À moins qu’ils raisonnent encore en termes d’autoroutes de l’information, étant entendu que ces autoroutes ne peuvent être que concédées…

Conclusion

Ce bref survol de quelques activités menées dans le cyberespace montre que la couche sémantique est bien un de ses éléments constitutifs et ce, depuis la création de cet espace. Il prouve également l’incompréhension de cet espace par ceux qui n’ont pris en compte que tardivement cette couche.

Une organisation qui continuerait de ne pas la prendre correctement en compte montrerait que, malgré ses discours apaisants et pédagogiques, elle ne conçoit la communication que de manière descendante. Or « qui n’est pas bon entendeur ne peut pas être bien entendu14. »Ce refus de prendre en compte un avis contraire au sien engendrera une défiance qui s’étendra de plus en plus.

Et cette défiance s’aggravera avec ce qu’on appelle pompeusement les « deepfakes », prévisibles depuis un certain temps mais que l’on se plaît à déplorer comme s’ils venaient subitement de sortir d’un recoin caché du cyberespace. (vidéo the goodfight).

Alors, qui croire. Les États ? Mais les croire sans restriction ne reviendrait-il pas à reconnaître l’existence d’un ministère de la vérité ? Et comment faire la différence entre un État qui trompe et un État respectueux de la vérité15 ?

Ces phénomènes ne sont certes pas nouveaux, mais leur acuité et leur profusion peut donner l’impression contraire, alors qu’en fait la couche sémantique est constitutive des relations sociales, même ante Internet. De nombreux auteurs des temps anciens l’ont d’ailleurs souligné, sans pour autant la mentionner, car ce terme n’était pas dans leur vocabulaire. Or l’Internet a cette vertu qu’il force à expliquer ce qui, par habitude, semblait acquis, agissant ainsi comme un révélateur des intentions.

La question qui se pose in fine est de savoir comment résoudre ce pullulement de faux sur le net. La solution la plus simple consiste à s’appuyer sur le principe de réalité. Dans un temps de défiance généralisée, il faut savoir reconnaître ce qu’est une personne en ne s’arrêtant pas à son apparence mais en sachant discerner l’homme qui donne des paroles d’avec celui qui donne des effets : « Les sots et les présomptueux se payent de vent. Les paroles doivent être les gages des actions et par conséquent, avoir leur prix16. »

Cette solution est simple, mais difficile à mettre en œuvre, surtout dans nos temps post-modernes où le relativisme est un absolu. Mais sortir du relativisme peut être compliqué, surtout lorsqu’il a pris la force d’un absolu17 : « lorsque les hommes tournent le dos au mensonge, le mensonge cesse purement et simplement d’exister. Telle une maladie contagieuse, il ne peut exister que dans un concours d’homme18. »

Le cyber n’est donc pas qu’un révélateur, il peut aussi être le moyen de reprendre contact avec la réalité : après s’être focalisé sur la technique, il est désormais logique qu’au-delà des vains discours il se focalise sur l’homme réel, et non l’homme qu’on voudrait que l’autre soit.

Informatiques orphelines


1L’histoire est lisible dans les pages du journal ou via la compte twitter de l’auteur @jacknicas

3Jésuite et écrivain espagnol (1601 – 1658).

4Gracian, l’Art de la prudence, n° 27.

5Il peut être parfois plus poli de ne pas demander en quoi consiste la dite numérisation de l’entreprise…

6Ce retour en arrière sera cependant possible si nos sociétés connaissent de nouveau une période de pénurie.

7Éditions Débats Publics, 2017.

9Ce qui prouve qu’un État totalitaire doit quand même prendre en compte la couche sémantique du cyber.

10Les complotistes russophiles (pardon pour la tautologie) noteront que ce n’est que lorsque les États sont menacés que la presse parle de la couche sémantique. Y aurait-il des liens sombres et obscurs entre presse et États ?

11Rappelons que l’élection US ne se joue pas au « vote populaire » mais à celui des « grands électeurs », système qui satisfaisait tout le monde… avant Trump.

13Malgré cette récupération, ce centième anniversaire a sombré dans le ridicule de la novlangue dont on sait depuis Orwell qu’elle vise à l’oubli du passé, entre « itinérance mémorielle » et « civils que l’on a armés ». Ce centenaire s’inscrivit ainsi dans la droite ligne de la non participation de la France au bicentenaire d’Austerlitz à Pratzen et à la présence de son porte-avions aux commémorations de Trafalgar.

14Gracian, l’Art de la prudence, n° 25.

15« Certes l’équité n’a guère de partisans, beaucoup de gens la louent, mais sans lui donner entrée chez eux. » Gracian, l’Art de la prudence, n° 29.

16Gracian, l’Art de la prudence, n° 166.

18Soljenitsyne, Vivre sans mentir in Révolution et mensonge.

Cet article 5 ans d’EchoRadar – Et soudain, le sémantique ! est apparu en premier sur EchoRadar.eu.

5 ans d’Echoradar : Le bouleversement (et la profondeur) de Trump

Par Olivier Kempf

Quel a été le plus important événement géopolitique de ces cinq dernières années ? Une telle question suggère qu’on ait le recul suffisant pour apprécier la portée des événements. Or, il arrive que des événements passent inaperçus sur le moment et ne révèlent leur importance que dans la longue durée, surtout en matière géopolitique. Cette discipline privilégie en effet souvent une approche du temps long qui lui permet de déceler les grands mouvements tectoniques. De même, le qualificatif d’important pose difficulté : de quelle échelle s’agit-il ? Pour qui est-ce important ? Par exemple, une vision française différera d’une vision européenne, chinoise ou mondiale… Malgré toutes ces objections de méthode, risquons-nous.

Source

 

L’élection de Donald Trump en 2016 constitue bien un événement qui affecte tous les points de vue. De plus, il s’inscrit dans une histoire plus longue que les seules trois dernières années car il concrétise des tendances initiées par George W. Bush (sur les relations transatlantiques) et Barack Obama (sur le pivotement asiatique). Surtout, il affecte la première puissance globale, ayant des intérêts et des influences dans toutes les parties de la terre. Elle fut la seule depuis la fin de la Guerre froide même si on observe depuis une décennie la montée en puissance de la Chine. Mais la faillite de Lehman Brothers en 2008 ou la maîtrise du pouvoir chinois par Xi Jin Ping depuis 2013, qui pourraient constituer d’autres événements mondiaux, sont advenus avant la période considérée. Enfin, l’accession de Trump au pouvoir constitue autant la concrétisation d’une tendance préalable que l’établissement d’un nouveau cours géopolitique. C’est un tremblement de terre en ce qu’il est la résultante de pressions antérieures, tout comme il produit un nouvel état des choses profondément différent de ce qui existait auparavant et auquel on ne pourra pas revenir.

La fin de la mondialisation heureuse

Alain Minc, le gourou influent des puissants et des pouvoirs, quelle que soit leur couleur politique (signe peut-être de leur caractère incolore), avait inventé la notion de Mondialisation heureuse, dans un livre de 1997 (ici). Il poursuivait en cela les annonces de Fukuyama (La Fin de l’histoire) et du précurseur Robert Reich (L’économie mondialisée, 1991), avant le livre de Thomas Friedmann qui en 2006 annonçait : La terre est plate. Tous ces prophètes de bonheur écrivaient avant le crash de 2008 qui a constitué une profonde rupture : elle fut politique mais surtout, elle marqua le moment où l’on commença à douter de la mondialisation. Il y avait bien eu des débats auparavant mais ils opposaient de vieux gauchistes dénonçant un système capitaliste forcément critiquable et de jeunes réalistes qui, non contents de s’enrichir, se satisfaisaient de faire sortir la planète de la pauvreté : réunir richesse et confort moral, voici une situation inconnue quand on était libéral. Jusque-là, on avait le cynisme un peu gêné. Avec la mondialisation, tout allait pour le mieux.

Bien sûr, il y avait eu cet accident du référendum de 2005 où une majorité de Français (et de Néerlandais) avaient refusé la Constitution européenne. Ce fut vu à l’époque plus comme l’effet d’un retard (le fameux retard français, si ataviquement dénoncé par les esprits forts) que comme le signal faible de ce qui allait advenir. Au fond, le signal était trop fort pour être un signal.

Patatras ! La faillite de Lehman Brothers lança une série de mauvaises nouvelles : crise financière, puis crise de l’euro, puis crise de l’Europe (mais il paraît que celle-ci est toujours en crise et que la crise l’aide à grandir et que donc ce n’est pas grave). Il reste que depuis 2008, beaucoup doutent des promesses de prospérité pour tous assurées par l’UE. Celle-ci reste soutenue dans l’opinion mais plus comme une défense que comme une ambition. On est passé du projet au repli. L’UE nous mettait dans le train de la mondialisation, la crise de cette dernière rétroagit sur le primat géoéconomique qui présidait à la construction européenne.

2008 fut aussi l’année du grand retournement en Chine. Plus exactement, ce fut le moment où le gouvernement chinois s’aperçut qu’il ne pouvait plus faire confiance à l’Occident : d’une part à cause de cette crise qu’il dut combler, pour sa part, avec un surcroît d’endettement (chose qu’on a oubliée) ; mais aussi à cause des nombreuses critiques qu’il reçut, alors qu’il organisait les JO de Pékin, à propos du Tibet libre (ce qu’explique très bien E. de La Maisonneuve, dans son dernier ouvrage Les défis chinois, qu’il faut impérativement lire si on veut comprendre stratégiquement quelque chose à la Chine contemporaine). Désormais, Pékin va réfléchir à une nouvelle manière d’ordonner le monde, plus conforme à ses intérêts et à sa vision et distincte de la « mondialisation », représentation géopolitique construite et véhiculée par l’Occident.

2008 fut enfin l’année de l’élection de Barack Obama. Souvenez-vous, il fut vécu à la fois comme une rupture (le premier président noir) mais aussi comme un retour aux fondamentaux américains. On ne vit pas qu’il mit en œuvre résolument le « pivotement » (traduction exacte du pivot américain), c’est-à-dire la bascule de priorité géopolitique des Etats-Unis de l’Atlantique vers le Pacifique. Il le fit de façon polie et mesurée, rassurant ainsi les atlantistes européens, mais le mouvement était pris.

Ces trois constats indiquent que le retournement du monde avait commencé dès 2008. C’est pourquoi Trump n’est pas aussi nouveau ni surprenant qu’on l’a dit (on relira ici avec attention l’écho du bocal accordé sur le sujet par J. Ghez, un des meilleurs spécialistes français des Etats-Unis), même si son élection marque un tournant très important, rendant visible ce qui était présent mais latent.

Les options radicales de Trump

Provoquons : Trump est bien plus profond qu’on ne le croit.

Profond ne signifie pas ici qu’il soit évolué, subtil, élaboré, cultivé, construit… Ces caractéristiques étaient celles de son prédécesseur et en cela, Trump diffère profondément de l’élégant 44ème POTUS. Mais avec sa brutalité, ses éruptions “tweetesques”, son manque de maîtrise de soi et tout simplement d’éducation, Trump manifeste quelque chose de beaucoup plus profond : il est en effet doté d’une intuition impressionnante, qualité qu’on n’enseigne pas à la faculté et que les analystes politiques peinent à reconnaître comme telle. Et pourtant, Trump est muni d’une intuition très profonde qui explique d’ailleurs son succès électoral, mais aussi que malgré le bruit furieux dont sa présidence est environnée, elle ne se déroule pas si mal, permettant à « The Donald » d’avoir des chances sérieuses d’être réélu (à tout le moins, sa défaite est bien loin d’être assurée quand on observe le désastre idéologique qui prévaut dans le camp démocrate).

L’intuition, peut-être bien loin de la raison, mais vraie motivation pour l’action. Souvent, on ne voit que les voiles du bateau pour comprendre sa manœuvre. On oublie la quille alors que le profilage de celle-ci décide d’énormément de choses. L’intuition, c’est la quille des hommes d’Etat. Et elle est souvent omise dans le diagnostic politique et géopolitique.

Et sa première intuition est « globale », au sens à la fois anglais et français. Car il s’agit du rapport au monde et à la mondialisation (la globalization anglo-saxonne) : Trump dit d’abord que l’actuel mode de gouvernance de la planète ne convient plus aux Etats-Unis. La surprise est totale chez beaucoup, tant nous étions persuadés que la mondialisation se faisait justement au profit des Etats-Unis : c’est ainsi en tout cas que nous l’avions comprise, lorsqu’elle se mit en place après la guerre froide. Sauf que c’était vrai au début mais que peu à peu, d’autres en avaient tiré profit et notamment la Chine et l’Allemagne. Nous ne répéterons pas ici à quel point il y a à nouveau un problème allemand en Europe (voir La Vigie n° 115, ici). Force est de constater que l’Allemagne a su tirer profit de la mondialisation et imposer un déséquilibre majeur en Europe. Quant à la Chine, lancée dans un gigantesque rattrapage lancé par le maître Deng en 1979, plus personne ne doute qu’elle soit une actrice majeure de cette mondialisation qu’on croyait américaine : si elle fut initiée au début par les États-Unis, à leur grande surprise d’autres en tirent de plus grands bénéfices.

Trump a donc délaissé les mantras qui nous ont bercé : celui de l’échange ricardien profitable à toutes les parties avec spécialisation dans le facteur de production le plus adéquat (ce dont les meilleurs économistes doutent désormais), ou encore celui du fameux gagnant-gagnant, où toutes les parties prennent avantage à un gâteau qui croît. Trump écoute son instinct, son intuition, dans une logique malthusienne : les gains sont limités et celui qui gagne quelque chose le fait aux dépens de l’autre. Cette utilisation maximale par d’autres des nouvelles règles du jeu (règles de l’échange) motive les récriminations de l’Américain à l’encontre des tricheurs (car pour lui, il y a logiquement une triche dans l’utilisation des règles à son profit).

Cette perception globale de la mondialisation entraîne les nouveaux rapports qu’il introduira avec « les autres ». Ce sera donc deux rapports de force (la seule méthode qu’il connaît) avec d’un côté les Chinois, de l’autre les Européens. Ceux-ci se voient même accusés d’être des « ennemis », le mot révélant l’attitude psychologique de  Trump.

Ce faisant, il bouscule un ordre du monde auquel nous étions habitués. Il introduit très précocement un rapport de force avec Pékin qui ne s’y attendait pas si tôt et demeure embarrassé : voici donc le président Xi obligé de faire un discours en faveur du libéralisme à Davos, louangé pour l’occasion par les nombreux partisans de l’ordre ancien (qui ignorèrent allègrement l’absence de libéralisme politique au sein de l’Empire du Milieu). Quant à Angela Merkel, elle connaît avec Trump une nouvelle déstabilisation qui vient marquer une fin de règne pour le moins difficile.

La remise en cause de la mondialisation pousse à celle du multilatéralisme. Bien sûr, tout le monde se lamentait hypocritement sur l’inefficacité de l’ONU dont chacun constatait la réforme impossible mais tout le monde s’en contentait. Trump passe outre et met bas les accords bilatéraux : TPP transpacifique, JCPOA iranien et plus récemment, Traité des Forces Nucléaires Intermédiaires. Même l’ALENA a été remis en cause au grand dam des voisins mexicains et canadiens.

De ce point de vue, les théâtres de la Russie et du Moyen-Orient sont secondaires. Voyant chez Poutine un homme de force (le modèle le séduit) il n’hésite pas cependant (alors qu’il est accusé par ses adversaires démocrates d’en être l’otage) d’accroître les sanctions ou de sortir du FNI (probablement pour retrouver des moyens sur le théâtre chinois, il faut le noter). Quant au Moyen-Orient, il vise d’abord un formidable accord commercial avec le royaume saoudien, quitte à épouser les fantasmes anti-perses de ce dernier. Pour le reste, il n’hésite pas aux coups, notamment sur la question nord-coréenne même s’il se fait probablement duper par Kim.

Nous voici sortis du multilatéralisme : La politique trumpienne a installé un nouveau régime dual et même duel : il ne s’agit pourtant pas d’un nouveau régime bipolaire, comme du temps de la guerre froide. En effet, l’affrontement entre les Etats-Unis n’entraîne pas un alignement des puissances derrière les deux chefs de file. Certes, Pékin a lancé son initiative Ceinture et Route de la Soie (depuis 2013) mais la Russie ou l’Inde conservent leur quant-à-soi. Quant à l’Europe, elle se trouve particulièrement gênée devant la nouvelle configuration du monde. Il y a donc un bipôle relatif qui n’aligne pas même s’il structure.

On avait cru que le multilatéralisme, expression politique de la mondialisation économique, constituait la solution à la sortie de la guerre froide et de l’affrontement bipolaire. Force est de reconnaître que les deux sont en crise et que nous faisons désormais face à un système désordonné même si un affrontement principal entre deux géants constitue le fait marquant.

Trump est donc un formidable dynamiteur. Il est certes une conséquence (et on n‘insistera jamais assez sur la continuité qu’il a avec Obama, aussi bien sur la négligence envers l’Europe que sur la priorité donnée à la question chinoise) : il est aussi un détonateur et on ne reviendra jamais au statu quo ante.

O. Kempf

Cet article 5 ans d’Echoradar : Le bouleversement (et la profondeur) de Trump est apparu en premier sur EchoRadar.eu.

5 ans d’Echoradar – Dieselgate : la flaque de mazout qui fit déraper constructeurs et politiques

Par Yannick Harrel

Septembre 2015 : en notifiant au groupe allemand Volkswagen un défaut de respect de la législation sur la pollution atmosphérique, l’United States Environmental Protection Agency (l’agence américaine de protection environnementale) plongea tout le secteur automobile dans un profond désarroi perdurant encore. Outre les amendes records, les démissions forcées et les procès à répétition, cette affaire précipita le marché automobile vers une électrification à outrance qui changera notre perception et approche des mobilités.

L’affaire du Dieselgate prend sa source en mai 2014. Elle est la résultante d’une découverte sous forme d’interrogation par l’équipe de chercheurs de l’université de Virginie Occidentale, mandatée par l’International Council on Clean Transportation de l’université : pourquoi les données constructeurs de véhicules du groupe Volkswagen ne concordent-elles pas avec les résultats obtenus par les tests opérés ?

Tout part en réalité de l’impossibilité par les ingénieurs de Volkswagen de développer un moteur deux litres diesel compatible avec les normes anti-pollution américaine (le EA 189 dans sa terminologie industrielle) : la recherche et développement prenant bien plus de temps que prévu pour concilier élimination des NOx (oxydes d’azote) et basse consommation, tandis que l’échéance de commercialisation ne pouvait plus être repoussée. Pour trancher ce dilemme, il fut décidé par le département motorisation du groupe allemand de procéder par un tour de prestidigitation… électronique. Les ingénieurs s’appliquèrent en effet à la modification d’un logiciel d’origine Bosch capable de duper les tests de détection des émissions, en jouant sur la modulation du régime moteur lors des phases de test, ce qui permit de rester en conformité avec lesdites normes. La possibilité de truquer le logiciel était connu depuis 2006 mais – fait aggravant – fit l’objet d’optimisations en 2011 permettant de libérer le plein potentiel du moteur dès l’allumage et de repasser en mode bridé en cas de phase de test.

À force d’insistance des enquêteurs, et passant outre le mutisme gêné de la direction de Volkswagen, un salarié du groupe décida en août 2015 de révéler aux autorités américaines la supercherie. Laquelle fut corroborée quelques semaines plus tard par le responsable du département motorisation du moment. Dès lors, la défense de Volkswagen s’effondra comme un château de cartes, non sans tenter préalablement, et fort maladroitement, de faire disparaître la documentation compromettante : un acte qui pesa lourd dans les charges puisque l’analyse forensique des enquêteurs permit de « ressusciter » les fichiers effacés.

Dans la foulée de cette révélation, le président du directoire Martin Winterkorn démissionna le 23 septembre 2015 pendant que la machine judiciaire américaine s’ébranlait à plein régime. Le groupe reconnut devant les tribunaux sa culpabilité en acceptant en 2017 de transiger son amende avec le ministère public, de rembourser les clients trompés et enfin de verser un dédommagement eu égard aux dégâts environnementaux : soit la bagatelle cumulée de 25 milliards de dollars. Et ce, pour le seul territoire américain alors que des actions judicaires furent aussi (et continuent d’être) menées dans plusieurs pays étrangers.

Outre la gravité du mensonge proféré par le groupe allemand, c’est l’opprobre jetée sur tout un secteur qui sera le fait marquant des années suivantes, pressé par les décideurs politiques d’électrifier massivement et rapidement tout le parc automobile.

Le diesel, autrefois loué – à juste titre – pour ses qualités (moindre consommation de carburant, émissions de CO2 inférieures à la combustion à essence, longévité du bloc moteur) fut, à la suite du scandale, vilipendé et même proscrit de certains ensembles urbains (comme en Allemagne à Stuttgart et Düsseldorf). Cela mit aussi à bas tous les efforts pour produire un vrai diesel propre avec filtres et dispositifs de circuit des gaz repensés dont l’efficacité avait été prouvée, rendant caducs des années de recherche et développement.

Sa mise à l’index s’est accompagnée d’une volonté de le remplacer à brève échéance par des solutions électriques, à tout le moins hybrides. Sauf que… rien n’est simple.

  • La suppression accélérée de la fiscalité avantageuse pour le diesel, y compris l’essence selon les pays, opère une perte de pouvoir d’achat conséquente pour des ménages ayant investi dans cette motorisation par souci d’économie ;
  • Les accompagnements fiscaux vers la mobilité électrique sont éphémères, instables et ne compensent pas la différence d’achat entre un véhicule à motorisation thermique et son homologue électrique ;
  • Le passage à une flotte de véhicules électriques n’est pas envisageable à grande échelle en raison de l’absence d’infrastructures dédiées et du manque de recul sur les effets dits « pic de charge » ;
  • L’interdiction de certains centres urbains à des véhicules diesel posent le souci d’une discrimination technologique mais aussi territoriale et sociale ;
  • La désignation de l’électromobile comme véhicule propre est remise en question en raison de la non-prise en compte de son cycle de vie.

Le secteur de la compétitivité et de l’emploi est concerné de plain-pied par cette réorientation imposée et mal planifiée : en juillet 2019, la Direction Générale des Entreprises française s’est alarmée du stress sur le marché de l’emploi que générait cette transition aux contours mal définis. Si l’Allemagne semblait être la principale entité atteinte par cette affaire, la France est une victime collatérale plus exposée qui paie très cher ce revirement avec à la clef de nombreuses suppressions d’emploi. Sachant que la motorisation électrique exige largement moins de pièces et de procédés de filtrage que son homologue thermique, l’on saisit qu’un nombre conséquent de salariés et d’intérimaires deviendront inutiles sur le marché du travail et qu’une reconversion ne sera pas toujours possible.

En outre, et de manière plus géopolitique, la volonté de se débarrasser de la motorisation thermique va indéniablement opérer un délitement des compétences européennes en la matière au profit principalement de la Chine, et des États-Unis dans une moindre mesure. C’est clairement un suicide technologique : les États-Unis ayant à cœur de défendre leur propre industrie automobile tout en la préparant à la transition énergétique tandis que la Chine a investi sans compter vers l’électrification de ses flottes de véhicules en devenant numéro un de la batterie au lithium-ion. Si l’on ajoute que la Chine a aussi une avance conséquente dans le protocole de communication 5G, de même que les États-Unis dans une moindre mesure là encore, l’on perçoit que la future génération de véhicules, les automobiles 3.0, seront à l’avantage très net des concurrents directs du Vieux Continent.

Autre conséquence plus générale : la norme WLTP (test de procédure harmonisé déterminant le taux de CO2 et de polluants émis par le véhicule en situation de roulage [1]) prévue initialement en septembre 2018 mais reportée pour certains pays comme la France, va renchérir dramatiquement le coût des véhicules là où des seuils de malus sont appliqués. Ce qui va aboutir à un effet paradoxal : le durcissement fiscal va inciter les automobilistes à reporter tout achat de véhicule neuf, donc moins polluant, en conservant plus longtemps leur ancien moyen de déplacement, généralement plus polluant.

Enfin, les autorités publiques ont délibérément opté pour une motorisation précise au détriment de toute incitation au développement alternative : hydrogène, bioéthanol, gaz de pétrole liquéfié ou encore hybridation justement. Ce choix impératif n’est pas du tout du goût des constructeurs qui, l’on s’en doute, tiennent à garder la main sur une technologie déjà existante ayant nécessité temps et argent pour sa mise en circulation et ses améliorations successives mais aussi, et surtout, pour ne pas se voir imposer un choix technologique dont ils seront les seuls à assumer les conséquences. Tel est notamment le discours de Carlos Tavares, président du directoire de Peugeot, qui n’a cessé de mettre en garde contre des décisions politiques hâtives, lesquelles prônent des mesures de restriction de circulation discriminatoires et des normes jugées trop draconiennes en matière d’émissions. Or ces décisions au niveau européen ont été imposées dans la foulée de la révélation du Dieselgate sur la base présumée du « tous coupables » et font engouffrer toute l’industrie automobile (et son large écosystème de sous-traitants et de bureaux d’expertise) dans une voie qui n’a pas suffisamment été évaluée quant à son impact technologique, économique, social, logistique et environnemental.

À la tricherie d’un industriel a répondu la précipitation politicienne sans recul et sans étude d’impact. Or les mobilités sont une problématique complexe qui oblige à la prise en considération de nombreuses interactions inter-agents et la survenance de situations composites.

Ce qu’il faut retenir du Dieselgate en tant qu’évènement majeur de ces dernières années, ce sont plusieurs points :

  • L’électronique embarquée est devenue depuis les années 1990 un compagnon de route indispensable de toute automobile, fournissant une assistance technologique souvent utile, voire nécessaire désormais, pouvant être cependant détournée de son but initial ;
  • L’électrification à outrance des véhicules amène tout autant de bienfaits que de problématiques à résoudre en un temps ridiculement court ;
  • La précipitation du politique met à mal les cycles industriels où le manque de visibilité amène irrémédiablement surcoût du produit fini, suppression d’emplois, absence de recul quant aux conséquences logistique et environnementale avec fragilisation accrue en cas de crise sectorielle ;
  • La souveraineté technologique européenne dans les motorisations à combustion interne va irrémédiablement être délaissée au profit de solutions tierces extra-européennes, du moins dans un premier temps.

[1] Précisons que la norme WLTP ne résulte pas de l’affaire du Dieselgate puisque les travaux ont débuté en 2011 au sein de la Commission économique pour l’Europe des Nations unies, et visaient à remplacer la norme précédente – la NEDC – jugée trop théorique et obsolète dans ses instruments de mesure. En revanche, les seuils sont décidés au sein des instances de l’Union Européenne, et ceux-ci ont été revus sévèrement à la baisse suite au scandale impliquant Volkswagen.

Cyberstratégie Est-Ouest

Cet article 5 ans d’Echoradar – Dieselgate : la flaque de mazout qui fit déraper constructeurs et politiques est apparu en premier sur EchoRadar.eu.

5 ans d’Echoradar – La crise des cours du pétrole, 5 ans d’atermoiements économiques

Par Nicolas Mazzucchi

Après quelques années d’euphorie des prix du pétrole à la fin de la décennie 2000 – le baril dépassant les 140 USD – les cours se sont brutalement effondrés en 2013-2014, provoquant une crise économique profonde dans un certain nombre de pays producteurs. Le passage – brutal – du baril de près de 100 à moins de 40 USD avec une stagnation longue des prix vers 45-60 USD, a mis en difficulté les producteurs bien sûr, mais aussi les grandes entreprises transnationales exploitant les hydrocarbures – majoritairement occidentales mais avec de plus en plus de grandes entreprises de pays émergents, au premier rang desquels la Chine – et, en bout de chaîne, les pays consommateurs, dépendants pour certains de leurs produits de la consommation des pays producteurs de pétrole.

 

A tout prendre ces cours bas n’ont été une aubaine pour personne, sauf quelques acteurs spécifiques, plutôt sur les marchés financiers d’ailleurs. Au-delà de ces impacts pour les uns et les autres, il importe de comprendre quelle mécanique a été à l’œuvre en ce domaine, tant du côté des producteurs que de celui des consommateurs.

Du côté de la demande

 

La partie consommation est la plus simple à comprendre en ce qui concerne cette crise des prix. Il s’agit tout simplement d’une baisse de la demande provoquée par les suites de la crise économique de 2007, dont les effets finaux se font ressentir vers 2013. Alors que le gros de la crise peut être situé vers 2008-2010, avec un pic en 2009, l’absence de reprise forte de l’économie mondiale – en particulier des pays de l’OCDE – a installé une situation de cascade des effets. Alors que les économies émergentes étaient – et sont toujours en grande partie – tournées vers la production industrielle de biens à destination des économiques les plus avancées technologiquement – européennes notamment – la baisse de la demande en produits à haute valeur ajoutée de la part de ces mêmes pays très avancés finit par avoir un effet domino. Voyant leurs débouchés se limiter progressivement, les pays émergents tentent de réorienter leur production vers une demande interne balbutiante ou artificielle – pensons ici au Brésil dont la classe moyenne était créée par Lula à coup de subventions– qui est incapable de remplacer celle des pays de l’OCDE. Avec quelques années de décalage, l’absence de reprise forte dans l’OCDE combinée à l’impossibilité d’une demande émergente équivalente finit par créer un ralentissement de croissance chez les émergents, donc une baisse de la demande en produits énergétiques, au premier rang desquels le pétrole.

D’autre part la diminution de la part des Etats-Unis dans les importations mondiales joue également un rôle majeur. Alors que Washington jouait depuis des années un rôle de régulateur mondial, à la fois par sa capacité économique et industrielle – contrôle des cours du dollar USD, principales entreprises intégrées du secteur, etc. – et sa demande – la première du monde – le développement assez soudain des hydrocarbures non-conventionnels états-uniens a modifié cette situation. Washington diminuant sa présence – sans l’annuler, y compris pour des raisons géopolitiques vis-à-vis des pays producteurs du Golfe – sur les marchés import, le système international des échanges pétroliers est bouleversé. Aujourd’hui les Etats-Unis demeurent le régulateur financier – dont la place est de plus en plus contestée – mais c’est bien la Chine qui a pris le rôle de premier importateur mondial (15,5% des imports mondiaux en 2018 contre 13% pour les Etats-Unis), avec en corolaire une capacité d’orientation des cours et des producteurs, en particulier par l’action toujours plus internationale des compagnies pétrolières nationales (CNPC, Sinopec, CNOOC).

 

Du côté de l’offre

 

C’est bien du côté de l’offre que les plus gros changements ont été constatés. L’élément le plus visible – qui n’est toutefois pas le plus important en termes économiques – est le démarrage en trombe dès 2009-2010, des exploitations d’hydrocarbures de roche-mère aux Etats-Unis. Alors que les grandes super-majors n’y croyaient pas, les exploitations issues le plus souvent des réservoirs non-conventionnels contenus dans les formations de schiste, donnent de très bons résultats, permettant aux Etats-Unis de voir redécoller la production nationale. Avec cet acteur disposant d’une nouvelle importance sur le marché, l’offre connaît une croissance rapide. Les déterminants économiques de ces exploitations sont toutefois radicalement différents de ceux des exploitations conventionnelles, ce qui crée en réalité une sorte de deuxième front pétrolier. En effet le système du non-conventionnel terrestre nord-américain repose sur l’exploitation successive de « poches » de petite taille géographiquement concentrées pour lesquelles il est souvent nécessaire d’avoir recours à des installations flexibles et relativement mobiles. Il s’en suit une capacité à arrêter les exploitations quand les cours sont trop bas et à les reprendre ensuite bien plus grande que dans le système traditionnel, ce qui ajoute une flexibilité importante à l’offre mondiale.

Le bouleversement numéro un est toutefois à rechercher du côté de l’OPEP et de sa politique interne. Depuis de nombreuses années, l’Arabie Saoudite était victime de la stratégie de « passager clandestin » de certains pays-membres qui ne respectaient pas ou peu les quotas, charge à Ryad de jouer son rôle de swing producer en diminuant d’autant ses volumes pour maintenir les prix. Avec l’arrivée de MBS aux affaires, la politique saoudienne change, désormais le royaume se battra pour les volumes et plus pour les prix, chacun devant tirer les conséquences de ses actions. La guerre des nerfs est donc lancée au sein de l’OPEP en 2013-2014 avec des cours qui s’effondrent par surabondance de l’offre ; les premiers touchés sont les économies les plus fragiles, pour des raisons de politique intérieure (Algérie, Venezuela) ou de prix de revient des exploitations (Venezuela) qui étaient d’ailleurs lesdits « passagers clandestins ». En se combinant avec la concurrence nouvelle des hydrocarbures non-conventionnels américains – que l’OPEP essaie également de couler avec l’effet collatéral des prix bas – cette abondance de volumes aboutit à l’effondrement des prix en 2014, créant des pertes extrêmement importantes pour les pays reposant sur la rente d’exploitation. Les autorités russes estiment ainsi leurs pertes à environ 100 milliards USD en 2014. Cette situation qui se combine à la diminution de la part des pays de l’OPEP dans la production mondiale (moins de 45%), conduit les producteurs à former en 2016 une nouvelle entente dite OPEP+ qui regroupe la Russie et certains pays du bloc ex-soviétique. L’alliance en question, dont le rôle est pérennisé semble-t-il représente près de 60% de la production mondiale, avec un poids prépondérant sur le marché.

Cet accord OPEP+ met d’ailleurs en lumière un mouvement de fond de la géoéconomie du pétrole qui s’amplifie depuis plusieurs décennies, à savoir la déconcentration géographique de la production. Avec la fin de la Guerre froide et l’arrivée progressive – mais néanmoins rapide – sur le marché des hydrocarbures dans anciens pays du bloc de l’Est, les potentialités d’approvisionnement ont peu à peu diminué la part du Golfe arabo-persique comme zone incontournable. Depuis les années 1990-2000, les découvertes de nouveaux champs importants en Afrique subsaharienne (Nigeria, Angola, Sénégal-Mauritanie) puis en Amérique latine (Brésil) ont également fait éclater le cadre géographique traditionnel. Aujourd’hui le marché pétrolier bénéficie d’un équilibre géographique inconnu jusqu’alors – la production se répartir à peu près selon le schéma suivant : un tiers pour le Proche et Moyen-Orient, un quart pour le continent américain, une vingtaine de pourcents pour l’ex-URSS, une dizaine de pourcents pour l’Afrique et l’Asie, le reste pour l’Europe – ce qui tend à le rendre également plus résilient aux effets géopolitiques localisés. En effet si l’on ajoute à cette situation de la diversification des sources, un accroissement fort des capacités logistiques – terrestres et maritimes – mondiales, on obtient un système réticulaire reconfigurable où la faiblesse d’un des nœuds du réseau est rapidement compensée par les autres. Cette situation géographique et technologique explique d’ailleurs la fin de la corrélation entre les crises géopolitiques localisées et la hausse (ou la baisse) forte des cours du pétrole. Alors que toutes les grandes crises du XXe s. qui s’étaient déroulées aux abords d’une zone Afrique du Nord-Moyen-Orient (Suez, Six Jours, Kippour, Guerre du Golfe, etc.) avaient eu des impacts importants sur les prix, pour diverses raisons, les récentes crises locales (Syrie-Irak, Nigeria, Libye, Yémen, etc.) n’ont eu que des effets mineurs. La baisse dans la production locale – par exemple en Libye qui a vu sa production divisée par 4 entre la fin des années 2000 et le milieu des années 2010 – est mécaniquement compensée par la hausse de production dans d’autres régions (Canada, Etats-Unis, Brésil, Kazakhstan, etc.) et la réorientation du système logistique d’approvisionnement des marchés mondiaux, piloté par les entreprises les plus mondialisées qui soient : les compagnies pétrolières.

 

Ainsi il s’agit donc d’une problématique économique classique d’équilibre entre offre et demande. Toutefois lorsqu’on se penche sur les différents facteurs qui influent sur ces situations de la surabondance de l’offre et de la faiblesse – relative – de la demande, des intrants bien peu économiques apparaissent. Cette « crise » nous démontre bien que la géoéconomie de l’énergie est un système complexe qui articule à la fois des enjeux économiques et financiers d’une part, mais également des enjeux géopolitiques et règlementaires. Ne prendre en compte que l’un de ces éléments serait passer à côte d’une grande partie de l’explication de ces phénomènes dont l’impact est, par essence, mondial. En termes de conséquences profondes, même si celles-ci sont encore difficile à cerner précisément, il importe de prendre en compte l’établissement progressif d’un duopole russo-saoudien dans le domaine de la production, à la suite de la pérennisation de l’accord OPEP+. La Russie qui avait été maintenue aux portes de l’OPEP, joue maintenant un rôle central dans la régulation de la production mondiale. De son côté l’Arabie Saoudite semble avoir mis les pays de l’OPEP sous son autorité – phénomène renforcé par les sanctions contre l’Iran – et diversifie ses interactions avec les consommateurs, entre Etats-Unis et pays d’Asie du Nord. Toutefois entre Ryad et Moscou les visions géopolitiques demeurent relativement différentes sur nombre de dossiers, au point qu’il est difficile de parler d’autre chose que d’une entente circonstancielle, mais néanmoins vitale vu l’importance pour les deux pays des revenus pétroliers.

Cet article 5 ans d’Echoradar – La crise des cours du pétrole, 5 ans d’atermoiements économiques est apparu en premier sur EchoRadar.eu.

5 ans d’Echoradar – Des Gémonies à l’Olympe, le tardif succès du Rafale

Par Signes Hauts

En une poignée d’années, l’avion de combat omnirole Rafale de l’avionneur Dassault s’est imposé auprès de plusieurs pays, soucieux de disposer d’un avion de combat performant et éprouvé. Et pourtant ! De la coupe aux lèvres, le breuvage fut amer durant plus de deux décennies, les moqueurs se le disputant aux Cassandre : trop performant, trop cher, ce bel avion ne se vendrait jamais. Retour sur l’un des travers franco-français qui de fiasco est devenu un véritable succès industriel ainsi que d’influence.

(Source)

Retour sur image

Imaginé dans les années 70, développé dans les années 80 et 90, les premiers appareils commencèrent à être livrés d’abord à l’Armée de l’air française en 2001 puis à l’Aéronavale en 2002, avec cinq années de retard. [1] Las, le bijou technologique que de nombreuses autres armées devaient nous envier, débutait sa carrière la coiffe de radar baissée et, surtout, sans aucun contrat d’exportation. Une première si l’on se réfère aux précédents programmes à succès de l’avionneur (Mirage 3 et Mirage 2000 en particulier). Corée du Sud, Pologne, Singapour, Arabie Saoudite, Maroc, Suisse ou Brésil, la liste des échecs du meilleur avion de combat de sa génération ressemblait à la longue litanie de défaites commerciales successives et parfois cinglantes. [2]

Le 16 février 2015, l’Égypte signe le premier contrat export mais aussi premier contrat historique. Il aura en effet fallu attendre 27 ans pour vendre un premier lot de 24 Rafale à un autre client que l’État français. [3] Suit un autre lot de 24 appareils, pour le Qatar cette fois, en décembre 2015, avec une option levée en 2017 pour 12 appareils supplémentaires. En septembre 2016, l’Inde signait pour un lot de 36 appareils. En moins de deux ans, une centaine d’appareils venaient d’être vendus et les premiers exemplaires livrés à l’Égypte. Loin de s’arrêter à ces premiers succès, l’équipe Rafale France escompte vendre encore 215 appareils supplémentaires : 167 à l’Inde, 36 au Qatar et 12 à l’Égypte, sachant que l’avion est proposé à plusieurs appels d’offre comme en Suisse et en Finlande.

La gifle du “contrat imperdable” (et ses vertus)

Si les raisons de l’échec initial de vente du Rafale sont connues, elles sont pour l’essentiel politiques. Vendre de l’armement et, a fortiori, des avions de combat est une décision politique avant tout. Elle symbolise l’équilibre que peut rechercher un client afin de diversifier ses fournisseurs, l’Inde en étant l’une des illustrations les plus éclatantes. Elle indique aussi l’état d’une relation bilatérale entre deux nations : la « lune de miel » entre l’Égypte du président Sissi et les différents gouvernements français n’est pas étrangère à la vente des premiers Rafale mais aussi d’une frégate de type FREMM [4] et des deux BPC [5] prévus initialement pour la Russie. A l’inverse, un rafraîchissement de la relation voire la manifestation d’un désaccord notable peuvent se traduire à travers les (non) contrats d’armement.

(Source)

Enfin, il ne faut absolument pas négliger le rôle des avionneurs concurrents, certains très soutenus par leurs gouvernements, pour perturber voire savonner la planche des négociations. A ce stade, il est utile de se rappeler régulièrement du cuisant échec du Rafale au Maroc. Cette défaite franco-française du « contrat imperdable » [6] aura cependant permis la constitution d’une équipe France qui depuis fédère les militaires, les diplomates, l’avionneur et ses partenaires de premier rang. La dynamique positive qui existe depuis plusieurs années pourrait à nouveau voir se profiler de nouveaux succès à l’exportation. Les premiers Rafale au standard F4 arriveront dès 2023 dans les forces françaises : plus connecté, plus puissant, doté d’un nouveau radar à antenne active et de systèmes électroniques et optroniques améliorés, de nouveaux armements, etc. l’avion sera encore plus redoutable, tant du point de vue opérationnel que de la concurrence.

Signes Hauts

[1] le 30 avril 1987, le premier ministre Jacques Chirac précise au salon du Bourget en juin 1987 que le Rafale équipera l’Armée de l’air et la Marine nationale à partir de 1996 – Source Wikipédia

[2] se référer à notre article avant-gardiste qui indiquait en décembre 2014 pourquoi nous pensions à EchoRadar que l’avion allait (bien) se vendre : https://echoradar.eu/2014/12/03/dix-raisons-pour-lesquelles-le-rafale-va-se-vendre/

[3] https://www.sudouest.fr/2019/01/17/nouveau-rafale-f4-10-chiffres-pour-tout-savoir-de-l-avion-de-combat-5736998-5022.php

[4] https://www.meretmarine.com/fr/content/la-fremm-tahya-misr-prete-rejoindre-legypte

[5] https://www.ouest-france.fr/economie/industries/mistral-les-deux-batiments-vendus-legypte-pour-950-millions-4473227

[6] https://lexpansion.lexpress.fr/actualite-economique/rafale-les-dessous-d-un-fiasco_467378.html

Cet article 5 ans d’Echoradar – Des Gémonies à l’Olympe, le tardif succès du Rafale est apparu en premier sur EchoRadar.eu.

Fêtons les 5 ans d’EchoRadar !

Par EchoRadar Blog

Le 13 juillet 2014 apparaissait dans le cyberespace, plus précisément dans la blogosphère française un nouvel objet non identifié intitulé EchoRadar. Ce nouveau blogzine avait et a toujours, depuis 5 ans, pour ambition de regrouper un collectif de blogueurs bouillonnants qui s’expriment autant sur la géopolitique, la défense, la sécurité et les technologies. L’objectif principal réside dans le partage d’analyses inédites rédigées par des passionnés qui apportent une contribution atypique à la réflexion actuelle, passée et à venir.

Face à l’explosion des réseaux sociaux et de l’information brute immédiatement disponible, l’intérêt des blogs est remise en question depuis plusieurs années et cela même au sein du collectif. L’utilité et le temps consacré à des études plus élaborées que 280 caractères ou de simples vidéos interrogent. Pour EchoRadar, il s’agit pourtant de son mode d’expression favori pour livrer à ses lecteurs des travaux distincts autant que possible que des courants majoritaires de pensée.

Quoiqu’il en soit, cinq ans plus tard, nous n’avons pas à rougir de notre bilan : plus de 400 articles publiés dont des interviews sérieuses et truculentes, une veille quotidienne qui se traduit sur les réseaux sociaux avec presque 10 000 tweets et plus de 1600 abonnés, et près de 1000 sur Facebook.

Si nous en sommes fiers, nous conservons l’humilité et le recul nécessaires inscrit dans notre ADN.

Le premier dossier estival d’EchoRadar intitulé « Eté 1914 : un autre monde ? » avait ajouté à travers plusieurs articles disponibles en ebook, des briques dans l’immense « mur de la mémoire ».

Aujourd’hui, le dossier anniversaire d’EchoRadar vous propose de revenir sur plusieurs événements phare qui ont marqué individuellement les auteurs du au cours des cinq dernières années.

Ainsi, qu’il s’agisse de l’accession au pouvoir de Trump, de l’affaire Huawei ou du Diesel Gate pour ne pas dévoiler toutes les thématiques du dossier, EchoRadar vous propose un regard sur la période 2014 à 2019. Cinq années riches en surprises stratégiques et créatrices de nouvelles artificialités futures qui poursuivent, sur la frise historique de l’humanité, l’évolution de nos cultures et de nos territoires.

Le collectif EchoRadar vous souhaite à tous d’excellentes vacances et surtout une bonne lecture estivale !

Cet article Fêtons les 5 ans d’EchoRadar ! est apparu en premier sur EchoRadar.eu.

Écho du Bocal avec Jeremy Ghez sur les États-Unis de Trump

Par Olivier Kempf

Jeremy Ghez est professeur affilié d’économie et d’affaires internationales à HEC Paris et le codirecteur du Centre de Géopolitique de cette école. Il est l’auteur du récent livre “États-Unis: déclin impossible, rebond improbable” paru cet hiver chez VA Press (ici) et qui nous explique l’Amérique de Trump. Il répond à nos questions sur ce sujet. Mille mercis à lui.

1/ Vous montrez dans votre livre que l’élection américaine de 2016, qui a été une surprise pour tous les analystes, était finalement très explicable. Tout d’abord à cause d’Hillary Clinton qui ne s’est pas vraiment intéressée à ce que vous appelez son pare-feu électoral : pouvez-vous nous expliquer cette notion ?

Le pare-feu démocrate était l’idée selon laquelle un certain nombre d’États américains, qui avaient voté démocrate de manière systématique depuis 1992 au moins, étaient acquis à la cause du parti d’Hillary Clinton.

Pour rappel, les États-Unis sont divisés en cinquante États, auquel s’ajoute le District de Columbia qui abrite la capitale du pays, Washington. Chaque État dispose d’un nombre de grands électeurs qui est fonction de sa démographie. Lorsqu’un candidat gagne un État, il remporte l’ensemble de ses grands électeurs (exception faite du Maine et du Nebraska qui fonctionnent selon un mode de scrutin hybride, dont une partie proportionnelle). Ces grands électeurs sont moralement engagés à voter pour le candidat qui a remporté l’État — et le font dans leur très large majorité, puisque l’on ne recense qu’une poignée d’exceptions historiques.

Or, il y a en tout 538 grands électeurs. Le candidat qui remporte un ensemble d’États totalisant 270 grands électeurs (soit exactement la moitié des 538 grands électeurs totaux plus un) ou plus remporte ainsi l’élection. Et ces États du pare-feu électoral représentaient à eux seuls 242 grands électeurs. Il « suffisait » donc d’aller chercher un grand État supplémentaire, comme la Floride par exemple, que Barack Obama avait gagné à deux reprises, pour remporter la Maison Blanche. Mais voilà : on a sous-estimé, dans le camp Clinton, la probabilité que la majorité démocrate dans certains États de ce pare-feu puisse ne pas tenir. Et c’est ce qui s’est passé dans le Wisconsin, dans le Michigan et en Pennsylvanie, où le fameux « col bleu », ce travailleur ouvrier qui a voté par deux fois, sans hésiter, pour Barack Obama, s’est dit que la rupture avec le monde d’hier n’était pas suffisamment importante. Pour ces électeurs-là, la suite logique d’une présidence Obama n’était pas une présidence Clinton, mais une présidence Trump.

2/ De plus, Hillary Clinton n’a pas semblé proposer de vision d’avenir et avait un discours finalement très conservateur (on poursuit ce qu’a fait Obama) : ne répondant pas aux inquiétudes de son électorat traditionnel, celui-ci a donc été séduit par D. Trump ?

Conservatrice, elle l’a été au sens où beaucoup de ses propositions relevaient du connu, du déjà testé, de la zone de confort – autant de choses qu’on reprochait tant à la candidate qu’au programme. Fait remarquable : au grand dam de son époux, Bill Clinton, Hillary n’ira jamais faire campagne dans le Wisconsin. Au contraire, à l’époque, les Démocrates ont une autre lecture de ce qui se passe : ils vont non seulement conserver les régions qui leur ont été favorables depuis toujours, mais peut-être même élargir la carte électorale, en allant chasser sur les terres républicaines, comme au Texas. La candidate démocrate perdra sur les deux fronts.

3/ N’y a-t-il pas du coup une profonde défiance envers les élites, ce qu’illustre aussi le succès de Bernie Sanders qui a pu tenir un discours socialiste sans être immédiatement rejeté dans la marginalité ? Il y avait une « soif de changement », une colère populaire (qui avait d’ailleurs permis l’arrivée de B. Obama à la suite de la crise de 2008) ? Y a-t-il une « coalition Trump » comme il y eut une « coalition Obama » ? Est-ce le même mouvement, finalement ?

La question a de quoi surprendre un public européen et francophone, mais elle est légitime. Les États-Unis sont effectivement devenus le théâtre de l’expression d’une colère publique incontestable, colère qui s’exprime à travers de multiples canaux. En 2008, il y avait la promesse d’un changement, d’une réinvention politique après les huit ans de George W. Bush, qui, pensait-on à l’époque, avaient déjà profondément divisé l’Amérique. L’élection de Barack Obama n’a cependant pas permis de mettre fin à ces divisions puisque les confrontations entre le législatif et l’exécutif américains ont été significatives, voire violentes. Les plus jeunes se sont dits que la révolution Obama n’a pas été suffisamment loin, et que Bernie Sanders incarnait l’expression encore plus radicale d’un projet aussi souhaitable qu’inabouti. Les populations plus âgées qui ne se retrouvent pas dans le projet socialiste de Bernie Sanders ont trouvé en Donald Trump un porte-étendard, eux qui se sentaient floués par le système et par les règles qui ont été écrites par et pour une minorité, aux yeux de ses soutiens, eux qui cherchaient le porte-parole de ceux qui refusent d’accepter le statu quo comme une fatalité indépassable.

Bizarrement, pourrait-on croire, Obama aspirait à incarner ce même mouvement. Il l’a fait, mais a donné des espoirs à d’autres parties de l’électorat – y compris certaines qui n’ont jamais voté pour lui. La vague a pris de l’ampleur et c’est le candidat Trump qui en a bénéficié. Les deux coalitions sont distinctes, mais les aspirations sont les mêmes.

4/ Trump a su saisir cette colère et apporter des réponses (ce qui vaut mieux que pas de réponse). Paradoxalement, il est impopulaire (entre 37 et 42 % de soutien) ce qui est faible comparativement aux autres présidents des États-Unis dans l’histoire, mais ce bloc reste étonnamment stable. Pourquoi ? Est-il donc en position de force pour 2020 ?

Cette cote de popularité surprend à deux titres en effet : elle est basse et elle est stable. Basse, car à ce stade du mandat, le seul président qui est plus impopulaire que Donald Trump est Jimmy Carter. Tous les autres, y compris Nixon, jouissent d’une meilleure cote de popularité. Stable, dans la mesure où comme vous le rappelez, elle ne bouge pratiquement pas depuis que Donald Trump est entré à la Maison Blanche.

De quoi cette coalition est-elle composée ? De deux grands ensembles : un gros tiers de l’électorat est constitué de loyaux du président. Il s’agit d’électeurs qui continueront à le soutenir tant qu’il continuera sur la voie conservatrice qu’il s’est choisie depuis le début de son mandat, notamment en matière de nomination de juges et sur la question de l’avortement. Il y a ensuite une petite partie des Républicains – environ 10% de l’électorat, qui émet de sérieuses réserves sur la personne de Donald Trump, mais largement satisfaite de ses politiques et de ses résultats.

Cette coalition peut parfaitement résister encore un an, jusqu’à la prochaine échéance électorale. Et comme on le sait, compte tenu du fonctionnement du système politique américain, on peut se faire élire avec les voix de 40 à 45% de l’électorat seulement.

Mais que se passe-t-il en cas de retournement conjoncturel ? Il y a fort à parier que la fraction du parti républicain qui soutient le président américain du fait de la bonne santé économique du pays ne sera plus aussi enthousiaste en cas de crise, et restera chez elle le jour du vote. Or, si on peut se faire élire avec les voix de 40 à 45% de l’électorat seulement, il est bien plus compliqué (pour ne pas dire impossible) de se faire élire avec le soutien d’un tiers de l’électorat seulement.

La réelle question ? Le retournement conjoncturel que de nombreux experts attendent, et qui peut arriver prochainement si l’on en croit un certain nombre d’indicateurs macroéconomiques, arrivera-t-il avant ou après l’automne 2020 ? Celui de l’automne 2008 avait été fatal pour McCain. Si le prochain retournement avait lieu avant novembre 2020, les chances de Trump pourraient être compromises. À moins que le président sortant soit capable, en un laps de temps très limité, de complètement réinventer son image de marque politique. C’est peu probable. Mais « peu probable » devient tout à fait possible et imaginable dans l’Amérique de Trump, rappelons-le.

5/ Pouvez-vous nous dire un mot de l’affaire russe, ou plus exactement des affaires russes : celle de l’éventuelle pesée directe sur la campagne électorale (cela a-t-il d’ailleurs eu un effet sur le résultat), et celle des relations entretenues avec des agents russes au cours de cette campagne ?

Le fait que la Russie ait interféré dans les élections de 2016 relève du consensus. On le sait, l’enquête du procureur spécial Robert Mueller l’a démontré. L’effet est difficile à quantifier, tant la course électorale était serrée dans beaucoup d’États – dont les fameux trois États du Midwest, à savoir le Wisconsin, le Michigan et la Pennsylvanie. Les Démocrates qui ne s’appuient que sur cette constatation pour expliquer l’issue du scrutin de 2016 risquent de ne pas prêter assez attention à la médiocrité de la campagne de leur candidate. Mais il serait dangereux pour le système démocratique de ne pas relever la réalité de cette interférence.

En ce qui concerne la question de la collusion, la réponse du procureur Mueller est plus complexe – même si un certain nombre de soutiens du président actuel feignent de ne pas comprendre. Les enquêteurs n’ont déjà pas pu retenir l’idée de « collusion », celle-ci n’étant pas en soi un crime. À la place de cela, ils ont cherché à déterminer s’il existait des preuves d’un effort concerté entre la campagne de Donald Trump et des agents russes pour influencer le verdict des urnes. Il s’agit là d’une définition bien plus étroite. L’enquête n’a pas conclu que cela n’avait pas eu lieu, mais que les preuves n’étaient pas suffisantes pour arriver à cette conclusion. Notons au passage que cela ne veut pas dire la même chose.

Enfin, au-delà de la question de la collusion, il y a un certain nombre de comportements et d’actions de la part de cette administration que le procureur Mueller met en exergue dans ce rapport, et qui pourraient constituer des crimes. Mais Mueller est parti de l’hypothèse qu’un président américain en exercice ne pouvait être inculpé – mais qu’il existe un autre mécanisme, celui de l’impeachment, pour pouvoir mettre un président en accusation. Le rapport d’enquête est très clair sur ce point : l’équipe de Robert Mueller a rassemblé des preuves qu’elle désirait transférer au Congrès en vue d’un tel procès en impeachment. En d’autres termes, il s’agit désormais d’un débat politique sur ce que l’on permet ou non à un président de faire, et plus d’un débat légal.

6/ Dans l’ordre international, on voit une relation difficile avec les Européens : il y a comme une phobie de l’Allemagne enrichie, mais aussi une profonde défiance envers l’OTAN. La sortie de l’OTAN est-elle à l’ordre du jour, comme le New-York Times l’a titré l’autre jour ?

C’est difficile à croire. Il y a tout un establishment militaire profondément attaché à l’OTAN et pleinement conscient des bénéfices que les États-Unis tirent de leur participation à l’alliance militaire. Souvenons-nous également que le président actuel sait faire dans la provocation afin d’occuper les devants de la scène, avant de rétropédaler. C’est une tactique de négociation plus qu’autre chose.

7/ Margareth Thatcher (4 mai 1979 – 28 novembre 1990) et Ronald Reagan (20 janvier 1981 – 20 janvier 1989) étaient les catalyseurs de politiques “néolibérales” ayant entraîné l’Occident dans la dérégulation des institutions politico-économiques. Est-ce que Theresa May (13 juillet 2016 – 7 juin 2019) et Donald J. Trump (20 janvier 2017 – …) catalysent l’apparition d’un nouveau modèle ? Lequel ?

Je pense qu’il y a beaucoup de différences entre Donald Trump et Theresa May.

Le nouveau modèle qui apparaît sous leur mandat et celui de la crise du conservatisme. Soudainement, ce qui est connu, ce qui a été testé, ce qui fait partie de notre zone de confort ne fait plus consensus et ne rassure plus. Le grand pas dans l’inconnu, que l’on croyait que les opinions publiques craignaient tant, ne semble plus faire aussi peur. Le chaos stratégique est la nouvelle réalité de notre temps.

8/ Trump serait-il le premier indice d’une normalisation des États-Unis ne soutenant plus leur destinée manifeste et donc une politique universaliste. Serait-ce la fin de l’hémisphère occidental ou bien la normalisation de l’Occident ?

Je ne crois pas à une normalisation, car je ne connais pas la nature même de cette norme. Je pense que ce qui est déstabilisant avec ce président, c’est le caractère hybride de sa philosophie politique. Il parvient en effet à réconcilier différentes traditions, dépassant les clivages historiques, en se montrant faucon comme un Républicain et défenseur des classes populaires comme un Démocrate. En effet, sa proximité avec le parti républicain sur un certain nombre de sujets n’est pas à démontrer. Sur les dépenses militaires et la nature des menaces qu’il émet à l’encontre de l’Iran, Trump se montre intraitable : c’est la marque de fabrique d’un dirigeant attaché à critiquer le laxisme de ses prédécesseurs. Et, au même moment, il peut aussi s’affirmer autant défenseur du bien-être des plus vulnérables et des classes populaires qu’un démocrate traditionnel. Il reprend le scepticisme traditionnel du parti démocrate vis-à-vis des bienfaits des traités de libre-échange, seuls responsables de la montée du chômage aux États-Unis, et assure vouloir protéger les emplois des Américains, même si cela exigerait de les rapatrier de l’étranger.

L’Amérique s’est finalement trouvé une histoire, celle dont elle manquait tant aux yeux de l’Europe. Elle croit toujours en son exceptionnalisme et en sa mission universelle. Dans l’immédiat, cependant, elle ne souhaite plus l’exporter. Rien de nouveau. C’est arrivé par le passé. Il ne s’agit donc pas d’un accident de l’histoire, mais d’un retour de bâton.

9/ Autant Barack Obama avait été cyber-actif durant sa campagne électorale autant Donald Trump semble avoir moins sollicité la communication et la levée de fonds en ligne durant sa propre campagne, préférant se cantonner à la plate-forme Twitter. Y a-t-il une raison à cela ? En outre, la défiance de la Silicon Valley envers le nouveau président ne serait-elle pas aussi la démonstration d’une fracture numérique aux États-Unis entre une minorité de cadres cosmopolites et transhumanistes envers une majorité d’employés patriotes et protectionnistes ?

Il est certain que cette présidence n’a pas les faveurs de la Silicon Valley pour toutes les raisons que vous citez. Mais on aurait tort de croire que Trump ne saura pas riposter.

La campagne de Donald Trump a été assez spectaculaire dans les faits – et s’est avérée plus efficace que celle d’Hillary Clinton. L’un de ses stratèges, Brad Pascale, a d’ailleurs été en mesure de lever plus de 280 millions de dollars grâce à Facebook, en s’adressant directement aux soutiens du terrain. Cette équipe de stratèges maitrise donc parfaitement bien l’outil en ligne.

10/ Trump crie fort mais frappe peu : n’est-ce pas ce qu’on peut retenir de ses relations avec la Corée du Nord et l’Iran ? Mais il est dur avec les faibles (Europe, Mexique, Canada) ?

Trump est attiré par les pouvoirs forts. C’est ce qui explique cette relation improbable avec le dictateur nord-coréen. Mais il ne veut pas paraître faible pour autant dans ces relations – notamment parce qu’il se veut aussi faucon qu’un républicain traditionnel. Il faut donc savoir hausser le ton pour renforcer la perception selon laquelle on est prêt à agir. Les démocraties qui n’usent habituellement pas de la rhétorique guerrière sont des cibles faciles – sachant cependant qu’avec elles aussi, Trump crie fort mais frappe peu : l’accord de l’ALENA a été réécrit, de manière modeste et à la marge seulement. Et on attend encore des sanctions américaines réelles contre les intérêts commerciaux européens, au-delà des menaces. Mais Trump a aussi menacé Pyongyang avant les fameux sommets des dirigeants, avec ses commentaires sur le feu et la fureur dont la Corée du Nord pourrait faire l’objet si elle touchait aux intérêts américains.

Tout cela relève de la technique de négociation qui peut impressionner quand on ne fait pas partie des milieux immobiliers américains, mais qui n’a rien de nouveau sinon. Il s’agit d’établir la menace comme position de négociation initiale, avant de passer à la désescalade. La méthode a bien marché pour Donald Trump. Mais le risque de malentendu est grand…

Merci, Jeremy, pour ces éclairages passionnants.

ER

 

Cet article Écho du Bocal avec Jeremy Ghez sur les États-Unis de Trump est apparu en premier sur EchoRadar.eu.

Doctrine spatiale : priorité nationale, enjeu européen

Par Thomas Schumacher

Ce 14 Juillet 2019, l’Espace devrait occuper une place prépondérante en parallèle des traditionnelles cérémonies militaires. Emmanuel Macron doit s’exprimer sur le sujet et présenter la “doctrine spatiale” nationale. Car en effet, le contexte international fait plus que jamais de l’espace stratégique souverain, une priorité nationale. Et plus encore, un enjeu européen.

Ci-dessus: décollage d’Ariane 5 à Kourou, en juin 2019, pour la mission VA-248. D’ici un an, Ariane 6 effectuera son premier lancement – CNES

Le Président de la République Emmanuel Macron doit axer une partie de son discours aux Armées le 13 juillet sur la stratégie spatiale du pays. Un discours qui présentera les grandes lignes de notre nouvelle “doctrine spatiale”, une doctrine ayant vocation à comprendre un important volet européen.

Toute la difficulté dans la rédaction de ce billet résidera donc pour nous dans le besoin de présenter des enjeux à la fois militaires… et civils, à la fois français… et européens.
L’espace, comme le cyber-espace, sont devenus en quelques années des priorités des grandes puissances militaires. Si dans le second domaine, la France opère une discrète mais néanmoins sérieuse montée en puissance depuis le mandat de Jean-Yves le Drian à Brienne (2012-2017), le spatial, où la France est un challenger reconnu (dans l’ensemble des domaines), a très vite été identifié depuis l’élection d’Emmanuel Macron comme un secteur clé à renforcer, un rapport ayant été commandé et élaboré en 2018, avant d’être remis à la ministre Florence Parly.
Initialement prévue pour être dévoilée fin 2018, la stratégie, ou “doctrine” spatiale a donc l’occasion avec les cérémonies du 14 juillet de s’offrir une tribune exceptionnelle. Un week-end important pour les ambitions souveraines de la France, alors que le 12 juillet est mis à l’eau le SNA Suffren.
Si l’espace est depuis longtemps une clé pour les opérations militaires (du renseignement image à la dissuasion nucléaire), c’est bien entendu le contexte international qui guide désormais la stratégie française. Si les USA demeurent ultra-dominants, la Russie reste crédible, et la Chine, avec ses dizaines de lancements à vocation militaire annuels, conteste déjà le leader américain. D’autres Etats, comme Israël, l’Inde (qui a tiré en mars en missile anti-satellite, avec des conséquences mal contrôlées…) ou le Japon affiche des ambitions prometteuses.

Dressons un état des lieux des domaines où la France va, et pourrait progresser.

Les satellites au cœur de la bataille
 
A la fois centres névralgiques (comparons la “toile” satellitaire à des réseaux de neurones, parfois différenciés, parfois entrecroisés) de multiples opérations, civiles comme militaires, vitales pour notre société ultra-numérisée et mondialisée, et aussi véritables poumons du marché, les satellites sont aujourd’hui plus que jamais l’enjeu majeur.
De leur nombre, de leurs capacités, et de leur niveau technologique dépendent bien des solutions dites “souveraines”. L’exemple le plus connu est bien entendu le GPS américain, dont aujourd’hui, toute grande puissance spatiale, Europe comprise avec son Galileo, cherche à se détacher par souci d’indépendance.
C’est ainsi qu’en matière militaire, la “revue stratégique” tout comme la LPM 2019-25 (loi de programmation miliaire) prévoient que le libre accès et l’utilisation de l’espace exo-atmosphérique sont des conditions de notre autonomie stratégique. Un investissement de 3,6 milliards d’euros pour le renouvellement des capacités spatiales françaises doit consolider « nos capacités nationales de surveillance de l’espace exo-atmosphérique (Space Surveillance and Tracking, SST) et de connaissance de la situation spatiale (Space Situational Awareness, SSA), notamment par le renforcement du Commandement Interarmées de l’Espace et du Commandement de la Défense Aérienne et des Opérations Aériennes ».

 

Ainsi, on se rappelle en décembre dernier du lancement du satellite CSO-1. Fabriqué par Airbus Defence & Spaceet Thales Alenia Space, CSO-1 (pour composante spatiale optique) vient suppléer Helios II au service des capacités d’imagerie à destination du renseignement militaire. C’est surtout la première pièce du renouvellement de l’ensemble des capacités spatiales de défense pour la prochaine décennie.

A moyen terme, ce sont 3 satellites CSO, 3 satellites CERES (capacité d’écoute et de renseignement électromagnétique spatiale) et 2 satellites SYRACUSE IV (système de radiocommunication satellitaire) qui seront mis en orbite dans le cadre du renouvellement des capacités françaises.

Dans son désormais célèbre discours de Toulouse en septembre 2018, la ministre des Armées Florence Parly avait cité la nécessite de se doter de moyens défensifs ET offensifs dans le but de protéger notre réseau de satellites à vocation stratégique.

Car si la France est plutôt bonne élève en matière de SST (Space Surveillance and Tracking), notamment grâce à son système GRAVES (Grand Réseau Adapté à la VEille Spatiale) développé par l’ONERA pour la DGA et capable de détecter les satellites (ou autres objets, y compris des débris) orbitant au-dessus de la France métropolitaine à une altitude inférieure à 1 000 kilomètres (orbite basse), ou encore les outils de GeoTracking fournis par Airbus, elle ne dispose d’aucun moyen de défense “concret”. Or, lorsqu’un satellite étranger, russe par exemple, vient “renifler” l’un des nôtres, la seule solution revient à couper toute activité, en attendant patiemment que l’intrus s’éloigne…

C’est pourquoi des organismes comme l’ONERA pensent donc à des solutions plus “dissuasives”, et autres que le missile, un choix qui rebute en raison de la dispersion de débris qu’il provoque sur des orbites qui toucheront tout le monde. C’est le cas justement du projet de laser annoncé par l’ONERA le 7 juin dernier, une arme laser antisatellites capable de rendre inopérants des cibles situés entre 400 et 700km d’altitude. De les griller sans les détruire. Reste la limite inhérente à l’utilisation des lasers, la météo !

D’autres solutions, plus radicales, viseraient à doter chaque satellite militaire de moyen d’autodéfense, ou de disposer d’une navette dronisée capable d’intervenir, tel le X-37B américain (nous y revenons plus bas). Enfin bien sûr, il y a le cyber.

Ariane 6 et les nouvelles générations de lanceurs

 

Passons maintenant à l’échelle continentale. Côté européen, si nombre de capacités militaires sont partagées avec des pays alliés, comme l’Allemagne ou l’Italie, l’Europe doit permettre de garantir, avant toute chose, la pérennité de nos lanceurs, ce qui passe par le volet commercial et la passation de marché dans le lancement de satellites. A ce jour, le compte n’y est pas, et des voix de plus en plus nombreuses s’élèvent en faveur d’un “Buy European Act”. Vous retrouverez ici une problématique bien connue du monde de l’armement…

Ce qui nous amène donc aux lanceurs Ariane, et Vega.

Si les coopérations internationales de l’agence spatiale française, le CNES, et de l’agence européenne, l’ESA, sont une force inestimable (notamment avec la Russie, et surtout la Chine, que la NASA américaine délaisse), le fait qu’un satellite français de l’importance de CSO-1 ait été lancé depuis Kourou… sur Soyouz russe a hérissé les poils de nombreux observateurs. Effectivement, il est difficilement compréhensible de dénoncer en septembre l’espionnage d’un satellite franco-italien par un satellite russe, pour 3 mois plus tard lancer une des composantes principales d’observation orbitale via un lanceur russe.

Si la problématique et ces logiques de coopérations sont évidemment plus complexes qu’il n’y paraît, la nécessité de disposer d’un panel complet de lanceurs européens est réelle. Du nano satellite électrique de quelques dizaines de kilos au satellite lourd de plusieurs tonnes, l’Europe doit pouvoir grâce à Ariane et Vega, tirer tous les types de charge, et ce fréquemment, et à moindre coût.

Vue d’artiste d’Ariane 6.4 – Ariane Group
Jusqu’à maintenant, c’est la formidable Ariane 5 qui fait le prestige de l’Europe. Lanceur ultra fiable, Ariane 5 est néanmoins devenu trop cher (+/= 100 millions €) pour un marché désormais très concurrentiel depuis l’avènement de Space X et consorts.
A partir de 2020, c’est Ariane 6 qui débutera sa carrière, avec deux configurations (Ariane 6-2 et Ariane 6-4, selon le nombre de boosters) et un coût de lancement largement réduit (70 millions d’euros ?) grâce à des process industriels optimisés.
Vega, qui vient de connaitre ce 11 juillet 2019 son premier échec en 15 lancements, est capable de tirer de petits satellites pour un coût estimé à 30 ou 40 millions d’euros.
L’optimisation des coûts et l’avènement d’Ariane 6, conçu pour évoluer très rapidement même après son entrée en service, doit sauver le marché européen, mais il nécessite actuellement des sacrifices. C’est ici la suppression de 2300 postes chez Ariane Group d’ici 2023. Il est alors fondamental que l’Europe propose dans les mois qui viennent une feuille de route industrielle, afin de redonner un élan à l’ensemble du secteur.
Les travaux sur les lanceurs réutilisables seront eux fondamentaux, et les industriels européens, qui n’y croyaient pas il y a encore 4 ou 5 ans, sont désormais à la manœuvre sur ce créneau.
Se pose enfin la question des sites de lancement, dont le panel pourrait bien s’élargir avec la profusion de nouveaux lanceurs, en particulier privés. Dans le contexte du “New Space”, il s’agira éventuellement de proposer des solutions nouvelles et plus variées.
Kourou, en Guyane française, héritière de Hammaguir dans le Sahara Algérien, offre une solution évidente de par sa proximité avec l’équateur. Les contraintes cependant, se situant elles dans l’éloignement du continent européen, et dans son climat tropical qui rend le travail sur place difficile.

Fin 2018, un appel à projet a été lancé par le gouvernement portugais lors du Congrès international de l’astronautique pour la construction à horizon 2021 d’une base de lancement destinée au petits lanceurs sur l’île de Santa Maria, dans l’archipel des Açores. La nouvelle fut accueillie très froidement par Arianespace,  qui y voit une concurrence à Kourou, tandis que l’ESA a préféré tempérer les remous causés par cette annonce, en rappelant qu’il ne s’agissait que d’un projet. Ailleurs en Europe, le Royaume-Uni s’intéresse à un site en Ecosse, et l’Espagne pense aux Canaries.

Saisir les opportunités du New Space

Ce qui nous amène au New Space, qui peut se définir comme le nouvel écosystème économique du monde spatial, un écosystème tiré par des acteurs non-traditionnels du secteur, et dont le mérite principal est d’avoir véritablement su donner un nouvel élan à la conquête spatiale (“conquête”, ou “exploration”, cela dépendra de la doctrine, voire de la sensibilité).
Par nature, le spatial nécessite, afin de garder des capacités souveraines, de pouvoir compter sur un écosystème technologique particulièrement complet. Par exemple, outre les domaines déjà cités, et pour entrer dans des considérations plus techniques, nous penserons la capacité à fabriquer des cellules solaires et batteries toujours plus performantes, capables d’encaisser les radiations. Ou bien les amplificateurs à tubes utilisés pour amplifier les signaux radiofréquences et dont Thales est un spécialiste mondial, les gyroscopes, ou encore les détecteurs infrarouges.
Mais avec le New Space, les champs s’élargissent considérablement. Et c’est bien là une chance pour l’Europe, qui dispose de multiples atouts, privés mais aussi publics, en matière de R&D dans les hautes technologies, ses équipements se retrouvant déjà sur un nombre considérable de missions dans partout dans le système solaire.
Pourtant, l’Europe patine. Habituée à des logiques programmatiques lourdes, son temps de réaction face aux acteurs du New Space, en premier lieu américains, a été beaucoup trop long, avant qu’un vent de panique, puis une remise en ordre de marche, ne viennent successivement réordonner le secteur.

A la France, comme à ses voisins européens de structurer cette économie, notamment via des mécanismes de financements adaptés, et avec l’aide des grands groupes industriels comme Ariane. Et de profiter ensuite des formidables opportunités qui se présentent. Nous citerons les multiples technologies duales, dans la santé notamment, et, plus encore que le très médiatique tourisme spatial, une pratique à vocation stratégique s’il en est: l’exploitation des ressources de l’espace.

Concept d’exploitation des minerais d’un astéroïde, par DSI, devenu Bradford Space Inc.
Barack Obama a ouvert la voie à cette exploitation en légiférant dès 2015 (nous l’évoquions alors sur le blog !). En Europe, c’est, dans un soucis de diversification de son économie, le Luxembourg qui a misé sur ce marché en légiférant en juillet 2017, s’appuyant sur des expertises internationales, dont celles de la Banque Européenne d’Investissements et de l’ESA. Les pays du Golfe ont annoncé qu’ils feraient de même.

3 ans à peine après la mission Philae de l’ESA, avec la réussite actuelle de sa mission Ayabusa-2, le Japon démontre lui aussi sa capacité à orbiter à se poser sur un corps céleste pour recueillir des échantillons (mais également sa capacité à l’impacter avec un tir de précision ! Un message pour son voisin chinois ?).

Pour clôturer cette partie sur le New Space, nous pourrons enfin nous appuyer sur le tout récent document d’orientation de l’Agence de l’Innovation de Défense, publié ce 11 juillet, qui donne pour mission à l’Agence et au Ministère des Armées de s’appuyer sur l’expertise du CNES et de soutenir l’émergence d’une filière nationale duale du « New Space » sur les enjeux de miniaturisation et de réduction des coûts, cela dans le but de soutenir les capacités stratégiques et leur renouvellement.

De grands projets pour de grandes ambitions

 

Revenons-en au contexte international. L’espace est pour les puissances majeures, comme émergentes, tout autant une nécessité stratégique qu’un objet de prestige. La Lune fit l’objet d’une course durant la Guerre Froide, et redevient attirante pour la décennie qui se présente. Avant Mars, un jour.
Moribond il y a encore 10 ans, quand la NASA peine à justifier l’existence de ses programmes, le secteur spatial s’apprête à connaitre un nouvel âge d’or, sur fond de rivalités internationales et de prouesses scientifiques.

Bien entendu, plus que des robots, des drones… il faut envoyer des hommes et des femmes dans l’espace. La France a connu le formidable engouement autour de la mission de Thomas Pesquet en 2016 et 2017, qui lui, repartira bientôt.

En attendant, tentons d’imaginer les quelques grandes orientations qui pourront émerger de la nouvelle doctrine spatiale française:

 

  • La France doit-elle se doter d’une “Space Force” ?

Donald Trump avait surpris son monde, une fois n’est pas coutume (!), en annonçant la création d’une “Space Force”, un commandement spécial chargé de l’espace au Pentagone. Est-ce bien pertinent ? Et pourrait on prendre ce chemin ?

En France, le « Commandement interarmées de l’espace », ou CIE, s’appuie sur quatre bureaux (politique spatiale et coopérations, préparation de l’avenir, emploi et coordination et maîtrise de l’environnement spatial) ainsi que sur 6 sections (observation, écoute, surveillance de l’espace, alerte, télécommunications et navigation-positionnement-datation) et un centre d’opérations espace.

C’est la grosse côte parmi les annonces : dans l’Armée de l’air, on se plait déjà à imaginer prendre la direction des affaires, comme le citait récemment le CEMAA: « L’espace est pour l’aviateur la prolongation évidente du milieu aérien ». Et institution s’imagine déjà prendre le nom d’ « Armée de l’Air et de l’Espace » !

Il existe bel et bien une bataille doctrinale sur le sujet, que l’on retrouve aux USA. Alors que l’US Air Force gère déjà des programmes comme la navette (drone) X-37B, et par nature la surveillance du ciel, l’affirmation selon laquelle l’espace est le prolongement du ciel est désormais largement remise en cause, au profit d’une vision selon laquelle ce milieu doit développer ses propres concepts stratégiques, ces derniers ne devant en aucun cas être biaisés par les doctrines et concepts des forces armées traditionnelles… Tout comme la puissance aérienne a dû prendre son indépendance, elle qui n’était qu’un prolongement des forces terrestres ou maritimes.

Le mystérieux X-37B américain, photographié en orbite par un astronome amateur en 2019
En janvier, dans un rapport remis à la Commission de la Défense et des forces armées de l’Assemblée Nationale, les députés Olivier Becht et Stéphane Trompille proposaient la création d’une “Force spatiale” sous l’autorité directe du Chef d’état-major des Armées ainsi que d’une “Haute Autorité de Défense Spatiale” placée directement sous l’autorité du Premier Ministre en lien direct avec le ministre des Armées.

Une telle annonce ne serait donc pas si surprenante à Paris. Il s’agira également de conforter le CNES dans son rôle dual.

  • Une navette française ou européenne ?
Un autre sujet brûlant est celui des véhicules manoeuvrants, dont l’intérêt stratégique va de soi. Fin 2018, Eric Trappier, PDG de Dassault Aviation déclarait: « Qui contrôle l’espace, contrôlera ce qu’il y a en dessous. Il faudra être dans l’espace avec très certainement des avions spatiaux à un horizon de 15 à 20 ans (…) Si on vole dans l’espace, Dassault Aviation peut y être et doit y être ».
Effectivement, Dassault se montre plutôt proactif sur cette question, avec encore quelques pistes lâchées par son PDG Eric Trappier lors du Paris Air Forum, le 15 juin dernier:« On commence à maîtriser l’espace pas seulement en y allant et en en revenant, mais aussi en s’y promenant. Cela peut intéresser les avionneurs de combat et en particulier Dassault de pousser un peu plus la frontière. (…) Il faut accentuer et accélérer la volonté de coopération européenne dans ce domaine ».

L’idée est certes séduisante, mais étant donné le coût, à ce jour non dévoilé, d’un tel programme, que seuls les USA avec leurs X37-B, et la Chine avec Shenlong, semblent pouvoir mener, la coopération à échelle européenne s’avère obligatoire.

Le Space Rider, future navette non-habitée de l’ESA, est notamment développée par Thales
Faute de solution nationale low cost, même si Dassault justement, a travaillé sur des projets de navettes autonomes, il existe bel et bien une piste crédible: le Space Rider.
Thales Alenia Space et la compagnie italienne ELV (European Launch Vehicle) se sont vus confier en novembre 2017 un contrat de 36,7 millions d’euros dans le cadre du programme Space Rider, qui fait directement suite au démonstrateur IXV, qui a volé en 2015.
Envoyé par le lanceur Vega-C depuis Kourou, Space Rider pourra dans quelques années, après un premier vol en 2021, emporter des charges utiles de 800 kg pour des missions diverses. Réutilisable, il sera surtout muni d’un bras robotisé.A vocation civile, d’abord au sein de l’ESA, mais plus tard chez Arianespace, on peut facilement imaginer un emploi plus stratégique pour le Space Rider.
Dans un entretien chez Aviation Week en juin, Eric Trappier, qui porte également la casquette de Président du GIFAS, citait justement le programme: « Je peux voir où les Chinois veulent aller – un avion spatial. Je peux voir les États-Unis réagir. Il y a beaucoup de créativité aux États-Unis. Nous devons suivre cet exemple sans nous contenter de copier. L’Europe doit pouvoir se rallier et conserver son autonomie dans l’espace. De plus, l’espace militarise. Nous ne pouvons pas être laissés pour compte. Un autre problème est l’accès aux données de l’observation de la Terre. Donc, le Space Rider est une petite contribution à quelque chose de plus grand. Les Chinois progressent rapidement dans l’aérodynamique et l’hypervelocité. Nous pouvons (Dassault Aviation) apporter certaines capacités dans le programme Space Rider, ce qui serait la réponse de l’Europe ».Mais là encore, un tel projet rencontrera des divergences politiques et doctrinales. Il s’agira de passer outre. Une impulsion dans ce domaine est donc attendue, et certains industriels semblent convaincus. Reste à savoir si nous avons les moyens, et la volonté, d’inscrire cela dans un cadre purement national et stratégique, ou dans un cadre européen plus large et dual.
  • La résilience de notre réseau satellitaire
Plus qu’une politique de puissance, la France vise l’indépendance. Dans un tel cadre, les capacités défensives sont fondamentales, et les capacités offensives servent la dissuasion. La priorité est alors de pouvoir disposer de capacités crédibles, car non seulement performantes, mais aussi et surtout extrêmement résilientes.
Si certaines puissances ont tenu a démontrer leur capacité à cibler et détruire un satellite en développant des missiles dédiés, la menace la plus directe aujourd’hui est la cyber-menace.
Or, on trouve quelques solutions dans le rapport parlementaire d’Olivier Becht et Stéphane Trompille: pouvoir disposer de constellations de satellites, et/ou de moyens de lancement rapides de fusées emportant un satellite à partir “de drones spéciaux de type ALTAIR développé par l’Onera ou de type Pegasus de Dassault”, et ce afin de combler les pertes en cas d’agression, soit par la masse, soit par des lancements en urgence.

Une autre solution prônée par le rapport parlementaire, déjà presque “sur étagère, s’incarne dans le recours aux pseudo-satellites comme le Stratobus de Thales Alenia Space ou le Zephyr d’Airbus Defense & Space.

Le Stratobus de TAS débutera sa carrière commerciale en 2022. Il pourrait jouer un rôle fondamental sur certains théâtres.

Ces “pseudo satellites de haute altitude”, ou HAPS, sont en phase finale de développement et devrait pouvoir se faire une place, notamment dans les armées européennes. Problème et limite, ces appareils ne sont pas adaptés au contexte de guerre de haute intensité.

Le drone solaire Zephyr d’Airbus, intéresse notamment l’armée britannique
 
Quid du satellite à communication quantique ? Disposant d’un chiffrage “quantique” supposé indéchiffrable, la Chine semble en avance dans ce domaine. Elle qui a tiré un satellite de ce type en août 2016, espère disposer d’un réseau quantique aux environs de 2030. Ses investissements en la matière se comptent en dizaines de milliards, ce qui rend cette technologie inaccessible pour des puissances moyennes… jusqu’à preuve du contraire, la France n’étant pas inactive dans ce domaine.
 
  • Le droit !
Si l’ont en croît les diverses déclarations entendues cette année, principalement depuis le discours de Florence Parly à Toulouse, la France, dans un désir d’indépendance et de souveraineté, s’inscrit dans une posture basée sur son droit de légitime défense : « Nous allons continuer à avoir une stratégie défensive  mais nous ne nous interdisons pas d’avoir une stratégie plus offensive » (Florence Parly).
Mais en parallèle de toute action, toute doctrine, toute stratégie, la France peut tenter de jouer un rôle, qui historiquement lui plaît, celui de leader sur le plan diplomatique, dans un domaine où tout reste à faire, ou plutôt à refaire… puisque depuis le Traité sur l’espace de 1967, le corpus tient sur des principes que l’on qualifiera désormais d’idéalistes.

Car cette militarisation de l’espace qui ne dit pas son nom, fruit d’une partie d’échec avec au centre le contrôle des réseaux et l’exploitation des ressources, ne peut pas, ne doit pas se dérouler dans dans une sorte de no man’s land juridique. La France, qui se veut toujours respectueuse du droit international et qui prône la diplomatie avant tout, doit non seulement proposer des initiatives pour un nouveau droit spatial international, mais peut de façon plus simple, d’ores et déjà commencer à initier des mesures nouvelles au plan national comme européen. Le secteur du New Space est sur ce point en première ligne.

 

Cet article Doctrine spatiale : priorité nationale, enjeu européen est apparu en premier sur EchoRadar.eu.

Quelle Europe dans un monde d’empires ?

Par Olivier Kempf

Le groupe d’études géopolitiques (GEG) est un cercle de réflexion issu de la rue d’Ulm et résolument pro-européen, mâtiné de beaucoup de culture (je n’ose dire qu’il est élitiste). Adossé à un site, le Grand continent, Il envoie chaque fin de semaine une petite lettre qui est souvent intéressante. La dernière (voir ici) m’a toutefois chagriné. Elle publie en effet la lettre d’un intellectuel italien, Alberto Alemanno, professeur titulaire de la chaire Jean Monnet en droit et politiques publiques européennes à HEC Paris, qui réagissait à un discours récent d’un autre intellectuel, américain celui-là, Tymothy Snyder.

source

Ce dernier, dans un discours prononcé à Vienne le 9 mai dernier, dénonçait “l’un des malentendus les plus prégnants du débat européen : bien plus qu’une union d’États-nations épuisés par des siècles d’affrontement intestins, l’Europe est née de l’effondrement des empires européens. Loin d’avoir précédé l’Europe, l’État-nation est une construction européenne“. A. Alemanno réagissait à ce discours dans un long texte publié par GEG.

Or, ce texte me laisse perplexe. Je ne dois pas être très intelligent ni assez cultivé ni possédant assez de connaissances historiques. Mais quand je lis : ” Cela signifierait-t-il que c’est l’Union européenne qui a créé l’État-nation européen et non l’inverse ? – C’était ce que je me demandais. C’était pourtant vrai – je le concédais.”, j’avoue ne pas comprendre, et encore moins suivre le raisonnement qui me semble spécieux.

L’Union Européenne, juridiquement, date de 1992. Si on remonte à la construction juridique européenne, on va au choix en 1957 (Rome) ou 1951 (CECA). Les États-nations préexistent depuis longtemps, que ce soit en réalité ou même sous la forme d’un accord juridique (le système westphalien). Il me semble donc qu’il y a une antériorité historique d’une forme sur l’autre.

Il reste alors la question de la concurrence entre la forme impériale et la forme étatique : là, pour le coup, on peut tout à fait observer une concomitance historique, sachant que les derniers empires en Europe prennent fin principalement avec la fin de la 1GM et au-delà avec celle de la 2GM (Reich voir URSS). Quant aux empires coloniaux, ils disparaissent concomitamment avec la construction européenne.

Du coup, on pourrait presque émettre l’hypothèse suivante, à rebours de tout ce qui est dit dans votre texte : l’UE est un processus impérial d’un genre nouveau, qui vient renouveler la vieille concurrence entre l’État-nation et l’empire, ce dernier étant traditionnellement construit atour d’une base nationale, ce qui n’est pas le cas dans le cas européen.

Bref, je reste très peu convaincu par le texte du jour.

On se reportera à ce texte de l’an dernier, “Territoire et empire“, qui s’interrogeait déjà sur la notion d’empire. Texte que j’avais prévu de compléter par un développement sur l’UE, justement. Signe que cette interrogation demeure pertinente…

O. Kempf

 

Cet article Quelle Europe dans un monde d’empires ? est apparu en premier sur EchoRadar.eu.

Le « Remote Carrier » est-il l’avenir du drone de combat ?

Par Thomas Schumacher
Loyal Wingmen, ou Remote Carrier, ces curieuses appellations, en attendant de trouver le bon terme en français, désignent toute une nuée d’appareils qui s’intégreront au(x) système(s) de combat aérien futur(s), aux côtés des avions “pilotés”. A mi-chemin entre le drone et le vecteur autonome, ils sont les instruments au service du pilote de chasse.


Illustration ci-dessus: les “remote carriers” selon Airbus Defence & Space (vue d’artiste)
 
 
Star du Salon du Bourget 2019, le New Generation Fighter ou “NGF” de Dassault Aviation (maître d’oeuvre, en collaboration avec Airbus), était accompagné sur le tarmac de deux curieux appareils, au design de missile de croisière. Un chez Airbus, l’autre chez le missilier MBDA. Ces appareils sont officiellement appelés “remote carriers”, littéralement des effecteurs détachés du chasseur. Il ne s’agit pas d’armes, mais bien d’aéronefs intégrés au groupe de combat durant une mission.

Apparus ces deux (ou trois) dernières années dans les modélisations des industriels et forces aériennes occidentales, les “loyal wingmen” comme on les appelle aux USA, font partie de la solution imaginée pour percer la fameuse bulle A2/AD (anti area/aerial denial) qui, incarnée à travers le très (trop ?) fameux système de défense AA et anti-missile russe S-400, doit mettre à bas la toute puissante domination aérienne de l’Occident.

Le “NGF” (Dassault/Airbus) et ses “remote carriers” (Airbus & MBDA) – Pax Aquitania

 

Ainsi un escadron de chasseurs furtifs en opération de guerre s’appuierait sur ces effecteurs déportés pour diverses missions allant du renseignement d’origine électromagnétique, jusqu’à la frappe s’il s’agit d’un missile de croisière, le tout étant centralisé par le système de systèmes. Surtout, ceux-ci seraient sacrifiables dans un environnement contesté.


Il y a drone armé… et drone de combat.
Alors peut-on encore parler de drone, alors qu’on annonce des remote carriers semi-autonomes, voire carrément autonomes grâce à un haut-niveau d’intelligence artificielle (les décideurs français l’ont précisé au Bourget dans diverses interviews: dans les forces françaises, c’est l’homme qui aura toujours le dernier mot s’agissant de l’ordre de frappe) ?

Encore faudrait-il pouvoir déterminer ce qu’est un drone de combat, tant les confusions sont nombreuses, notamment dans les médias.

Un drone armé tel qu’il en existe aujourd’hui, au sens capable d’emporter et de délivrer de l’armement, n’aurait en réalité aucune chance de survie dans un environnement contesté.
Dépourvus de furtivité et d’auto-protection, relativement lents et “patauds”, les drones armés comme le MQ-9 Reaper ressemblent plus à des planeurs vulnérables qu’à des appareils de combat. La destruction par la défense aérienne iranienne d’un RQ-4 américain le prouve. Au Yémen, ce sont les drones MALE d’origine chinoise en service dans les forces saoudiennes ou émiratis qui tombent les uns après les autres, abattus par les missiles des rebelles Houthis.

Conclusion, les drones MALE ont pour mission première la permanence du renseignement dans un ciel acquis. En second vient la frappe aérienne, d’opportunité, comme le vise l’Armée de l’air française à partir de l’an prochain.
Certaines armées, n’ayant pas les moyens financiers ou humains d’entretenir une flotte de chasseurs, seront tentées d’en user différemment, et d’envoyer ces appareils en première ligne, s’exposant à des pertes… mais des pertes acceptables (le drone est certes consommable, mais il reste tout de même onéreux !).

Hollywood a donc tort, nous ne sommes pas prêts de voir un drone Predator voltiger en rase-motte tout en délivrant missile sur missile !


Drone ou missile intelligent ?

Nos remote carriers présentés au Bourget ressemblaient plus en réalité à des missiles de croisière, de tailles diverses. Imaginés comme agiles, rapides, très rapides, récupérables mais aussi “consommables”, c’est naturellement une architecture en flèche qui l’emporte.

Pour preuve, outre Airbus, qui avait montré à l’automne un test grandeur nature en Mer du Nord avec vol en essaim de 5 vecteurs catapultés depuis la côte (lien ci-dessous), c’est le missilier MBDA qui exhibait ses remote carriers RC 100 et RC 200. Le RC 100 est un véhicule de 100 kg, le RC 200 un véhicule de 200 kg, de la gamme supérieure en termes de performances. De plus, ces effecteurs MBDA s’intègrent parfaitement au sein de l’offre globale du missilier franco-britannique (quoiqu’il en soit du programme britannique Tempest, il bénéficiera à coup sûr des mêmes effecteurs que le programme FCAS franco-allemand-espagnol).

“Remote carrier” selon MBDA
Ces appareils se présentent donc déjà sous diverses tailles, et le panel de missions imaginées est impressionnant: reconnaissance, missile, capteurs ROEM, lutte anti radar… D’autant plus que la technologie paraît maîtrisée par nos industriels français et européens.

Le pilote garde l’œil, et la main, sur l’environnement de combat
Depuis maintenant plusieurs mois, Airbus diffuse (même publiquement) une présentation détaillée et imagée du système de combat aérien futur. En l’état, le SCAF européen semble même le projet le plus abouti au monde, ou du moins le plus concret, tant la démonstration de son concept semble limpide.

Au sein du groupe de combat futur, tout y passe: AWAC, ravitailleur, transporteur, chasseur de 4ème génération Rafale et Eurofighter, satellites.. et donc nos remote carriers.

Le chasseur, furtif et lourd (ce qui était une évidence et ce que la maquette du Bourget a confirmé) au cœur du dispositif, joue le rôle de quarterback (il faudra trouver une analogie footballistique d’ailleurs pour nous, européens !)orientant en quelque sorte le jeu, grâce à des effecteurs en avant, et sur ses ailes.
En arrière, grâce au système de systèmes parfaitement intégré dans chaque appareil du dispositif, et concentrant en temps réel toutes les informations, des appareils à vocation “logistique” sont capables de larguer des effecteurs supplémentaires afin de renforcer l’essaim qui sature les défenses adverses. Sur la démonstration, il s’agit d’un Airbus A400M qui largue nos remote carriers.


Ci-dessous: illustration du système de combat aérien futur – Airbus DS

Au sein du SCAF, différents appareils évoluent en réseau
L’A400M libère des remote carriers selon le besoin identifié en avant
Le chasseur “NGF” évolue en véritable escadron avec ses ailiers autonomes (ou semi-autonomes)

 

A la décision, l’humain. Les forces et industries françaises mettent actuellement les bouchées doubles tant sur le plan doctrinal que technique, sur le “man machine teaming”, soit la coopération homme/machine. En effet, les systèmes, à grand renfort d’algorithmes, doivent pouvoir traiter une grande partie de la quantité toujours plus importante de données, et livrer au pilote une image clarifiée de l’environnement de combat.
Ce véritable défi cognitif est la clé. Tel que présenté au Bourget, l’Armée de l’air imagine même le SCAF capable de discerner le niveau d’intérêt d’une cible (ou même de corriger une erreur, diminuant le risque de dommage collatéral). Dans un tel cas, le remote carrier, ou même le missile lui même pourrait dans un délai respectable (à clarifier) informer le pilote qu’une cible secondaire devient prioritaire. Et les exemples imaginables sont aussi révolutionnaires que nombreux… tant que le niveau de connaissance du pilote demeure acceptable quant à l’évaluation des risques (Situational Awareness & Risk Assessment Functions).

Mais quel avenir pour l’aile volante ?
Le démonstrateur Neuron et le Rafale, en vol à Istres – Dassault Aviation
Le destin paraît donc aujourd’hui tout tracé pour nos remote carriers au profil véloce et discret. Mais que deviennent alors les fameux concept d’ailes volantes furtives qui illustraient le concept SCAF à l’époque où celui-ci était franco-britannique (2011-2016 environ) ? Un démonstrateur de drone de combat avait même été annoncé par François Hollande et David Cameron, avec un budget conséquent.
Dassault Aviation montrait alors sur les vues d’artiste le Rafale évoluant en escadron avec un drone furtif ressemblant à son Neuron.

Entre temps, le projet a périclité, pas aidé de surcroît par le Brexit et une partie britannique qui tente aujourd’hui de jouer sa propre partition.

Mais le démonstrateur Neuron continue lui ses expérimentations à Istres, sa structure furtive faisant avancer les compétences françaises en la matière, ce qui sera bien sûr déterminant pour le SCAF.
Ailleurs, les projets existent: la Chine a dévoilé son CH-7 sur un salon aéronautique, tandis que la Russie travaille sur le « Okhotnik ».

En réalité, on ne peut vraiment juger de la pertinence de ces concepts de drones de combat furtif, et les doutes nous viennent directement du leader en la matière, les USA. L’US Navy a ainsi abandonné son programme de drone furtif X47-B pour dévier vers le programme CBARS (Carrier-Based Aerial-Refueling System), ou désormais MQ-25 “Stingray”, un drone ravitailleur pouvant embarquer sur porte-avions, et ainsi donner de l’allonge au groupe de chasse.

L’évolution doctrinale en occident ces dernières années nous amène donc à conclure une chose: le pilote humain, à bord de l’appareil, gagne la bataille du cerveau et conservera (au moins pour cette génération) la main-mise sur le combat aérien. Il sera suppléé par divers effecteurs déportés, des drones semi-autonomes (l’autonomie complète ne sera probablement pas atteinte à moyen terme), profilés pour opérer dans un environnement contesté.
Les plus gros drones eux, également furtifs mais subsoniques, auront un rôle plus stratégique, jouant à l’arrière le rôle de ravitailleur, ou de camions à bombes lorsque ce dernier rôle ne pourra être tenu par des appareils habités (comme le Rafale ou le F-15).
La frappe stratégique nucléaire effectuée par un drone furtif semble aujourd’hui totalement exclue.
Cependant, les visuels Airbus de l’environnement SCAF montrent toujours des ailes volantes furtives au sein d’un groupe de combat, avec pour mission la frappe et la désignation de cible en profondeur.
Mais comparativement aux remote carriers, ils semblent eux destinés à œuvrer en solitaire, plus directement, là où la force des premiers sera l’action en essaim, fulgurante, et la saturation des défenses.
Présentation du SCAF par Airbus Espagne fin 2018
Airbus

Cet article Le « Remote Carrier » est-il l’avenir du drone de combat ? est apparu en premier sur EchoRadar.eu.

Éthique de responsabilité c/ punition collective

Par Yannick Harrel

 

L’étude des mobilités a ceci de fascinant qu’elle permet de mettre en exergue les fondements d’une civilisation, tant par les mobilités elles-mêmes que par l’écosystème qu’elle génère et nécessite.

C’est pourtant sur un plan plus philosophique que technique ou logistique qu’est abordé le sujet du jour.

À force d’analyses sur les mobilités, il m’est apparu assez rapidement que le mouvement de fond des années 2000-2010 était l’exact contraire des années 1960-1970 où le but était justement d’élargir comme de fluidifier les axes de circulation en France.

Si Georges Pompidou, homme de lettres et chef d’État, revenait parmi les siens, il ne pourrait s’empêcher de s’écrier comme en ce soir de 1966 où un jeune ambitieux chargé de mission (et futur président de la République) nommé Jacques Chirac s’empressait de lui faire signer une multitude de décrets :

Mais arrêtez donc d’emmerder les Français ! Il y a trop de lois, trop de textes, trop de règlements dans ce pays ! On en crève ! Laissez-les vivre un peu et vous verrez que tout ira mieux ! Foutez-leur la paix ! Il faut libérer ce pays !

Et il est même possible d’exhumer ce passage prophétique :

«… ce n’est pas parce que l’on empêcherait les voitures de circuler qu’on rendrait Paris plus beau». Suivez mon regard…

Rappelons que l’homme était aussi conscient de certaines nécessités puisqu’il favorisa la création du ministère de l’environnement en 1971. Comme quoi modernité n’était pas opposée à écologie en son esprit.

Le soubassement philosophique du propos c’est que les mesures coercitives de circulation sont – officiellement – prises afin de répondre à la problématique de l’accidentologie selon un principe très bien établi que l’énergie cinétique (calculée en joules) du véhicule découle de sa masse multipliée par le nombre de mètres par seconde (soit 3,6 km/h) au carré et le tout divisé par 0,5.
Par exemple, un piéton de 70 kilos offre en déplacement citadin (3 km/h) une énergie cinétique de 24 joules, un trottineur (25 km/h) avec assistance électrique non modifiée offre 1,9 kilojoules, un cycliste confirmé (30 km/h) sur un vélo moderne sans assistance électrique pesant 8 kilos offre 2,7 kilojoules, un cycliste lambda (25 km/h) sur un vélo avec assistance électrique non modifiée pesant 23 kilos offre 2,2 kilojoules, un scooter non débridé (45 km/h) de 130 kilos aboutit à 15,6 kilojoules, une citadine d’une tonne (50 km/h) équivaut à 96,3 kilojoules. Les chiffres prennent en considération la présence d’un individu témoin de 70 kilos pour chaque mode de transport, d’où majoration de son poids à celui du véhicule.

Sur ce plan la logique est imparable : une voiture à l’arrêt occasionnera zéro dégât par rapport à un véhicule avec une énergie cinétique conséquente de plusieurs centaines de joules. Là n’est cependant pas la question : lorsqu’un accident se produit, la factorialité doit permettre de déterminer quelle est la part exacte de la vitesse dans le dommage corporel et/ou matériel. Un accident aurait-il été létal de la même manière à 50 qu’à 70 km/h par exemple? Aurait-il été identique si le paramètre visibilité n’avait pas été affecté (en cas de nappe de brouillard très localisée par exemple)?

Mais aussi, et surtout, comment peut-on faire supporter à la collectivité un évènement, aussi tragique soit-il?

Pour expliciter mon propos : comment peut-on punir collectivement alors que la responsabilité est – ou devrait – être individuelle?

Tout simplement parce que la collectivité est consentente, soit par paresse, soit par duperie, soit par méconnaissance, soit par acceptation avisée. L’on peut espérer que seule la dernière raison soit effective dans les décisions de restrictions de circulation mais un fort gros doute m’anime à ce sujet tant les dossiers peuvent être complexes, et généralement non communiqués au public. La collectivté s’en remet par conséquent à ses élus et ses gouvernants.

Or, lorsqu’un élu est frappé de prévarication, il est coutumier que le corps politique réaffirme la faute individuelle – comprendre un acte isolé – en évitant de remettre en cause le tort au corps social mais en s’absolvant d’office sur le principe qu’une généralisation ne saurait avoir cours.

Ces mêmes élus, propices à exonérer leur propre formation ou même leur classe dans son ensemble se sont pourtant affairés à entériner toute une litanie de mesures coercitives à l’encontre d’une masse importante de citoyens, au motif qu’ils sont des usagers des axes de circulation au même titre que les responsables d’accidents sur ces mêmes voies.

C’est là un procédé qui ne peut sourdre qu’au sein d’esprits atteints de la certitude de disposer d’un statut exhorbitant de droit commun qui les affranchit des règles de responsabilité ordinaire. Faire supporter à tout le corps social les conséquences de l’erreur d’une très faible minorité mais refuser d’appliquer ce principe à sa propre classe est assez symptomatique d’un déréglement conséquent de la vie démocratique.

Car si le politique professionnel peut arguer que les affaires judiciaires n’entâchent qu’une minorité de parlementaires et de membres du gouvernement, celui-là peut frapper d’opprobre, sans y trouver hiatus, l’intégralité des usagers de la route sur la base d’une minorité d’acteurs irresponsables (et encore faut-il déterminer les réelles causes accidentogènes, certaines échappant au contrôle humain, étant d’ordre mécaniques, infrastructurelles, environnementales, météorologiques ou médicales).

Tous usagers, tous coupables!

C’est ce point précis qui dénote que la politique actuelle visant à introduire la suspicion généralisée et systématique à l’encontre des différents usagers de la circulation est perturbant, pour rester dans l’euphémisme.

Pourquoi plutôt qu’une punition collective ne pas en faire appel à la responsabilité individuelle? Et ce alors que la politique menée depuis de nombreuses années est parvenue à ses limites puisque les autorités sont incapables de chiffrer avec exactitude le nombre de conducteurs roulant sans permis et sans assurance.

Comme si la culpabilité générale entraînait inéluctablement la déresponsabilisation, et ce dans une certaine logique.

Il fut bien question un temps de récompenser les conducteurs vertueux, jusqu’à ce que l’appât du gain et la facilité induite par l’habitude referment la malle aux bonnes idées. En revanche les autorités ne manquèrent d’aucune célérité pour les mesures les plus attentatoires à la liberté de circulation.

J’ai pu observer sur des routes où le marquage de délimitation au sol était absent que les divers véhicules avait plus tendance à s’éloigner les uns des autres plutôt que de se frôler comme d’ordinaire. Cette tendance s’est confirmée en plusieurs positions d’observation et m’a conforté dans le fait que la France souffre d’une sur-réglementation et d’une surcharge informationnelle pesant sur l’usager moyen de la route. Et que le bon sens s’efface trop souvent devant l’arbitraire et la certitude autistique de décideurs politiques, de rapports émanant de fonctionnaires ignorant la réalité de terrain et du rôle d’associations zélées justifiant leur existence par l’appui à des mesures toujours plus contraignantes.

Si l’on ajoute la peur de certains élus de se voir traîner devant les tribunaux en cas d’accrochage sérieux dans leur localité, l’on comprend mieux pourquoi les limitations et obstacles fleurissent dans le moindre petit village de France au nom du principe de précaution.

L’attrait du vélo dans les villes ressort d’ailleurs d’un aveu admis par les cyclistes : en vélo, on fait ce que l’on veut. Du moins, jusqu’à ce que ce principe de punition collective s’impose aussi à ce moyen de locomotion à l’avenir.

Il est assez cocasse de constater que les mobilités contemporaines s’inscrivent plutôt dans un objectif d’immobilité puisqu’en réduisant les vitesses vous n’allez pas tant moins vite que moins loin en un même temps donné.
Et l’émergence de l’hybridation (à moyen terme) et de l’électrification (à long terme) ne devrait pas changer la donne politique actuelle. L’on peut se fonder sur un élément tangible confirmant le propos. Ainsi les motorisations des années 1970 et celles de 2020 ne sont en rien comparables, avec de fabuleux progrès en termes de pollutions atmosphérique et sonore, de sécurités passive et active et surtout de consommation (relevons que les taxes sur les carburants ont explosé au fil des améliorations techniques, réduisant les avantages pécuniaires attendus par les utilisateurs de ces véhicules). Or, et malgré ces améliorations constantes, les entraves artificielles et les limitations de vitesse se sont multipliées car les dispositions d’esprit se sont quant à elles fossilisées.

Punir tous au lieu de responsabiliser chacun ne peut amener que ressentiment et privation de richesses. À quoi bon ouvrir les frontières si ce n’est pour ne pas les atteindre? Pourquoi ne pas punir sans clémence les fautifs trop heureux de diluer jusqu’alors leur propre responsabilité au sein du corps social?

Les illusions de la sécurité promise confortent les peuples à hypothéquer leurs libertés. Et lorsque la circulation s’arrêtera, celle des hommes, c’est à dire des idées, alors ne restera plus non un pays mais un musée.

Car comme le déclarait si bien Thomas Jefferson : « Timid men prefer the calm of despotism to the tempestuous sea of liberty. ».

Ce à quoi Étienne de la Boétie pourrait répliquer : « Encore ce seul tyran, il n’est pas besoin de le combattre, il n’est pas besoin de le défaire, il est de soi-même défait, mais que le pays ne consente à sa servitude ; il ne faut pas lui ôter rien, mais ne lui donner rien ; il n’est pas besoin que le pays se mette en peine de faire rien pour soi, pourvu qu’il ne fasse rien contre soi. Ce sont donc les peuples mêmes qui se laissent ou plutôt se font gourmander, puisqu’en cessant de servir ils en seraient quittes ; c’est le peuple qui s’asservit, qui se coupe la gorge, qui, ayant le choix ou d’être serf ou d’être libre, quitte la franchise et prend le joug, qui consent à son mal, ou plutôt le pourchasse. »

Cet article Éthique de responsabilité c/ punition collective est apparu en premier sur EchoRadar.eu.

Remédier à l’échec de la sensibilisation à la cybersécurité

Par Informatiques Orphelines

Malgré son importance, la cybersécurité pâtit du fait qu’elle est à la mode. Sensibiliser à la cybersécurité est rappelé sans cesse, tel un mantra. Comme il est vrai qu’un défaut de cybersécurité peut avoir des conséquences désastreuses pour soi et les autres membres du réseau, il est indispensable que chacun se sente concerné et applique les règles élémentaires de cybersécurité. Pour cela, il va de soi que chaque utilisateur de l’informatique, du cyber ou du numérique, doit être sensibilisé aux dangers, à leurs remèdes, aux bonnes pratiques qui permettent de se prémunir des cyberattaques en tout genre.

Cela est fort bien, et loin de moi l’idée de critiquer l’aspect indispensable de la cybersécurité.

Pensez cybersécurité on Twitter: "Avez-vous appris des ...

Source

Cependant, le problème réside dans le fait que la cybercriminalité augmente dramatiquement (de manière exponentielle disent même ceux qui maîtrisent cette fonction… ou presque). Alors, si l’on fait preuve d’un peu de rigueur ou de perspicacité (voire des deux), on en vient à se demander pourquoi, si la sensibilisation à la cybersécurité se poursuit de la meilleure manière possible (personne ne la remet, même partiellement, en question), la cybercriminalité augmente et continue de rapporter à ceux qui la pratiquent ?

Parce qu’elle se diversifie et devient plus complexe, disent la majorité des intervenants.

Parce que la sensibilisation à la cybersécurité est un échec, dis-je, et je m’en vais vous expliquer pourquoi.

Un échec paradoxal

Parler d’échec pour la sensibilisation à la cybersécurité est un discours à contre courant, car la plupart penseront que proférer une telle affirmation serait faire insulte aux personnes qui se dévouent à cette tâche. Que les choses soient claires : il ne s’agit pas ici de critiquer les formateurs, mais bien d’étudier les raisons de l’échec des formations qu’ils dispensent. Car, rappelons le, si elles étaient si fructueuses qu’on le laisse comprendre, alors le nombre de cybervictimes baisserait. Or comme ce n’est pas le cas, il faut donc chercher les raisons de cet échec.

Ce n’est pas dû au contenu du message délivré, ni même à sa qualité : il est pertinent et ne comporte pas d’erreur (même si on peut argumenter sur la nécessité de changer régulièrement de mot de passe, car on ne change jamais de code de carte bleue, ni d’empreinte digitale, ni d’iris de l’oeil, ni la morphologie de son visage). Dans ce cas, il est alors bon de se demander si cette répétition inlassable (ou marteau-thérapie) est bien pertinente. En effet, dispenser le même message, en tout temps et en tous lieux ne manque pas d’avoir les effets collatéraux suivants :

  • culpabilisation de l’utilisateur, cancre des temps modernes qui refuse de retenir ce qu’on lui enseigne avec patience et pédagogie, comme s’il ne l’avait pas encore comprise, comme s’il fallait inlassablement la répéter, et qu’il méritait bien un (juste) châtiment ;

Source

  • entretien (chez les utilisateurs non avertis) du caractère irrationnel ou maléfique de l’informatique, de laquelle il faut sans cesse se prémunir ;
  • infantilisation des utilisateurs qui persistent à ne pas comprendre ce que des experts leur expliquent ;
  • enfin (mais la liste ne prétend pas à l’exhaustivité), cela entretient le “fromage” de la sensibilisation dont les modalités ne sont jamais remises en question.

Le terme fromage pourrait paraître excessif dans la mesure où les séances dispensées ne rapportent pas d’argent, nombre d’entre elles étant gratuites. Ce n’est cependant pas un abus de langage, dans la mesure où la répétition de la sensibilisation confère, voire entretient une posture de “sage” ou pour le moins de “sachant”, bien agréable pour celui qui en profite. Alors qu’en fait, rappelons le, il ne cesse de répéter la même chose tout au long de ses séances. La pédagogie est l’art de la répétition m’objecteront certains. Mais il n’y a pas identité entre les deux termes.

La répétition du même message a un autre avantage, elle évite de faire du sur-mesure ou même du demi-mesure dans les séances. En cela, ses propagandistes sont comparables aux orateurs qui n’ont pas préparé leur intervention mais ont décidé de recycler la présentation qu’ils ont préparée (ou fait préparer) il y a de cela un certain temps. Malheureusement pour eux, ils sont trahis par quelques diapositives qui ne s’appliquent pas à la séance en cours et sur lesquelles il passent rapidement, proférant de bizarres borborygmes gênés et souvent incompréhensibles. En cela, ils sont comparables aux industriels du logiciel qui vendent leurs produits sans se poser la question de leur adaptation aux besoins et contraintes de l’utilisateur, comme j’en avais parlé pour le cas des hôpitaux.

Le constat étant posé, comment y remédier ? En s’inspirant d’un constat similaire effectué dans un autre domaine que celui de la cybersécurité, et en se demandant si les remèdes utilisés pour l’un pourraient être transposés à l’autre.

Un parallèle

Il y a quelques années de cela, j’ai été chargé d’enseigner une méthode dite de raisonnement tactique pour les uns, d’élaboration des ordres pour les autres, et dont l’objectif est d’aider un chef militaire à préparer une manœuvre contre un ennemi ou un adversaire.

Maîtriser cette méthode est indispensable, car de cette maîtrise découle (en partie) le succès ou l’échec de la manœuvre. En effet, lorsque l’adversaire tend à devenir un ennemi, il est préférable de ne pas terminer deuxième à l’issue de la confrontation et donc d’appliquer une méthode éprouvée. Pourtant, malgré l’importance de cet apprentissage, “force était de constater” qu’un rejet de cette méthode s’était instauré dans les esprits. Rassurez-vous, jamais en paroles, et tout le monde était capable de réciter par cœur quelques définitions de termes auxquels elle faisait appel, mais la compréhension de la méthode était (très) perfectible. Seuls quelques-uns l’appréciaient car ils la maîtrisaient, les autres s’en accommodaient comme d’un mal nécessaire. Bref, le même constat que pour les opérations élémentaires de cybersécurité. Le catalyseur de ce constat fut la mine dépitée d’un instructeur qui alors qu’il faisait son numéro de claquettes habituel devant des X, s’entendit objecter en plein cours : “on n’apprend rien, ce n’est que de la logique.”

Quelque peu marri de cet échec pédagogique, je me mis alors à récupérer les archives des cours dispensés par mes (glorieux) prédécesseurs (en remontant sur de nombreuses années), quelque fut l’ancienneté et donc l’expérience de leurs élèves.

Et là, tel Archimède dans sa baignoire, je compris !

Dibujos animados de baño natación Archimedes Eureka — Foto ...

Source

La cause du rejet était fort simple : on ne cessait d’enseigner la méthode de la même manière, quel que fut le niveau de l’élève. Ce qui signifie qu’en début de carrière on vous l’enseignait dans sa totalité puis, à chaque fois qu’un enseignement était estimé nécessaire, elle était enseignée de la même manière qu’en début de carrière. C’est certes dans les vieux pots qu’on fait les meilleures confitures, mais enfin, il ne faut pas abuser. Le rejet était donc couru d’avance, car c’était comme si, à chaque rentrée scolaire, il fallait s’exercer à dessiner des bâtons et des ronds. Pourquoi ?  Pour apprendre à écrire, bien sûr !

La solution s’imposait, il fallait donc moduler l’enseignement en fonction des connaissances des élèves. Élémentaire, mon cher Watson ! Mais comme disait Bigeard “toutes les guerres sont faciles… après !”. Ceux qui n’aiment pas Bigeard peuvent se référer à l’œuf de Colomb (Christophe, bien sûr).

Il n’y avait plus qu’à.

Plus qu’à quoi ? Adapter le message à la cible, c’est-à-dire prendre en compte pour chaque cours la capacité de compréhension des élèves et leur maturité professionnelle. Mais il fallait également adapter le message aux responsabilités que les élèves allaient exercer, c’est-à-dire définir non seulement un socle commun à tous les niveaux, mais aussi ce qui devait être adapté ou spécifique à chacun d’eux. De ce fait, la formation n’était plus monolithique et, à défaut d’être sur-mesure, elle était au moins en demi-mesure. On n’avait plus à passer par la case bâtons et ronds à chaque moment de la carrière !

Alors, me demanderez-vous, succès ou échec ? N’ayant pas, pour cause de mutation professionnelle, dispensé les cours “nouvelle formule”, toujours est-il que j’ai constaté que ce dispositif d’adaptation du cours au niveau de responsabilité avait été entériné par la hiérarchie sommitale.

Quelle solution ?

Ceci étant posé, les dispositions précédentes trouvées pour l’enseignement de la méthode tactique sont-elles transposables à la sensibilisation à la cybersécurité ? Je le pense, sans aucun doute.

Alors, comment faire concrètement ? Procéder en plusieurs étapes.

Tout d’abord, il ne faut pas avoir peur de parler de prérequis. Si l’on compare la situation à l’apprentissage de l’écriture, le prérequis est de savoir tenir un crayon dans ses doigts et de savoir l’utiliser. Et bien, le prérequis à la cybersécurité est la connaissance des bases de la protection de l’information. Je l’ai déjà dit précédemment, vouloir pratiquer la cybersécurité alors que l’entreprise ne sait pas protéger son information revient à vouloir apprendre à courir avant de savoir marcher, afin de progresser plus vite. Il y a cependant des étapes qu’on ne peut sauter, qui qu’on soit. On ne peut comprendre la cybersécurité que si on comprend bien la nécessité de la protection de l’information.

Et si ce n’est pas le cas, m’objecterez-vous ? Et bien la situation sera la même que celle mentionnée supra, à savoir que vous vous retrouverez face à des personnes qui répètent des définitions alors qu’elles n’en ont pas saisi le sens profond, mais ne voient aucun problème à vous les expliquer. Est-ce à dire que la catastrophe est courue d’avance ? Non, car on peut faire de la cuisine sans bien appliquer la recette, mais il est préférable de ne pas faire n’importe quoi lorsqu’on reçoit chez soi.

Ensuite, décider de tout revoir, donc ne pas avoir peur du travail qui sera à effectuer. Car une fois ces deux prérequis (protection de l’information, décision irréversible) maîtrisés, il va falloir :

  1. définir les cyberattaques, car on ne peut se protéger de phénomènes inconnus. Et rappelons que l’arnaque au faux président n’a rien de cyber, si ce n’est son emballage marketing. Un effort de réflexion sera donc indispensable pour bien sérier le cyber de ce qui ne l’est pas. Cela risque de meurtrir quelques ego qui, subitement, se verront dépouillés de leur panoplie (usurpée) de cyberspécialiste.
  2. définir les cibles de formation : parmi elles se trouveront les utilisateurs, mais on y trouve également les développeurs, les administrateurs (système et réseau), etc. etc. L’affaire va se corser, car les “sages” ne pourront dire n’importe quoi aux développeurs et administrateurs, à moins de se faire renvoyer dans leurs 22.
  3. définir le message adapté à chaque cible ensuite.
  4. préparer des formations adaptées en fonction du message à délivrer et des cibles à toucher.
  5. enfin, définir des indicateurs de mesure de la qualité de la formation et de l’atteinte de ses objectifs qui permettront d’ajuster les formations dispensées.

Nous le voyons, il y a (un peu) de pain sur la planche…

Conclusion

Que retenir de tout cela ?

Que l’échec de la sensibilisation à la cybersécurité n’est pas une fatalité, il est possible d’en faire une (ou plutôt plusieurs) de qualité. Tout en gardant à l’esprit que la formation est un métier, et qu’on ne s’improvise pas formateur, même de cybersécurité, quand bien même c’est à la mode.

Ensuite que la pédagogie est toujours valable lorsqu’il s’agit de questions cyber, et qu’elle ne concerne donc pas uniquement le monde réel.

Enfin, et c’est à mon avis tout aussi important que le reste, on ne s’improvise pas “sage” parce qu’on a atteint un certain âge ou grade ou position sociale, on le devient après avoir accumulé de l’expérience, après une reconnaissance par les pairs, et parce qu’on est capable d’avoir un discours ferme et non fluctuant selon l’interlocuteur et les contingences présentes. Bref, on ne peut être sage si on accommode la vérité à la sauce du moment.

! يلا‎ ou, si vous préférez, le même en vidéo.

Cet article Remédier à l’échec de la sensibilisation à la cybersécurité est apparu en premier sur EchoRadar.eu.

Echo du Bocal avec Jonathan Marole, responsable du studio de développement Vision Réelle

Par Yannick Harrel

Faisant suite à la présentation de la simcade Classic Racers à laquelle nous avons consacré une analyse, nous avons contacté Jonathan Marole qui s’est prêté au jeu de l’Echo du Bocal. Qu’il en soit remercié.

Pouvez-vous vous présenter Jonathan, et notamment décrire votre parcours professionnel?

Titulaire d’un Bac STI, je suis principalement autodidacte dans le métier, mû par ma passion pour le monde automobile. Et pour être plus précis, c’est surtout le design automobile qui bénéficie de mon intérêt, à telle enseigne que lors d’un de mes premiers postes chez Office Depot, je dessinais des carrosseries pendant mes pauses au lieu de déjeuner. J’ai aussi acquis une Lancia Delta 2 HF Turbo 2.0l.

Puis j’ai été amené à travailler pour Eden Studios, développant principalement des simulations automobiles. Avec l’émergence de la 3D et son rachat par Infogrames/Atari, j’ai participé à plusieurs projets dont Test Drive Unlimited 1 où je fus en charge de la partie DLC et Test Drive Unlimited 2 où je gérais tous les aspects des véhicules (graphismes, physique, gameplay et son). Ces dernières années, ma société a principalement travaillé pour des titres tels que Gear Club sur iOS, Android et Nintendo Switch.

Quel a été le point de départ du projet Classic Racers / Baguette-Fromage-Pistons?

La volonté de faire le jeu que j’ai vraiment envie avec l’expérience accumulée des autres projets auxquels j’ai participé. Bien entendu, c’est un marché de niche j’en suis conscient, surtout dans le domaine des courses de côte, même si rien n’est figé à ce stade. Mais je le répète, c’est surtout une envie qui m’a motivé à débuter ce projet, avec comme modèle Race Driver Grid de chez Codemasters pour sa facilité d’utilisation et son équilibre entre simulation et arcade.

Pouvez-vous évoquer comment s’est opéré le développement de celui-ci : moteur 3D, sonorisation, animation, illustration etc.?

Le moteur 3D c’est Unity 3D en raison de sa très grande souplesse. Pour la sonorisation, j’ai quelques capacités dans le domaine et par conséquent j’ai ma méthode pour récupérer et améliorer des bruitages que je trouve tout à fait adaptés pour mon jeu. Concernant la physique, qui ressort du travail de game design, ce sont mes propres notions qui ont été mises à profit avec une reprogrammation des modèles pour aboutir à un résultat satisfaisant concernant les accélérations, le braquage ou encore le couple du régime moteur.

Quel est le retour des joueurs actuellement sur Classic Racers? Est-ce que vous échangez avec eux et prenez en considération leurs avis et suggestions?

Le retour est globalement très bon, puisque les appréciations sur Steam avoisinent les 100%. Maintenant, il y a effectivement un grand nombre de suggestions et par conséquent un équilibre à trouver entre les ajouts futurs souhaités et le travail à fournir puisqu’en raison de sa relative confidentialité (je n’ai pas à ce jour d’éditeur, ce qui bride sa diffusion sur d’autres canaux comme les consoles), ce projet ne me rémunère pas intégralement. Tout est question de dosage entre ces deux variables même si je suis satisfait de ce qui a déjà été accompli.

Des points d’amélioration sont-ils prévus dans un futur proche pour Classic Racers? Si oui, lesquels?

J’y réfléchis, je prends aussi en considération certaines suggestions avancées par la communauté. L’une d’elles par exemple concernera la modification des touches de contrôle. Mais c’est surtout sur le contenu que je vais intervenir, j’ai quelques idées comme le Mont Ventoux, le Col de Turini, la route de la Turbie. Et concernant les voitures, je pense introduire des modèles inspirés de chez Alpine, Matra, Mustang, Marcos, Marcadier.

Pensez-vous le faire évoluer vers une simcade orientée rallye ou rester sur de la course de côte?

Non pour les deux. J’envisage plutôt une évolution vers le circuit fermé, avec une intégration d’intelligence artificielle pour simuler les concurrents. Tout dépendra du succès commercial pour franchir cette étape.

Avez-vous un autre projet en germe pour l’après Classic Racers?

Je pense qu’au vu de son potentiel, il a des atouts pour être porté sur les consoles actuelles où ce type de jeu n’est guère fréquent.

Votre meilleur souvenir en sport auto/moto?

Les sorties pistes sur le circuit de Dijon Prenois qui est superbe, les escapades en Italie en Abarth 595 Turismo où les carabinieri nous ouvraient les portes des départementales mais aussi une très belle sortie club dans les Cévènes où je pus terminer à la 1ère place.

Vos trois véhicules historiques préférés et pourquoi ce choix?

Je suis un amoureux des italiennes, et si je suis assez rétif quant à la mode des années 1980 en revanche je suis un grand amoureux des mécaniques de cette époque. J’en retiens trois qui me font fantasmer et qui ont un jus vraiment d’époque :

  • Lancia Delta S4 Stradale
  • Lancia 037 Stadale
  • Ferrari F40

En tant que créateur d’entreprise et développeur, souhaiteriez-vous vous exprimer sur votre métier? Est-ce compliqué d’être un indépendant dans ce secteur?

Oui, c’est très compliqué. C’est un secteur hautement concurrentiel, qui attire souvent de jeunes talents qui sont inconscients des difficultés que l’on peut rencontrer en interne. Du coup il y a énormément de gâchis humain en dépit de l’aura que peut dégager le secteur du jeu vidéo où l’aspect ludique masque le niveau technique requis très élevé.

 

Site du studio : Vision Réelle

 

Cet article Echo du Bocal avec Jonathan Marole, responsable du studio de développement Vision Réelle est apparu en premier sur EchoRadar.eu.

Mesurer la diversité

Par Informatiques Orphelines

La diversité étant un bien, durement acquis et sans cesse menacé, il m’a paru utile d’apporter ma pierre à l’édifice de sa préservation et de la lutte contre les discriminations. D’autant plus que l’informatique le numérique est un secteur réputé misogyne, sexiste, etc.

DIVERSITÉ & IMAGE : LES ENTREPRISES PRENNENT POSITIONS ...

Source

Cependant, comme dans tout combat, il faut savoir évaluer son ennemi, les forces en présence avant de lancer une offensive. Je vous propose donc une façon de mesurer la diversité via un coefficient, préalable à tout combat mené avec une forte probabilité de réussite.

Cela étant posé, allons au fait et exposons le coefficient qui nous aidera à mesurer la diversité d’un groupe quelconque.

Soit n personnes différentes, n étant donc strictement supérieur à 1.
Soit m le nombre de critères pris en compte pour juger les discriminations. Rappelons qu’actuellement la loi en admet 25 pour prouver une discrimination et qui sont :
– L’origine
– Le sexe
– La situation de famille
– La grossesse
– L’apparence physique
– La particulière vulnérabilité résultant de la situation économique, apparente ou connue de l’auteur
– Le patronyme
– L’état de santé
– La perte d’autonomie
– Le handicap
– Les caractéristiques génétiques
– Les mœurs
– L’orientation sexuelle
– L’identité de genre
– L’âge
– Les opinions politiques
– Les activités syndicales
– La capacité à s’exprimer dans une langue autre que le français
– L’appartenance vraie ou supposée à une ethnie
– L’appartenance vraie ou supposée à une nation
– L’appartenance vraie ou supposée à une prétendue race
– Les croyances ou appartenances ou non-appartenance, vraie ou supposée, à une religion déterminée
– Le lieu de résidence
– Opinions philosophiques
– Domiciliation bancaire

Soit i le nombre de cas représentés pour chacun des m critères de discrimination retenus (ainsi, pour 2 personnes de sexe différents {H, F} i vaut 2, alors que si elles sont de même sexe, i vaut 1).
Alors le coefficient de discrimination  c_d a pour valeur :

 c_d =  \frac{1}{m} \times \sum_i^n \frac{i}{n}

Le coefficient de diversité est ainsi toujours dans l’intervalle [ \frac{1}{n} , 1] et plus il est proche de 1 plus le groupe de personnes considéré est diversifié.

Dans la mesure où la diversité ne saurait être unique (sinon elle serait blasphématoire envers la diversité), ce coefficient peut s’appliquer à tout type de situation et reposer sur autant de critères que l’on veut.
Nous voilà maintenant dotés d’un indicateur scientifique qui nous permettra notamment de vérifier (scientifiquement) que le nombre de femmes est (in)suffisant dans une assemblée d’informaticiens (à propos, le terme numérique a remplacé celui d’informatique, mais on ne parle pas de numériciens alors qu’on parle encore d’informaticiens), que les différentes classes d’âge sont bien représentées, etc. etc.

Informatiques orphelines

Cet article Mesurer la diversité est apparu en premier sur EchoRadar.eu.

Classic Racers : baguette, fromage et pistons

Par Yannick Harrel

 

C’était un temps où les assistances électroniques n’existaient pas, les filtres épongeant toute sensation entre le pilote et la machine n’avaient pas encore cours, les moteurs rugissaient à pleins cylindres et la foule pouvait palper ses chevaliers des temps modernes. C’étaient les années 1960…

Les odeurs d’huile et de fumée matelassant les narines, le goût du sang tapissant la bouche, le souffle rauque du moteur et les pétarades de pots saturant les tympans, le volant si difficilement maîtrisé par des mains moîtes engoncées dans des gants en cuir : c’est cette époque que vous propose de revivre ludiquement Classic Racers.

 

Fruit d’un studio de développement lyonnais, Vision Réelle, Classic Racers est sorti en mars 2019 sur PC et vendu sur la plate-forme Steam pour 4,99€. C’est le moteur 3D Unity qui fournit la base de cette simcade.

 

Le titre de cet article (non sponsorisé je tiens à le mentionner) donne un indice quant à l’origine du jeu : il s’agit d’un portage – amélioré je vous rassure – d’une version conçue pour ordiphones sous iOS et Android : Baguette, fromage et pistons.

 

Les épreuves proposées sont ici des courses de côte (hillclimb ou bergerennen en d’autres lieux), où le pilote doit partir d’un point A et se rendre à un point B avec pour principal adversaire le chronomètre, et une montée plus ou moins ardue.

Le nombre de pistes est assez conséquent (vingt et une en prenant en considération les variations) et les véhicules sont au nombre de douze (répartis en quatre catégories).

 

Ne disposant pas de licences, le studio s’est attelé à reproduire des modèles proches de la réalité : l’on peut reconnaître quelques icônes de cette décennie comme la Porsche 910/8, la Citroën DS 21 ou encore la Matra MS11.
Deux vues sont disponibles lors des épreuves : celle en extérieur et celle du capot. Chacun choisira en fonction de ses habitudes, même si subjectivement la vue capot offre une sensation accrue en terme de rendu de la vitesse.

Les pistes se déroulent toutes dans un cadre très rhônalpin, avec même pour les plus méritants une virée à fond les ballons en plein centre de Lyon, y compris en mode nocturne façon Fête des lumières!

 

L’on appréciera à sa juste mesure le soin apporté à la modélisation des environnements, très crédibles et fourmillant de petits détails nous replongeant plusieurs décennies en arrière (imitations de publicités d’époque, routes non délimitées, bâtisses anciennes, gradins en bois etc.).

L’environnement sonore a bénéficié de la même attention, renforçant encore l’immersion avec des musiques très sixties, des bruitages adaptés à chaque motorisation avec les assourdissants retours de flamme accompagnant décélérations et accélérations.

Dans le registre des options, il est possible de régler le graphisme, l’audio et la sensibilité de la conduite. Au passage, depuis la dernière mise à jour le volant peut être exploité en lieu et place d’un joypad ou du clavier, ce qui ajoute encore plus à la qualité de l’ensemble, même si le retour de force n’est pas – encore – géré.

C’est d’ailleurs avec un volant que le ressenti de la physique de chaque véhicule devient jouissif, favorisant les dérapages contrôlés afin de gagner de précieuses secondes.

Est aussi intégrée la possibilité de se comparer face aux meilleurs du moment via le classement en ligne.

 

Des défauts? Oui quelques uns mais le créateur du jeu est attentif à sa communauté, et il y a fort à parier que celui-ci tâchera de faire pour le mieux afin de les résoudre.

Au rayon des regrets, l’on peut rappeler l’absence de retour de force pour les volants. Outre cet aspect, il y a quelques bogues graphiques résiduels, des textures qui mériteraient d’être affinées (les immeubles de Lyon par exemple), une difficulté mieux nivelée et pourquoi pas un vrai mode conduite libre où il serait possible de tout pratiquer dès le départ sans avoir à tout débloquer? Et bien sûr, encore un peu plus de contenu, tant on en redemande (d’ailleurs l’on pourrait souhaiter une nouvelle course inspirée plus ou moins fortement de celle de Saint Ursanne les Rangiers en Suisse et aussi, rêvons, éventuellement l’ajout d’une Maserati Mistral, d’une CG 1200 S, d’une Daimler SP250 ou encore d’une Dino 206 GT, même réinterprétées).

 

En conclusion, nonobstant quelques défauts non rédhibitoires, Classic Racers est un produit fascinant, hors du temps et addictif. Une ode à cet âge révolu où le sport mécanique se pratiquait dans la gloire, l’exploit et le tragique.

Rien que pour cela, ce développeur mérite d’être encouragé pour le courage de proposer une telle production atypique.

 

Ah, et si vous désirez vous replonger littérairement en cette période, je ne saurais que trop vous recommander ce roman poignant d’Erich Maria Remarque : Le ciel n’a pas de préféré (Der Himmel kennt keine Günstlinge). Le romancier allemand ayant été chroniqueur sportif, il ne manqua pas de rendre hommage à toute cette génération de trompe-la-mort où la sécurité réduite à sa plus simple expression était proportionnelle à leur fureur de vivre.

 

Le site officiel :
http://www.visionreelle.fr/ClassicRacers/PressKit/ClassicRacersPressKit.html

Cet article Classic Racers : baguette, fromage et pistons est apparu en premier sur EchoRadar.eu.

Politiques invisibles et finalités opaques de l’Union Européenne

Par EchoRadar Blog

 

Fondateur  de la Communauté Européenne, le traité de Rome (1957) établit le principe d’une « union toujours plus étroite » entre ses membres, sans que ni sa forme d’organisation, ni ses limites géographiques, ni son état d’achèvement présumé optimal, ne soient jamais dévoilés en plus de 60 ans d’existence. Corollairement, au long du processus de fédéralisation de l’Europe par six traités successifs de 1957 à 2012, le démantèlement des souverainetés nationales n’est jamais formulé explicitement en tant que son axe directeur. Pour atténuer le risque politique  de sa prise de conscience par les peuples, le président français de la Commission Européenne de l’époque avait inventé l’oxymore d’une « fédération d’Etats  nations » lors de la phase de lancement du traité de Maastricht (1992), actant de facto l’expulsion du principe de souveraineté du champ du droit. Dépourvu de tout fondement juridique, cet oxymore visait à accréditer la fiction d’un mariage politique entre deux principes antinomiques par essence, avant que ne s’en dissipe l’imposture.

L’AVANCEMENT MASQUE DES STRATEGIES EUROPEENNES

Ce qu’on nomme la construction européenne est une entreprise démiurgique d’arasement programmé de l’ensemble que forment les nations historiques d’Europe. Elle utilise des moyens autres que la force armée en raison de circonstances qui la lui évitent. C’est en effet la victoire des Alliés qui instaura la paix en Europe, et non l’Europe « qui a fait la paix ».En l’absence d’une puissance unificatrice et coercitive telle que l’URSS ou le 3ème Reich, les méthodes nouvelles de contrainte mises en oeuvre combinent toutefois, à un niveau supérieur, les recettes des dictatures antérieures avec des techniques plus récentes, notamment : la programmation neurolinguistique, qui œuvre à la fabrication du consentement, laquelle facilite la soumission volontaire. Il est vraisemblable que dans un cadre de consultation transparent, une abolition de la souveraineté exprimée en clair et en préalable aurait été rejetée par la plupart des peuples européens.

En dehors de la production continue de normes et de directives, la Commission Européenne conduit sur le long terme trois types d’opérations stratégiques majeures : 1) l’extension géographique de la zone 2) la conception et l’incrémentation des traités d’intégration 3) la négociation d’accords de libre échange planétaires. Toutes ces opérations sont menées à l’insu du consentement des populations européennes, et ne sont dévoilées qu’au moment de leur mise en œuvre, qui prend la forme du fait accompli à ratifier comme une simple procédure d’exécution. Leur perception va d’une faible visibilité jusqu’à une ignorance totale des conséquences induites par le ricochet de leurs réactions en chaîne. Comme reconnu par une minorité d’experts avertis, l’opacité est la règle et le principe d’action de la Commission Européenne dans toutes ses initiatives. Le processus d’avancement des trois stratégies évoquées organise en effet méthodiquement une panoplie de dispositifs de fabrication et d’extorsion du consentement qui, depuis les origines, traduisent la vacuité d’une supposée démocratie européenne..

L’objet du texte n’est pas de les décrypter, mais de détecter à la fois les objectifs à long terme de ces stratégies à partir de leurs prémices, et leurs conséquences qui peuvent relever à la fois d’une véritable intention ou d’un simple aveuglement. Cet exercice est difficile dès lors que, dans une perspective holistique, on observe qu’il existe dans le processus décisionnaire européen plusieurs étages reliés par escaliers. Ce sont sommairement, dans une collégialité protéiforme : les dirigeants des firmes multinationales ; les maîtres de la haute finance mondiale ; les lobbies économiques particuliers ; les apparatchiks de la Commission Européenne ; des dirigeants nationaux subornés ou  consentants ; des intellectuels activistes, etc .Dans cette nébuleuse, l’échelle globale des motivations va d’une large capacité visionnaire jusqu’à l’angélisme le plus pur, en passant par le dogmatisme le plus étroit. La perception des objectifs de l’Union Européenne offre elle-même un spectre  qui va d’une identification relativement aisée (son extension géographique) jusqu’à l’opacité complète de ses finalités ultimes. L’exercice de leur investigation  est donc par nécessité à la fois analytique, hypothético-déductif, et prospectif. Il constitue un appel à la recherche dans un domaine où prévalent les idées reçues ou le dogmatisme, plutôt que l’objectivité du réel.

LA VISIBILITE REDUITE DES OBJECTIFS D’EXTENSION GEOGRAPHIQUE

Après avoir absorbé les ex-démocraties populaires d’Europe centrale et orientale, et les

trois républiques baltes incorporées dans l’Union Soviétique, l’Union Européenne a visé et vise les 12 cibles suivantes : Albanie, Monténégro, Macédoine, Serbie, Moldavie, Ukraine,Turquie, Georgie, Arménie, Azerbaïdjan, Islande, Suisse.

Notations : l’Islande est le seul cas d’échec d’intégration ; l’Albanie a reçu le statut de pré adhésion ; le Monténégro utilise l’Euro de facto comme monnaie nationale ; la procédure d’adhésion de la Turquie n’est qu’interrompue, et non annulée ; l’Ukraine et la Moldavie ont un accord d’association avec l’UE ; la Serbie et la Macédoine se préparent au statut de candidats à l’adhésion ; la Georgie attend le déclenchement de cette procédure ; l’Azerbaïdjan est dans son antichambre comme membre du Conseil de l’Europe ; la Suisse est l’objet d’une pression extrême pour lui faire adopter une partie des traités européens ; seule l’Arménie est en stand by.

Les éléments factuels et stratégiques ignorés du grand public sont les suivants : 1) toutes les tractations en cours sont assorties de subventions attribuées à des titres divers, payées par les Etats déjà membres, donc à la charge des contribuables européens 2) toutes les tractations préparent la sélection et le formatage idéologique des cadres politiques appelés à prendre le pouvoir lors de l’adhésion 3) l’objectif géopolitique global occulte est de parachever l’encerclement de la Russie depuis les Balkans jusqu’au Caucase, en neutralisant son influence sur ce qu’elle appelle son « étranger proche »  4) l’accord d’association avec l’Ukraine (2014) interdit formellement tout accord de même nature avec la Russie 5) en visant la Turquie (à moyen terme) et l’Azerbaïdjan (à long terme), l’Union Européenne démontre qu’elle fait abstraction de l’identité civilisationnelle de l’Europe et de ses racines judéo-chrétiennes. 6) l’UE dévoile sa volonté de captation impérialiste en excluant le droit de tout pays dans sa périphérie de conserver son indépendance nationale.7) L’UE ayant d’elle-même

une définition délibérément abstraite, c’est-à-dire ni géographique, ni historiciste, ni culturelle, son projet implicite est l’absence de limite territoriale à son extension.

LA RESTRUCTURATION MACROECONOMIQUE DE l’EUROPE

Contrairement à une idée répandue, le principe religionnaire de « la concurrence libre et non faussée » en tant que pilier central du système européen, ne limite pas son champ d’application aux seuls pays membres de l’Union, mais l’étend au monde entier. Cet état de fait institué par le droit européen signifie que la fiction de son marché unique intérieur dissimule la réalité de sa dilution dans le marché mondial. Concrètement, la quasi-totalité des produits et services de la planète ont un accès libre au marché européen avec une taxation à l’import faible ou nulle, cas unique à l’échelle des grands ensembles économiques contemporains.

La dérive religionnaire de l’idéalisme européen se fonde d’abord sur une conception de la mondialisation considérée, non comme un état de fait à traiter par la realpolitik, mais comme un état de splendeur et de félicité. Dans ce cadre, le caractère « non faussé » du principe de concurrence est une imposture, étant avéré que le commerce en Europe subit le dumping des bas coûts de production non seulement des pays asiatiques, mais aussi en son propre sein.

Sous le couvert du dogme idéologique du libre échangisme mondialisé, se développe toutefois une stratégie de long terme sans annonce ni publicité, qui consiste en une restructuration en profondeur de l’économie européenne. Progressant par conséquences induites des traités et directives sur le long terme, elle se situe schématiquement sur trois axes entrecroisés. Le premier est un partage global territorialisé de facto entre le secteur de la production industrielle, ses sous-traitances incorporées, et ses services associés. Cette différenciation correspond à un objectif de rationalisation fonctionnelle similaire à la « division internationale du travail » telle que la pratiquait le bloc soviétique. Concrètement, l’Allemagne devient le pôle central de la production industrielle européenne, exploitant les pays de l’Est comme sous-traitants à bas coûts, et utilisant le Bénélux comme filiale de services dans une continuité territoriale est / ouest. A la France est dévolue une vocation hybride incluant d’une part le rôle de première économie de loisirs, et, de l’autre, celui d’un vivier de ressources intellectuelles en recherche/développement et innovation, à la disposition d’acquéreurs de toute origine. Les deux autres pays parmi « les quatre grands » (Espagne et Italie) restent dans l’incertitude de leur fonction encore dispersée entre industrie en déclin, sous-traitance à bas coûts, et tourisme de foule.

LA SYSTEMATISATION DU MODELE ECONOMIQUE DE L’IMPORT- EXPORT

Un second axe de la transformation en profondeur des économes européennes, de nature systémique et par volonté politique, tend à créer la base infrastructurelle d’une liquidation pérenne de la souveraineté des nations européennes, afin de consolider son démantèlement par les voies juridiques. En tant que tel, le libre échangisme universel est conçu par l’Union Européenne comme l’instrument darwiniste d’élimination des productions décrétées arbitrairement «non compétitives». Il favorise, ce faisant, et en tant qu’inévitable substitution, le développement considérable des importations à bas coûts, y compris agroalimentaires, et en provenance du monde entier. En contrepartie, la nécessité de rééquilibrer les balances commerciales par les exportations n’empêche en rien que l’Europe ne se soit divisée entre pays structurellement excédentaires et pays structurellement déficitaires, ce au bénéfice des premiers. Ce schéma d’ensemble démontre d’abord une volonté d’annihiler le principe d’autonomie et d’autosuffisance, en cherchant à rendre chaque pays doublement dépendant de ses exportations et de ses importations, et donc à saper les fondements de son indépendance. Les traités de libre-échange conclus à l’échelle mondiale sont la méthode décisive pour atteindre cet objectif. Au final, le modèle économique du marché européen apparaît formaté comme une vaste société d’import-export internationale, ouverte à tous types d’opérateurs extérieurs stimulés par l’absence ou la faiblesse des règles d’accès.

Une conséquence majeure du libre échangisme généralisé en Europe est la disparition à terme de nombreuses petites et moyennes entreprises de production, ni exportatrices, ni importatrices, opérant sur des marchés « infra européens », et incapables de résister aux importations à bas coûts. La précarité de leur avenir se partage généralement entre délocalisation forcée, suppression d’activité, ou reprise par un fond financier spoliant leurs actifs physiques et immatériels. Dans ce cadre, la tendance lourde à la concentration du capital en Europe, son internationalisation mondialisée, et l’élargissement continu des zones d’opérations des multinationales, est en soit un sujet d’investigation dans l’opacité des finalités européennes.

FINANCIARISATION ET MARCHANDISATION GLOBALES DE LA SOCIETE

Troisième axe de la stratégie économique européenne, la prise de contrôle des activités de toute nature par des agents financiers, si elle ne procède d’aucune directive, est la conséquence induite de la dérégulation financière généralisée instituée par l’obligation de libre circulation des capitaux et des services. La substitution du capital financier au capital

industriel ou familial dans de nombreuses activités contribue simultanément à la  transformation globale du capitalisme européen, en tendant à privilégier la rente sur la prise de risque, ou la spéculation financière sur l’investissement. Le rendement très élevé du capital des firmes multinationales est de moins en moins investi dans la création d’activités, notamment industrielles, et de plus en plus dans des opérations boursières, ou des captations d’activités avec objectif de plus value de revente à court terme. En elle-même, cette mutation montre un signe de dégénérescence culturelle des élites économiques, à laquelle n’échappent guère que les pays de solide et ancienne tradition industrielle, tels que l’Allemagne, l’Italie du nord ou les régions tchèques.

Un vecteur  transversal de la stratégie européenne est la privatisation obligatoire des infrastructures publiques exigée par les traités, et que l’absence de règle de protection rend accessible à tout opérateur international. Ainsi, non seulement les entreprises, mais aussi les marchés publics de travaux, les ports, aéroports, réseaux ferrés, etc, sont en libre disposition de plein droit, y compris pour des fonds d’Etat étrangers (cf. les acquisitions chinoises en Europe). Cette mondialisation du capital en Europe apparaît simultanément comme une visée de destruction identitaire des bases séculaires de son développement économique et industriel, et de captation des savoir-faire qui l’ont favorisé.

Dans le cadre général de la dilution de l’économie de l’Europe dans l’économie mondialisée,  s’imposerait impérativement, d’autre part, un audit stratégique des accords de libre-échange planétaires relatif aux conditions de leur réciprocité non proportionnée, et de leurs contreparties non équilibrées.

Enfin, par delà la privatisation obligatoire et officielle des services publics de toute nature, l’objectif opaque et diffus d’une marchandisation totale de la société doit être analysée sous l’angle de la loi universelle de la baisse tendancielle du rendement du capital investi. Concrètement, cela entend que la Commission Européenne est appelée à œuvrer, par la force juridique dont elle dispose, à la recherche et à « l’ouverture » de nouveaux marchés relevant du domaine public ou d’activités non lucratives : le sport, les jeux de hasard, les services d’incendie, des rivages maritimes, des îles, des forêts domaniales, des musées, des sites archéologiques, des centres de vacances associatifs, etc.

AMPUTATION DES DROITS POLITIQUES, EXTENSION DES DROITS INDIVIDUELS

Sous l’épaisse carapace juridique des traités européens prétendant à la perfection de l’Etat de droit, l’expérience politique des dernières années en Europe démontre trois faits majeurs. Le

premier est l’extinction de facto du droit des peuples à disposer d’eux-mêmes inscrit dans la charte de l’ONU et dont tous les Etats européens sont signataires. Le second est l’interdiction également de facto du droit à l’alternative politique au sein des Etats membres de l’Union. Le troisième est la mise en cause du droit originaire et régalien des dits Etats, de faire prévaloir leurs régulations spécifiques échappant encore à l’emprise du droit européen.

La neutralisation du droit des peuples à disposer d’eux-mêmes se vérifie dans la stratégie de mise en échec de la volonté de la Grande-Bretagne de quitter l’Union Européenne, nonobstant les dispositions de l’article 50 de son traité d’union autorisant le principe de cette sortie. Tout

expert du domaine est en mesure d’analyser le texte dit du « Brexit » (583 pages) comme  l’acte d’une capitulation anglaise « en rase campagne », dont les conditions léonines sont conçues pour obtenir l’inexécution du résultat du vote référendaire intervenu en juin 2016.

Quelles qu’en soient les suites pour l’Angleterre, l’excellence technique du sabotage du « Brexit » par la Commission Européenne a d’abord valeur d’exemple et d’avertissement pour tout autre Etat membre de l’Union enclin à une tentative de même nature.

Le principe cardinal des « alternances sans alternative » dans les scrutins nationaux des pays de l’Union est consubstantiel aux critères idéologiques de ses traités. Sa mise en pratique s’est vérifiée en particulier lors de la « crise grecque » de 2015, et du coup d’Etat organisé par la Troïka pour neutraliser les votes appelant à un changement de politique intérieure. Pour en résumer le concept désormais mis à jour, il suffit de retenir l’aphorisme lapidaire du président de la Commission Européenne selon lequel « des élections ne peuvent modifier les traités » Il est utile par ailleurs d’observer en continu, à ce titre, les manœuvres et pressions des autorités européennes, tendant à saper des coalitions gouvernementales régulièrement élues présentant un risque d’alternative politique hors du cadre imparti des traités et directives.

Un troisième axe d’amputation des droits souverains des Etats nationaux est le retrait de la compétence de leurs juridictions propres en matière de litiges liés à l’application des traités de libre-échange planétaires signés par la Commission Européenne. Ces traités stipulent que leur règlement soit réservé exclusivement à des tribunaux d’arbitrage extérieurs à ces juridictions, de composition flottante, et dans lesquels les Etats n’ont qu’un droit de présence, et non de prévalence originaire de leurs propres règles. Cette opération feutrée, et méconnue hors cercles restreints, illustre une nouvelle stratégie juridique de l’Union Européenne qui consiste à ronger la souveraineté des Etats « par l’extérieur » pour compléter son démantèlement « par l’intérieur ».

En contrepoint, et par une dialectique de délégitimation des droits politiques nationaux, la recherche d’une extension continue des droits de l’individu est une orientation majeure dans la sphère interne de l’Europe. Se déployant sous le générique des « droits de l’Homme », cette extension d’une envergure sans équivalent mondial correspond à une stratégie de long terme, qui vise à substituer la valeur centrale et exclusive de l’individu à celles issues du sentiment d’appartenance nationale, du devoir patriotique, du bien commun, etc. Parmi les axes tactiques de cette transmutation, la Cour Européenne des Droits de l’Homme joue le rôle d’un aspirateur de recours multipliés par une inflation de prétextes conflictuels des individus contre les Etats. A elle seule, cette dérive appellerait une investigation approfondie pour en mesurer l’ampleur et les conséquences dans la société européenne.

LA TRANSFORMATION DE L’IDENTITE NATIONALE EN IDENTITE LIQUIDE

La défense et la survalorisation des droits de l’individu transfigurés en Droits de l’Homme, puis en « droits humains » ( human rights en langage européen) est une opération dont  l’étalement sans limitation définie à l’échelle du temps est présumée permettre son incrémentation en profondeur. Son objectif est la transformation des idées, des concepts et du système de valeurs historique des nations d’Europe. Il s’agit de leur remplacement par la création d’une nouvelle valeur centrale unifiée, dont l’absence de racines authentiques produit une abstraction détachée de contingences telles que les us et coutumes, les référentiels spécifiques et autonomes, les traditions et stéréotypes hérités d’un passé révolu.

Dans cette transformation, la référence à une identité nationale n’a plus de place autre que celle d’une identification administrative liée aux besoins de gestion du découpage territorial intra européen. Le magistère moral et sociétal qui entend encadrer et guider les populations européennes a cependant besoin, à la fois de donner un contenu concret à leur identité abstraite, et de leur inculquer un nouveau référentiel de valeur uniforme. Ce contenu est le consumérisme maximisé et valorisé par une supposée fierté d’appartenance au marché des « 500 millions de consommateurs » de l’Union Européenne, tous clonés, fongibles et interchangeables. Son modèle est conforme aux critères de standardisation de la consommation exigés par l’activité des firmes transnationales.

Le nouveau référentiel de valeur inculqué pour transcender l’idéal consumériste a pour socle l’impératif catégorique, au sens kantien, de « l’ouverture à l’Autre » comme le principe de fluidité mentale et sociale qui fonde l’acceptation du multiculturalisme universel sans sans frontière géographique, culturelle, ethnique, ou migratoire ( cf. texte echoradar « L’idéologie de l’ouverture à l’Autre » 9/2017.) L’ouverture universelle à l’autre doit dès lors être également interprétée comme la « consommation » des signes dont il est le porteur.

Cette consommation perpétuelle, amalgamée et sublimée, de produits et de signes multiculturels mondialisés est, dans l’Union Européenne, l’automatisme de comportement présumée représenter une société idéale et pacifiée, et donc recueillir l’adhésion des masses.

Au fil du temps se forgerait ainsi l’identité abstraite, de type plastique, sinon liquide, d’un « citoyen européen » standard, qui implique l’abandon non seulement de ses particularismes antérieurs, mais aussi de toute identité nationale issue d’un substrat historique. La finalité opaque de cette double mutation anthropologique serait donc l’émergence d’un « homme nouveau », dans un mimétisme de figure propre à des entreprises totalitaires du passé.

 

 

Michel Ruch est diplômé de l’IEP de Strasbourg et de l’Institut des hautes études européennes. Il a publié L’Empire attaque : Essai sur Le système de domination américain, aux éditions Amalthée.

Les vues et les opinions exprimées dans cet article sont celles de leur auteur et ne reflètent pas nécessairement les vues ou les opinions d’Echo RadaR.

Cet article Politiques invisibles et finalités opaques de l’Union Européenne est apparu en premier sur EchoRadar.eu.

ПРОГУЛКА В ГУЛАГ (4/4)

Par Informatiques Orphelines

Dernier billet de notre promenade au goulag sur les pas de Soljénitsyne qui paraît le jour de la fête des travailleurs…

RFI - Soljenitsyne: sa vie retrace l'histoire de la Russie

Source

La souffrance et l’approfondissement de l’homme

L’archipel du goulag n’est pas qu’une description du goulag, de ses camps, de son administration, de son fonctionnement et des conditions de vie carcérales. L’œuvre est également, ce qui peut se révéler surprenant, une analyse anthropologique.

Et parce que les conditions de vie au goulag sont rudes (c’est le moins que l’on puisse dire), une part importante est consacrée à la souffrance, et à la manière dont l’homme la vit.

La souffrance broyeuse

Une des premières idées que l’on peut se faire de la souffrance est qu’elle est une gigantesque machine à broyer les êtres humains.

Soljenitsyne ne le nie pas : « Les prisons sont des boîtes à idées. Avoir faim et discuter en prison est une chose amusante et facile. Mais essayez donc un peu ici, 10 ans durant, d’avoir faim, de travailler et de garder le silence, oui, essayez donc ! Une chenille de fer était déjà en train de m’attirer à elle pour me broyer. Impuissant, je n’en voyais pas le moyen, mais j’avais envie de me retirer à l’écart. De reprendre haleine. De reprendre connaissance. De relever la tête et de voir1. » Infernale spirale qui attire sa victime vers un puits semblant sans fond, la souffrance n’a aucune pitié pour toute personne qu’elle a réussi à attirer assez près d’elle.

On pourrait penser qu’il suffirait de faire preuve de force morale, de caractère pour y résister, mais l’environnement n’est pas propice à cette résistance : « Nous avions l’impression de nous affaiblir en prison, mais ici, c’est drôlement plus rapide. On dirait déjà que la tête nous tinte. C’est l’approche de cet état d’agréable faiblesse où il devient plus doux de céder que de se battre2. » En outre, le détenu ne peut compter que sur lui-même, car ceux qui pourraient a priori l’aider ont basculé du côté de l’oppression : « Peut-être que jusqu’en 1932, du temps où le personnel médical des camps relevait encore du commissariat du peuple à la santé, les médecins pouvaient être des médecins. Mais, en 1932, ils passèrent en totalité sous la coupe du Goulag, et leur but devint alors d’aider l’oppression à s’exercer et de jouer le rôle de fossoyeurs3. »

De ce fait, la vie peut sembler perdre toute signification pour le détenu livré à lui-même et contre lequel agissent même ceux qui devraient être ses soutiens : « Ce qui contribue encore à faire tomber les entraves, c’est que la vie n’a plus aucun sens, aucun but4. » Conséquence de cela, le temps exerce ses ravages encore plus rapidement que lorsque les personnes sont en liberté : « Il ne faut même pas 5 ans, 5 semaines suffisent pour anéantir en quelqu’un la femme et l’être humain5. »

La souffrance obsédante

Mais la souffrance n’est pas seulement une broyeuse des personnes qui lui sont livrées. Soljenitsyne nous montre qu’il est possible d’y survivre et que, dans ce cas, la conscience joue un rôle essentiel dans la relation qu’on peut avoir envers elle « Aux pékins étonnés et aux héritiers indifférents nous commençons à entrouvrir le monde de là-bas, un monde qui ne recèle à peu près rien d’humain, et c’est armé des lumières de la conscience humaine que nous devons l’évaluer. Et là, un des principaux problèmes moraux qui se pose est celui des planqués6. » Pourquoi cette question des planqués est-elle si aiguë ? Pourquoi est-elle liée à la conscience personnelle ? Parce que les détenus qui se planquent (à la cuisine par exemple), bien qu’estimant ne faire de mal à personne, collaborent de fait au système et le font prospérer. Réflexion d’aigri pourrait-on penser. Mais l’auteur confesse s’être planqué à un moment de sa détention.

Confrontées à la souffrance, certaines personnes parviennent à ne pas succomber, mais elles vivent comme si la souffrance s’était installée en elles et dictait leur conduite. Ce qui les amène à vouloir se venger du mal qui leur a été fait « Tant que le bonze est en place, dominant la foule du haut de son poste de commandement et qu’insensible et content de lui, le front barré d’un pli impérial, il détruit nos vies, ah, donnez-moi une pierre bien lourde ! Allez, les gars, on se met à dix, on soulève ce rondin et on le lui balance dans la gueule7 ! »

Mais la persistance en soi de cette souffrance, cette obsession de la souffrance peut conduire à des attitudes dictées par une volonté effrénée d’oubli du passé à cause des cassures vécues les unes après les autres « Et pourtant, comme ils sont nombreux (et des gens qui sont loin d’être faibles, loin d’être idiots, des gens dont on n’attendrait absolument pas cela), comme ils sont nombreux à s’efforcer d’oublier ! Oublier au plus vite ! Oublier tout, du début jusqu’à la fin ! Oublier tout comme si ça n’avait jamais existé8 ! »

Cette volonté d’oubli se déclenche principalement au moment de la sortie du camp « Mais le contour du nouveau destin auquel est promis chaque individu se profile encore plus nettement dans la cassure morale qu’il éprouve à sa libération.

Le camp révèle le caractère des gens, mais la libération aussi.

Notre libération a été une libération volée, pas une vraie.

Et ceux qui sentaient les choses ainsi se hâtèrent de fuir dans la solitude avec leur petit morceau de liberté dérobée.

Les gens de cette espèce là se refusent pendant longtemps à rien posséder : ils se rappellent avec quelle facilité tout disparaît, comme si un incendie était passé par là.

Kopelev revint à Moscou en 1955 et découvrit que “ce n’est pas commode de vivre avec les gens qui ont une vie sans histoire. Parmi mes anciens amis, je ne fréquente maintenant que ceux qui, pour une raison ou pour une autre, ont des difficultés dans la vie.” De fait, humainement, il n’y a d’intéressants que les gens qui ont renoncé à se façonner une carrière. Ceux qui ont les mains occupées à cela dégagent un ennui mortel.

Cependant, les hommes sont divers. Et beaucoup ont ressenti leur retour à la liberté de manière toute différente : hourra ! je suis libre ! un seul impératif, maintenant : éviter que ça recommence ! et en avant, rattrapons le temps perdu9 ! »

Cette souffrance si intense et vécue si longtemps, peut devenir tellement constitutive de la personne transformée qu’elle modifie radicalement les liens que le détenu avait tissés avant le goulag : « À leur libération, il est encore autre chose qui attend les zeks : les retrouvailles. Les pères retrouvent leurs fils. Les maris retrouvent leurs femmes. Et le résultat est rarement bon. 10 ans, 15 ans d’absence : nos fils ont grandi sans nous. Comment leurs pensées seraient-elles en harmonie avec les nôtres ? Parfois ce sont simplement des étrangers, parfois ce sont des ennemis. Et parmi les femmes, peu sont récompensées d’avoir finalement attendu leur mari : chacun des époux a vécu tant de choses de son côté qu’il est devenu un être entièrement nouveau : de l’ancien, il n’a gardé que le nom. Mari et femme ont maintenant une expérience de la vie trop différente, ils ne peuvent plus redevenir proches10. » Que faire alors dans ce cas où le passé proche a tellement distendu les liens du passé éloigné qu’ils sont presque impossibles à resserrer ?

La souffrance transcendante

Cependant, malgré la compréhension et la compassion qu’on peut témoigner envers les personnes broyées ou obsédées par les souffrances passées (les grandes souffrances qu’elles ont endurées sont une excuse valable à un désir de vengeance), Soljenitsyne nous indique que le chemin qu’elles ont parcouru n’est pas achevé, et qu’il est une autre façon de vivre la souffrance. Car bien que les détenus subissent un environnement hostile et des conditions de vie déplorables, le goulag permet (paradoxalement ?) une transformation, voire une élévation de certaines de ses victimes. Les causes en restent obscures, mais l’effet est réel : « De même que soudainement la brillance d’une étoile est plusieurs fois multipliée par 100, puis s’éteint, de même un homme que rien ne prédispose à devenir un politique est capable en prison de donner naissance à une brève et puissante lueur et ensuite de périr pour elle11. »

Parmi les causes probables, mais peut-être n’est-elle pas la seule, Soljenitsyne identifie une certaine forme d’abandon, de lâcher prise, d’acceptation de ne plus vouloir contrôler sa vie « Si, ne serait-ce qu’une fois, tu t’es détourné de ce but : “survivre à tout prix”, si tu t’es engagé sur la voie que prennent les âmes simples et paisibles, la captivité commence à transformer merveilleusement ton ancien caractère. Et cette transformation va dans le sens que tu attendais le moins12. »

Cette transformation que l’auteur compare à une purification, a des effets plutôt inattendus « Non, non seulement tu ne te repens pas, mais tes yeux reflètent une conscience aussi pure que l’eau d’un lac de montagne. Et tes yeux, purifiés par la souffrance, décèlent infailliblement la moindre opacité dans le regard d’autrui : ainsi discernent-ils infailliblement les mouchards13. »

Puisque cette transformation a des effets aussi radicaux et bénéfiques, on serait tenté de la vouloir à tout prix, de la rechercher avec acharnement.

Mais le prix à payer est élevé nous dit l’auteur : « Permettez, vous aimez la vie ? Vous qui vous exclamez, qui fredonnez sur un pas de danse “j’aime la vie, oh là ! Que j’aime la vie !” Vous l’aimez ? Et bien, aimez la ! Celle des camps, aimez la aussi ! Elle est la vie, elle aussi !14 »

Ce prix à payer est une défaite, celle de la personne que l’on est ou que l’on croit être, et il est le même pour les individus et les organisations : « Une vérité toute simple, mais qui demande elle aussi à être découverte dans la souffrance : bénies soient dans les guerres, non les victoires mais les défaites. Les victoires sont nécessaires aux gouvernements, les défaites aux peuples. Après la victoire, on veut d’autres victoires encore ; après une défaite, on veut la liberté, et généralement on l’obtient. Les défaites sont nécessaires aux peuples comme les souffrances et les malheurs à l’individu ; ils vous obligent à approfondir votre vie intérieure, à vous élever spirituellement15. »

Cette défaite transformante explique l’absence de vengeance envers ses anciens gardiens, envers ceux qui ont été la cause des souffrances endurées. De ce fait, une nouvelle attitude se fait jour, même envers le bonze dominant la foule du haut de son poste de commandement évoqué supra « Mais dès qu’il a chuté, dégringolé, et qu’en se cognant par terre il a commencé à comprendre, comme le montre ce premier sillon apparu sur son visage, non, non, c’est fini, lâchez vos pierres. Il rentre de lui-même au sein du genre humain. Laissez-le faire ce chemin divin16. » L’attitude passée du bonze envers les détenus ne justifie pas une attitude similaire des anciens détenus envers lui, quelque fortes aient été les souffrances endurées.

Cette nouvelle attitude, cette compassion est un des fruits de la souffrance vécue. Mais cette nouvelle attitude n’est jamais acquise, et l’une des difficultés de la vie est que le prix payé, aussi cher qu’il soit, n’est pas une assurance contre la rechute ou le retour vers la personne que l’on était avant « Si grande que soit notre part d’épreuves, elle ne suffit pas à nous rendre pour toujours sensibles au malheur général. Et tant que nous n’aurons pas dominé en nous-même ce qui est poussière, il n’y aura pas sur terre d’organisations politiques justes, qu’elles soient démocratiques ou autoritaires17. »

Conclusion

L’archipel du goulag est une œuvre qui a dérangé lors de sa publication. Parce que son auteur lui-même dérangeait et n’a eu ni le bon goût ni la politesse de remercier les USA de lui accorder l’asile politique, alors que la France de VGE le lui avait refusé auparavant.

Encore maintenant, son œuvre et sa mémoire semblent frappées d’un certain ostracisme, vraisemblablement dû à l’objet de sa dénonciation : le communisme. Est-il possible à notre époque de dénoncer une régime qui, partout où il s’est implanté n’a causé que récession économique, restriction des libertés individuelles (à l’exclusion des apparatchiks) et s’est accompagné de camps de rééducation (pour rester poli) ? Il semble que non, le communisme demeurant pour beaucoup une « belle idée » puisqu’elle poursuivrait l’égalité des hommes.

Et ses problèmes ne seraient dus qu’à sa mise en application.

faucille et marteau : HUMA MOSAIK - MOSAIK RADIOS - HISTOIRESource

Mais comment appelle-t-on une idée impossible à mettre en œuvre ? Une utopie au mieux, une aberration au pire.

Une des preuves en est la grande retenue (pour le moins) dont a fait preuve le CICR à propos du régime soviétique. On apprend en effet18 que « A partir d’avril 1923, la Croix-Rouge soviétique cesse complètement de convoyer les colis du CICR pour les occupants du goulag. Bien qu’il n’ait pas dénoncé les camps de concentration, le Comité en est réduit à assumer des fonctions purement honorifiques, administratives et consulaires en faveur des ressortissants suisses en Russie. (…) Alors qu’on lui reproche son laxisme à l’égard de l’Allemagne hitlérienne, le Comité se garde cependant de dénoncer les violations staliniennes du droit humanitaire, de crainte d’être associé à la propagande anticommuniste qui dresse un parallèle entre l’entreprise d’extermination nazie et les camps de concentration en Union soviétique. En visite officielle à Moscou en novembre 1950, sa délégation préfère ne pas aborder le sujet et Genève se soustrait à l’appel lancé à Paris en novembre 1949 par David Rousset en vue d’établir une commission d’enquête sur le goulag. »

Ainsi donc, le comité n’a pas dénoncé les camps de concentration du goulag. Il n’a pas non plus dénoncé les violations des droits de l’homme pour ne pas être taxé d’anticommunisme.

Cela ressemble fort à une indignation à géométrie variable.

L'Express du 14 octobre 1968 : on n'arrête pas ...

Source

Informatiques orphelines


1Tome 2, p 138.

2Tome 2, p 151.

3Tome 2, p 164.

4Tome 2, p 176.

5Tome 2, p 180.

6Tome 2, p 194.

7Tome 3, p 352.

8Tome 3, p 370.

9Tome 3, p 368.

10Tome 3, p 376.

11Tome 2, p 228.

12Tome 2, p 456.

13Tome 2, p 448.

14Tome 2, p 453.

15Tome 1, p 200.

16Tome 3, p 352.

17Tome 3, p 397.

Cet article ПРОГУЛКА В ГУЛАГ (4/4) est apparu en premier sur EchoRadar.eu.

ПРОГУЛКА В ГУЛАГ (3/4)

Par Informatiques Orphelines

Avant-dernier billet de notre série traitant du goulag au fil de la lecture de Soljénitsyne.

Les plus grands ouvrages d’Alexandre Soljenitsyne - Russia ...

Source

Le mal et sa propagation

Parvenus à ce stade de la réflexion, la question qui vient à l’esprit est de savoir comment un tel régime a pu voir le jour. Comment ce régime, intrinsèquement pervers1 (et Soljenitsyne l’illustre bien dans son œuvre) a-t-il pu naître et prospérer ?

Garder les déportés, est-ce se rendre au mal ?

Le goulag a été rendu possible parce qu’il a existé des personnes pour garder les prisonniers, les humilier et accepter de les faire travailler dans des conditions inhumaines. Soljenitsyne n’est pas tendre pour ceux qui l’ont gardé : « Les qualités des gardiens de camp sont : la morgue, la stupidité, le pouvoir absolu, l’instinct du domaine, la cupidité, la sensualité, la méchanceté, la cruauté. Un raisonnement général m’a déjà permis de déduire qu’un chef de camp ne peut pas être bon ; si c’est le cas, il doit ou bien se rompre le cou ou bien être expulsé2. »

Et ces qualités peuvent s’exprimer avec d’autant plus de liberté qu’elles nécessitent une mise en sommeil de celles nécessaires à l’élévation de chacun : « Privé de la sphère supérieure de l’existence humaine par le genre d’activité qu’ils exerçaient et l’existence qu’ils avaient choisie, les serviteurs de la maison bleue (MGB) vivaient d’autant plus pleinement et avidement dans la sphère inférieure. Ce qui les dominait et les guidait, c’était les instincts qui, outre la faim et le sexe, règnent dans cette sphère : l’instinct du pouvoir et celui du lucre. (Surtout celui-là : au cours de nos dernières décennies, le goût du pouvoir s’est révélé plus important que celui-ci de l’argent.)3 »

Cette mise en sommeil des qualités élevant l’âme a permis de recruter des mouchards, en jouant sur leurs faiblesses, afin d’asseoir le système. Avoir des mouchards, c’est savoir ce qui se passe dans la prison, c’est anticiper toute révolte, toute rébellion. C’est donc indispensable pour les gardiens. Quant aux mouchards, cela leur permet d’améliorer leur condition, quand bien même l’amélioration de son propre sort s’effectue au détriment de celui des autres détenus. Ce recrutement est irréversible : « Mais on recrute les gens (comme mouchard) en les emberlificotant et en leur mettant le grappin dessus, et les faiblesses qu’ils ont les condamnent à ce travail honteux. Et même ceux qui voudraient sincèrement arracher de leur corps cette toile d’araignée gluante, cette seconde peau eh bien, ils ne peuvent pas, ils ne peuvent pas4. »

Pourtant, tous les détenus n’ont pas accepté de se compromettre avec leurs gardiens, et il serait faux d’affirmer que la majorité étaient des mouchards, car il n’est pas indispensable à l’administration d’un camp de recruter tout le monde. Les largesses distribuables étant finies, le recrutement est forcément limité. Cela rend certains envieux de ce sort meilleur, et les autres résignés. Pourtant, certains ont résisté à ces tentatives de corruption. Pour l’auteur, c’est parce qu’ils voyaient le fond des choses, et non leur seule survie dans le camp : « S’il n’y a que le résultat qui compte, il faut consacrer toutes ses forces et ses pensées à échapper aux travaux généraux. Il faut courber l’échine, s’aplatir, s’avilir pour rester un planqué. Et de cette façon survivre.

Si c’est le fond des choses qui compte, il est temps de se faire aux travaux généraux. Aux haillons. Aux mains écorchées. À une ration moindre et pire. Peut-être à la mort. Mais tant que tu es en vie, redresse fièrement ton dos endolori. Dès lors que tu auras cessé de craindre les menaces, de rechercher les récompenses, tu seras, aux yeux rapaces de tes maîtres, un élément des plus dangereux. Car ils n’auront plus prise sur toi5. »

Banalité du mal

On en vient alors à s’approcher de la banalité du mal décrite par Arendt dans Eichmann à Jérusalem, également remarquée par un autre écrivain russe, Svetlana Aleksievitch : « Eux aussi [les bourreaux] ils ont fait des choses horribles, et seuls quelques-uns sont devenus fous. Tous les autres avaient une vie normale, ils embrassaient des femmes,… ils achetaient des jouets à leurs enfants… Et chacun d’eux se disait : ce n’est pas moi qui ai suspendu des hommes au plafond, qui ai fait gicler leur cervelle, ce n’est pas moi qui ai planté des crayons bien taillés dans des mamelons de femmes. Ce n’est pas moi c’est le système. Même Staline l’a dit : Ce n’est pas moi qui décide c’est le Parti… Ah c’était d’une logique géniale ! Des victimes, des bourreaux, et à la fin, les bourreaux deviennent aussi des victimes. On ne dirait pas que cela a été inventé par des hommes… Une perfection pareille cela n’existe que dans la nature… Ils sont tous des victimes en bout de compte6. »

Scélératesse et idéologie

Mais pour échapper ainsi à l’emprise des gardiens, il faut savoir distinguer le bien du mal. Ce qui n’est pas toujours aisé, surtout si les circonstances sont dures. Pour l’auteur, les gardiens de camp avaient encore à l’esprit cette notion du mal : « Pour faire le mal, l’homme doit auparavant le reconnaître comme un bien, comme un acte reconnu logique et compris comme tel. Telle est, par bonheur, la nature de l’homme qu’il lui faut chercher à justifier ses actes7. » mais ils étaient devenus des scélérats.

Soljenitsyne ne donne pas à ce terme une définition particulière, mais il estime qu’elle est une chose particulière, car elle fonctionne selon un seuil : « La scélératesse, semble-t-il, est elle aussi une grandeur à seuil. Oui, toute sa vie, l’homme hésite, se débat entre le bien et le mal, glisse, tombe, regrimpe, se repent, s’aveugle à nouveau, mais tant qu’il n’a pas franchi le seuil de la scélératesse, il a toujours la possibilité de revenir en arrière, il reste dans les limites de notre espoir. Mais quand il en franchit soudain le seuil, par la densité de ses mauvaises actions, leur degré, ou par le caractère absolu du pouvoir qu’il exerce, il s’exclut de l’humanité. Et peut-être sans retour8. »

Cette scélératesse était d’autant plus forte et acceptée qu’elle reposait sur l’idéologie, laquelle a démultiplié le nombre de victimes des massacres causés par les hommes : « L’imagination et la force intérieure des scélérats de Shakespeare s’arrêtaient à une dizaine de cadavres. Parce qu’ils n’avaient pas d’idéologie.

L’idéologie ! C’est elle qui apporte la justification recherchée à la scélératesse, la longue fermeté nécessaire au scélérat. C’est la théorie sociale qui aide le scélérat à blanchir ses actes à ses propres yeux et à ceux d’autrui, pour s’entendre adresser non pas des reproches ni des malédictions, mais des louanges et des témoignages de respect9. »

La contamination par le mal

Cette banalité du mal, son omniprésence s’est diffusée chez la plupart des détenus que les gardiens n’hésitaient pas à dresser les uns contre les autres : « De quelle gale ne se recouvre pas l’âme des détenus quand on les excite systématiquement les uns contre les autres10. »

Ce qui, combiné à une pauvreté de la vie intérieure soigneusement entretenue par le régime des soviets, faisait tomber la majorité des détenus dans la dépravation « Oui, la dépravation dans les camps était un phénomène de masse. Non seulement parce que les camps étaient horribles, mais parce que nous, hommes soviétiques, nous posions le pied sur le sol de l’archipel spirituellement désarmés, depuis longtemps mûrs pour la dépravation, atteint par elle bien avant notre arrestation. Aussi étions-nous toute oreille quand les vieux routiers des camps nous expliquaient comment il fallait vivre11. »

Le thème de la vie intérieure se lit en creux dans l’Archipel du goulag et, si l’on garde à l’esprit que c’est en vrai communiste qu’il a été emprisonné, les lignes suivantes prennent d’autant plus de valeur : « Comment tiennent bon dans les camps les esprits proprement religieux ? Tout au long de ce livre, nous avons déjà remarqué leur marche confiante à travers l’archipel, on dirait une procession silencieuse avec d’invisibles cierges. Ils tombaient comme fauchés par des rafales de mitrailleuse, mais d’autres prenaient leur place, et la marche continuait. Une fermeté inouïe au 20e siècle12. »

Mais tous les religieux n’ont pas survécu et tous les matérialistes n’ont pas succombé au goulag. D’ailleurs, tous n’étaient pas dépravés, mais ceux qui ne l’étaient pas devaient être suffisamment peu nombreux pour que l’auteur se voie rétorquer : « De nombreux rescapés des camps m’objecteront qu’ils n’ont jamais remarqué aucune élévation, sornettes que tout cela, par contre la dépravation, ils l’ont rencontrée à tous les instants13. » Et lorsqu’il n’y avait pas d’élévation, un moyen d’évasion (au sens figuré) était de se jeter à corps perdu dans le travail « C’est comme ça, voyez-vous : telle est la nature de l’homme, qu’il lui arrive parfois d’exécuter un travail pourtant maudit, amer, avec une sorte de frénésie fringante, incompréhensible14. »

Quel remède au mal ?

Face à cette propagation quasi inexorable du mal, se pose la question de la résistance au mal et donc de la préservation du bien, qu’il soit personnel ou commun.

L’auteur nous fournit deux pistes.

La première lorsqu’il écrit « Mais la ligne de partage entre le bien et le mal passe par le cœur de chaque homme. Et qui ira détruire un morceau de son propre cœur15 ? » montrant ainsi qu’il n’est pas facile d’être irréprochable, et que lutter contre le mal exige une certaine ascèse.

La seconde lorsqu’il évoque l’amour de la vie par dessus tout, que certains détenus conservaient, quand bien même la vie au goulag était rude : « Les évasions étaient à coup sûr plus nombreuses que les suicides ! Et les mutilations étaient de loin plus fréquentes que les suicides ! Car elles expriment l’amour de la vie ; le calcul en est simple : sacrifier une partie pour sauver le tout16. »

Sortir du communisme

Parce qu’il estimait que le goulag était indissociable du communisme, Soljenitsyne s’est demandé comment son pays pourrait en sortir, alors même que l’URSS semblait indéboulonnable, au moins pour certains intellectuels occidentaux.

Soljenitsyne - Ecrivain dissident et philosophe russeNotre ...

Source

Il a eu l’honnêteté de reconnaître que le problème était d’une grande complexité et que, par conséquent, la solution ne pouvait être simple quand bien même l’Allemagne avait réussi à quitter les oripeaux du nazisme : « Voilà une énigme dont nous autres, contemporains, n’arrivons pas à trouver la clé : pourquoi est-il donné à l’Allemagne de punir ses malfaiteurs et ne l’est-il pas donné à la Russie ? Quelle voie funeste sera la nôtre s’il ne nous est pas donné de nous laver des impuretés qui pourrissent dans notre corps ? Quelle leçon la Russie pourra-t-elle donner au monde17 ? »

Cette complexité se conjuguait à une certaine volonté d’oublier le passé, qu’il estime spécifique aux Russes : « La mémoire est le point faible par excellence chez les Russes, en particulier la mémoire du mal18. »

Ce qui a permis aux bourreaux, du goulag et d’ailleurs sur le sol russe, de vivre tranquillement et de n’être jamais inquiétés : « En URSS, jamais, en soixante-dix ans, aucune forme nette de châtiment (des bourreaux) n’intervint, mais, comme la roue de la Révolution tournait, une partie des bourreaux devait statistiquement être entraînée vers le châtiment du fait que tous les rangs de la révolution bolchevique s’éclaircissaient19 » alors que les gardiens de camps nazis dont tout le monde a perdu le souvenir continuent, tant qu’ils vivent, d’être passibles des tribunaux.

À cela il ajoute également le fait que le communisme s’est instauré peu à peu dans le peuple russe, et que cette insertion lente a réussi à le contaminer durablement : « Ainsi notre pays a été peu à peu intoxiqué par les poisons de l’archipel, et Dieu seul sait s’il pourra jamais les éliminer.20 »

Cette épineuse question du châtiment des gardiens de camps communistes a fait l’objet d’un mémoire de master à l’université de Laval (Québec) qui aborde la question de l’antériorité des crimes communistes par rapport aux nazis : Historiens, juristes et défenseurs des droits de la personne retracent l’origine des disparitions forcées à partir du Décret « Nuit et Brouillard » du régime hitlérien. Notre contribution sera de remettre en question cette évocation historique en démontrant l’existence d’une pratique antérieure sur le territoire soviétique. L’étude met en valeur les obstacles rencontrés lors des recherches effectuées par les proches, les services diplomatiques et consulaires, les ONG (Croix-Rouge, Société Mémorial), afin de reconstituer l’itinéraire emprunté par les disparus. Les faits de disparition sont établis et analysés de pair avec la Convention internationale pour la protection de toutes les personnes contre les disparitions forcées. (résumé du master)

Informatiques orphelines


1Le communisme est intrinsèquement pervers et on ne peut admettre dans aucun champs une collaboration avec lui par quiconque veuille sauver la civilisation chrétienne. Pie XI in Divini redemptoris, 1937.

2Tome 2, p 411.

3Tome 1, p 113.

4Tome 2, p 268.

5Tome 2, p 455.

6In Svetlana Aleksievitch La Fin de l’homme rouge ou le temps du désenchantement (Время секонд хэнд (Конец красного человека)) essai publié en 2013.

7Tome 1, p 131.

8Tome 1, p 132.

9Tome 1, p 131.

10Tome 2, p 463.

11Tome 2, p 466.

12Tome 2, p 464.

13Tome 2, p 461.

14Tome 2, p 196.

15Tome 1, p 128.

16Tome 2, p 448.

17Tome 1, p 133.

18Tome 2, p 95.

19Deux révolutions, p 173.

20Tome 2, p 470.

Cet article ПРОГУЛКА В ГУЛАГ (3/4) est apparu en premier sur EchoRadar.eu.

ПРОГУЛКА В ГУЛАГ (2/4)

Par Informatiques Orphelines

Nous poursuivons notre promenade au goulag (ПРОГУЛКА В ГУЛАГ) au gré de la lecture de Soljénitsyne.

Soljenitsyne, mort d'un géant - L'Express

Source

Le communisme au risque des comparaisons

Le communisme n’ayant pas trouvé grâce aux yeux de l’auteur, ce dernier s’est livré à un exercice de comparaison que l’on retrouve tout au long de l’œuvre.

Cette comparaison vise les deux grands ennemis du communisme, le tsarisme qu’il a mis à bas, et le nazisme (ou plutôt le fascisme selon le terme en vigueur) contre lequel il a lutté pendant la seconde guerre mondiale.

Avec le tsarisme

La comparaison avec le tsarisme s’effectue selon deux volets. La conception que chacun des régimes se faisait de l’homme et donc la dignité qu’il lui accordait d’abord, et les moyens avec lesquels chaque régime réprimait ses opposants ensuite.

[RUSSIE - Nicolas II] Nicolas II, tsar malgré lui

Source

– La conception de l’homme

D’un régime qui s’était élevé contre l’absolutisme et l’arbitraire, on aurait pu attendre une plus grande attention portée à l’homme, un plus grand souci de chacun.

Mais dans la mesure où l’ennemi est un ennemi de classe de laquelle il est impossible de s’extraire, même après une longue période de redressement, il ressort que l’attention portée à chacun dépend non de son être mais de sa classe. Même ceux qui avaient été emprisonnés du temps du Tsar s’en rendirent compte : « Lorsque, à la prison des Croix, en 1938, le vieux prisonnier politique Zelenski eût été fustigé à coup de baguette de fusil après qu’on lui eut ôté son pantalon comme à un gamin, il éclata en sanglots dans la cellule : “Le juge d’instruction tsariste n’osait même pas me dire tu !”1 »

Un autre élément de comparaison est la condition des paysans, la révolution d’Octobre ayant annoncé qu’elle libérerait les exploités et les victimes de l’arbitraire, la paysannerie en étant un des symboles les plus parlants. Ayant vécu dans les camps, l’auteur nous fournit deux remarques issues de la comparaison entre les détenus et les serfs : « Nous en convenons : les différences (entre les serfs et les zeks) sont en effet plus nombreuses. Mais voilà bien une chose étonnante : toutes les différences sont en faveur du servage ! Toutes les différences sont au désavantage de l’archipel du goulag2. » Et pour quelle raison valait-il mieux être serf que zek ? « Non, c’est en vain que nous nous sommes évertués à comparer nos zeks aussi serfs des seigneurs-propriétaires. La condition des seconds doit être reconnue bien plus tranquille et plus humaine3. »

Ainsi, selon l’auteur, c’est l’humanité qui différenciait les deux régimes. Cette remarque est-elle encore valable si on la passe au cribles de la répression des opposants ?

– La répression des opposants

Avant d’étudier les modalités de la répression, il est indispensable de savoir qui peut mériter les foudres de la justice. Or, il s’avère que « on peut tout aussi bien emprisonner un innocent s’il est socialement étranger que relâcher un coupable s’il est socialement proche4 » ce qui dénote une conception pour le moins singulière de la justice.

Ceci étant posé, la répression peut être massive et techniquement perfectionnée. Elle doit même l’être car le ventre d’où est sortie la bête immonde est perpétuellement fécond : « J’affirme hardiment que, même en ce qui concerne les expéditions punitives extra-judiciaires (écrasement des paysans 1918-1919, Tambov 19215, le Kouban et le Kazakhstan 1930), notre époque a largement surpassé, par l’envergure et la technique, les répressions tsaristes6. »

L’objectif de la répression n’était pas que les personnes s’amendent (un ennemi de classe ne peut s’amender, il demeurera toujours un ennemi de classe). Non, il était tout autre : « C’est très important, cela, c’est ce qu’il y a de plus important ! Il ne s’agissait absolument pas de dékoulakisation, il s’agissait de forcer les paysans à entrer dans les kholkozes. Les terroriser à mort, c’était le seul moyen d’arriver à leur prendre la terre que leur avait donnée la Révolution et à les attacher comme serfs à cette même terre7. »

Les conditions de vie des prisonniers politiques sont également un des critères de différence entre les deux régimes. On pouvait espérer qu’un régime destiné à améliorer le sort du genre humain serait clément avec ses opposants qui se rallieraient rapidement, du fait de son souci de l’homme, à lui. Il n’en fut en fait rien : « Durant les premières années du régime soviétique, dans notre pays enfin libéré d’un esclavage séculaire, la fierté et l’indépendance des exilés politiques s’affaissèrent comme un ballon de baudruche percé par une épingle8. »

Si l’on compare les conditions de répression et de détention des deux régimes successifs, le tsariste et le soviétique, la comparaison n’est pas en faveur du dernier, non seulement en ce qui concerne la qualité des locaux de détention « En comparant les deux bâtiments de la centrale de Vladimir, celui qui date des tsars et celui qui date de la période soviétique, Martchenko nous montre de manière tangible où s’arrête l’analogie entre les deux époques : le bâtiment des tsars est sec et chaud, le bâtiment soviétique est humide et froid (dans les cellules, on a les oreilles qui gèlent, et jamais on n’ôte son caban), et les fenêtres héritées de l’ancien régime ont été bouchées par 4 rangs de briques sans oublier les muselières9 » mais aussi à propos des conditions générales de persécution « Mais nous qui disposons de la règle graduée authentique, celle qui donne l’échelle, nous sommes en mesure d’affirmer hardiment que le gouvernement tsariste n’a pas persécuté, non, il a dorloté avec sollicitude les révolutionnaires, pour sa propre perte10. » Quant à Lénine, le proscrit qui mit à bas le régime tsariste, l’auteur glisse simplement quelques mots sur les conditions de détention qu’il a subies : « Impossible de créer des conditions de vie meilleures que celles qui furent faites à Lénine au cours de son unique déportation11. »

Il n’est alors pas étonnant que de multiples tentatives d’évasion aient eu lieu au goulag. Dans la mesure où la déportation du temps des Tsars avait un terme et pouvait se passer dans des conditions relativement clémentes, la majorité des déportés attendaient patiemment leur libération. Mais au goulag, la peine pouvait être rallongée sans que les zeks ne passent devant un magistrat (à moins de considérer les gardiens de camp comme tels12). Les tentatives d’évasions furent à la fois relativement nombreuses et symptomatiques de conditions de vie dégradées, puisque le milieu ambiant était particulièrement hostile pour les évadés : « À présent, si l’on peut me donner à voir des évasions réalisées par des révolutionnaires des 19e au 20e siècle impliquant autant de difficultés, d’absence d’aide extérieure, d’hostilité du milieu ambiant, de châtiments illégaux des évadés rattrapés, eh bien, qu’on me les cite, ces évasions13. »

Quant à la libération des détenus, elle ne s’accompagnait pas d’une absence de mesures restrictives de liberté. Au contraire, le zek était assigné à résidence14 sous peine de retourner au goulag. Il va sans dire que l’administration choisissait le lieu d’assignation, car elle savait mieux que le zek ce qui lui conviendrait, ce qui pouvait conduire les dits zeks dans des contrées inhospitalières. « Les zeks n’arrivaient pas à comprendre en quoi consistait leur Libération. Au camp, ils avaient des baraques chauffées, ici, c’était un gourbi de bûcherons sans feu depuis l’hiver précédent. Là-bas on entendait hurler les tronçonneuses, ici aussi on allait les entendre. Et ici comme là-bas, cette tronçonneuse était le seul moyen de gagner une ration de pain gluant15. » De plus, l’emploi des zeks était également choisi par l’administration, en fonction de ses besoins, parfois en accord avec les aptitudes de l’ancien détenu.

Mais comment se fait-il que de tels éléments n’aient pas été connus plus tôt ? Dans un autre ouvrage, Soljenitsyne en donne une explication : « À l’évidence, toute révolution s’accompagne toujours d’un tourbillon de calomnies à l’encontre de l’ancien régime et de rumeurs fantastiques sur le déroulement des événements. Et, grâce à l’irréversibilité de la Révolution, ces calomnies et ces billevesées laissent dans l’histoire leur empreinte comme si c’était la pure réalité16. »

Avec le nazisme

La deuxième comparaison inévitable était celle avec le nazisme. Pourquoi ? Non seulement parce que les deux régimes furent contemporains, mais aussi parce que l’URSS envoya en relégation (au goulag) ses militaires qui furent capturés par l’ennemi pendant la seconde guerre mondiale. Ces derniers ont donc été de bons témoins des avantages et inconvénients d’un régime de traitement des prisonniers par rapport à l’autre.

– L’inhumanité

Si l’on ne peut affirmer que le nazisme fit preuve d’humanité, la comparaison avec le soviétisme joue encore en défaveur de celui-ci : « Les gardiens ignoraient les motifs de la condamnation de chacun. Et bien, mais il fallait vous renseigner, si vous étiez des hommes ! Ce qui fait de vous des scélérats, c’est justement que vous n’avez jamais posé un regard de citoyens ni un regard d’homme sur les gens confiés à votre garde. Les nazis n’avaient-il pas des instructions, tout comme vous ? Ne croyaient-ils pas œuvrer pour le salut de la race aryenne17 ? »

– La torture

Les deux régimes, nazi et soviéto-communiste ont abondamment eu recours à la torture. C’est un recours qui peut paraître rassurant lorsqu’on a peur de perdre la partie mais qui s’avère finalement peu fiable. Sur ce point, Soljenitsyne nous livre un témoignage recueilli dans les geôles du goulag : « Personne ne peut échapper à cette comparaison (le nazisme et le communisme) : la période et les méthodes coïncident trop. Elle allait d’autant plus de soi pour ceux qui étaient passés à la fois par la Gestapo et le MGB, comme Alexis Ivanovitch Divnitch, un émigré, prédicateur de l’orthodoxie. Il avait été accusé par la Gestapo d’activité communiste parmi les ouvriers Russes en Allemagne, et par le MGB d’avoir des contacts avec la bourgeoisie internationale. Sa conclusion n’était pas en faveur du MGB : il avait été torturé ici et là, mais la Gestapo cherchait tout de même à établir la vérité, et, quand l’accusation était tombée, on l’avait relâché. Le MGB, au contraire, ne recherchait pas la vérité et n’avait aucunement l’intention de lâcher quiconque avait été pris dans ses griffes18. »

– L’extermination

Un des points souvent avancé lorsqu’on compare les deux régimes totalitaires du XX° siècle, est le fait que le nazisme cherchait à exterminer ceux qu’il considérait comme ses opposants. Ce qui laisse penser que ce n’était pas le cas du communisme. L’opinion de Soljenitsyne diffère quelque peu, on s’en doutera : « Car les camps sont des camps d’extermination, il ne faudrait pas l’oublier19. » Exagération, caricature penseront tous ceux qui n’y sont pas allés. Mais « Tous ceux qui ont vécu Orotoukane disent que la chambre à gaz est préférable20… »

Et pour ceux qui douteraient encore, l’auteur n’hésite pas à enfoncer le clou : « Le but de l’opération n’était guère dissimulé : il s’agissait de mettre à mort les bagnards. C’était une chambre à gaz bien franche, mais dans la tradition du Goulag, étirée dans le temps, pour que les victimes aient à souffrir plus longtemps et à fournir encore du travail avant leur mort21. »

– Pourquoi y eut-il des intelligences russes avec l’ennemi ?

Une question cependant demeure. Pourquoi des Russes se sont-ils jetés dans les bras d’un système pervers comme le nazisme ? Pour l’auteur, l’explication est fort simple : « Ces gens-là qui avaient souffert dans leur propre chair 24 années de bonheur communiste, savaient dès 1941 ce que personne au monde ne savait encore : qu’il n’a jamais existé sur la planète entière ni tout au long de l’histoire de régime plus méchant, plus sanglant et, en même temps, plus perfidement industrieux que le régime bolchevik usurpateur du nom de soviétique22. » Comparer les deux régimes ne joue donc pas en faveur du communisme, car malgré les horreurs nazies, des Russes ont lutté jusqu’à la fin de la guerre contre le régime qui régissait leur pays : « Voyez : c’est là que gisent les racines sociales de ces centaines de milliers de volontaires qui, en dépit même de la monstruosité hitlérienne, avaient perdu tout espoir et endossé l’uniforme de l’ennemi23. »

Et il s’en est fallu de peu (si l’on peut dire) que le soviétisme ne tombe pas sous la poussée allemande : « Et si les arrivants n’avaient pas été aussi irrémédiablement bornés et arrogants, s’ils n’avaient point conservé pour la grande Allemagne la si commode administration étatique des kolkhozes, s’ils ne s’étaient mis dans la tête l’abominable projet de réduire la Russie à l’état de colonie, eh bien, l’idée nationale ne s’en serait pas retournée loger là où on avait cessé de l’étouffer, et sans doute ne nous aurait-il pas été donné de célébrer le 20e anniversaire du communisme pan-russe24. »

Jacques Rossi, communiste déporté au goulag écrit dans sa postface à Qu’elle était belle cette utopie ! à propos du régime des soviets et de sa comparaison avec le nazisme : « Et dire que moi, j’avais consacré toutes mes forces à faire triompher ce régime, non moins abject que celui des nazis, mais certainement beaucoup plus hypocrite, et qui a duré six fois plus longtemps, contaminant presque tous les continents. Au bout du compte, si l’on considère les millions de victimes des deux régimes, y a-t-il vraiment une différence entre le « sale collabo » des nazis et celui qui, en Occident, fermant délibérément les yeux, a soutenu le régime soviétique ?25 »

La chasse aux intellectuels

S’il est un autre point par lequel le communisme s’est distingué des autres régimes, c’est la chasse aux intellectuels. Il était de bon ton, il y a une vingtaine d’années, d’affirmer qu’elle était l’apanage des Khmers rouges (une fois le régime tombé, bien sûr), mais il n’en est rien. Le père, le modèle, la référence du régime khmer rouge, à savoir ce qui a régenté l’URSS pendant des années s’en était fait une spécialité.

Et cela, alors même que les révolutions sont le fruit du travail d’intellectuels : « La révolution a mûri non du fait des difficultés militaires et économiques en tant que telles, mais du fait de l’acharnement des intellectuels, pendant des dizaines d’années, que le pouvoir n’a jamais pu surmonter26. »

Mais après une révolution, seuls subsistent les intellectuels qui l’ont fait germer, l’ont fait gagner ou l’ont accompagnée. Les autres sont voués à la disparition : « Avant la chute d’une société, il y a une sage catégorie d’hommes qui pensent, qui pensent et ne font rien d’autre. Et que ne s’est-il pas gaussé d’eux ! Que n’a-t-on pas fait d’eux des gorges chaudes ! à ceux qui ont des buts et une manière d’agir tout d’une pièce, on eût dit qu’ils restaient en travers de la gorge. Il ne leur est pas échu d’autre sobriquet que celui de pourri. C’est parce que ces gens étaient une fleur éclose avant l’âge, d’un parfum trop subtil, qu’on les a précipités sous la faucheuse27. »

Cette persécution absurde ne s’explique que parce qu’elle est fondée sur l’idéologie (cf. infra). Comment expliquer sinon qu’un pays se prive de ses meilleurs ingénieurs, de ses meilleurs savants ? « J’avais justement été élevé dans un milieu d’ingénieurs et je me rappelle bien ceux des années 20 : cette intelligence irradiant au-dehors, cet humour innocent et dégagé, cette aisance et cette légèreté de la pensée, cette facilité avec laquelle il passait d’un domaine à l’autre du métier d’ingénieur, et de la technique même aux questions sociales et artistiques. Et puis, cette bonne éducation, cette finesse de goûts ; cette manière de bien s’exprimer avec fluidité, sans mot triviaux ; cette habitude pour les uns de jouer un peu de musique, pour d’autres de faire un peu de peinture et toujours, chez chacun, la marque de l’esprit sur le visage28. »

Parce que ce régime se voulait le défenseur de la classe ouvrière, il en est venu à détruire tous ceux qui n’en étaient pas. Enfin, pas tous, car ses géniteurs n’étaient pas tous d’anciens ouvriers29.

Mais cela importait peu au régime qui luttait sans rémission contre les ennemis de classe : « Ainsi donc, ce système qui imposait un travail physique démesuré et faisait vivre les détenus au milieu d’une foule vociférante et avilissante était un moyen plus efficace que la prison pour détruire l’intelligentsia. Et c’est précisément l’intelligentsia que ce système terrassa promptement et sans rémission30. »

L’homo sovieticus

Longtemps, des intellectuels ont disserté sur l’accomplissement du régime des soviets lequel voulait créer un homme nouveau : l’homme nouveau soviétique pour ses défenseurs, l’homo sovieticus pour ses détracteurs. Les déboires du régimes soviétique puis la chute du rideau de fer ont amené ces mêmes personnes à claironner que l’homo sovieticus n’avait jamais existé, défaillance supplémentaire à mettre au débit des soviets.

Cela n’est pas si sûr.

Pionierlager: Wo und wie der Homo Sovieticus aufgezogen ...

Source

D’ailleurs, Svetlana Alekseievitch l’écrit : « Le communisme avait un projet insensé : transformer l’homme « ancien », le vieil Adam. Et cela a marché… C’est peut-être la seule chose qui ait marché. En soixante-dix ans et quelques, on a créé dans le laboratoire du marxisme-léninisme un type d’homme particulier, l’Homo sovieticus. Les uns le considèrent comme un héros tragique, d’autres le traitent de sovok, de pauvre Soviet ringard. Il me semble que je connais cet homme, je le connais même très bien, nous avons vécu côte à côte pendant de longues années. Lui, c’est moi. Ce sont les gens que je fréquente, mes amis, mes parents31. »

La question est alors de savoir comment cela a fonctionné, et quel est donc cet homme nouveau que le régime des soviets a réussi à façonner.

Il est frappant de remarquer, à la lecture de l’Archipel, que le zek, le condamné, semble être cet accomplissement, cette réussite du régime.

L’auteur l’avoue implicitement, lorsqu’il écrit « Bien des années plus tard, s’il se retrouve hors de l’archipel, c’est d’abord le zek que l’on reconnaît en cet homme, et après seulement le russe ou le tatare ou le polonais32 » montrant ainsi l’empreinte indélébile que le camp imprime dans l’homme.

Mais, pourrions-nous rétorquer, toute la population soviétique n’a pas été ainsi déportée, et ne serait-il pas exagéré d’affirmer une telle chose ?

Au-delà de la polémique sur le nombre de déportés au goulag (tout dénombrement sérieux semble impossible33), si nous reprenons une citation de l’auteur évoquée précédemment, alors nous sommes amenés à croire qu’une grande partie du peuple (à l’exception des apparatchikis non purgés, souvenons-nous de Béria) a subi, directement ou indirectement les effets du goulag : « Additionnons ensemble, d’après la revue que nous avons faite de nos flots, tous les coffrés de cet article, ajoutons-y, multiplié par 3, le même nombre de membres de la famille, exilés, suspects, humiliés, persécutés, et nous voici amené à admettre avec étonnement que, pour la première fois dans l’histoire, le peuple est devenu son propre ennemi, tout en ayant acquis, en revanche, son meilleur ami : la police secrète34. »

Soljenitsyne explique d’ailleurs comment les camps, mais aussi les années précédant leur emprisonnement ont pu changer ceux qui y sont passés : « Oui, la dépravation dans les camps était un phénomène de masse. Non seulement parce que les camps étaient horribles, mais parce que nous, hommes soviétiques, nous posions le pied sur le sol de l’archipel spirituellement désarmés, depuis longtemps mûrs pour la dépravation, atteint par elle bien avant notre arrestation. Aussi étions-nous toute oreille quand les vieux routiers des camps nous expliquaient comment il fallait vivre35. »

Le français Jacques Rossi précédemment cité, et qui a passé plus de vingt ans au goulag estime que les camps étaient un laboratoire dans lequel le pouvoir testait les mesures qu’il voudrait prendre pour tout le territoire soviétique, c’est-à-dire rendre ces mesures non plus extra-ordinaires mais ordinaires et par là même banales.

En fait, il semble bien que l’homo sovieticus que le régime des soviets a réussi à créer ressemble énormément à l’homo sacer auquel Agamben fait référence dans son œuvre. Rappelons que l’homo sacer (« homme sacré ») est un statut issu du droit romain : il s’agit d’une personne qui est exclue, peut être tuée par n’importe qui (qui occidit parricidi non damnatur), mais ne peut faire l’objet d’un sacrifice humain lors d’une cérémonie religieuse (neque fas est eum immolari). En fait cette personne, à l’instar des zeks du goulag, ne dispose plus d’aucun droit civique. Agamben estime que l’homo sacer peut être considéré, d’un point de vue juridique, comme un exilé. Il estime également que, par son statut, il rejoint celui du déporté et du réfugié politique.

Contrairement donc à ce que des intellectuels incrédules estimaient, l’URSS n’a pas échoué à créer un homme nouveau. Elle a remis au goût du jour l’homo sacer romain et a étendu cette qualité à une grande partie de sa population.

Informatiques orphelines


1Tome 1, p 103.

2Tome 2, p 117.

3Tome 2, p 119.

4Tome 1, p 200.

5Notons que ces deux répressions ont eu lieu du vivant de Lénine.

6Tome 3, p80.

7Tome 3, p 288.

8Tome 3, p 279.

9Tome 3, p 413.

10Tome 3, p 72.

11Tome 3, p 73.

12Ainsi, la peine que Jacques Rossi a subie est exemplaire de cette façon de faire : De 1939 à 1947, il a été interné dans le camp de Norilsk. La peine expire officiellement en 1945, mais est prolongée par une « disposition spéciale » « jusqu’à nouvel ordre ». Libération conditionnelle le 15 avril 1947, assortie d’une interdiction de quitter Norilsk. Cf. http://www.jacques-rossi-goulag.org/Chronologie.html?lang=fr

13Tome 3, p 181.

14Ce qui donne une saveur particulière à toutes les personnes qui voudraient que les djihadistes, une fois leur peine purgée, soient assignés à résidence, voire enfermés dans des camps.

15Tome 3, p 304.

16Révolution et mensonge, Deux révolutions, p 145.

17Tome 3, p 401.

18Tome 1, p 112.

19Tome 2, p 190/

20Tome 2, p 290.

21Tome 3, p 10.

22Tome 3, p 26.

23Tome 3, p 26.

24Tome 3, p 25.

26Révolution et mensonge, Leçons de février, p 105.

27Tome 1, p 142.

28Tome 1, p 148.

29Lénine grandit au sein d’un milieu intellectuellement et socialement favorisé, Trotski était un « révolutionnaire professionnel », tout comme Zinoviev, Kamenev, Boukharien et Staline qui était aussi braqueur de banques, Béria quant à lui était membre de la police tsariste.

30Tome 2, p 469.

31In La Fin de l’homme rouge ou le temps du désenchantement, p 17.

32Tome 2, p 381.

34Tome 2, p 221.

35Tome 2, p 466.

Cet article ПРОГУЛКА В ГУЛАГ (2/4) est apparu en premier sur EchoRadar.eu.

ПРОГУЛКА В ГУЛАГ (1/4)

Par Informatiques Orphelines

Se lancer dans la lecture de Soljenitsyne, c’est accepter de se prendre un choc, intense, violent, difficilement supportable parfois, presque à chacune de ses pages. C’est partager, voire ressentir, ce qu’il a vécu, ce qu’il a vu. Accepter de plonger avec lui dans les tréfonds de l’être humain pour y côtoyer et comprendre la maladie et les rapports entre soignant et soigné (Le pavillon des cancéreux), la souffrance et la condition humaine (L’archipel du goulag) et le mensonge (Discours de Harvard, Révolution et mensonge).

C’est se plonger dans une lecture qui ne laisse pas indemne et au terme de laquelle on comprend, quand bien même seule une traduction permet d’accéder à son œuvre, qu’il a pu recevoir le prix Nobel de littérature, tant sa description de l’homme, de ses contraintes, de ses envies et de ses paradoxes est universelle.

Alexandre Soljenitsyne

Source

Si L’archipel du goulag sera au centre des lignes qui suivent, d’autres parties de son œuvre pourront apporter des précisions ou des compléments au propos principal. Des références à d’autres œuvres de la littérature concentrationnaire parsèmeront également ces lignes.

La réception de l’œuvre de Soljenitsyne

Cette œuvre ne pouvait passer inaperçue. Une telle dénonciation d’un système concentrationnaire alors que l’Europe venait de se relever du nazisme et que certains voulaient encore croire et faire croire aux « lendemains qui chantent » ne pouvait valoir qu’à son auteur un abondant lot de reproches et de condamnations.

Soljenitsyne en était conscient, et plusieurs extraits de lettres de reproches que lui ont adressé des citoyens soviétiques sont d’ailleurs citées dans ses lignes.

La réception interne

Soljenitsyne fut pris à partie, parfois violemment, par des soviétiques lui reprochant de prendre la défense de bons à rien qui avaient mérité le goulag. Ce qui ne manque pas de sel lorsqu’on sait qu’au goulag se trouvaient également ceux que l’auteur appelle des orthodoxes, non en raison de leur foi, mais de leur dévotion au parti. Ces communistes victimes d’un système qu’ils appelaient pourtant de leurs vœux se consolaient en se persuadant que Staline n’était pas au courant de ce qu’ils vivaient et que, dès qu’il le saurait, il ferait libérer ses camarades.

Mais ils demeurèrent des ennemis du peuple qui purgèrent leur peine.

Dans d’autres lettres lui furent adressées, les auteurs justifiaient la faible ration de nourriture accordée aux zeks, en exposant que celui qui ne travaillait pas ne devait pas être nourri. Principe de bon sens dira-t-on, qui peut néanmoins prendre une autre signification lorsque le travail est forcé et qu’il doit être exécuté par des températures négatives, voire très négatives. Et encore, à l’époque, on ne parlait que de la température affichée par le thermomètre, pas de celle ressentie1.

Des gardiens de camps, mis en cause par Soljenitsyne pour leur inhumanité voire leur corruption, lui ont également adressé des reproches après la parution d’Une journée d’Ivan Denissovitch roman décrivant la vie dans les camps : « nous sommes aussi des hommes, nous autres les exécutants, nous aussi nous avons su accomplir des actes héroïques nous n’achevions pas toujours les détenus qui tombaient et prenions ainsi le risque de perdre notre travail2. »

On peut se demander dans quel sens il faut comprendre le « nous n’achevions pas toujours ». Est-ce à dire que certains ne l’ont jamais fait, ou que si c’était la règle habituelle, elle a souffert (pardon du jeu de mots) quelques exceptions qui devraient valoir brevet d’humanité et de compassion et donc absolution à leur auteur ?

Ce qui induit la question : peut-on rester humain en se mettant au service d’un système inhumain et qu’on reconnaît comme tel ?

Le passage, encore actuel, devant les tribunaux des gardiens de camps nazis donne une orientation quant à la réponse judiciaire réservée à ces personnes.

La réception externe

Si l’on comprend que la réception interne ne pouvait être favorable, quand bien même le culte de la personnalité n’existait plus, tant l’œuvre estimait le régime des camps indissociable du communisme, on pouvait penser qu’elle serait bien reçue dans le « camp de la liberté » qui ne s’est appelé ainsi que bien plus tard.

Pourtant, l’Histoire nous apprend que les premières relations entre l’URSS et les USA n’étaient pas celles d’une confrontation à l’image de celle de la guerre froide. L’auteur le sait, et il cite d’ailleurs à titre d’exemple les visites en terre russe de magistrats américains qui ne trouvèrent rien à redire au système judiciaire soviétique.

On pourrait également citer la construction de la ville de Magnitogorsk pour laquelle des urbanistes américains furent mis à contribution, la cité devant s’inspirer de celle de Gary (Indiana), suite à l’accord conclu avec la US Steel. Cette coopération urbaniste entre le régime des soviets et les représentants du « camp de la liberté » dura quand même de 1928 à 1937.

L’auteur se doutait que la réception de son œuvre en Occident poserait problème, car il écrivait « L’Europe, bien sûr, n’en croira rien. Tant qu’elle n’y aura pas elle-même été, elle n’y croira pas. Elle a cru en nos revues sur papier glacé, impossible de lui faire entrer autre chose en tête3. »

L’opposition fut d’ailleurs violente.

En France, le parti communiste encore puissant4 s’efforça de minimiser la portée du récit. Quand bien même il déclara « Il ne s’agit nullement, quant à nous, de contester le droit de Soljenitsyne de s’exprimer5 » le premier secrétaire de l’époque circonscrit les faits à une époque particulière de l’histoire de l’URSS en déclarant ne « voir aucun fait qui justifie l’appréciation selon laquelle nous assisterions à un retour aux méthodes staliniennes » En septembre, l’Humanité poursuivit dans le même registre en écrivant « L’heure est à la lutte pour vivre mieux, l’anticommunisme divise. » Par la suite, le parti mit en avant la liberté d’expression en vigueur en URSS puisque l’Archipel y avait été publié « Dans le même moment où il crie à la répression, Soljenitsyne se fait photographier dans son appartement de Moscou avec ses deux enfants émouvants. Il se multiplie en conférences de presse, en déclarations, en appels, en communications téléphoniques avec l’étranger. C’en est même gênant car, à force de parler et d’écrire, Soljenitsyne après Sakharov, révèle de plus en plus ses convictions politiques, rétrogrades, réactionnaires. Et puis l’état actuel des choses contredit trop l’image qu’on donne d’un homme persécuté6 », ainsi que les sympathies nazies (selon les communistes de France) de l’auteur « Dans sa détestation de l’Union Soviétique et de Staline en particulier, Soljenitsyne en vient à plaider pour Vlassov et ceux qui le suivirent, (…) un traître condamné comme tel après la guerre. Une grande partie du chapitre intitulé “Ce printemps là” constitue un plaidoyer en faveur de Vlassov et de ses hommes. C’est Staline qui, par sa politique, les aurait poussés à cet acte… Et voilà les traîtres réhabilités7. » Georges Marchais enfonçant le clou à la télé en déclarant « seule chose nouvelle que nous trouvons dans l’ouvrage de cet écrivain admiré du monde capitaliste, c’est un éloge du traître Vlassov. »

Aux USA, l’enthousiasme ne fut pas unanime puisque Moshe Lewin8, ancien citoyen soviétique, soviétologue, lui réserva un accueil mitigé et déclara encore en 2003 « Un livre comme L’Archipel du Goulag lancé à la face du régime soviétique peut être considéré comme une claque politico-littéraire, signifiant la condamnation d’un système qui a trahi ses propres idéaux […]. Mais l’écrivain ne laissait à aucun moment entendre qu’au moment où il publiait son livre, le Goulag qu’il avait connu n’existait plus… Le dire aurait été un acte d’honnêteté politique et aurait exigé de sa part une analyse approfondie du système, assortie d’un argumentaire sur la période post-stalinienne. Il ne l’a pas fait, cela n’avait pas d’importance pour lui. Il était beaucoup plus simple d’attaquer l’Union soviétique pour son passé stalinien, et de servir par là sa propre image. Car Soljenitsyne se considérait comme le dépositaire de valeurs supérieures héritées du passé de la Russie, et c’était en référence à ce passé qu’il entendait proposer des remèdes à la Russie du XXe siècle. » Si tout n’est pas faux dans cette déclaration, on peut noter la savoureuse remarque le Goulag qu’il avait connu n’existait plus, ce qui laisse penser que le goulag existait encore. Moins dur ou plus dur, ce n’est pas dit… De même, on note que la phase stalinienne devrait être considérée, selon Lewin, comme une parenthèse regrettable d’un système qui, finalement, n’était pas si mal que cela.

On peut cependant estimer que Lewin avait sûrement des biais de raisonnement. Ses parents, d’origine juive, ont été assassinés par les milices d’extrême droite lituaniennes lors de l’invasion allemande9, et il a lui-même quitté l’URSS en 1945, à une époque où tout le monde ne pouvait pas le faire.

Soljenitsyne montre le peu de bien qu’il pense de Lewin dans « L’erreur de l’occident » lorsqu’il indique que Lewin qualifiait les premiers résistants au soviétisme de « bandits »…

Cette opposition au récit, Soljenitsyne l’explique par un long développement du proverbe il n’est pire sourd que celui qui ne veut pas entendre, plus particulièrement destiné à l’intelligentsia occidentale : « Ô penseurs occidentaux de gauche si épris de liberté ! Ô travaillistes de gauche ! Ô étudiants progressistes d’Amérique, d’Allemagne de France ! Tout cela n’est pas encore assez pour vous. Tout ce que renferme ce livre, vous allez le compter pour rien. Vous ne comprendrez – mais alors ce sera d’un seul coup – que le jour où, les mains derrière le dos, vous partirez vous-même pour notre archipel10. »

Exilé sur le territoire américain après son expulsion d’URSS, l’auteur se rendit compte qu’il n’avait été soutenu que parce qu’il avait été considéré comme un opposant politique et non à cause de la nature de son œuvre. La réception de son discours prononcé à Harvard le prouve.

Le goulag est-il une création stalinienne ?

La fraîcheur de la réception pourrait s’expliquer par le fait que Soljenitsyne n’aurait rien compris au communisme. Assimiler le goulag à ce régime en serait d’ailleurs la preuve, le communisme étant pur, seul Staline l’ayant perverti.

Vrais chiffres du Goulag : les faits historiques. | Réseau ...

Source

Ce qui serait néanmoins étonnant, car Soljenitsyne a grandi en bon citoyen soviétique, membre des komsomols il a défilé pour célébrer les anniversaires de la révolution d’Octobre et ne s’est pas dérobé à l’appel de la patrie lorsque le fascisme la menaçait.

Il n’est pas non plus passé chez les Vlassoviens pour tenter de mettre à bas le régime communiste en profitant des combats contre le nazisme, quand bien même il a été taxé de sympathies vlassoviennes par ses contradicteurs.

Son arrestation n’est pas due à un anti-soviétisme, mais au fait que la correspondance avec un de ses amis dans laquelle il estimait Staline piètre stratège militaire11, a été interceptée et ouverte.

C’est donc en tant qu’officier soviétique fier de son combat contre le fascisme que Soljenitsyne a été arrêté puis a fait connaissance avec l’univers concentrationnaire… Pour preuve le fait que dans la colonne de prisonniers encadrée par des sous-officiers, il estimait indigne d’un officier soviétique de porter lui-même sa valise : l’escorte refusant de la porter, il la fit porter par un civil allemand, prisonnier. L’Allemand dut s’exécuter, et l’escorte ne dit rien.

C’est ainsi d’un communiste, repenti ou traître selon le point de vue, qu’est venue la plus grande condamnation du système. Et celle-ci s’est appuyée, non seulement sur des faits, mais aussi sur une enquête approfondie, dans la mesure où les Organes lui laissaient la possibilité d’y travailler : Soljenitsyne explique qu’il dut prendre de nombreuses précautions pour récolter des témoignages d’anciens zeks et éviter que son œuvre soit saisie et détruite par la police.

La révolution et les camps

À rebours des thuriféraires du communisme, l’auteur estime que les camps sont indissociables de la révolution d’Octobre et du régime qu’elle a instauré : « On peut donc dire que c’est bien de cette instruction du 23 juillet 1918 (neuf mois après la Révolution d’Octobre) que procèdent les camps et qu’est né l’archipel12 », les instructions qui suivirent ne faisant qu’asseoir plus solidement les camps, nommés par euphémisme établissements de redressement par le travail : « À l’époque de l’entrée dans le socialisme, le rôle des établissements de redressement par le travail en tant qu’instruments de la dictature du prolétariat, qu’organes de répression, que moyens de contrainte et d’éducation doit s’accroître et se renforcer encore13. »

La révolution s’étant construite à partir de la théorie de la lutte des classes (les exploités contre les exploitants), il était alors logique qu’une fois qu’elle avait instauré un régime propice à accomplir ses promesses, elle combatte ses ennemis qui ne pouvaient être que des ennemis de classe.

Ceci dit, la question des moyens à mettre en œuvre pour faire passer les ennemis dans le camp du nouveau bien se pose. Le problème est en fait (quasiment) insoluble : « Les socialement étrangers, en effet, sont à peu près incapables de redressement tant ils sont invétérés dans leur corruption de classe. Dans leur majorité, ils ne peuvent être redressés que par la tombe. Que si une certaine minorité est susceptible de redressement, ce n’est bien entendu que par le travail, et le travail physique pénible (celui qui remplace les machines), le travail qui humilierait un officier ou un surveillant de camp, mais qui n’en a pas moins fait l’homme à partir du singe (et, dans les camps et de façon inexplicable, le retransforme en singe)14. »

Un cas particulier demeure, celui des détenus politiques, condamnés en vertu de l’article 58 du code pénal soviétique (dans lequel sont inclus à peu près tous les délits imaginables, y compris ceux qui ne sont pas encore commis). Était-il possible de les redresser afin d’en faire de parfaits soviétiques une fois leur peine accomplie ? L’auteur estime que non : « D’ailleurs, on n’a jamais cherché à corriger les 58, c’est-à-dire à ne pas les emprisonner une seconde fois. Nous avons déjà cité les déclarations sans ambiguïté de nos carcérologues à ce sujet. On voulait exterminer les 58 par le travail. Que nous restions en vie, cela relevait de notre initiative personnelle15 », la relégation faisant suite à l’accomplissement de leur peine en étant une preuve supplémentaire.

La révolution étant permanente et devant tendre vers une société sans classes, tous ceux qui s’y opposent doivent être emprisonnés puisqu’il est impossible de les redresser. Mais, selon l’auteur, ce raisonnement aboutit à une conclusion radicale, et paradoxale pour un régime qui déclare travailler pour le peuple : « Quand à ceux qui sont coffrés, eh bien, ce sont des kaers, des ennemis de la révolution. Les années aidant, le mot de révolution a perdu de son panache, d’accord, disons qu’il s’agit d’ennemis du peuple, ça sonne encore mieux. Additionnons ensemble, d’après la revue que nous avons faite de nos flots, tous les coffrés de cet article, ajoutons-y, multiplié par 3, le même nombre de membres de la famille, exilés, suspects, humiliés, persécutés, et nous voici amené à admettre avec étonnement que, pour la première fois dans l’histoire, le peuple est devenu son propre ennemi, tout en ayant acquis, en revanche, son meilleur ami : la police secrète16. »

Il explique néanmoins cette apparente contradiction dans une autre œuvre : « Les Roussaniv aimaient le peuple, leur grand peuple. Ils servaient ce peuple, ils étaient prêts à donner leur vie pour le peuple. Mais, d’année en année, ils devenaient de moins en moins capables de supporter… la population17. »

Après la mort de Staline

L’auteur ajoute que, même après la mort du petit père des peuples (1953), le goulag a poursuivi son œuvre mortifère. Mais s’il était lié à Staline et non au communisme, n’aurait-il donc pas dû s’arrêter avec le décès du guide ?

Une brise de liberté souffla effectivement dans les camps après cet événement, causant une inquiétude certaine dans les rangs de l’administration du goulag : « Cependant, la panique des agents d’exécution n’était pas sans fondement : les années 1955-1956 virent dans le ciel de l’archipel une extraordinaire conjonction astrale. Ce furent des années fatidiques, qui eussent pu être les dernières de son existence18 ! » L’espérance des détenus était forte, la désorientation des gardiens telle que les détenus partaient travailler sans même être escortés aussi lourdement qu’avant, et les gardiens, étonnamment, prenaient en compte certaines demandes des détenus.

Des gardiens de camps se plaignirent même que certains zeks les traitaient de bérianistes après la chute de ce dernier19. Ce qui leur valut comme réponse « tu me traites bien de fasciste tous les jours » et il s’ensuivit un modus vivendi : l’abandon de l’injure bérianiste contre l’abandon de celle de fasciste…

Cependant, la brise retomba, le goulag demeura, et une des preuves de l’intrication du goulag et du communisme fut l’absence de jugement pour les organisateurs et exécutants, au motif qu’ils n’avaient fait qu’appliquer les ordres. Ils furent d’ailleurs reconduits à leur poste. Alors que si la déstalinisation avait été totale, la hiérarchie des camps auraient dû répondre de ses actes devant la justice. « Les agents d’exécution ne faisaient qu’accomplir ce qu’exigeaient d’eux les règlements, les instructions, les consignes. C’est du reste toujours le même personnel qui assure le service actuellement, ils sont seulement peut-être 10 % de plus, et leur bon travail leur a valu plus d’une fois des encouragements, ils sont appréciés de leurs supérieurs20. »

Mais la reconduction des fonctionnaires est parfois indispensable à la bonne marche de l’État, et le gouvernement communiste n’hésita d’ailleurs pas à conserver des gardiens de prison de l’époque tsariste.

D’autres éléments incitent cependant l’auteur à penser que la mort de Staline, après avoir plongé le régime dans une période d’incertitude, n’a pas eu d’effet notable sur l’existence et le fonctionnement de ce système concentrationnaire et post-concentrationnaire : « Une institutrice nommée Deieva a été révoquée pour corruption morale : elle avait porté atteinte au prestige des instituteurs en se mariant avec un ancien détenu qui, au camp, avait été son élève. Quand cela s’est produit, on n’était plus sous Staline, on était sous Khrouchtchev.21 »

Ce qui l’amène à en tirer une double leçon :

– la commission de délestage chargée d’enquêter sur les camps ne fut, en prenant en compte le long terme, qu’un alibi pour un régime soucieux de se maintenir à tout prix : « La commission de délestage, c’est un concierge soucieux de propreté qui suit dans la cour les traces de vomi laissées par Staline et les essuie soigneusement un point c’est tout. Ce n’est pas cela qui va doter la société de nouvelles bases morales22. »

– le culte de la personnalité, évoqué pour expliquer les excès de l’ère stalinienne n’est, lui aussi qu’un alibi « Commode, le culte de la personnalité on profère cela et on croit avoir expliqué quelque chose23 » qui ne cache qu’imparfaitement un autre problème : « Un de nos poètes a eu ce mot d’esprit : nous avons connu le culte non pas de la personnalité, mais du dédoublement de la personnalité24 » ;

et sa conclusion sur le régime étant sans appel : « Voici plus de 50 ans que se dresse cet état énorme maintenu par des cercles d’acier : les cercles d’acier sont là, mais de loi, il n’y en a pas25. »

D’ailleurs, à propos du culte de la personnalité, c’est aller un peu vite en besogne que de l’imputer au seul Staline. Saint Petersbourg a été rebaptisée Leningrad en 1924 à la mort de Lénine, Lénine a eu un mausolée sur la place rouge, et les paroles du poème d’Alexandre Bezymenski intégré dans la symphonie Octobre de Chostakovitch écrite en 1927 sont peu équivoques : « Oh, Lénine! Tu as forgé la volonté aux souffrances de la grande douleur des mains calleuses. » « Nous avons compris, Lénine, notre destin porte le nom suivant : la lutte, la lutte ! »

Peut-on donc donner tort à Soljenitsyne lorsqu’il reprend ce mot de l’époque stalinienne : « Staline, c’est Lénine aujourd’hui » ?

Informatiques orphelines


1Cf. wikipedia : En hiver, la sensation de froid est plus vive en présence de vent que par temps calme. Ceci est dû à deux facteurs : d’une part, le vent balaye la mince couche d’air chaud formée par rayonnement juste au-dessus de la peau, d’autre part, privée de cet isolant, l’humidité de la peau s’évapore pour accentuer encore le refroidissement. La combinaison de ces deux facteurs conduit à la formule de la température ressentie. Par exemple pour une température de −10° et un vent de 30 km/h, l’indice est de -20°, ce qui signifie que la sensation de froid est – approximativement – équivalente à celle ressentie à une température ambiante de −20° par une journée sans vent sur la peau nue. Ceci ne s’applique pas aux parties vêtues d’une personne qui, par définition, ne ressentent pas le vent.

2Tome 3, p 385.

3Tome 2, p 228.

4La publication en France eut lieu en 1973.

5Yves Moreau in L’Humanité, 29/08/73.

6In L’Humanité, 23/01/74.

7In L’Humanité, 17/01/74).

10Tome 3, p 443.

11On ne peut lui donner entièrement tort, d’ailleurs.

12Tome 2, p 13.

13Tome 2, p 95. Reprise de la préface du Recueil des prisons aux établissements éducatif édition la législation soviétique, Moscou 1934.

14Tome 2, p 192.

15Tome 2, p 467.

16Tome 2, p 221.

17In Le pavillon des cancéreux, p 274.

18Tome 3, p 410.

19Lavrenti Pavlovitch Beria (en géorgien : ლავრენტი პავლეს ძე ბერია ; en russe : Лавре́нтий Па́влович Бе́рия), né le 29 mars 1899 à Merkheoul (actuelle république séparatiste d’Abkhazie) et mort le 23 décembre 1953 à Moscou, a tenu un rôle primordial dans l’organisation industrielle du Goulag, la répression de la désertion lors de la Seconde Guerre mondiale — il est le créateur du SMERSH —, le développement d’un réseau d’espionnage international performant et la répression dans les États satellites (comme dans l’exemple des procès de Prague). En 1953, alors que Staline a déjà programmé son élimination en montant de toutes pièces un « complot mingrélien », la mort du dictateur le sauve in extremis. Il prononce son éloge funèbre sur la place rouge. Quelques mois plus tard, alors qu’il est premier vice-président du Conseil des ministres de l’Union soviétique et prépare sa prise du pouvoir, il est piégé par les autres membres du Politburo à l’occasion d’une réunion de routine au Kremlin, arrêté et exécuté. Sa mort marque le début de la déstalinisation.

20Tome 3, p 385.

21Tome 3, p 366. Staline mourut en mars 1953 et le XX° congrès du PCUS au cours duquel la déstalinisation fut lancée débuta le 14 février 1956.

22Tome 3, p 409.

23Tome 3, p 387.

24Tome 2, p 481.

25Tome 3, p 451.

Cet article ПРОГУЛКА В ГУЛАГ (1/4) est apparu en premier sur EchoRadar.eu.

Monuments aux morts

Par Olivier Kempf

Aujourd’hui il y a des monuments aux morts. Avant, c’étaient des arcs de triomphe…

L’hommage a changé.

Je me faisais ma réflexion du changement de perspective. Rendu visible après la 1ère Guerre mondiale, mais décelable dès la guerre de 1870 avec les premiers monuments aux morts .

Au 19eme siècle, on marqué les batailles de Napoléon, notamment pendant la campagne de France de 1814, et surtout on bâtit l’arc de triomphe de l’étoile vers 1836, donc longtemps après sa mort. C’est le dernier arc de triomphe, alors que les Romains avaient lancé la vogue.

Depuis le 20eme siècle, on ne construit comme monuments commémoratifs que des monuments funéraires, peu importe l’issue de la bataille, victoire ou défaite.

D’ailleurs, un intéressant transfert a eu lieu lorsqu’on plaça le soldat inconnu sous la voûte de l’arc de triomphe de l’étoile.

Plus d’attention aux hommes, moins au succès politique. Effet de la République, d’ailleurs ? Mouvement du temps, plus porté vers l’individu ? Je ne sais….

NB : savez vous qu’il y a quatre arcs de triomphe à Paris : voir ici (source photo d’illustration).

O. Kempf

Cet article Monuments aux morts est apparu en premier sur EchoRadar.eu.

Pour votre…

Par Yannick Harrel

 

Ce syntagme prépositionnel est matérialisé généralement par des messages informatifs audios ou visuels : que ce soit pour votre sécurité ou pour votre santé, une puissance tutélaire s’applique à vous garantir un avenir meilleur. Du moins telle est l’idée. Et ce avec le concours très zélé de nombreux adeptes prompts à s’employer à faire le bonheur d’autrui, y compris contre leur propre gré.

La liste ne demande qu’à être complétée. À quand le pour votre solvabilité, pour votre sobriété, pour votre parentalité et peut-être même pour votre sainteté voire votre éternité?

Ce qui est en ligne de mire, c’est l’éleuthérophobie. De manière moins pédante, la peur de la liberté : liberté de s’exprimer, liberté de circuler, liberté de choisir, liberté de s’informer, liberté de penser. Car les contempteurs des libertés individuelles et collectives, s’ils réagissent en sectateurs, le font sur un artifice invariable : l’intérêt suprême érigé comme un tout n’ayant pas à être consenti et encore moins délibéré.

Le procédé est éculé et malgré tout ressassé à l’envi : la liberté de s’exprimer est dangereuse car elle exacerbe les différences ; la liberté de circuler est dangereuse car elle favorise la pollution ; la liberté de choisir est dangereuse car elle n’aboutit pas aux bonnes décisions ; la liberté de s’informer est dangereuse car elle ébranle les certitudes fondatrices de la paix sociale ; la liberté de penser est dangereuse car elle dévie le citoyen de la vérité officielle.

On n’en finirait pas d’exposer la litanie de ce que les liberticideurs souhaitent pour apaiser leur mal-être de croiser des gens non-conformistes. Ces individus sont-ils si différents des prédicateurs religieux qui s’emploient à modeler toute une société sur une image présupposée idéale?

La velleité de ceux qui entendent faire profession de foi en restreignant, en interdisant, en castrant sur le fondement fallacieux de principes qu’ils ont eux-mêmes érigés en norme suprême ne manque pas de faire frémir. A fortiori lorsque les instances technocratiques de nombreux États relayent très opportunément ceux-ci pour parfaire leur contrôle d’une population considérée préventivement comme instable et irrationnelle, incapable de se saisir de son propre destin. Comme le dirait Giorgio Agamben, l’on glisse dans les régimes occidentaux de l’état de droit vers l’état de sécurité où la peur est le nouveau carburant des régimes au détriment de celui de celui à forte composante de liberté. Or, bien perspicace qui distinguerait une démocratie d’un régime autoritaire de nos jours, si ce n’est par l’apparence de libertés formelles érigées en totems mais dévitalisées de toute effectivité.

Or les limites fixées normativement à l’ensemble de ces droits sont et doivent être justifiées par une impérieuse nécessité, constatée et consignée. Ces restrictions sont instituées au profit de tous et non au seul avantage de ceux qui les ont édictées. Nous touchons là à une donnée essentielle : le libre consentement ainsi que l’intérêt général et non l’arbitraire imposition.

L’intégration de technologies cybernétiques de pointe accélère un phénomène déjà embryonnaire depuis plusieurs décennies (les années 1990). Ainsi lorsqu’une technologie est adoptée par les pouvoirs publics, celle-ci vise prioritairement le volet sécuritaire plutôt que productif, incitatif ou pédagogique. Technologies dont l’omniscience et l’inflexibilité réduisent toujours davantage le libre arbitre et grossissent la faute vénielle jusqu’à la faute suprême.

La sécurité est une nécessité – puisque participant à la base de la fondation politique de l’État – mais pas au détriment de toute autre activité régalienne, car l’on protège en vue d’assurer une production agricole, industrielle, intellectuelle, artistique etc. La sécurité ne doit exister qu’au profit des libertés et de la productivité, et non en tant que matrice d’une politique de déresponsabilisation, si ce n’est d’infantilisation de la population.

Nous touchons dès lors là à un sujet que de Tocqueville avait admirablement résumé, et ce de la façon la plus crue, en son ouvrage De la démocratie en Amérique :

Au-dessus de ceux-la [les citoyens] s’élève un pouvoir immense et tutélaire, qui se charge seul d’assurer leur jouissance et de veiller sur leur sort. Il est absolu, détaillé, régulier, prévoyant et doux. Il ressemblerait à la puissance paternelle si, comme elle, il avait pour objet de préparer les hommes à l’âge viril; mais il ne cherche, au contraire, qu’à les fixer irrévocablement dans l’enfance; il aime que les citoyens se réjouissent, pourvu qu’ils ne songent qu’à se réjouir. Il travaille volontiers à leur bonheur; mais il veut en être l’unique agent et le seul arbitre; il pourvoit à leur sécurité, prévoit et assure leurs besoins, facilite leurs plaisirs, conduit leurs principales affaires, dirige leur industrie, règle leurs successions, divise leurs héritages; que ne peut-il leur ôter entièrement le trouble de penser et la peine de vivre?

C’est ainsi que tous les jours il rend moins utile et plus rare l’emploi du libre arbitre; qu’il renferme l’action de la volonté dans un plus petit espace, et dérobe peu a peu chaque citoyen jusqu’à l’usage de lui-même. L’égalité a préparé les hommes à toutes ces choses : elle les a disposés à les souffrir et souvent même à les regarder comme un bienfait. 

À méditer pour ne pas se retrouver à la confluence de 1984, de Fahrenheit 451 et de Le meilleur des mondes.

Source image : Pexels.com

 

Cyberstratégie Est-Ouest

Cet article Pour votre… est apparu en premier sur EchoRadar.eu.

Fragatas Classe Tamandaré (FCT) : Meko A100, batch 2 ?

Par Le marquis de Seignelay

La marine brésilienne (Marinha do Brasil) a déclaré vainqueur de l’appel d’offres pour les Corvetas Classe Tamandaré (CCT ou corvettes de la classe Tamandaré) l’entreprise allemande TKMS devant les trois autres finalistes retenus (Xavier Vavasseur, “Germany’s MEKO A100 Won the Brazilian Navy Tamandaré Corvette Competition“, Naval news, 1er avril 2019).

© TKMS.

Le programme CCT manifeste le début de la reconstruction de la flotte de surface de la Marinha do Brasil après celle entamée de la sous-marinade. Le projet géopolitique brésilien dont il faut rappeler les hautes ambitions, entre deux “balcons stratégiques” et une façade de projection, nécessite un outil naval équilibré comprenant une flotte de surface importante (30 escorteurs). Le tout postule d’une volonté de dépasser le statut de marine régionale (3e ou 4e rang) pour atteindre celui d’une marine à vocation mondiale : du 2e rang, comme celles de la France et du Royaume-Uni.

Le Brésil s’est lancé dans un ambitieux projet géopolitique. Schématiquement, il peut être présenté comme une tentative d’obtenir une maîtrise “totale” du territoire et des espaces par un ensemble de programmes dotés dotés d’un fort contenu technologique. Brasilia souhaite projeter entre “balcons stratégiques”. Le premier est constitué de l’arrière-pays à l’Ouest dont la maîtrise territoriale doit s’opérer autour du programme SISFRON (SIStema integrado de monitoramento de FRONteiras). Le deuxième, à l’Est, c’est-à-dire en Mer afin de protéger ressources et souveraineté nationale, s’organise autour du deuxième grand programme qu’est le SISGAAZ (SIStema de Gerenciamentoda Amazônia AZul) pour la Mer à l’Est. Le SISGAAZ. Les richesses à protéger et parmi les plus emblématiques sont les hydrocarbures (pétrole et gaz) dont la majeure partie des réserves se trouvent sous le plancher océanique (pré-sal).

S’ajoute à ces deux mouvements un troisième à direction des côtes du continent africain, depuis le Cap vert jusqu’à l’Afrique du Sud. La Namibie n’était que le premier. Sur le seul plan des accords de coopération en matière de défense, le Brésil signait un tel accord avec la Namibie en 1994. S’ajoute depuis d’autres accords signés avec le Cap-Vert (1994), l’Afrique du Sud (2003), la Guinée Bissau (2006), le Mozambique (2009), le Nigeria (2010), le Sénégal (2010), l’Angola (2010) et, enfin, la Guinée équatoriale (2010 et 2013). Cette projection brésilienne participe des ambitions de Brasilia pour un statut accru sur la scène internationale, passant par son accession comme membre permanent au conseil de sécurité des Nations unies.

© Inconnu.

© Inconnu.

Deux des trois déclinaisons du projet géopolitique brésilien confèrent une place prépondérante à la Marinha do Brasil. Le premier est le SISGAAZ, plus communément désigné sous le vocable d’ Amazônia Azul, Blue Amazon ou Amazonie bleue. Il mêle plusieurs administrations et capacités techniques opérationnelles (renseignement d’origine spatial, capteurs aéroportés, terrestres, sous-marins, corvettes, frégates, hydrophones, etc) dans l’optique d’obtenir une maîtrise aéromaritime brésilienne sur un espace constitué de 3,5 millions de km² face à 4600 km de côtes, pouvant être porté à 4,6 millions de km² notamment si la Commission des Limites du Plateau Continental (CLPC) se prononce en ce sens. Cette maîtrise passera par l’ “infrastructuration” de la Mer, concept proposé par le CV (R) Lars Wedding. L’Amazônia Azul peut être comparé au Broad Area Maritime Surveillance (BAMS) de l’US Navy dont il est l’une des rares équivalents aussi bien conceptuellement installé. Le deuxième volet correspond aux ambitions internationales pré-citées.

En septembre 2007, le président Luiz Inácio Lula da Silva  réclame pour parfaire le projet géopolitique brésilien une déclinaison géostratégique. L’Estratégia Nacional de Defesa est adoptée le 18 décembre 2008 avec un objectif d’achèvement de ses principales capacités opérationnelles visées à l’échéance 2030. Par voie de conséquence, un Plano de Articulação e Equipamento da Marinha do Brasil (PAEMB) est formalisé en 2009 comme composante navale de l’ambitieux projet brésilien et court sur la même période (2009 – 2030). L’exécution des programmes navals est confiée à la Diretoria de Gestão de Programas Estratégicos da Marinha (DGePEM).

Entre parenthèses, le PAEMB est dans ses grandes lignes très similaires à l’architecture française du plan bleu formalisé par le décret du 29 février 1972 et poursuivi avec des ajustements avec Marine 2000 : c’est-à-dire l’esquisse d’une marine non plus seulement régionale mais bien à vocation mondiale, 2e rang dans la typologie proposée par le professeur Hervé Coutau-Bégarie, donc à égalité avec la Marine nationale et la Royal Navy. La Marinha do Brasil se représente comme la seule force navale régionale capable d’agir dans l’Atlantique Sud, espace que le Brésil essaie de sanctuariser contre les puissances extérieures, comme l’OTAN, par exemple. A la méfiance initiale après la résurrection de la IVe fleet succède, par la grâce du changement de gouvernement, un revirement complet vis-à-vis des Etats-Unis et de l’OTAN avec l’élection le 28 octobre 2018 de Jair Bolsonaro.

© Marinha do Brasil/DGePEM - Contra-Almirante Rodolfo Henrique de Saboia, "Programa de Obtenção de Meios de Superfície (PROSUPER)- Perspectivas para a Indústria Nacional", 2009.

© Marinha do Brasil/DGePEM – Contra-Almirante Rodolfo Henrique de Saboia, “Programa de Obtenção de Meios de Superfície (PROSUPER)- Perspectivas para a Indústria Nacional”, 2009.

Les deux principales parties du PAEMB sont les PRograma de Obtençao de meios de SUPerfície (PROSUPER) et PROgrama de desenvolvimento de SUBbmarinos (PROSUB). L’ensemble se base sur trois principes simples mais engageants : des achats de bâtiments de guerre dans le cadre d’accord inter-gouvernementaux afin de garantir les financements et transferts de technologies à destination des sociétés nationales avec la participation de chantiers privés pour une construction locale des unités commandées.

Avant toute chose, un mot sur les capacités dédiées à l’intervention servant les ambitions internationales du Brésil. Elles sont régulièrement citées à côté de PROSUPER. Il s’agit d’acquérir deux nouveaux porte-avions d’environ 45 000 à 60 000 tonnes (~ 30 avions de combat plus des avions de guet aérien et des hélicoptères) tandis que les machines de l’aéronavale brésilienne devaient être modernisées et être régulièrement entretenues (Programa de Modernização e Obtenção de Aeronaves) afin d’opérer la jonction entre le NAé Sao Paulo et les futures unités devant entrer en service dans les années 2020 et 2030.

Le désarmement de l’ancien Foch en novembre 2018 et son remplacement par l’ex-HMS Ocean en juillet 2018, rebaptisé NAé Atlântico, laisse symboliquement l’Amérique latine sans porte-avions alors même que les capacités aéronavales brésiliennes réduites à être basées à terre ou embarquées en mer seulement pour les voilures tournantes pourront être employées dans la pratique de manière bien plus réalistes. L’Atlântico est associé aux grandes unités amphibies (un TCD (ex-Foudre), un LST et deux unités amphibies logistiques) qui doivent être elles aussi remplacées par quatre nouveaux bâtiments.

Il convient de rappeler que la doctrine aéronavale brésilienne conçoit le porte-avions comme la pièce-maîtresse d’un groupe aéronaval dont la mission prioritaire est la lutte anti-navire. Le désarmement du NAé Sao Paulo signifie non pas une perte totale mais partielle de cette capacité puisque reprise par le NAé Atlântico. La commande des 50 EC725 (H225M) en décembre 2008 par le Brésil comprend 16 machines pour la Marinha do Brasil qui peuvent mettre en œuvre des AM39 Block 2 Exocet dont les essais d’intégration ont débuté en 2014. Déployés à partir du nouveau porte-hélicoptères, voire même des bâtiments amphibies, ils apportent une capacité sans pareille dans la région.

PROSUB débutait simultanément à la publication des différents documents stratégiques. DCNS est retenu en septembre 2008 et le contrat est signé le 23 décembre 2018. La cible du programme comprend quatre Scorpène 2000 (devenus SBR (Scorpène BRasil). La cinquième unité de ce programme de construction locale est la coque d’un Sous-marin Nucléaire d’Attaque (SNA ou SN-BR (Submarino Nuclear – BRasil) dont la partie chaufferie nucléaire est à la charge de Brasilia (projet stratégique initié en 1979) : le futur Álvaro Alberto (SN-10) qui devrait être suivi par cinq autres unités selon le PAEMB. Ajoutons à tout cela une nouvelle base navale à Rio de Janeiro et un nouveau chantier naval (Itaguaí). La tête de série, le Riachuelo, est  officiellement lancé le 18 décembre 2018.

La période (2014 – 2024) manifeste une priorité accordée à la flotte de surface car hormis les programmes engagés (SBR et SN-BR), la refonte du porte-avions Sao Paulo a été abandonnée (jusqu’à 1,5 milliards de dollars) et le premier SN-BR serait quelque peu retardé (lancement en 2029 et non plus 2027) tandis que son environnement (dont le chantier naval) serait redéfini pour réduire les flux financiers et humains dont il bénéficie. Il serait notamment question de centraliser l’entretien des cinq sous-marins de la classe Tupi à Itaguaí par la redéfinition du périmètre de la société franco-brésilienne ICN (Roberto Lopes, “EXCLUSIVO: Marinha desprioriza submarino nuclear para investir nos meios de superfície“, Poder naval, 8 novembre 2018). Ce qui finira par questionner très bientôt les ambitions sous-marines brésiliennes puisque le PAEMB comprenait à son lancement 15 sous-marins classiques et que les années 2020 devaient concerner la mise sur cale de cinq unités.

La priorité passe donc à PROSUPER comprend la construction d’un bâtiment logistique, de cinq patrouilleurs océaniques et de cinq escorteurs océaniques multi-missions (ASM, DA et AS) de 6000 tonnes.

Aucun programme n’a encore été lancé afin d’acquérir un bâtiment logistique, ce qui laisse seul l’Almirante Gastão Motta entré en service en 1991. Ses 6000 tonnes et son caractère unique peuvent paraître un peu justes pour projeter durablement le groupe amphibie brésilien.

Par opportunité, la Marinha do Brasil s’était portée acquéreuse des trois patrouilleurs océaniques type River commandés par Trinidad et Tobago avant que le contrat ne soit annulé (deux unités étaient pratiquement achevées à cette date) en 2010 pour être repris par le Brésil en 2011. Ils sont en service (2012, 2012 et 2013) au sein de la classe Amazonas. Cela permettait d’atteindre partiellement l’objectif du PAEMB, c’est-à-dire 4 patrouilleurs océaniques sur 18 souhaitées en service dès 2012, bien qu’ils n’aient pas été construit au Brésil.

La Marina do Brasil ambitionnait en 2009 d’admettre au service actif dix escorteurs de facture neuve sur les 30 souhaitées dans le cadre du PAEMB à l’orée de l’année 2031. Les cinq frégates polyvalentes de 6000 tonnes visées par PROSUPER n’ont pas bénéficié de la mise en branle de l’appareil administratif. La présidente Dilma Roussef a même inversé l’ordre des priorités en 2014 en renvoyant ce programme à plus tard, ouvrant la voie au programme des Corvetas Classe Tamandaré (CCT) qui devait leur succéder dans les cales brésiliennes. Il a même été questionné la capacité de l’industrie navale brésilienne à soutenir sur la même période le programme CCT et celui des frégates de 6000 tonnes alors même que Fincantieri était dans une position très favorable (2011-2012) et qu’il aurait même été question de louer des FREMM.


Le
programme des Corvetas Classe Tamandaré (CCT) débute par en 2013 par une demande d’informations (RFI (Request For Information). 21 entreprises et consortiums s’y intéressent. Mais quand la Marinha do Brasil ouvre la phase de demande de propositions (RFP (Request For Proposal) le 19 décembre 2017, seulement 9 d’entre elles y répondent. Les consortiums avaient jusqu’au 18 juin 2018 pour fournir leur proposition détaillée répondant au cahier des charges de la Marinha do Brasil. Quatre consortiums sont retenus en octobre 2018 pour conclure la phase finale, à savoir : Águas Azuis (TKMS/Embraer), Damen-Saab Tamandaré, FLV (Fincantieri Leonardo VARD) et Villegagnon (Naval Group/Enseada).Águas Azuis (eaux bleues) constitué par les entreprises TKMS et Embraer sont finalement retenues officiellement le 28 mars 2019 au terme d’un processus long de six années. Le contrat devrait être signé, comme à l’accoutumée, en décembre prochain. La proposition germano-brésilienne est construite autour d’une Meko A100 de 3450 tonnes à pleine charge dont l’une des caractéristiques notables est l’absence d’un sonar remorqué, ce qui est bien surprenant eu égard aux ambitions géopolitiques et géostratégiques présentées et pourrait donc justifier une évolution des programmes en cours ou sécuriser l’un de ceux à venir.

La proposition italienne avait proposé d’un très fort soutien du gouvernement italien avec la vente de deux FREMM de la Marina militare d’ores et déjà sur cale plus 100 à 200 Centauro 8 x 8 pour 1,5 milliards d’euros (Roberto Lopes, “EXCLUSIVO: Proposta das FREMM soa como ‘promessa vazia’ e fragiliza Fincantieri na MB“, Poder naval, 14 février 2019). Solution qui aurait été favorisée par la bonne entente entre le nouveau président brésilien et le gouvernement italien mais qui n’aurait pas eu la faveur de la direction du programme CCT. Deuxième échec de Fincantieri au Brésil qui aura joué deux à contre-courant, contre son gré. Ce qui permettait, toutefois, d’apprendre que la proposition française avait évolué depuis la Gowind 2500 dont la publicité avait été faite jusqu’à la nouvelle Gowind 3000 dont ce serait la première apparition qui est une version augmentée de la précédente. Les Hollandais de Damen étaient donnés favoris avec une proposition centrée sur une SIGMA 10514 : nouvelle défaite d’une proposition réunissait aussi Damen et Saab après celle enregistrée pour le programme belgo-hollandais MCM, le problème n’est peut être pas la France…

La proposition allemande aurait été la plus coûteuse en raison de transferts de technologie quant à la fabrication de la plateforme et la modification des systèmes embarqués plus importants sans compter une participation des industriels brésiliens (40% minimum) jugée plus importantes, tout du moins suffisantes. D’un montant annoncé de 1,4 milliard d’euros, la facture entière serait plutôt de 2 milliards d’euros pour ce qui est dit côté brésilien. La différence s’explique peut être par une question de périmètres : 1,4 milliards pour la construction des corvettes au Brésil, 2 milliards avec les armements ?

En plus, et c’est à noter : les Brésiliens auraient particulièrement apprécié l’attitude sobre et modeste du consortium allemand à l’annonce de la décision.

Le programme CCT devrait être redésigné FCT au cours des prochains mois (Roberto Lopes, “Corvetas classe ‘Tamandaré’ serão redesignadas como Fragatas“, Poder naval, 2 avril 2019) : la corveta devenant fregata. Si ce changement d’appellation était bel et bien officialisé en 2019 alors il serait loin d’être anodien puisqu’il a été débattu de l’opportunité de replacer les futures frégates de 6000 tonnes sur le segment des frégates de 4500 tonnes, soit le déplacement des Niterói. Cela n’est pas bien éloigné des 3500 tonnes des Tamandaré et pourrait amener quelques considérations entre un hypothétique batch 2 et la suite donnée aux frégates de 6000 tonnes. Tout dépendra de la manière dont le politique place le curseur sur la programmation navale.

© Inconnu. Roberto Lopes, "Corveta Barroso: Marinha ainda tem dúvidas sobre modernização", Poder naval, 30 août 2018.

© Inconnu. Roberto Lopes, “Corveta Barroso: Marinha ainda tem dúvidas sobre modernização”, Poder naval, 30 août 2018.

Un des points très intéressants qui touche à l’aboutissement de ce programme est la question des compensations. Hormis les transferts de technologie et les compensations obtenues ou à obtenir pour les industriels brésiliens, des “compensations navales” sont aussi demandées.

Il aurait été question de moderniser la corvette Barroso (Roberto Lopes, “Corveta Barroso: Marinha ainda tem dúvidas sobre modernização“, Poder naval, 30 août 2018), cinquième unité de la classe Inhaúma de corvettes (3 en service, 2 désarmés) conçues et construites localement sous assistance allemande. La Barroso a la particularité d’être une version agrandie des quatre précédentes corvettes de cette classe et une version modernisée de celle-ci servait de proposition de l’appel d’offres pour le programme CCT. C’est justement avec la Barroso (entrée en service en 2005) que, selon toute vraisemblance, nous trouvons le dixième escorteur visé sur la période considérée (2009 – 2030/31). Toutefois, un ensemble de considérations dont certaines ambitieuses font que cette modernisation s’apparente parfois à une reconstruction partielle.

Il a été dit (Roberto Lopes, “Corvetas classe ‘Tamandaré’ serão redesignadas como Fragatas“, Poder naval, 2 avril 2019) que l’un des objectifs du chef d’état-major de la marine brésilienne, l’amiral Ilques Barbosa Júnior, serait de “rééquiper” trois frégates de la classe Niterói. L’idée est à peine esquissée et s’adresse à des escorteurs qui ont tous, au minimum, 30 ans – déjà – de service. Il ne peut alors s’agir que d’une prolongation du service de quelques années pour faire la soudure avec les Tamandaré ou bien d’une ambitieuse refonte pour leur insuffler de quoi aider à tenir l’objectif de dix escorteurs d’ici 2030 en attendant les frégates de 6000 tonnes.

En effet, la flotte de surface brésilienne comprend seulement une corvette de moins de 15 ans, quatre corvettes (2) et frégates (2) de plus de 20 ans, une frégate de plus de 35 ans et cinq frégates de plus de 40 ans : soit 11 escorteurs dont 6 ont plus que dépassé l’âge habituellement constaté du désarmement et 4 qui atteindront l’âge au cours des années 2020. C’est-à-dire que le programme CCT permettra seulement de remplacer les unités les plus anciennes lorsque les Tamandaré entreront en service (2024 – 2028) de conserve avec la Barroso, soit 5 escorteurs de facture neuve et potentiellement modernisées.

Il est question pour le programme CCT d’un “batch 2” sans que le l’amiral Ilques Barbosa Júnior (ibid) ne veuille préciser s’il s’agira d’une Tamandaré batch 2 ou bien d’un appel d’offres pour des bâtiments similaires, auquel cas il devrait être lancé aux alentours de l’année 2020 pour espérer une entrée en service après la dernière unité du programme CCT (2028), ce qui poserait toujours la question de la capacité de l’industrie brésilienne à lancer simultanément deux programmes d’escorteurs. C’est dans cette perspective qu’il s’agit de considérer les témoignages d’intérêt de la Marinha do Brasil pour le marché de l’occasion afin de tenir la programmation au moindre coût, le marteau étant le coût d’entretien des bâtiments les plus anciens et l’enclume leur âge.

Enfin, Diretoria de Gestão de Programas Estratégicos da Marinha (DGePEM) devrait pouvoir se pencher sur le retour des frégates de 6000 tonnes. Il a été dit (cf. supra) que le tonnage visé de 6000 tonnes était questionné. Il y aurait deux manières pour la Marinha do Brasil d’aborder ce programme une première fois repoussé :

Au prisme des problématiques industrielles et eu égard à l’inversion du calendrier, il sera donc question de l’expérience de la classe Tamandaré : aura-t-elle permise au chantier et à environnement d’acquérir les compétences visées ? En ligne de mire, les Brésiliens s’interrogent sur les capacités de l’industrie brésilienne à engranger des compétences, donc, mais aussi à y recourir pour faire aussi bien – le “batch 2” – voire mieux : construire des frégates de 6000 tonnes. Le curseur politique sera donc aiguillonné du point de vue de la stratégie industrielle sur des questions d’entretien ou de renforcement des acquis visés ou bien sur la conquête de nouvelles compétences. C’est pourquoi les Tamandaré batch 2 et les frégates de 6000 tonnes peuvent partiellement se rejoindre par une version agrandie des premières.

Au prisme opérationnel, la flotte de surface brésilienne n’aligne pas un seul bâtiment spécialisé dans la défense aérienne : uniquement des escorteurs anti-sous-marins (Niterói et Type 22) ou polyvalents. PROSUPER supposait avant toute chose la construction de cinq escorteurs océaniques multi-missions pour appuyer, notamment, un porte-avions. Le retrait du service du NAé Sao Paulo et l’admission au service actif du NAé Atlântico implique une disparition des capacités opérationnelles de défense aérienne entretenue par le premier et donc une déportation de ces capacités sur les escorteurs. C’est pourquoi les frégates de 6000 tonnes pourraient être finalement des bâtiments de 7 à 8000 tonnes (Roberto Lopes, “Fragatas do Prosuper: DGePEM estuda construção no país“, Poder naval, 19 février 2018). Le besoin sur ce segment de la défense aérienne d’un group naval constitué exigerait deux plateformes. Cela expliquerait-il la proposition italienne de vendre deux FREMM en plus de proposer la corvette vendue au Qatar comme base pour les Tamandaré ?

In fine, la Marinha do Brasil a une sous-marinade dont l’avenir est assuré par l’industrialisation réussie des Scorpène (SBR) commandés avec à l’horizon le futur SN-BR dont le calendrier est aménagé. Les capacités d’intervention sont vieillissantes mais ont été astucieusement régénérées avec le désarmement du Sao Paulo et l’armement de l’Atlântico. Reste alors deux talons d’Achille : les escorteurs, seulement 4 corvettes et bientôt frégates de la classe Tamandaré sur un besoin exprimé de 10 à 12 escorteurs de facture neuve devant être reçus d’ici à 2030. Il en manque 8. Et une flotte logistique qui se résume à un seul bâtiment, d’un tonnage léger : peu compatabile avec les ambitions affichées. Les flux financiers demeurent modestes et peu comptabibles avec les ambitions du PAEBM, même révisées : est-il raisonnable d’envisager l’acquisition d’un porte-avions de 45 à 60 000 tonnes dans les années 2030 en plus de dix autres sous-marins dont cinq SN-BR et quatre nouveaux bâtiments amphibies, probablement des porte-hélicoptères ?

Cet article Fragatas Classe Tamandaré (FCT) : Meko A100, batch 2 ? est apparu en premier sur EchoRadar.eu.

“Le chant du loup” d’Antonin Baudry

Par Le marquis de Seignelay

Exceptionnel : le film proposé par Antonin Baudry l’est à plus d’un titre. Il n’est pas exempt de défauts et de choix audacieux dans le scénario et la conduite de l’intrigue. Ce qui n’empêche aucunement beaucoup de reconnaître qu’il est un très bon film et, fait rarissime, une bonne retranscription de la navigation à bord des sous-marins à propulsion navale nucléaire français. Belle récompense pour la Marine nationale qui continue à renouer avec le cinéma et n’a pas ménagé ses efforts pour ce film. Bien des problématiques opérationnelles sont retranscrites sur grand écran.

 

 

Attention : ne lisez pas ce qui suit si vous n’avez pas encore vu Le chant du loup. Foncez dans la salle obscure la plus proche de chez vous et ne lisez pas la suite… !

Le chant du loup mérite que soit expliqué le contexte dans lequel il a été produit puisqu’il est l’une des manifestations d’une réouverture du ministère des armées au septième art avec quelques prudences. Une présentation du réalisateur Antonin Baudry s’impose tant son parcours singulier et ses œuvres précédentes ne sont pas anodins vis-à-vis de ce projet. Le scénario dont il est l’auteur sacrifie un peu à la réalité mais aucunement aux thèmes abordés par les techno-triller sous-marins. Le jeu de la dissuasion est l’un des acteurs du film. La manière dont les opérations sous-marines sont portées à l’écran pourrait avoir quelques répercussions politiques entre ce que l’arme sous-marine peut faire aujourd’hui qu’elle fera plus difficilement demain et ce qu’elle ne peut pas faire. Quelques incohérences dans la représentation des différents bateaux sont à relever car c’est l’un des défauts communs à nombre de films de sous-marin. Mais quelle distribution des rôles et quel résultat !

Les films français représentant le fait militaire comme, par exemple, et à tout hasard, La 317e section (1965, adaptation à l’écran du roman éponyme publié en 1963 du même auteur) et Le Crabe-tambour (1977, adaptation là-aussi du roman du même nom (1976) du même réalisateur) de Pierre Schoendoerffer représentaient la complexité de la guerre. Depuis les années 1960, la figure du Poilu et, par extension, du militaire bénéficie progressivement puis presque exclusivement d’une représentation de “victime”, obligée à combattre car conscrit, forcément poly-traumatisé et n’incarnant pas un héros. Une simplification du phénomène qu’est la guerre. Le chant du loup engage un renouveau de la représentation de la guerre autrement que par la victimisation.

 

Après Le Crabe-tambour (1977), c’est le premier film bénéficiant d’un soutien franc et massif de la part de la Marine nationale avec Volontaire (2018) réalisée par Hélène Fillières. La série télévisée Le bureau des légendes confirmait depuis 2015 la nouvelle dynamique liant le septième art et les armées. Le cinquième art n’est pas en reste non plus. C’est l’aboutissement d’une reconstruction et stimulation du lien institutionnel depuis le début des années 2000 quand le Bureau de la Politique d’Accueil des Tournages (BPAT) remplace le Bureau de la Politique AudioVisuelle (BPAV). Jean-Yves Le Drian quand il était ministre de la Défense s’emparait du sujet en réformant une nouvelle fois l’organe par la création de la mission cinéma (2016).

Il y a donc une tentative de réappropriation des enjeux de la représentation des armées, de leur place dans la société, leur rôle singulier : donner et recevoir la mort pour accomplir la mission confiée par le Politique, notamment, dans l’expression la plus violente qu soit de la politique. “Il serait aussi possible de disserter longtemps sur la dénationalisation des références héroïques des Français” comme le propose Bénédicte Chéron (Le soldat méconnu – Les Français et leurs armées : état des lieux, 2018, Paris, Armand Colin, 2018, 192 pages), d’autant plus qu’elle remarque finement que plus les moyens techniques progressent et ouvre le monde des possibles dans la représentation de la guerre, moins les projets en la matière fleurissent.

Ce soutien de la Marine nationale s’exprime par les SNA et SNLE qui ont été beaucoup mis à contribution eu égard aux généreuses prises de vue extérieures à Toulon et surtout à Brest. Les sous-marins des deux types sont mêmes modélisés numériquement pour les scènes sous-marines avec une certaine fidélité. Certains s’amuseront certainement à comparer le cheminement de l’ALR (Antenne Linéaire Remorquée) le long de la coque du Titane vis-à-vis de ce qu’il est possible de trouver en sources ouvertes. L’installation est savamment cachée sur le Suffren.

Autre manifestation du soutien du ministère à la production du film, les dialogues et la mise en scène des Postes de Conduite Navigation Opération (PCNO) démontrent que l’ “équipage d’acteurs” a été formé au vocabulaire, à la gestuelle et aux situations courantes à bord dans la conduite des bateaux. Les décors intérieurs bénéficient à l’évidence, eu égard aux reportages tournés à bord, d’une grande liberté pour recopier l’existant. A tel point que le spectateur peut se demander si certaines scènes ne sont pas tournées à bord. Mêmes les installations à terre sont des décors à part entière dont la base sous-marine Roland Morillot et l’ancien U-bunker allemand (sans les deux “classiques” amarrés chacun dans une alvéole).

L’environnement familial est même brièvement évoqué à travers les choix faits par le capitaine de vaisseau Grandchamp et la relation développée par le premier maître Chanteraide avec Diane. Amourette qui participe au fil d’Ariane du film – l’ouïe et le son – tout en soulignant qu’un marin, a fortiori un sous-marinier, est toujours attendu à terre.

Quelques limites existent quant à la restitution de l’ambiance à bord d’un sous-marin à propulsion navale nucléaire. Ce n’est Le jour ne se lève pas pour nous de Robert Merle (1986) en raison d’un scénario nerveux alors que toutes les opérations militaires comportent des phases d’attente, parfois très longue. La navigation à bord se résume au PCNO bien que des éléments fassent références aux autres tranches de vie et du bateau. Le Poste de Conduite Propulsion (PCP) bien que cité n’est pas représenté alors que l’une des spécificités des SNA et SNLE est bien l’emploi de l’atome pour la propulsion du bateau. Aussi, il est remarquable que les auteurs n’aient pas représenté une femme embarquée à bord de l’Effroyable alors que c’est le cas sur les SNLE français depuis 2018.

Toutefois, le soutien de la marine française au film d’Antonin Baudry est très prudent. “Marine nationale” est pratiquement effacée des Tenues de Protection de Base (TPB) portées par les acteurs jouant les sous-mariniers. Les bateaux sont rebaptisés : le Sous-marin Nucléaire d’Attaque (SNA) de la classe Rubis est ainsi appelé Le Titane : étonnant eu égard aux traditions en la matière d’avoir donné le nom d’un métal ; le Sous-marin Nucléaire Lanceur d’Engins (SNLE) de classe Le Triomphant est rebaptisé L’Effroyable, un nom qu’aurait pu porter un vaisseau de ligne français et très à propos avec la composante océanique de la dissuasion cette fois-ic.

Il y a donc une prudente mise à distance entre le soutien apporté et la fiction, ce qui pourrait s’expliquer comme la volonté de ne pas créer des irritants avec d’autres pays : l’Iran et la Russie. Volonté excessive ? Finalement, qu’est-ce qui interpellera le plus l’acteur étranger : le SNA au large de la Syrie récupérant des hommes des forces spéciales ou bien le patch “Barrents” sur la TPB du capitaine de frégate d’Orsi ?

Le réalisateur Antonin Baudry est un diplomate avant d’être un réalisateur alors qu’il est ingénieur des Ponts et Chaussées de formation. Son expérience de conseiller et de diplomate des années 2004 – 2006, il l’a relaté dans la bande-dessinée Quai d’Orsay (2010 (tome 1) – 2013 (tome 2) porté à l’écran par Bernard Tavernier (2013) tandis qu’il co-écrit le scénario avec le réalisateur et Christophe Blain.

C’est fort de ce capital humain que le réalisateur nous propose son histoire en trois actes autour du destin d’un analyste acoustique – ou “oreille d’or” – à la poursuite d’un sous-marin fantôme croisé en Syrie alors que le Titane récupérait des commandos que la Marine nationale peine à identifier lors d’un retour d’expérience. La dégradation du contexte international entre l’Union européenne dont la Finlande voit les forces de la Fédération de Russie envahir le sud du pays et la Russie alors que les États-Unis se sont décidés de se tenir éloignés de leurs obligations découlant de l’article 5 du traité de l’Atlantique Nord conduit la France à hausser le ton et donc envoyerf explicitement un deuxième SNLE en patrouille dans l’océan Atlantique. Un missile balistique intercontinental est tiré depuis un sous-marin naviguant en mer de Béring. L’Effroyable qui s’est dilué reçoit alors l’ordre de procéder à l’ultime avertissement, en représailles. Mais le missile R-30 présenté comme russe ne porte pas de charges nucléaires et avait été en réalité lancé depuis un ancien sous-marin soviétique prétendu désarmé et démantelé qui a en réalité été acheté par un groupe djihadiste par l’entremise d’une chaîne de société écran. Dès lors, une mission désespérée est ordonnée par l’Elysée : arrêter l’Effroyable par tout moyen pour qu’il ne lance pas un missile nucléaire sur la Russie afin de ne pas déclencher la guerre nucléaire voulue par les djihadistes.

L’enjeu central du film est donc la mise en œuvre de la dissuasion nucléaire à travers une opération de déception très audacieuse.

Trop ? L’idée de capturer un sous-marin tel que un SNA ou un SNLE n’est pas nouvelle puisque des auteurs de techno-triller sous-marin ont pu relater des aventures où un groupe de Navy SEALS enlève un SNA au port ou bien un SNLE français est capturé par un commando de terroristes algériens. Émettre l’idée qu’un groupe armé non-étatique puisse se procurer un ancien SNLE – l’une des machines les plus surveillées au monde quelque soit son état par les principales puissances -, le reconstruire, l’entretenir et le faire naviguer avec des caractéristiques opérationnelles capables de mener la dragée haute vis-à-vis d’un SNA français rencontre tellement de défis que l’hypothèse paraît, au mieux, totalement improbable : surtout avec la récupération d’un SLBM R-30 Boulava. Le parti pris d’USS Alabama (Crimson Tide, 1995) de Tony Scott du bref contrôle d’une partie des forces stratégiques russes dans un pays en pleine guerre civile dans les années 1990 paraissait plus crédible et dans les limites du raisonnable.

Antonin Baudry a peut être trop sacrifié aux problématiques actuelles avec cet élément du scénario. Mais ce dernier a le grand mérite d’oser s’aventurer sur les opérations menées en Syrie par les puissances extérieures, la France surveillant dans le film ce que la Russie fait en Syrie, comme représentation des tensions politico-militaires entre Paris et Moscou. L’hypothétique invasion d’une partie du territoire finlandais aurait très bien pu être l’occupation du passage de Suwalki entre Kaliningrad et la Russie. Loin des problématiques d’une “guerre hybride”, l’invasion de la Finlande est franche et menée par divisions entières, ce qui pourrait amener Paris à considérer que le seuil nucléaire est franchi. Le président de la République, M. François Hollande, ne déclarait-il pas à Istres le 19 février 2015 “qui pourrait donc croire qu’une agression, qui mettrait en cause la survie de l’Europe, n’aurait aucune conséquence ?”

La doctrine française de la dissuasion nucléaire est plutôt respectée. Le mécanisme de la dissuasion nucléaire se vérifie dans le film puisque c’est une démarche rationnelle sur le plan stratégique – amener deux puissances nucléaires intervenant dans certaines crises aux Proche et Moyen-Orient – qui amène à provoquer un incident nucléaire. Il y a même matière à se demander si ce n’est qu’une coïncidence que le Titane soit pourchassée par une frégate iranienne alors que surgit des profondeurs sous-marines et de l’histoire le Tremous III : ne serait-ce pas là une illustration dans la fiction de l’hypothèse soulevée par le président de la République Jacques Chirac en 2006 quand il déclarait à l’Ile Longue, justement, “notre monde est également marqué par l’apparition d’affirmations de puissance qui reposent sur la possession d’armes nucléaires, biologiques ou chimiques. D’où la tentation de certains Etats de se doter de la puissance nucléaire […] les dirigeants d’Etats qui auraient recours à des moyens terroristes contre nous, tout comme ceux qui envisageraient d’utiliser, d’une manière ou d’une autre, des armes de destruction massive, doivent comprendre qu’ils s’exposent à une réponse ferme et adaptée de notre part. Et cette réponse peut être conventionnelle. Elle peut aussi être d’une autre nature.” Encore et toujours la question du seuil nucléaire dans un scénario qui n’est pas si improbable vis-à-vis des questionnements qu’il emploie et soulève.

La dissuasion nucléaire est-elle mise en échec dans le film ? Oui et non. Oui, de manière certaine puisque dans la première hypothèse de la fiction la France est menacée d’une frappe nucléaire dans un cas extrême de “sanctuarisation agressive” (Jean-Louis Gergorin, RDN). Et non puisqu’il s’agissait d’une opération de déception mené par un groupe djihadiste non-identifié pour simuler une frappe nucléaire russe. L’hypothèse d’une telle réussite d’une opération de déception si complexe quand bien même elle recevrait l’aide d’un Etat, paraît très mince. Et le film, construit autour de l’ouïe et du son occulte la large palette des moyens de renseignement des Etats dotés de l’arme nucléaire. Le scénario s’appuie sur l’incident en Syrie autour du Titane afin d’expliquer une dégradation terrible des relations et donc communications entre Paris et Moscou, ce qui paraît peu réaliste.

L’ “invulnérabilité” du SNLE en tant que plateforme la plus crédible qui n’ait jamais été pour la capacité de frappe en second est bousculée. Une fois encore, le parti pris du film peut apparaître comme audacieux de mettre en scène un SNA s’attaquer à un SNLE car réputé invulnérable. Mais la contextualisation du combat entre les deux bateaux montrent bien que le SNA peut retrouver le SNLE – ce qui a toujours été démontré depuis le conflit Est-Ouest bien que n’étant pas un “sport de masse” – car il “sait” où il se trouvera dans un contexte extraordinaire. Le SNA vient seulement de s’éloigner du SNLE et fait le pari que ce dernier s’approchera de deux “points magiques” afin de recaler la précision du système d’arme dissuasion. C’est donc dans une zone restreinte avec un analyste acoustique ayant récemment travaillé sur la signature de l’Effroyable que le Titane peut le retrouver. Une hypothèse plus mince que du papier à cigarette vis-à-vis de la mise en œuvre continue de la composante océanique de la dissuasion à la mer.

Même la question de la défense anti-missile balistique en tant que substitut à la dissuasion nucléaire est évoquée avec une tentative d’interception du SLBM R-30 lancé par le Tremous III par un… missile Exocet. C’était trop en demandé, surtout que le tir d’un Aster Block 2 tiré par le Forbin ou le Chevalier Paul ou d’un Exoguard développé en secret et lancé depuis  le site essais de missiles de la DGA dans les Landes aurait été plus crédible que le “super magic Exocet”. En tous les cas, l’image du poste de commandement sous le château de Brest avec cette matérialisation sur grand écran de l’ICBM et l’échec de l’interception alors que le point d’impact est à Compiègne (beau clin d’œil à l’histoire) amènera peut être décideurs et électeurs à réfléchir quant à la pertinence de cette défense anti-missile balistique en tant que substitut à la dissuasion.

C’est donc que le spectre des opérations menées par les sous-marins français est bien représenté depuis les missions dévolues aux sous-marins d’attaque jusqu’aux patrouilles des SNLE. Antonin Baudry pour les besoins du scénario est même très généreux puisque nos SNA sont présents en Méditerranée, en Atlantique Nord jusque dans la mer de Barrents et dans la mer de Béring la même semaine : même s’il y a crise, c’est une disponibilité remarquable qui ne manquera pas de faire réfléchir quant au format de la FOST vis-à-vis de l’évolution de ceux des adversaires.

Les problématiques opérationnelles sont bien mises en exergue avec la possibilité de déposer et récupérer des forces spéciales en toute discrétion depuis un sous-marin d’attaque. L’engagement de l’hélicoptère iranien permet de qualifier le capitaine de vaisseau Grandchamp (CDT Titane) comme le commandant de sous-marin le plus bath du monde. Cela permet de souligner qu’un sous-marin est démuni face à un aéronef de PATMAR ou un hélicoptère ASM et qu’un missile anti-aérien serait à même de permettre de dérober après élimination du gêneur. Mais ce combat bien improbable aurait pu être remplacé par une bien plus réaliste action dans un environnement où pullulent bien des sous-marins étrangers dans les eaux syriennes.

Finalement, quelques scènes pourraient être qualifiées de choquantes et donner un autre écho à la “marine de combat” inscrite en lettres d’or dans le plan Mercator de l’Amiral Prazuck. Il n’est pas simple d’évoquer la mort à bord des sous-marins, par exemple dans la liste des accidents passés. Bien des erreurs dans la navigation sous-marine ou un manque de réussite à lutter contre certaines avaries se paient très chères. Le chant du loup représente deux sous-marins français se combattant à mort dans ce qui pourrait une première avec toutes les vicissitudes du combat : les coups portés, reçus, l’impératif de poursuivre la lutte, le combat contre les avaries et les sinistres, le combat au milieu de ceux qui ne se relèvent plus. Le Titane coulé, son équipage décime au grand complet, offre un spectacle saisissant et troublant puisque la scène se déroule dans un espace qui semblait inaccessible aux pertes dans une partie de l’imaginaire collectif. Un SNA en moins, c’est environ 17% de la flotte de perdue.

L’un des défauts courants des films de sous-marins est la représentation peu fidèle des bateaux évoqués. Le chant du loup débute mal avec une frégate iranienne qui est visuellement ce qui semble être la frégate proposée par le constructeur naval chinois CSSC pour les futures frégates Type 054B (le bateau montré dans le film est de dimensions plus réduites que les Littoral Combat Ship (LCS) de classe Independance) et qui n’a pas été retenu par la marine chinoise. Le système de combat du Titane représente cette même frégate avec la silhouette d’une FREMM qui n’est rien de moins que la Normandie.

Les sous-marins, par contre, paraissaient fidèlement représentés : cela a été dit, la Marine nationale s’est manifestement beaucoup investie pour permettre des prises de vues généreuses de SNA et SNLE, les studios employés ont beaucoup travaillé numériquement la navigation sous-marine du Titane et de l’Effroyable avec un souci du détail. Mais pourquoi avoir montré dans les scènes de combat un Titane, SNA français, avec une coque à deux tons de peinture (noire et rouge) séparés par une ligne de démarcation blanche, c’est-à-dire pratiquement peinte comme un sous-marin soviétique ou certains américains ?

Les sous-marins deviennent des acteurs à part entière du film Le chant du loup : c’est bien dommage que le principal, c’est-à-dire l’élément perturbateur, incarnant l’opération de déception, soit aperçu sous le dioptre comme un Delta IV (SNLE) tandis que les archives du CIRA (Centre d’Interprétation et de Reconnaissance Acoustique) montrent un Charlie III, à moins que ce ne soit un type Akula (le massif semble volumineux) : ce qui n’est plus un SNLE et possède une coque trop peu haute pour recevoir un R-30.

Au final, le scénario malgré quelques parti-pris plus qu’audacieux, ne dessert pas son sujet qui est la mise en œuvre de la dissuasion au prisme d’une partie de sa complexité. La distribution des rôles a eu la main heureuse puisque Mathieu Kassovitz est criant de vérité en ALFOST, Omar Sy (capitaine de frégate D’Orsi) joue plutôt bien à contre-emploi alors que Reda Kateb (capitaine de vaisseau Grandchamp) incarne un commandant de SNA et SNLE d’un très grand sang-froid. Le premier maître Chanteraide joué par François Civil est un homme ordinaire confronté à des faits extraordinaires, broyé par la pression des évènements mais qui parviendra à aller au terme de la mission. L’ensemble des autres acteurs jouant les équipages des Titane et Effroyable méritent une mention toute particulière pour avoir réussi à rendre si réaliste et vivant la conduite de ces bateaux.

Malgré ses quelques défauts, l’ensemble constitue une certaine première pour le cinéma français qui n’a pratiquement jamais abordé ce genre depuis Casabianca de Georges Péclet (1951). Ce techno-thriller sous-marin, plutôt que simple film dramatique, n’offre pas une victimisation de la guerre sous-marine mais bien l’accomplissement quotidien des missions. Toutes les facettes sont abordées depuis l’héroïsme jusqu’à la peur de recevoir et donner la mort. Le réalisateur parvient même à restituer l’extraordinaire mission “suprême” de l’équipage d’un SNLE : la frappe nucléaire. Le scénario s’il est audacieux conserve le mérite d’être courageux en évoquant la complexité du monde, la complexité des opérations dans le cadre des défis contemporains les plus actuels. Les auteurs n’ont pas eu la faiblesse de se réfugier dans les erreurs du passés coincées entre 1914 et 1962 avec l’éternel et même registre. C’est cette complexité et la volonté tenace d’essayer de représenter le plus fidèlement possible la navigation sous-marine des bateaux français avec une juste sobriété, loin des exagérations décuplées à grand renfort d’artifices ou des dramatisations les plus lourdes qui soit, qui font que Le chant du loup est l’un des meilleurs films de sous-marins, un des meilleurs films français, voire un très bon film tout simplement.

Cet article “Le chant du loup” d’Antonin Baudry est apparu en premier sur EchoRadar.eu.

“Porte-avions européen” : quelle intention ?

Par Le marquis de Seignelay

En réponse à la tribune du président de la République Emmanuel Macron, Mme Annegret Kramp-Karrenbauer – présidente de la CDU (Union chrétienne-démocrate d’Allemagne – Christlich Demokratische Union Deutschlands) – réplique par la proposition de construire “un porte-avions européen commun, pour souligner le rôle de l’Union européenne dans le monde en tant que puissance garante de sécurité et de paix”. Mme Angela Merkel, chancelière de la République Fédérale d’Allemagne,”trouve bien et juste que côté européen nous puissions disposer d’un tel équipement” : il s’agit donc désormais d’une proposition de l’Allemagne dans le cadre du débat mené entre les États membres de l’Union européenne quant à l’autonomie stratégique de cette dernière.

© US Navy - Mass Communication Specialist 3rd Class Ethan M. Schumacher. Le porte-aéronefs (LHA) Cavour de la Marina militare naviguant de concert avec le porte-avions CVN-75 USS Harry S. Truman (Ve fleet) et le porte-avions Charles de Gaulle (TF 473) pendant des opérations menées dans le Golfe d'Oman.
© US Navy – Mass Communication Specialist 3rd Class Ethan M. Schumacher. Le porte-aéronefs (LHA) Cavour de la Marina militare naviguant de conserve avec le porte-avions CVN-75 USS Harry S. Truman (Ve fleet) et le porte-avions Charles de Gaulle (TF 473) pendant des opérations menées dans le Golfe d’Oman.

Le “porte-avions européen” n’est pas une nouveauté en soi dans le débat stratégique européen. En son temps le vice-amiral d’escadre Philippe Sautter avait proposé l’idée d’un porte-avions franco-allemand en 1996 par une tribune publiée dans le journal Le Monde (“Construisons un porte-avions avec l’Allemagne”, Le Monde, 7 juin 1996). L’idée était que le “PA2” (deuxième porte-avions français) n’étant pas à la portée financière de Paris (commande repoussée depuis 1989 et ajournée sine die par le Livre blanc sur la Défense de 1994) et les hypothèses de coopération avec d’autres partenaires européens bien minces car les marines européennes dotées de ponts plats ont misé sur la filière ADAV/C ou STOVL (Royal navy (classe Invincible (1980 – 2014), Marina militare (Garibaldi (1981 – …) et Armada Española (Principe de Asturias (1982 – 2013). Idée qui s’appuie sur la participation allemande aux différentes opérations de maintien ou de rétablissement de la paix menées pendant la désintégration de la Yougoslavie alors que les capacités de projection de puissance de la Deutsche Marine sont faibles, voire inexistantes et son aéronavale basée à terre et non pas embarquée.

 

L’Amiral Sautter est moins loquace quant au caractère bi-national du bateau. Il renvoie “les problèmes juridiques, financiers, organiques seraient traités par les diplomates et les états-majors, qui ont l’habitude de travailler ensemble”. La tribune n’a pas été la source du moindre commencement d’exécution.

 

Rappelons que “les” porte-avions “européens” devaient à l’origine être franco-britanniques et servir la capacité d’action autonome de l’Union européenne dans le cadre des missions dites de Petersberg. Le Royaume-Uni bloquait la constitution d’une force autonome européenne pouvant être mobilisée aux fins des missions dites “de Petersberg” afin de ne pas concurrence l’OTAN. Le déblocage intervient lors du sommet de Saint-Malo. Cette avancée franco-britannique s’européanise lors du Conseil européen de Cologne (3-4 juin 1999). Mais ce n’est que lors du Conseil européen d’Helsinski (10-11 décembre 1999) que cette “capacité d’action autonome” est détaillée comme suit : “les Etats membres devront être en mesure, d’ici 2003, de déployer dans un délai de 60 jours et de soutenir pendant au moins une année des forces militaires pouvant atteindre 50 000 à 60 000 personnes, capables d’effectuer l’ensemble des missions de Petersberg”. Cette force doit être appuyée par 300 à 500 aéronefs dont 150 à 300 avions de combat et une force navale de quinze bâtiments. C’est dans cette perspective que la Marine nationale et la Royal navy souhaite verser leurs capacités aéronavales dont le porte-avions nucléaire Charles de Gaulle (2001 – 2041) et les trois futurs porte-avions britanniques (Strategic Defence Review (SDR) de juillet 1998) et français.

 

Et à la vérité : la problématique d’un bâtiment militaire bi-national n’a jamais été résolue, ce qui n’a jamais empêché l’idée d’un porte-avions franco-allemand, voire “européen” de faire florès d’une tribune à l’autre, d’une élection du président de la République à l’autre. Il est remarquable que le nombre de porte-avions devenu un marqueur de la puissance d’un programme présidentiel en France soit devenu aussi un marqueur dans le débat européen.

 

Mais le marqueur de quels symboles ? Berlin se singularise par une offensive politique autour du siège permanent de la France au conseil de sécurité des Nations unies, l’usage militaire de l’atome dans le cadre d’une doctrine de dissuasion. Autrement dit, ce sont les symboles de la puissance politique française qui sont visées. Et il n’est peut être pas inutile d’inviter à la lecture de L’Alliance incertaine, les rapports politico-stratégiques franco-allemands, 1954-1996 (Paris, Fayard, 496 pages) de  Georges-Henri Soutou où les rapports franco-allemands se caractérisent par la volonté allemande de retrouver la parité avec la France soit par la réduction, voire la suppression des sanctions consécutives à la défaite lors de la Deuxième Guerre mondiale, soit en entravant ou en encadrant l’obtention d’instruments de souveraineté par la France.

 

 

Il est pourtant nécessaire d’affronter cette problématique. M. Joseph Henrotin rappelait que le porte-avions est “d’abord un instrument de guerre navale” (Joseph Henrotin, “La question du porte-avions, @DSI_magazine, 11 mars 2019). Seuls les États-Unis, la France et le Royaume-Uni en font un instrument de stratégie combinée – sans même compter sur le débat du “combat multi-domaines”. D’ores et déjà s’impose au Politique que cet instrument de guerre navale se compose d’un porte-avions, pièce maîtresse d’un groupe naval capable d’obtenir le sea control, c’est-à-dire la maîtrise de la mer en un temps et un lieu donné dans toutes ses dimensions (sous, sur et au-dessus de la surface). Cette question complexe oblige à un dialogue approfondi dépassant le cadre institutionnel et opérationnel de l’EUROMARFOR (1995), force non-permanente peu en rapport avec les contraintes opérationnelles de la mise en œuvre d’un groupe aéronaval.

 


La proposition allemande touche bien un instrument aéronaval capable de “souligner le rôle de l’Union européenne dans le monde en tant que puissance garante de sécurité et de paix” (Annegret Kramp-Karrenbauer) donc de pouvoir porter le combat à terre par l’entremise d’une aéronavale à voilure fixe embarquée. Cet instrument de stratégie combinée mer – air pour le contrôle de la surface (Amiral Castex) oblige à penser une stratégie aérienne mêlant notamment l’instrument aéronaval mais pas seulement dans le cadre d’interventions à Terre pour influencer et orienter la décision. Comme le souligne Joseph Henrotin, cette perspective est “le catalyseur de toute une chaîne, du politique au très technique”. Les Etats devraient se mettre d’accord sur les missions incombant aux formations aéronavales communes donc de mettre en rapport des cultures stratégiques pour dégager un espace de coopération “axée ciblage et génération d’effets stratégiques”. Concrètement, il s’agirait de se mettre d’accord sur les aéronefs, les munitions en fonction des effets recherchés sur le terrain et donc des règles d’engagement. En la matière, Joseph Henrotin souligne combien “l’Afghanistan a déjà largement montré les limites des groupes aériens multinationaux.”

 

Du point de vue de la stratégie génétique des moyens, les protagonistes doivent se mettre d’accord sur les missions et donc sur le choix d’un aéronef. Le programme SCAF (Système de Combat Aérien du Futur) mené en coopération entre l’Allemagne et la France a un calendrier propre à faciliter de tels échanges stratégiques afin de se mettre d’accord sur un cadre aéronaval commun au service d’une culture expéditionnaire commune demeurant à développer. Mais le blocage allemand de moins en moins lisible sur le contrôle de l’exportation de matériels de guerre n’est pas encourageant à propos d’un sujet connexe. Par ailleurs, un “porte-avions européen” implique aussi de se décider en faveur d’une filière aéronavale (CATOBAR (France, Royaume-Uni (2030-35 ?), STOBAR (Russie), STOVL (Espagne, Italie, Royaume-Uni, ) alors que chacune d’elle est représentée dans l’Union européenne : sauf en Allemagne.

 

Nonobstant la question d’un “porte-avions européen” puisqu’il paraît très difficile d’agencer un porte-avions propriété de deux ou plusieurs Etats ou d’une organisation internationale avec un équipage multi-national tout comme le groupe aérien embarqué, il y a d’autres voies de coopération possible de la manière la plus réaliste qui soit.

 

La première était déjà abordée par l’Amiral Sautter : “en nous projetant encore plus dans un avenir qui n’est pas totalement virtuel, si l’Allemagne, pour remplacer ses Tornado, achetait des Rafale Marine, ces avions pourraient être basés en Allemagne et venir s’entraîner sur les porte-avions en Méditerranée. Ce ne serait pas plus loin que la base de Landivisiau (Finistère) où est stationnée la chasse embarquée française.” À la remarque près que pour le remplacement des Tornado de la Luftwaffe, Berlin n’a jamais publiquement considéré l’achat de Rafale alors même que le développement du standard F4 conférera à l’avion tricolore les facultés d’hyperconnectivité qui font la différence d’avec tous les autres aéronefs à voilure fixe.

 

Plus largement, la mise en œuvre d’aéronefs européens à bord des porte-avions français n’a semble-t-il jamais été sérieusement envisagé. Cela ne soustrait en rien des questions sous-jacentes liées à l’emploi de la force militaire (cf. supra). Mais la mise en œuvre opérationnelle de cette mesure politique est d’une très grande simplicité tant est que hommes et matériels peuvent suivre. Paris ne proposait-il pas des Rafale M (6 à 12 selon les sources) à la Belgique dans le cadre du partenariat stratégique d’Etat à Etat proposé ? Pourquoi donc Finlandais et Espagnols (F/A-18 Hornet, CATOBAR) ne sont-ils pas montés à bord du porte-avions Charles de Gaulle dont la conception a été guidée autour d’un “avion enveloppe”… le F/A-18 Hornet ?

 

En réduisant encore la focale employée, un “porte-avions européen” aurait aussi pu prendre l’apparence d’un travail diplomatico-militaire dans l’espace otanien ou de l’Union européenne afin de mettre en rapport les aéronavales à voilure fixe embarquées européennes. Il y a un porte-avions, trois porte-aéronefs et quatre porte-hélicoptères (dont deux pouvant opérer des aéronefs à voilure fixe tel que le AV-8B Harrier II). Favoriser des groupes aéronavals européens peut aussi se matérialiser sous la forme d’un travail de fond dont l’Allemagne est pourtant coutumière par la production de normes facilitant l’interopérabilité entre les marines et donc l’embarquement des groupes aériens embarquées d’un pont plat à l’autre, favorisant là la permanence aéronavale européenne. Cette approche très technique dispense presque de penser de manière structurelle les missions menées en commun au profit de coalitions dont la constitution ponctuelle est rendue aisée par ce rapprochement technico-opérationnel.

 

La volonté politique est théoriquement constituée pour faire avancer l’ “Europe aéronaval” avec trois voies d’action possibles afin qu’elle émerge rapidement : un espace de coopérations techniques favorisant l’interopérabilité, un cadre structurel bénéficiant d’un rapprochement doctrinal pour l’embarquement de groupes aériens embarquées étrangers sur une plateforme nationale et un dialogue politique dans l’optique de faire coïncider le programme SCAF avec un “porte-avions européen”.

 

Ce dernier est-il l’ineptie navale d’un bâtiment multinational faisant d’ores et déjà la fortune des juristes et des officiers d’état-major, et donc le symbole de ce qui n’est pas voulu pour l’Europe, de ce qui ne fonctionne pas pour le continent et ce qui obérera les capacités existantes en phagocytant l’avenir avec, peut être, des intentions malignes cachées d’abaissement de la France au profit de l’Allemagne ? Ou bien est-ce que le vocable” de “porte-avions européen” déclame la volonté allemande que l’Europe se dote de “big sticks” au service d’une politique étrangère, de sécurité et de défense commune appuyés par des instruments de concertation proposées (conseil de sécurité européen, traité de défense et de sécurité), voire par un quartier général européen ?

 

 

Cet article “Porte-avions européen” : quelle intention ? est apparu en premier sur EchoRadar.eu.

Variations sur le thème de l’effet majeur

Par Informatiques Orphelines

La méthode française utilisée pour élaborer une manœuvre tactique fait la part belle à ce qu’on appelle l’effet majeur1. Toute la méthode tourne autour de lui, dans la mesure où sa détermination conditionne la pertinence des ordres qui seront élaborés puis transmis aux subordonnés dans le but avoué d’obtenir la victoire.

Cependant, malgré son caractère central dans l’élaboration de la manœuvre, l’observation des effets majeurs énoncés dans différentes situations tactiques prouve que cette notion est mal comprise, donc mal maîtrisée, ce qui se traduit par des effets majeurs qui n’en sont pas. Ce ne serait pas grave si l’effet majeur n’était qu’une pure construction intellectuelle mais, dans la mesure où il conditionne les ordres donnés et donc l’exécution de la manœuvre, un effet majeur mal choisi risque d’entraîner l’échec de la mission.

Source

Cependant, malgré son caractère central dans l’élaboration de la manœuvre, l’observation des effets majeurs énoncés dans différentes situations tactiques prouve que cette notion est mal comprise, donc mal maîtrisée, ce qui se traduit par des effets majeurs qui n’en sont pas. Ce ne serait pas grave si l’effet majeur n’était qu’une pure construction intellectuelle mais, dans la mesure où il conditionne les ordres donnés et donc l’exécution de la manœuvre, un effet majeur mal choisi risque d’entraîner l’échec de la mission.

Le problème est que, dans la mesure où peu de monde aime la méthode et l’effet majeur (il n’y a que dans l’Église catholique et pour l’effet majeur qu’on qualifie des personnes d’intégristes2), le dit effet majeur devient presque une idée reçue au sens Flaubertien du terme3.

Par conséquent, on en parle beaucoup, on insiste sur son importance, mais on ne sait le définir ou, lorsqu’on le fait, on ne peut l’expliquer clairement. Reconnaissons que sa définition réglementaire « effet à obtenir sur l’ennemi, en un temps et un lieu donnés. Sa réussite garantit le succès de la mission » ne brille pas par sa clarté et peut laisser sur notre faim.

Alors, dans la mesure où une troupe bien nourrie est une troupe qui manœuvre, il paraît utile de faire un détour par la sémantique pour voir ce qu’elle peut nous apprendre et ce que nous pourrons en tirer d’un point de vue pratique.

Indispensable sémantique

Penchons-nous tout d’abord sur les définitions des deux termes employés.

Et comme la liberté prime dans la tactique, nous débuterons par le second terme : majeur.

Si l’effet à obtenir sur l’ennemi est qualifié de majeur, cela signifie que, dans une même manœuvre, plusieurs effets peuvent être recherchés ou se produire. Qu’ils soient interdépendants ou non importe peu, ce qui compte, c’est que l’un d’eux sera prépondérant sur les autres, d’où le qualificatif de majeur.

S’il y a un majeur, c’est qu’il peut y avoir des mineurs.

Nulle obligation, mais simple possibilité qui ne peut être balayée d’un revers de manche4.

Une subtilité sera donc de déterminer, parmi l’ensemble des effets que l’on veut produire sur l’ennemi, lequel sera majeur. Ou, dit autrement mais en conservant la sémantique militaire, il faut (là encore) savoir distinguer l’essentiel de l’accessoire.

Mais, réciproquement, qu’il y ait un effet majeur ne signifie pas qu’il y aura une multitude d’effets dans le fatras desquels il faudra élire celui qui sera majeur. On peut très bien monter une manœuvre en n’identifiant qu’un seul effet, lequel sera majeur par construction.

Qualifier un effet de majeur soulève aussi la question de savoir qui le ressent comme tel. Celui qui l’a conçu ou celui qui le subit ?

Nous sommes ici dans un domaine où il faut rechercher l’adéquation entre les deux ressentis.

En effet, si mon effet est majeur pour moi mais mineur pour mon ennemi, alors mes chances de victoire sont faibles car il court le risque de n’être qu’un effet parmi d’autres.

À l’inverse, s’il est mineur pour moi mais majeur pour mon ennemi, je risque de ne pas le retenir dans l’élaboration de ma manœuvre, estimant son impact trop faible.

Un effet majeur pertinent doit donc être majeur tant pour moi que pour mon ennemi, ce qui indique que je connais à la fois mes capacités et celles de mon ennemi.

Cela tend donc à prouver que cette méthode de raisonnement est une méthode qui nécessite une certaine maturité pour être maîtrisée car, quand bien même on serait doté d’un exceptionnel esprit d’analyse, une certaine pratique est nécessaire pour identifier lequel des effets produits par la manœuvre que je conçois sera réellement majeur5. Que cela s’appele coup d’oeil ou intuition, ces éléments se travaillent et s’améliorent avec le temps, pourvu qu’on les pratique régulièrement.

Regardons maintenant la définition du terme effet qui est la plupart du temps oubliée. Car s’il est aisé de définir le terme majeur, peu de personnes se hasardent à définir le terme effet. Un dictionnaire nous donne les acceptions suivantes :

résultat.

C’est ce à quoi la plupart des personnes pense à l’écoute de ce terme. Ce qui peut occasionner bien des déboires au débutant, car comme le résultat à obtenir sur l’ennemi est de le vaincre, l’effet majeur ne peut être que la victoire sur l’ennemi. Dans ce cas, quelle est l’utilité de torturer ses neurones pour élaborer un autre effet que celui de la victoire de nos armes ? Mais consentir à cela revient à tuer toute réflexion poussée, tant il est évident que personne ne va à la guerre pour perdre6.

Le dictionnaire nous fournit également deux acceptions délaissées dans la réflexion tactique :

2/ impression produite ;

mais aussi

3/ attitude soigneusement préparée, comportement affecté en vue d’impressionner l’assistance.

Ces deux acceptions peuvent désorienter. En quoi une impression produite ou un comportement affecté peuvent être déterminants alors que l’objectif de cette méthode de raisonnement est d’obtenir un succès tactique ?

Parce que ces deux acceptions englobent la ruse, le bluff, l’intox, la duperie, bref tout ce qui peut agir sur les sens et le moral de l’ennemi et, si cet effet est majeur, le faire lâcher prise ou paniquer alors qu’il n’y a aucune raison objective à cela.

Cette consultation du dictionnaire s’avère donc fructueuse puisque nous voyons que réaliser l’effet majeur revient soit à obtenir un résultat tangible sur l’ennemi (c’est le sens 1), soit produire une impression sur l’ennemi pour le désorienter ou lui faire croire qu’on est plus puissant que ce qu’on est en réalité (sens 2), soit encore feindre une attitude pour l’impressionner et le forcer à reconnaître notre supériorité (sens 3).

Nous voyons que dans chacun de ces cas, un des résultats immédiats obtenus est la prise de l’initiative sur l’ennemi. Car, ainsi que le rappele Yakovleff, l’initiative ne revient pas seulement à faire ce que je veux (car cela peut entrer dans les plans de l’ennemi), mais aussi à forcer l’ennemi à faire ce que je veux qu’il fasse.

Nous obtenons ainsi une démonstration de la pertinence de la définition de l’effet majeur par Yakovleff : « l’effet majeur conceptualise la façon dont le chef entend saisir l’initiative ».

De l’effet majeur et du centre de gravité

Parvenu à ce stade du raisonnement, nous pouvons alors poursuivre sur l’autre question source de tempêtes neuronales, de querelles d’experts et d’excommunications perpétuelles : l’effet majeur et le centre de gravité ne sont-ils qu’un ? Etchevarria, en redéfinissant le centre de gravité7, semble pencher pour une fusion des deux termes, ou au moins pour affirmer qu’ils sont les deux faces d’un même objet.

Et bien non.

Car le centre de gravité est défini comme les « caractéristiques, capacités ou situation géographique dont un pays, une alliance, une force militaire ou toute autre entité tire sa liberté d’action, sa puissance ou sa volonté de combattre. » Nous voyons donc que, d’un point de vue sémantique, le centre de gravité est à première vue matériel alors que l’effet majeur est plutôt immatériel.

Par conséquent, il ne peut y avoir identité des deux.

Mais lorsque le centre de gravité est immatériel8, peut-il alors y avoir identité parfaite entre celui-ci et l’effet majeur ?

Là encore, la réponse ne peut être que négative et la sémantique va nous aider.

Le centre de gravité, dont nous avons vu la définition supra, ne peut être ni un résultat, ni une impression, ni même une attitude soigneusement préparée ou un comportement affecté, n’en déplaise aux partisans de la réconciliation à tout prix.

De plus, l’effet majeur est le résultat de mon action, alors que le centre de gravité est ce que mon ennemi possède ou produit, qu’il en soit ou non conscient. Et mon ennemi ne peut ni posséder ni produire ce que je m’apprête à faire.

Tout ceci plaide donc pour une distinction des deux termes qu’il est non seulement faux, mais aussi dangereux d’employer l’un pour l’autre. Car comme un raisonnement faux ne produit que rarement des résultats justes, partir sur ces bases augure mal du résultat final.

L’effet majeur et le centre de gravité sont-ils alors condamnés à ne jamais se rencontrer, tels les pôles Nord et Sud des aimants, ou telles deux droites parallèles s’aimant d’un amour tendre ?

Non, car s’ils sont différents, ils ne sont pour autant pas totalement étrangers l’un à l’autre.

En effet, si le centre de gravité est correctement identifié (mais il semble que cela soit aussi difficile que de définir un effet majeur correct), alors la chute dudit centre entraîne la dislocation des forces ennemies auxquelles nous sommes opposés.

Ce qui nous permet d’affirtmer que l’effet majeur (correctement défini) peut avoir pour objectif d’atteindre le centre de gravité de l’ennemi (correctement identifié).

Conservons donc en permanence à l’esprit que cette différence, mais aussi ce lien entre les deux termes, tient au fait que l’effet majeur est un moyen de parvenir à une fin (la victoire), et qu’en aucun cas un moyen ne peut être une fin.

Conclusion

Parvenus au terme de ces variations, nous ne pouvons que constater la richesse de l’effet majeur en nous demandant au passage si ses concepteurs avaient conscience de tout ce qu’il recelait. La réponse est vraisemblablement négative, car s’ils en avaient eu conscience, ils en auraient parlé, l’auraient écrit, ce qui rendrait incompréhensible une telle perte d’information avec le temps.

Nous constatons également que l’effet majeur et le centre de gravité ne peuvent être pris l’un pour l’autre, mais qu’un lien spécial existe entre eux. D’où il s’ensuit que privilégier l’un des deux dans l’élaboration d’une décision tactique est le reflet de l’enseignement suivi ou de l’appétence de chacun.

Si chaque méthode a ses partisans et ses contempteurs, une fusion des deux est illusoire, et aucune des deux ne peut être estimée supérieure à l’autre. Toutes deux ont pour point d’achoppement la pertinence du choix de leur point essentiel (effet majeur, centre de gravité), une mauvaise définition de celui-ci entraînant des résultats pour le moins aléatoires.

Or, on ne peut se contenter de l’aléatoire à la guerre, car l’essentiel n’est pas de participer mais de gagner.


1À tel point que le général Yakovleff, dans Tactique théorique, propose de rebaptiser la méthode d’élaboration des ordres en « méthode de l’effet majeur. »

2Preuve irréfutable, s’il en était besoin, de l’alliance du sabre et du goupillon.

3Cf. Le dictionnaire des idées reçues de Flaubert. Où l’on trouve d’ailleurs : Armée, le rempart de la société et Général : Est toujours brave. Fait généralement ce qui ne concerne pas son état, comme être ambassadeur, conseiller municipal ou chef de gouvernement.

4Il serait d’ailleurs paradoxal, dans la partie sémantique, de se gargariser d’effets de manche…

5Il y a quelques temps, l’auteur de ces lignes entendit le général commandant les écoles de Coëtquidan avouer qu’il n’avait vraiment compris l’effet majeur que lorsqu’il était sur les bancs de l’école de guerre.

6Ni même pour terminer second, comme l’écrit malicieusement Yakovleff dans l’ouvrage précédemment cité.

7Cf. http://www.freerepublic.com/focus/news/834163/posts?page=10

8Ce que pense Etchevarria à propos de la guerre des USA en Irak : quand bien même la majorité des analystes estimaient que la personne de Saddam Hussein était le centre de gravité du régime (ce qui explique sa traque), lui estimait que le véritable centre de gravité du régime était son idéologie. Un élément totalement immatériel donc.

Cet article Variations sur le thème de l’effet majeur est apparu en premier sur EchoRadar.eu.

Des informatiques orphelines dans les armées et de leurs conséquences

Par Informatiques Orphelines

Le récent article du colonel Légrier, publié dans la rubrique « opinions » mais promptement retiré le 16/02 du site internet de la Revue de la Défense Nationale pour des raisons initialement non exposées et au demeurant assez xylolalique, incite à se poser, de manière plus moderne, la sempiternelle question de la dépendance des armées envers la technique.

Notons, avant de poursuivre, que le lecteur ne trouvera pas ici de discussion sur le bien fondé des opinions dudit colonel ni même sur l’opportunité et l’élégance du retrait de cet article. Uniquement une réflexion sur la question de la dépendance des armées envers la technique. Mais de manière plus moderne, car cette séduction a maintenant pris les traits (marketing ou post-modernes) de la numérisation, sans laquelle toute entreprise (au sens large du terme) serait condamnée à végéter.

Source

Faisant également suite à un article un peu moins récent dans lequel était expliqué que des troupes françaises, en manœuvre dans un pays balte, s’étaient trouvées perdues à cause d’une panne de GPS (elles ont donc réactualisé le bon vieux principe du PMG, paumés mais groupés) l’objectif de ce billet est de se demander si les informatiques ne sont pas, parfois, considérées comme orphelines dans les armées et donc si la fameuse loi de conservation de l’intelligence ne s’applique pas également aux systèmes militaires. Si tel était le cas, il faudrait alors identifier quelles conséquences opérationnelles sa mise en application peut avoir.

Armées et loi de conservation de l’intelligence

La technique est-elle efficace ?

À la lecture de l’article du colonel Légrier, le premier constat pouvant être effectué est que l’utilisation de la technique semble prolonger la durée de la bataille. Le exemples qu’il cite sont éclairants : « Au XIXe siècle, le sort d’une bataille mettant en jeu quelques milliers d’hommes était réglé en une journée – Austerlitz par exemple ; au XXe siècle, il faut compter en semaines – que l’on pense à la poche de Dunkerque en 1940 ; au XXIe siècle, il faut près de cinq mois et une accumulation de destructions pour venir à bout de 2 000 combattants ne disposant ni d’appui aérien, ni de moyens de guerre électronique, ni de forces spéciales, ni de satellites. » Or, ne nous trompons pas, la technique dont il s’agit est principalement informatique.

Cette technique n’est sûrement pas la seule responsable de ces prolongations, mais elle ne peut s’exonérer de toute responsabilité. Malgré cet allongement du temps de la bataille, d’éminentes personnes, se voulant sûrement expertes es stratégie, ne cessent d’annoncer la fin proche de l’ennemi, voire sa défaite. Ce qui prouve que leurs connaissances de la stratégie demeurent lacunaires (« il y a quelques lacunes dans l’ignorance » disait feu Coutau-Bégarie) et que leur rapport au temps est perfectible.

En tout cas, la technique est omniprésente dans la bataille menée par les forces occidentales : « Ainsi, c’est le 3 décembre 2018 qu’ont été tirés avec succès pour la première fois en opération, les obus antichars à effet dirigé Bonus détruisant une colonne de pick-up lancée à l’assaut des lignes de défense FDS. » et encore « Comme dans le film de Gavin Hood, Eye in the Sky, c’est la quintessence de la haute technologie qui se déploie quasiment sans limite avec l’emploi massif de moyens de surveillance et de renseignement, et d’avions pour observer et frapper » alors que les forces ennemies se distinguent par la rusticité de leurs moyens1 rendant cette guerre plutôt asymétrique.

Au vu du temps passé pour venir à bout du califat, cette débauche de moyens techniques nous pousse alors à nous demander avec l’auteur si elle a porté ses fruits : « L’ennemi a-t-il été détruit par ces frappes ? Oui, mais pas autant qu’on a bien voulu le faire croire dans les comptes rendus alignant un BDA impressionnant calculé de façon statistique et non pas par observation visuelle. » Heureusement, une certaine efficacité des moyens techniques est constatée, mais là encore nous voyons que le compte-rendu est biaisé dans la mesure où il repose sur un procédé non humain (les statistiques) et que l’observation est négligée.

La techno-dépendance

Si la technique est parfois nécessaire pour venir à bout de l’ennemi, il est néanmoins souhaitable que ne s’installe pas une dépendance envers elle, à moins d’accepter de laisser, de temps en temps, l’initiative à l’ennemi lorsque la technique est défaillante. Ce fut le cas en Irak, et l’ennemi a su tirer parti des moments où la technique était inopérante puisqu’il a « déployé jusqu’au bout une combativité inébranlable mettant à profit les périodes de mauvaise météo, le préservant de la menace aérienne, pour contre-attaquer violemment et infliger à plusieurs reprises de sérieux revers tactiques aux FDS. » L’ennemi a donc su faire preuve d’un certain pragmatisme, puisqu’il a mis à profit les périodes où les appuis étaient diminués (les plages de mauvaise météo) pour se reprendre et contre-attaquer.

Cette réaction logique (rappelons que personne ne fait la guerre pour mourir au premier coup de feu) montre qu’il semble que la coalition entretienne des liens malsains de dépendance envers la technique, si l’on en croit le colonel : « il faut être rentré dans une Strike Cell par temps couvert pour comprendre toutes les limites de notre approche techno-centrée. En effet, en cas de pluie, de brouillard, de nuages, les écrans deviennent noirs, les gens jouent aux cartes ou regardent un film : la guerre s’arrête pour eux en attendant la prochaine fenêtre météo. Lors des violentes contre-attaques de Daech en octobre 2018 et le repli des FDS, le premier constat d’un officier général a été de dire : « C’est à cause de la météo, nous n’avions plus l’appui aérien. » Sous-entendu, Daech ne respecte pas les règles du jeu, il attaque par mauvais temps ! » Ces propos sont atterrants d’irresponsabilité et de méconnaissance de la méthode de raisonnement tactique dans laquelle la météo figure dans les éléments à prendre en compte ! À les entendre, on ne peut s’étonner que les civils veuillent prendre une place prépondérante dans la stratégie guerrière et la conduite des opérations puisque certains militaires (donc, a priori, des spécialistes) exposent ainsi leur insuffisance.

Ce constat montre également que, lorsque l’informatique est neutralisée, aucun moyen dégradé n’est utilisé pour assurer la permanence des opérations (ou la continuité des activités, c’est selon).

La loi de conservation de l’intelligence en œuvre

Pour répondre à la question posée en introduction, la citation du général Desportes incluse dans l’article du colonel2 illustre bien la belle adaptation de la loi de conservation de l’intelligence à nos armées : « Ainsi, cette bataille illustre à merveille les propos du général Desportes : « Des systèmes d’armes toujours plus performants produisent des résultats toujours plus décevants. » »

À n’en pas douter, la loi de conservation de l’intelligence est bien à l’œuvre dans nos armées : lorsque l’ordinateur ne fonctionne plus, ses opérateurs deviennent tout aussi inopérants, alors qu’on aurait pu attendre d’eux la maîtrise d’un fonctionnement en mode dégradé. C’est non seulement fort regrettable, mais c’est aussi inquiétant.

Les conséquences de l’application de cette loi

Ce constat est inquiétant, car il prouve que les discours actuels de l’armée de terre ne sont que partiellement suivi d’effets.

Preuve en est par les deux slogans les plus récents : Au contact ainsi que L’esprit guerrier.

Au contact

Parlons du contact tout d’abord. Puisque les armées exécutent la mission Sentinelle avec un enthousiasme modéré3, on peut penser que le sens premier de la formule Au contact n’est pas de vouloir renouer un contact qui serait plus ou moins perdu avec la population. Il semble plutôt être celui d’un contact (indispensable) avec l’ennemi, car l’Histoire nous a montré que les guerres ne pouvaient toutes se gagner à distance.

Or l’article du colonel Légrier nous montre que cette notion de contact avec l’ennemi est fortement amoindrie dans l’opération menée par la coalition, voire a complètement disparu. Comment peut-on alors envisager de terminer une guerre, si on ne voit jamais son ennemi ?

On peut développer les guerres par procuration, mais cela soumet le mandataire à la bonne volonté de ses mandants, ce qui n’est pas toujours la solution la plus efficace, l’auteur nous le montre.

L’esprit guerrier

Le deuxième élément d’analyse concerne l’esprit guerrier.

La citation supra (visite d’une strike cell) nous montre que cet esprit est également amoindri dans un certain nombre d’unités de la coalition qui, lorsque la météo est défavorable, mettent la guerre entre parenthèses pour visionner des films, jouer aux cartes, etc. Certes les périodes de repos sont indispensables à l’entretien du moral du combattant, mais à ce point, on peut se demander si nous ne sommes pas face à une inversion des priorités : on joue et, de temps en temps, on fait la guerre à distance, laquelle pourrait constituer, tout compte fait, un jeu d’un style particulier puisqu’on est à couvert.

À trop faire la guerre ainsi, l’esprit guerrier risque de se perdre…

La cyber guerre

Enfin, la troisième conséquence prévisible est que la guerre informatique, la cyber-guerre, voire la guerre numérique quitte son état actuel de divertissant fantasme destiné à se faire peur, pour devenir une réalité.

Nous aurions alors un nouvel exemple de prophétie autoréalisatrice4.

Pourquoi ?

Parce qu’alors que le cyber ne devrait être qu’une simple ligne d’opérations5 dans la guerre, l’exemple de la strike cell cité par le colonel Légrier montre qu’il devient un moyen de faire la guerre : neutraliser le système cyber de l’ennemi le rend inopérant, et du fait de la faiblesse de son esprit guerrier, il y a fort à parier qu’un raid aux abords de la strike cell aurait créé un certain émoi, voire un ramdam, peut-être une panique, sans atteindre pour autant (du moins on l’espère) le stade de la débandade…

La coalition a ainsi montré que s’attaquer à son informatique la cloue au sol, et la plonge dans un état de démobilisation intellectuelle prononcé. Et cela parce que ses armées sont incapables (ou n’ont pas prévu, ou refusent, c’est selon) de fonctionner en mode dégradé.

La cyber guerre ne devient alors réelle que par la succession d’une suite de renoncements successifs : rusticité, risque (car il peut entraîner des morts), imagination, solutions de rechange.

Conclusion

Si le colonel Légrier est effectivement sanctionné comme il est fort probable qu’il le sera – rassurons-nous, sans jours d’arrêt qui feraient tâche dans l’opinion mais à la manière post moderne, sans rien lui dire, en faisant preuve de pédagogie pour lui faire comprendre son manque de discernement ce qui risque de ralentir son avancement – cela aura pour conséquence d’enfermer un peu plus les armées dans leur mutisme.

Officiellement, certains continueront de publier, mais leurs articles seront tellement pondérés, mesurés, équilibrés, nuancés, que chacun y trouvera ce qu’il veut : tout, et son contraire. Et pour cause, ils ne concerneront que la forme et nullement le fond.

Pourtant, la réflexion du colonel est salutaire car elle montre que les armées françaises se donnent à la complexité sans réserve, sans réflexion poussée sur une éventuelle trahison de la technique, ce qui les rend paradoxalement plus vulnérables qu’avant.

En ce sens, nos armées sont à l’image des entreprises qui dépendent de plus en plus de leur système d’information et se trouvent désemparées lorsque NotPetya, Wannacry et autres créatures maléfiques s’invitent de manière impromptue.

En 1917 Pétain déclara « j’attends les chars et les Américains », et l’Histoire lui donna raison. Il n’est pas certain que l’Histoire donne encore raison à ceux qui « attendent l’IA et les Américains. »


1Même s’il des vidéos alarmistes furent diffusées, dans lesquelles on voyait des drones du califat grenader les positions de leurs ennemis. La capacité d’emport en grenades était fort limitée.

2Ce qui prouve que le colonel était joueur ou taquin, lorsqu’on sait le sort réservé au général Desportes pour avoir en son temps émis des doutes sur la stratégie américaine.

3Ce qui ne signifie pas qu’elle est mal exécutée, mais qu’elle n’est en rien responsable de l’afflux débordant de candidatures dans les centres de recrutement.

4C’est en 1942, dans Social Theory et Social Structure (traduit en français sous le titre Éléments de théorie et de méthode sociologique) que Robert K. Merton a développé la notion de prophétie autoréalisatrice (appelée initialement « prédiction créatrice ») à partir du théorème de Thomas. Il la présente ainsi : « C’est, au début, une définition fausse de la situation qui provoque un comportement qui fait que cette définition initialement fausse devient vraie. »

5Rappelons que les lignes d’opération représentent des lignes de cohérence par domaine d’action qui permettent d’atteindre directement ou indirectement un centre de gravité en exploitant les faiblesses de l’adversaire et en évitant la confrontation directe avec ses forces.

Cet article Des informatiques orphelines dans les armées et de leurs conséquences est apparu en premier sur EchoRadar.eu.

Le piège américain

Par Informatiques Orphelines

Il est beaucoup question du Piège américain dans lequel Frédéric Pierucci raconte son incarcération aux USA, durant laquelle il estime avoir servi à la fois de bouc émissaire du ComEx d’Alstom et de moyen de pression utilisé par la justice américaine pour finaliser le rachat d’Alstom par General Electric.

Source

Le récent veto de la commission européenne à la fusion d’Alstom et Siemens redonne de l’intérêt à ce livre, car il permet de mieux comprendre le chemin tortueux qui a conduit à cette décision pour le moins étonnante.

Quant aux tout aussi récents commentaires de Michel Sapin sur la responsabilités des entreprises européennes dans leurs déboires avec la justice américaine, le récit de Frédéric Pierucci leur donne une saveur particulière.

The american way of (economic) war

Lorsque F. Pierucci affirme qu’il a été un moyen de pression dans les mains des USA pour finaliser le rachat d’Alstom par General Electric, on ne peut que reconnaître que la chronologie des faits plaide en sa faveur. En effet, tout ce qu’il considère être un montage de l’État américain pour parvenir à ses fins n’est pour l’instant contredit par aucun argument sérieux.

Au contraire, l’attitude même des cadres dirigeants d’Alstom au moment de son incarcération plaide en faveur d’une machination américaine, Pierucci étant laissé en otage par Alstom pour preuve de la bonne coopération transatlantique1.

Son livre montre en effet que lorsque l’État fédéral s’assigne un objectif, il se donne les moyens d’y parvenir. Certains estimeraient que, ce faisant, les USA prouvent qu’ils ont une stratégie et qu’ils défendent leurs intérêts, lorsque d’autres pays brillent par le caractère lacunaire de l’une et des autres.

Mais, dans un pays qui proclame la séparation des pouvoirs, le règne de l’état de droit et l’indépendance de la Justice, cette dernière pourrait-elle être pervertie ? L’auteur le pense lorsqu’il affirme : « les détenus se retrouvent donc totalement à la merci de procureurs surpuissants qui ont toutes les cartes en main pour les inciter à parler à plaider coupable. Résultat le DOJ a un taux de réussite en matière pénale digne de résultats d’élections sous Ceausescu : 98 et demi pour cent2 » et qu’il poursuit en insistant sur la conception totalement différente du métier d’avocat qu’ont les Américains et les Français : « quant aux avocats américains, ce ne sont pas réellement des défenseurs, comme on l’entend en France, ce sont avant tout des négociateurs. Leur principale mission consiste à convaincre leurs clients d’accepter de plaider coupable. Et, ensuite, ils dealent la meilleure peine possible avec l’accusation3. » Et pourquoi inciter à plaider coupable ? Parce que l’horizon temporel de la tenue d’un procès est tellement flou4 et son issue tellement aléatoire, que les détenus préfèrent s’accuser de fautes non commises pour passer le moins de temps possible en détention.

La convergence d’intérêt (pour ne pas dire la collusion) entre les entreprises US et le ministère fédéral de la justice apparaît évidente : « il faut ouvrir les yeux et se rendre compte que le DOJ n’est pas indépendant, et qu’il se trouve depuis longtemps sous l’emprise des plus grandes multinationales américaines. En approfondissant mes recherches, je m’apercevais d’ailleurs que, lorsque des grandes sociétés américaines sont poursuivies (ce qui Dieu merci arrive quand même), c’est, la plupart du temps, suite à des initiatives étrangères5. »

Dans ce que certains appellent guerre économique, le rôle des agences de renseignement US est souvent évoqué. F. Pierucci a un avis tranché sur la question : « plus inquiétant encore, les autorités américaines ont reconnu sans ambages devant la représentation française qu’elles n’hésitaient nullement à avoir recours à tous les moyens de la NSA, l’organisme chargé de toutes les écoutes et surveillance électromagnétiques, pour ouvrir leurs enquêtes6. »

En résumé, l’État fédéral s’engage dans cette guerre sans barguigner son soutien à ce qu’il estime être des fleurons nationaux, alors que de l’autre côte de l’Atlantique « contrairement aux États-Unis qui ont sauvé G E en 2008, suite à la crise des subprimes, le gouvernement socialiste français, converti au libre-échange, laisse donc une entreprise stratégique s’envoler dans le giron des États-Unis7. »

Pierucci n’est cependant naïf, car il reconnaît qu’Alstom n’est pas tombé par hasard dans les mains de la Justice, mais que l’entreprise a bien aidé les fédéraux par son comportement pour le moins léger face à la corruption.

La corruption n’était pas qu’une affaire d’entreprise

La responsabilité de l’entreprise est indéniable, et si son emblématique patron P. Kron n’en est pas à l’origine, son rôle semble ambigu : « Sous couvert de fiches projets et de process censés être plus rigoureux, l’utilisation de consultants8 s‘est largement poursuivie sous la direction de Patrick Kron. Le seul changement, c’est que la corruption est devenue plus dissimulée9 » et les sphères dirigeantes de l’entreprise, telles de modernes Ponce Pilate, s’en lavaient les mains : « le département compliance chargé du respect de l’éthique était bien sûr au courant de ces pratiques, comme la direction générale du groupe. Et pour cause, c’est elle qui les avait mises en place10. » Ce qui peut étonner de la part d’un département compliance et soulève des questions quant à la notion de responsabilité dans une telle organisation.

Mais il n’est pas possible de s’afficher corrompu quand bien même la réalité n’est pas reluisante : « en clair, si, côté face, Alstom affichait une politique irréprochable, côté pile, les pires habitudes perduraient dans l’opacité la plus absolue. Son programme de compliance n’était que de la poudre aux yeux. Et ce système, toujours selon James Cole, n’était pas le fruit de simples négligences ou de dérives individuelles, il a bien été planifié, codifié, et industrialisé11. » Et ces derniers termes expliquent en partie pourquoi Pierucci a été accusé de conspiration dans l’établissement de la corruption.

Si la responsabilité de l’entreprise est indéniable, les gouvernements français successifs ne sortent pas indemnes de ce livre, tant leur détermination dans la lutte contre la corruption peut être qualifiée de perfectible : « Certaines nations, comme la France, avaient même institué pour les entreprises un système officiel de déclaration de pots-de-vin auprès du ministère des Finances, afin de pouvoir les déduire de l’impôt sur les sociétés. Cette disposition perdura en France jusqu’en 200012. »

Or, M. Sapin, le même qui, dans un récent article du Monde du 02 février dernier13 s’insurge : « Je ne crois absolument pas à une volonté organisée de mettre en difficulté les entreprises françaises. Le principal reproche des Américains était : vous ne faites pas le boulot, nous devons le faire nous-mêmes, dès lors que c’est dans notre compétence. Les grands dossiers [de corruption] ont abouti à des décisions justifiées et plutôt proportionnées »et qui restera dans les mémoires comme l’auteur de la loi anticorruption Sapin II entrée en vigueur en juin 2017, a cependant été ministre de l’Économie et des Finances entre 1992 et 1993.

Pourtant, comme l’indique sa page Wikipedia, il avait déjà lutté contre la corruption : « De son passage à cette fonction, il laisse une loi dite « loi Sapin », promulguée en janvier 1993, luttant contre la corruption : les plafonds de dépense sont diminués, les moyens d’enquête sur les malversations renforcés, la transparence des comptes des partis accentuée, la corruption en matière de commande publique est combattue14. » Remarquons que cette loi anti corruption vise, d’après Wikipedia, essentiellement la commande publique.

C’est pour cela qu’on peut être réservé à la lecture de ses propos dans l’article du Monde précédemment cité qui ressemblent davantage à un plaidoyer pro domo.

Finalement, qu’est-ce qu’un manager ?

Au-delà des questions relatives à la justice US, la guerre économique et les liens entre ces deux éléments, le livre soulève implicitement la question des qualités d’un bon dirigeant d’entreprise. Quelles doivent-elles être, comment les remarque-t-on, sont-elles quantifiables, et que faire lorsqu’un dirigeant dérive ?

Si ce livre ne permet pas de répondre précisément à ces questions, il les illustre par le contre-exemple. En effet, au vu de la fin de l’histoire, P. Kron n’a pas du tout redressé Alstom puisqu’il l’a vendue à GE, et quand bien même selon une théorie récente, les Américains auraient été floués en achetant l’entreprise plus cher que sa valeur réelle, les qualités de capitaine d’industrie de P. Kron n’en ressortent pas grandies.

Le fait d’avoir laissé prospérer la corruption dans l’entreprise ne plaide pas en faveur de l’éthique des dirigeants de l’entreprise à l’époque relatée par Pierucci : « la réalité est brutale : un système généralisé de corruption a été maintenu à grande échelle au cœur de l’entreprise et sur tous les continents15. »

Quant au sort réservé par Alstom à Pierucci, si l’on peut comprendre que la justice US ait fait pression sur les dirigeants d’Alstom pour qu’ils ne le soutiennent pas ouvertement pendant son incarcération (peut-on laisser des conspirateurs continuer de se rencontrer alors que l’un est incarcéré ?) : « Pis encore, alors que plusieurs membres du comité exécutif sont venus en voyage d’affaires aux États-Unis, aucun n’a jugé utile de me rendre visite en prison. Quels salauds ! Ils ont préféré m’oublier et maintenant, ils me virent comme un malpropre16 » la persistance de leur silence une fois l’affaire réglée montre que l’humanité des dirigeants peut être un oxymore.

Pour conclure, et puisqu’il s’agit aussi d’une affaire judiciaire, le dernier mot revient à l’avocat de Pierucci lorsqu’il finit par lui confier son opinion sur le système judiciaire américain : « mais vous ne voulez toujours pas comprendre ? Bien sûr que le système n’est pas juste ! Mais vous n’avez pas d’autre choix que de vous faire avoir. Le tout c’est de savoir si vous voulez rester 10 ans en prison, ou bien sortir de détention17. »

——————————————————————————————————————–

1Sous l’Ancien Régime, une telle pratique des otages était monnaie courante. Ainsi fit François I° laissa ses fils en otage à Charles Quint pour garantir l’exécution du traité de Madrid.

2P 114.

3P 116,

4Alors qu’on trouve dans l’article 5-3 de la Convention européenne des droits de l’homme : « toute personne a le droit d’être jugée dans un délai raisonnable. »

5P 156.

6P 338.

7P 238.

8Le terme de « consultant » désigne des intermédiaires qui rétribuaient les personnes devant décider quel partenaire retenir dans un marché.

9P 53.

10P 54.

11P 281.

12P 152.

13Corruption et malversations : la justice américaine trop sévère avec les entreprises françaises ? Alstom, Airbus, BNP Paribas… Les États-Unis ferraillent régulièrement avec des groupes tricolores. Certains dénoncent un complot contre l’Hexagone, par Arnaud Leparmentier.

14Cf. fiche wikipedia.

15P 179.

16P 177.

17P 217.

Cet article Le piège américain est apparu en premier sur EchoRadar.eu.

Perspectives navales du canon électrique

Par Le marquis de Seignelay

La République populaire de Chine pourrait disposer d’ici 2025, au plus tard, d’un bâtiment de guerre – une nouvelle version du destroyer Type 055 est un candidat prometteur – portant un canon électromagnétique. Cette avancée décisive chinoise pourrait réveiller d’autres projets nationaux américain, français et russe. Ils ont en commun de prétendre à 200 km de portée et jusqu’à 390 pour celui américain. Ces canons peuvent amener le retour au combat tournoyant.

 

  • © Institut Saint Louis – DGA. Le démonstrateur Pegasus (Programme of an Electric Gun Arrangement to Study the Utilization in Systems) de canon électromagnétique.

Le canon électrique est une idée relativement ancienne qui peut être datée pour ses premières esquisses de la fin du XIXe siècle avant d’être reprise au siècle suivant en Norvège (1901), France (1914) et Allemagne (1940). Les problèmes de stockage de l’énergie rebutèrent les plus courageux.
 Il existe deux filières du canon électromagnétique :

  • la première appelée “canon de Gauss” ou canon magnétique (coilgun) utilise l’effet de répulsion magnétique produit par des bobines afin de propulser progressivement un obus ferromagnétique à l’intérieur du canon ;
  • la deuxième est le “canon électrique” (railgun) qui utilise la force de Laplace reposant sur la différence de potentiel développée par deux rails parallèles traversés par un champ électrique qui propulse un obus conducteur grâce au champ magnétique ainsi créé.

Citons également le canon électrothermique-chimique qui utilise “une cartouche de plasma pour déclencher l’allumage du matériau propulseur, en utilisant l’énergie électrique comme catalyseur de la réaction.” Il est notable qu’un investissement conjoint, à parts égales, entre la Defense Advanced Research Projects Agency (DARPA) et la Royal Armament Research and Development Establishment (RARDE) se matérialise à Kirkcudbright en Écosse. Ce projet américano-britannique est l’aboutissement d’une répartition de l’effort des Etats européens membres de l’OTAN (Independent European Programme Group (1976) dans les recherches militaires. A la confluence des programmes Euclid et Eurekâ, les Britanniques conduisent un groupe de travail sur les canons électromagnétiques. Plusieurs démonstrateurs (dont les Remgun I, II et III) sont construits à Kirkcudbright permettant d’atteindre au terme d’années de recherche jusqu’à 32 MJ et plus de 4,200 m.s-1.

Des travaux sont conduits aux Etats-Unis d’Amérique dans le cadre de la Strategic Defense Initiative (SDI ; ou Initiative de Défense Stratégique (IDS) en français). D’une manière ou d’une autre, les travaux menés en Ecosse à Kirkcudbright sont repris et poursuivis. L’Electro-Magnetic Laboratory Rail Gun mis en place par l’Office of Naval Research (US Navy) lance un programme de recherche et développement en deux phases :

  • la phase 1 évalue deux projets des industriels BAE Systems et General Atomics qui aboutissent tous les deux à deux démonstrateurs testés sous la responsabilité des Naval Research Laboratory (Washington D. C. ; US Navy et USMC) et NSWC-Dahlgren Division (Virginie) ;
  • la phase 2 débutant avec l’obtention par BAE Systems du contrat du développement du prototype en 2006 et surtout la mise à l’épreuve de celui-ci en 2012 au terme de laquelle il devait pouvoir être développé un système d’arme opérationnel à partir du prototype.

Malgré des résultats satisfaisants du prototype de BAES pouvant atteindre jusqu’à 32 MJ et une portée souhaitée de 220 nautiques (~ 407 km), les crédits budgétaires ne suivent plus en 2017, laissant les destroyers de la classe Zumwalt sans canons alors que leur architecture est aménagée autour d’une première batterie comportant deux pièces de 155 approvisionnée par 600 obus ensemble. Si le programme n’est pas abandonné, la première capacité opérationnelle est renvoyée à l’après 2020 et plus probablement à l’après-2025.

Il est remarquable que la conséquence du ralentissement des recherches américaines soit la production d’efforts de publicité de la part des autres protagonistes menant des recherches dans le domaine du canon électrique :

L’Institut Saint Louis (ISL ; tutelle de la Direction générale de l’armement (DGA) et du Bundesministerium der Verteidigung (BAAINBw) travaille sur le canon électrique depuis l’année 1987. Un premier démonstrateur baptisé Pegasus (Programme of an Electric Gun Arrangement to Study the Utilization in Systems) est achevé en 1998 après trois ans de travaux. Il atteint jusqu’à 10 MJ et plus de 2600 m.s-1 pour des projectiles d’environ 1 kg pour un calibre de 50 mm. Il semblerait que le NGL60 de 10 MJ prenne sa suite. Un autre canon électrique est essayée par l’ISL : RAFIRA (RApid Fire RAilgun) d’un calibre de 25 mm capable de tirer des salves de cinq tirs consécutifs. Il sert à valider le concept d’un canon électrique pour la lutte anti-aérienne sur des bâtiments de guerre. Par ailleurs, la maquette d’un système automoteur d’artillerie dont le tube est un canon électrique de 125 mm pour 200 km de portée a été présenté en 2017.

La Russie n’est pas en reste : l’Institut des Nations Unies pour les hautes températures de l’Académie des sciences de Russie a réussi à travers son canon électrique à propulser un projectile de 100 g jusqu’à 3000 m.s-1 pour une énergie de 4,8 MJ.

Un canon électrique bénéfice d’un effort de recherche “significatif” en République populaire de Chine depuis, au moins, l’année 2015 et il n’est pas inutile de rappeler que ce pays s’est singularisé par d’importantes recherches en artillerie “classique”, notamment certaines menées dans une optique anti-missile balistique. Début janvier 2018, sur le réseau social Weibo est publié des clichés du bâtiment de débarquement de char Haiyangshan (classe Type 072 III, 4800 tonnes) dont la tourelle bitube de 37 mm a été débarquée au profit d’une nouvelle installation sous bâches de laquelle pointe un canon. Des conteneurs sont disposés sur le pont. Et la porte d’étrave a été soudée.

Eu égard à l’apparence de cette tourelle portant vraisemblablement un canon électrique (installations annexes, etc), il s’agirait moins d’un prototype que d’un matériel de série, au pire pré-série. Il ne serait pas dans les habitudes chinoises de procéder aux essais à la mer d’un matériel non-destiné à entrer en service. Selon Henry Kenhmann, il s’agirait de s’attendre à une entrée en service dudit canon sous cinq à sept ans. L’important volume de cette tourelle – près du double de celui d’un H/PJ-45 de 130 mm – la réserverait à des bâtiments de fort tonnage réaménagé (un “Type 055B” (illustration numérique ci-dessus) ?) ou spécialement conçu pour l’accueillir.

Sauf grossière erreur de notre part, il n’y a pas eu de filière “coilgun“. Depuis 2018, il est et sera intéressant d’observer les réactions du “Railgun club” (Allemagne, Chine, Etats-Unis d’Amérique, France, Royaume-Unie et Russie) qui compte les membres du conseil de sécurité des Nations unies, du club nucléaire, des SNLE et SNA – l’Allemagne mise à part. Le railgun est une autre perspective des armes hypersoniques (Mach 5 ou plus) qui a ceci de particulier que ce n’est pas un missile aérobie ou balistique mais un matériel d’artillerie tirant des obus inertes détruisant leur cible par la seule force cinétique. Les railgun relèvent également des armes à énergie dirigée et sont remarquable à ce deuxième titre par le fait qu’elles entreront en service peut être plus rapidement que les lasers dans diverses applications car les défis technologiques semblent moins nombreux.

Sur le plan naval se dégage deux applications qui vont se révéler complémentaire : de grands canons électriques contre les buts de surface (Mer plus Terre) et de plus petits contre les cibles évoluant au-dessus de la surface. Voire, pourquoi pas, des applications contre mobiles spatiaux évoluant dans la première partie (environ 0 – 300 km) de l’orbite terrestre basse (0 – 2000 km).

Ces deux premières applications sont complémentaires puisque le missile aérobie est mis en concurrence avec l’obus du canon électrique dans la destruction des cibles fixes et que l’application pour la défense aérienne prétend soustraire le bâtiment de guerre aux munitions aérobies guidées actuelles. Par voie de conséquence, le canon électrique postule comme moyen anti-navire principal vis-à-vis, surtout, des missiles anti-navires subsoniques, et sera mis en concurrence avec les missiles hypersoniques dans ce domaine de lutte. Contre les cibles fixes à terre, l’écart circulaire probable  sera déterminant dans l’emploi opérationnel du canon électrique vis-à-vis des missiles de croisière qui peuvent être retenus presque jusqu’au dernier moment contre les cibles désignés.

Par contre, l’emploi du canon électrique contre cibles mobiles ne semble pas envisageable avant l’après 2030, voire 2035 car ce sont des obus inertes et il s’agirait que le moindre senseur embarqué survive au tir. La puissance aérienne demeurera dominante dans l’emploi rhéostatique des feux. Aussi, avec des portées considérées de 100 à 400 km, le canon électrique obligera la plateforme navale à pouvoir s’appuyer sur une capacité aérienne mise en œuvre en propre ou déportée depuis un autre bâtiment ou la terre afin de trouver et pister ses cibles. Le canon électrique reprendrait dans un premier temps les modes d’emploi opérationnel des missiles anti-navires.

En plaçant la focale à l’échelle de la plateforme navale, le premier canon électrique chinois a un volume de près du double de celui d’une tourelle H/PJ-45 de 130 mm. Cela n’interdira pas son intégration sur des bâtiments de la taille d’une corvette (plus ou moins 1500 tonnes) mais sera source de pressions supplémentaires sur l’architecture et poussant à une polyvalence moindre des corvettes à tonnage égal. Le trait le plus saillant de l’introduction du canon électrique est le nombre de coups disponibles qui se compteront par une, deux ou trois centaines par tube. Ce qui amènera à s’intéresser obligatoirement à cadence et au volume de la salve. Les frégates polyvalentes (4 à 5000 tonnes) sont d’ores et déjà poussée vers les 6 à 8000 tonnes. Le canon électrique exigera son augmentation unitaire du tonnage en raison notamment d’une multiplication du nombre de tourelles.

Plus la concurrence sera rude avec les missiles aérobies, plus le canon électrique marquera des points alors plus les plateformes de 9 à 12 000 tonnes deviendront courantes. En contre-partie, il ne serait pas étonnant que la batterie de missiles, peut-être d’un moindre volume, bénéficie d’une simplicité accrue dans les objectifs opérationnels recherchés (défense aérienne à courte et très courte portée confiée à nouveau aux canons, salves contre cibles fixes par canons, etc) permettant le développement de munitions plus polyvalentes et plus endurantes donc portant au-delà des 200 à 400 km, renforçant une tendance naissance à faire évoluer le paradigme du lancement vertical vers des sabords toujours standardisés mais d’un diamètre plus important.

Quelques bâtiments de guerre sont d’ores et déjà prêt à accueillir le canon électrique : les trois destroyers de la classe Zumwalt avec en toile de fond le remplaçant des croiseurs de la classe Ticonderoga dans l’US Navy, le projet de destroyer Lider en Russie repoussé à l’après-2025, les destroyers Type 055 en Chine dont une variante spécifique est probable tout comme une refonte des premières unités. Les unités navales portant le Principal Anti Air Missile System (PAAMS) que sont les classes Andrea Doria (Italie) , Forbin (France) et les Type 45 (Royaume-Uni). L’Italie projette même la construction de deux croiseurs de 10 000 tonnes.

Cet article Perspectives navales du canon électrique est apparu en premier sur EchoRadar.eu.

L’Union Européenne, prototype de dictature post-démocratique

Par EchoRadar Blog

De prime abord, l’intitulé du texte qui suit serait de nature à dispenser de sa lecture tant la question qu’il soulève paraît incongrue. Pour la majorité des observateurs peu avertis ou  limitant leur jugement aux apparences, l’Union Européenne ne saurait être qualifiée de dictature. Une reconnaissance faciale de son régime politique ne montre en effet aucun des stigmates qui signalent une essence dictatoriale : ni parti unique, ni corps de doctrine formalisé, ni police politique, ni office central de propagande, ni autocrate omnipotent, ni embrigadement de masse, ni théatralisation du pouvoir, mais au contraire : institutions pluralistes, liberté d’opinion et de réunion, procédures démocratiques, revendication de l’état de droit, etc.

Conjuration de Catilina

Récent et encore peu exploré, le concept de post démocratie laisse entendre un régime politique qui traduirait l’achèvement et le dépassement d’une période bi séculaire d’émergence et de développement de la démocratie (environ de 1800 à 2000).Ce  questionnement a aujourd’hui pour cadre obligé l’Europe elle-même en tant que matrice de toutes les idéologies et de la quasi-totalité des régimes politiques répertoriés dans l’Histoire contemporaine. S’agissant de l’Union Européenne, le sujet appartient à l’actualité dans la mesure où s’y déroule, depuis « les crises », un débat public sur le besoin de son « perfectionnement démocratique », signifiant à la fois un présupposé de démocratie existante, et son imperfection relative. Ce débat a cependant été instantanément orienté et verrouillé  par le postulat du renforcement de l’intégration européenne, présenté comme le moyen et la  condition de ce perfectionnement. C’est notamment la thèse du philosophe allemand Jürgen Habermas, affirmant en corollaire que la France a vocation à l’impulser en raison de son aptitude aux conceptions idéalistes. S’y greffe le thème devenu récurrent d’une présumée « crise de l’Europe », exploité pour maintenir l’opinion publique dans l’angoisse des dangers menaçant « la construction européenne », et donc justifiant l’exigence d’un nouveau « saut démocratique ».

Il n’existe aujourd’hui aucune définition globale et cohérente de ce qu’est un régime post démocratique qualifiable de dictatorial, étant considéré que, dans l’Union européenne, aucun

retour aux formes historiques de dictatures ne paraît concevable. Par contre, cette Union reste en quelque sorte « un objet politique non identifié » non comparable avec un quelconque autre type de régime dans le temps et l’espace. C’est ce caractère relativement insaisissable qui explique la difficulté d’une approche critique de cet objet. Cette difficulté est aggravée par l’extrême complexité de son organisation et de son fonctionnement, la rhétorique ouatée qui l’enveloppe, dans un type de novlangue sans aspérités, visant l’immunité par un évitement méthodique de possibles angles d’attaque.

Le discours de et sur l’Union Européenne est de nature unanimiste au sens où ses principes affichés et ses finalités proclamées induiraient une adhésion spontanée à des valeurs présumées universelles et donc intangibles : la paix, la liberté, la justice, la prospérité. Dans ce cadre, tant à son échelon plurinational qu’à celui de ses membres, l’Union s’approprie ces principes pour les amalgamer à l’exemplarité revendiquée de son régime démocratique. Pour le besoin ultérieur de l’analyse, il est utile de rappeler que le communisme soviétique, dictatorial par essence, se réclamait de ces mêmes valeurs, bien que dans un registre argumentaire totalement différent.

Une théorie générale d’une dictature post démocratique entendrait l’instauration d’un régime appuyé sur un même principe de coercition globale que celui d’une dictature, tout en ménageant les formes et apparences de la démocratie. Ce principe repose par nature sur : une idéologie dominante, un appareil de commandement coercitif, un système économique unique et obligatoire, l’asservissement du pouvoir politique à ce système, un dispositif de répression efficace. D’autre part, il est permis de qualifier de dictature un régime qui  pratique une propagande d’excommunication de ses contestataires, n’accepte aucune alternative à son modèle, et brise toute tentative d’y échapper. Cette théorie a pour corollaire naturel le concept de totalitarisme, indissociable de celui de dictature selon un degré d’emprise à comparer avec celui de ses précédents historiques. C’est en effet sa conception totalitaire qui assure la cohérence et l’homogénéité de tout système dictatorial. Il est intéressant dès lors de démontrer que l’Union Européenne reproduit ce schéma d’ensemble.

S’agissant de la nature du système européen, des analystes d’origine diverse évoquent le totalitarisme feutré ou « soft » qui le régit à mesure que progressent les étapes de son intégration. Cependant, la plupart des critiques à son encontre restent parcellaires et se situent à la périphérie du bloc central consensuel qui assure sa stabilité relative. Sont généralement relevés : la fragilité de la zone euro, l’évolution divergente des économies, l’opacité des procédures décisionnaires, le chômage endémique, le dumping fiscal  et social, toutes ces difficultés ne pouvant virtuellement être résolues que par un surcroît d’intégration fédérale et de centralisation institutionnelle.

Depuis la fin du 20ème siècle, la quasi totalité des pays du monde fait l’objet d’audits transversaux par de grands cabinets multidisciplinaires ou d’organismes internationaux tels que la Banque Mondiale, le FMI, l’OCDE. Sont passés en revue : les problèmes de développement et d’endettement, la «gouvernance», les risques politiques, les questions sociales, les perspectives à court et long terme. Or, l’Union Européenne, en tant qu’entité géopolitique globale, est seule au monde à échapper à ce type d’audit. A ce titre, le discours annuel sur « l’état de l’Union » (par le Président de la Commission de Bruxelles), fait de critiques de surface et d’exhortations conventionnelles, ne saurait être considéré comme un exercice du niveau requis.

La principale carence des analyses de l’Union Européenne provient, soit de leur réduction  aux apparences, soit à des constats de dysfonctionnements déclarés réductibles par une réforme préservant le cadre existant. Cette dernière optique ignore le constat expérimental qu’un régime dictatorial à tendance totalitaire n’est pas réformable, sous peine de renier sa propre essence et courir le risque de s’écrouler. Il est donc imparti à l’analyse, dans une approche systémique, de considérer l’Union Européenne ab initio comme un régime spécifique de pouvoir, de coercition et de contrôle d’une particulière intelligence de conception. Les faux semblants et simulacres dont il use en effet pour masquer sa véritable nature, exigent une grille de lecture partant de ses fonctionnalités opérationnelles, et non des catégories de droit démocratiques dont il prétend relever. Ci-après :

L’ENCADREMENT  IDEOLOGIQUE

Contrairement à l’apparence et à rebours de sa rhétorique officielle, l’Union Européenne est

dominée par une idéologie homogène qui appartient au répertoire général des idéologies. Sa force initiale vient de la négation par principe de sa propre existence. Il n’existe en effet, de cette idéologie, aucun corps doctrinal, aucun bréviaire formalisé, enseigné et diffusé à l’usage des foules, ce qui établit une différence majeure avec toute autre idéologie. L’atout opérationnel de cette force est d’abord sa capacité d’évitement dans les confrontations du champ intellectuel, qui permet de circonscrire la critique à des cercles de faible influence sur les masses. 

L’encadrement idéologique qui régit l’Union s’opère à plusieurs niveaux. Sa base est son immersion dans le gigantesque arsenal juridique du droit européen, qui étend son emprise dans tout l’espace normatif de la zone, en contrôlant, évinçant, ou supplantant le droit originaire institué des Etats dans la quasi totalité des champs du droit. L’Union Européenne est une catégorie politique spécifique de transposition intégrale de son idéologie en termes juridiques. Cet amalgame permet d’effacer la dualité politique entre d’un côté la sphère des conceptions, de l’autre celle de leur application, et donc de stériliser la critique sur la nature de son régime. L’intrusion du droit européen au coeur des droits nationaux est donc telle que sa mise en cause idéologique expose automatiquement au délit d’infraction juridique. Tout débat sur la pertinence intrinsèque d’une telle contestation étant ipso facto expulsé, son caractère d’infraction est de plein droit transposable sur le terrain judiciaire, c’est-à-dire celui d’une condamnation assortie de sanction. Traduit en  termes simplifiés, ce schéma signifie que, dans l’Union Européenne, l’idéologie a force de loi.

A titre de rappel, cette idéologie  a été globalement définie, malgré la négation de sa nature par elle-même, comme le néolibéralisme ou l’ultralibéralisme. Outre sa judiciarisation, son autre atout  est de masquer son potentiel d’imprégnation par la dispersion polycentrique de sa propagande sur une multitude de vecteurs d’influence. Autonomes et sans lien de subordination formel aux organes du pouvoir, ces vecteurs offrent une apparence de pluralité conforme aux principes démocratiques, mais démentie par l’uniformité de leur discours concentré dans ce qu’on appelle communément  « la pensée unique », celle du néolibéralisme.  

Dans ce cadre, la prise de contrôle et le formatage de l’opinion publique, entreprise de long terme, est un phénomène touffu difficile à cerner. Il entremêle à la fois l’action directe et indirecte des pouvoirs institués, et un processus de contamination par conformisme, faiblesse intellectuelle et perte de sens critique. Une majorité de media, think tanks, associations, groupes d’influence, concourt ainsi à l’objectif par le contrôle du capital, la subvention de complaisance, l’endogamie des réseaux et nominations, etc.                                               

Un tour de force de la propagande de l’Union Européenne est en particulier d’avoir réalisé la fusion entre le principe intrinsèque de sa construction, et le dogme du néolibéralisme qui le dirige et l’emprisonne. S’y greffe en outre, par son impact de masse, la transmutation du prosélytisme européiste en une nouvelle religion séculière – nimbée de pensée magique – substituable à la déchristianisation rampante de l’Europe. En dernier ressort, cette dérive religionnaire s’accompagne logiquement d’une rhétorique de culpabilisation collective des individus, groupes ou nations réfractaires à son credo.

En finalité, il apparaît que l’Union Européenne est régie par un type original de dictature

idéologique dont le modèle, bien que non déclaré, est néanmoins stipulé officiellement « sans alternative » par ses sectateurs. Sa capacité de prégnance procède à la fois de sa puissance juridique,de la fluidité de sa diffusion, et de la fiction « libérale » d’une contestation tolérée, mais combattue par le dénigrement et l’excommunication, et non par argumentaire en raison même de son principe d’évitement.

LA METHODE ANXIOGENE DE CONTROLE DE L’ESPRIT PUBLIC

L’encadrement idéologique des populations européennes et la contrainte juridique qui l’organise ne permettent pas, en tant que tels, de maintenir leur état psychologique sous un contrôle suffisant. A défaut d’organes centraux de propagande et de bréviaire doctrinal formalisé, les autorités de l’Union cherchent donc à sécuriser leurs décisions par un consensus de type hypnotique propre à piloter l’opinion publique dans les processus électoraux, lui faire ingérer ses manœuvres de diversion, et à mobiliser son indignation contre les dissidences.

La crise financière internationale déclenchée en 2008 a cependant fourni aux instances européennes l’opportunité d’utiliser un nouveau mode accélérateur d’intégration de l’Union. Ce mode consiste à la fois à tirer parti de cette crise pour exercer des coercitions sans rapport avec son traitement, et à travestir les crises locales en crises globales, donc de nature à menacer la survie de l’Union. Transformer la responsabilité des marchés financiers dans la crise financière de 2008 en culpabilité des Etats nationaux, agiter le spectre d’une crise systémique à partir du seul cadre de crise grec ou portugais, ont permis des avancées stratégiques majeures dans la marche à l’intégration fédérale européenne.( cf.  texte echoradar « De la crise comme instrument » 02/2018).

En marge du caractère coercitif de ce processus, les autorités de l’Union et leurs exécutants nationaux ont su adopter les anciennes méthodes soviétiques de stimulation / intimidation / mobilisation qu’on appelait « agitprop ». Il s’agit en l’occurrence, pour progresser vers l’objectif, de créer le climat anxiogène de tétanisation collective propice à une extorsion larvée du consentement. A ce titre, un travail d’historien devrait restituer à l’avenir le florilège hallucinatoire d’imprécations, de procès d’inquisition, de prédictions de cataclysme, qui aura entouré « la crise de la dette », la « crise de l’Euro », la « crise de l’Europe », la dissidence de la Grèce, le Brexit, etc. La fabrication d’un tel climat s’assimile clairement aux procédés utilisés jadis par les régimes totalitaires en Europe. Dans ce même registre, les formes récentes d’irrédentisme limité de pays tels que la Hongrie, la Pologne et l’Italie servent déjà de prétexte à de nouvelles invectives, mises en accusation et autres promesses de chaos.         

LA STRUCTURE DU COMMANDEMENT CENTRAL DE LA ZONE

Bien qu’étrangère au cadre du droit politique, la notion de commandement appliquée à la « gouvernance » de l’Union Européenne est un mode opératoire utile pour déstabiliser, à l’usage du profane, l’idée, l’image, et le préjugé selon lesquels le système européen est régi par la démocratie. La complexité extrême et sans équivalent de ce système et le syndrome d’illusion collective qu’il entretient sur sa nature, sont  toutefois propres à dissuader une telle démarche. Derrière la façade juridique des traités, des institutions, et des procédures, d’autres concepts et approches sont donc nécessaires pour déconstruire la mythologie démocratique de l’Union, à savoir : l’expulsion du principe de souveraineté, l’extorsion du consentement, les simulacres décisionnaires, la cooptation endogène, l’hyperinflation normative, la prohibition du polycentrisme, la fausse égalité statutaire, l’intégration organique du lobbyisme, l’interdiction des transactions latérales, les votes par majorités de minorités, l’ingénierie de répression des dissidences, l’opacité des finalité ultimes…

La notion ordinaire du commandement au sens opérationnel définit deux pôles : celui des décisions et directives, et celui de leur exécution et application. C’est la réalité d’une telle  « verticale du pouvoir » qui fait fonctionner de facto le système européen, voilée par le tourniquet de ses procédures consultatives ou pseudo décisionnaires. Elle ne correspond à aucun des principes de droit de la démocratie  que sont : la séparation des pouvoirs, le respect de la souveraineté populaire, le droit à l’alternance politique, la liberté de choisir le régime économique, l’absence d’encadrement idéologique. Le corps institutionnel européen est au contraire un système clos dont la rotation sur lui-même crée l’illusion de sa légitimation démocratique par la régularité de son fonctionnement juridique.  

Un moyen pédagogique de neutraliser un tel préjugé est la perception des analogies fonctionnelles entre le système européen et l’ex-système soviétique. En URSS, la structure du pouvoir est organisée par 1) un organe originaire de commandement et de contrôle : le Bureau Politique du Comité Central du Parti Communiste 2) un organe législatif élu à fonction exécutive déléguée ( le Soviet Suprême) dont les votes préparés par un Présidium sont transmis à 3) un organe d’exécution opérationnelle ( le Conseil des Ministres ), lequel met en forme juridico- administrative  les ordres et directives transmis depuis le sommet 4) l’intégration à tous échelons du Parti qui garantit la conformité idéologique et politique des votes et actes. Le  schéma de fonctionnement de l’appareil institutionnel européen est une sorte de décalque de ce modèle, selon l’articulation succinctement décrite ci-après :

–  La Commission Européenne (non élue, cooptée, non responsable) en tant qu’organe originaire du commandement et du contrôle, détient de plein droit le pouvoir exclusif de l’initiative en toutes matières, par la création et l’exploitation de la masse colossale des textes (plusieurs dizaines de milliers de pages) qui hiérarchisent les contraintes exercées sur les Etats  membres de l’Union (traités, directives, règlements, avertissements, etc.).Ce pouvoir se traduit concrètement  par 1) la préparation des travaux nécessaires aux débats et votes du Parlement Européen 2) la définition, par ce biais, des ordres du jour du Conseil des Ministres européens (spécialisés par domaine), lequel est la courroie de transmission entre la Commission et les parlements nationaux chargés de ratifier (« transposer ») ses directives habillées en « propositions ».

–  Parlement Européen et Conseil des Ministres doivent donc être considérés de facto comme des organes d’exécution de la Commission, mais dans un jeu de rôles et d’intermédiation permettant d’accréditer l’idée selon laquelle ce Conseil serait le pouvoir exécutif d’un pouvoir législatif qui serait le Parlement. La procédure habile de « co-décision » entre Parlement et Commission est un simulacre qui  permet d’occulter la relégation statutaire du premier à son rôle consultatif et non législatif. Dans la réalité, le travail des commissions  parlementaires sur les textes transmis par la Commission organise un strict encadrement des votes tout en bloquant les initiatives non contrôlées. Appelés « avis conformes », ces votes entérinant les directives sont métamorphosés en « lois européennes », puis transposées en lois nationales, selon un processus exactement inverse à la formation démocratique des lois.  

–  La Commission Européenne étant seule à maîtriser intégralement la matière juridique qui  l’autorise à orienter et encadrer l’activité du Conseil des Ministres, ce dernier ne peut donc déroger à aucune clause, directive ou règle en vigueur, ni à celles en préparation puisqu’elles s’extrapolent légalement de dispositions antérieures. Ce Conseil n’a dès lors aucun pouvoir de décision originaire. Quant au Conseil Européen (des chefs d’Etat et de gouvernement), réuni trimestriellement et mis en scène comme un exécutif, il ne conserve qu’un  pouvoir restreint au champ encore non couvert par la Commission (politique migratoire, domaine militaire, sanctions contre pays tiers…).

L’ensemble de ce dispositif permet de verrouiller efficacement tout processus décisionnaire   initié par la Commission Européenne. Il garantit en permanence sa conformité aux dogmes idéologiques immergés dans le corpus juridique européen. En termes de fonctionnalité, cette Commission est l’équivalent du Bureau Politique du Comité Central du Parti Communiste de l’Union Soviétique.

 NB : A la perfection légaliste de ce schéma, il convient néanmoins d’ajouter un cadre d’action occulte totalement illégal, qui est l’incorporation organique et prouvée des lobbies économiques aux prises de décision de la Commission.

L’EXTORSION DU CONSENTEMENT PAR SIMULACRES DE DEMOCRATIE

Principe fondamental du droit, le consentement signifie en théorie une adhésion pleine et entière, en connaissance des éléments qui le légitiment, et des conséquences qu’il entraîne.  A ce titre, en vue de l’obtenir, le système européen utilise des procédés combinant une grande habileté procédurale, des tactiques dolosives, et la complicité des exécutants nationaux pour occulter les effets induits à terme de ses directives. A tous les étages et à toutes les phases du processus décisionnaire européen, le consentement n’est ainsi jamais formellement éliminé, mais il est au mieux biaisé, ou vicié, sinon vidé de sa substance.

La destruction quasi-totale de la souveraineté nationale des Etats membres de l’Union Européenne étant un fait établi, l’intérêt est de démonter les mécanismes, voire les coups de force juridiques qui ont permis d’atteindre ce résultat. Le socle de la démocratie étant par ailleurs indiscutablement la souveraineté, cette Union est sujette à une double dynamique de liquidation de ses bases démocratiques nationales, et de progression pseudo démocratique de son intégration. Son caractère dictatorial réel reste néanmoins peu visible à travers le mode fractionnaire de son élaboration.

La technique d’avancement de la « construction européenne » est celle de la « marche en avant » qui implique l’exclusion de toute correction de trajectoire, de tout écart ou recul, de toute voie polycentrée. A défaut d’un audit externe complété par un travail d’historien, on peut retracer sommairement les étapes et méthodes de la dérive antidémocratique de l’Union selon le déroulement ci-après :

–  Le processus a commencé dans la préparation du Traité de Maastricht (1992) qui a consacré, par «l’Acte Unique», le principe du marché universel sans frontières déguisé en Marché Unique Européen (abandon de la préférence communautaire, de la protection douanière extérieure, de l’autosuffisance alimentaire, dérégulation financière généralisée, introduction du monopole de l’Euro). Les signataires nationaux encore de bonne foi de ce traité n’ont pas évalué les conséquences à long terme de cette stratégie.

–  Ce processus s’est accéléré à la chute du bloc soviétique (1989-1991) dans la phase combinée dite d’approfondissement et d’élargissement de l’Union. D’abord avec deux traités complémentaires passés inaperçus des masses (Amsterdam 1999, Nice 2001), qui ont renforcé la centralisation de ce processus par l’extension de son champ « communautaire » ; ensuite, avec l’intégration des pays ex-communistes dont les nouvelles constitutions nationales ont été formatées par la Commission Européenne, et sans que les populations de ces pays aient pu entrevoir le transfert de leur centre de commandement de Moscou à Bruxelles.Simultanément, leur double incorporation obligatoire dans le  binôme UE / OTAN visait, en rupture avec une promesse antérieurement affichée, une coupure stratégique avec la Russie ex-URSS.

–  Le rejet du Traité Constitutionnel de 2005 par référendum dans plusieurs pays, dont la France, a aussitôt été annulé par un coup de force le rétablissant sous le nom du Traité de Lisbonne, imposé sous une énorme pression politique, juridique et médiatique. Ce traité poursuit juridiquement le démantèlement de la souveraineté nationale, en dépouillant les Etats de la plupart de leurs prérogatives régaliennes (politiques monétaire, budgétaire, financière, commerciale, industrielle).Le traité budgétaire (TSCG) de 2012 rend opérationnelle, quant à lui, l’obligation de soumettre les budgets nationaux à l’autorisation préalable de la Commission Européenne, sans que les parlements ayant ratifié cet acte de forfaiture en aient reçu le mandat de leurs électeurs.

L’accumulation des contraintes et des interdictions imposées tant aux Etats qu’aux acteurs économiques et aux populations, entrave en particulier la perception de trois instruments fondamentaux de coercition et de contrôle : 1) la dépendance des finances publiques du bon vouloir des marchés financiers, organisée par l’Euro 2) le principe d’indivisibilité obligatoire des « 4 libertés de circulation » (capitaux, services, marchandises, personnes) dont le défaut de toute légitimation juridique constitue un coup de force sans précédent ni équivalent mondial.3) l’interdiction faite aux Etats de négocier tout accord commercial avec un pays tiers en vertu du mandat exclusif extorqué par la Commission Européenne l’autorisant à développer des accords de libre échange planétaires aux conséquences incalculables.

Sur un plan opérationnel, l’extorsion du consentement revêt des formes différenciées. Les principales sont le simulacre de la séparation des pouvoirs, la technique du glissement par abus de procédure, l’exploitation de l’incapacité des acteurs enrôlés à maîtriser en totalité le droit européen, et à mesurer les enjeux des décisions prises. Exemples illustratifs : le traité de libre-échange avec le Canada (CETA), entré en vigueur « provisoirement » (sic) le 21/9/ 2017 avant sa ratification ultérieure exigée des parlements nationaux. Même procédé de mise devant le fait accompli pour le traité avec le Japon signé en décembre 2018 pour entrer en vigueur dès février 2019.

Au plan de la philosophie du droit, transformer et transposer en lois nationales des décisions de nature réglementaire édictées par une autorité extérieure et supranationale non élue, est un mécanisme de dévoiement de l’esprit des lois tel qu’il s’apparente à une forfaiture. Nul Etat ne pouvant exciper de sa constitution nationale le droit de s’y opposer, ce coup de force juridique illustre l’état de dégradation avancée de la démocratie en Europe.

LE DISPOSITIF DE REPRESSION DES DISSIDENCES

Ayant banni de ses « valeurs fondatrices » le concept de puissance par exigence de pacifisme,

l’Union Européenne n’en possède pas moins une force dirigée essentiellement vers et contre

ses membres, à défaut de la consacrer à la défense de ses intérêts stratégiques. La forme extrême d’une dissidence étant la volonté de sortir de l’Union, l’exemple britannique de la stratégie de mise en échec du BREXIT illustre la réalité de cette force, c’est-à-dire le leurre de l’article 50 du Traité de Lisbonne qui ménage le droit fictif de cette sortie (cf : texte echoradar « l’Union Européenne est-elle une prison à perpétuité ? » 3/2016).

La subversion et la submersion des droits nationaux par le droit européen se traduisent par un principe d’uniformisation totale, une intolérance à toute variante autonome, une interdiction de faire valoir un intérêt national quelconque. Elles sont devenues la matrice d’une police juridico-financière chargée de détecter et réprimer les infractions aux textes. Cette police est formée d’un triumvirat associant 1) la Commission Européenne dans son rôle de traque et d’impulsion  2) le Conseil Européen comme organe d’accusation publique collective et mutuelle sur la base de l’article 7 du Traité 3) la Cour de Justice Européenne qui prononce les condamnations politiques et les sanctions financières édictées par les textes.                             

Dans ce cadre, c’est un sujet de recherche spécifique que d’inventorier les arrêts de cette Cour qui tendent 1) à supplanter des jugements rendus par les juridictions nationales 2) à empiéter sur les domaines de droit encore réservés aux Etats 3) à développer une jurisprudence extensive et intrusive s’érigeant en créatrice de droit. Cette suractivité a pour corollaire, par ailleurs, de ruiner progressivement le principe de subsidiarité en effaçant la frontière entre droit national et droit européen. Le triumvirat évoqué peut donc s’apparenter à une forme de police politique, dès lors 1) que ses fonctions faussement séparées sont simultanément celles de contrôle, de juge, d’exécution, et d’extension de ses propres prérogatives 2) que la matière délictuelle ne porte aucun préjudice à quiconque, et relève seulement de l’idéologie immergée dans les textes. Exemples : la condamnation de la Pologne et de la Hongrie au titre de leurs lois de souveraineté résiduelle concernant leurs cours constitutionnelles, les attributions de leurs banques centrales, ou leurs politiques migratoires.

Efficace dans son exercice courant, ce contrôle juridique répressif est inapte à réprimer une dissidence majeure, en particulier un résultat de suffrages, au sein des Etats membres, brisant la règle politique tacite, mais impérative, des « alternances sans alternative ». Cependant, « la crise de la dette » grecque ayant permis d’expérimenter l’Euro dans sa fonction stratégique de coercition politique, le système européen a réussi à opérer en Grèce (par l’organe ad hoc dénommé Troïka) un authentique coup d’Etat méritant de figurer à l’anthologie du genre. La dissidence du pays a été écrasée selon modalités ci-après :

–  asphyxie financière de l’Etat grec et des banques grecques par la Banque Centrale Européenne (BCE) en coordination avec les marchands internationaux de capitaux ;

–  neutralisation  du résultat des élections  législatives de janvier 2015 et du référendum de juillet 2015, traités comme nuls et non avenus ;

–  instauration d’une subordination complète du gouvernement grec aux autorités formant la Troïka ;

–  intégration sans base légale du Fonds Monétaire International (FMI) à ce pôle de commandement, en tant qu’expert en « ajustements structurels » ;   

–  refonte intégrale obligatoire des politiques grecques en toutes matières : salaires, retraites, sécurité sociale, fiscalité, droit du travail, statut des infrastructures, propriété publique, régime du patrimoine, etc.

–  maintien du gouvernement grec régulièrement élu pour lui extorquer et lui faire

ratifier à posteriori toutes les décisions de la Troïka, afin de respecter le formalisme

juridique dont l’Union Européenne se targue comme preuve de démocratie ;

–  exclusion totale du Parlement Européen dans ce cadre d’opérations.

Forme extrême de répression, le coup d’Etat opéré en Grèce a d’abord valeur d’avertissement pour d’autres tentations de dissidence du même ordre qui sortiraient du cadre imposé des alternances électorales excluant toute alternative politique. Depuis 2012, le traité budgétaire TSCG parachève le démantèlement de la souveraineté financière des Etats par une nouvelle forme de coercition légale tenant à leur obligation de réduire tout déficit budgétaire à 0,5% du PIB sans considération d’aucune spécificité nationale. Dans ce cadre, la Commission Européenne utilise sa procédure d’alerte publique (article 3) pour activer les avis réservés ou négatifs des agences de notation financière, auxquels répondent les marchands internationaux de capitaux par une augmentation de leurs taux d’emprunts, et ainsi placer l’Etat cible sous la pression qui le fera céder. Cette méthode a constamment démontré son efficacité contre plusieurs pays ; elle illustre toutefois un syndrome de fossilisation de la dictature européenne dès lors que sa fonction coercitive prévaut sur la pertinence économique de son objet.      

En concluant la thématique sur le prototype dictatorial transnational de l’Union Européenne, il faut comprendre que son essence procède d’abord d’une logique de système. Cette logique s’articule en trois niveaux entrecroisés : d’abord, la démocratie « réelle » a été écartée dès l’origine comme étant un  frein à la « construction européenne » (cf. « la méthode Jean Monnet ») ;  ensuite, par réaction mécanique d’autodéfense, ce système doit combattre les résistances nationales à son intégration forcée ; enfin, il est naturellement propulsé dans une fuite en avant par le développement peu contrôlable de ses contradictions internes. En marge de ce constat, doit être rappelé qu’aucun régime dictatorial n’est jamais parvenu à se réformer par sa propre édulcoration. Son avenir à moyen ou long terme pourrait donc être une implosion comparable à celle du bloc soviétique.

Michel Ruch est diplômé de l’IEP de Strasbourg et de l’Institut des hautes études européennes. Il a publié L’Empire attaque : Essai sur Le système de domination américain, aux éditions Amalthée.

Les vues et les opinions exprimées dans cet article sont celles de leur auteur et ne reflètent pas nécessairement les vues ou les opinions d’Echo RadaR.

Cet article L’Union Européenne, prototype de dictature post-démocratique est apparu en premier sur EchoRadar.eu.

Gilets jaunes + numérique = gilets jaunes numériques

Par Informatiques Orphelines

Le mouvement des gilets jaunes (remarquons que personne ne le qualifie de crise, alors qu’il dure depuis 10 semaines et ne montre pas de signes d’essoufflement autres que ceux répétés il y a peu par le gouvernement) est diversement apprécié et analysé. Mouvement insurrectionnel, révolte contre les institutions ou preuve d’un ras-le-bol généralisé, les interprétations divergent, selon qu’on en est partisan ou pas.

Pour certains, il fut même la manifestation d’une peur devant le changement, voire devant les ruptures à venir.

Le constat de son apparition quasi concomitante avec la numérisation de notre société peut susciter des questions dont celle, simple à première vue, de savoir si on peut manager à l’ère numérique comme avant. Un précédent billet donnait un avis sur la question.

Source

D’autre part, et bien qu’il ne s’agisse pas de comparer les révolutions de couleur et les printemps de jadis avec l’automne jaune qu’a vécu la France, l’utilisation des réseaux sociaux est un point commun de ces mouvements, tant dans l’expression des revendications que dans leur mise à profit tactique (intox sur le lieu de départ de la manifestation notamment lors de l’acte VI).

Cette utilisation du numérique est caractéristique de notre époque où la numérisation est parfois montrée comme le seul avenir possible de l’humanité. En contrepartie, des travaux sur cette utilisation par le mouvement des gilets jaunes tendent à faire croire qu’ils dévoient le numérique pour y déverser leur haine, répandre des fake news à tire-larigot et ainsi faire le lit de l’extrême droite.

Cette révolte contre le système établi dans le monde réel incite aussi à se demander si le monde numérique ne risque pas de voir apparaître, à un horizon qu’il serait bien téméraire d’annoncer, un soulèvement similaire à celui des gilets jaunes et comment les dirigeants d’entreprises numériques (ou se prétendant telles) pourraient le précéder.

Gilets jaunes

Un mouvement inattendu

La plupart des observateurs et commentateurs (politologues, journalistes) ont qualifié ce mouvement d’inattendu. On peut néanmoins penser qu’il n’était inattendu que pour eux, et que les vraies questions étaient de savoir à quel moment l’exaspération allait se manifester et de quelle manière.

Notons aussi que, comme c’est l’usage une fois que le mouvement est bien lancé, nombre de commentateurs de montrent experts dans la découvert et l’analyse de signaux faibles (ce qui laisse dubitatif quant au qualificatif de signal faible cf. cet article). Parmi ces signaux faibles révélés a posteriori, figure l’interrogation de M. Sapin, alors ministre des finances, relative au consentement à l’impôt. Mais le propre des signaux faibles étant d’être morts-nés, celui-ci ne dérogea pas à la tradition1.

Qui révèle des incompréhensions voire des fractures

Le deuxième constat, qui découle du premier, est une incompréhension du mouvement, comparable à la déclaration du président Chirac lors d’un débat relatif à l’Europe face à des jeunes : « je ne vous comprends pas. » Nous l’avons vu notamment lorsque le gouvernement a demandé un interlocuteur représentatif du mouvement alors que ce dernier est, par construction, décentralisé2.

Ces deux constats accréditent la thèse que, de même qu’il existe des « bulles numériques » qui faussent la compréhension du monde, il existe aussi des « bulles informationnelles » qui faussent la compréhension du monde lorsqu’on est au pouvoir. Il est d’ailleurs vraisemblable que ces dernières préexistaient aux bulles numériques qui n’en sont que la transcription pour ceux qui utilisent le numérique.

L’enfermement dans ces bulles informationnelles ne peut que susciter des incompréhensions mutuelles. En effet, alors que certains estiment que tout est linéaire et optimal, une révolte se produit. Les révoltés ne peuvent alors qu’avoir tort ou mal compris puisque tout est bien fait, et de plus pour leur bien.

Conforté par la réponse décalée de ceux qui sont au pouvoir

Par conséquent, la réponse à ce mouvement ne peut qu’ajouter à l’incompréhension et au décalage déjà existant. Puisque la révolte est due à une incompréhension, à l’abus d’utilisation de fake news, il faut, d’une certaine manière, rééduquer les révoltés pour qu’ils reviennent à la raison. C’est ainsi que, parallèlement aux fake news sont apparues les fuck news : crois ce que je dis car j’ai raison et, de toutes façons, je te méprise si tu ne me crois pas. La meilleure illustration en est le chiffre des manifestants annoncé chaque semaine par le ministère de l’intérieur avant d’être, parfois, revu à la hausse lorsqu’il est manifestement trop sous-estimé. Nous assistons ainsi à une actualisation de l’échange entre G. Marchais et J-P Elkabbach : « ce n’est pas ma question » « oui mais c’est ma réponse ! »

Tous ceux que la question des gilets jaunes intéresse pourront se reporter avec fruit aux articles de la Vigie et du Monde qui leur sont dédiés.

Transposition dans le monde numérique

Les racines de la colère

Un soulèvement similaire pourrait bien survenir dans le monde numérique.

En effet, plusieurs éléments graves ont eu lieu, mais n’ont vraisemblablement pas été traités avec l’attention qu’ils méritaient.

Il y eu tout d’abord l’affaire Snowden qui révéla au monde entier que si les USA étaient l’allié de certains et le phare du monde libre, la liberté des citoyens pouvait parfois (souvent ?) être surveillée. Certains chefs d’État et de gouvernements l’ont appris à leur dépens lorsqu’ils ont su que la NSA écoutait leur téléphone. Bien sûr, le maître de l’Empire, Barack himself, n’était pas au courant et, l’aurait-il été qu’il l’aurait fait cesser immédiatement… Le chiffre d’affaires de certaines entreprises US a baissé, mais comme aucun concurrent n’avait les reins assez solides pour prendre leur place, elles poursuivent leur hégémonie.

Il y eut ensuite les nombreuses fuites de données personnelles détenues par les entreprises, certaines ayant l’outrecuidance d’affirmer que les utilisateurs les leur confient, alors qu’ils n’ont pas le choix puisque la captation des données conditionne la fourniture du service.

Il y eut enfin l’affaire Facebook et Cambridge Analytics qui a montré qu’à l’insu de son plein gré, Facebook reversait à CA les données de ses utilisateurs. Là encore, le pentagone rhétorique moderne s’est mis en branle :

1 s’indigner ;

2 dénoncer les propos ou les faits ;

3 condamner (fermement, absolument, ou encore sans réserve) l’auteur ;

4 soutenir (de façon pleine et entière) la victime ;

5 attendre un peu afin de recommencer.

Notons que ce probable mouvement de colère contre les entreprises numérisées ne peut être comparé au luddisme, car celui-ci était dirigé contre le progrès, alors que les utilisateurs du numérique voudraient l’utiliser dans des conditions correctes et respectueuses de la personne qu’ils sont.

L’absence de réponse adaptée des dirigeants

Dans le monde numérique, comme actuellement dans le monde réel, nous assistons à un superbe solo des dirigeants. Alors que les utilisateurs demandent de la considération et de voir leur avis pris en compte, les dirigeants expliquent que, oui, ce serait bien de jouer en orchestre, mais écoutez d’abord mon morceau de solo et lorsqu’il sera terminé, il sera temps d’aller dormir nous pourrons discuter.

C’est ainsi que la SNCF nous explique qu’elle se numérise, qu’elle utilise des drones pour l’entretien de ses wagons (ce qui au passage diminue le risque d’accidents du travail et c’est une bonne chose), mais n’est toujours pas capable de faire arriver les trains à l’heure, d’éviter les pannes monstres à Montparnasse et surtout de prévenir en temps et en heure ses usagers des problèmes. L’appli SNCF pour mobile illustre parfaitement ce dernier point. Pour être au courant des trains maintenus, il fallait lors de la dernière grève, télécharger un pdf via cette appli. Quel bel effort ! Une belle fuck news ! Ne parlons pas alors de la proposition de solutions de rechange…

Passons à la FNAC, dangereusement menacée par le A(mazon) de GAFAM. Je vous livre les touits que je leur ai envoyés, lesquels sont, hélas, restés sans réponse :

Les cas d’espèce cités ne sont (hélas) pas exhaustifs.

Une dernière en passant, car elle est vaut le détour. Si l’un de mes lecteurs a déjà postulé à une subvention européenne pour un projet de recherche (du type H2020), il a dû se rendre compte à quel point l’ergonomie du site internet adapté à ces échanges était catastrophique. Rien n’est intuitif, et il faut passer un certain temps à trouver le mode opératoire de choses pourtant simples comme envoyer un courriel au correspondant du projet à l’UE.

Récemment, Libération a publié un article relatif au désarroi des journalistes depuis quelques temps. Là encore, le symptôme est le même puisqu’un nombre non négligeable d’entre eux ne comprend pas que leurs potentiels lecteurs se détournent d’eux alors qu’ils estiment faire correctement leur travail.

Bref, tout est fait pour donner l’impression que la numérisation est un chantier tellement important qu’il permet d’oublier les demandes légitimes des clients. Mais une entreprise qui voit ses clients la quitter petit à petit et ne fait rien d’autre que déplorer cet état de fait, a-t-elle vraiment compris le problème ?

Les fondements de la résolution ne sont pas forcément difficiles

À ce stade du raisonnement, on pourrait m’objecter que le problème est complexe et ne peut être résolu d’un coup de baguette magique.

Cette remarque n’est pas fausse (les baguettes magiques n’existent d’ailleurs pas), mais elle a tellement servi d’alibi pour ne rien changer, qu’il est temps de la laisser tomber pour voir ce qui peut être fait.

De même qu’il existe un gilet jaune d’écart entre nos dirigeants et au moins une partie du peuple, il en existe au moins un entre les concepteurs des « outils numériques » et leurs utilisateurs, et entre les dirigeants d’entreprise (enfin, pas toutes je l’espère) et leurs clients.

La simplicité est à portée de main

– Le premier point est que ce gilet jaune d’écart peut être comblé par la considération apportée aux citoyens/utilisateurs/clients. Si tous n’obtiendront pas le prix Nobel (que les dirigeants se rassurent, eux non plus), tous ne sont ni stupides ni dénués de bon sens, et leurs propos non plus. Il faudrait alors recueillir leurs propos et trier entre l’utile et l’inutile ? Cela fait aussi partie du travail de dirigeant, sinon n’importe qui pourrait l’exercer (coucou Maduro). Pour cela, les acteurs du numérique auraient tout intérêt à prendre en compte les avis des utilisateurs exprimés via les outils mis à leur disposition (spécial FNAC, cf. échanges de touits supra).

– Le deuxième point est de ne pas contraindre l’expression des citoyens/utilisateurs/clients lorsqu’elle est acceptée. On ne cesse de vanter le travail en commun en expliquant qu’il y a plus de choses dans plusieurs cerveaux que dans un seul, mais on se rend compte que cette remarque n’est valable que pour certains cerveaux (petits ?) et qu’il existe des cerveaux d’exception dont le seul et irrépressible besoin est de se déverser dans les autres. Notons que nous rebouclons sur le premier point.

– Le troisième point est de faire des produits simples d’utilisation et de ne communiquer à leur sujet que lorsqu’ils ont été effectivement testés. Ah mais, les effets d’annonce ne seront plus possibles ? Pas comme ils existent actuellement. Vous voulez la mort du marketing ? Non, mais le marketing n’est pas obligé de prendre les clients pour des imbéciles. Ainsi, faire communiquer entre elles les applications mises à disposition du client et informer correctement à leur sujet est indispensable. Oups, nous bouclons encore sur le premier point…

Un espace anthropique en crise anthropologique

Les trois points évoqués ci-dessus ramènent au premier. C’est un signe qu’il serait vraisemblablement utile de chercher les raisons des problèmes actuels non dans les moyens mis à disposition du citoyen/utilisateur/client, mais dans la place qu’on lui donne.

Le cyber (et ses acteurs) ne peut se dérober à cette autocritique. La plus grande menace contre l’Internet vient-elle des gangs para-étatiques ou des utilisateurs qui seront bientôt lassés de se faire abuser en ligne ?

Mais les remèdes mis en œuvre sont-ils vraiment adaptés à la situation ? L’État français travaille à la réalisation d’un « État plate-forme ». Pourquoi pas. Ses concepteurs ont-ils cependant saisi qu’à l’absence de confiance manifestée envers l’Internet (sinon l’État cesserait ses campagnes de communication sur les dangers de cet espace) s’ajoute maintenant une absence de confiance envers l’État, caractérisée par une récurrente couleur jaune dans les rues ? Quel sera l’avenir de cet État plate-forme si ce n’est celui d’un simple dispensateur de fuck news ?

Combien de temps faudra-t-il pour que les responsables acceptent de reconnaître que l’espace anthropique (de plus en plus entropique) vit une véritable crise anthropologique ?

Il y a déjà quelque temps, Zundel avait posé un constat qui demeure d’actualité : « L’humanité est en péril de mort parce que tous les problèmes – pédagogiques, économiques, sociaux, politiques – sont posés dans l’abstrait, en l’ignorance systématique de la question qui les éclairerait tous : qu’est-ce que l’homme3 ? » Il l’expliquait par une raison simple : « En fait, rien n’est plus tragiquement certain, nous avons renié l’homme4. » « Nous avons renié l’homme, nous n’avons pas pris au sérieux les richesses de son esprit et de son cœur, qui sont les seules valeurs proprement humaines5. »

Le constat est posé, il reste à y remédier.

Et à tous ceux qui sont arrivés au terme de ce billet, recevez mes meilleurs vœux pour l’année qui débute !


1Le plus souvent morts-nés, les signaux faibles ont également une forte tendance à ressusciter, mais le délai est supérieur aux 3 jours déjà connus.

2Nous assistons au même type d’incompréhension lorsque l’État veut réguler l’internet, privatiser les blockchains, montrant ainsi que la décentralisation semble le terrifier.

3M. Zundel, L’évangile intérieur, p 19.

4Ibid, p 141.

5Ibid, p 142.

Cet article Gilets jaunes + numérique = gilets jaunes numériques est apparu en premier sur EchoRadar.eu.

Les coûts environnementaux cachés du numérique

Par Nicolas Mazzucchi

L’une des grandes caractéristiques du numérique, en termes d’impact sectoriel, est son opposition aux secteurs de production plus anciens que sont l’agriculture et l’industrie. En effet en traitant de manière dématérialisée – du moins le pense-t-on – une matière première originale nommée la donnée, ce secteur serait neutre pour l’environnement. Le numérique serait donc un secteur sans pollution ni CO2 que certains n’hésitent d’ailleurs pas à considérer comme le principal atout pour la planète. En passant au tout numérique, on abolirait ainsi les émissions de gaz à effet de serre, la déforestation et la pollution des océans ; autant d’héritages des XIXe et XXe siècles. Il suffit pour s’en convaincre de voir le foisonnement des programmes de recherche liant numérique et environnement pour s’en convaincre. Or s’imaginer que l’économie numérique – tant désirée en France mais qui peine à réellement décoller – serait une panacée pour la planète, relève de l’illusion ou, de manière plus insidieuse, de la dissimulation. Il est en effet de plus en plus facile dans ce monde de green tech d’exporter la pollution à l’autre bout de la Terre.

source

Le numérique, surtout dans une vision prospective, n’est pas un secteur plus vertueux que les autres. Il demeure un secteur avant tout fondé sur la consommation industrielle d’un grand nombre de composants dont l’obsolescence va de pair avec une complexité toujours plus grande. L’explosion des smartphones, tablettes, ordinateurs ou autres serveurs n’est qu’un avant-goût de ce qui se profile avec l’Internet des Objets, dont le nombre d’appareils communicants a d’ores et déjà dépassé celui d’êtres humains sur la planète. Pour construire ces objets – terminaux, capteurs ou effecteurs – auxquels on réclame des performances toujours plus grandes, la demande en matières premières est en train d’exploser. Les terres rares – qui sont devenues depuis quelques temps le symbole des métaux stratégiques au point d’en masquer les autres – sont ainsi particulièrement visées, mais tout autant que d’autres ressources, parfois plus communes, comme le nickel, le cuivre, l’indium ou le gallium. La course aux ressources, le plus souvent géographiquement concentrées, est un enjeu majeur de cette évolution du numérique. L’un des exemples les plus parlants à l’heure actuelle concerne les composants des batteries lithium-ion, au premier rang desquels le lithium, avec d’autres comme le cobalt. D’une extraction très polluante, aux coûts environnementaux et humains élevés, ces matières premières – le plus souvent aux taux de recyclages très faibles – sont au cœur de nos vies actuelles ; et de notre futur. Produites le plus souvent loin des centres de consommation, leur coût environnemental nous apparaît nul, alors même qu’il s’agit ici avant tout d’une externalisation de la pollution. Ce type d’attitude consistant à ne pas prendre en compte les coûts environnementaux sur l’ensemble des chaînes de valeur des objets, conduit à des perceptions erronées comme en témoigne le concept mensonger de « territoire à énergie positive ».

Autre phénomène lié, tout aussi inquiétant, celui du coût énergétique des données. Le plus souvent vues comme des éléments neutres, celles-ci sont bien au contraire centrales dans l’aspect environnemental du numérique. Deux problématiques se complètent à ce titre, d’une part le stockage et d’autre part la transmission. Le stockage concerne avant tout la question de la performance énergétique du refroidissement des data centers, expliquant en partie la localisation de ceux-ci par les GAFA(M) dans certains pays du nord de l’Europe. Toutefois, cette question, même si elle demeure importante, semble de plus en plus prise en compte par les fabricants de serveurs, pour lesquels la performance en matière de refroidissement commence à devenir une question prioritaire. Il n’en demeure pas moins que la consommation énergétique globale du stockage des données dépasse allègrement les 1% du total mondial, faisant du numérique un secteur à l’emprise environnementale non-négligeable sur ce plan.

Plus préoccupante est la question du coût énergétique de la transmission des données. Alors qu’en ce qui concerne les data centers une certaine unification normative a permis aux fabricants de travailler sur ces questions de performance énergétique, l’absence d’unification des protocoles de transmission de données a d’ores et déjà des effets négatifs. En effet le foisonnement des protocoles liés à la transmission sans fil, des classiques Bluetooth, Wifi, 3G et 4G en passant par les plus rares WiMax, ZigBee et 5G, tous ont des intérêts différents en termes de distance et de volume de données transmis, avec en corollaire des consommations énergétiques particulières. L’une des problématiques particulières de l’Internet des Objets, à savoir l’absence d’unification normative sur les protocoles de transmission de données – phénomène qui au sein de l’IoT se retrouve également dans d’autres sous-domaines comme les OS – trouve ici une implication inattendue. Dans son rapport Digitalization and Energy, l’Agence internationale de l’énergie pointe justement cette problématique de la transmission de données comme l’un des principaux enjeux de la performance énergétique du secteur numérique. Avec une croissance de la consommation liée à la transmission de données de l’ordre de 10% par an, ce simple sous-domaine devrait, à l’horizon 2021, représenter au niveau mondial une consommation équivalente à celle du Royaume-Uni, soit environ 320 TWh. La croissance de cette consommation est un effet de bord de la massification des données et de l’explosion prévisible du nombre d’objets connectés communiquant entre eux, malgré des initiatives comme les technologies LPWAN (LoRa, Sigfox, etc.). On a longtemps considéré que la donnée avait un cout de création neutre ; avec la prise en compte de l’aspect énergétique, on se rend compte qu’il n’en est rien.

In fine deux éléments ressortent pour expliquer cette situation des coûts environnementaux cachés. D’une part la question de la chaîne de valeur industrielle à élongation mondiale. Avec celle-ci, les coûts issus des phases les plus amont, comme les métaux stratégiques entrant dans la composition des sous-ensembles, deviennent au mieux un phénomène ignoré, au pire une externalisation de la pollution. Avec cette distanciation, les consommateurs et, dans certains cas, les assembleurs finaux apparaissent inconscients du coût environnemental réel de telle ou telle technologie qui, par ignorance, acquiert un caractère « vert ». D’autre part la question de la normalisation. En l’absence d’une unification technologique de facto ou, dans ce cas, de jure, le foisonnement des technologies conduit à minorer ou reléguer au loin les problématiques connexes à telle ou telle technologie. Dans le cas des protocoles de transmission de données, la question de la consommation énergétique est en effet, globalement, bien secondaire en regard d’autres éléments comme la vitesse ou la sécurité. Si les technologies numériques – Internet en est le meilleur exemple – n’ont que très peu été conçues dès le début avec une préoccupation de sécurité, elles ne l’ont pas non plus été dans une perspective de sobriété. La course à la performance technique a ainsi masqué les externalités négatives de cette dernière qui risquent aujourd’hui – phénomène de mondialisation oblige – de devenir des enjeux primordiaux.

De là il importe de ne pas sombrer dans le pessimisme. Ces problématiques, si elles sont prises en compte, peuvent donner lieu à des solutions et à des travaux d’amélioration. L’exemple de la consommation énergétique des serveurs montre qu’il est possible d’orienter les recherches vers des sous-ensembles moins consommateurs, même si la question est avant tout normative. Concernant les métaux stratégiques, des recherches doivent également être entreprises à la fois dans la substitution des ressources, la découvertes et la mise en production de nouveaux gisements ainsi que – et surtout – dans le recyclage.

Cet article Les coûts environnementaux cachés du numérique est apparu en premier sur EchoRadar.eu.

L’approche réglementaire de la gestion des déchets

Par 3C SecuSystJuri

La protection de l’environnement est l’affaire de tous et cela d’autant plus que « la France est le pays d’Europe le plus touché par les catastrophes climatiques », selon l’article de Mathilde Golla publié dans le Figaro1. Cet article précise que « la France occupe le 18ème rang mondial des pays les plus vulnérables aux intempéries extrêmes, au même niveau que Madagascar, l’Inde, le Bangladesh ou encore la Thaïlande […] Au niveau européen, la France est ainsi le pays le plus touché par ces événements climatiques exceptionnels, devant le Portugal, classé 22e par l’indice de Germanwatch, l’Espagne qui occupe le 34e rang, l’Italie (28) ou l’Allemagne (25) ».

La gestion des déchets est une composante importante de la protection de l’environnement. Depuis janvier 2018, la Chine a considérablement durci les conditions d’exportations de déchets plastiques sur son territoire alors que de nombreux pays y envoyaient entre 7 et 9 millions de tonnes chaque année2. La décision chinoise pourrait à moyen terme favoriser l’essor du recyclage européen. En France, l’actuel gouvernement souhaite atteindre les 100% de recyclage d’ici à 2025 et a associé 55 industriels et fédérations professionnelles, notamment les industries agro-alimentaires, qui se sont engagés sur un objectif de 300.000 tonnes supplémentaires de plastiques recyclés d’ici 20253.


Source : Shutterstock

A l’échelle internationale et européenne, quelles sont les réglementations qui œuvrent pour la gestion des déchets ?

Cet article propose une courte présentation de la réglementation spécifique des transferts transfrontaliers (import ou export) de déchets qui a pour objectif d’assurer qu’un déchet faisant l’objet d’un transfert soit traité dans des conditions qui garantissent la maîtrise des impacts sur l’environnement.

Selon l’article L.541-1-1 du code de l’environnement, un déchet est toute substance ou tout objet, ou plus généralement tout bien meuble, dont le détenteur se défait ou dont il a l’intention ou l’obligation de se défaire.

La hausse de la consommation des ménages dans les années 1970, le premier choc pétrolier ainsi que des scandales écologiques ont abouti à l’établissement de législations nationales puis européennes sur le traitement des déchets pour ne plus se contenter de les enterrer ou de les expédier ailleurs sur la planète.

En effet, la Convention de Bâle du 22 mars 1989, accord international environnemental qui réglemente les mouvements transfrontaliers de déchets dangereux et d’autres déchets et exige de ses parties, 166 États, qu’elles veillent à les gérer et à les éliminer de manière écologiquement rationnelle. Cet accord a pour objectif principal d’éviter l’envoi massif et déréglementé des déchets des pays riches ne souhaitant pas investir dans le recyclage vers les pays pauvres.

Les enjeux de la gestion des déchets résident certes dans la protection de l’environnement et de la santé humaine mais également au niveau financier que cela soit pour les profits issus de la commercialisation licite ou illicite des déchets.

Au niveau européen, il s’agit de la directive 2008/98/CE relative aux déchets qui institue un premier cadre légal pour le traitement des déchets de l’UE. Elle institue des principes réglementaires relatifs à la gestion des déchets tels la confirmation du principe du pollueur-payeur selon lequel les coûts de la gestion des déchets sont supportés par le producteur de déchets initial et le concept de la responsabilité élargie du producteur, qui peut prévoir l’obligation pour les fabricants d’accepter les produits renvoyés et de les éliminer après leur utilisation. Les transferts de déchets sont eux régis par le règlement (CE) n° 1013/2006 du 14 juin 2006 qui transpose dans le droit de l’Union européenne, la Convention de Bâle sur le contrôle des mouvements transfrontalières de déchets dangereux et leur élimination.

Ainsi, en vertu de la réglementation européenne, applicable aux flux pays tiers comme aux flux intra-UE, le transfert de déchets peut être soit interdit soit soumis à une procédure de suivi spécifique plus ou moins contraignante (information ou notification).

Pour déterminer la procédure applicable, il faut cumuler trois critères tenant à la nature :

  • du déchet (dangereux ou non) ;
  • du transfert (impliquant ou non un pays membre de la Convention de Bâle, de l’AELE, de l’OCDE, etc) ;
  • de l’opération de traitement réalisée (valorisation ou élimination). En effet, il existe différentes catégories d’opérations d’élimination telles que la mise en décharge  et des catégories d’opérations de valorisation telles l’utilisation comme combustible ou la régénération des huiles.A titre d’exemple, une cartouche d’encre usagée peut connaître deux destinations possibles, soit l’élimination avec le démantèlement ou l’incinération simple, soit la valorisation avec le traitement thermique ou le reconditionnement.

A l’exportation des pays tiers, les opérations portant sur des déchets destinés à l’élimination sont systématiquement interdites sauf vers les pays de l’AELE sous réserve d’autorisation administrative française préalable et de consentement des autorités du pays destinataire.

Les opérations portant sur tous les déchets destinés à la valorisation sont autorisées vers les pays de l’AELE et de l’OCDE sous réserve d’autorisation administrative préalable en France et de consentement des autorités du pays destinataire.

Pour les autres pays, seules les opérations portant sur des déchets admis par le pays destinataire destinés à la valorisation sont autorisées sous réserve d’autorisation administrative préalable en France et de consentement des autorités du pays destinataire.

A l’importation des pays tiers, tous les déchets destinés à l’élimination sont soumis à autorisation préalable et seuls les déchets dangereux destinés à la valorisation sont également soumis à autorisation préalable. Les déchets non dangereux destinés à la valorisation sont eux soumis à simple document d’information

Dans le cadre des échanges intracommunautaires, tous les transferts sont soumis à autorisation administrative préalable via une procédure de notification sauf les opérations portant sur des déchets non dangereux destinés à la valorisation sont simplement soumises à document d’information établi par l’expéditeur via une procédure d’information4.

Au niveau national, le Plan d’inspection national des transferts transfrontaliers de déchets, met en œuvre l’obligation d’établir un plan relatif aux transferts de déchets, prévue au règlement (CE) n° 1013/2006. Ce plan vise à structurer l’action des corps de contrôle engagés dans la lutte contre les trafics illégaux et à renforcer la coordination de leur action pour la rendre plus efficace.

Considérés comme une marchandise, les transferts transfrontaliers de déchets sont contrôlés notamment par les agents des douanes à l’import, à l’export, à la circulation et sur les sites de traitement.

En vertu du code des douanes national, les douaniers peuvent consigner sous certaines conditions les déchets ou même les réexporter.

En cas de non respect de la réglementation, différents types d’infractions peuvent être relevés selon le flux des déchets et en fonction des documents présentés (documents faux ou inapplicables) ou de l’absence de document. L’opérateur peut être poursuivi au plan pénal ou bénéficié d’une transaction avec également un taux de l’amende qui varie en fonction : du degré d’intentionnalité, de la nature des déchets, de la destination initiale des déchets et de la nature de la formalité éludée.

A titre d’exemple et dans le cadre de l’opération « 30 days in action » de juin 2017 pilotée par Interpol, la douane française a intercepté 332 tonnes de déchets dont la majorité de pièces détachées automobiles usagées, de déchets de plastique, de déchets d’équipements électriques et électroniques (DEEE), de pneumatiques usagés. Ils partaient illégalement vers l’Afrique (Sénégal, Mauritanie, Togo, Côte d’Ivoire, Madagascar, etc), Hong-Kong, la Malaisie et le Brésil.

De même, au mois de mai 2017, les services douaniers de la Réunion ont également empêché l’exportation illégale vers l’Inde de 24 tonnes de batteries usagées et 44 tonnes de déchets ferreux et de pièces automobiles usagées5. Face à cette criminalité environnementale méconnue, il existe donc des outils répressifs mais dont l’efficacité reste encore à évaluer.

Ainsi, pour aider les acteurs institutionnels à lutter contre les poubelles à l’air libre, mettez-vous au « plogging » qui est la combinaison de “jogging” et “plocka upp”, qui veut dire “ramasser” en suédois. Cette pratique en vogue en Suède et qui, commence à se développer en Europe, consiste à profiter de son jogging pour ramasser les déchets : prendre soin de son corps et de la planète en même temps6 !

1« La France est le pays d’Europe le plus touché par les catastrophes climatiques » par  Mathilde Golla publié le 05/12/2018 à 16:45 sur le figaro.fr

2« La Chine ferme ses portes aux déchets plastiques, une aubaine pour la France ? » de Fabrice Pouliquen, publié le 22/01/18 à 17h20 sur « 20minutes.fr »

3https://www.ecologique-solidaire.gouv.fr/100-plastiques-recycles-en-2025-55-industriels-et-federations-sengagent-en-faveur-du-recyclage-et

4http://www.douane.gouv.fr/articles/a10915-transferts-transfrontaliers-de-dechets

5http://www.douane.gouv.fr/articles/a13416-criminalite-environnementale-saisie-de-332-tonnes-de-dechets et http://www.douane.gouv.fr/articles/a13339-les-douaniers-de-la-reunion-empechent-une-tentative-d-exportation-illegale-de-dechets

6https://www.francetvinfo.fr/sante/environnement-et-sante/le-plogging-jogging-ecolo-venu-de-suede_2679844.html

Cet article L’approche réglementaire de la gestion des déchets est apparu en premier sur EchoRadar.eu.

L’hiver nucléaire débuta en 2101

Par Signes Hauts

10 septembre 2101

Manquant de glisser à l’entrée du Bureau Ovale délocalisé dans l’une des chaînes montagneuses d’Alaska, le conseiller à la sécurité nationale pénétra à toute vitesse en direction de l’imposant bureau présidentiel : « Monsieur le Président, nous avons un énorme problème. Un problème de sécurité vitale ! ».

(Source)

Levant son visage des nombreux parapheurs encombrant son bureau, le Président Donald J. Trump l’observa plusieurs secondes sans prononcer le moindre son.

Il faut dire qu’après plus de huit décennies d’un pouvoir impérial quasi-séculaire, Donald Trump avait probablement fait le tour de la question des « problèmes de sécurité nationale voire de sécurité vitale » ! Élu une deuxième et dernière fois démocratiquement en 2020, la succession de crises militaires avec la Russie puis l’Europe avait eu pour résultat une révolte nationale.

Démarrée en Californie qui avait proclamé son indépendance le 4 juillet 2023, Trump avait alors décidé d’instaurer la loi martiale puis de mobiliser la Garde nationale puis l’armée d’active afin de reprendre le contrôle par la force. Des dizaines de millions de morts et des années plus tard, il avait fait adopter une modification substantielle de la Constitution créant un « conseil militaire de gouvernance du peuple blanc américain ». Les progrès scientifiques notamment issus du courant transhumaniste avaient par ailleurs permis au « Chef suprême du peuple blanc américain » de repousser les limites biologiques.

Le conseiller à la sécurité nationale reprit son souffle et dit au Président : «Le pic du PHTM est en cours ! » Le Président Trump, la pupille fixe et dilatée à cause d’une injection instantanée de méta-fulbo-stéroïdique [1], le regarda d’un air interdit sinon vide. « Le PHTM. Le Pleistocen-Holocen [2] Thermal Maximum [3] ! Le pic fulgurant d’augmentation des températures détecté à la fin du 20ème siècle et modélisé début 21éme siècle. Rappelez-vous en 2017. Votre décision de nous retirer de l’accord climatique de Paris. Puis en 2023, la loi martiale suivie de la « diversion » de l’incident de Taïwan ce « contre-feu de génie » qui a alimenté le long conflit avec la Chine puis l’Europe. 25 années ! Sans vainqueur réel mais avec une population humaine divisée par 10. Enfin le « miracle de la convergence (humain / robotique / NBIC [4] / IA) pour lequel on a créée de nouvelles industries soit-disant moins polluantes mais qui, en réalité, ont accéléré le réchauffement climatique ».

« STOP ! » intima le Président Trump. « Quels sont les précurseurs, les hypothèses et les solutions ? »

« Président. Les scénarios les plus pessimistes en 2022 indiquaient une augmentation des températures avant le 22ème siècle comprises entre 4 et 6° Celsius. La révision de 2078 a plutôt fourni une fourchette comprise en 8 et 12° degrés Celsius. La vérité se situerait plutôt autour des 15 degrés. Ce pour quoi, notamment, la plus grande partie de nos activités se déroule sous terre et en altitude. »

« Très bien, indiqua le Président. Convoquez nos alliés afin d’étudier leurs propres analyses ».

« Monsieur le Président. Depuis la fin de l’OTAN en 2025 et la signature du Nouveau Traité Illibéral de 2026 avec la Corée du Nord, le Brésil, la Russie, le Nigéria et le Nouvel Iran, nos alliés se sont singulièrement réduits et, surtout, ne possèdent plus qu’une population cumulée de 50 millions d’habitants, la même que la nôtre ! Je me permets d’ailleurs de vous rappeler que le Tibet, devenu indépendant après l’Étrange Guerre Mondiale et première puissance actuelle, n’a pas daigné recevoir notre nouvel ambassadeur. Même le gouvernement anarchiste Français exilé dans les Alpes ne souhaite plus envoyer l’aide alimentaire depuis l’Union Sino-européenne. »

Une nouvelle micro-injection instantanée de méta-fulbo-stéroïdique permit au Président de relever la tête puis de dire à son conseiller : « En réalité, seules les communautés montagnardes pourront espérer survivre avant que je ne déclenche le Plan Ultime, c’est à dire la vitrification de la moitié de la planète afin de provoquer un hiver nucléaire majeur pour permettre de compenser la hausse globale des températures ».

Semblant ne pas comprendre ce qu’il venait d’entendre, le conseiller du Président mit une bonne minute avant de pouvoir lui répondre. « Quand est prévu le déclenchement du Plan Ultime ? ». « Quelle heure est-il ? susurra le Président ». Le conseiller vérifia son écran cristallin intégré : « la même que la vôtre Président. 20H52. » « Alors c’est parfait, il ne reste plus que 12 heures avant de commémorer la lâche attaque du WTC [5] puis de commencer un beau feu d’artifice à partir du Pakistan… ».

Signes Hauts

[1] Drogue de synthèse mise au point dans les années 2080 afin d’atténuer les effets secondaires parfois violents des traitements de longévité transhumanistes

[2] https://fr.wikipedia.org/wiki/%C3%89chelle_des_temps_g%C3%A9ologiques

[3] A mettre en regard du “Paleocen-Eocene Thermal Maximum” (PETM) : https://www.francetvinfo.fr/meteo/climat/on-vous-raconte-le-plus-violent-rechauffement-climatique-que-notre-planete-a-connu-jusqu-a-aujourd-hui_3098489.html

[4] https://iatranshumanisme.com/transhumanisme/les-technologies-emergentes/le-rapport-nbic/

[5] https://fr.wikipedia.org/wiki/Attentats_du_11_septembre_2001

Cet article L’hiver nucléaire débuta en 2101 est apparu en premier sur EchoRadar.eu.

BONNE ANNÉE 2019

Par EchoRadar Blog

Après les nombreuses et meurtrières attaques terroristes qui ont entachées le quotidien de la France depuis bientôt quatre années, l’année 2018 s’est achevée sur le sentiment d’un pays profondément divisé. La crise des Gilets Jaunes n’est autre que le catalyseur du fossé toujours grandissant entre les élites dirigeantes et la classe moyenne et moyenne-basse.

UNFCCC/Skjermbilde cb

La spirale mortifère ne doit cependant pas être la seule et unique grille de lecture, bien sombre, de cette époque incertaine et dangereuse.

A l’opposé des drames et des crises, des réussites ainsi que des joies individuelles et collectives nous interpellent avec force et espoir. Sans forcément pointer un événement particulier, il est heureux d’observer que les nouvelles générations font bouger les lignes que cela soit Emma Gonzalez rescapée de la fusillade de Parkland du 14 février 2018 qui a interpellé Donald Trump sur la réglementation des armes ou encore Greta Thunberg suédoise de 15 ans qui a dénoncé l’inaction des gouvernements sur le changement climatique lors de la COP241 .

Place aux jeunes ainsi qu’aux porteurs d’innovation et à toutes celles et tous ceux qui, armés de leur seul courage, cherchent à agir positivement sur leur environnement proche et moins proche. Véritables acteurs de l’actualité et d’un monde qui se transforme, c’est avec eux que les politiques de long terme doivent être pensées. Notre société a besoin de retrouver du sens, de se projeter dans des projets enthousiasmants et d’accompagner les changements. A cette condition, il sera possible de définir des politiques cohérentes qui rendront caduque le seul horizon, étriqué,  d’un quinquennat ou de la décennie !

Le paradigme du véritable changement est là, l’enjeu essentiel est comment y faire face ensemble.

Pour sa part, EchoRadar continuera à vous accompagner en tant qu’observateur critique ainsi qu’agrégateur d’idées, de pensées et d’analyses originales. Amis lecteurs, tout le collectif vous remercie pour votre fidélité et vous souhaite une belle et heureuse année 2019.

Stratégiquement vôtre.

Cet article BONNE ANNÉE 2019 est apparu en premier sur EchoRadar.eu.

Pourquoi la ruée vers le véhicule électrique doit-elle être tempérée?

Par Yannick Harrel

 

L’avènement du retour en grâce des véhicules électriques est un fait marquant des années 2010, un chapitre spécifique y fut par consequent consacré dans mon ouvrage sur les Automobiles 3.0, intitulé Volta au secours du monde automobile mais pas l’inverse. Le propos premier fut de dresser un panorama de la situation en 2016 concomitamment au scandale du Dieselgate dont la particularité fut d’accélérer l’entrain pour le véhicule électrique.

Deux ans plus tard, l’élan ne faiblit pas, tendant même à gagner en ampleur alors que l’édition 2017 du salon de l’automobile de Francfort (alternant avec celui de Paris) fut consacrée à l’électromobilité et que le constructeur suédois Volvo declara quelques semaines auparavant être prêt à délaisser toute motorisation thermique pour ses modèles à l’horizon 2019 tandis que la majorité des autres constructeurs prévoient l’électrification de leur gamme dans les années 2020 comme Porsche avec le lancement de la future berline Taycan.

Cet engouement, appréciable pour les bienfaits que peut prodiguer la fée électrique y compris dans le domaine des transports, ne saurait cependant éluder quelques questionnements amplement nécessaires à peine de désagréments conséquents :

  • la capacité de production électrique durant les créneaux horaires critiques (principalement 18h-21h) : dès lors que le parc sera en mesure de dépasser les 50% de véhicules électriques, comment la production pourra-t-elle suivre en cas de pic de sollicitation énergétique maintenu sur une durée conséquente? Sur un échantillon territorial modeste, l’association écologique anglaise Green Alliance avait détaillé dans une étude publiée en avril 2017 [1] que les réseaux britanniques n’étaient pas prêts à assurer une forte demande simultanée de voitures électriques en phase de recharge. L’Observatoire France Stratégie abonda en ce sens dans son étude prospective pour un véhicule propre [2].
  • la capacité de transport de l’énergie concernée, sachant qu’un déploiement pour accroître les capacités n’est pas une question de jours, ni de mois mais d’années et surtout d’investissements publics massifs. L’État si prompt à faire reposer sur les constructeurs et les conducteurs la charge d’un changement radical technologique sera-t-il prêt à investir dans les infrastructures nécessaires comme tel devrait être son rôle d’incitateur et de promoteur? Qui assumera le coût des bataillons de bornes de recharge nécessaires pour satisfaire une demande exponentielle pouvant même être brutale?
  • la réelle consommation électrique des véhicules en circulation : sur ce point les constructeurs se montrent particulièrement discrets, et devront lever les interrogations relatives à cette donnée sensible selon un ensemble de critères définis et acceptés par l’ensemble du secteur. Certains pays, telle la Norvège, en viennent à souhaiter la taxation des SUV et berlines électriques qui dénaturent l’apport écologique de tels véhicules, lesquels réclament autrement plus d’énergie que les modèles plus compacts.
  • la problématique de la pollution ou plus exactement le déport de celle-ci puisque la confection d’une automobile électrique est bien plus gourmande en énergie et ressources fossiles qu’un véhicule traditionnel en raison d’une elaboration industrielle différente comme complexe (à commencer par les batteries qui réclament un usinage très particulier). Mais aussi l’extraction de terres rares comme de ressources minérales spécifiques entraînant toute une industrie de prospection, de récolte puis de traitement, généralement en des pays peu sourcilleux sur la problématique écologique. Sur le sujet du déport de pollution, ajoutons qu’en Allemagne, par exemple, la production d’électricité repose à 66% sur la combustion de matières fossiles, ce qui dans ce cas de figure repose de façon sensible le déport de pollution entre la fabrication et la circulation [3] .
  • le risque de basculement d’une relative souveraineté technologique européenne vers une dépendance accrue vis à vis de fournisseurs de solutions technologiques et énergétiques d’origine asiatique. D’où la demande du président Vavassori de l’Association européenne des équipementiers automobiles à favoriser une phase de transition comme l’hybridation ou les carburants de synthèse et non une fuite en avant mû uniquement par la précipitation politique. Ou comme le gouvernement japonais qui promeut les solutions à base d’hydrogène pour éviter la main-mise étrangère sur une technologie dont elle ne maîtrise pas l’ensemble de la chaîne. En somme, ne pas arrêter les recherches et les tests sur des solutions alternatives au profit d’une seule voie qui pourrait déboucher sur une impasse vis à vis d’autres problématiques. Il est symptomatique de l’absence de vision stratégique des décideurs européens que l’excellence en matière de conception des moteurs thermiques acquise par les constructeurs du vieux continent est en passe d’être balayée par des décisions politiques les plaçant dans une situation de dépendance.
  • le manque de recul sur les effets d’une électrification majeure. Tel était le sens de l’intervention de Carlos Tavarès lors du 67ème salon de l’automobile à Francfort 2017 où le président du groupe PSA n’entend pas endosser la responsabilité de décisions politiques de l’électrification à marche forcée du secteur. En somme ne pas subir les effets d’un « électrogate » incubé en amont par les dirigeants politiques soucieux d’éteindre une polémique avec une solution arbitraire. Par ailleurs le dirigeant français prit soin d’évoquer la question de l’inocuité des émissions électromagnétiques des futures électromobiles, sujet trop rarement évoqué et pourtant crucial sur un plan épidémiologique.
  • le besoin de disposer d’un réel outil de mesure en matière d’autonomie en conduite réelle : le cycle NEDC souvent pris comme référence pour indiquer l’autonomie en kilomètres ne trompe pas les experts qui prennent soin de minorer systématiquement les résultats. Tout comme pour le diesel, il ne s’agit pas fondamentalement de triche, mais plutôt d’optimisation de télémétrie. L’utilisation progressive du modèle WLTP devrait permettre d’avoir une meilleure perception de la consommation réelle des électromobiles.
  • en optant préférentiellement, si ce n’est exclusivement, pour la voie électrique, ne se ferme-t-on pas à d’autres voies, y compris celle du diesel propre comme le propose certains équipementiers tel Faurecia avec son filtre à NOx ASDS? Certaines recherches demandent plusieurs années avant une concrétisation industrielle : ne fragilise-t-on pas ces sociétés qui opèrent des développements sur le long terme en leur sommant de stopper toute avancée dans un domaine au profit d’un autre dont la maturité industrielle et commerciale reste à prouver?
  • la rentabilité économique des électromobiles pour les constructeurs : un point sensible que souleva feu Sergio Marchionne, président de Fiat-Chrysler, en relatant qu’aux États-Unis pour chaque Fiat 500e vendue, la perte était de 20 000 dollars. Si l’homme est un abonné des déclarations tonitruantes, une réalité est attestée : sans apport fiscal, le marché de l’électromobilité s’effondrerait aussitôt. Le cas de Hong-Kong est symptomatique et tend à démontrer que le marché de l’électromobilité est artificiellement tiré vers le haut. Sur l’ancienne colonie anglaise, le mois précédant la suppression de l’exemption de taxes sur les véhicules électriques, Tesla vendit 2939 unités ; le mois du rétablissement des taxes, Tesla écoula… zéro modèle! Du reste, si la Tesla Model 3 vise à être plus abordable financièrement, elle le doit indirectement à une aide fédérale américaine. Il va sans dire que ce business model repose en grande partie sur des incitations fiscales et des subventions, et que leur suppression risque d’entraîner une dépression économique pour les constructeurs les plus exposés (gamme 100% électrique).
  • le coût économique et social des mesures d’incitation au passage à l’électromobilité ne peut plus être ignoré depuis la sévère crise des gilets jaunes français en octobre-décembre 2018 : la taxe carbone censée favoriser le passage d’un mode de déplacement à un autre s’est révélée être un accélérateur de paupérisation. La politique de fiscalité punitive et non incitative a dressé contre elle une partie de la population, discréditant l’argument écologique initial. Ajoutons qu’en outre l’électromobilité a un coût réel d’achat et d’emploi : le véhicule bien entendu, mais couplé à l’abonnement obligatoire en fourniture d’électricité ainsi que la location des batteries (qui n’est plus obligatoire chez certaines marques mais qui engendre un forfait supplémentaire conséquent lors de l’achat du véhicule).

 

Pour approfondir le sujet, la lecture d’un document provenant de Norvège ayant trait au modèle si particulier de ce pays scandinave dont l’achat d’électromobiles représente déjà près d’un tiers du parc automobile neuf pour 2017 peut être d’un certain apport [4]. Modèle souvent cité en exemple, le cas norvégien repose néanmoins sur une donne singulière : c’est l’exploitation off-shore de gisements de pétrole et de gaz qui permettent le soutien fiscal très fortement généreux de ce type de motorisation avec en appoint une auto-suffisance énergétique excédentaire (principalement dûe à l’énergie d’origine hydroélectrique). Un modèle qui pourrait évoluer à l’avenir avec le tarissement progressif et sensible des réserves de ressources fossiles en Mer du Nord. La capitale Oslo, qui dispose d’un péage urbain à l’instar de Londres, a même commencé à rétablir des droits de passage aux véhicules électriques qui en étaient exempts jusqu’à présent. Son exemple doit inciter les autres pays à précisemment éviter les écueils d’une incitation trop ciblée et trop arbitraire.

Autre document à compulser, émanant cette fois de l’Agence Européenne de l’Environnement : Electric vehicles from life cycle and circular economy perspectives. Loin de donner quitus à l’électromobile, les auteurs de l’étude tiennent à insister sur l’obligation de recourir à une approche globale et non se focaliser uniquement sur l’émission d’agents polluants dans l’atmosphère durant la circulation [5]. Il est ainsi préconisé de favoriser l’économie circulaire de manière plus systématique.

L’électromobile est promise à un (nouvel) avenir radieux à la condition d’éviter le dogmatisme, l’illusion et la précipitation de mesures politiques qui pourraient voir son essor stoppé brutalement au premier revers. Pareilles décisions stratégiques doivent être pensées dans une optique de pérennité assortie d’une approche empreinte de neutralité technologique afin de laisser ouvertes toutes les portes de l’innovation pour le plus grand profit de tous, à commencer par la santé de la planète.

 

[1] People power: how consumer choice is changing the UK energy system

http://www.green-alliance.org.uk/people_power_consumer_choice.php 

[2] La difficulté réside davantage dans l’appel de puissance que dans l’énergie totale consommée. Un parc automobile français composé uniquement de véhicules électriques consommerait près de 90 TWh par an. Ce surplus de consommation est gérable : il correspond à 20 % de la consommation d’électricité française ou à la quantité d’électricité exportée par la France en 2015. En revanche, la concomitance des recharges peut induire des appels de puissance considérables, que ne pourrait supporter notre système électrique. Un parc de 30 millions de véhicules électriques se rechargeant en même temps à 19 heures, même lentement à 3 kW, nécessiterait une puissance supplémentaire de 90 GW, soit un quasi doublement de la demande de pointe actuelle.

[3] Bilan électrique 2016 : taux de couverture européens

http://bilan-electrique-2016.rte-france.com/europe/76-les-taux-de-couverture-europeens/#

[4] Bjart Holtsmark et Anders Skonhoft, The Norwegian support and subsidy policy of electric cars. Should it be adopted by other countries?

http://www.svt.ntnu.no/iso/Anders.Skonhoft/Environmental%20Science%20and%20Policy%20814.pdf

[5] European Environment Agency : https://www.eea.europa.eu

 

Cet article Pourquoi la ruée vers le véhicule électrique doit-elle être tempérée? est apparu en premier sur EchoRadar.eu.

Conserver et innover, l’impossible paradigme ?

Par Nicolas Mazzucchi

Envisager le lien entre environnement et stratégie, c’est, dans le contexte actuel, penser la manière dont celui-ci peut et doit être préservé. Les différents rapports du GIEC et d’autres entités intergouvernementales, mettent en avant depuis de nombreuses années l’urgence, sans cesse plus importante, à prendre en compte l’accélération des changements climatiques ainsi que leurs effets sur la planète. Depuis de nombreuses années, la Conférence-cadre des Nations-Unies sur les changements climatiques (CCNUCC), responsable des négociations annuelles sur le climat au niveau gouvernemental, a mis en avant deux orientations majeures pour lutter contre ces changements et leurs effets. D’une part l’adaptation, à savoir la manière dont les sociétés peuvent évoluer pour appréhender des environnements en pleine mutation et, d’autre part, la mitigation, comprenant l’ensemble des technologies et des éléments pouvant contribuer à amoindrir – et dans une vision utopique à annuler – les effets des changements. Ces deux orientations et la manière dont elles sont formulées ont tendance à regarder les solutions suivant un prisme technologique, fortement schumpétérien. Il s’agit ici de penser comment l’innovation peut venir au secours des sociétés confrontées aux changements. D’où les fonds et dotations qui se multiplient, au niveau global comme régional ; il suffit de jeter un œil aux appels à projets européens H2020 pour s’en convaincre.

source

Dans le monde militaire de la même manière, même si les problématiques se posent différemment, la prise en compte des effets des changements climatiques sur les missions et les environnements d’intervention, a été entreprise depuis une décennie. Les forces armées américaines ont été les pionnières en ce domaine, à la suite d’un rapport de 2007 qui pointait que 50% des pertes militaires en Afghanistan étaient dues à la chaîne logistique pétrolière, laquelle eu égard à ses déterminants (régularité, protection moindre, etc.) offrait une parfaite cible. Dès lors des documents programmatiques sont nés dans les principales armées de l’OTAN, pour prendre en compte cette question, nommée à l’époque green defense, pour laquelle il convenait d’apporter une réponse. Loin de placer la question de la préservation de l’environnement en opérations au centre des travaux – même si cela constitue un véritable enjeu, notamment dans le cadre des actions civilo-militaires – il s’agit ici avant tout de s’adapter aux changements en cours, par des évolutions en termes de matériels notamment. Le paramètre de la résilience est ici fondamental et il s’agit de ne pas perdre en capacités, voire d’en gagner sur certains points si l’on pense aux batteries par exemple. Quoi qu’il en soit, il s’agit également ici d’une vision très majoritairement centrée sur la technologie.

De ce paradigme technologiste il est possible d’en arriver à un paradoxe plus profond qui semble par moments insoluble, ou du moins hypocrite. Celui-ci pourrait s’incarner dans 3 objets qui sont liés à cette problématique environnementale : l’éolienne, la voiture électrique et le climatiseur. L’éolienne et la voiture électrique nécessitent pour leur construction un certain nombre de matériaux qui se révèlent soit très polluants à élaborer – pensons aux différentes matières plastiques et composites qui sont l’un des principaux produits de la pétrochimie et ont un bel avenir devant elles – soit d’un coût d’exploitation environnemental extrêmement important comme les métaux stratégiques. Une éolienne a ainsi besoin pour fonctionner d’un aimant permanent composé de terres rares – néodyme et dysprosium dans ce cas – dont la chaîne logistique est un véritable cauchemar écologique. Extraites d’une roche au taux important de radioactivité (la monazite), les terres rares doivent subir plusieurs traitements de séparation puis de raffinage pour atteindre le niveau de pureté industriellement adéquat. Or ces opérations ne se déroulent pas au même endroit, pour des questions de savoir-faire technologique. Une éolienne, en prenant la chaîne de valeur industrielle depuis la mine, aura vu ses terres rares extraites en Chine, envoyées pour raffinage en Europe, renvoyées en Chine pour assemblage industriel et installées finalement quelque part sur la planète, plus vraisemblablement dans un des pays les plus avancés (Europe, Amérique du Nord, Asie du Nord, etc.). Il en est de même pour la voiture électrique – dont le moteur contient également son lot de terres rares – où le cœur de la valeur est composé des batteries, lesquelles – avec la technologie actuelle Li-ion – commencent leur cycle en Afrique (RDC) et en Amérique du Sud (Chili, Bolivie, Argentine) pour ensuite être transformées en Chine et consommées en Europe ou au Japon. Pas étonnant dans ce cas que l’estimation environnementale du cycle de vie des produits (le LCA ou life cycle assessment) ne soit pas toujours en faveur de ces nouvelles technologies. Le concept de marketing politique de TEPOS (territoire à énergie positive), souvent rabâché en France, se révèle une escroquerie lorsqu’on se rend compte qu’il est avant tout une externalisation de la pollution.

Le climatiseur relève d’une logique différente. En tant que tel il participe à la mitigation des effets, mais il se révèle lui aussi responsable de ceux-ci. En consommant de l’électricité pour rafraîchir l’atmosphère, il influe sur la consommation énergétique, donc sur l’extraction et la transformation de certaines matières, et, en cela, contribue aux effets des changements climatiques. En voulant atténuer ceux-ci par cette approche technologiste, on aboutit à les maintenir, voire à les augmenter.

Ce constat revient-il à dire que toute stratégie technologique par rapport aux changements climatiques et à la protection de l’environnement est vaine ? Non bien entendu. Toutefois il ne faut pas également tomber dans ce qui est le fétiche des sociétés actuelles : l’innovation. Le mot semble magique, voire totémique, puisque la mode est à décréter des politiques d’innovation un peu partout, en créant des structures dédiées, lesquelles sont le plus souvent pachydermiques et inadaptées. En ne voulant s’intéresser à l’environnement – qui implique par essence le concept de conservation – que par le prisme de l’innovation – lequel dans une vision schumpétérienne, laquelle est majoritaire dans la pensée techno-industrielle libérale, implique la destruction – on touche un paradoxe qui explique, en partie, les échecs actuels. Plus encore que dans de nombreux domaines, la technologie ne doit être qu’un appui et pas une fin. La sauvegarde de l’environnement ne peut ainsi être qu’une combinaison humaine et technique, l’une n’absolvant pas l’autre, surtout dans le domaine de la stratégie.

Cet article Conserver et innover, l’impossible paradigme ? est apparu en premier sur EchoRadar.eu.

Dossier Noël 2018 : Environnement et stratégie

Par Nicolas Mazzucchi

En fin d’année, l’environnement est toujours à la mode. Les conférences des Etats qui sont signataires de la Convention-Cadre des Nations-Unies sur les Changements Climatiques (CCNUCC) – aussi connues sous leur abréviation de COP – se succèdent chaque décembre avec le constat sans cesse renouvelé de l’urgence à agir pour la planète. Alors que la COP21 avait fixé un objectif de limitation de la hausse des températures à la surface de la planète de 1,5°C d’ici la fin du siècle, les trajectoires actuelles, selon le GIEC, nous amènent plus vers des hausses comprises entre 3 et 5°C que vers les 1,5°C espérés ou les 2°C raisonnablement souhaités.

source

Qu’en déduire si ce n’est que l’environnement qui subit déjà des modifications importantes, connaîtra dans les années à venir des bouleversements aux effets le plus souvent négatifs. Entre la hausse du niveau des mers faisant disparaître des territoires, la modification de la salinité des océans, la multiplication des évènements climatiques extrêmes, les sociétés humaines seront confrontées à de nouveaux défis ; les forces de défense et de sécurité avec elles. L’intervention militaire française à Saint-Martin et Saint-Barthélemy à la suite de l’ouragan Irma à l’été 2017 a démontré combien les outils militaires et policiers pouvaient être importants dans la gestion des crises.

D’un autre point de vue, les modifications environnementales vont également créer des conditions de crises dans certaines zones ou compliquer l’action des forces en opérations. Il convient ainsi de penser l’adaptation des missions et des matériels – militaires et civils – à ces modifications environnementales. De nombreux concepts ont vu le jour depuis une décennie en ce domaine, le plus souvent en attente d’une véritable stratégie de déploiement et de mise en œuvre.

L’environnement c’est enfin le lieu où s’applique la stratégie, avec son brouillard et, surtout dans ce cas, sa friction. Or le changement climatique impose également de renverser ce paradigme traditionnel. Maintenant l’environnement est tout autant un facteur qui vient se télescoper frontalement avec la stratégie, imposant de s’adapter tout aussi bien mentalement que technologiquement.

Dans ce cadre la réflexion qui est conduite dans ce dossier permet d’appréhender à la fois ces permanences et ces évolutions, lesquelles ne devraient – malheureusement, ou heureusement en ce qui concerne les avancées technologiques – faire que s’amplifier dans les années à venir.

 

L’équipe EchoRadar

Cet article Dossier Noël 2018 : Environnement et stratégie est apparu en premier sur EchoRadar.eu.

Ballade de l’éthique du temps jadis

Par Informatiques Orphelines

François Villon (1431 – 1463) composa, il y a de cela quelques années, la Ballade des dames du temps jadis, célèbre pour son refrain « Mais où sont les neiges d’antan ? ». Les événements actuels incitent à penser que l’éthique, dont on ne cesse de nous rebattre les oreilles, est une des dames du temps jadis. Elle fut vive, elle est morte (et le diable l’emporte, pourrait-on ajouter tant est faible le nombre de ceux qui veulent la conserver en vie).

Source

Deux affaires ô combien emblématiques illustrent ce lent départ, progressif mais inexorable de l’éthique de notre société.

Facebook tout d’abord où l’on a récemment appris qu’une nouvelle fuite de données avait eu lieu alors que Zuck en personne s’était excusé et avait juré la mains sur le cœur que cela n’arriverait plus jamais, et Renault ensuite, où le samouraï n’en finit plus de chuter.

Quel rapport avec un éventuel faire-part de décès de l’éthique ?

Nous l’allons voir.

Point un

Facebook d’abord, géant mondial du numérique, portail de communication incontournable ou caisse de résonance selon les personnes. Que lui est-il (encore) arrivé ? Une fuite de données, mais petite, légère, une fuitounette en fait. Plus de 6 millions de comptes utilisateurs touchés. C’est beaucoup ? En regard des 2,27 milliards d’utilisateurs actifs chaque mois (chiffres du 3° trimestre 2018), cela ne fait que 2,6 pour mille.

Négligeable donc.

Selon les commentateurs, c’est un bug, une compromission, une exposition de photos privées, ou encore une fuite :  » tous les utilisateurs seraient concernés, même s’ils ont indiqué ne pas vouloir partager leurs informations avec des applications tierces. »

Mais que vient faire l’éthique dans cette affaire ?

Rappelle-toi (Barbara, il pleuvait sur Brest ce jour-là…) lecteur des suites de l’affaire Cambridge Analytica. Zuck déclara devant le Congrès US : « C’était mon erreur. Je suis désolé » et auparavant il avait également déclaré « Nous allons corriger le tir en espérant avoir des résultats avant la fin de l’année » Et voilà un espoir déçu, car la fin de l’année approche et une nouvelle fuite a eu lieu ! Un précédent billet évoquait déjà Zuck, manager modèle. Reconnaissons que son discours est séduisant, qu’il est dans l’air du temps post-moderne de battre sa coulpe en public et de s’en contrebalancer par la suite, comptant pour cela sur la faible persistance mémorielle du plus grand nombre.

Et c’est justement là qu’apparaît, ou plutôt que disparaît l’éthique !

On pourrait disserter à loisir sur les modernes droit d’aînesse et plat de lentilles !

Point deux

Passons à la deuxième affaire de ce billet : Renault et son patron samouraï bien que gaijin, héros de manga, modèle du redresseur d’entreprise et… en prison. Certes, il peut ne pas sembler déraisonnable (attention <théorie du complot>) que des règlements de compte soient aussi à l’œuvre dans cette affaire (attention </théorie du complot>), mais l’éthique semble avoir souffert.

Le Point nous apprend fin novembre que « Carlos Ghosn est soupçonné d’avoir certifié, en tant que PDG de Nissan, ces rapports financiers tout en sachant qu’ils comportaient des inexactitudes concernant ses propres revenus. Il les aurait minimisés d’un milliard de yens par an (7,7 millions d’euros) durant cinq années, selon le bureau du procureur qui n’a pas donné de plus amples informations. » et que selon une source proche de l’affaire «  Il n’y a pas de procédure de contrôle externe systématique des informations publiées, car elles sont supposées être exactes puisque certifiées  » par le patron. «  En revanche, les autorités peuvent engager des procédures en cas de découverte de malversation  » Donc si le patron certifie lui-même les comptes, on peut penser qu’il y porte une attention certaine. Convaincu de son innocence, mais reconnaissant cependant que Ghosn n’était plus en état de diriger l’entreprise, le procureur général du Japon Bruno Le Maire déclara sur BFM TV « La nouvelle gouvernance de Renault a lancé un audit sur les questions de rémunération et d’abus de bien social, pour vérifier qu’il n’y a rien eu de difficile, de délicat que nous puissions trouver. »

Selon les échos, cet audit a été rondement mené puisqu’il a pu livrer ses conclusions à ce jour. Deux semaines pour un audit d’une telle importance, ne mégotons pas notre respect ! Le journal nous apprend que celle-ci (l’enquête interne chez Renault) conclut à la conformité des éléments de rémunération (dont ses avantages en nature) de Carlos Ghosn à la législation sur la période 2015-2018. « Mais l’enquête n’est pas terminée », insiste un porte-parole du constructeur. « Il faudra aussi traiter la période 2010-2015, et l’étendre aux autres membres du comité exécutif ». Pourtant, selon une source ayant eu accès au dossier, « il y a réellement un problème : il contient beaucoup plus que ce qui est sorti pour l’instant ». Le même journal nous apprend que c’est Claude Baland, ex-directeur général de la police nationale désormais directeur de l’éthique du groupe, qui a été chargé de l’enquête interne sur les pratiques de Carlos Ghosn au sein de l’ex-régie. Ce qui sous-entend que les fonctions passées sont gage d’une éthique forte et garantes de son application rigoureuse. On ne prête,paraît-il, qu’aux riches…

Rappelons qu’en 2011, une fausse affaire d’espionnage chez le constructeur pouvait faire douter d’une mise en œuvre sérieuse d’une éthique rigoureuse. Elle avait été la source de la création de cette direction de l’éthique au sein du groupe suite au licenciement non fondé de trois proches collaborateurs du président. Mais la création de telles directions semble s’apparenter à la création de comités Théodule.

Et donc

Ces deux entreprises, bien que différentes par leur secteur d’activité, montrent une certaine déréliction de l’éthique dans leurs murs. Déjà prises la main dans le sac pour des manquements que l’on peut qualifier de graves, leurs deux patrons sont de nouveau dans la tourmente quelque temps après, pour un motif différent.

On peut voir le bon côté des choses en estimant qu’ils ont tiré la leçon des faits précédents, mais on peut aussi craindre que, s’il fallait tirer la pelote, d’autres affaires ne sortent.

Un autre point commun à ces affaires est la similitude de traitement par la presse des deux personnalités en cause. Manages extraordinaires, patrons d’exception, symboles de la réussite, etc., etc. il n’y a pas si longtemps, voici que maintenant leur étoile médiatique pâlit.

Et si les résultats ne suffisaient pas pour être un bon patron et un bon manager ?

Et s’il fallait davantage d’éthique, mais personnelle et non pas institutionnelle, tant il semble que la création de comités d’éthique n’ait pour seul but que d’exclure ce point de toutes les discussions ?

Le combat des gardiens est d’abord de formation et d’autoformation dans l’humanisme de l’avenir. Ils acquièrent ainsi force d’âme, droiture et auctoritas. La première lutte sera toujours, dans l’avenir, intérieure, reformation personnelle dans la vérité du Bien, conquête de la liberté authentique écrit Henri Hude dans La formation des décideurs (ed. Mame, p 76). On ne peut lui donner tort.

Pour les lecteurs arrivés au terme de ce billet, voici la Ballade originelle :

Dites-moi, où et en quel pays
Est Flora, la belle romaine,
Alcibiade et Thaïs
Qui fut sa cousine germaine ?
Écho, qui parle quant on fait du bruit
Au-dessus d’une rivière ou d’un étang
Et eut une beauté surhumaine ?
Mais où sont les neiges d’antan ?

Où est la très savante Héloïse
Pour qui fut émasculé puis se fit moine
Pierre Abélard à Saint-Denis ?
C’est pour son amour qu’il souffrit cette mutilation.
De même, où est la reine
Qui ordonna que Buridan
Fût enfermé dans un sac et jeté à la Seine ?
Mais où sont les neiges d’antan ?

La reine blanche comme un lys
Qui chantait comme une sirène,
Berthe au Grand Pied, Béatrice, Alix,
Erembourg qui gouverna le Maine,
Et Jeanne, la bonne lorraine
Que les Anglais brûlèrent à Rouen,
Où sont-elles, Vierge souveraine ?
Mais où sont les neiges d’antan ?

ENVOI
Prince, gardez-vous de demander, cette semaine
Ou cette année, où elles sont,
De crainte qu’on ne vous rappelle ce refrain :
Mais où sont les neiges d’antan ?

Cet article Ballade de l’éthique du temps jadis est apparu en premier sur EchoRadar.eu.

Dernières nouvelles du futur de Patrice Franceschi

Par Yannick Harrel

 

Les romans d’anticipation ou les dystopies ne manquent pas en langue française, avec une qualité somme toute assez variable, même si l’on peut citer ceux de Jean-Christophe Rufin (Globalia [1]), Michel Houellebecq (Soumission) ou encore Pierre Boule (La planète des singes). Je n’oublie pas bien entendu Jules Verne qui fut l’un des précurseurs en la matière.

Les nouvelles sont un genre plus condensé revenant à la mode, lesquelles permettent, si telle est la volonté de l’auteur bien entendu, de fonder une cosmogonie parcellisée. Les dernières nouvelles du futur appartient à ce genre où les histoires s’enchaînent (au nombre de quatorze) et offrent dès lors une succession de thématiques très contemporaines.Il faut rappeler que l’auteur, Patrice Franceschi, a toujours tenu à conserver sa plume et son encrier dans son sac à dos : officier parachutiste, président de la société des explorateurs français car ancien explorateur très actif depuis les années 1970, et enfin prix Goncourt 2015 de la nouvelle avec Première personne du singulier.

Et c’est ainsi fort logiquement que l’on navigue ainsi vigoureusement d’une nouvelle axée sur l’intelligence artificielle à une autre sur les dernières réserves naturelles sur Terre en passant par celle du crime de prise de risque. L’une d’entre elle réadapte aussi le scénario catastrophe du Grand Déluge biblique.

Mention spéciale à celle portant sur la guerre civile à Paris où les quartiers constituant celle-ci sont chacuns tenus par une communauté bien déterminée – sexuelle, religieuse, ethnique, politique – aux alliances fluctuantes mais territorialisées. Où comment le multiculturel, au sens large, vire au multiconflictuel en exacerbant les différences au mépris de l’intérêt général et du respect d’un socle de valeurs communes.

Deux institutions composent le fil rouge de cette suite de nouvelles.
La première est l’omniprésente et omnipotente – mais pas omnisciente – Nations Unies Universelles. Une assemblée très diffuse, évoquée toujours très subrepticement en quelques récits, qui instaure un ordre et des normes visant à préserver l’Homme de lui même. Façonnant un homme nouveau, heureux de sa condition, sans aspérité, sans désir, sans idéaux, sans identité et sans avenir.

La seconde est l’omniscient – mais pas omniprésent ou omnipotent – Réseau Sénèque, nommé en hommage au dramaturge et philosophe de la Rome Antique [2]. Celui-ci vise à libérer les hommes nouveaux du carcan des technologies inhibitrices et inquisitrices sous couvert de progrès technologiques n’apportant que la paix. Cette paix étant obtenue en enferrant l’homme dans un moule aussi lisse que possible.

Ce recueil est plaisant, ne manque pas d’éléments prospectifs appuyé par des personnages attachants dont la réaction à l’environnement – technique et humain – contraste avec la fausse prévention des autorités et des technologies garantissant la stabilité de la société au prix d’une surveillance implacable.

S’il fallait résumer l’ouvrage :

Côté positif : un style nerveux, des nouvelles rapides à parcourir, des situations bien campées, des finals surprenants.
Côté négatif : une qualité d’écriture pas toujours égale, des passages trop elliptiques, des facilités de contexte, des sujets déjà traités et approfondis par d’autres auteurs.

De bonnes lectures pour les fêtes de fin d’année…

 

[1] Globalia est un roman d’anticipation de 2004 dont la dichotomie entre métropoles et périphérie a été portée à son paroxysme, annonçant les grandes fractures socio-géographiques des années 2010 au sein des démocraties occidentales.
[2] Sénèque (-4 av. JC. – 65 ap. JC.) était un auteur romain, précepteur personnel de l’empereur Néron. Il appartient à l’école stoïcienne, avec cette particularité qu’il fut capable de transiger avec les exigences du quotidien, rompant ainsi avec une austérité souvent répulsive du stoïcisme pour le commun.

Cet article Dernières nouvelles du futur de Patrice Franceschi est apparu en premier sur EchoRadar.eu.