Lateo.net - Flux RSS en pagaille (pour en ajouter : @ moi)

🔒
❌ À propos de FreshRSS
Il y a de nouveaux articles disponibles, cliquez pour rafraîchir la page.
À partir d’avant-hierContrepoints

Adoption de la vidéosurveillance algorithmique : un danger sur les libertés

Le 23 mars 2023, l’Assemblée nationale approuvait l’article 7 du projet de loi olympique, qui se fixait entre autres buts d’analyser les images captées par des caméras ou des drones, pour détecter automatiquement les faits et gestes potentiellement à risques.

Pour être plus précis, l’article adopté prévoyait « l’utilisation, à titre expérimental, de caméras dont les images seront analysées en temps réel par l’IA. Ces caméras pourront détecter, en direct, des événements prédéterminés susceptibles de présenter ou de révéler des actes de violence, des vols, mais aussi de surveiller des comportements susceptibles d’être qualifiés de terroristes. »

Un article extrêmement controversé.

 

De la vidéosurveillance algorithmique

Il existe de nombreuses solutions technologiques permettant d’analyser et d’exploiter les données vidéo pour des applications de sécurité, de surveillance et d’optimisation opérationnelle. La vidéosurveillance algorithmique (VSA) est ainsi conçue pour extraire des informations significatives à partir de grandes quantités de données vidéo.

Ces solutions offrent des fonctionnalités telles que : la recherche vidéo avancée, la détection d’événements, l’analyse des comportements, et d’autres outils permettant aux utilisateurs de tirer des insights exploitables à partir de leurs systèmes de vidéosurveillance…

Comme l’indique sur son site la Société BriefCam, évoquant l’une de ses solutions VSA :

« Vidéo synopsis » : « La fusion unique des solutions VIDEO SYNOPSIS® et Deep Learning permet un examen et une recherche rapides des vidéos, la reconnaissance des visages, l’alerte en temps réel et des aperçus vidéo quantitatifs. »

Dans le cadre des JO 2024, de nombreux groupes étaient alors dans l’attente de la promulgation de cette loi pour se positionner, des groupes connus comme Thales et Idemia, et d’autres moins connus, comme XXII, Neuroo, Datakalab, Two-I ou Evitech. Il ne faut pas oublier que dans la fuite en avant du capitalisme de la surveillance (de masse), outre la sécurité promise de façon récurrente, pour ne pas dire fantasmée, des lobbys font pression et il y a des enjeux financiers. En 2022 « l’État projetait ainsi d’investir près de 50 millions d’euros pour les caméras de vidéoprotection, ce qui correspond à 15 000 nouvelles caméras ». En mai 2023, l’appel d’offres était lancé  par le ministère de l’Intérieur.

 

La VSA, une technologie très controversée et des lois expérimentales ?

L’usage de la Vidéo Surveillance Algorithmique censée détecter automatiquement, via une intelligence artificielle, un comportement « dangereux ou suspect », a suscité la réaction de nombreux défenseurs des libertés publiques et d’experts en tout genre. Les arguments sont multiples :

  • La VSA n’est pas infaillible et peut commettre des erreurs liées à des biais algorithmiques.
  • Les agences gouvernementales qui déploient des systèmes de VSA peuvent tout à fait ne pas divulguer pleinement la manière dont les technologies sont utilisées.
  • Aux problèmes du manque de transparence (qu’est-ce qu’un comportement suspect ?), viennent s’ajouter des « difficultés » liées à la vie privée, la discrimination, la surveillance de masse et à d’autres implications éthiques…
  • Par-delà le cadre officiel supposé cadrer son usage (cf. La publication fin août 2023 au Journal officiel du décret fixant les conditions de mise en œuvre) cette expérimentation sera possible jusqu’en 2025.

 

La vidéosurveillance change de nature, franchit un nouveau cap attentatoire aux libertés publiques. Elle nie une fois de plus toutes les études démontrant qu’elle est une sécurité fantasmée qui a été vendue aux citoyens. Il ne faut pas perdre de vue que le capitalisme de la surveillance est avant tout un véritable business fondé sur la peur.

Combien de fois faudra-t-il répéter (réécrire) que c’est un misérable leurre ?

Même une étude commanditée par la gendarmerie nationale conclut « à un apport très marginal de la vidéosurveillance dans la résolution des enquêtes judiciaires, mais aussi dans la dissuasion ».

De telles études ne sont pas médiatisées : « There’s no business like fear business ».

Et c’est ainsi qu’une surveillance de masse de plus en plus inacceptable poursuit sereinement son chemin… offrant aux pouvoirs s’autoproclamant démocratiques des outils terrifiants s’ils sont un jour dévoyés.

Pour autant, le mercredi 12 avril 2023, le Sénat adoptait définitivement la « LOI n° 2023-380 du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 et portant diverses diverses autres dispositions » !

Et le 24 mai 2023, par-delà les alertes de nombreux acteurs, comme la Quadrature du Net, et la saisie du Conseil constitutionnel par plus d’une soixantaine de députés, la vidéosurveillance intelligente aux JO était déclarée conforme à la Constitution. Cette validation figure désormais dans l’article 10 de la Loi relative aux jeux olympiques et paralympiques de 2024, autorisant à titre expérimental l’utilisation de la vidéosurveillance intelligente, notamment au moyen de drones. (cf. LOI n° 2023-380 du 19 mai 2023 relative aux jeux olympiques et paralympiques de 2024 et portant diverses autres dispositions)… : Chapitre III … (Articles 9 à 19) NDLA.

L’histoire de cette loi et de cet article très polémique n’est peut-être pas encore finie… En effet cette décision pourrait ne pas être en conformité avec le futur « Artificial Intelligence Act », en cours de discussion au Parlement européen.

 

Déploiement de systèmes de reconnaissance faciale depuis 2015 ? Vers un scandale d’État ?

La Commission nationale de l’informatique et des libertés (CNIL) a annoncé le 15 novembre 2023 engager « une procédure de contrôle vis-à-vis du ministère de l’Intérieur suite à la publication d’une enquête journalistique informant d’une possible utilisation par la police nationale d’un logiciel de vidéosurveillance édité par Briefcam et de fonctionnalités de ses solutions strictement interdites sur le territoire français : la reconnaissance faciale ».

Le 20 novembre 2023, réagissant à la publication d’informations du site d’investigation Disclose qui  affirme s’être appuyée sur des documents internes de la police, a révélé – sans conditionnel – l’usage par ces derniers d’un système de vidéosurveillance dit « intelligent » répondant au nom de « vidéo synopsis » depuis… 2015.

Du côté de la place Beauvau, s’il n’y a pas eu de démenti formel, quelques jours plus tard, pour donner suite aux révélations de Disclose, le 20 novembre 2023 le ministre de l’Intérieur déclarait sur France 5 avoir lancé une enquête administrative. Ce dernier a par ailleurs déclaré à Ouest-France « qu’un rapport avait été réclamé aux directeurs de l’administration pour qu’on lui confirme l’absence de reconnaissance faciale couplée à la vidéoprotection.

Notons que si Gérald Darmanin a toujours prôné l’usage de systèmes VSA comme outil de surveillance… il a toujours affirmé être opposé à la reconnaissance faciale !

Il avait ainsi déclaré en 2022 devant le Sénat :

« Je ne suis pas pour la reconnaissance faciale, un outil qui relève d’un choix de société et qui comporte une part de risque » et d’ajouter : « car je crois que nous n’avons pas les moyens de garantir que cet outil ne sera pas utilisé contre les citoyens sous un autre régime ».

Après avoir voulu intégrer la VSA dans la loi Sécurité Globale, puis dans la LOPMI, sans y parvenir, les JO 2024 ont été un nouveau prétexte… Et le pouvoir en place est arrivé à ses fins. Sans revenir sur les éléments que j’ai pu évoquer, sur l’efficacité discutable d’une surveillance de masse qui ne cesse de s’accroître en changeant de nature avec l’arrivée du VSA, et qui, pour reprendre les propos du ministre, comprend également une part de risque pour les citoyens, il ne faudrait pas oublier que :

« La VSA et la reconnaissance faciale reposent sur les mêmes algorithmes d’analyse d’images et de surveillance biométrique. La seule différence est que la première isole et reconnaît des corps, des mouvements ou des objets, lorsque la seconde détecte un visage ».

Quant à la part de risque qu’évoque le ministre, si l’affaire soulevée par Disclose est avérée, usage de fonctionnalité prohibée par des serviteurs de l’État dont les valeurs sont de « faire preuve de loyauté envers les institutions républicaines et être garant de l’ordre et de la paix publics »… ?

 

Et si c’était vrai…

La situation du ministre de l’Intérieur est dans cette affaire pour le moins extrêmement délicate.

En tant que « premier flic de France » comme il aime à se définir, en reprenant – pour l’anecdote – Clemenceau – le Premier ministre de l’Intérieur à s’être qualifié ainsi – il serait pour le moins dérangeant, pour ne pas dire grave, que les affirmations de Disclose soient confirmées, et que ces faits se soient déroulés dans son dos. Cela acterait un dysfonctionnement majeur et inacceptable place Beauveau, puisque ne garantissant plus un fonctionnement démocratique dont il est le garant. Ce scénario serait grave, et il serait encore plus terrible que l’enquête démontre que le ministre, contrairement à ses allégations, en ait été informé.

À ce jour une enquête administrative, lancée par ce dernier est en cours.

Pour rappel, ce type d’enquête « vise à établir la matérialité de faits et de circonstances des signalements reçus et ainsi dresser un rapport d’enquête restituant les éléments matériels collectés auprès de l’ensemble des protagonistes. Sur la base de ces éléments, la collectivité décide des suites à donner au signalement ».

Dans le même temps, le groupe LFI a indiqué le 21 novembre être en train de saisir la justice au titre de l’article 40 du Code de procédure pénale et a réclamé une commission d’enquête parlementaire sur le « scandale de la reconnaissance faciale » ! Enfin, La CNIL, autorité indépendante gardienne de la vie privée des Français, a annoncé le 22 novembre le lancement d’une procédure de contrôle visant le ministère de l’Intérieur.

Au milieu de cette effervescence et de cet émoi légitime, que cela soit le ministère de l’intérieur, une partie de l’opposition, la CNIL… chacun est dans son rôle !

La sagesse est donc de patienter. Toutefois, il me semble que la seule porte de sortie du ministère dans la tourmente soit que les faits reportés soient faux ou au moins pire, extrêmement marginaux. Il serait fâcheux pour notre démocratie et pour reprendre les propos du ministre que « cet outil (sa fonctionnalité de reconnaissance faciale) ait été utilisé contre les citoyens ».

Ce serait encore plus dramatique si la reconnaissance faciale avait été utilisée en connaissance et avec l’aval des plus hautes instances. Alors se poserait une effroyable question – pour reprendre à nouveau les propos du ministre de l’Intérieur –  « aurions-nous changé de régime ? ».

❌