Câest sans surprise que le Premier ministre, Michel Barnier, a annoncĂ©, dans son discours de politique gĂ©nĂ©rale du 1er octobre, la gĂ©nĂ©ralisation de «la mĂ©thode expĂ©rimentĂ©e pendant les Jeux olympiques et paralympiques». En dâautres termes, la vidĂ©oprotection augmentĂ©e par algorithmes, adoptĂ©e Ă titre expĂ©rimental et temporaire par la loi du 19 mai 2023, est appelĂ©e Ă ĂȘtre pĂ©rennisĂ©e, avant mĂȘme la remise du rapport dâĂ©valuation de lâexpĂ©rimentation.
Le rĂ©gime de la «vidĂ©osurveillance», câest-Ă -dire lâenregistrement et la transmission dâimages de la voie publique aux autoritĂ©s «aux fins dâassurer la protection des bĂątiments et installations publics et de leurs abords» est dĂ©jĂ ancien. Introduite par la loi dâorientation et de programmation relative Ă la sĂ©curitĂ© du 21 janvier 1995, la vidĂ©osurveillance a Ă©tĂ© rebaptisĂ©e «vidĂ©oprotection» par la loi dâorientation et de programmation pour la performance de la sĂ©curitĂ© intĂ©rieure du 14 mars 2011 (Loppsi 2), afin de rendre le terme plus positif : le citoyen doit en permanence ĂȘtre protĂ©gĂ©, et non surveillĂ©. La logique qui conduit Ă postuler un besoin toujours plus important de protection nâa, en revanche, jamais Ă©tĂ© interrogĂ©e, de mĂȘme que lâefficacitĂ© concrĂšte de la vidĂ©oprotection sur le terrain reste Ă dĂ©montrer.
Les Ă©tudes sur ce point sont rares et le lĂ©gislateur peu intĂ©ressĂ© par leurs conclusions. Lâune des preuves est le fait que le rapport dâĂ©valuation de lâexpĂ©rimentation de la vidĂ©oprotection algorithmique doive ĂȘtre remis au Parlement le 31 dĂ©cembre 2024, soit trois mois avant la fin de lâexpĂ©rimentation en mars 2025. Sans mĂȘme attendre cette remise, le prĂ©fet de police, Laurent Nuñez, a dĂ©jĂ affirmĂ© mercredi 25 septembre que le bilan de lâexpĂ©rimentation Ă©tait «positif».
AnnoncĂ©e plusieurs mois avant la remise du rapport dâĂ©valuation, la gĂ©nĂ©ralisation de la vidĂ©oprotection augmentĂ©e par des systĂšmes dâintelligence artificielle, dont les bienfaits sont postulĂ©s semble-t-il par principe, sâinscrit dans une logique de fuite en avant sĂ©curitaire peu transparente, sans Ă©valuation des consĂ©quences sociales et Ă©thiques de lâadoption de ces technologies.
Il y a pourtant tout lieu dâinterroger le dispositif et de prendre le temps du dĂ©bat public. La vidĂ©oprotection algorithmique, telle quâelle est expĂ©rimentĂ©e actuellement en France, nâimplique certes pas la reconnaissance faciale en temps rĂ©el dans lâespace public. Il sâagit, sur autorisation prĂ©fectorale et dans le cadre de manifestations sportives ou culturelles, dâidentifier automatiquement et de signaler une sĂ©rie de huit «évĂ©nements» dĂ©finis par dĂ©cret du 28 aoĂ»t 2023. DĂ©parts de feux, vĂ©hicules roulant Ă contresens ou encore mouvements de foule font partie des «évĂ©nements» dont la dĂ©tection automatique paraĂźt de prime abord pertinente, sous rĂ©serve quâelle facilite rĂ©ellement la rĂ©action des autoritĂ©s compĂ©tentes sur le terrain, ce que seul le rapport dâĂ©valuation de lâexpĂ©rimentation permettra dâapprĂ©cier. Dâautres Ă©vĂ©nements dĂ©finis par le mĂȘme dĂ©cret laissent circonspects, Ă lâinstar de la dĂ©tection automatique de la «densitĂ© trop importante de personnes», manifestement dĂ©finie discrĂ©tionnairement par les services prĂ©fectoraux, ou encore du non-respect «du sens de circulation commun» par un piĂ©ton qui laisse entrevoir une sociĂ©tĂ© de la surveillance peu enviable. Corriger les imprĂ©cisions et lacunes
Une premiĂšre nĂ©cessitĂ© consiste Ă corriger ces imprĂ©cisions, ne serait-ce que par transparence envers les administrĂ©s et pour Ă©viter les dĂ©rives dâun dispositif qui constituerait, en lâĂ©tat, une arme terrifiante aux mains dâun gouvernement moins soucieux des libertĂ©s fondamentales. Une autre mesure indispensable rĂ©side dans lâinterdiction inconditionnelle de la reconnaissance faciale, laquelle nous conduit peu Ă peu au modĂšle dystopique de la surveillance Ă©tatique permanente, que nos sociĂ©tĂ©s dĂ©mocratiques doivent ĂȘtre en mesure dâĂ©viter. Il nây a en effet quâun pas entre lâidentification dâ«évĂ©nements» dĂ©terminĂ©s et celle des individus sur la base de leurs donnĂ©es biomĂ©triques. Sur ce plan, le droit europĂ©en souvent invoquĂ© est de peu de secours. Si le RĂšglement sur lâintelligence artificielle adoptĂ© le 13 juin 2024 fait en thĂ©orie de la «notation sociale» une ligne rouge, son article 5 permet bien lâutilisation de systĂšmes dâidentification biomĂ©trique Ă distance en temps rĂ©el dans des espaces accessibles au public Ă des fins rĂ©pressives, en cas de «menace rĂ©elle et prĂ©visible dâattaque terroriste» ou encore en vue de «la localisation ou lâidentification dâune personne soupçonnĂ©e dâavoir commis une infraction pĂ©nale» punissable dâune peine dâau moins quatre ans dâemprisonnement. Autrement dit, le lĂ©gislateur est seul arbitre du choix de sociĂ©tĂ© que constitue le dĂ©ploiement de la vidĂ©oprotection algorithmique, sur lequel il sera difficile de revenir.
Enfin, ce dĂ©bat doit ĂȘtre lâoccasion de remĂ©dier aux nombreuses lacunes du rĂ©gime juridique de la vidĂ©oprotection classique. A titre dâexemple, le fonctionnement comme la composition des Commissions dĂ©partementales de vidĂ©oprotection, crĂ©Ă©es dĂšs 1995 et dotĂ©es du pouvoir dâannuler lâimplantation dâun dispositif illĂ©gal depuis la Loppsi 2, sont parfaitement obscurs et doivent ĂȘtre encadrĂ©s. La loi devrait par la mĂȘme occasion prĂ©voir lâinstitution systĂ©matique et dĂšs la premiĂšre camĂ©ra, avec ou sans IA, dâun comitĂ© dâĂ©thique de la vidĂ©oprotection â facultĂ© actuellement laissĂ©e Ă la totale discrĂ©tion des collectivitĂ©s. Une composition transparente et un certain nombre de fonctions consultatives obligatoires permettraient, notamment, dâassocier de maniĂšre systĂ©matique les administrĂ©s Ă la politique de sĂ©curitĂ© locale.
Ce nâest quâen Ă©valuant correctement le dispositif actuel, sans prĂ©sumer de la nĂ©cessitĂ© de le pĂ©renniser et certainement pas en lâĂ©tat, que ces trois conditions de la rĂ©ussite du dĂ©bat sur la vidĂ©oprotection algorithmique qui sâannonce pourront ĂȘtre remplies.
On se souviendra aussi de cette start up qui derriÚre une VSA mystérieuse faisait en fait taffer des gens à Madagascar : https://www.francetvinfo.fr/internet/intelligence-artificielle/video-a-madagascar-les-petites-mains-bien-reelles-de-l-intelligence-artificielle_6515243.html