top of page

Crédits : L'ADN

Vidéosurveillance algorithmique aux JO 2024, tremplin d’une dérive liberticide à la française ?

Par Matthieu Belloc

C’est sous les radars que l’article 7 du projet de loi relatif aux Jeux Olympiques et Paralympiques a été adopté le 23 mars dernier. A 59 voix pour (Renaissance, RN et LR) et 14 contre (NUPES), la vidéosurveillance algorithmique obtient une base juridique durable offrant un terrain d’expérimentation jusqu’à décembre 2024. La France devient par ce biais le premier pays européen à légaliser explicitement cette pratique. Candeur gouvernementale ? Cynisme ? La question sécuritaire alarme l’opposition qui voit ici en tout état de cause une décision « injustifiée et disproportionnée ». Donner le crédit du contrôle des masses à une technologie encore très méconnue plonge un peu plus l’hexagone dans un profond déni du droit humain international.  

« A situation exceptionnelle, moyens exceptionnels » répondait Gérald Darmanin face à un Parlement visiblement désintéressé de questions technico-numériques trop lointaines. L’ombre de la réforme des retraites plane alors au-dessus du Palais Bourbon. Elle détourne le regard d’élus trop impliqués, à juste titre, dans les débats parlementaires pour pouvoir se projeter en 2024. C’est grâce à cette mouvance politique de l’instant t que le ministère de l’Intérieur a su obtenir discrètement une majorité cruciale au déploiement de ces nouveaux dispositifs de sécurité. Dans quelle mesure s’appliqueront-ils ? Ils prendront effet à l'occasion « toute manifestation sportive, récréative ou culturelle exposée au risque terroriste où à l’atteinte de la sécurité de la personne ». Voyons ici de manière critique l’ensemble de la mise en pratique de la liberté d’expression, de réunion et d’association des individus. 

L’expérimentation de l’algorithmie au service de l’ordre ne pouvait avoir plus grande ampleur sur le sol national. D’autant plus qu’elle prendra effet sans même que les Français aient pu l’appréhender puisque la Coupe du Monde de rugby 2023 sera l’hôte des premiers tests. Acclimater la population à cette technologie pour atténuer sa réticence, voilà le maître-mot de cette « stratégie de la bouilloire ». Une fable anglo-saxonne l’illustre fabuleusement : « Jetez la grenouille dans l’eau bouillante et elle en bondira aussitôt, mais plongez là dans l’eau froide et augmentez la température doucement jusqu’à ébullition, et elle cuira s’en même s’en rendre compte ».

sdfsssssssssssssssssssssssssssssdqfsqdfqsdftitre-2.jpg

© AR avec Adobe stock et Citizen59 (CC BY-SA 2.0)

Tromper pour expédier

Ce teint fallacieux et perfide se retrouve généreusement dans l’argumentaire gouvernemental : « La VSA (ndlr : Vidéosurveillance algorithmique) ne servira pas à identifier mais à repérer les événements anormaux et susceptibles d’être à risque ». Darmanin précisant qu’elle serait uniquement un outil d’aide aux forces de l’ordre : « Il ne s’agit pas de mettre en place une forme de reconnaissance faciale ou de traitement biométrique ». Mais qui décide de ce qu’est un comportement anormal et suspect ? A quoi le reconnaît-on ? Sa définition reste floue (à l’image de nombreux contours de cette loi) puisqu’elle sera déterminée dans un futur décret. Les seuls éléments dont nous disposons dans le cadre de grands évènements sportifs comme les JO sont : les visages couverts, les regroupements d’individus, des statiticités individuelles suspectes ou encore des contresens dans la foule. Katia Roux, chargée de plaidoyers Liberté pour Amnesty International, sur ce système de traitement analyse : « Ils collectent des données purement biométriques donc peuvent identifier des personnes. Ils isolent la manière de marcher, de se déplacer dans l’espace public et à ce titre permettent de repérer et d’interpeller jusqu’au contrôle d’identité »

La détection du comportement anormal se fonderait donc sur la biométrie et s’intègrerait explicitement à l’algorithme. Il faut relier la capacité de la VSA à classer en permanence les corps et leur attributs physiques à la possibilité pour la police d’établir différentes catégories de profils suspects. Ce qui entre en contradiction avec le principe de proportionnalité et de non-discrimination. Le comité européen de protection des données l’appuie en exposant de potentielles « répercussions graves sur les attentes raisonnables des personnes en matière d’anonymat dans l’espace public ». La crainte d’être identifié(e), repéré(e) ou poursuivi(e) à tort a un effet négatif sur la volonté et la capacité d’exprimer ses libertés pleinement. 

Une opposition muselée

En dépit d’une contestation populaire timide, la méfiance politique et institutionnelle quant au passage de cette loi s’est construite avant tout par la recherche. Le terme d’expérimentation suggère un encadrement temporel et scientifique. Une évaluation indépendante de l’apport de la VSA à l’espace public figurerait comme un prérequis dans cette démarche. La Commission nationale de l'informatique et des libertés donnait un avis accablant sur la question « […] son déploiement est un tournant qui contribue à redéfinir la place de ces technologies dans nos sociétés, surtout l’IA ». La Quadrature du Net, association de défense et de promotion des droits et libertés sur Internet, parle elle « d’un changement d’échelle sans précédent dans la capacité de surveillance et de répression de l’Etat ». Dans la continuité des choses, le journal Le Monde déposait en janvier une tribune signée par plus de 40 organisations internationales demandant à ce que la société civile soit consultée avant le vote final. Force est de constater qu’après de multiples alertes relatives au manque de connaissances sur une technologie encore en développement, le danger de l’outil n’aura été que très peu débattu. En témoigne le passage du premier amendement transpartisan entre la majorité et le RN qui comprend le recours à des entreprises européennes pour l’exploitation d’images de VSA. L’intervention du privé dans l’espace public prend forme, la surdité des groupes d’études parlementaires sur la sécurité numérique tout autant.

Ce mode de fonctionnement détaché de l’avis scientifique n’est pourtant pas chose nouvelle. Si l’on se penche sur l’historique des grands évènements sportifs du XXIe siècle, nombreuses sont les similarités en termes d’encadrement et de projection. Ils sont un terrain d’étude rêvé pour les gouvernants : l’attention citoyenne est rivée sur le spectacle sportif et le poids de la menace terroriste pèse dans les négociations. Jules Boykoff, dans son livre Power Games : A political history of the Olympics, exhume l'entêtement des Etats à vouloir pérenniser ces expérimentations sécuritaires. Depuis les JO de Londres de 2012, la vidéosurveillance a été généralisée dans les rues de la capitale anglaise. Il en va de même pour la Coupe du Monde russe de 2018 où la reconnaissance faciale est aujourd’hui monnaie courante pour les Moscovites. La plupart des gouvernements concernés se défendent en affichant toujours une même posture de prudence au regard de l’IA, proclamant des auto-évaluations rétrospectives post-expérimentations. Un discours faussement autocritique puisqu’une fois lancée, la VSA a à chaque fois gagné pas à pas l’ensemble de l’espace public des pays qui y ont trait.

Image mediapart.jpg

Crédits : Mediapart

Un entêtement déraisonné

A l’égard d’un tel engouement gouvernemental pour la VSA, il est légitime d’en questionner l’efficacité. Jusqu’à présent, la majorité des tâches d’exploitation visuelle relevait d’êtres humains et d’opérateurs vidéo dans des centres de supervision urbains. La bascule vers l’ultra-numérisation de ce secteur s’est opérée courant 2015, suite à la mise en place des plans Vigipirate, à grands coups de subventions du ministère de l’Intérieur. Les résultats de cet investissement lourd, lorsqu’ils sont communiqués correctement, sont peu probants. La SNCF en 2016 testait des caméras intelligentes capables de prévenir de potentielles agressions, aucun résultat ne sera dévoilé. La RATP, elle, avouait fin 2020 que des tests de reconnaissance faciale assurant le port du masque avaient échoué (2% d’efficacité) et que la surveillance par des agents sur le terrain était au demeurant la meilleure. Les communes d’Aulnay sous Bois, Valenciennes et Nice, premières à se doter de ces équipements urbains, restent très évasives à ce sujet. Une technologie plus intrusive qu’intelligente tout bien considéré.

Au-delà de cette obstination infructueuse se présente un autre dilemme d’avenir. Le 17 mars dernier, 40 eurodéputés écrivaient un courrier d’opposition à l’article 7. Il y est mentionné très clairement qu’en adoptant cette disposition sans attendre les résultats européens, la France risque d’entrer en conflit avec la loi européenne sur l’IA. En effet, la majorité des 27 favorise l’interdiction stricte de la surveillance biométrique de masse. Elisa Martin, députée d’Isère, estime qu’il « aurait été plus sage d’attendre avant de voter ». Jean-Marie Burguburu, président de la commission nationale consultative des droits de l'homme, la rejoint et qualifie cette mesure de « prématurée et trop attentatoire aux libertés fondamentales pour être adoptée ». La France, en absolu cavalier seul, voit sa réputation d’Etat répressif et de leader européen des politiques de surveillance renforcée plus que jamais. 

bottom of page