Les Jeux olympiques et Paralympique Paris 2024 seront décidément arrivés avec leur lot de scandales. Nettoyage social de la capitale, pénurie d’agents de sécurité, manque d’inclusivité… et légalisation de la surveillance de masse. Car c’est bien de cela dont il s’agit, tout du moins d’un pas supplémentaire vers Big-Brother.
La vidéosurveillance algorithmique est une technique d’« automatisation des images des caméras publiques » résume Katia Roux, chargée de plaidoyer « Libertés » à Amnesty International France. En ajoutant une « technologie logicielle » aux caméras classiques, le but est d’ « analyser les images, identifier certaines situations et déclencher une alerte », complète Marne Strazielle, militante à la Quadrature du Net.
La France est le premier pays de l’UE à introduire cette technique de surveillance
Concrètement, à l’aide de l’intelligence artificielle, les algorithmes sont entraînés à détecter et analyser huit types d’évènements : le non-respect du sens de circulation, le franchissement d’une zone interdite, la présence ou l’utilisation d’une arme, un départ de feu, un mouvement de foule, une personne au sol, une densité trop importante, un colis abandonné. Ces situations prédéterminées généreront une alerte qui pourra donner lieu à des mesures prises par les agents de sécurités, les forces de police, ou les pompiers.
Dans le cadre de la loi JO 2024, la vidéosurveillance algorithmique a été légalisée à titre expérimental, faisant de la France le premier pays dans l’Union Européenne à introduire cette technique de surveillance.
Si ces nouvelles technologies sont justifiées par ses promoteurs par une meilleure sécurisation des espaces publics, notamment pendant les Jeux de Paris, de nombreuses organisations dénoncent une dérive sécuritaire de la surveillance : « ce système s’apparente à une technologie de surveillance et d’évaluation des comportements, pouvant porter atteinte aux droits fondamentaux, en premier lieu au droit à la vie privée », s’inquiète Katia Roux.
Une technologie « intrusive »
Si la loi JO 2024 ne prévoit pas l’utilisation de caractéristique physique ou biologique permettant d’identifier une personne (ADN, contour de la main, empreintes digitales…), la vidéosurveillance algorithmique exploite des données comportementales : gestes, démarches, attitudes, pouvant permettre d’identifier les individus, et classées comme données biométriques par le RGPD (Règlement général sur la protection des données).
« Il s’agit donc d’une technologie intrusive » conclut la chargée de plaidoyer « Libertés » à Amnesty International France. L’intrusion dans le droit à la vie privée doit être « nécessaire et proportionnée au regard du droit international » rappelle la spécialiste en technologies et droits humains. « Or, il n’a jamais été démontré qu’il n’existait pas d’autres moyens, moins attentatoires aux libertés et aux droits, pour atteindre l’objectif légitime de sécurité », constate Katia Roux.
Biométrie vs respect des droits et des libertés
La Quadrature du net a d’ailleurs attaqué devant la Cnil (Commission nationale de l’informatique et des libertés) un dispositif de vidéosurveillance algorithmique expérimenté par la SNCF et la RATP dans la gare de Lyon, la gare du Nord, et la gare de Marseille Saint-Charles, dans le cadre des Jeux olympiques et paralympiques.
L’association, qui promeut et défend les libertés fondamentales dans l’environnement numérique, estime ainsi que l’algorithme utilisé permet d’analyser le comportement des personnes et entre donc dans les traitements biométriques, interdits par la loi.
« L’objectif est avant tout de faire reconnaître le caractère biométrique de ce type d’identification, mais aussi de pousser les gens à s’intéresser à ce qu’il se fait de manière illégale », explique Marne Strazielle.
Le spectre de la reconnaissance faciale
Les deux spécialistes d’Amnesty et de la Quadrature du Net alertent sur les probables suites à l’expérimentation de la vidéosurveillance algorithmique. « Il s’agit d’une étape supplémentaire vers l’utilisation de technologies toujours plus intrusives, comme la reconnaissance faciale », prévient Katia Roux.
Cette technique, qui permet à partir des traits de visage d’identifier ou d’authentifier une personne, n’est pas prévue dans la loi JO 2024.
Pourtant, « tout ça s’inscrit dans une trajectoire », constate la chargée de plaidoyer « Libertés » : « ces dernières années, les autorités françaises renforcent le pouvoir de surveillance de la police. On déploie de plus en plus de caméras, de drones. Maintenant, la couche algorithmique. On craint que la prochaine étape ne soit la reconnaissance faciale, qui est tout simplement incompatible avec les droits humains », met en garde Katia Roux.
Un outil d’autant plus dangereux entre les mains d’un pouvoir autoritaire
À travers leurs actions de sensibilisation, la Quadrature du Net constate que la population a globalement conscience de la dangerosité de la reconnaissance faciale. À l’inverse, le public non-informé du développement et du fonctionnement de la vidéosurveillance algorithmique a tendance à faire confiance aux autorités.
Pourtant, la séparation entre les deux techniques est fragile. Si la loi JO 2024 pourrait ouvrir la voie à la reconnaissance faciale, Amnesty et la Quadrature sont d’ores et déjà convaincus qu’elle légalisera et organisera sur le long terme l’utilisation de l’intelligence artificielle dans le « maintien de l’ordre » et la surveillance de la population.
Lors de la dissolution de l’Assemblée Nationale par Emmanuel Macron et les élections législatives, la France n’est pas passé loin d’être gouvernée par l’extrême droite. Entre ses mains, la vidéosurveillance algorithmique pourrait faire des ravages.
« Cette technique pourrait accompagner tout un tas de politiques répressives », explique Marne Strazielle. « Elle pourrait par exemple repérer un individu portant le voile et alerter les autorités si le pouvoir en place décrète que le hijab est interdit », indique la militante de la Quadrature du Net.
Un outil jusque-là principalement utilisé par la Russie et la Chine
La reconnaissance facile a été introduite en Russie lors de la coupe du monde de football de 2018, ici aussi légitimée par les impératifs de sécurité. « Le Kremlin a ensuite utilisé cette technique pour identifier et arrêter des manifestations pacifiques en soutien des opposants politiques », relate Katia Roux.
« En Chine, le pouvoir se sert de ces outils pour traquer et enfermer les personnes Ouïghours », continu la spécialiste de la branche française d’Amnesty. Ces techniques permettent « une surveillance de masse, ciblée, discriminatoire », ouvrant la possibilité à des pouvoirs autoritaires « d’en abuser pour viser de manière disproportionnée tel ou tel groupe de la population sur la base de leur couleur de peau, de leur origine ethnique, de leur sexe… ça peut être dramatique », s’inquiète la chargée de plaidoyer « Libertés ».
Sans allez jusqu’à l’utilisation de ces outils par des pouvoirs autoritaires, les algorithmes sont par essence discriminatoires. « Ces technologies ne sont pas neutres. Ce sont des outils conçus par des par des personnes, utilisées par des personnes, qui peuvent embarquer des biais discriminatoires » explique Katia Roux.
« Qu’est ce qui est considéré comme normal ou anormal ? Qui décide ? », interroge-t-elle.
Face à l’extrême droite, ne rien lâcher !
C’est pied à pied, argument contre argument qu’il faut combattre l’extrême droite. C’est ce que nous tentons de faire chaque jour dans l’Humanité.
Face aux attaques incessantes des racistes et des porteurs de haine : soutenez-nous ! Ensemble, faisons porter une autre voix dans ce débat public toujours plus nauséabond.Je veux en savoir plus.