Selon un article récent de Wired, des milliers de passagers de trains au Royaume-Uni ont probablement eu leurs visages scannés par un logiciel d’Amazon dans le cadre d’essais d’intelligence artificielle, comme le révèlent de nouveaux documents. Le système de reconnaissance d’images a été utilisé pour prédire l’âge, le sexe et les émotions potentielles des voyageurs, avec la possibilité que ces données soient utilisées pour des systèmes publicitaires à l’avenir.
Sécurité et Publicité : Pourquoi Tester l’IA dans les Gares ?
Au cours des deux dernières années, huit gares au Royaume-Uni, y compris de grandes gares comme Euston et Waterloo à Londres, Manchester Piccadilly et d’autres gares plus petites, ont testé cette technologie de surveillance IA. Les caméras de vidéosurveillance visaient à alerter le personnel des incidents de sécurité et à potentiellement réduire certains types de criminalité.
Amazon Rekognition : L’Outil de Surveillance Ultime
Les essais, supervisés par Network Rail, ont utilisé la reconnaissance d’objets, un type de machine learning qui peut identifier des éléments dans les flux vidéo, pour détecter les intrusions sur les voies, surveiller et prédire les surcharges de plateforme, identifier les comportements antisociaux (comme courir, crier, faire du skateboard, fumer) et repérer les voleurs de vélos potentiels. D’autres essais ont utilisé des capteurs sans fil pour détecter les sols glissants, les poubelles pleines et les drains qui risquent de déborder.
Intrusions et Crimes : L’IA en Première Ligne
Les détails de ces essais ont été révélés dans une série de documents obtenus grâce à une demande d’accès à l’information par le groupe de défense des libertés civiles Big Brother Watch. « Le déploiement et la normalisation de la surveillance IA dans ces espaces publics, sans beaucoup de consultation et de conversation, est une étape assez préoccupante », a déclaré Jake Hurfurt, chef de la recherche et des enquêtes du groupe.
Voyageurs Sous Surveillance : Âge, Sexe et Émotions Décryptés
Les essais ont utilisé une combinaison de caméras de vidéosurveillance « intelligentes » capables de détecter des objets ou des mouvements à partir des images qu’elles capturent, et de caméras plus anciennes dont les flux vidéo étaient connectés à une analyse basée sur le cloud. Entre cinq et sept caméras ou capteurs ont été inclus à chaque station, selon les documents datés d’avril 2023. Une feuille de calcul liste 50 cas d’utilisation possibles de l’IA, bien que tous ne semblent pas avoir été utilisés dans les tests.
De la Théorie à la Pratique : Ce que les Essais Ont Révélé
L’élément le plus préoccupant des essais, selon Hurfurt, concernait les « démographies des passagers ». Les documents indiquent que ce dispositif pourrait utiliser les images des caméras pour produire une « analyse statistique de la tranche d’âge et des démographies homme/femme » et pourrait également « analyser les émotions » telles que « heureux, triste et en colère ». Les images étaient capturées lorsque les gens franchissaient une « barrière virtuelle » près des portiques de billets et étaient analysées par le système Rekognition d’Amazon, permettant l’analyse des visages et des objets. Cette technologie pourrait permettre de mesurer la « satisfaction » des passagers, notent les documents, ajoutant que « ces données pourraient être utilisées pour maximiser les revenus publicitaires et de vente au détail. »
Surveillance et Vie Privée : Où Tracer la Ligne ?
Les chercheurs en IA ont souvent averti que l’utilisation de cette technologie pour détecter les émotions est « peu fiable », certains affirmant même que la technologie devrait être interdite en raison de la difficulté de déterminer ce que ressent quelqu’un à partir d’un audio ou d’une vidéo. En octobre 2022, l’Office du Commissaire à l’information du Royaume-Uni a publié une déclaration publique mettant en garde contre l’utilisation de l’analyse des émotions, déclarant que les technologies sont « immatures » et « qu’elles pourraient ne jamais fonctionner ».
Network Rail n’a pas répondu aux questions de WIRED sur les essais, y compris sur l’état actuel de l’utilisation de l’IA, la détection des émotions et les préoccupations en matière de confidentialité. Un porte-parole de Network Rail a déclaré : « Nous prenons la sécurité du réseau ferroviaire très au sérieux et utilisons une gamme de technologies avancées dans nos gares pour protéger les passagers, nos collègues et l’infrastructure ferroviaire contre les crimes et autres menaces. Lorsque nous déployons une technologie, nous travaillons avec la police et les services de sécurité pour nous assurer que nous prenons des mesures proportionnées, et nous nous conformons toujours à la législation en vigueur concernant l’utilisation des technologies de surveillance. »
Optimisation et Perspectives : Ce que Nous Apprenons de l’IA
Il n’est pas clair à quel point l’analyse des émotions a été déployée, les documents indiquant parfois que ce cas d’utilisation devait être « considéré avec plus de prudence ». Les rapports des gares indiquent qu’il est « impossible de valider l’exactitude ». Cependant, Gregory Butler, PDG de Purple Transform, une société d’analyse de données et de vision par ordinateur travaillant avec Network Rail sur les essais, affirme que la capacité a été abandonnée pendant les tests et qu’aucune image n’a été stockée lorsqu’elle était active.
Les documents de Network Rail sur les essais d’IA décrivent plusieurs cas d’utilisation potentiels pour les caméras afin d’envoyer des alertes automatisées au personnel lorsqu’elles détectent certains comportements. Aucun des systèmes n’utilise la technologie controversée de reconnaissance faciale, qui vise à faire correspondre l’identité des personnes à celles stockées dans des bases de données.
L’Avenir de la Surveillance : Vers des Gares Plus Intelligentes et Plus Sécurisées
« Un avantage principal est la détection plus rapide des incidents d’intrusion », a déclaré Butler, ajoutant que le système analytique de sa société, SiYtE, est utilisé sur 18 sites, y compris des gares et le long des voies. Au cours du dernier mois, Butler affirme que cinq cas sérieux d’intrusion ont été détectés sur deux sites, notamment un adolescent récupérant un ballon sur les voies et un homme « passant plus de cinq minutes à ramasser des balles de golf le long d’une ligne à grande vitesse. »
À la gare de Leeds, l’une des plus fréquentées en dehors de Londres, 350 caméras de vidéosurveillance sont connectées à la plateforme SiYtE, selon Butler. « Les analyses sont utilisées pour mesurer le flux de personnes et identifier des problèmes tels que la surpopulation sur les quais et, bien sûr, les intrusions – où la technologie peut filtrer les travailleurs des voies grâce à leur uniforme PPE », dit-il. « L’IA aide les opérateurs humains, qui ne peuvent pas surveiller toutes les caméras en continu, à évaluer et à résoudre les risques et les problèmes de sécurité rapidement. »
Les documents de Network Rail affirment que les caméras utilisées à une gare, Reading, ont permis à la police d’accélérer les enquêtes sur les vols de vélos en étant capable de repérer les vélos dans les images. « Il a été établi que, bien que les analyses ne puissent pas détecter un vol de manière fiable, elles pouvaient détecter une personne avec un vélo », indiquent les dossiers. Ils ajoutent également que de nouveaux capteurs de qualité de l’air utilisés dans les essais pourraient faire gagner du temps au personnel en leur évitant de vérifier manuellement. Un cas d’utilisation de l’IA utilise les données des capteurs pour détecter les sols « transpirants », devenus glissants avec la condensation, et alerter le personnel lorsque des nettoyages sont nécessaires.
Bien que les documents détaillent certains aspects des essais, les experts en protection de la vie privée disent être préoccupés par le manque global de transparence et de débat sur l’utilisation de l’IA dans les espaces publics. Dans un document conçu pour évaluer les problèmes de protection des données liés aux systèmes, Hurfurt de Big Brother Watch déclare qu’il semble y avoir une « attitude désinvolte » envers les personnes susceptibles d’avoir des préoccupations en matière de confidentialité. Une question posée dans le document est : « Certaines personnes sont-elles susceptibles de s’y opposer ou de le trouver intrusif ? » Un membre du personnel écrit : « Typiquement, non, mais il n’y a pas de compte pour certaines personnes. »
Parallèlement, des systèmes de surveillance IA similaires qui utilisent la technologie pour surveiller les foules sont de plus en plus utilisés dans le monde entier. Pendant les Jeux olympiques de Paris plus tard cette année, une vidéosurveillance IA surveillera des milliers de personnes et tentera de détecter les mouvements de foule, l’utilisation d’armes et les objets abandonnés.
« Les systèmes qui n’identifient pas les personnes sont meilleurs que ceux qui le font, mais je m’inquiète d’une pente glissante », déclare Carissa Véliz, professeure associée en psychologie à l’Institut pour l’éthique en IA de l’Université d’Oxford. Véliz pointe des essais similaires d’IA dans le métro londonien qui avaient initialement flouté les visages des personnes susceptibles d’avoir fraudé, mais avaient ensuite changé d’approche, défloutant les photos et conservant les images plus longtemps que prévu initialement.
« Il y a une volonté instinctive d’élargir la surveillance », dit Véliz. « Les êtres humains aiment voir plus, voir plus loin. Mais la surveillance mène au contrôle, et le contrôle à une perte de liberté qui menace les démocraties libérales. »
L’étude du NetworkRail est disponible ici