L’utilisation de notre corps pour débloquer l’accès à des services soulève des inquiétudes quant au compromis entre commodité et vie privée.
Dans une cantine scolaire de Gateshead, des caméras scannent le visage des enfants et prennent automatiquement les paiements après les avoir identifiés par reconnaissance faciale. À plus de 300 km de là, dans le nord de Londres, le personnel d’une maison de soins a récemment participé à un essai qui utilisait les données faciales pour vérifier leur statut vaccinal au Covid-19. Et dans les magasins de proximité du pays, le personnel est alerté de la présence de voleurs à l’étalage potentiels par un système de vidéosurveillance intelligent qui exploite une base de données des individus jugés suspects.

Dans chaque cas, les données biométriques ont été exploitées pour tenter de gagner du temps et de l’argent. Mais l’utilisation croissante de notre corps pour déverrouiller des zones de la sphère publique et privée a soulevé des questions sur tous les aspects de la vie privée, de la sécurité des données et des préjugés raciaux.

CRB Cunninghams, la société américaine dont la technologie de reconnaissance faciale est déployée dans les cantines, a déclaré que ses systèmes accélèrent les paiements et pourraient réduire le risque de propagation de Covid-19 par contact avec les surfaces. Le système a été testé pour la première fois à l’école Kingsmeadow de Gateshead l’année dernière et des dizaines d’écoles se sont engagées à le suivre.

L’enthousiasme pour le système pourrait cependant s’essouffler après que le conseil municipal du North Ayrshire ait suspendu l’utilisation de la technologie dans neuf écoles à la suite d’une réaction négative. La décision de faire marche arrière a été prise après que des parents et des experts en éthique des données ont exprimé leur inquiétude quant au fait que le compromis entre commodité et vie privée n’avait peut-être pas été pleinement pris en compte.

« Il s’agit de gagner du temps », a déclaré le professeur Sandra Wachter, spécialiste de l’éthique des données à l’Oxford Internet Institute. « Est-ce que cela vaut la peine d’avoir une base de données de visages d’enfants quelque part ? ».

Stephanie Hare, auteur de Technology Ethics, voit dans l’utilisation des données biométriques des enfants un moyen « disproportionné » de rendre les files d’attente pour le déjeuner plus rapides. « Vous normalisez les enfants qui comprennent leur corps comme quelque chose qu’ils utilisent pour effectuer des transactions », a-t-elle déclaré. « C’est ainsi que vous conditionnez une société entière à utiliser la reconnaissance faciale ».

Les experts s’inquiètent du fait que les systèmes de données biométriques ne sont pas seulement défectueux dans certains cas, mais qu’ils entrent de plus en plus dans nos vies sous le radar, avec une connaissance ou une compréhension limitée du public.

Il existe des exemples salutaires de la façon dont une telle technologie pourrait être utilisée de manière inquiétante et autoritaire, et la Chine offre certains des précédents les plus extrêmes. Après une série de vols de papier toilette dans les toilettes publiques d’un parc de Pékin, les utilisateurs ont été invités à se soumettre à un scan du visage avant que le papier ne soit libéré, et à Shenzhen, les piétons qui traversaient la route à un feu rouge ont vu leur visage diffusé sur un panneau d’affichage.
Publicité

Aux États-Unis, une société peu connue, Clearview AI, a révélé en 2020 qu’elle avait exploité des sites de médias sociaux tels que Facebook pour collecter les données faciales des utilisateurs, recueillant plus de 3 milliards de photos qui pouvaient être communiquées à la police.

Certaines des technologies qui seront déployées au Royaume-Uni semblent, à première vue, plus inoffensives. Eurostar teste l’utilisation des données faciales pour l’embarquement dans ses trains transmanche, à l’aide d’une technologie conçue par la société américaine Entrust.

À Manchester, le maire de la ville, Andy Burnham, s’est entretenu avec FinGo, une startup dont la technologie analyse le motif unique des veines des doigts des personnes.

Les applications envisagées sont le paiement des bus, l’accès aux universités et la fourniture de médicaments sur ordonnance, tandis que l’autorité de la ville chargée des licences a approuvé son utilisation dans les lieux d’accueil.

FinGo affirme qu’il stocke une version codée du motif de l’empreinte digitale, qui ne peut être reconstituée par des voleurs, et que différents segments de données sont stockés à différents endroits pour renforcer la sécurité.

Au début de l’année, dans trois maisons de soins du nord de Londres gérées par Springdene, la société londonienne iProov, spécialisée dans la vérification faciale, a testé des systèmes permettant au personnel de vérifier leur statut Covid à l’aide de leur visage.

Cette technologie n’est actuellement utilisée nulle part, a précisé iProov, mais c’est l’une des nombreuses entreprises dont les systèmes sont intégrés à l’application NHS, déployée lorsque les utilisateurs souhaitent accéder à des services tels que leur statut Covid ou la prise de rendez-vous chez le généraliste en utilisant leur visage.

Ces applications ont suscité des doutes chez les experts en technologie et les groupes de défense des libertés civiles quant à la durée de stockage des données des utilisateurs, à la sécurité de ces données et même à la possibilité pour les organismes étrangers chargés de l’application de la loi de demander à les consulter.

Ankur Banerjee, directeur de la technologie chez Cheqd, une entreprise spécialisée dans l’identité numérique, souligne que la technologie biométrique repose sur la confiance que nous accordons aux personnes qui l’exploitent. À Moscou, les usagers du célèbre métro de la ville peuvent désormais payer en utilisant leur visage, un système qui, pour l’instant du moins, est volontaire.

« C’est pratique pour 99 % des gens, mais si quelqu’un se présente à une manifestation antigouvernementale, il a soudain la possibilité de savoir qui est entré et sorti, contrairement à une carte de type Oyster qui pourrait ne pas être enregistrée », a déclaré M. Banerjee.

Certaines technologies déjà couramment utilisées au Royaume-Uni ont suscité des inquiétudes quant aux libertés civiles. La société FaceWatch, basée à Londres, vend des systèmes de sécurité qui alertent le personnel des magasins de la présence d’un « sujet d’intérêt », généralement une personne ayant eu un comportement antisocial ou ayant été prise en flagrant délit de vol à l’étalage. Au départ, il s’agissait d’un système permettant de repérer les pickpockets au Gordon’s wine bar, dans le centre de Londres, dont le fondateur de FaceWatch, Simon Gordon, est le propriétaire.

Des caméras scannent le visage de toute personne entrant dans un bâtiment et le comparent à une base de données de personnes faisant l’objet d’une attention particulière.

Toutefois, M. Wachter s’inquiète de la perspective de voir cette technologie se généraliser. « Des recherches ont montré que les logiciels de reconnaissance faciale sont moins précis avec les personnes de couleur et les femmes. » Elle souligne également la possibilité que les préjugés humains existants soient câblés dans une technologie supposée neutre. « Comment pouvez-vous croire qu’ils se sont retrouvés sur la liste de surveillance avec exactitude ? Il y a des préjugés dans le maintien de l’ordre sélectif et dans le système judiciaire. »

Dans de nombreux cas, on ne sait pas non plus à qui ces systèmes doivent rendre des comptes et comment les individus peuvent contester les jugements qu’ils rendent. « Que se passe-t-il si j’ai été accusé à tort, ou si l’algorithme m’a fait correspondre de manière incorrecte avec quelqu’un d’autre ? ». demande Banerjee. « C’est une justice privée où vous n’avez aucun recours sur la possibilité de corriger cela ».

FaceWatch a déclaré qu’elle ne partage pas les données faciales qu’elle détient avec la police, bien qu’elle puisse y accéder si une infraction est signalée. La société a déclaré qu’elle minimisait le risque d’erreur d’identification en veillant à ce que les caméras soient placées dans un endroit bien éclairé afin d’améliorer la précision, les cas limites étant renvoyés à un vérificateur manuel. Les personnes figurant sur la liste de surveillance peuvent, selon l’entreprise, contester la décision.

FaceWatch ajoute qu’elle stocke les données faciales pendant deux ans et qu’elles sont à la fois cryptées et protégées par une sécurité de « qualité bancaire ».

Mais M. Wachter souligne que les systèmes de sécurité qui protègent nos données biométriques ne sont à la pointe du progrès que le jour où ils sont violés.

« L’idée d’une violation de données n’est pas une question de si, c’est une question de quand », a-t-elle déclaré. « Bienvenue sur internet : tout est piratable ».

Nous devrions, selon elle, être prudents avant de déployer une technologie simplement parce qu’elle promet de nous faciliter la vie. « L’idée est que dès qu’une chose est développée, elle a sa place dans la société », a-t-elle déclaré. « Mais parfois, le prix à payer est trop élevé ».