« Conditionner toute une société » : l’essor de la technologie des données biométriques | Biométrie


jeDans la cantine scolaire de Gateshead, des caméras scannent les visages des enfants, prélevant automatiquement le paiement après les avoir identifiés grâce à la reconnaissance faciale. À plus de 200 miles de là, dans le nord de Londres, le personnel d’une maison de soins a récemment participé à un essai qui a utilisé des données faciales pour vérifier leur statut vaccinal Covid-19. Et dans les magasins de proximité à travers le pays, le personnel est alerté des voleurs à l’étalage potentiels par un système de vidéosurveillance intelligent qui puise dans une base de données d’individus jugés suspects.

Dans chaque cas, les données biométriques ont été exploitées pour essayer de gagner du temps et de l’argent. Mais l’utilisation croissante de nos corps pour déverrouiller des domaines de la sphère publique et privée a soulevé des questions sur tout, de la confidentialité à la sécurité des données et aux préjugés raciaux.

CRB Cunninghams, la société américaine dont la technologie de reconnaissance faciale est déployée dans les cantines, a déclaré que ses systèmes accéléraient les paiements et pourraient réduire le risque de propagation de Covid-19 par contact avec des surfaces. Le système a été testé pour la première fois à l’école Kingsmeadow de Gateshead l’année dernière et des dizaines d’écoles se sont inscrites pour emboîter le pas.

L’enthousiasme pour le système est peut-être en déclin maintenant, cependant, après que le conseil du North Ayrshire a suspendu l’utilisation de la technologie dans neuf écoles à la suite d’un contrecoup. La décision de se retirer est intervenue après que les parents et les experts en éthique des données aient exprimé leurs inquiétudes quant au fait que le compromis entre commodité et confidentialité n’avait peut-être pas été pleinement pris en compte.

« Il s’agit de gagner du temps », a déclaré la professeure Sandra Wachter, experte en éthique des données à l’Oxford Internet Institute. « Est-ce que cela vaut la peine d’avoir une base de données de visages d’enfants quelque part ? »

Stephanie Hare, auteur de Technology Ethics, considère l’utilisation des données biométriques des enfants comme un moyen « disproportionné » d’accélérer les files d’attente pour le déjeuner. « Vous normalisez les enfants en comprenant leur corps comme quelque chose qu’ils utilisent pour effectuer des transactions », a-t-elle déclaré. « C’est ainsi que vous conditionnez toute une société à utiliser la reconnaissance faciale. »

Les experts craignent que les systèmes de données biométriques ne soient non seulement défectueux dans certains cas, mais qu’ils entrent de plus en plus dans nos vies sous le radar, avec une connaissance ou une compréhension limitée du public.

Il existe des exemples salutaires de la façon dont une telle technologie pourrait être d’une autorité troublante dans son utilisation, et la Chine offre certains des précédents les plus extrêmes. Après une série de vols de papier toilette dans des équipements publics dans un parc de Pékin, les utilisateurs ont été invités à se soumettre à un scan du visage avant que tout papier ne soit publié, et à Shenzhen, les piétons qui ont traversé la route à un feu rouge ont vu leur visage braqué. à un panneau d’affichage.

Aux États-Unis, une société peu connue appelée Clearview AI s’est révélée en 2020 avoir gratté des sites de médias sociaux tels que Facebook pour récolter les données faciales des utilisateurs, collectant plus de 3 milliards d’images pouvant être partagées avec la police.

Certaines des technologies qui seront déployées au Royaume-Uni semblent, à première vue, plus bénignes. Eurostar teste si les données faciales pourraient être utilisées pour embarquer dans ses trains transmanche, en utilisant la technologie développée par la société américaine Entrust.

À Manchester, le maire de la ville, Andy Burnham, s’est entretenu avec FinGo, une startup dont la technologie analyse le motif unique des veines dans les doigts des gens.

Les demandes à l’étude sont le paiement des bus et l’accès aux universités et la fourniture de médicaments sur ordonnance, tandis que l’autorité de délivrance des licences de la ville a approuvé son utilisation dans les lieux d’accueil.

FinGo dit qu’il stocke une version codée du motif veineux du doigt, qui ne peut pas être rétro-conçu par les voleurs, tandis que différents segments des données sont stockés à différents endroits pour renforcer la sécurité.

Plus tôt cette année, dans trois maisons de soins du nord de Londres dirigées par Springdene, la société de vérification faciale basée à Londres iProov a testé des systèmes qui permettent au personnel de vérifier leur statut Covid à l’aide de leur visage.

Cette technologie n’est utilisée nulle part pour le moment, a déclaré iProov, mais c’est l’une des nombreuses entreprises dont les systèmes sont intégrés à l’application NHS, déployés lorsque les utilisateurs souhaitent accéder à des services tels que leur statut Covid ou les réservations de rendez-vous GP en utilisant leur visage.

De telles applications ont suscité des inquiétudes parmi les experts en technologie et les groupes de défense des libertés civiles quant à la durée de conservation des données des utilisateurs, à leur sécurité et même à la question de savoir si les forces de l’ordre étrangères peuvent exiger de les voir.

Ankur Banerjee, directeur de la technologie de la startup d’identité numérique Cheqd, souligne que la technologie biométrique repose sur notre confiance dans les personnes qui l’exploitent. A Moscou, les usagers du célèbre métro de la ville peuvent désormais payer avec leur visage, un système qui, pour l’instant du moins, est volontaire.

« C’est pratique pour 99% des gens, mais si quelqu’un se présente à une manifestation antigouvernementale, il a soudainement la possibilité de retrouver qui est entré et sorti, contrairement à une carte de style Oyster qui pourrait ne pas être enregistrée », a déclaré Banerjee. .

Certaines technologies déjà couramment utilisées au Royaume-Uni ont suscité des inquiétudes au sujet des libertés civiles. FaceWatch, basé à Londres, vend des systèmes de sécurité qui alertent le personnel du magasin de la présence d’un «sujet d’intérêt» – généralement une personne qui s’est comportée de manière antisociale ou qui a déjà été surprise en train de voler à l’étalage. Cela a commencé comme un système pour repérer les pickpockets au bar à vin Gordon’s dans le centre de Londres, dont le fondateur de FaceWatch, Simon Gordon, est le propriétaire.

Des caméras scannent le visage de toute personne entrant dans un bâtiment et le comparent à une base de données de personnes désignées pour un examen spécial.

Cependant, Wachter s’inquiète de la possibilité que cette technologie se généralise. « La recherche a montré que les logiciels de reconnaissance faciale sont moins précis avec les personnes de couleur et les femmes. » Elle souligne également le potentiel des préjugés humains existants à être câblés dans une technologie prétendument neutre. « Comment pouvez-vous être sûr qu’ils se sont retrouvés sur la liste de surveillance avec précision ? Il y a des préjugés dans la police sélective et dans le système judiciaire. »

Il n’est pas non plus clair dans de nombreux cas à qui de tels systèmes doivent rendre des comptes et comment les individus peuvent contester les jugements qu’ils portent. « Et si j’ai été accusé à tort ou si l’algorithme m’a fait correspondre de manière incorrecte avec quelqu’un d’autre ? » demande Banerjee. « C’est une justice privée où vous n’avez aucun recours pour pouvoir corriger cela. »

FaceWatch a déclaré qu’il ne partageait pas les données faciales qu’il détient avec la police, bien qu’ils puissent y accéder si une infraction est signalée. La société a déclaré qu’elle minimise le risque d’erreur d’identification en s’assurant que les caméras sont positionnées sous un bon éclairage pour améliorer la précision, tout cas limite étant renvoyé à un vérificateur manuel. Les personnes sur la liste de surveillance peuvent, dit-il, contester la décision.

FaceWatch a ajouté qu’il stocke les données faciales jusqu’à deux ans et qu’elles sont à la fois cryptées et protégées par une sécurité « de niveau bancaire ».

Mais Wachter souligne que les systèmes de sécurité qui gardent nos données biométriques ne sont à la pointe de la technologie que jusqu’au jour où ils sont violés.

« L’idée d’une violation de données n’est pas une question de si, c’est une question de quand », a-t-elle déclaré. « Bienvenue sur Internet : tout est piratable. »

Nous devrions, dit-elle, être prudents quant au déploiement de la technologie simplement parce qu’elle promet de nous faciliter la vie. « L’idée est que dès que quelque chose est développé, il a une place dans la société », a-t-elle déclaré. « Mais parfois, le prix que nous payons est trop élevé. »

Laisser un commentaire