Nous nous dirigeons vers de gros problèmes si Gardaí se dote d’une technologie de reconnaissance faciale – The Irish Times


En recherchant une législation autorisant l’utilisation de la technologie de reconnaissance faciale (FRT) dans le maintien de l’ordre, l’Irlande risque d’introduire une technologie dont les preuves scientifiques ont démontré qu’elle est inefficace, intrinsèquement imparfaite, opaque et discriminatoire. Les défenseurs des droits et des libertés civiles du monde entier ont formé des coalitions pour mettre en garde contre ses dangers. Si l’Irlande va de l’avant avec cette technologie controversée, ce n’est qu’une question de temps avant que le pays ne se retrouve dans une nouvelle presse internationale prudente.

L’idée d’apprendre à un ordinateur à reconnaître un visage est une émanation de la recherche sur la vision par ordinateur, avec la première proposition notable – les visages propres – avancée en 1991 par Matthew Turk. Les premières versions étaient pratiquement inutiles. Financées par l'agence de défense américaine Darpa et alimentées par la crainte des États-Unis d'être vaincues par l'Union soviétique, les techniques de vision par ordinateur se sont améliorées au fil du temps. L’idée d’utiliser FRT pour surveiller le public a fait son chemin.

Les premiers essais sur des foules ont eu lieu lors des matchs du Super Bowl aux États-Unis. Les signaux d’alarme techniques, juridiques et éthiques étaient évidents et l’enthousiasme pour la technologie s’est évanoui suite aux interventions de groupes tels que l’American Civil Liberties Union. Mais un regain d’intérêt pour le FRT s’est accru après le 11 septembre.

Le gouvernement a annoncé pour la première fois son intention d'utiliser le FRT par An Garda Síochána en mai 2022. Mais cela s'est heurté à un mur d'opposition de la part d'experts des universités irlandaises et de 13 ONG, dont le Conseil irlandais pour les libertés civiles (ICCL) et les droits numériques. Irlande (DRI). Cependant, le gouvernement a insufflé un nouvel élan à son plan à la suite des émeutes de Dublin.

L'année dernière, la semaine de Noël, un chef de projet de loi pour FRT a été publié.

Le commissaire de la Garda, Drew Harris, a fait valoir que pour « faire valoir les droits humains des citoyens dans une société numérique, la Garda Síochána doit avoir accès à des outils modernes d'analyse et de reconnaissance d'images numériques ». Mais comme les experts l’ont démontré, la FRT entrave les droits de l’homme, notamment les droits à la vie privée et à la liberté de réunion, d’expression et de mouvement.

Le Comité mixte pour la justice a tenu une série d'auditions sur le projet de loi dans le cadre de l'examen pré-législatif, au cours desquelles de nombreux organismes – dont la Law Society of Ireland, la Data Protection Commission, le Rape Crisis Network of Ireland, l'ICCL, le DRI et plusieurs universitaires experts – ont soulevé de sérieuses inquiétudes. Les problèmes liés au projet de loi allaient de lacunes flagrantes à l'incompatibilité avec les lois de l'Union européenne, en passant par l'inefficacité du FRT, son impact négatif disproportionné sur les communautés en marge de la société et les violations des droits de l'homme.

Les critiques ont été nombreuses et rapides. Comme le souligne Simon McGarr, avocat spécialiste de la protection des données : « Une façon de déterminer si un texte législatif a été rédigé avec succès est de savoir si le régulateur des données de l'État, la société civile, un grand nombre d'experts universitaires internationaux de premier plan et le représentant de l'ensemble d'une profession juridique sont présents. et souligne que ce serait illégal. Et c'est ce qui s'est passé.

Une particularité significative est apparue lors des audiences lorsque le directeur de l'information de la Garda Síochána, Andrew O'Sullivan, a affirmé que la technologie ne serait pas utilisée pour effectuer des « identifications définitives ». Nous ne disposons pas d'une base de données de référence, comme cela est parfois mal compris, avec laquelle comparer. Nous n’essayons pas de procéder à des identifications. Ceci, comme le souligne McGarr, « s’apparente à un homme chauve exigeant une législation pour des peignes gratuits ». Pourtant, l'utilisation du FRT pour l'identification par référence à une base de données d'images est prévue dans le projet de loi.

Afin d'exécuter FRT en public, une base de données de référence avec laquelle faire correspondre les images est essentielle. Malgré les questions répétées des experts, An Garda Síochána n'a pas fourni de réponses claires concernant la base de données de référence, sa taille, son contenu ou sa source. Cependant, compte tenu de la portée générale du projet de loi, il pourrait permettre à la base de données des cartes de services publics, une base de données biométrique contenant la majorité des images faciales de la population irlandaise, de servir de base de données de référence.

Des audits menés par des chercheurs de Cambridge ont révélé que les déploiements de FRT en Angleterre et au Pays de Galles ne répondaient pas à toutes les normes et exigences légales et éthiques minimales.

FRT étiquette et catégorise mal les visages au teint foncé. Rien qu'aux États-Unis, six personnes, toutes noires, ont été arrêtées et détenues à tort en raison d'erreurs. On ne sait pas combien de personnes mal identifiées ont pu conclure des accords de plaidoyer. Des recherches scientifiques solides confirment des taux d’erreur plus élevés lors de l’identification des personnes à la peau plus foncée. Pourtant, M. O'Sullivan a affirmé lors de l'audience pré-législative que FRT avait un taux d'exactitude de 99 pour cent, citant un rapport de l'Institut national américain des normes et de la technologie (NIST).

Pour cette affirmation de 99 pour cent, M. O'Sullivan a sélectionné l'algorithme le plus performant parmi des centaines d'algorithmes évalués par le NIST, un algorithme appelé « cloudwalk_mt_007 ». Cet algorithme est développé par CloudWalk Technology, une société chinoise connue pour faciliter la surveillance de masse de la population ouïghoure. Les informations cruciales sur le fonctionnement de leurs algorithmes sont gardées secrètes.

Le NIST a évalué l'algorithme à l'aide d'images nettes et de haute qualité collectées à partir de demandes de visa américaines, de kiosques frontaliers et de photos. Mais l'intention déclarée d'An Garda Síochána est d'utiliser toutes les images qu'elle détient légalement ou auxquelles elle a accès. Les images d'entrée du gardaí seront tirées de la vidéosurveillance (peu fiables en raison de l'angle de la caméra, de la distance, de la position et de l'éclairage), contenant souvent plusieurs visages dans une seule image (un défi majeur pour les algorithmes FRT) et des images floues. Citer l'étude de laboratoire du NIST pour l'utilisation irlandaise proposée dans le monde réel est, par accident ou à dessein, trompeur.

Pourtant, même avec des données de test propres, l'algorithme « cloudwalk_mt_007 » échoue sur les images des kiosques frontaliers, qui sont les plus proches de l'application réelle de FRT. L’algorithme montre également des écarts selon l’origine ethnique. Les femmes ouest-africaines sont de loin les plus touchées, ce qui signifie que son utilisation pourrait avoir un impact catastrophique en matière d’identification erronée des femmes noires.

Pour des études pertinentes sur les performances du FRT, des audits du FRT déployé dans des contextes similaires à celui de l'Irlande devraient être envisagés. Des audits menés par des chercheurs de Cambridge ont révélé que les déploiements de FRT en Angleterre et au Pays de Galles ne répondaient pas à toutes les normes et exigences légales et éthiques minimales.

Le débat sur « l’exactitude » ne fait qu’obscurcir les questions plus importantes : la FRT est une menace pour les droits fondamentaux, qu’elle soit exacte ou non. Des groupes d'experts mondiaux réunissant des centaines de parties prenantes – dont Access Now, Amnesty International, European Digital Rights, Human Rights Watch, Internet Freedom Foundation et l'Instituto Brasileiro de Defesa do Consumidor – ont formé des coalitions pour garantir que le FRT dans les espaces publics soit interdit et que la technologie soit utilisée. été annulée dans de nombreuses villes américaines.

Le fait que le commissaire de la Garda qualifie l'introduction de cette technologie de « défense des droits humains des citoyens » alors que d'éminents experts en droits humains ont démontré comment cette technologie porte atteinte aux droits humains est pour le moins ironique.

L'attention du gouvernement devrait être axée sur la fourniture de ressources suffisantes à la Garda, actuellement confrontée à de nombreux problèmes affectant la rétention et le recrutement des gardaí, notamment les bas salaires, les retraites, les effectifs et la formation. L’introduction d’une technologie controversée de reconnaissance faciale est un faux pas qui ne fera que se retourner contre nous.

Abeba Birhane est une scientifique cognitive, actuellement conseillère principale en responsabilité de l'IA à la Fondation Mozilla et professeur adjoint adjoint à la School of Computer Science and Statistics du Trinity College de Dublin.

Laisser un commentaire