Un rapport de Cambridge révèle que l’utilisation par la police britannique de la technologie de reconnaissance faciale peut enfreindre les obligations éthiques et légales – JURIST


Un rapport publié jeudi par l’Université de Cambridge affirme que l’utilisation par la police britannique de la technologie de reconnaissance faciale (FRT) a enfreint de nombreuses obligations éthiques et en matière de droits humains.

Publié dans le Minderoo Center for Technology & Democracy, le rapport a audité l’utilisation de la technologie FRT par la police métropolitaine et la police du sud du Pays de Galles. Trois questions principales ont été décrites dans le rapport : la vie privée, la discrimination et la responsabilité. La vie privée est un droit protégé en vertu de la loi de 1998 sur les droits de l’homme et ne peut être entravée que lorsqu’elle « est conforme à la loi et nécessaire dans une société démocratique ». Cependant, le rapport a conclu que l’utilisation du FRT avait une « portée très large » et pourrait donc ne pas être conforme aux exigences énoncées dans la Loi sur les droits de la personne.

Le deuxième problème concernait la discrimination, une préoccupation commune aux projets FRT à grande échelle en raison des biais potentiels au sein de la technologie de l’IA. En vertu de la loi de 2010 sur l’égalité, une autorité publique « doit, dans l’exercice de ses fonctions, tenir dûment compte de la nécessité d’éliminer la discrimination ». Cependant, le rapport a conclu que :

Les déploiements n’ont pas été évalués de manière transparente pour détecter les biais dans la technologie ou la discrimination dans son utilisation. Par exemple, la police métropolitaine n’a pas publié d’évaluation des préjugés raciaux ou sexistes dans la technologie avant ses essais de reconnaissance faciale en direct. Ils n’ont pas non plus publié de données démographiques sur les arrestations qui en ont résulté, ce qui rend difficile d’évaluer si la technologie perpétue le profilage racial.

La dernière question abordée concernait les préoccupations concernant la responsabilité et la surveillance. Le rapport a conclu que «[t]il n’y avait pas non plus de mesures de réparation claires pour les personnes lésées par l’utilisation de la reconnaissance faciale. En outre, «l’organisme d’éthique supervisant la police du sud du Pays de Galles [FRT] les procès n’avaient pas d’experts indépendants en droits de l’homme ou en protection des données sur la base des notes de réunion disponibles.

Dans l’ensemble, bien qu’il y ait certainement une utilisation du FRT dans les sociétés modernes, comme le conclut le rapport, « nous devons nous demander quelles valeurs nous voulons intégrer dans la technologie ».

Laisser un commentaire