MISE À JOUR 1-Un détecteur de mensonge de haute technologie utilisé aux frontières de l’Europe fait l’objet d’un examen minutieux


(Refonte le plomb, ajoute un commentaire supplémentaire)

TBILISI, 5 février (Fondation Thomson Reuters) – Un détecteur de mensonges alimenté par l’intelligence artificielle et testé aux frontières de l’Union européenne fait l’objet d’un procès qui espère apporter plus de transparence sur le financement par le bloc d’une technologie «éthiquement discutable», a déclaré son promoteur.

Patrick Breyer, un législateur européen, demande la publication des documents de l’Agence de recherche de l’UE (REA) évaluant l’essai de 4,5 millions d’euros (5,4 millions de dollars) sur l’utilisation de détecteurs de mensonges à intelligence artificielle (IA) pour renforcer la sécurité aux frontières de l’UE.

« Je veux créer un précédent pour m’assurer que le public … puisse accéder aux informations sur la recherche financée par l’UE », a déclaré Breyer, du Parti pirate allemand, qui a décrit la technologie comme un « pseudo-scientifique de sécurité hocus pocus ».

Le plus haut tribunal de l’Union européenne a commencé à entendre l’affaire vendredi.

L’essai iBorderCtrl, qui s’est terminé en 2019, est l’un des nombreux projets visant à automatiser les frontières de plus en plus fréquentées de l’UE et à lutter contre la migration irrégulière et le terrorisme.

Le projet, lancé en 2016, a été testé en Grèce, en Lettonie et en Hongrie, suscitant les critiques de groupes de défense des droits de l’homme qui remettent en question la capacité de la technologie à évaluer avec précision les intentions des gens et son potentiel de discrimination.

La Commission européenne, qui gère la REA, a déclaré que le projet visait à tester de nouvelles idées et technologies.

«On ne s’attendait pas à ce que iBorderCtrl fournisse des technologies ou des produits prêts à l’emploi. Tous les projets de recherche ne conduisent pas au développement de technologies avec des applications du monde réel », a déclaré un porte-parole de la Commission dans des commentaires envoyés par courrier électronique.

Sous iBorderCtrl, les personnes prévoyant de voyager devaient répondre aux questions d’un garde-frontière animé par ordinateur, via une webcam. Leurs micro-gestes ont été analysés pour voir s’ils mentaient, selon le site de la Commission européenne.

Ensuite, à la frontière, des voyageurs à faible risque sont passés, tandis que des passagers à haut risque ont été envoyés pour des contrôles supplémentaires, a-t-il déclaré.

‘DYSTOPIEN’

Ella Jakubowska, du groupe de défense des droits numériques EDRi, s’est déclarée préoccupée par l’efficacité de l’IA pour prendre de telles décisions.

«Les expressions humaines sont variées, diverses (en particulier pour les personnes handicapées) et souvent culturellement contingentes», a-t-elle déclaré dans des commentaires par courrier électronique.

«(IBorderCtrl) n’est en aucun cas la seule expérience technologique dystopique financée par l’UE», a-t-elle ajouté.

IBorderCtrl a reconnu les préoccupations éthiques sur son site Web, ajoutant que le projet avait aidé à lancer un débat public sur l’utilisation de la technologie.

«Les nouvelles technologies peuvent avoir un impact significatif sur l’amélioration de l’efficacité, de la précision et de la rapidité, tout en réduisant le coût du contrôle aux frontières», a-t-il déclaré.

«Cependant, ils peuvent impliquer des risques pour les droits humains fondamentaux, qui doivent être approfondis et atténués avant qu’un concept ne soit mis en œuvre.»

Lorsque Breyer a demandé à la REA les résultats du projet, le rapport d’éthique et l’évaluation juridique en 2019, la REA a déclaré que la divulgation porterait atteinte aux intérêts commerciaux du consortium iBorderCtrl – une décision que Breyer conteste maintenant devant les tribunaux.

Breyer a déclaré qu’il espérait que l’affaire conduirait à une plus grande transparence sur le financement par l’UE d’une technologie «éthiquement discutable».

Bien qu’il soit peu probable que la technologie soit réutilisée aux frontières de l’UE, elle risquait de pénétrer le secteur privé, par exemple pour filtrer les demandes d’assurance ou les candidats à un emploi, a-t-il déclaré.

Alors que les gouvernements de l’UE se tournent de plus en plus vers les algorithmes et l’IA pour prendre des décisions importantes concernant la vie des gens, une plus grande transparence est nécessaire, a déclaré Merel Koning, responsable politique à Amnesty International.

«La (Commission européenne) doit soumettre toutes les recherches menées sur les systèmes d’IA à la pleine lumière du public et ne financer que des recherches qui respectent, protègent et promeuvent les droits de l’homme», a déclaré Koning à la Fondation Thomson Reuters.

La Commission a déclaré que toutes les propositions de recherche financées par l’UE font l’objet d’une évaluation spécifique qui vérifie leur conformité aux règles et normes éthiques.

« La Commission encourage toujours les projets à faire connaître autant que possible leurs résultats », a-t-il déclaré. (1 $ = 0,8344 euros) (Reportage par Umberto Bacchi @UmbertoBacchi, édité par Katy Migiro. Merci de mentionner la Fondation Thomson Reuters, la branche caritative de Thomson Reuters, qui couvre la vie de personnes dans le monde qui luttent pour vivre librement ou équitablement. Visitez news.trust.org)

Laisser un commentaire