Des scientifiques créent des jeux en ligne pour montrer les risques de reconnaissance des émotions par l’IA | Intelligence artificielle (IA)


C’est une technologie qui a été désapprouvée par les éthiciens: maintenant, les chercheurs espèrent démasquer la réalité des systèmes de reconnaissance des émotions dans le but de stimuler le débat public.

La technologie conçue pour identifier les émotions humaines à l’aide d’algorithmes d’apprentissage automatique est une industrie énorme, avec des affirmations qu’elle pourrait s’avérer utile dans une myriade de situations, de la sécurité routière aux études de marché. Mais les critiques affirment que la technologie soulève non seulement des problèmes de confidentialité, mais qu’elle est inexacte et raciste.

Une équipe de chercheurs a créé un site Web – emojify.info – où le public peut essayer des systèmes de reconnaissance des émotions grâce à ses propres caméras informatiques. Un jeu se concentre sur le fait de tirer des visages pour tromper la technologie, tandis qu’un autre explore comment de tels systèmes peuvent avoir du mal à lire les expressions faciales en contexte.

Leur espoir, disent les chercheurs, est de sensibiliser à la technologie et de promouvoir les conversations sur son utilisation.

«C’est une forme de reconnaissance faciale, mais cela va plus loin car plutôt que d’identifier simplement les gens, il prétend lire nos émotions, nos sentiments intérieurs de nos visages», a déclaré le Dr Alexa Hagerty, chef de projet et chercheur à l’Université de Cambridge Leverhulme Centre pour l’avenir de l’intelligence et Centre pour l’étude du risque existentiel.

La technologie de reconnaissance faciale, souvent utilisée pour identifier les personnes, a fait l’objet d’un examen minutieux ces dernières années. L’année dernière, la Commission pour l’égalité et les droits de l’homme a déclaré que son utilisation pour le dépistage de masse devrait être interrompue, affirmant que cela pourrait accroître la discrimination policière et porter atteinte à la liberté d’expression.

Mais Hagerty a déclaré que beaucoup de gens ne savaient pas à quel point les systèmes de reconnaissance des émotions étaient courants, notant qu’ils étaient employés dans des situations allant de la location d’un emploi au travail d’information sur les clients, à la sécurité des aéroports et même à l’éducation pour voir si les étudiants sont engagés ou font leurs devoirs.

Une telle technologie, a-t-elle dit, était utilisée partout dans le monde, de l’Europe aux États-Unis et en Chine. Taigusys, une entreprise spécialisée dans les systèmes de reconnaissance des émotions et dont le siège social est à Shenzhen, dit qu’elle les a utilisés dans des contextes allant des maisons de retraite aux prisons, tandis que selon des rapports plus tôt cette année, la ville indienne de Lucknow envisage d’utiliser le la technologie pour repérer la détresse chez les femmes à la suite du harcèlement – une décision qui a suscité des critiques, y compris de la part des organisations de défense des droits numériques.

Bien que Hagerty ait déclaré que la technologie de reconnaissance des émotions pourrait avoir certains avantages potentiels, ceux-ci doivent être mis en balance avec les préoccupations concernant l’exactitude, les préjugés raciaux, ainsi que la question de savoir si la technologie était même le bon outil pour un travail particulier.

«Nous devons avoir une conversation et une délibération publiques beaucoup plus larges sur ces technologies», a-t-elle déclaré.

Le nouveau projet permet aux utilisateurs d’essayer la technologie de reconnaissance des émotions. Le site note qu ‘«aucune donnée personnelle n’est collectée et toutes les images sont stockées sur votre appareil». Dans un jeu, les utilisateurs sont invités à tirer une série de visages pour simuler des émotions et voir si le système est dupé.

«Les personnes qui développent cette technologie prétendent qu’elle lit l’émotion», a déclaré Hagerty. Mais, a-t-elle ajouté, en réalité, le système lisait les mouvements du visage et les combinait ensuite avec l’hypothèse que ces mouvements sont liés aux émotions – par exemple, un sourire signifie que quelqu’un est heureux.

«Il y a beaucoup de données scientifiques vraiment solides qui disent que c’est trop simple; cela ne fonctionne pas tout à fait comme ça », a déclaré Hagerty, ajoutant que même la simple expérience humaine montrait qu’il était possible de truquer un sourire. «C’est ce qu’était ce jeu: pour montrer que vous n’avez pas changé votre état intérieur de ressenti six fois rapidement, vous venez de changer votre apparence. [on your] visage », dit-elle.

Certains chercheurs en reconnaissance des émotions disent être conscients de ces limites. Mais Hagerty a déclaré que l’espoir était que le nouveau projet, financé par Nesta (National Endowment for Science, Technology and the Arts), sensibilisera à la technologie et favorisera la discussion autour de son utilisation.

«Je pense que nous commençons à réaliser que nous ne sommes pas vraiment des ‘utilisateurs’ de la technologie, nous sommes des citoyens du monde profondément façonnés par la technologie, nous devons donc avoir le même type de contribution démocratique et citoyenne que nous avons sur ces technologies. sur d’autres choses importantes dans les sociétés », a-t-elle déclaré.

Vidushi Marda, responsable de programme principal à l’organisation de défense des droits de l’homme Article 19, a déclaré qu’il était crucial de faire une «pause» sur le marché en pleine croissance des systèmes de reconnaissance des émotions.

«L’utilisation des technologies de reconnaissance des émotions est profondément préoccupante car non seulement ces systèmes sont basés sur une science discriminatoire et discréditée, mais leur utilisation est également fondamentalement incompatible avec les droits de l’homme», a-t-elle déclaré. «Un enseignement important de la trajectoire des systèmes de reconnaissance faciale à travers le monde a été de remettre en question la validité et le besoin de technologies tôt et souvent – et les projets qui mettent l’accent sur les limites et les dangers de la reconnaissance des émotions sont un pas important dans cette direction.

Laisser un commentaire