Risques liés à la technologie de détection des émotions | de Ayesha Adkar | novembre 2023


Ayesha Adkar

J’ai écrit ces articles pour le cours « Affective Computing » tout en poursuivant une maîtrise en informatique centrée sur l’humain à l’Université du Maryland, dans le comté de Baltimore.

L’apprentissage automatique (ML) et l’intelligence artificielle (IA) ont rendu presque toutes les technologies plus humaines. Des études se poursuivent sur l’émergence et les améliorations des assistants numériques et des robots humanoïdes. L’aspect le plus important de la création d’une machine sensible est la reconnaissance et la détection des émotions pour l’efficacité du système. L’accès facile aux technologies de détection des émotions a donné naissance à l’écosystème actuel de reconnaissance appliquée des émotions. Dans les recherches de (Hernandez et al., 2021), les risques et les limites des dispositifs de détection d’affect ont été mis en évidence. Leurs recherches se concentrent sur des cas réels, sur l’évaluation et l’atténuation des risques, encourageant ainsi une application plus responsable de la reconnaissance des émotions dans la technologie.

Une préoccupation majeure est que les systèmes de reconnaissance adoptent souvent la théorie fondamentale de l’émotion d’Ekman. Cela ignore toute conscience des complexités éthiques et des nuances subtiles des émotions. Cela a conduit des agences indépendantes à faire pression en faveur de réglementations et de lignes directrices pour relever ces défis. Grâce à leurs recherches, (Hernandez et coll., 2021) explorer l’utilisation de la reconnaissance des émotions dans des contextes réels et commerciaux. La reconnaissance des émotions est exploitée dans différents domaines tels que les domaines du marketing, des produits éducatifs et de la gestion des employés, ce qui en fait une partie importante de ces processus. Ces scénarios très délicats font de la compréhension et de l’application de l’intelligence émotionnelle aux systèmes un exercice à haut risque. La création de systèmes sensibles comporte son propre ensemble de défis. L’activité repose sur des émotions humaines difficiles à décrire et à catégoriser pour qu’une machine puisse les apprendre. Cela dépend le plus souvent des interprétations que fait le percepteur des expressions extérieures. Le manque d’informations généralisées conduit également à des ensembles de données insuffisants pour former le système. De plus, les différences culturelles jouent également un rôle dans la reconnaissance des émotions si les données démographiques ne constituent pas un point de contrôle pour les ensembles de données.

Recherche de (Hernandez et coll., 2021) contient des lignes directrices concrètes pour minimiser les risques liés aux dispositifs de reconnaissance des émotions. Certains préjudices potentiels qui ressortent sont les activités qui évaluent l’aptitude individuelle aux opportunités d’emploi ou la dépendance constante à l’égard des systèmes d’IA pour des raisons de santé et de bien-être. L’éthique joue un rôle important dans la collecte et le partage des données. Le consentement d’un individu est de la plus haute importance, et il doit connaître tous les détails en vue d’une utilisation potentielle. Il doit y avoir des mesures pour expurger les données collectées si cela peut leur causer un préjudice. Les risques peuvent être atténués en utilisant l’IA avec l’interaction humaine pour une approche plus pratique de la compréhension des émotions correctes.

Source de l’image : Tristesse | À l’envers

Plongeant davantage dans les aspects éthiques de la reconnaissance des émotions, les recherches de Cowie (2012) présentent une vision équilibrée des émotions suscitées par la technologie orientée émotions. L’une des préoccupations est que cela implique la création d’un mensonge sous la forme d’un système sensible car il n’existe aucune émotion implicite. Des problèmes surviennent lorsque des règles simplifiées sont appliquées à des conclusions sur des émotions humaines complexes. Cet article traite des questions éthiques à un niveau générique, la technologie ayant trop de pouvoir. La deuxième question est de faire la distinction entre quelques applications ne présentant aucun problème éthique et certaines qui posent quelques problèmes éthiques. Les applications telles que les services de messagerie texte composés de smileys, de jeux informatiques ou même l’iPod proposant de la musique adaptée à l’humeur de l’auditeur sont considérées comme éthiquement légères. Ces technologies n’empiètent pas sur des domaines qui devraient peut-être être réservés, elles sont relativement simples.

L’humanisation de la communication électronique dans un environnement d’entreprise doit être prise en charge efficacement pour que l’utilisateur se sente respecté. Les messages enregistrés par les entreprises lors des appels automatisés aux utilisateurs peuvent sembler dédaigneux si le ton du message est bref et court. Cela peut amener un utilisateur à éprouver un sentiment de dégoût à l’égard de l’entreprise. Ces détails peuvent paraître mineurs, mais ces éléments mineurs façonnent l’image d’une marque ou d’une entreprise aux yeux d’un client potentiel. L’une des catégories les plus préoccupantes est celle des filtres d’information semi-intelligents (SIIF) (Cowie, 2012). Ces applications interprètent les signes et tirent des conclusions qui pourraient entraîner des problèmes urgents pour les personnes concernées. Les machines qui prennent des décisions sans aucune intervention humaine pourraient avoir de graves conséquences. La frontière est mince entre l’utilisation et la surutilisation des émotions dans la technologie pour équilibrer sans provoquer de conséquences profondes pour les humains.

Laisser un commentaire