Les responsables américains des droits civiques mettent en garde les employeurs contre une IA biaisée


Le gouvernement fédéral a déclaré jeudi que la technologie de l’intelligence artificielle pour sélectionner de nouveaux candidats à un emploi ou surveiller la productivité des travailleurs peut injustement discriminer les personnes handicapées, envoyant un avertissement aux employeurs que les outils d’embauche couramment utilisés pourraient violer les lois sur les droits civils.

Le ministère américain de la Justice et la Commission pour l’égalité des chances en matière d’emploi ont publié conjointement des conseils aux employeurs pour qu’ils fassent attention avant d’utiliser des outils algorithmiques populaires destinés à rationaliser le travail d’évaluation des employés et des perspectives d’emploi, mais qui pourraient également potentiellement enfreindre la loi américaine sur les personnes handicapées.

« Nous tirons la sonnette d’alarme concernant les dangers liés à la dépendance aveugle à l’IA et à d’autres technologies que nous voyons de plus en plus utilisées par les employeurs », a déclaré jeudi aux journalistes la procureure générale adjointe Kristen Clarke de la division des droits civils du département. « L’utilisation de l’IA aggrave la discrimination de longue date à laquelle sont confrontés les demandeurs d’emploi handicapés. »

Parmi les exemples donnés d’outils d’IA populaires liés au travail figuraient des scanners de CV, des logiciels de surveillance des employés qui classent les travailleurs en fonction des frappes au clavier et des logiciels d’interview vidéo qui mesurent les schémas de parole ou les expressions faciales d’une personne. Une telle technologie pourrait potentiellement éliminer les personnes ayant des troubles de la parole ou une gamme d’autres handicaps.

Cette décision reflète une poussée plus large de l’administration du président Joe Biden pour favoriser des avancées positives dans la technologie de l’IA tout en limitant les outils d’IA opaques et potentiellement dangereux qui sont utilisés pour prendre des décisions importantes concernant les moyens de subsistance des gens.

« Nous reconnaissons totalement qu’il existe un énorme potentiel pour rationaliser les choses », a déclaré Charlotte Burrows, présidente de l’EEOC, qui est responsable de l’application des lois contre la discrimination au travail. « Mais nous ne pouvons pas laisser ces outils devenir une voie high-tech vers la discrimination. »

Un chercheur qui a fait des recherches sur les biais dans les outils d’embauche d’IA a déclaré que tenir les employeurs responsables des outils qu’ils utilisent est un « premier pas important », mais a ajouté que davantage de travail était nécessaire pour freiner les fournisseurs qui fabriquent ces outils. Cela serait probablement un travail pour une autre agence, telle que la Federal Trade Commission, a déclaré Ifeoma Ajunwa, professeur de droit à l’Université de Caroline du Nord et directeur fondateur du programme de recherche sur la prise de décision en IA.

« Il y a maintenant une reconnaissance de la façon dont ces outils, qui sont généralement déployés comme une intervention anti-biais, pourraient en fait entraîner plus de biais – tout en les obscurcissant », a déclaré Ajunwa.

Laisser un commentaire