Le plan de la Maison Blanche pour freiner la technologie raciste est totalement inutile


Malgré l’importance et le rôle toujours croissant de l’intelligence artificielle dans de nombreuses parties de la société moderne, il existe très peu de politiques ou de réglementations régissant le développement et l’utilisation des systèmes d’IA aux États-Unis

Les entreprises technologiques ont été largement laissées pour s’autoréguler dans ce domaine, ce qui pourrait conduire à des décisions et à des situations qui ont suscité des critiques.

Google a licencié un employé qui s’est publiquement inquiété de la façon dont un certain type d’IA peut contribuer aux problèmes environnementaux et sociaux. D’autres sociétés d’IA ont développé des produits qui sont utilisés par des organisations comme le département de police de Los Angeles, où il a été démontré qu’ils renforcent les politiques existantes à caractère racial.

Il existe des recommandations et des conseils gouvernementaux concernant l’utilisation de l’IA. Mais début octobre 2022, le Bureau de la politique scientifique et technologique de la Maison Blanche a considérablement ajouté aux directives fédérales en publiant le Plan directeur pour une déclaration des droits de l’IA.

Le Bureau de la science et de la technologie indique que les protections décrites dans le document doivent être appliquées à tous les systèmes automatisés. Le plan énonce « cinq principes qui devraient guider la conception, l’utilisation et le déploiement de systèmes automatisés pour protéger le public américain à l’ère de l’intelligence artificielle ». L’espoir est que ce document puisse servir de guide pour aider à empêcher les systèmes d’IA de limiter les droits des résidents américains.

En tant qu’informaticien qui étudie la façon dont les gens interagissent avec les systèmes d’IA – et en particulier comment l’anti-Blackness médiatise ces interactions – je trouve que ce guide est un pas dans la bonne direction, même s’il a quelques lacunes et n’est pas exécutoire.

Améliorer les systèmes pour tous

Google a licencié un employé qui a publiquement critiqué les méfaits possibles de l’IA, suscitant des inquiétudes pour le domaine plus large.VCG/Groupe Visual China/Getty Images

Les deux premiers principes visent à aborder la sécurité et l’efficacité des systèmes d’IA ainsi que le risque majeur que l’IA favorise la discrimination.

Pour améliorer la sécurité et l’efficacité de l’IA, le premier principe suggère que les systèmes d’IA doivent être développés non seulement par des experts, mais également avec la contribution directe des personnes et des communautés qui utiliseront et seront affectées par les systèmes.

Les communautés exploitées et marginalisées doivent souvent faire face aux conséquences des systèmes d’IA sans avoir leur mot à dire dans leur développement. La recherche a montré qu’une implication directe et authentique de la communauté dans le processus de développement est importante pour le déploiement de technologies qui ont un impact positif et durable sur ces communautés.

Le deuxième principe se concentre sur le problème connu de la discrimination algorithmique au sein des systèmes d’IA. Un exemple bien connu de ce problème est la façon dont les algorithmes d’approbation des prêts hypothécaires sont discriminatoires à l’égard des minorités.

Le document demande aux entreprises de développer des systèmes d’IA qui ne traitent pas les gens différemment en fonction de leur race, de leur sexe ou d’un autre statut de classe protégée. Il suggère aux entreprises d’utiliser des outils tels que les évaluations de l’équité qui peuvent aider à évaluer l’impact d’un système d’IA sur les membres des communautés exploitées et marginalisées.

Ces deux premiers principes traitent des grands problèmes de partialité et d’équité rencontrés dans le développement et l’utilisation de l’IA.

Confidentialité, transparence et contrôle

Le document de la Maison Blanche encourage les entreprises technologiques à donner aux utilisateurs plus de contrôle sur leurs données.NurPhoto/NurPhoto/Getty Images

Les trois derniers principes décrivent les moyens de donner aux gens plus de contrôle lorsqu’ils interagissent avec les systèmes d’IA.

Le troisième principe est la confidentialité des données. Il vise à garantir que les personnes aient davantage leur mot à dire sur la manière dont leurs données sont utilisées et soient protégées contre les pratiques abusives en matière de données. Cette section vise à traiter les situations où, par exemple, les entreprises utilisent une conception trompeuse pour manipuler les utilisateurs afin qu’ils divulguent leurs données. Le plan directeur appelle à des pratiques telles que ne pas prendre les données d’une personne à moins qu’elle n’y consente et demander d’une manière compréhensible pour cette personne.

Le principe suivant se concentre sur « l’avis et l’explication ». Cela souligne l’importance de la transparence – les gens doivent savoir comment un système d’IA est utilisé ainsi que comment une IA contribue aux résultats qui pourraient les affecter. Prenez, par exemple, l’administration de la ville de New York pour les services à l’enfance. Des recherches ont montré que l’agence utilise des systèmes d’IA externalisés pour prédire la maltraitance des enfants, des systèmes dont la plupart des gens ne se rendent pas compte qu’ils sont utilisés, même lorsqu’ils font l’objet d’une enquête.

La déclaration des droits de l’IA fournit une directive selon laquelle les personnes à New York dans cet exemple qui sont affectées par les systèmes d’IA utilisés doivent être informées qu’une IA était impliquée et avoir accès à une explication de ce que l’IA a fait. La recherche a montré que l’intégration de la transparence dans les systèmes d’IA peut réduire le risque d’erreurs ou d’utilisation abusive.

Le dernier principe de la Déclaration des droits de l’IA décrit un cadre pour les alternatives humaines, la considération et la rétroaction. La section précise que les personnes devraient pouvoir refuser l’utilisation de l’IA ou d’autres systèmes automatisés en faveur d’une alternative humaine lorsque cela est raisonnable.

À titre d’exemple de la façon dont ces deux derniers principes pourraient fonctionner ensemble, prenons le cas d’une personne qui demande un prêt hypothécaire. Ils seraient informés si un algorithme d’IA était utilisé pour examiner leur candidature et auraient la possibilité de refuser cette utilisation de l’IA en faveur d’une personne réelle.

Directives intelligentes, aucune force exécutoire

Les cinq principes énoncés dans la Déclaration des droits de l’IA répondent à bon nombre des problèmes soulevés par les universitaires concernant la conception et l’utilisation de l’IA. Néanmoins, il s’agit d’un document non contraignant et n’est actuellement pas exécutoire.

C’est peut-être trop d’espérer que l’industrie et les agences gouvernementales mettront ces idées en pratique de la manière exacte préconisée par la Maison Blanche. Si la bataille réglementaire en cours sur la confidentialité des données offre des conseils, les entreprises technologiques continueront de faire pression pour l’autorégulation.

Un autre problème que je vois dans la Déclaration des droits de l’IA est qu’elle ne parvient pas à dénoncer directement les systèmes d’oppression – comme le racisme ou le sexisme – et comment ils peuvent influencer l’utilisation et le développement de l’IA.

Par exemple, des études ont montré que des hypothèses inexactes intégrées aux algorithmes d’IA utilisés dans les soins de santé ont entraîné une détérioration des soins pour les patients noirs. J’ai soutenu que le racisme anti-noir devrait être directement abordé lors du développement de systèmes d’IA. Alors que la Déclaration des droits de l’IA aborde les idées de partialité et d’équité, le manque d’attention portée aux systèmes d’oppression est une lacune notable et un problème connu dans le développement de l’IA.

Malgré ces lacunes, ce plan pourrait être une étape positive vers de meilleurs systèmes d’IA, et peut-être la première étape vers la réglementation. Un document comme celui-ci, même s’il ne s’agit pas d’une politique, peut être une référence puissante pour les personnes qui préconisent des changements dans la façon dont une organisation développe et utilise les systèmes d’IA.

Cet article a été initialement publié le La conversation par Christophe Dancy à Penn State. Lisez l’article original ici.

Laisser un commentaire