Nous devons parler d’intelligence artificielle

[ad_1]

  • Le dialogue est entravé par un manque d’informations entre les créateurs de la technologie de l’IA et les décideurs qui tentent de la réglementer.
  • Le renforcement des connaissances est essentiel pour définir un cadre d’éthique et de normes dans lequel l’IA peut innover en toute sécurité.
  • Les principes n’ont de valeur que s’ils sont convenus et s’ils sont effectivement mis en œuvre.

Alors qu’un consensus commence à se former autour de l’impact que l’IA aura sur l’humanité, la société civile, le secteur public et le secteur privé augmentent leurs demandes de responsabilisation et de renforcement de la confiance. Des considérations éthiques telles que le biais de l’IA (par race, sexe ou autres critères) et la transparence algorithmique (clarté sur les règles et les méthodes par lesquelles les machines prennent des décisions) ont déjà eu un impact négatif sur la société à travers les technologies que nous utilisons quotidiennement.

L’intégration de l’IA au sein de l’industrie et de la société et son impact sur les vies humaines, appelle à des cadres éthiques et juridiques qui assureront sa gouvernance efficace, améliorant les opportunités sociales de l’IA et atténuant ses risques. Il est nécessaire de disposer de mécanismes solides qui généreront une compréhension globale et partagée collectivement du cycle de développement et de déploiement de l’IA. Ainsi, à la base, cette gouvernance doit être conçue dans le cadre d’un dialogue continu en utilisant des méthodologies et des compétences multi-acteurs et interdisciplinaires.

Pourtant, ce dialogue est entravé par le fait que les créateurs de technologie d’IA ont toutes les informations et la compréhension du sujet, tandis que les décideurs politiques qui tentent de le réglementer en ont souvent très peu. D’une part, il existe un nombre limité d’experts en politique qui comprennent vraiment le cycle complet de la technologie de l’IA. D’un autre côté, les fournisseurs de technologie manquent de clarté, et parfois d’intérêt, pour façonner la politique d’IA avec intégrité en mettant en œuvre l’éthique dans leurs conceptions technologiques (avec, par exemple, une conception conforme à l’éthique).

Décideurs – manque de clarté sur les fonctions de l’IA

Tout comme les générations précédentes devaient s’adapter à la machine à vapeur, à l’électricité ou à Internet, cette génération devra se familiariser avec les techniques sous-jacentes, les principes et les impacts fondamentaux des systèmes basés sur l’IA. Cependant, même si la compréhension de l’IA prendra du temps pour le grand public, les décideurs qui sont chargés de réglementer l’utilisation de l’IA devront être accélérés.

Les auditions du Congrès aux États-Unis – auxquelles ont témoigné les dirigeants de grandes entreprises technologiques – ont offert au public américain l’occasion d’observer le fossé inquiétant de la littératie numérique entre les entreprises produisant les technologies qui façonnent nos vies et les législateurs chargés de les réglementer. Le Congrès américain n’est pas seul dans ce domaine, car les gouvernements des pays du monde entier sont confrontés au même défi.

Les principes d'éthique de l'IA mettent l'accent sur les droits de l'homme

Les principes d’éthique de l’IA mettent l’accent sur les droits de l’homme

Image: Centre Berkman Klein de l’Université Harvard

Les décideurs politiques n’auront pas toutes les réponses ou l’expertise pour prendre les meilleures décisions en matière de réglementation de l’IA, mais poser de meilleures questions est un pas en avant important. Sans cette compréhension de base du fonctionnement des technologies d’IA, les décideurs politiques pourraient devenir soit trop énergiques dans la réglementation de l’IA, soit au contraire, ne pas en faire assez pour nous protéger et éviter le risque de déployer des systèmes basés sur l’IA pour la surveillance de masse, par exemple. Par conséquent, ce qui est nécessaire, c’est un accent renouvelé sur l’éducation à l’IA parmi les décideurs et les régulateurs et une augmentation du financement et du recrutement de talents techniques au sein du gouvernement, afin que les personnes qui prennent des décisions concernant les programmes, le financement et l’adoption en matière d’IA, puissent être informé des développements actuels concernant la technologie.

Ce n’est qu’en se familiarisant avec l’IA et ses avantages et risques potentiels que les décideurs peuvent rédiger une réglementation sensée qui équilibre le développement de l’IA dans les limites légales et éthiques tout en tirant parti de son énorme potentiel. Être alphabétisé en IA permettra aux décideurs politiques de devenir également des utilisateurs actifs, car cette technologie peut les aider à atteindre leurs objectifs politiques, faire progresser l’agenda des ODD et rendre le gouvernement plus efficace.

Le renforcement des connaissances est essentiel à la fois pour élaborer des réglementations plus intelligentes en matière d’IA et pour permettre aux décideurs politiques d’engager un dialogue avec les entreprises technologiques sur un pied d’égalité, et d’établir ensemble un cadre d’éthique et de normes dans lequel l’IA peut innover en toute sécurité. Par conséquent, le dialogue public-privé est essentiel pour le développement d’une «IA digne de confiance».

Fournisseurs de technologie – manque de clarté sur l’éthique de l’IA

Par rapport à d’autres responsabilités sociales des entreprises, l’IA accélère le besoin pour les entreprises technologiques de faire progresser les conversations sur l’éthique et la confiance, alors que l’IA fait écho au comportement de la société. Avec l’IA, les entreprises risquent d’être le moteur d’une augmentation exponentielle des biais déjà existants dans la société à une échelle et à un rythme irréversibles.

Par conséquent, les entreprises technologiques ont besoin à la fois d’une culture éthique et d’un engagement envers la recherche multidisciplinaire pour créer une bonne compréhension et l’adoption de l’éthique. Cependant, grâce à leur formation et au cours de leur carrière, les équipes techniques derrière les développements de l’IA ne sont pas méthodiquement éduquées sur la complexité des systèmes sociaux humains, comment leurs produits pourraient avoir un impact négatif sur la société et comment intégrer l’éthique dans leurs conceptions.

Le processus de compréhension et de reconnaissance du contexte social et culturel dans lequel les technologies d’IA sont déployées, parfois avec des enjeux importants pour l’humanité, nécessite de la patience et du temps. Ceci est en tension avec le statu quo des modèles commerciaux, qui sont construits sur la vitesse et l’échelle pour un profit rapide. Comme l’a dit un jour le sociologue allemand Ulrich Beck, l’éthique de nos jours «joue le rôle d’un frein de vélo sur un avion intercontinental».

Avec des investissements accrus dans le développement et le déploiement de l’IA, les entreprises technologiques sont encouragées à identifier les considérations éthiques pertinentes pour leurs produits et à mettre en œuvre des solutions de manière transparente avant de les déployer. De cette façon, leur entreprise disposera d’une solide stratégie d’atténuation des risques, tout en garantissant et en prouvant que leurs gains financiers ne se feront pas au détriment du bien-être social et économique de la société. De plus, ils diminuent les chances de développer une réputation négative associée à leur utilisation de l’IA.

À la lumière de la pandémie COVID-19 et du début de la prochaine révolution industrielle, les entreprises ayant une vision durable à long terme reconnaissent le cas commercial de l’IA éthique, qui peut les aider à éviter les crises et à mieux servir leurs parties prenantes. Ainsi, les entreprises technologiques ont la possibilité d’accroître la culture éthique de leur personnel et de renforcer le dialogue et la collaboration avec les décideurs. Cela garantira qu’ils ont leur mot à dire dans l’élaboration et la conception des cadres dans lesquels les solutions d’IA éthiques par conception seront déployées et mises à l’échelle avec succès et en toute sécurité.

Les principes de l’IA ne sont utiles que lorsqu’ils sont correctement mis en œuvre

Les décideurs politiques et les leaders de l’industrie doivent sortir de leurs silos, en particulier dans des contextes exceptionnels, tels que celui créé par la pandémie COVID-19. Cela leur permettra d’avoir un dialogue plus constant et plus substantiel, garantissant que la gouvernance et la législation en matière d’IA ne seront pas inefficaces face aux priorités économiques et politiques.

Nous constatons déjà qu’aux côtés des gouvernements et des organisations internationales, certaines entreprises technologiques ont commencé à publier des principes éthiques de haut niveau pour le développement et le déploiement de l’IA (par exemple, les principes de Google AI, les principes de Microsoft AI). Cependant, pour garantir une gouvernance efficace de l’IA, il doit y avoir un dialogue cohérent entre les entreprises et les décideurs politiques pour convenir d’un ensemble commun de principes et de méthodologies concrètes pour les traduire dans la pratique.

En termes simples, ces principes n’ont de valeur que s’ils sont convenus et s’ils sont effectivement appliqués. Pour ce faire, les deux doivent communiquer en permanence, car les entreprises ont besoin que les décideurs politiques fournissent des cadres éthiques clairs et des voies de mise en œuvre, tandis que les décideurs ont besoin de l’industrie pour s’assurer que ces cadres deviennent réalité et sont intégrés dans les technologies d’IA que nous utilisons tous sur un au quotidien, sans même s’en rendre compte.

[ad_2]

Laisser un commentaire