Pourquoi la mise en œuvre responsable de la technologie de l’IA est essentielle
L’intelligence artificielle (IA) est apparemment partout. Alors que les modèles d’IA comme ChatGPT connaissent une popularité croissante, des appels de critiques et de régulateurs ont circulé sur les ondes pour faire quelque chose contre les menaces potentielles que pose l’IA. Naturellement, cela a créé un débat sur la question de savoir si les mérites de l’IA l’emportent sur ses risques.
Ces derniers mois, la Federal Trade Commission des États-Unis a publié plusieurs déclarations sur les programmes d’IA. Celles-ci ont abouti à une déclaration faite en avril 2023 en collaboration avec la Division des droits civils du ministère américain de la Justice, le Bureau de la protection financière des consommateurs et la Commission américaine pour l’égalité des chances en matière d’emploi pour soutenir «l’innovation responsable dans les systèmes automatisés».
Figure 1 Il est temps de peser le côté éthique de la technologie de l’IA. Source : laboratoires du chevalier blanc
Pourquoi la FTC commence à explorer IA
L’expert en cybersécurité Greg Hatcher, co-fondateur de White Knight Labs, affirme que la FTC est préoccupée par trois principaux domaines : l’inexactitude, les préjugés et la discrimination. Il ajoute qu’ils ont de bonnes raisons de s’inquiéter. « Le temps a montré que les modèles peuvent être accidentellement formés pour discriminer en fonction de l’ethnicité, et la grande majorité des développeurs d’IA sont des hommes blancs, ce qui conduit à des perspectives homogènes », explique-t-il.
Cependant, selon le gourou du cloud computing Michael Gibbs, fondateur et PDG de Go Cloud Careers, ce biais n’est pas inhérent aux systèmes d’IA, mais le résultat direct des biais inculqués par leurs créateurs. « L’intelligence artificielle n’est pas intrinsèquement biaisée – l’IA peut devenir biaisée en fonction de la façon dont elle est entraînée », explique Gibbs. « La clé est d’utiliser des informations impartiales lors du développement de systèmes d’IA personnalisés. Les entreprises peuvent facilement éviter les biais avec l’IA en entraînant leurs modèles avec des informations impartiales. »
Banu Kellner, coach exécutif et consultant en affaires, a aidé de nombreuses organisations à intégrer de manière responsable des solutions d’IA dans leurs opérations. Elle indique que la frénésie autour de l’IA est l’une des principales raisons de bon nombre de ces lacunes.
« Le rythme fou de la concurrence peut signifier que l’éthique est éclipsée par la ruée vers l’innovation », explique Kellner. « Avec toute cette atmosphère de « ruée vers l’or », la réflexion perd parfois la vitesse. La surveillance aide à freiner, de sorte que nous ne nous retrouvons pas dans une course vers le bas. »
Mise en œuvre responsable de IA
Kellner affirme que le plus grand défi auquel les chefs d’entreprise sont confrontés lorsqu’ils adoptent la technologie de l’IA est de trouver l’équilibre entre leur vision en tant que leader et l’efficacité accrue que l’IA peut offrir à leurs opérations. « Le vrai leadership consiste à élaborer une vision et à engager d’autres personnes dans cette vision », dit-elle. « En tant qu’êtres humains, nous devons assumer le rôle d’architectes en façonnant la vision et les valeurs de notre avenir émergent. Ce faisant, l’IA et d’autres technologies peuvent servir d’outils inestimables qui permettent à l’humanité d’atteindre de nouveaux sommets, plutôt que de nous réduire à de simples jouets d’IA en évolution rapide.
En tant que consultant de premier plan en cybersécurité, Hatcher s’intéresse particulièrement à l’influence que l’IA aura sur la confidentialité des données. Après tout, les partisans de l’intelligence artificielle ont salué la capacité de l’IA à traiter les données à un niveau autrefois considéré comme impossible. De plus, le processus de formation pour améliorer les performances de ces modèles dépend également de l’entrée de grandes quantités de données. Hatcher explique que ce niveau de traitement des données pourrait conduire à ce que l’on appelle des «modèles sombres», ou des interfaces utilisateur trompeuses et trompeuses.
Figure 2 L’IA peut potentiellement activer des modèles sombres et des interfaces utilisateur trompeuses. Source : laboratoires du chevalier blanc
« L’amélioration de la précision et des performances des outils d’IA peut conduire à des formes de surveillance plus invasives », explique-t-il. « Vous connaissez ces publicités indésirables qui apparaissent dans votre navigateur après avoir acheté un nouveau vélo licorne rose pour votre enfant la semaine dernière ? L’IA facilitera ces transactions et les rendra plus fluides et moins visibles. Cela entre dans le territoire du «schéma sombre» – le comportement exact que la FTC réglemente.
Kellner met également en garde contre les conséquences imprévues que l’IA pourrait avoir si nos organisations et nos processus devenaient si dépendants de la technologie qu’ils commençaient à influencer notre prise de décision. « Les individus et les organisations pourraient devenir de plus en plus dépendants de l’IA pour gérer des tâches complexes, ce qui pourrait entraîner une diminution des compétences, de l’expertise et une acceptation passive des recommandations générées par l’IA », dit-elle. « Cette dépendance croissante a le potentiel de cultiver une culture de complaisance, où les utilisateurs négligent d’examiner la validité ou les implications éthiques des décisions basées sur l’IA, diminuant ainsi l’importance de l’intuition humaine, de l’empathie et du jugement moral. »
Résoudre les défis posés par IA
Quant à la solution à ces conséquences de la mise en œuvre de l’IA, Hatcher suggère que la FTC pourrait prendre plusieurs mesures pour faire respecter l’utilisation responsable de la technologie.
« La FTC doit être proactive et se pencher sur l’influence de l’IA sur la confidentialité des données en créant des réglementations plus strictes en matière de protection des données pour la collecte, le stockage et l’utilisation des données personnelles lors de l’utilisation de l’IA dans les solutions de cybersécurité », affirme Hatcher. « La FTC peut s’attendre à ce que les entreprises mettent en œuvre des mesures avancées de sécurité des données, qui pourraient inclure le cryptage, l’authentification multifacteur, des protocoles de partage de données sécurisés et des contrôles d’accès robustes pour protéger les informations sensibles. »
Au-delà de cela, la FTC peut exiger des développeurs de programmes d’IA et des entreprises qui les mettent en œuvre qu’ils soient plus proactifs quant à la sécurité de leurs données. « La FTC devrait également encourager les développeurs d’IA à donner la priorité à la transparence et à l’explicabilité des algorithmes d’IA utilisés à des fins de cybersécurité », ajoute Hatcher. « Enfin, la FTC peut exiger des entreprises qu’elles effectuent des audits et des évaluations par des tiers de leurs systèmes de cybersécurité basés sur l’IA afin de vérifier la conformité aux normes de confidentialité et de sécurité des données. Ces audits peuvent aider à identifier les vulnérabilités et à s’assurer que les meilleures pratiques sont suivies.
Pour Kellner, la solution réside davantage dans la synergie qu’il faut trouver entre les capacités des employés humains et leurs outils d’IA. « Si nous pensons simplement en termes de remplacement des humains par l’IA parce que c’est plus facile, moins cher, plus rapide, nous pourrions finir par nous tirer une balle dans le pied », prévient-elle. « Mon point de vue est que les organisations et les individus doivent clarifier les éléments humains essentiels qu’ils souhaitent préserver, puis déterminer comment l’IA pourrait les améliorer de manière réfléchie, et non les éliminer. L’objectif est de se compléter : faire en sorte que l’IA amplifie nos forces tout en conservant les tâches nécessitant une touche humaine. »
figure 3 Il doit y avoir une plus grande synergie entre les capacités des employés humains et leurs outils d’IA. Source : laboratoires du chevalier blanc
Une application de l’IA dans laquelle un exemple parfait de cet équilibre peut être trouvé est dans les finances personnelles. L’application financière Eyeballs Financial utilise l’IA dans ses services de conseil financier. Cependant, le fondateur et PDG de l’application, Mitchell Morrison, souligne que l’IA n’offre pas elle-même de conseils financiers. Au lieu de cela, l’IA est utilisée en complément d’un conseiller financier réel.
« Si un client pose une question du type » Dois-je vendre mes actions Disney ? », la réponse de l’application sera : « Eyeballs ne donne pas de conseils financiers » et le message sera transmis à son conseiller », explique Morrison. « L’application Eyeballs Financial ne fournit ni ne suggère aucune forme de conseil financier. Au lieu de cela, il offre aux clients un aperçu complet de la performance de leurs investissements et répond rapidement aux questions en fonction de leur dernier relevé client. L’application est activée par la voix et disponible 24 heures sur 24, 7 jours sur 7 en temps réel, ce qui permet aux clients d’accéder aux informations financières à tout moment et en tout lieu.
Le cas d’utilisation d’Eyeballs est un exemple parfait de la nécessité de l’implication humaine pour vérifier la puissance de l’IA. Les chefs d’entreprise doivent se rappeler que les technologies de l’IA en sont encore à leurs balbutiements. Comme ces modèles sont encore en développement et en apprentissage, il est essentiel de se rappeler qu’ils sont imparfaits et susceptibles de faire des erreurs. Ainsi, les humains doivent rester impliqués pour éviter que toute erreur n’ait des conséquences catastrophiques.
Bien que nous ne puissions pas ignorer l’énorme potentiel qu’offrent les modèles d’IA pour rendre le travail plus efficace dans pratiquement tous les secteurs, les chefs d’entreprise doivent être responsables de sa mise en œuvre. Les conséquences d’une mise en œuvre irresponsable de l’IA pourraient être plus néfastes que les avantages qu’elle apporterait.
Le débat sur l’intelligence artificielle se résume le mieux dans une question rhétorique posée par Kellner : « Essayons-nous de nous autonomiser ou de créer un dieu pour nous gouverner ? » Tant que l’IA est mise en œuvre avec des pratiques responsables, les entreprises peuvent rester fermement dans la première catégorie et minimiser le risque d’être victimes de la seconde.
John Stigerwalt est co-fondateur de Laboratoires du chevalier blanc.
Contenu connexe