Un guide en 5 étapes pour faire évoluer l’IA responsable


  • Le déploiement de l’IA à grande échelle restera problématique jusqu’à ce que les entreprises s’engagent dans un changement fondamental pour devenir des organisations axées sur une «  IA responsable  ».
  • Les entreprises devraient adopter cette transformation, car la confiance dans les systèmes d’IA sera le facteur déterminant pour déterminer avec qui il vaut la peine de faire affaire.
  • Voici un guide pour les aider à atteindre une IA responsable à grande échelle.

L’apprentissage automatique est une technologie révolutionnaire qui a commencé à perturber fondamentalement le fonctionnement des entreprises. Par conséquent, il n’est pas surprenant que les entreprises se précipitent pour l’implémenter dans leurs processus, comme le rapporte le McKinsey & Company Global AI Survey. Dans le même temps, un petit pourcentage de ces entreprises ont réussi à déployer l’intelligence artificielle (IA) à grande échelle – un processus qui semble plus difficile à réaliser étant donné les rapports réguliers sur les utilisations non éthiques de l’IA et l’inquiétude croissante du public quant à ses impacts négatifs potentiels.

Ces difficultés persisteront probablement jusqu’à ce que les entreprises s’engagent dans un changement fondamental pour devenir des organisations axées sur une «  IA responsable  ». En pratique, cela nécessite de relever les défis de gouvernance associés à l’IA, puis de concevoir et d’exécuter une stratégie solide. Pour aider les entreprises à déployer une IA responsable à grande échelle, nous proposons un guide en cinq étapes.

L’IA crée des défis de gouvernance uniques

Nous vivons dans un monde rempli d’incertitude et la capacité de construire des systèmes d’apprentissage capables de faire face à cette réalité de base dans une certaine mesure, en découvrant des modèles et des relations dans les données sans être explicitement programmés, représente une immense opportunité.

Cependant, il reste des raisons de s’inquiéter, car le Machine Learning crée également des défis de gouvernance uniques. D’une part, ces systèmes dépendent fortement des données, ce qui incite les entreprises à collecter massivement des données personnelles, ce qui entraîne des problèmes de confidentialité potentiels dans le processus.

Deuxièmement, la collecte, le nettoyage et le traitement de données de haute qualité sont une tâche coûteuse et complexe. Par conséquent, les ensembles de données d’entreprise ne reflètent souvent pas avec précision le «monde réel». Même lorsqu’elles le font, elles peuvent simplement reproduire ou exacerber les préjugés humains et conduire à des résultats discriminatoires. En effet, la boucle de rétroaction dans l’IA est susceptible d’amplifier toute propension innée intégrée dans les données.

Enfin, la puissance des systèmes informatiques massifs avec des capacités de stockage illimitées élimine l’option de l’anonymat, car des informations détaillées sur le comportement personnel sont prises en compte pour permettre un ciblage individuel à un niveau de granularité inégalé auparavant.

Les risques que les organisations jugent pertinents et s'efforcent d'atténuer.

Les risques que les organisations jugent pertinents et s’efforcent d’atténuer.

Image: McKinsey & Company

Plus fondamentalement, étant donné que les systèmes alimentés par l’IA évoluent avec les données et l’utilisation, leurs comportements sont difficiles à anticiper; et lorsqu’ils se comportent mal, ils sont plus difficiles à déboguer et à maintenir. Contrairement aux logiciels classiques, on ne peut pas simplement corriger les instructions données au système pour rétablir la cohérence avec sa fonctionnalité prévue. En termes simples, lorsque quelque chose ne va pas, il est plus difficile de déterminer pourquoi cela s’est produit et de mettre en œuvre des mesures correctives. Dans ce contexte, un objectif innocent tel que la maximisation des revenus pourrait permettre à un système d’apprentissage de l’IA hautement performant de développer des moyens profonds et difficiles à détecter pour tromper l’utilisateur dans des dépenses supplémentaires, ce qui soulève des préoccupations éthiques légitimes.

5 étapes pour déployer une IA responsable à grande échelle

En tant qu’entreprise, comment déployer avec succès l’IA à grande échelle tout en atténuant les risques évoqués ci-dessus? Vous devez vous engager dans un changement organisationnel fondamental pour devenir une entreprise responsable axée sur l’IA. Pour vous aider à naviguer dans ce changement, nous proposons le processus suivant comme point de départ:

1. Définissez ce que l’IA responsable signifie pour votre entreprise: Pour s’assurer que toute l’organisation va dans la même direction, les dirigeants doivent définir ce qui constitue une utilisation responsable de l’IA pour leur entreprise grâce à un processus collaboratif impliquant les membres du conseil d’administration, les cadres et les cadres supérieurs de tous les départements. Cela peut prendre la forme d’un ensemble de principes qui guident la conception et l’utilisation de services ou de produits d’IA. Le processus de rédaction de ces principes doit être structuré autour d’une réflexion pratique sur la manière dont l’IA peut créer de la valeur pour l’organisation et quels risques (par exemple, réputation de la marque, sécurité des employés, résultats déloyaux pour les clients, polarisation accrue dans le discours public) doivent être atténués. le chemin.

Les principaux acteurs de l’industrie, dont Google et Microsoft, ont déjà évolué dans cette direction et publié leurs principes d’IA responsable. Davantage d’entreprises devraient suivre leur exemple. La rédaction de ces principes présente deux avantages principaux. Premièrement, cela donne une chance à tout le monde, en particulier à la direction, de s’informer sur l’IA responsable. Deuxièmement, cela pourrait constituer la base d’une stratégie commerciale d’IA responsable, détaillant la manière dont votre organisation envisage de créer un pipeline de services et de produits d’IA responsables.

2. Développer les capacités organisationnelles: La conception et le déploiement de systèmes d’IA fiables devraient être un effort à l’échelle de l’organisation. Cela nécessite une planification solide, une exécution interfonctionnelle et coordonnée, une formation des employés et un investissement important dans les ressources pour favoriser l’adoption de pratiques d’IA responsables. Pour piloter ces activités, les entreprises devraient créer un «Centre d’excellence en IA» interne, qui concentrerait ses efforts sur deux fonctions essentielles: la formation et la promotion de l’adoption.

En effet, pour faire leur travail, les employés doivent être formés pour comprendre comment le risque se manifeste dans leurs interactions contextuelles avec les systèmes d’IA et, plus important encore, comment les identifier, les signaler et les atténuer. C’est là que même l’entreprise la plus bien intentionnée peut échouer si elle se concentre exclusivement sur les équipes techniques. En outre, le Centre devrait fonctionner en étroite collaboration avec des «champions» commerciaux chargés de superviser la mise en œuvre de solutions et de produits d’IA fiables.

3. Faciliter la collaboration interfonctionnelle: Les risques sont très contextuels, ce qui signifie que diverses fonctions commerciales ont des perceptions différentes des risques. Lors de la conception de votre stratégie, assurez-vous d’avoir des points de vue complémentaires de la part de divers départements pour élaborer un solide plan de hiérarchisation des risques.

Cela réduira les «angles morts» de la haute direction et assurera un meilleur soutien de votre personnel pendant l’exécution. De plus, étant donné que les systèmes d’apprentissage ont tendance à entraîner des comportements imprévus, il y aura des risques qui devront être traités pendant que le système est en fonctionnement. Ici, une étroite collaboration interfonctionnelle, coordonnée par les responsables des risques et de la conformité, sera essentielle pour concevoir et mettre en œuvre des recours efficaces.

4. Adoptez des mesures de performance plus holistiques: Actuellement dans l’industrie, les systèmes d’IA sont généralement évalués en fonction de leurs performances moyennes sur des ensembles de données de référence. Pourtant, les praticiens et les chercheurs de l’IA reconnaissent qu’il s’agit d’une approche plutôt étroite de l’évaluation des performances et étudient activement des méthodes alternatives.

Nous suggérons une approche plus holistique: les entreprises devraient, sur une base régulière, surveiller et évaluer le comportement de leurs systèmes par rapport à leurs principes d’IA responsable. De ce point de vue, un système est considéré comme performant si son comportement est cohérent avec la définition organisationnelle de ce qui est considéré comme un service ou un produit responsable alimenté par l’IA.

En 2019, le Centre pour la quatrième révolution industrielle du Forum économique mondial a réuni un groupe informel multipartite de dirigeants, connu sous le nom de Global AI Council (GAIC), qui souhaite vivement créer un avenir positif avec des systèmes d’IA avancés.

L’un des objectifs du Conseil est de fournir des orientations stratégiques à la communauté mondiale sur les priorités de la gouvernance et de la coopération en matière d’IA, ainsi que sur les implications politiques liées aux progrès de l’IA.

Le projet se déroule sur plusieurs mois et rassemble un groupe diversifié de personnes comprenant des auteurs de science-fiction, des économistes, des décideurs et des experts en IA.

Le conseil vise à ouvrir les possibilités de son avenir économique positif en IA en utilisant la créativité et l’expertise de ces participants, ainsi qu’en ouvrant le processus à un éventail beaucoup plus large de contributeurs.

Il est également en train d’initier un deuxième fil conducteur du projet, en parallèle avec les ateliers: un concours de films en partenariat avec la Fondation XPRIZE. Les participants créeront des courts métrages présentant leurs idées pour une économie future sous une forme concrète qui parle des aspirations et des peurs individuelles.

5. Définir des lignes de responsabilité claires: Avoir la bonne formation et les bonnes ressources ne suffit pas pour mettre en œuvre un changement durable si vous ne parvenez pas à établir les bonnes lignes de responsabilité. En d’autres termes, pour faire ce qu’il faut, les employés doivent avoir les bonnes incitations et être reconnus pour faire ce qu’il faut. Sans surprise, c’est l’un des plus grands défis signalés par les praticiens de l’IA responsable. Ici, nous suggérons deux remèdes.

Tout d’abord, vous devez introduire un processus de vérification, soit dans le cadre de l’examen préalable au lancement de vos produits d’IA, soit indépendamment de celui-ci pour vous assurer que les considérations éthiques ont été prises en compte. Ce processus de vérification doit être articulé avec un cadre organisationnel qui cartographie les rôles et les responsabilités de chaque équipe impliquée et une procédure d’escalade à suivre en cas de désaccord persistant, par exemple entre les responsables des produits et de la confidentialité. Deuxièmement, les employés qui ont signalé des cas d’utilisation problématiques et ont pris le temps d’introduire des mesures correctives devraient être récompensés dans le cadre de leur évaluation annuelle des performances.

Les chefs d’entreprise sont de plus en plus conscients qu’une approche responsable de l’IA est nécessaire pour garantir l’utilisation bénéfique et fiable de cette technologie transformatrice. Cependant, ils ne savent pas comment faire cela à grande échelle tout en créant de la valeur pour leurs entreprises. Nous voulons les rassurer sur le fait que cela est possible, mais cela nécessite un profond changement organisationnel.

Comme pour tout changement important dans la vie, les premières étapes sont généralement les plus difficiles et nous espérons que notre guide aidera les chefs d’entreprise à naviguer dans cette phase de transition. Nous souhaitons également les encourager à persévérer car, à long terme, les entreprises responsables axées sur l’IA seront probablement les plus compétitives. En effet, le besoin de confiance dans les systèmes d’IA n’est pas une tendance; c’est le facteur déterminant qui déterminera avec qui il vaut la peine de faire affaire.

Laisser un commentaire