Impact social de la technologie de l’IA – Jayesh Shah


La course à l’IA (Intelligence Artificielle) devient de plus en plus intéressante avec les deux principaux protagonistes, Alphabet, la maison mère de Google et Microsoft, qui se disputent la pole position. Le mardi 14 mars 2023, Google a annoncé des outils pour Google Docs qui peuvent rédiger des blogs, créer un calendrier de formation et du texte. Il a également annoncé une mise à niveau pour Google Workspace qui peut résumer les fils de discussion Gmail, créer des présentations et prendre des notes de réunion. « Cette prochaine phase est celle où nous amenons les êtres humains à être soutenus par un collaborateur IA, qui travaille en temps réel », a déclaré Thomas Kurian, directeur général de Google Cloud, lors d’un point de presse.

Microsoft, le jeudi 16 mars 2023, a annoncé son nouvel outil d’IA, Microsoft 365 Copilot. Copilot combinera la puissance des LLM (Large Language Models) avec les données d’entreprise et les applications Microsoft 365. Selon le PDG Satya Nadela, « Nous pensons que cette prochaine génération d’IA débloquera une nouvelle vague de croissance de la productivité ». Cela s’ajoute à la bataille des chatbots en cours avec ChatGPT d’OpenAI financé par Microsoft et Bard de Google.

Alors que ces entreprises et bien d’autres investissent des milliards dans la recherche et le développement d’outils basés sur la technologie qui, selon elles, permettront aux entreprises et à leurs employés d’améliorer la productivité, l’impact social que cette technologie aura est sous surveillance. S’il est admis que la technologie de l’IA aura une profonde influence sur notre société, il est également vrai que tout ne sera pas positif.

Nonobstant le fait que l’IA peut améliorer considérablement l’efficacité et soutenir les êtres humains en augmentant le travail qu’ils effectuent et en prenant en charge des emplois dangereux, rendant le lieu de travail plus sûr, cela aura également des implications économiques, juridiques et réglementaires auxquelles nous devons être prêts. Nous devrons construire des cadres pour s’assurer qu’il ne franchit pas les frontières juridiques et éthiques.

Les opposants prédisent qu’il y aura un chômage à grande échelle et que des millions d’emplois seront perdus, créant des troubles sociaux. Ils craignent également qu’il y ait un biais dans les algorithmes conduisant à un profilage évitable des personnes. Un autre défi qui affectera la vie quotidienne est la capacité de la technologie à générer de fausses nouvelles et de la désinformation ou des contenus inappropriés/trompeurs. Le problème est que les gens vont croire une machine, pensant qu’elle est infaillible. L’utilisation de deepfakes n’est pas un problème technologique isolé. C’est le reflet des modèles culturels et comportementaux affichés en ligne sur les réseaux sociaux de nos jours.

*Question de propriété intellectuelle

Il y a aussi la question de savoir qui détient la PI pour les innovations en IA. Peut-il être breveté ? Il existe des lignes directrices aux États-Unis et dans l’Union européenne sur ce qui peut et ne peut pas être considéré comme une invention pouvant être brevetée. Le débat porte sur ce qui constitue une création originale. Les nouveaux artefacts générés à partir d’anciens peuvent-ils être traités comme des inventions ? Il n’y a pas de consensus à ce sujet et les autorités de différents pays ont rendu des jugements diamétralement opposés, à l’exemple des brevets déposés par Stephen Thaler pour son système appelé DABUS (Device for the Autonomous Bootstrapping of Unified Sentience) qui ont été rejetés au Royaume-Uni, le EU et USA mais accordé en Australie et Afrique du Sud. Une chose est claire; en raison des complexités liées à l’IA, la protection IP qui régit actuellement les logiciels va être insuffisante et de nouveaux cadres devront se développer et évoluer dans un proche avenir.

*Impact sur l’environnement

L’infrastructure utilisée par les machines d’IA consomme de très grandes quantités d’énergie. On estime que la formation d’un seul LLM produit 300 000 kilogrammes d’émissions de CO2. Cela soulève des doutes sur sa durabilité et pose la question, quelle est l’empreinte environnementale de l’IA ?

Alexandre Lacoste, chercheur scientifique chez ServiceNow Research, et ses collègues ont développé un calculateur d’émissions pour estimer l’énergie dépensée pour la formation de modèles d’apprentissage automatique.

Comme les modèles de langage utilisent de plus grands ensembles de données et deviennent plus complexes à la recherche d’une plus grande précision, ils utilisent plus d’électricité et de puissance de calcul. Ces systèmes sont appelés systèmes Red AI. Red AI se concentre sur la précision au détriment de l’efficacité et ignore le coût pour l’environnement. À l’autre extrémité du spectre se trouve l’IA verte qui vise à réduire la consommation d’énergie et les émissions de carbone de ces algorithmes. Cependant, le passage à l’IA verte a des implications financières importantes et nécessitera le soutien des grandes entreprises technologiques pour réussir.

*Éthique de l’IA

Une autre retombée des systèmes d’IA omniprésents sera de nature éthique. Selon le philosophe politique américain Michael Sandel, « l’IA présente trois grands domaines de préoccupation éthique pour la société : la vie privée et la surveillance, les préjugés et la discrimination et peut-être la question philosophique la plus profonde et la plus difficile de l’époque, le rôle du jugement humain ».

À l’heure actuelle, il n’y a pas de mécanisme de réglementation sur les grandes entreprises technologiques. Les chefs d’entreprise « ne peuvent pas jouer sur les deux tableaux, en refusant la responsabilité des conséquences néfastes de l’IA tout en luttant contre la surveillance gouvernementale », déclare Sandel et ajoute que « nous ne pouvons pas supposer que les forces du marché régleront le problème à elles seules ».

On parle de mécanismes de régulation pour contenir les retombées, mais il n’y a pas de consensus sur la manière de s’y prendre. L’Union européenne s’y est attaquée en élaborant la loi sur l’IA. La loi classe les applications de l’IA dans trois catégories de risques. Premièrement, les applications et les systèmes qui créent un risque inacceptable, tels que la notation sociale gérée par le gouvernement du type utilisé en Chine, sont interdits. Deuxièmement, les candidatures à haut risque, telles qu’un outil de numérisation de CV qui classe les candidats à un emploi, sont soumises à des exigences légales spécifiques. Enfin, les applications qui ne sont pas explicitement interdites ou répertoriées comme à haut risque ne sont en grande partie pas réglementées.

Il propose des contrôles sur les applications d’IA susceptibles de causer des dommages aux personnes, comme des systèmes de notation des examens, de recrutement ou d’assistance aux juges dans la prise de décision. Le projet de loi veut restreindre l’utilisation de l’IA pour calculer la fiabilité des personnes basée sur la réputation et l’utilisation de la reconnaissance faciale dans les espaces publics par les autorités chargées de l’application des lois. La loi est un bon début mais rencontrera des obstacles avant que le projet ne devienne un document final et d’autres défis avant qu’il ne soit promulgué dans une loi. Les entreprises technologiques s’en méfient déjà et craignent que cela ne leur crée des problèmes. Mais cette loi a suscité un intérêt dans de nombreux pays avec la stratégie d’IA du Royaume-Uni, y compris le développement éthique de l’IA, et les États-Unis envisagent de réglementer la technologie de l’IA et la reconnaissance faciale en temps réel au niveau fédéral.

Les grandes entreprises technologiques repoussent les limites à la recherche de technologies de pointe et deviennent des souverains numériques avec une empreinte à travers les zones géographiques, créant de nouvelles règles du jeu. Alors que les gouvernements feront ce qu’ils doivent, les entreprises peuvent faire leur part en ayant un code d’éthique pour le développement de l’IA et en embauchant des éthiciens qui peuvent les aider à réfléchir, à développer et à mettre à jour le code d’éthique de temps à autre. Ils peuvent également agir en tant que chiens de garde pour s’assurer que le code est pris au sérieux et en signaler les digressions.

Il y aura des problèmes sociaux et culturels qui motiveront les réponses à la réglementation de l’IA par différents pays et dans un tel scénario, la suggestion de Poppy Gustafsson, PDG de la société de cybersécurité AI Darktrace, concernant la formation d’une « OTAN technologique » pour combattre et contenir la cybersécurité croissante les dangers semblent être la voie à suivre.

Clause de non-responsabilité: Les opinions exprimées dans l’article ci-dessus sont celles des auteurs et ne représentent pas ou ne reflètent pas nécessairement les opinions de cette maison d’édition. Sauf indication contraire, l’auteur écrit à titre personnel. Ils ne sont pas destinés et ne doivent pas être considérés comme représentant des idées, des attitudes ou des politiques officielles d’une agence ou d’une institution.




Laisser un commentaire