« Course aux armements » pour relever le défi de la technologie de l’intelligence artificielle – The Irish Times


Cette semaine, le président américain Joe Biden a déclaré aux rangs des politiciens et des dignitaires à Leinster House que le monde était à un « point d’inflexion ».

« Les choix que nous faisons aujourd’hui vont littéralement déterminer l’avenir ou l’histoire de ce monde pour les quatre à cinq prochaines décennies », a-t-il déclaré aux Houses of the Oireachtas. Pour souligner son propos, il a fait référence à l’intelligence artificielle : « Elle est extrêmement prometteuse et extrêmement préoccupante ».

Sa mise en avant de l’intelligence artificielle (IA) intervient à un moment où l’émergence de ChatGPT a déclenché un débat désordonné, écrasant et parfois exagéré.

Le mois dernier, le sénateur américain Chris Murphy a tweeté une affirmation selon laquelle ChatGPT avait appris par lui-même à faire de la chimie avancée. « Quelque chose arrive », a-t-il prévenu. « Nous ne sommes pas prêts ».

Il est difficile de parvenir à un consensus sur ce qui s’en vient, mais de nombreux commentateurs s’accordent à dire que le rythme et l’ampleur des changements provoqués par les progrès rapides de l’IA, et la promesse d’autres à venir, sont énormes.

Le Dr Seán Ó hÉigeartaigh, un universitaire irlandais qui est directeur de l’IA au programme Futures and Responsibility de l’Université de Cambridge, déclare que le potentiel de transformation de l’IA est « de l’ordre d’Internet – et je pense qu’il y a une possibilité dans 10 ans délai, si les progrès se poursuivent, que l’on regarde de l’ordre de la révolution industrielle ».

Ó hÉigeartaigh admet être à l’extrémité haussière du spectre, mais son point de vue n’est pas différent de certains hauts responsables du gouvernement. Une source de haut niveau a déclaré que cela ressemblait à l’avènement de l’énergie nucléaire. Un autre haut responsable a déclaré que la technologie « transformait la façon dont nous vivons tous sans même en parler ».

Alors que le débat sur l’IA gagne du terrain, de plus en plus de questions se posent sur l’impact sur la vie numérique et physique des gens, la sécurité de leur travail et les conséquences sociales, politiques et économiques d’un changement rapide à une échelle et à une vitesse difficiles à comprendre.

« La vraie question est de savoir ce qui s’est passé au cours des deux derniers mois », déclare Richard Browne, directeur du National Cyber ​​​​Security Center (NCSC), l’agence d’État chargée de scanner l’horizon numérique à la recherche de menaces. « Tout ce qui concerne le domaine politique ici est remis en question par la vitesse à laquelle cela se produit. »

‘Orage parfait’

Les progrès récents de l’IA ont été rendus possibles par ce que le Dr Edward McDonnell appelle une « tempête parfaite ». McDonnell, directeur du CeADAR, le centre national irlandais pour l’IA appliquée, affirme que la disponibilité d’énormes quantités de données sur lesquelles de nouveaux systèmes peuvent être « formés » est arrivée en même temps que « des progrès phénoménaux dans la quantité de puissance informatique disponible ». Il dit que c’est « une discontinuité dans le processus où il y a un énorme bond en avant ».

Les avantages potentiels sont énormes : les optimistes esquissent un avenir où presque tous les secteurs de la société bénéficieront d’énormes gains de productivité. « Nous devons l’accepter et non le condamner », a déclaré une source gouvernementale de haut niveau.

Cependant, les avertissements s’accumulent également. Le Financial Times a publié cette semaine un article d’un investisseur en IA implorant « nous devons ralentir la course à l’IA divine » ; un article publié par un chercheur américain en IA a averti que « la sélection naturelle favorise les IA par rapport aux humains ». Certains rapports ont été carrément effrayants : les journaux belges ont publié des détails sur un homme qui s’est suicidé après avoir interagi avec un chatbot sur le changement climatique pendant des semaines ; Des militants américains ont publié des captures d’écran d’interactions avec un service Snapchat expérimental alimenté par l’IA qui offrait des conseils à une jeune fille de 13 ans prévoyant une relation sexuelle avec un homme de 31 ans et à un enfant cherchant à dissimuler des ecchymoses avant une visite des services de protection ( dans les deux cas, des adultes ont joué le rôle d’enfants demandant conseil).

Il y a une école de pensée croissante qui soutient que la vitesse des développements récents signifie que l’optimisme doit être tempéré par une évaluation réaliste de la façon dont la vie peut changer et de la façon dont cela doit être planifié.

« Je suis enthousiaste et troublé », déclare Ó hÉigeartaigh de l’Université de Cambridge. « Les choses évoluent très rapidement en ce moment et nous sommes loin d’être préparés à l’impact. Il pense que l’IA pourrait soulager une grande partie de la « corvée de la vie moderne » et être extrêmement utile aux professionnels. Cependant, cela pourrait également rendre de larges pans du travail moins, ou seulement marginalement, économiquement viables.

Différents secteurs doivent être inclus « pour s’assurer que l’IA n’est pas seulement une chose qui leur arrive, mais qu’ils en façonnent la gouvernance car elle affecte leurs secteurs ».

« En tant que société, y compris ceux d’entre nous qui réfléchissent à l’impact fondamental de ces technologies, nous n’avons pas eu assez de temps et nous luttons pour suivre le rythme auquel les choses se passent. »

Des lignes directrices

Plus tôt cette semaine, le ministre d’État à la cybersécurité, Ossian Smyth, a déclaré qu’il avait demandé au NCSC d’élaborer des lignes directrices destinées au public pour un monde caractérisé par des risques nouveaux ou accrus découlant de la prolifération des technologies d’intelligence artificielle. Il dit qu’une « vague » de perturbations peut se produire, y compris dans la fraude – où auparavant les escroqueries individuelles peuvent proliférer, soutenues par une IA sophistiquée.

Un autre est au sein de la politique, où les soi-disant « réseaux d’influence » peuvent fausser le débat en utilisant des armées de robots alimentés par l’IA, ou par la production et la diffusion rapides de deepfakes et d’autres formes de désinformation. « Il s’agit de l’échelle et du volume qui peuvent être produits », explique Joseph Stephens, responsable de l’engagement auprès du NCSC. « Cela ne fait qu’accélérer l’image de la menace qui est déjà en place. »

Certains craignent que la politique ait récemment fait ses preuves en matière de vulnérabilité aux nouvelles menaces. Mark Brakel est directeur de la politique du Future of Life Institute, une organisation à but non lucratif qui vise à atténuer les risques liés à la technologie – en partie financée par Elon Musk historiquement, et bénéficiant également du soutien important de Vitalik Buterin, fondateur de la crypto-monnaie Ethereum. Il dit que les médias sociaux devraient être considérés comme le premier contact de l’humanité à grande échelle avec des « systèmes d’IA vraiment simples » qui deviennent beaucoup plus sophistiqués. « Nous devrions tirer des leçons de la façon dont nous avons mal régulé les médias sociaux pour prendre de l’avance cette fois-ci », dit-il – avertissant que les médias sociaux ont été accueillis avec un énorme enthousiasme et certains efforts réglementaires pour « bricoler sur les bords – et quelques années plus tard, nous nous sommes réveillés avec un système politique brisé ».

Régulation

Il y a inévitablement eu des appels à plus de réglementation de l’IA. À Washington, le chef du Sénat Chuck Schumer prend des mesures précoces pour réglementer l’IA, tandis que Bruxelles est quelque peu en avance sur le jeu et travaille sur un projet de loi sur l’IA depuis deux ans – il se démène maintenant pour adapter ces efforts aux derniers développements.

L’Irlande a une politique d’IA datant de 2021, le ministère de l’Entreprise en assumant la responsabilité globale. D’autres parties de l’appareil d’État sont également impliquées – le NCSC prend en compte l’IA dans ses évaluations des menaces depuis plusieurs années.

Il est entendu que les responsables de la sécurité ont interagi avec les multinationales basées ici et sont en train d’élaborer davantage de directives pour les agences de l’État, tandis qu’un examen à mi-parcours de la stratégie de cybersécurité actuelle prévu dans quelques semaines devrait mettre davantage l’accent sur l’IA.

Bien que la menace soit vive, les responsables de la sécurité affirment également qu’elle n’a pas encore figuré comme un risque principal dans les évaluations partagées avec l’Irlande par des acteurs internationaux ou des gouvernements amis. Il n’a pas encore percé les listes régulièrement diffusées des menaces les plus pressantes auxquelles l’État est confronté.

Le NCSC s’attend à ce que la menace, lorsqu’elle se matérialise, ne provienne pas en premier lieu de la technologie elle-même, mais de son déploiement par un mauvais acteur tel qu’une organisation criminelle ou un État voyou. « Le vrai défi, ce sont les pays et les entités qui ne respectent pas le droit international », déclare le directeur du NCSC, Richard Browne. Le NCSC soutient également que les outils d’IA lui permettent de devenir plus efficace, même s’ils peuvent autonomiser les mauvais acteurs.

« C’est essentiellement une sorte de course aux armements entre les deux camps. Et, comme toutes les nouvelles technologies, c’est une épée à double tranchant », déclare Stephens.

Le vrai défi, dit Browne – tout en soulignant qu’il n’y a aucune suggestion que cela se produise actuellement – ​​est «ce qui se passe si les outils et les technologies se développent à un rythme exponentiel, et que les choses utilisées pour défendre les réseaux – les processus, les outils – deviennent redondantes , essentiellement, et vous êtes pris dans une révolution technologique plutôt que dans une évolution ».

Appel à pause

Le Future of Life Institute a publié le mois dernier une lettre ouverte appelant à la suspension immédiate d’au moins six mois de la formation des systèmes d’IA, signée par Musk, le co-fondateur d’Apple Steve Wozniak et d’autres. Ó hÉigeartaigh était parmi eux – il dit qu’il est crucial qu’un espace de débat émerge. Alors que lui et beaucoup d’autres sont sceptiques quant à la menace imminente d’une « intelligence générale artificielle », équivalente à l’intelligence au niveau humain, il dit que la vitesse des progrès récents signifie que « ce sont des questions qui doivent maintenant être prises un peu au sérieux ».

« La meilleure chance que nous ayons actuellement est la loi européenne sur l’IA, les régulateurs étant suffisamment financés et dotés de ressources », déclare l’ambassadrice irlandaise de l’IA, Patricia Scanlon, qui se décrit comme une défenseure de l’IA éthique. « Je suis vraiment heureuse que cela soit sorti quand il l’a fait, car cela met en lumière les lacunes de la législation », dit-elle. Face à des changements rapides, Scanlon se méfie des prédictions fermes – « Quiconque sort et dit exactement qu’il sait ce qui va se passer dans les cinq ou 10 prochaines années, je ne pense pas qu’il dise la vérité », dit-elle. . Mais prévient qu’il y a néanmoins une fenêtre à préparer.

« Je deviendrai nerveux si je sens que les gens ne le prennent pas au sérieux, le laissent se répandre ou se plient au lobbying à ce sujet ».

« Je pense que nous avons le temps et j’espère vraiment que nous le prendrons tous au sérieux à ce stade pour bien faire les choses plus tard ».

La ministre d’État Dara Calleary, qui supervise la politique, a déclaré que la législation de l’UE « mettra en place des garde-fous pour l’utilisation de l’IA » et que l’Irlande était « activement engagée » à Bruxelles sur l’élaboration de la politique.

Smyth, le ministre de la cybersécurité, met en garde plus crûment : « C’est un outil extrêmement puissant que nous devons passer du temps à étudier et à maîtriser – avant qu’il ne nous maîtrise. »

Laisser un commentaire