N’ayez pas peur de la technologie sensible : elle n’est pas encore là…


Vous n’avez pas pu assister à Transform 2022 ? Découvrez dès maintenant toutes les sessions du sommet dans notre bibliothèque à la demande ! Regardez ici.


La technologie peut-elle être sensible ? Depuis que le premier programme d’intelligence artificielle (IA) a été écrit en 1951, les chercheurs et les professionnels de la technologie ont travaillé sans relâche pour développer des programmes d’IA hautement sophistiqués. L’un des premiers pionniers de ce type de technologie était Alan Turing, un mathématicien et informaticien anglais. Turing a compris qu’en tant qu’êtres humains, nous combinons les informations dont nous disposons avec la raison de prendre des décisions. Il a émis l’hypothèse que parce qu’il était possible pour les humains d’arriver à une conclusion logique en utilisant ces méthodes, il était concevable qu’une machine puisse faire la même chose.

À peu près à la même époque, nous avons également vu la culture populaire utiliser l’émergence de l’IA et des robots pour créer une nouvelle classe de méchants – des robots dotés d’une intelligence humaine qui pourraient ressentir, émouvoir et se connecter comme le font les humains, conquérant le monde. Cela a entraîné une peur de la technologie de pointe qui a persisté au cours des soixante-dix dernières années dans les films, la culture pop et les livres.

En dehors de la culture populaire, les scientifiques et les ingénieurs travaillaient activement pour développer des programmes d’IA plus intelligents et plus avancés. Turing ayant cru très tôt que l’IA pouvait être programmée pour prendre des décisions, cela a ouvert la porte aux scientifiques pour poser une question très critique, bien que philosophique, l’IA pourrait-elle jamais devenir suffisamment avancée pour devenir « sensible » ? Que cela soit bénéfique ou dangereux dépend principalement de l’interprétation individuelle, mais malgré les gros titres récents, la technologie sensible n’est pas encore là, et elle ne le sera pas de notre vivant.

En effet, l’IA et l’apprentissage automatique (ML) en sont encore à leurs balbutiements et il y a de grands progrès à faire en matière d’optimisation et d’innovation. Nous avons maîtrisé de nombreux éléments de base nécessaires pour créer des systèmes d’IA sophistiqués, mais nous ne pouvons pas encore construire l’être sensible complet.

Événement

MetaBeat 2022

MetaBeat réunira des leaders d’opinion pour donner des conseils sur la façon dont la technologie métaverse transformera la façon dont toutes les industries communiquent et font des affaires le 4 octobre à San Francisco, en Californie.

Inscrivez-vous ici

La société a de nombreuses façons différentes de définir le terme « sensible »

Pour vraiment comprendre ce qu’il faudrait pour que la technologie devienne sensible, il est important de décomposer la philosophie derrière ce que la civilisation occidentale définit comme «sensible». Il faut aussi faire la différence entre un dispositif technologique entraîné et une machine à décision légitimement autonome. Familièrement, nous définissons la sentience comme un être qui est conscient de soi et qui a l’agence et l’autonomie sur ses décisions.

Au début des années 1900, Turing a étudié cette idée et ce que cela signifie pour quelque chose d’avoir une conscience. À la suite de ses recherches, il a développé un test pour déterminer si une machine a une conscience de niveau humain. Le test a révélé que l’IA avait une conscience de niveau humain si un humain était incapable de différencier s’il communiquait avec une machine ou un humain.

Cela semble simple, non ? C’est un peu plus compliqué que ça.

Par exemple, si vous parlez avec quelqu’un qui travaille dans le service client par téléphone ou via un service de chat en ligne – un caissier de banque, par exemple – en posant des questions et en interagissant, nous pouvons supposer qu’il a une conscience de soi et de la conscience. C’est parce qu’ils nous écoutent et sont capables de réagir et de répondre d’une manière qui apporte des solutions significatives à nos problèmes. Parfois, lorsque les gens interagissent avec des personnes qui travaillent dans le service client, il peut y avoir des émotions telles que la colère, la joie et la peur qu’un humain est capable de capter et de réagir. Si une machine est capable de gérer la même fonction d’écoute, de réponse et de détection des émotions de manière significative, comment cela affecte-t-il notre définition de la conscience ?

Technologie sensible : miroir de l’interaction humaine

L’IA est tenue de refléter les interactions humaines parce que les humains programment le logiciel pour gérer les fonctions qu’une personne ferait normalement. En conséquence, ils ont implanté certains de leurs propres préjugés dans l’IA qu’ils créent – ce qui est une histoire complètement différente. Prenez, par exemple, les chatbots. Ce type de technologie élimine la nécessité pour les employés humains de remplir les espaces de bureau des centres d’appels, de répondre aux demandes des clients et de les acheminer vers la bonne personne. Mais la technologie est conçue pour répondre et interagir dans un format conversationnel qui peut être suivi par l’humain à l’autre bout de la ligne, ou aide la personne qui appelle à obtenir la réponse ou la tâche qu’elle doit accomplir.

Au fur et à mesure que l’IA devient plus avancée, elle est vouée à devenir plus complexe. Cela étant dit, ce n’est pas parce que quelque chose peut gérer des tâches complexes qu’il est sensible. Aujourd’hui, l’IA peut effectuer une multitude de tâches parce qu’elle a été entraînée à le faire : nous parler, effectuer une traduction en temps réel, alimenter des véhicules autonomes.

Cela est possible non pas parce que l’IA prend des décisions, mais parce que la machine ou le logiciel suit l’ensemble de règles et d’informations codifiées qu’un humain a installé. Il convient également de souligner que dans la plupart de ces situations, il y a toujours un composant humain dans la boucle et que l’IA n’agit pas de manière indépendante.

Les phénomènes émergents

L’IA a besoin d’un ensemble de règles à suivre et d’un humain pour déterminer ces règles. Un exemple de la façon dont ces règles prennent forme est l’idée de « phénomènes émergents » dans la technologie. Cela peut être défini comme l’apparition de quelque chose de nouveau et d’imprévisible dans le processus d’évolution organique.

Cela signifie que même si une machine n’est pas spécifiquement programmée pour faire quelque chose, en raison de la formation qu’elle a reçue et du contexte plus large dans lequel elle fonctionne, elle peut être capable d’effectuer certaines tâches et opérations relativement spontanément, ce qui est une progression naturelle dans le processus de développement de l’IA.

Cela ne signifie pas pour autant que la machine est sensible. Il représente plutôt les réalisations des avancées technologiques actuelles dans l’amélioration des systèmes pour aider les équipes informatiques à minimiser le temps passé à effectuer des tâches fastidieuses qu’une machine peut être entraînée à effectuer. Tout dépend des degrés de liberté ou des limites que les humains intègrent au système. Cette idée de l’IA s’apprenant potentiellement à faire des choses a tendance à être à l’origine de la peur sensationnelle inspirée d’Hollywood, alors que nous imaginons que des machines prennent le contrôle du monde.

L’IA deviendra-t-elle un jour sensible ?

Bien qu’il ne soit pas juste de mettre un enjeu dans le sol et de dire que l’IA sensible ne sera jamais possible, il est plus réaliste de penser que ce type de technologie est à des centaines d’années. Nous n’en sommes qu’au tout début de ce qui est possible avec l’IA, et bien que l’idée de l’IA sensible soit intrigante, nous devons maîtriser l’art de marcher avant de pouvoir courir.

Si et quand cela se produit, cela posera d’énormes questions philosophiques à la communauté au sens large. Si une machine est consciente, étendons-nous les droits de l’homme à cette machine ou l’accès à un avocat dans le cas de Google LaMDA ? À l’heure actuelle, nous avons un long chemin à parcourir en termes de perfectionnement de l’IA générale avant même de pouvoir commencer à penser ou à développer une IA sensible.

Au fur et à mesure que l’IA et le ML continueront d’être développés et améliorés, nous serons certainement en mesure d’améliorer l’expérience des clients et des employés et de minimiser le temps que les développeurs passent à perfectionner les éléments constitutifs individuels de la technologie au fur et à mesure que la vue d’ensemble commence à se mettre en place.

Bien que l’idée d’une IA de science-fiction prenant le contrôle du monde puisse être une excellente intrigue pour un film ou une série de podcasts, nous pouvons être assurés que la technologie est un ami plutôt qu’un ennemi. L’adoption généralisée de l’IA dans la vie quotidienne la normalisera, renforcera la confiance d’un point de vue humain et éliminera les couches de peur laissées par des années de sentiment sensationnaliste envers le ML.

Et bien que nous puissions penser que notre Siri ou Alexa est en colère contre nous, elle écoute certainement, mais nous pouvons être assurés qu’elle n’est pas un être sensible.

Adam Sypniewski est le directeur technique de Deepgram.

DataDecisionMakers

Bienvenue dans la communauté VentureBeat !

DataDecisionMakers est l’endroit où les experts, y compris les techniciens travaillant sur les données, peuvent partager des informations et des innovations liées aux données.

Si vous souhaitez en savoir plus sur les idées de pointe et les informations à jour, les meilleures pratiques et l’avenir des données et de la technologie des données, rejoignez-nous sur DataDecisionMakers.

Vous pourriez même envisager de rédiger votre propre article !

En savoir plus sur DataDecisionMakers

Laisser un commentaire