June 14, 2022

Une IA de Google est-elle devenue "consciente" ? (Chronique)

Une IA de Google est-elle devenue "consciente" ? (Chronique)

Un chercheur de Google affirme que le géant américain a développé une intelligence artificielle qui manifeste des formes de sensibilité et même de... conscience.


Un chercheur de Google affirme que le géant américain a développé une intelligence artificielle qui manifeste des formes de sensibilité et même de... conscience. Il a été mis à pied. 

Le chercheur Blake Lemoine travaillait sur LaMBDA, une intelligence artificielle de Google conçue pour créer des chatbots. Ses "conversations" avec la machine l'ont conduit à penser que celle-ci manifesterait des formes de conscience. Le chercheur a été mis à l'écart par la direction de Google après avoir partagé ses impressions. Une affaire rocambolesque qui pose néanmoins certaines questions quant à nos relations avec les machines. 

 

Cet épisode vous a plu ? Découvrez la série spéciale Vous allez tout comprendre consacrée aux technologies du quotidien 

Transcript

Cela ressemble à une belle histoire qu’on a envie de se raconter à la machine à café. Une belle histoire qui fait un peu peur.

Un ingénieur de chez Google assure que la firme américaine a créé une intelligence artificielle douée de conscience. Une vraie conscience, qui lui ferait se poser des questions, ressentir de la joie ou de la peur, par exemple la peur de la mort.

L’ingénieur en question se nomme Blake Lemoine. Il a raconté son histoire au Washington Post. Il travaillait sur une intelligence artificielle baptisée Lambda (c’est l’acronyme de Language Model for Dialogue Applications), une IA chargée de créer des chatbots. Il était chargé de vérifier que Lambda ne risquait pas de proférer des discours haineux ou discriminatoires. Or, au cours de ses échanges, Blake Lemoine aurait découvert que Lambda serait devenue, selon lui, une créature sensible. La preuve ? Ses conversations avec Lambda. L’IA lui aurait dit, par exemple : « je suis conscient de mon existence, je désire en savoir plus sur le monde et je me sens parfois heureux ou triste ». Elle (ou il) aurait exprimé son désir de ne pas être considéré comme une chose appartenant à Google mais comme un employé et Lambda aurait même fait part de sa peur d’être… désactivé(e). La mort, pour elle (lui). Bref, quelque chose entre Hal de 2001 l’Odyssée de l’Espace et Skynet de Terminator ; de quoi coller la frousse à tous les technophobes et mettre en joie tous les complotistes.

An fait, c’est le chercheur qui a été désactivé. Blake Lemoine a été mis à pied, en congé payé forcé, officiellement, parce qu’il a violé la politique de confidentialité de l’entreprise. Google s’est fendu d’un communiqué pour expliquer que les conclusions de Lemoine avaient été examinées mais qu’il n’y avait aucune preuve d’une quelconque trace de conscience chez le robot Lambda.

Que s’est-il passé ? Comment expliquer ce phénomène ?

En fait, l’intelligence artificielle a juste fait son boulot d’intelligence artificielle. Elle a répondu aux questions en ressortant des phrases, voire des concepts, tirés tout droit de l’abondante littérature qu’elle a ingurgitée pour se documenter, c'est-à-dire tout Wikipedia, Reddit et un paquet d’écrits de science-fiction probablement. Un porte-parole de Google, Brian Gabriel, a expliqué qu’il fallait se garder de tout anthropomorphisme, c'est-à-dire de comparer les machines avec des humains. Les grands réseaux de neurones d'aujourd'hui produisent des résultats étonnants qui donnent une impression très forte de réalisme, a-t-il expliqué en substance. L’IA ne comprend pas ce qu’elle dit. Déjà, elle ne comprend même pas le sens du mot « comprendre ». En gros, ces machines imitent l’humain mais n’ont – rassurons-nous – absolument rien d’humain. C’est comme lorsque Gmail vous propose des réponses contextuelles toutes faites pour vos e-mails ; on dirait qu’il comprend ce qui est écrit mais en fait il ne comprend rien du tout, mais il est capable de traiter ces informations et d’en sortir des choses cohérentes.

Cela ne veut pas dire qu’il ne faut pas s’interroger aujourd’hui sur les effets de ces IA plus vraies que nature sur certaines personnes. Google évoque la personnalité de Blake Lemoine, qui a grandi dans une famille chrétienne conservatrice, a été ordonné prêtre chrétien mystique et s’est spécialisé dans l'occultisme. Il est sans doute réceptif aux thèses concernant d’hypothétiques transcendances des machines. Ce qu’il décrit dans son expérience avec Lambda, c’est ce que l’on appelle le test de Turing, un petit jeu qui consiste à faire dialoguer un humain avec une machine sans lui dire que c’est une machine pour voir s’il finit par s’en apercevoir. La vraie question est sans doute que si, demain, on discute avec des robots sans se rendre compte qu’il s’agit de robots, c’est là que cela risque de devenir compliqué pour notre santé mentale.