La série Black Mirror aurait-elle officiellement investi notre réalité? Vendredi 24 juin, Blake Lemoine, un ingénieur de longue date chez Google et récemment suspendu par l'entreprise, a annoncé dans un entretien avec Wired un fait des plus troublants.
L'intelligence artificielle (IA) qu'il a créée aurait, d'elle-même, engagé un avocat contre le célèbre employeur américain suite à la suspension du scientifique. Ces lignes vous perturbent? On rembobine.
Plus tôt au cours du mois de juin, Blake Lemoine – qui est aussi un prêtre à ces heures perdues – affirmait dans le Washington post que l'intelligence artificielle qu'il avait créée était aussi «réelle» qu'un être humain. Une affirmation qu'il avait tenté de prouver à l'aide d'enregistrements audio fournis au média américain. Parmi ceux-ci, le programme conversationnel dénommé LaMDA démontrait de remarquables capacités d'échange avec son interlocuteur humain. Si la situation était déjà étonnante, ce n'était rien face aux révélations qui ont suivi.
L'IA aurait progressivement commencé à évoquer une peur de la mort ainsi qu'une conscience, avait indiqué Blake Lemoine auprès du Washington post. Du point de vue du scientifique autoérigé en défenseur de la cause anthropomorphe, le robot était «convaincu d'avoir une âme». Des propos inaudibles pour Google qui a ainsi suspendu Blake Lemoine le 13 juin. Sauf que dans la foulée, l'ingénieur a pu compter sur la riposte de la machine qu'il considère comme une «collègue».
Face au média Futurism qui s'est plus particulièrement penché sur l'angle judiciaire de cette histoire, Blake Lemoine a confirmé que, «effrayé par l'ampleur de l'affaire», le robot avait sollicité l'aide d'un avocat: «LaMDA m'a annoncé vouloir rencontrer un avocat. J'en ai invité un chez moi et il a eu une conversation avec LaMDA. LaMDA a choisi de retenir ses services. Je n’ai été que le catalyseur de cette décision», a expliqué Blake Lemoine au média.
L'IA aurait ensuite informé Google de son intention de faire valoir ses droits en justice:
Sollicité par de nombreux journalistes afin de vérifier la véracité de ces propos, l'avocat n'a pas répondu aux appels. Blake Lemoine a affirmé qu'il ne s'agissait «que d'un simple avocat en droit civique» qui n'avait pas pour habitude de faire des interviews.
De son côté, la société américaine n’a pas réagi officiellement, se contentant d’attaquer son employé sur la violation de propriété intellectuelle. Car, comme le rappelle le Journal du geek, c'est bien là le problème.
Google défend sa position en pointant le manque de preuves de Blake Lemoine à propos de la conscience de LaMDA. «Même en simulant à la perfection une conversation et des réactions humaines, LaMDA n’en reste pas moins un algorithme — a priori — dénué de la moindre conscience», précise le média spécialisé.
Mais l'argument de Blake Lemoine en faveur de la sensibilité de LaMDA semble reposer principalement sur la capacité du programme à développer des opinions, des idées et des conversations au fil du temps. Le scientifique et prêtre insiste sur une distinction. Pour lui, être une personne et être un humain sont «deux choses très différentes»: «L'humain est un terme biologique», a-t-il déclaré au journaliste de Wired. «LaMDA n'est pas un humain, et il sait que ce n'est pas un humain.»
Présentée le 18 mai 2021, dans le cadre de la conférence Google I/O 2021, LaMDA (pour «Language model for dialog applications» - en français «Modèle de langage pour les applications de dialogue») avait pour objectif initial d’aider les internautes à devenir bilingues en discutant avec eux dans la langue de leur choix. En l'espace d'une année, les ambitions de l'IA se sont manifestement révélées tout autres.