Vous avez probablement une multitude de faux souvenirs remontant à l'enfance qui reste accolés à votre mémoire. Vous vous remémorez des événements, vous les racontez, ressassez et les faits se détournent de la réalité. C'est humain, la science a depuis longtemps confirmé que notre mémoire est remplie de faux souvenirs.
Des chercheurs ont décidé d'utiliser l'intelligence artificielle pour jouer avec. Curieux d'étudier la mémoire humaine, ils ont découvert qu'ils pouvaient créer de faux souvenirs en montrant à des sujets divers extraits de remakes de films qui n'ont jamais été produits.
Publiée dans la revue PLOS One, leur étude s'est basée sur un panel de 436 personnes exposées à des extraits de films populaires. A l'intérieur de ceux-ci, la technologie deepfake a été utilisée pour remplacer des acteurs par d'autres, allant de Brad Pitt dans The Shining à Charlize Theron dans la peau de Captain Marvel.
Gillian Murphy, l'auteure principale de l'étude et chercheuse à l'University College Cork en Irlande, a diffusé un exemple sur les réseaux sociaux. L'effet est assez convaincant, comme on le voit dans un clip de Chris Pratt prenant le relais de Harrison Ford dans un volet d'Indiana Jones.
All were presented as if they were real and participants were asked if they had seen it and to rate how it compared to the original. pic.twitter.com/MYxzAJnrDy
— Gillian Murphy (@gillysmurf) July 13, 2023
Les résultats de l'étude sont clairs: le deepfake a la capacité de déformer nos souvenirs. Les conclusions rapportent que les participants ont facilement formé de faux souvenirs pour ces films fictifs. Pour donner quelques chiffres:
Lucien Rochat, docteur en psychologie aux Hôpitaux Universitaires de Genève (HUG), nous confirme que c'est un phénomène connu depuis longtemps.
Et si l'IA entre dans l'équation pourrait-on donc la manipuler un peu plus? «L'IA n'est pas davantage susceptible de provoquer de faux souvenirs», assure Dr. Rochat. En revanche, «le fait de visionner régulièrement des vidéos ou photos deepfake contribue à augmenter les faux souvenirs.»
Le docteur en psychologie rappelle que des textes peuvent provoquer une déformation d'un souvenir. Toujours selon l'article paru dans PLOS One, les premières études ont rapidement démontré les effets de la désinformation post-événement. Par exemple, des participants qui ont entendu le mot «brisé» dans la question d'un chercheur étaient plus susceptibles de déclarer avoir vu du verre brisé sur les lieux de l'accident, bien qu'il n'y en ait pas eu.
Mais les mots sont-ils plus abusifs qu'une image? Une image vaut mille mots comme le dit l'adage. «Il est certain que le cerveau imprime plus rapidement une image forte qu'une phrase forte», concède Lucien Rochat.
Une téléréalité espagnole concoctée par Netflix a décidé de jouer avec ces codes. Elle confronte des participants à des vidéos de leur conjoint ou conjointe dans deux maisons différentes, où se greffe une grappe de célibataires prêt à pousser à la tromperie. Puis la production soumet aux individus des vidéos de leur partenaire qui sont réelles ou produites par l'IA. Le but: semer le doute chez les cinq couples sélectionnés et fissurer le ciment de leur relation. L'un des deux partenaires est transformé en martyr, tiraillé par le doute.
Un supplice qui pourrait aisément briser des couples et ce même si les participants ont conscience que les vidéos sont sûrement manipulées par l'intelligence artificielle. Comme le démontre une autre étude américaine, le deepfake est capable d'influencer la façon dont nous percevons les autres.
Netflix, sous couvert d'un programme «divertissant», expose les dérives du deepfake. La technologie pose des sérieuses questions morales et éthiques. Gillian Murphy tempère toutefois les inquiétudes:
A travers l'étude menée par Murphy et son équipe, l'idée même de changer ses propres souvenirs donne matière à la réflexion. Sam Altmann, le papa de ChatGPT, avouait se méfier de l'IA (un comble) à l'approche des élections américaines. Comme simple exemple, les Républicains avaient utilisé des outils d'IA pour générer de fausses images d'une invasion chinoise imaginaire.
Mais l'esprit humain a ses obsessions et ses convictions: si les gens veulent que quelque chose soit vrai, ils vont tout faire pour s'en convaincre. Dans ce flux d'informations et de désinformations, nous sommes tous dotés d'une capacité de raisonnement. La clé pour ne pas sombrer.