Ce scandale sexiste impliquant Karin Keller-Setter va faire des vagues
Selon les titres de Tamedia, Karin Keller-Sutter a déposé une plainte pénale pour des insultes proférées par Grok, l'intelligence artificielle du réseau X. Un utilisateur avait délibérément incité le chatbot à insulter la conseillère fédérale avec des propos vulgaires et sexistes.
La conseillère fédérale PLR souhaite faire établir juridiquement qui est responsable des contenus injurieux générés par des chatbots d’intelligence artificielle. Son porte-parole, Pascal Hollenstein, l’a confirmé aux médias.
Monika Simmler, professeure de droit pénal à l'Université de Saint-Gall, estime que les chances de pouvoir poursuivre les auteurs de ce type de requêtes («prompts») sont bonnes, même si les publications sont supprimées a posteriori.
Insultes demandées à l'IA
Un utilisateur avait délibérément demandé au robot, le 10 mars, de proférer des insultes contre Karin Keller-Sutter. Grok a répondu par des propos sexistes et injurieux, visibles publiquement et partageables. La conseillère fédérale en a eu connaissance le lendemain. Peu après, le message a été supprimé.
Les faits: un Suisse, que nous surnommerons Peter P., avait incité Grok à s’en prendre à Karin Keller-Sutter, en écrivant qu'il s'agissait de sa «pouffiasse préférée». Grok a alors répondu par une série d'insultes d'autant plus grossières et misogynes, la qualifiant notamment de «salope». Peter P. s’est défendu auprès de Tamedia:
L'homme de 75 ans affirme avoir rapidement supprimé la conversation par la suite.
Pas de jurisprudence
La conseillère fédérale a déposé une plainte pénale pour diffamation et injure. Selon elle, ces propos dépassent le cadre de la liberté d’expression, mais sont du domaine de l'injure, par ailleurs misogyne.
Sur le plan juridique, la situation est floue: il n’existe pas encore de jurisprudence en la matière. La professeure Monika Simmler, estime qu’il y a de bonnes chances que l’auteur du prompt puisse être poursuivi. Dans ce cas, l’IA pourrait être considérée comme un simple outil utilisé volontairement par Peter P.
Une coresponsabilité de la plateforme ou de l’exploitant est également examinée, mais pourrait s’avérer complexe. Il faudrait démontrer que les responsables ont accepté la possibilité de diffamation et d’injure.
Cette affaire pourrait donner lieu à une procédure faisant jurisprudence et soulever des questions fondamentales sur la responsabilité liée à l’utilisation de l’intelligence artificielle.
(hkl)
