Le Netflix chinois et sa base de données d'acteurs IA font scandale
Le service de vidéos en ligne iQiyi, équivalent en Chine de Netflix, a essuyé lundi une vague de critiques après le lancement d'un nouvel outil qui facilite l'utilisation des images d'acteurs dans les films et séries générés par l'intelligence artificielle (IA).
Plus de 100 célébrités ont rejoint une plateforme visant à les mettre en relation avec des créateurs de contenus générés par l'IA souhaitant utiliser leur image, a indiqué un haut responsable d'iQiyi, lors d'une conférence à Pékin.
En Chine, l'industrie du divertissement a rapidement adopté l'IA. Les films et les émissions générés artificiellement sont désormais monnaie courante sur les plateformes de vidéo.
Sur les réseaux sociaux, plusieurs acteurs ont dénoncé l'existence de cette «base de données d'artistes».
«Il y a un malentendu», a réagi à l'AFP Liu Wenfeng, l'un des hauts responsables d'iQiyi.
«Le type de série, les plans, tout doit être confirmé par l'acteur», qui conserve le contrôle sur l'utilisation de son image, a-t-il assuré.
Et d'expliquer: «nous ne concédons actuellement aucune licence d'utilisation d'image d'acteurs (...) Nous permettons plutôt aux créateurs et aux acteurs de l'IA d'établir plus rapidement des liens grâce à Nadou Pro», le nouvel outil IA d'iQiyi destiné aux cinéastes et qui leur permet notamment de générer des courts-métrages.
«Relique du passé»
Les propos du directeur général d'iQIYI, Gong Yu, qui suggère que les oeuvres entièrement produites par des humains pourraient devenir un «patrimoine culturel immatériel» – une expression utilisée en chinois pour désigner une relique du passé qui mérite d'être préservée – ont aussi fait réagir.
La formule «iQiyi est devenu fou» était le sujet le plus commenté sur le réseau social Weibo lundi à la mi-journée.
«Si les acteurs deviennent tous des IA, quelle chaleur y aura-t-il dans ces oeuvres littéraires et artistiques ?», pouvait-on lire dans un message.
Des experts avertissent également des risques encourus d'autoriser l'IA à utiliser l'image d'une personne.
«Une fois que l'image d'un artiste est utilisée pour entraîner les modèles d'une plateforme, il y a des risques techniques tels que le réglage fin du modèle, les fuites de données et l'entraînement secondaire non autorisé, qui sont difficiles à éliminer», explique à l'AFP Li Zhenwu, avocat au cabinet Shanghai Star Law Firm.
«Cela signifie que les actifs numériques d'un artiste peuvent être réutilisés... totalement en dehors de son contrôle», a-t-il ajouté. (tib/ats)
