OpenAI, l'entreprise créatrice de ChatGPT, a annoncé mardi la création d'un nouveau comité de surveillance, alors que le départ de plusieurs responsables a soulevé des inquiétudes quant à la volonté de celle-ci de réduire les dangers potentiels de l'IA.
Selon l'entreprise, le comité, au sein duquel siégera son patron Sam Altman, doit commencer à travailler au moment où OpenAI a lancé l'entraînement de son nouveau modèle d'intelligence artificielle (IA), qui est censé dépasser les capacités de GPT-4, l'actuel système au coeur de ChatGPT.
OpenAI a également assuré qu'elle recevra les avis de spécialistes externes durant cette période, parmi lesquels l'ancien responsable américain de la cybersécurité, Rob Joyce, qui était à la tête de cette division au sein de l'Agence nationale de sécurité (NSA), ainsi que John Carlin, ancien responsable du département de la Justice.
Le comité va faire le point sur les protocoles de sécurité déjà en place et avancer des recommandations en vue de possibles améliorations ou additions.
Le lancement de ce comité se veut la réponse au départ de plusieurs hauts responsables du groupe, inquiets au sujet du manque de priorité accordé, selon eux, par OpenAI à la sécurité de l'IA.
Au début du mois, l'entreprise avait démantelé son équipe chargée de la réduction des risques sur le long terme.
Annonçant son départ, le responsable de l'équipe, Jan Leike, avait critiqué son ex-employeur, l'accusant, dans une série de tweets, de donner la priorité à de «nouveaux produits tous beaux» au détriment du travail essentiel de sécurisation de l'IA:
L'entreprise a par ailleurs créé la polémique alors que sa dernière itération intégrait une voix très proche de celle de l'actrice américain Scarlett Johansson, même si OpenAI a assuré ne pas avoir cherché à copier la star hollywoodienne. (ats/jch)