Voici l'un des plus grands dangers de ChatGPT
Une enquête non représentative menée auprès de connaissances montre que de nombreuses personnes expérimentent leurs propres chatbots tant à titre privé que professionnel. Une méthode qui peut se montrer séduisante, car avec un tel outil, la charge de travail est nettement allégée pour ceux qui utilisent l'intelligence artificielle pour des tâches «laborieuses» ou pour plus de créativité.
Quel est le problème?
Récemment, OpenAI a ajouté une nouvelle corde à son arc: Il existe désormais une sorte de boutique d'applications pour les chatbots.
Le magasin GPT permet aux clients payants qui ont un abonnement ChatGTP-Plus d'utiliser des chatbots créés par d'autres utilisateurs et d'en publier eux-mêmes. Ces bots, qui s'appuient sur les capacités de ChatGPT, sont appelés «GPTs». Et les développeurs tiers qui les créent sont les «builders».
Le fait que les GPT soient accessibles sur la plateforme d'OpenAI ne signifie toutefois pas qu'ils offrent le même niveau de sécurité et de protection des données que ChatGPT lui-même.
La bonne nouvelle c'est que les données que l'on saisit pendant les chats ne sont pas toutes accessibles aux développeurs tiers. OpenAI précise dans ses FAQ sur la protection des données que le contenu des chats lui-même est largement protégé.
Sur le site web d'OpenAI, on peut d'ailleurs lire à ce sujet:
Mais les builders peuvent relier leurs propres interfaces de programmation (API) à leurs bots afin d'en étendre la fonctionnalité. Et là, selon OpenAI, il faut faire attention: «Ici, des parties de vos chats sont partagées avec le fournisseur tiers de l'API, qui n'est pas soumis aux obligations de protection des données et de sécurité d'OpenAI».
OpenAI ne vérifie pas de manière indépendante les pratiques de ces développeurs en matière de protection des données et de sécurité, souligne-t-on. Un avertissement clair est ainsi adressé aux utilisateurs:
L'expert en sécurité informatique Alastair Paterson, directeur de l'entreprise américaine Harmonic Security, a publié la semaine dernière un billet de blog sur le sujet. Dès le titre, le spécialiste met en garde contre un loup déguisé en mouton. Et de préciser:
Dans une déclaration au média américain Dark Reading, un porte-parole d'OpenAI a tenté d'apaiser les choses:
Bien entendu, OpenAI est loin d'être la première entreprise à disposer d'une boutique d'applications. Il n'est toutefois pas certain que les contrôles soient aussi stricts que ceux d'Apple, Google et d'autres. Au cours des deux mois qui ont suivi l'introduction des GPT personnalisables par OpenAI, plus de 3 millions de nouveaux bots ont été créés. Il semble que ce soit «un processus de vérification très simple» pour publier une application, fait remarquer Paterson.
Le fait que les utilisateurs doivent signaler les chatbots problématiques à OpenAI afin qu'ils soient contrôlés et éventuellement supprimés illustre une attitude habituelle des entreprises technologiques de la Silicon Valley: la protection de la sphère privée et la sécurité des données des utilisateurs n'ont pas la même importance que la croissance rapide.
Chez OpenAI, on accepte donc sciemment le risque d'une utilisation abusive de la technique ChatGPT. Et nous, les utilisateurs, sommes les cobayes. Exactement comme l'ont fait avec succès Google, Meta et autres.
Traduit et adapté par Noëline Flippe