Ce lundi 13 mai 2024, OpenAI a lancé GPT-4o (le «o» faisait référence à «omnimodal») un nouveau modèle d’intelligence artificielle dérivé de GPT-4. Il devrait permettre à l'utilisateur de discuter de vive voix avec l'IA, celle-ci étant capable de lire les émotions du visage. Elle va donc comprendre ce que vous lui montrez lorsque votre caméra est activée.
Avec ce nouveau modèle, OpenAI fait entrer l’intelligence artificielle dans l’ère de la science-fiction de films comme Her avec Joaquin Phoenix. Car avec ses réponses rapides (aussi rapides qu’un être humain selon OpenAI), la possibilité de lui couper la parole et la capacité de comprendre et commenter un flux vidéo en temps réel, c’est une étape de plus franchie dans la direction d’une intelligence artificielle quasi humaine.
Lors de la présentation, on a pu assister à plusieurs démonstrations comme:
Le tout avec une fluidité bluffante et dans un langage naturel encore jamais vu jusqu'à présent grâce à l'ajout de petits détails comme les respirations entre les phrases ou encore la capacité de rigoler à vos blagues.
Say hello to GPT-4o, our new flagship model which can reason across audio, vision, and text in real time: https://t.co/MYHZB79UqN
— OpenAI (@OpenAI) May 13, 2024
Text and image input rolling out today in API and ChatGPT with voice and video in the coming weeks. pic.twitter.com/uuthKZyzYx
Côté API (l’interface qui permet à d'autres applications logicielles de communiquer avec ChatGPT), OpenAI affirme que ChatGPT est désormais deux fois plus rapide, pour un tarif deux fois moins cher. De quoi se démarquer encore plus dans la course aux assistants virtuels par rapport à Meta ou Google, qui eux aussi ont misé gros dans ce domaine.
OpenAI annonce remplacer à terme GPT-3.5 (gratuit) et GPT-4 (payant) avec GPT-4o. Notons que c’est la toute première fois qu’un nouveau modèle de langage d’OpenAI est gratuit pour tous les utilisateurs de ChatGPT. Mais pour l'instant, les abonnés ChatGPT Plus seront servis en priorité, avant un déploiement plus large.