Le lundi 13 mai, le groupe OpenAI, spécialisé dans l’intelligence artificielle, a tenu une des premières conférences de presse de son histoire, a annoncé le nouveau modèle de langage GPT-4o, un nouveau mode ChatGPT Voice.
L’arrivée de ChatGPT Vision et des GPTs pour tous les utilisateurs, ainsi qu’une application desktop ChatGPT, d’abord sur Mac, puis sur Windows. GPT-5 et le moteur de recherche OpenAI sont attendus depuis longtemps et seront disponibles ultérieurement.
En utilisant GPT-4o, OpenAI transforme son agent conversationnel en un héros du film Her, offrant des réponses ultra-rapides, la capacité de lui couper les paroles, des compétences d’imitation et un mode Vision pour commenter un flux vidéo en temps réel. GPT-4o a également la possibilité de recevoir du texte en copiant-collant pendant qu’il parle, afin de collecter des informations. Voici une synthèse approfondie de la conférence.
GPT-4o est disponible depuis hier dans ChatGPT
Au cours des semaines à venir, GPT-4o prendra la place de GPT-3.5 (gratuit) et de GPT-4 (payant). C’est la première fois que tous les utilisateurs de ChatGPT bénéficient d’un nouveau modèle de langage OpenAI, ce qui laisse penser que GPT-5 sera bientôt annoncé. Les premiers à être servis seront les abonnés ChatGPT Plus (dès aujourd’hui pour les plus chanceux), avant une mise en place plus générale. La fonction Voice/Vision, quant à elle, sera ajoutée ultérieurement aux abonnés Plus d’abord.