GPT-4o: un nouveau modèle de langage vocal dévolé par OpenAI

L'arrivée de ChatGPT Vision et des GPTs pour tous les utilisateurs, ainsi qu'une application desktop ChatGPT, d'abord sur Mac, puis sur Windows.

Le lundi 13 mai, le groupe OpenAI, spécialisé dans l’intelligence artificielle, a tenu une des premières conférences de presse de son histoire, a annoncé le nouveau modèle de langage GPT-4o, un nouveau mode ChatGPT Voice.

L’arrivée de ChatGPT Vision et des GPTs pour tous les utilisateurs, ainsi qu’une application desktop ChatGPT, d’abord sur Mac, puis sur Windows. GPT-5 et le moteur de recherche OpenAI sont attendus depuis longtemps et seront disponibles ultérieurement.

En utilisant GPT-4o, OpenAI transforme son agent conversationnel en un héros du film Her, offrant des réponses ultra-rapides, la capacité de lui couper les paroles, des compétences d’imitation et un mode Vision pour commenter un flux vidéo en temps réel. GPT-4o a également la possibilité de recevoir du texte en copiant-collant pendant qu’il parle, afin de collecter des informations. Voici une synthèse approfondie de la conférence.

GPT-4o est disponible depuis hier dans ChatGPT



Au cours des semaines à venir, GPT-4o prendra la place de GPT-3.5 (gratuit) et de GPT-4 (payant). C’est la première fois que tous les utilisateurs de ChatGPT bénéficient d’un nouveau modèle de langage OpenAI, ce qui laisse penser que GPT-5 sera bientôt annoncé. Les premiers à être servis seront les abonnés ChatGPT Plus (dès aujourd’hui pour les plus chanceux), avant une mise en place plus générale. La fonction Voice/Vision, quant à elle, sera ajoutée ultérieurement aux abonnés Plus d’abord.

Table des matières

Vous appréciez cet article. Merci de le partager !

Articles recommandés

S’inscrire à la newsletter