www.fgks.org   »   [go: up one dir, main page]

Aller au contenu

GPT-4o

Un article de Wikipédia, l'encyclopédie libre.
Ceci est une version archivée de cette page, en date du 16 mai 2024 à 20:19 et modifiée en dernier par Pommeret35 (discuter | contributions). Elle peut contenir des erreurs, des inexactitudes ou des contenus vandalisés non présents dans la version actuelle.
(diff) ← Version précédente | Voir la version actuelle (diff) | Version suivante → (diff)
GPT-4o

Informations
Développé par OpenAIVoir et modifier les données sur Wikidata
Première version [1]Voir et modifier les données sur Wikidata
Langues MultilingueVoir et modifier les données sur Wikidata
Type Transformateur génératif pré-formé
Modèle d'intelligence artificielle (d)
Modèle de fondationVoir et modifier les données sur Wikidata
Licence Licence propriétaireVoir et modifier les données sur Wikidata
Site web openai.com/index/hello-gpt-4oVoir et modifier les données sur Wikidata

Chronologie des versions

GPT-4o (abréviation pour GPT-4 omni) est un transformateur pré-entraîné génératif (grand modèle de langage, ou LLM) multilingue et multimodal conçu par l'entreprise OpenAI . Ce modèle a été annoncé par Mira Murati, CTO d'OpenAI, lors d'une démo diffusée en direct le 13 mai 2024 et publié le même jour. [2] Son API est deux fois plus rapide que son prédécesseur, GPT-4 Turbo. [2]

Arrière-plan

GPT-4o a été initialement lancé sur LMSYS, sous la forme de 3 modèles différents. Ces 3 modèles s'appelaient gpt2-chatbot, im-a-good-gpt2-chatbot et im-also-a-good-gpt2-chatbot. Le 7 mai 2024, Sam Altman révélait qu'OpenAI était responsable de ces nouveaux modèles (alors mystérieux). Notons que la démo a eu lieu la veille de la keynote de Google, concurrent d'OpenAI dans les domaines des LLM.

GPT-4o obtient des résultats de pointe en matière de références vocales, multilingues et visuelles, établissant de nouveaux records en matière de reconnaissance vocale et de traduction audio. GPT-4o obtient un score de 88,7 au benchmark Massive Multitask Language Understanding ( MMLU ), contre 86,5 pour GPT-4. Pour le speech-to-speech, contrairement à GPT-3.5 et GPT-4 qui convertissent la voix en texte, donnent le texte au modèle puis reconvertissent le texte en voix à l'aide d'un autre modèle, GPT-4o prend en charge nativement la création de speech-to-speech dans ses embeddings. (Remarque : cette fonctionnalité n'a pas encore été publiée, la fonctionnalité vocale de l'application ChatGPT est toujours l'ancienne version [3] )

Le modèle prend en charge plus de 50 langues, [2] couvrant plus de 97 % des locuteurs. Mira Murati a démontré la capacité multilingue du modèle en parlant italien au modèle et en le faisant traduire entre l'anglais et l'italien lors de l'événement de démonstration OpenAI diffusé en direct le 13 mai 2024. De plus, le nouveau tokenizer utilise moins de tokens pour certaines langues, en particulier les langues qui ne sont pas basées sur l' alphabet latin, ce qui le rend moins cher pour ces langues.

Il s'agit actuellement du modèle leader dans classement Elo Arena de la Large Model Systems Organization (LMSYS). [4]

Voir également

Références

  1. (en) « OpenAI launches new AI model GPT-4o and desktop version of ChatGPT »,
  2. a b et c (en-US) Wiggers, « OpenAI debuts GPT-4o 'omni' model now powering ChatGPT », TechCrunch, (consulté le ) Erreur de référence : Balise <ref> incorrecte : le nom « TechCrunch » est défini plusieurs fois avec des contenus différents.
  3. Modèle {{Lien web}} : paramètre « titre » manquant. Altman, [1], Twitter/X (consulté le )
  4. Fedus, « GPT-4o is our new state-of-the-art frontier model. »

Modèle:OpenAI