Skip to content

Modèles LLM

GPT-5.2

Fenêtre de contexte (API)

  • 400k tokens au total
  • ~272k en entrée / 128k en sortie

Description

Modèle très avancé destiné aux tâches complexes nécessitant un raisonnement poussé, de la programmation et l’orchestration d’agents ou d’outils. Particulièrement performant pour l’analyse de documents longs et les flux de travail professionnels.


Mistral Large 3

Fenêtre de contexte (API)

≈256k tokens

Description

Modèle haut de gamme de Mistral conçu pour les applications d’entreprise, combinant bon raisonnement, gestion efficace de documents volumineux et coût d’inférence maîtrisé. Bien adapté aux systèmes RAG et aux assistants métiers.


Mistral Small

Fenêtre de contexte (API)

≈128k tokens

Description

Modèle plus léger optimisé pour la vitesse et le coût, tout en conservant de bonnes capacités de raisonnement et de génération de texte. Adapté aux assistants conversationnels, aux applications à forte volumétrie et aux cas d’usage nécessitant une faible latence.


GPT-5 mini

Fenêtre de contexte (API)

  • 400k tokens au total
  • ~272k en entrée / 128k en sortie

Description

Version plus légère de GPT-5 optimisée pour le ratio coût / performance. Idéale pour les assistants conversationnels, les applications à grande échelle et les systèmes d’agents nécessitant une latence et un coût réduits.


Qwen3 235B

Fenêtre de contexte (API)

≈128k tokens

Description

Grand modèle open-weights orienté raisonnement, mathématiques et programmation, avec de bonnes capacités multilingues. Souvent utilisé pour des agents avancés ou des systèmes nécessitant un modèle puissant mais contrôlable.


GPT-oss 120B

Fenêtre de contexte (API)

≈128k tokens

Description

Modèle open-weights destiné aux déploiements souverains ou auto-hébergés, offrant un bon compromis entre puissance, coût et contrôle de l’infrastructure. Adapté aux assistants internes et aux systèmes RAG d’entreprise.