Modèles LLM
GPT-5.2
Fenêtre de contexte (API)
- 400k tokens au total
- ~272k en entrée / 128k en sortie
Description
Modèle très avancé destiné aux tâches complexes nécessitant un raisonnement poussé, de la programmation et l’orchestration d’agents ou d’outils. Particulièrement performant pour l’analyse de documents longs et les flux de travail professionnels.
Mistral Large 3
Fenêtre de contexte (API)
≈256k tokens
Description
Modèle haut de gamme de Mistral conçu pour les applications d’entreprise, combinant bon raisonnement, gestion efficace de documents volumineux et coût d’inférence maîtrisé. Bien adapté aux systèmes RAG et aux assistants métiers.
Mistral Small
Fenêtre de contexte (API)
≈128k tokens
Description
Modèle plus léger optimisé pour la vitesse et le coût, tout en conservant de bonnes capacités de raisonnement et de génération de texte. Adapté aux assistants conversationnels, aux applications à forte volumétrie et aux cas d’usage nécessitant une faible latence.
GPT-5 mini
Fenêtre de contexte (API)
- 400k tokens au total
- ~272k en entrée / 128k en sortie
Description
Version plus légère de GPT-5 optimisée pour le ratio coût / performance. Idéale pour les assistants conversationnels, les applications à grande échelle et les systèmes d’agents nécessitant une latence et un coût réduits.
Qwen3 235B
Fenêtre de contexte (API)
≈128k tokens
Description
Grand modèle open-weights orienté raisonnement, mathématiques et programmation, avec de bonnes capacités multilingues. Souvent utilisé pour des agents avancés ou des systèmes nécessitant un modèle puissant mais contrôlable.
GPT-oss 120B
Fenêtre de contexte (API)
≈128k tokens
Description
Modèle open-weights destiné aux déploiements souverains ou auto-hébergés, offrant un bon compromis entre puissance, coût et contrôle de l’infrastructure. Adapté aux assistants internes et aux systèmes RAG d’entreprise.