Média tech français
Call-Informatique
Le média tech français
Mistral Small 4 : un seul modèle pour tout faire
Intelligence Artificielleactualites4 min de lecture

Mistral Small 4 : un seul modèle pour tout faire

Mistral lance Small 4, un modèle open-source de 119B paramètres qui unifie raisonnement, code et multimodal. Apache 2.0, 256K de contexte.

Mistral frappe un grand coup. La startup française vient de sortir Small 4, et cette fois ce n'est pas un simple rafraîchissement. C'est la première fois que Mistral unifie ses trois spécialités — l'instruct rapide, le raisonnement profond et le coding agentique — dans un seul modèle. Le tout sous licence Apache 2.0.

Comparaison des performances de Mistral Small 4 face aux modèles internes précédents
Crédit : Mistral AI

119 milliards de paramètres, 6 milliards actifs

Small 4 utilise une architecture Mixture of Experts avec 128 experts dont seulement 4 sont actifs par token. Résultat : 119 milliards de paramètres au total, mais seulement 6 milliards mobilisés à chaque instant (8 milliards en comptant les couches d'embedding). C'est ce qui lui permet d'être rapide malgré sa taille.

En pratique, Mistral annonce 40% de réduction du temps de complétion par rapport à Small 3, et trois fois plus de requêtes par seconde en mode throughput. Pour une entreprise qui fait tourner des milliers de requêtes, ça change la facture.

Un modèle, trois personnalités

Jusqu'ici chez Mistral, il fallait jongler entre plusieurs modèles selon le besoin. Magistral pour le raisonnement, Devstral pour le code, Small 3 pour l'instruct rapide. Small 4 absorbe les trois.

Le paramètre reasoning_effort permet de doser. Sur "none", le modèle répond vite et court, comme un Small 3.2 classique. Sur "high", il prend le temps de décomposer le problème étape par étape, avec un raisonnement visible. Pas besoin de changer de modèle, juste de tourner un bouton.

256K tokens de contexte

La fenêtre de contexte passe à 256 000 tokens. De quoi ingérer un roman entier, un dépôt de code complet, ou des centaines de pages de documentation en une seule requête. C'est quatre fois plus que ce que proposait Small 3.

Le modèle accepte aussi les images en entrée. Analyse de documents, captures d'écran, diagrammes techniques — tout passe sans avoir besoin d'un modèle séparé.

Benchmark LCR : Mistral Small 4 produit des réponses aussi précises que GPT-OSS 120B avec 3 à 4 fois moins de tokens
Crédit : Mistral AI — Benchmark LCR

Les benchmarks parlent

Sur LCR (un benchmark de concision et qualité), Small 4 obtient 0.72 avec seulement 1 600 caractères en sortie. Les concurrents ont besoin de 3,5 à 4 fois plus de texte pour un score similaire. Moins de blabla, plus de substance.

Sur LiveCodeBench, il dépasse GPT-OSS 120B avec 20% de tokens en moins. Sur AIME 2025 (maths avancées), il fait jeu égal. Pour un modèle "small", c'est impressionnant.

Open-source, Apache 2.0

C'est probablement le point le plus important. Small 4 est entièrement open-source sous licence Apache 2.0. Vous pouvez le télécharger, le modifier, le fine-tuner, le déployer en production sans demander la permission à personne.

Il est disponible sur Hugging Face, compatible vLLM, llama.cpp, SGLang et Transformers. Côté hardware, il faut quand même du muscle : 4x H100 minimum, ou 2x H200, ou 1x DGX B200. Pas vraiment un modèle de laptop, mais largement à la portée d'une PME avec un serveur dédié.

Pour ceux qui ne veulent pas gérer l'infra, Mistral le propose aussi via son API, AI Studio, NVIDIA NIM et build.nvidia.com pour le prototypage gratuit.

Pourquoi ça compte

Mistral est la seule entreprise européenne à jouer dans la cour des géants de l'IA. Avec Small 4, elle prouve qu'on peut faire un modèle frontier open-source qui rivalise avec les modèles propriétaires américains, tout en étant plus efficace en tokens et en latence.

Pour les développeurs français et européens qui veulent garder le contrôle sur leur stack IA, c'est une option sérieuse. Le fait que ce soit Apache 2.0 et pas une licence restrictive à la Meta (qui interdit l'usage aux concurrents au-delà de 700M d'utilisateurs) fait toute la différence.

Crédit image : Mistral AI

Sur le même sujet

À lire aussi

#mistral#mistral-small-4#open-source#intelligence-artificielle#llm#modele-ia#apache-2.0#multimodal#raisonnement#coding