
Mistral Small 4 : un seul modèle pour tout faire
Mistral lance Small 4, un modèle open-source de 119B paramètres qui unifie raisonnement, code et multimodal. Apache 2.0, 256K de contexte.
Mistral frappe un grand coup. La startup française vient de sortir Small 4, et cette fois ce n'est pas un simple rafraîchissement. C'est la première fois que Mistral unifie ses trois spécialités — l'instruct rapide, le raisonnement profond et le coding agentique — dans un seul modèle. Le tout sous licence Apache 2.0.

119 milliards de paramètres, 6 milliards actifs
Small 4 utilise une architecture Mixture of Experts avec 128 experts dont seulement 4 sont actifs par token. Résultat : 119 milliards de paramètres au total, mais seulement 6 milliards mobilisés à chaque instant (8 milliards en comptant les couches d'embedding). C'est ce qui lui permet d'être rapide malgré sa taille.
En pratique, Mistral annonce 40% de réduction du temps de complétion par rapport à Small 3, et trois fois plus de requêtes par seconde en mode throughput. Pour une entreprise qui fait tourner des milliers de requêtes, ça change la facture.
Un modèle, trois personnalités
Jusqu'ici chez Mistral, il fallait jongler entre plusieurs modèles selon le besoin. Magistral pour le raisonnement, Devstral pour le code, Small 3 pour l'instruct rapide. Small 4 absorbe les trois.
Le paramètre reasoning_effort permet de doser. Sur "none", le modèle répond vite et court, comme un Small 3.2 classique. Sur "high", il prend le temps de décomposer le problème étape par étape, avec un raisonnement visible. Pas besoin de changer de modèle, juste de tourner un bouton.
256K tokens de contexte
La fenêtre de contexte passe à 256 000 tokens. De quoi ingérer un roman entier, un dépôt de code complet, ou des centaines de pages de documentation en une seule requête. C'est quatre fois plus que ce que proposait Small 3.
Le modèle accepte aussi les images en entrée. Analyse de documents, captures d'écran, diagrammes techniques — tout passe sans avoir besoin d'un modèle séparé.

Les benchmarks parlent
Sur LCR (un benchmark de concision et qualité), Small 4 obtient 0.72 avec seulement 1 600 caractères en sortie. Les concurrents ont besoin de 3,5 à 4 fois plus de texte pour un score similaire. Moins de blabla, plus de substance.
Sur LiveCodeBench, il dépasse GPT-OSS 120B avec 20% de tokens en moins. Sur AIME 2025 (maths avancées), il fait jeu égal. Pour un modèle "small", c'est impressionnant.
Open-source, Apache 2.0
C'est probablement le point le plus important. Small 4 est entièrement open-source sous licence Apache 2.0. Vous pouvez le télécharger, le modifier, le fine-tuner, le déployer en production sans demander la permission à personne.
Il est disponible sur Hugging Face, compatible vLLM, llama.cpp, SGLang et Transformers. Côté hardware, il faut quand même du muscle : 4x H100 minimum, ou 2x H200, ou 1x DGX B200. Pas vraiment un modèle de laptop, mais largement à la portée d'une PME avec un serveur dédié.
Pour ceux qui ne veulent pas gérer l'infra, Mistral le propose aussi via son API, AI Studio, NVIDIA NIM et build.nvidia.com pour le prototypage gratuit.
Pourquoi ça compte
Mistral est la seule entreprise européenne à jouer dans la cour des géants de l'IA. Avec Small 4, elle prouve qu'on peut faire un modèle frontier open-source qui rivalise avec les modèles propriétaires américains, tout en étant plus efficace en tokens et en latence.
Pour les développeurs français et européens qui veulent garder le contrôle sur leur stack IA, c'est une option sérieuse. Le fait que ce soit Apache 2.0 et pas une licence restrictive à la Meta (qui interdit l'usage aux concurrents au-delà de 700M d'utilisateurs) fait toute la différence.
Crédit image : Mistral AI
À lire aussi
La SEC veut en finir avec les résultats trimestriels
La SEC envisage d'autoriser les rapports de résultats semestriels pour les entreprises cotées. Une réforme soutenue par Trump pour relancer les IPO tech.
NVIDIA IGX Thor : l'IA industrielle passe en production
NVIDIA IGX Thor amène l'IA temps réel en usine et à l'hôpital. 8x plus rapide, certifié sécurité fonctionnelle, avec 10 ans de support garanti.
Nemotron Coalition : les 6 familles de modèles IA de NVIDIA
NVIDIA dévoile la Nemotron Coalition : six familles de modèles IA frontières couvrant le langage, la vision, la robotique, la conduite autonome, la biologie et le climat.