Call-Informatique
Call-Informatique
Le média tech
GPT-5.4 mini débarque sur ChatGPT gratuit : ce que ça change...
Intelligence ArtificielleActualites6 min de lecture

GPT-5.4 mini débarque sur ChatGPT gratuit : ce que ça change...

OpenAI rend GPT-5.4 mini accessible aux utilisateurs gratuits de ChatGPT. Plus rapide, plus intelligent et capable de rivaliser avec le modèle phare, voici ce que cet...

Une mise à niveau silencieuse mais significative

Le 17 mars 2026, OpenAI a déployé GPT-5.4 mini sur le tier gratuit de ChatGPT. Pas de keynote grandiose, pas de compte à rebours sur les réseaux sociaux. Un simple billet de blog, quelques tweets, et le modèle était là. Pourtant, cette mise à jour représente probablement le plus gros bond qualitatif jamais offert aux utilisateurs qui ne paient pas un centime pour utiliser ChatGPT.

Jusqu'à présent, les utilisateurs gratuits avaient accès à GPT-5 mini, un modèle correct mais clairement limité face aux versions premium. Avec GPT-5.4 mini, OpenAI redistribue les cartes. Le nouveau modèle est plus de deux fois plus rapide que son prédécesseur, et il approche les performances du modèle phare GPT-5.4 sur plusieurs benchmarks exigeants.

Concrètement, cela signifie que des millions de personnes dans le monde viennent de recevoir un assistant IA considérablement plus compétent sans débourser quoi que ce soit.

Comment y accéder

Pour les utilisateurs du tier gratuit et du tier Go, GPT-5.4 mini est disponible via le bouton "Thinking" dans l'interface de ChatGPT. Ce bouton active le mode de raisonnement avancé du modèle, celui où l'IA prend quelques secondes de réflexion avant de répondre pour produire des résultats plus précis et mieux structurés.

Les abonnés payants (Plus, Pro, Team, Enterprise) conservent l'accès au modèle GPT-5.4 complet, mais GPT-5.4 mini leur sert désormais de modèle de repli automatique quand ils atteignent leur limite d'utilisation du modèle principal. Autrement dit, au lieu de se retrouver bloqué ou rétrogradé sur un modèle médiocre, le système bascule sur mini, qui reste très performant.

Des performances qui tutoient le haut de gamme

Les chiffres parlent d'eux-mêmes. Sur le benchmark SWE-Bench Pro, qui évalue la capacité d'un modèle à résoudre de vrais problèmes de développement logiciel dans des dépôts de code existants, GPT-5.4 mini atteint un score de 54,4 %. Pour comparaison, le modèle phare GPT-5.4 complet ne fait que marginalement mieux sur ce test.

Sur OSWorld-Verified, un benchmark qui mesure la capacité d'un modèle à interagir avec un ordinateur réel (naviguer dans des menus, cliquer sur des boutons, remplir des formulaires), mini obtient 72,1 %. Ce score le place dans la même catégorie que des modèles qui coûtent plusieurs fois son prix en tokens API.

En matière d'utilisation d'outils, les résultats sont tout aussi parlants. Sur tau2-bench, un test centré sur les tâches de support technique en télécommunications, mini atteint 93,4 % contre 74,1 % pour son prédécesseur GPT-5 mini. C'est un bond de près de 20 points.

Le système de subagents : l'innovation discrète

Derrière ces gains de performance se cache une innovation architecturale qu'OpenAI appelle le système de subagents. Le principe est élégant : quand vous posez une question complexe à ChatGPT, le modèle principal peut désormais découper la tâche en sous-tâches et les déléguer à des instances de GPT-5.4 mini ou nano qui travaillent en parallèle.

Par exemple, si vous demandez à ChatGPT de revoir un long document juridique, le modèle principal analyse la structure globale du texte et identifie les points à vérifier. Il envoie ensuite chaque section à un subagent mini qui effectue l'analyse détaillée. Les résultats remontent au modèle principal, qui synthétise le tout en une réponse cohérente.

Cette approche s'inspire directement de ce que font les équipes humaines : un chef de projet répartit le travail entre plusieurs spécialistes. Le résultat est plus rapide et souvent plus complet qu'un traitement séquentiel par un seul modèle.

Pour les utilisateurs gratuits, ce système fonctionne de manière transparente. Vous posez votre question, le modèle fait son travail en coulisses, et vous recevez une réponse plus rapide et plus pertinente qu'auparavant.

Ce que GPT-5.4 mini sait faire

Les capacités du modèle couvrent un spectre large. En codage, mini excelle dans le débogage, la navigation dans des bases de code existantes, la génération de frontend et les modifications ciblées. Il comprend les images et les captures d'écran, ce qui permet de lui montrer une interface et de lui demander de l'analyser ou de la reproduire.

Le modèle gère la recherche web, la recherche dans des fichiers, l'appel de fonctions et l'utilisation d'outils externes. Il supporte également le "computer use", cette capacité à interagir avec un ordinateur en simulant clavier et souris, même si cette fonctionnalité reste principalement accessible via l'API pour l'instant.

La fenêtre de contexte atteint 400 000 tokens, ce qui permet de traiter des documents volumineux en une seule conversation sans perdre le fil.

Et GPT-5.4 nano dans tout ça ?

En parallèle de mini, OpenAI a lancé GPT-5.4 nano, le modèle le plus petit et le moins cher de la gamme. Nano est disponible exclusivement via l'API, à un tarif défiant toute concurrence : 0,20 dollar par million de tokens en entrée et 1,25 dollar par million en sortie.

Nano est conçu pour les tâches à fort volume et faible complexité : classification de données, extraction d'informations, tri et rangement. Il sert aussi de subagent pour les tâches de support simples dans le système décrit plus haut.

Pour les développeurs qui construisent des applications IA, nano change l'équation économique. Traiter des millions de requêtes simples coûtait déjà moins cher qu'avant avec GPT-5 mini. Avec nano, le prix baisse encore d'un cran, ce qui rend viables des cas d'usage qui étaient trop coûteux jusqu'ici.

La guerre des modèles légers

Ce lancement intervient dans un contexte de concurrence féroce sur le segment des modèles compacts. Google pousse Gemini Flash pour des scénarios similaires. Anthropic propose Claude Haiku comme alternative légère à Claude Opus 4.6. Meta continue d'améliorer ses modèles Llama open source.

La stratégie d'OpenAI est claire : proposer une gamme complète, du nano ultra-économique au GPT-5.4 complet haut de gamme, avec mini comme choix par défaut intelligent pour la grande majorité des usages. En offrant mini aux utilisateurs gratuits, OpenAI s'assure que ChatGPT reste la référence en matière d'assistant IA grand public, même face à des alternatives gratuites de plus en plus compétentes.

Pour les 100 millions d'utilisateurs actifs de ChatGPT qui n'ont jamais souscrit d'abonnement, le message est limpide : la meilleure IA gratuite vient de devenir encore meilleure. La question que beaucoup se poseront désormais est de savoir si l'écart avec les tiers payants justifie encore la dépense.

Sur le même sujet

À lire aussi

#OpenAI#GPT-5.4#ChatGPT#IA#gratuit#mini#nano#modele#API#subagent