
DGX Station : le supercalculateur de bureau signé NVIDIA
NVIDIA lance le DGX Station avec puce GB300 Blackwell Ultra : 20 PFLOPS de puissance IA, 748 Go de mémoire et des modèles à 1 000 milliards de paramètres sur...
# DGX Station : le supercalculateur de bureau signé NVIDIA
Faire tourner un modèle d'IA à 1 000 milliards de paramètres sans cloud, directement sur un poste de travail. C'est la promesse du DGX Station que NVIDIA vient de dévoiler au GTC 2026.
Et ce n'est pas qu'un coup marketing.

La puce GB300 Grace Blackwell Ultra au cœur du système
Le DGX Station embarque la toute nouvelle puce GB300 Grace Blackwell Ultra Desktop Superchip. Cette puce fusionne un CPU Grace à 72 cœurs et un GPU Blackwell Ultra via l'interconnexion NVLink-C2C, qui offre 1,8 To/s de bande passante cohérente entre les deux processeurs.
Pour vous donner une idée, c'est sept fois plus rapide que le PCIe Gen 6. Le CPU et le GPU partagent un pool mémoire unifié sans les goulots d'étranglement habituels des stations de travail classiques.
748 Go de mémoire, 20 PFLOPS de puissance
Le DGX Station met à disposition 748 Go de mémoire cohérente et délivre jusqu'à 20 pétaFLOPS de puissance de calcul IA. Des chiffres qui auraient été inimaginables dans un format bureau il y a encore deux ans.
Avec ses Tensor Cores de dernière génération et la précision FP4, la machine gère les modèles les plus lourds du marché sans sourciller. Entraînement, inférence, fine-tuning de LLM : tout se fait en local.
Réseau à 800 Gb/s et mise en cluster
Le DGX Station intègre aussi le SuperNIC ConnectX-8 de NVIDIA, capable de pousser le réseau jusqu'à 800 Gb/s. Plusieurs DGX Station peuvent être connectées en cluster pour attaquer des charges de travail encore plus massives.
C'est un point clé pour les équipes de recherche et les entreprises qui veulent garder leurs données en interne tout en bénéficiant d'une puissance comparable à un mini datacenter.
Qui va le fabriquer ?
NVIDIA confie la fabrication à ses partenaires habituels : ASUS, Dell, GIGABYTE, MSI et Supermicro seront les premiers à proposer des DGX Station. HP suivra un peu plus tard dans l'année.
Pas de prix officiel annoncé pour le moment, mais vu le positionnement (entreprises, labos de recherche, développeurs IA haut de gamme), on s'attend à un tarif conséquent.
Pourquoi c'est un tournant
Avec le DGX Station, NVIDIA démocratise — relativement — l'accès à la puissance de calcul IA de pointe. Plus besoin de louer des clusters cloud pour tester et déployer des modèles massifs. Les chercheurs, les startups IA et les équipes R&D des grandes entreprises peuvent désormais tout faire depuis leur bureau.
Couplé au stack logiciel NemoClaw (annoncé le même jour), le DGX Station devient la plateforme idéale pour développer et déployer des agents IA autonomes en local.
Le futur de l'IA ne se joue plus seulement dans le cloud. Il se pose aussi sur votre bureau.
À lire aussi
Mistral Small 4 : un seul modèle pour tout faire
Mistral lance Small 4, un modèle open-source de 119B paramètres qui unifie raisonnement, code et multimodal. Apache 2.0, 256K de contexte.
NVIDIA IGX Thor : l'IA industrielle passe en production
NVIDIA lance IGX Thor en disponibilité générale : IA temps réel pour l'industrie et la médecine, 8x plus rapide que son prédécesseur, avec 10 ans de support.
Nemotron Coalition : les 6 familles de modèles IA de NVIDIA
NVIDIA dévoile la Nemotron Coalition : six familles de modèles IA frontières couvrant le langage, la vision, la robotique, la conduite autonome, la biologie et le climat.