
ASUS dévoile ses serveurs IA liquid-cooled Vera Rubin
ASUS présente au GTC 2026 ses racks serveurs IA refroidis par liquide sur plateforme NVIDIA Vera Rubin NVL72. Un TDP de 227 kW et du 100% watercooling.
# ASUS dévoile ses serveurs IA liquid-cooled Vera Rubin
Jensen Huang venait à peine de terminer sa keynote qu'ASUS prenait le relais au GTC 2026 avec une annonce qui parle aux constructeurs de data centers. Le fabricant taïwanais a présenté au stand 421 toute une gamme d'infrastructures IA refroidies par liquide, construites autour de la plateforme NVIDIA Vera Rubin.
Le thème choisi par ASUS ? "Trusted AI, Total Flexibility". Derrière ce slogan, on trouve une offre modulaire qui va du rack-scale aux postes de travail embarqués, en passant par des solutions Edge et Enterprise.
Le rack monstre : XA VR721-E3
La pièce maîtresse s'appelle XA VR721-E3. C'est un système rack complet basé sur le NVIDIA Vera Rubin NVL72, intégralement refroidi par liquide. Le TDP atteint 227 kW en mode MaxP (187 kW en MaxQ), et ASUS revendique des performances par watt multipliées par dix par rapport à la génération précédente.
Ce rack a été pensé pour les modèles à plus d'un trillion de paramètres. Pour l'alimenter et le refroidir sans compromettre les performances, ASUS s'est associé à Vertiv et Schneider Electric, deux spécialistes des infrastructures critiques.
Des serveurs HGX Rubin sous deux formes
Côté serveurs, ASUS lance deux modèles basés sur le NVIDIA HGX Rubin NVL8, chacun embarquant huit GPU Rubin connectés via NVLink de sixième génération avec 800 Gbit/s de bande passante par GPU.
Le XA NR1I-E12L adopte un refroidissement hybride : liquide direct-to-chip pour la platine HGX Rubin, air pour les deux processeurs Intel Xeon 6. C'est la solution de transition pour les data centers qui ne sont pas encore câblés en full liquid-cooling.
Le XA NR1I-E12LR, lui, passe au 100% liquide. Pour les installations neuves ou celles qui ont déjà franchi le pas du watercooling à l'échelle du rack, c'est l'option la plus efficace.
Un catalogue qui couvre tous les cas de figure
ASUS ne mise pas tout sur le Vera Rubin. Le catalogue comprend aussi le XA NB3I-E12 basé sur les systèmes HGX B300, l'ESC8000A-E13X avec NVIDIA MGX et les cartes réseau ConnectX-8 SuperNIC pour la connectivité GPU-to-GPU, et l'ESC8000A-E13P propulsé par les cartes graphiques RTX PRO 4500 ou RTX PRO 6000 Blackwell Server Edition.
Ce dernier vise le traitement de données, la vidéo et le calcul visuel dans un format économe en énergie. ASUS veut clairement couvrir chaque segment du marché serveur IA, du plus modeste au plus extrême.
L'Edge IA avec Grace Blackwell
La partie Edge mérite qu'on s'y attarde. ASUS a présenté l'ExpertCenter Pro ET900N G3, un supercalculateur de bureau basé sur la plateforme NVIDIA Grace Blackwell Ultra. Avec ses interconnexions NVLink-C2C et 748 Go de mémoire unifiée cohérente, c'est une machine pensée pour l'entraînement de modèles lourds directement sur le poste du développeur.
À côté, l'ASUS Ascent GX10 offre des performances au pétaFLOP dans un format ultra-compact grâce au Grace Blackwell Superchip. Et pour le déploiement terrain, le PE3000N embarque un NVIDIA Jetson Thor avec 2 070 TFLOPS de puissance d'inférence, le tout dans un châssis durci.
L'idée derrière cette gamme Edge, c'est de créer un pipeline complet : on développe sur l'ET900N, on itère sur l'Ascent GX10, on déploie sur le PE3000N. ASUS y intègre le support des modèles ouverts NVIDIA Cosmos et des bibliothèques de vision IA Metropolis.
L'IA agentique entre dans la danse
ASUS a aussi annoncé le support de NVIDIA NemoClaw sur ses machines Edge. NemoClaw est un stack open source qui permet de déployer des agents IA autonomes en local, dans des environnements sandboxés avec un contrôle d'accès strict.
C'est une brique logicielle qui intéresse les entreprises qui veulent expérimenter l'IA agentique sans envoyer leurs données dans le cloud. L'Ascent GX10 et l'ET900N G3 deviennent ainsi des plateformes de développement "agent-ready".
ASUS AI Hub : la plateforme clé-en-main
Pour les entreprises qui veulent déployer de l'IA sans se perdre dans la complexité technique, ASUS propose l'AI Hub. C'est une plateforme on-premises qui tourne sur les serveurs ESC8000 et s'appuie sur des LLM open source comme NVIDIA Nemotron et Gemma.
ASUS l'utilise déjà en interne pour plus de 10 000 employés, avec des pics de 600 requêtes par heure, un taux OCR supérieur à 80%, et des gains d'efficacité de plus de 30%. La plateforme inclut un système de business intelligence conversationnel où les dirigeants posent des questions en langage naturel pour obtenir des métriques opérationnelles.
Thermal Radar 2.0 et la carte durabilité
Sur le volet durabilité, les serveurs ASUS embarquent le système Thermal Radar 2.0 qui utilise jusqu'à 56 capteurs pour optimiser dynamiquement la ventilation. Le résultat : une réduction de la consommation énergétique jusqu'à 36%, soit environ 29 000 dollars d'économie annuelle pour un cluster de 1 000 noeuds.
L'ASUS Control Center Data Center Edition complète le package avec un suivi automatisé des émissions carbone, un argument qui pèse de plus en plus dans les appels d'offres data center.
Un intégrateur complet
ASUS se positionne ici non pas comme un simple assembleur de serveurs, mais comme un fournisseur capable de livrer le hardware, le refroidissement, le stockage (via des partenariats avec IBM, DDN, WEKA et VAST Data), le logiciel et les services de déploiement.
Les serveurs sont disponibles dans le monde entier, même si certains produits restent soumis aux réglementations locales d'exportation. Pour les entreprises qui planifient leur prochaine infrastructure IA, cette gamme mérite un coup d'oeil attentif.
À lire aussi
MSI XpertStation WS300 : 20 petaFLOPS sur votre bureau
MSI lance le XpertStation WS300 sur architecture NVIDIA DGX Station : 20 petaFLOPS, GB300 Grace Blackwell Ultra, 748 Go de mémoire unifiée.
NVIDIA RTX PRO 6000 Blackwell : 96 Go pour les pros
La RTX PRO 6000 Blackwell embarque 96 Go de GDDR7 et 4 000 TOPS de puissance IA. Le GPU workstation le plus puissant jamais créé par NVIDIA.
NVIDIA investit 4 milliards de dollars dans la photonique
NVIDIA injecte 2 milliards dans Coherent et 2 milliards dans Lumentum pour développer les technologies optiques qui connecteront les data centers IA de demain.