
NVIDIA Feynman : l'architecture GPU de 2028 se dévoile
NVIDIA annonce Feynman, son architecture GPU prévue pour 2028 : gravure 1,6 nm, empilement 3D, CPU Rosa et HBM custom. Le futur après Vera Rubin.
# NVIDIA Feynman : l'architecture GPU de 2028 se dévoile
Pendant que tout le monde digérait l'annonce de Vera Rubin, Jensen Huang a glissé une bombe supplémentaire dans sa keynote GTC 2026 : l'architecture Feynman, la génération d'après, prévue pour 2028.
NVIDIA ne se contente jamais du présent. La feuille de route s'étend déjà deux générations plus loin.

Gravure 1,6 nm et empilement 3D
Feynman sera fabriqué sur le procédé A16 de TSMC, une gravure en 1,6 nm qui représente un saut fondamental en ingénierie des semi-conducteurs. Mais la vraie nouveauté technique, c'est l'adoption de l'empilement 3D des dies (3D Die Stacking).
Au lieu d'utiliser la mémoire HBM classique de génération suivante, NVIDIA opte pour une HBM custom propriétaire. Le message est clair : quand les standards du marché ne suffisent plus, NVIDIA conçoit les siens.
CPU Rosa : hommage à Rosalind Franklin
Le processeur qui accompagnera Feynman s'appelle Rosa, en hommage à Rosalind Franklin, dont les travaux de cristallographie aux rayons X ont révélé la structure de l'ADN. Un choix de nom qui n'est pas anodin pour une puce censée "révéler la structure" des workloads IA agentiques.
Rosa est conçu pour orchestrer efficacement les flux de données, d'outils et de tokens entre GPU, LPU, stockage et réseau. C'est un CPU pensé spécifiquement pour le fonctionnement des agents IA autonomes.
Un écosystème complet
Feynman ne vient pas seul. L'architecture s'accompagne du LP40 (LPU nouvelle génération), du BlueField-5, du CX10, et de l'infrastructure réseau Kyber — qui supporte à la fois le cuivre et les optiques co-packagées en scale-up, avec du Spectrum optique en scale-out.
Chaque composant de l'AI factory progresse en même temps : calcul, mémoire, stockage, réseau et sécurité.
La vision à long terme de NVIDIA
En dévoilant Feynman aussi tôt, NVIDIA envoie un signal fort à l'industrie et à ses clients : la roadmap est tracée, les investissements sont sécurisés, et il n'y a aucun ralentissement en vue.
La cadence annuelle d'architectures — Blackwell (2024), Vera Rubin (2026-2027), Feynman (2028) — montre que NVIDIA traite le marché de l'IA comme un cycle perpétuel d'innovation, pas comme une mode passagère.
Pour les entreprises qui planifient leurs infrastructures IA sur trois à cinq ans, c'est exactement le genre de visibilité dont elles ont besoin.
À lire aussi
Mistral Small 4 : un seul modèle pour tout faire
Mistral lance Small 4, un modèle open-source de 119B paramètres qui unifie raisonnement, code et multimodal. Apache 2.0, 256K de contexte.
NVIDIA IGX Thor : l'IA industrielle passe en production
NVIDIA lance IGX Thor en disponibilité générale : IA temps réel pour l'industrie et la médecine, 8x plus rapide que son prédécesseur, avec 10 ans de support.
Nemotron Coalition : les 6 familles de modèles IA de NVIDIA
NVIDIA dévoile la Nemotron Coalition : six familles de modèles IA frontières couvrant le langage, la vision, la robotique, la conduite autonome, la biologie et le climat.