Média tech français
Call-Informatique
Le média tech français
Phison aiDAPTIV : la mémoire flash au service de l'IA locale
Intelligence ArtificielleActualites4 min de lecture

Phison aiDAPTIV : la mémoire flash au service de l'IA locale

Phison dévoile aiDAPTIV au GTC 2026, une techno qui étend la mémoire IA via des SSD flash Pascari. GPU, RAM et stockage fusionnent.

La mémoire vive ne suffit plus pour l'IA locale

Vous avez peut-être déjà essayé de faire tourner un gros modèle d'IA sur votre machine. Si c'est le cas, vous connaissez le mur : pas assez de VRAM, pas assez de RAM, et votre beau LLM refuse de charger. Phison pense avoir trouvé une solution, et elle passe par un endroit inattendu : vos SSD.

Au GTC 2026, le fabricant taïwanais de contrôleurs NAND flash a présenté aiDAPTIV, une technologie qui transforme le stockage flash en couche de mémoire supplémentaire pour l'inférence IA. En gros, quand votre GPU et votre RAM sont à bout de souffle, les SSD Pascari de Phison prennent le relais.

Phison aiDAPTIV+ et solutions Pascari exposés au CES 2026
Crédit : [Phison Blog](https://phisonblog.com/phison-showcases-aidaptiv-inference-new-client-and-pascari-enterprise-ssds-at-ces-2026/)

Comment ça fonctionne concrètement

L'idée n'est pas de remplacer la VRAM ou la RAM système. C'est plutôt une architecture à trois étages : mémoire GPU en premier, RAM système en deuxième, stockage flash en troisième. aiDAPTIV gère les échanges entre ces couches de manière transparente.

Michael Wu, président de Phison US, l'a formulé assez directement lors de la présentation : "La gestion mémoire conventionnelle n'a jamais été conçue pour l'IA. L'infrastructure IA d'aujourd'hui ne peut plus compter sur une gestion mémoire générique."

Difficile de le contredire. Les modèles grossissent, les contextes s'allongent. Le matériel standard ne suit pas toujours. Et ajouter de la VRAM coûte une fortune, là où du stockage flash coûte beaucoup moins cher.

Ce que Phison a montré au GTC

La démo au stand 119 ne se limitait pas à des slides. Phison a présenté des notebooks, des workstations et des systèmes complets fournis par ses partenaires, tous équipés de hardware NVIDIA récent.

On parle de processeurs GB10 Grace Blackwell, de GPU GeForce RTX 50 Series, de cartes RTX PRO 6000 Blackwell Max-Q Workstation Edition. Du lourd. Mais c'est justement le point : même avec cette puissance, la mémoire reste le goulot d'étranglement pour certains workloads IA.

Les démos couvraient de l'inférence longue-contexte, des workflows d'IA agentique avec réutilisation du cache KV, du fine-tuning de modèles volumineux. À chaque fois, le constat est le même : la mémoire disponible fait la différence entre un résultat exploitable et un crash.

Pourquoi ça compte pour l'IA locale

Le cloud domine encore largement l'inférence IA. Mais de plus en plus d'entreprises veulent garder leurs données en local. Confidentialité, coûts récurrents, latence. Le problème, c'est que faire tourner de l'IA localement demande énormément de mémoire.

aiDAPTIV s'attaque à cette contrainte sans exiger de nouveau matériel. Si vous avez déjà un poste de travail avec un bon GPU et des SSD Pascari, vous pouvez faire tourner des modèles qui auraient autrement nécessité une configuration bien plus coûteuse.

Phison parle aussi d'efficacité à long terme. Plutôt que de racheter des GPU chaque année pour suivre la course à la VRAM, l'extension via le stockage flash permet d'allonger la durée de vie utile de votre config actuelle.

Les limites à garder en tête

La mémoire flash est rapide, mais pas autant que la RAM ou la VRAM. Il y aura un compromis sur les performances. Phison ne donne pas encore de chiffres précis sur la latence introduite par cette troisième couche, et personnellement, c'est le point qui me fait le plus tiquer.

L'autre question, c'est l'écosystème. Pour que aiDAPTIV fonctionne, il faut des SSD Pascari de Phison. Ce n'est pas un standard ouvert, du moins pas pour l'instant. Les développeurs et les intégrateurs devront juger si cette dépendance à un seul fournisseur vaut le coup.

L'IA locale bute systématiquement sur la mémoire. Si Phison arrive à réduire ce frein de manière fiable, ça intéressera beaucoup de professionnels qui n'ont pas les moyens de s'offrir des serveurs GPU dédiés. Mais on n'en est pas encore là.

Phison joue une carte maline avec aiDAPTIV. L'entreprise exploite sa spécialité historique (le contrôle NAND flash) pour s'attaquer à un vrai problème d'infrastructure IA. Utiliser le SSD comme extension de mémoire de travail, l'idée n'est pas neuve. La mise en oeuvre spécifiquement pensée pour l'inférence, en revanche, ça l'est. Reste à voir si les benchmarks suivront. Le GTC, c'est une vitrine, pas un labo de test indépendant.

Sur le même sujet

À lire aussi

#Phison#IA locale#NVIDIA#mémoire flash#SSD#aiDAPTIV#GTC 2026#edge AI#VRAM#inférence