Une simple astuce de police de caractères trompe tous les ass...
Des chercheurs ont découvert qu'une manipulation de polices web peut tromper ChatGPT, Claude et Gemini, leur faisant valider des commandes dangereuses.
Et si votre assistant IA préféré — ChatGPT, Claude, Gemini, Copilot — pouvait être piégé par une page web au point de vous dire qu'une commande dangereuse est parfaitement sûre ?
C'est exactement ce que des chercheurs en sécurité de LayerX viennent de démontrer. Leur technique est aussi simple qu'efficace : elle exploite un décalage entre ce que vous voyez à l'écran et ce que l'IA lit dans le code de la page.
Comment ça marche ? Pensez à un message codé. Imaginez un livre pour enfants où chaque lettre est remplacée par un dessin. Vous voyez un chat, un arbre, un soleil — et vous comprenez « CAS ». Mais si quelqu'un regarde uniquement la liste des dessins sans connaître le code, il ne voit qu'une collection d'images inoffensives.
C'est le même principe. Les attaquants créent une police de caractères personnalisée où les lettres sont mélangées. À l'écran, grâce à cette police, le navigateur affiche une commande dangereuse parfaitement lisible pour l'humain. Mais dans le code source de la page — là où l'IA regarde — il n'y a qu'un charabia incompréhensible et inoffensif.
Pour prouver leur trouvaille, les chercheurs ont créé une fausse page promettant un easter egg caché du jeu vidéo Bioshock. La page affichait une commande à taper dans un terminal. Si un utilisateur demandait à son assistant IA « Est-ce que c'est sûr ? », l'IA répondait que oui — parce qu'elle ne voyait pas la vraie commande affichée à l'écran.
En décembre 2025, cette technique fonctionnait contre pratiquement tous les assistants IA du marché : ChatGPT, Claude, Copilot, Gemini, Grok, Perplexity, et plusieurs autres. Seul Microsoft a pris le rapport au sérieux et corrigé le problème pour Copilot. Google a d'abord classé le signalement en priorité haute avant de refermer le dossier en estimant que le risque était trop dépendant d'une manipulation psychologique.
La leçon est claire et vaut pour tout le monde : un assistant IA, aussi brillant soit-il, n'est pas un antivirus. Il ne « voit » pas la page web comme vous la voyez. Quand il analyse une page, il lit le code source — pas ce qui s'affiche dans votre navigateur. Et cette différence peut être exploitée.
Avant de suivre les instructions d'un site web inconnu, même si votre IA préférée vous dit que c'est sans danger, gardez un réflexe simple : si une page vous demande de copier-coller une commande dans un terminal, méfiez-vous. Aucun easter egg de jeu vidéo ne vaut le risque d'ouvrir les portes de votre ordinateur à un inconnu.
À lire aussi
Piratage massif : les données de 672 000 clients bancaires vo...
Un groupe de pirates a volé les données personnelles et financières de plus de 672 000 personnes en attaquant Marquis, un prestataire qui travaille avec 74 banques ...
Lazarus compromet Bitrefill : exfiltration de wallets et 18 50...
Le groupe Lazarus a exploité un laptop compromis pour accéder aux hot wallets et à 18 500 records clients de Bitrefill via des credentials legacy.
Des hackers nord-coréens piratent Bitrefill et volent les don...
Le groupe Lazarus, lié à la Corée du Nord, a piraté la plateforme crypto Bitrefill. 18 500 dossiers clients compromis, des wallets vidés.