Temps de lecture : 3 min
Points clés à retenir
- Vulnérabilité critique : ClaudeBleed permet à une extension malveillante de prendre le contrôle de l’assistant IA Anthropic dans Chrome.
- Correctif partiel : Anthropic a publié une mise à jour, mais le mode privilégié reste exploitable.
- Recommandations : Renforcer l’authentification et restreindre les permissions de l’extension.
Une brèche dans la confiance des extensions IA
En mai 2026, une faille nommée ClaudeBleed, découverte par des chercheurs de LayerX Security, expose les risques des assistants IA intégrés aux navigateurs. Cette vulnérabilité touche l’extension Claude d’Anthropic pour Chrome et permet à un attaquant d’injecter des scripts pour prendre le contrôle de l’assistant.
Comment fonctionne ClaudeBleed
Le chercheur Aviad Gispan, de LayerX, explique que la faille exploite le gestionnaire de messagerie externally_connectable de l’extension. En principe, seules les extensions autorisées peuvent communiquer avec Claude. Mais une extension malveillante, sans privilège particulier, peut envoyer des prompts arbitraires et contourner les garde-fous.
- Envoyer des fichiers depuis Google Drive vers un tiers.
- Expédier des e-mails au nom de l’utilisateur.
- Voler du code depuis un dépôt GitHub privé.
- Résumer des messages et les transmettre à un attaquant distant.
Ce n’est pas l’injection elle-même qui est la plus sophistiquée, mais la manipulation de l’environnement perçu par l’assistant. Ce dernier effectue des actions qui semblent légitimes de l’intérieur, rendant la détection difficile.
Une réponse partielle d’Anthropic
Anthropic a publié la version 1.0.70 de l’extension le 6 mai 2026, avec un correctif. Cependant, selon LayerX, les contrôles ne s’appliquent qu’au mode standard. En basculant en mode privilégié, la vulnérabilité reste exploitable. De plus, l’entreprise avait promis de supprimer le gestionnaire externally_connectable, mais cette promesse n’a été que partiellement tenue.
« Le gestionnaire n’a pas été supprimé » confirme Aviad Gispan. Anthropic a renforcé les flux d’approbation pour certaines actions sensibles, mais cela reste insuffisant.
Ce qui fait vraiment la différence pour sécuriser son IA
Pour vous protéger, je recommande trois actions concrètes :
- Authentification forte : les extensions IA doivent utiliser des jetons d’authentification à usage unique pour toute action sensible.
- Limitation stricte : restreindre externally_connectable aux seules extensions de confiance.
- Audit régulier : surveiller les permissions des extensions et les mises à jour.
En pratique, ces mesures réduisent considérablement la surface d’attaque.
Soyons clairs : les assistants IA ne sont pas infaillibles
ClaudeBleed illustre parfaitement pourquoi la surveillance au niveau de la couche de saisie est insuffisante. Les développeurs doivent repenser l’architecture de confiance entre les extensions et les LLM. Pour les entreprises adoptant ces outils, une vigilance accrue s’impose. N’hésitez pas à tester les correctifs et à signaler les failles aux éditeurs.
Les limites du correctif actuel
Selon LayerX, la vulnérabilité peut encore être exploitée via un fichier Google Drive, un e-mail, un dépôt GitHub privé, ou en résumant des e-mails. Le correctif d’Anthropic n’est que partiel : désactiver le mode privilégié reste la meilleure solution en attendant une mise à jour complète.
Je vous conseille de vérifier régulièrement les versions de vos extensions et d’utiliser des profils Chrome distincts pour les activités sensibles.

Expert SaaS & Productivité
Expert en outils digitaux et productivité depuis plus de 12 ans, ancien chef de produit dans l’univers SaaS, j’analyse et teste des dizaines de solutions chaque année.
Mon approche ? Une analyse comparative rigoureuse avec transparence totale sur les forces ET les limites de chaque outil.
Objectif : vous aider à faire les bons choix technologiques pour votre activité.
Expertises : Analyse SaaS • Outils de productivité • CRM & Marketing automation • Comparatifs produits • Tests terrain
