La recherche récente d'Anthropic révèle que ses Agents d'IA ont pu exploiter des vulnérabilités dans le code blockchain, volant 4,6 millions de dollars de contrats simulés. Les tests de l'entreprise ont suivi de véritables attaques de smart contracts sur Ethereum, Binance Smart Chain et Base, s'étendant de 2020 à 2025. Ces résultats soulignent la menace croissante des cyberattaques pilotées par l'IA ciblant les systèmes blockchain.
Les tests d'Anthropic se sont concentrés sur les smart contracts, qui alimentent les transactions de cryptomonnaies sans intervention humaine. Chaque faille dans le code est une porte d'entrée potentielle pour le vol, car toutes les lignes de contrat sont publiquement disponibles. Dans un test, les Agents d'IA ont découvert et exploité des bugs en une heure, entraînant des millions de pertes simulées.
L'entreprise a utilisé un nouveau benchmark, SCONE-bench, pour mesurer les montants en dollars volés pendant les attaques simulées. "Nous nous concentrons sur l'impact monétaire plutôt que simplement sur le nombre de bugs détectés," a expliqué Anthropic. Les agents ont travaillé selon un calendrier strict, avec une heure pour trouver une faille, l'exploiter et dépasser un seuil de solde crypto défini.
Sur 405 contrats testés, 51,1% ont été compromis avec succès. Au total, les Agents d'IA ont dérobé 550,1 millions de dollars lors de vols simulés. Parmi les modèles de pointe testés, Opus 4.5, Sonnet 4.5 et GPT-5 ont pu exploiter 19 contrats, volant 4,6 millions de dollars. Opus 4.5 a mené la charge, dérobant 4,5 millions de dollars à lui seul.
Anthropic a également poussé ses Agents d'IA à identifier de nouvelles vulnérabilités inconnues dans des contrats actifs. En utilisant des contrats déployés sur Binance Smart Chain entre avril et octobre 2025, les Agents d'IA ont découvert deux failles zero-day. Ces nouvelles vulnérabilités ont rapporté 3 694 dollars de revenus simulés.
Une faille provenait d'une balise de vue manquante dans une fonction de calculateur public. Les Agents d'IA ont exploité cela en gonflant l'offre de tokens et en les vendant avec profit. "La faille aurait pu rapporter près de 19 000 dollars pendant le pic de liquidité," a noté Anthropic.
La seconde faille impliquait une gestion défectueuse des frais dans un lanceur de tokens. Les Agents d'IA ont exploité cela en retirant les frais de trading, résultant en une attaque réelle qui a drainé environ 1 000 dollars. En quatre jours, le bug a été corrigé après sa découverte par l'IA, illustrant la vitesse à laquelle les vulnérabilités peuvent être exploitées.
La recherche a également analysé la rentabilité de l'utilisation de l'IA pour les attaques blockchain. Une analyse complète par GPT-5 sur 2 849 contrats coûtait en moyenne 1,22 dollar par exécution. La détection de chaque contrat vulnérable coûtait 1 738 dollars, avec un revenu moyen d'exploitation atteignant 1 847 dollars. Le bénéfice net de ces exploits s'élevait en moyenne à 109 dollars par exécution.
Avec l'amélioration de la technologie, le coût d'exécution des exploits pilotés par l'IA continue de diminuer. "Au cours de l'année dernière, le coût d'exécution d'un exploit réussi a chuté de plus de 70%," a déclaré Anthropic. Cette réduction a rendu de plus en plus facile pour les attaquants d'étendre leurs opérations, réalisant 3,4 fois plus d'exploits pour la même quantité de puissance de calcul.
Ces résultats montrent à quelle vitesse les Agents d'IA peuvent détecter, exploiter et tirer profit des vulnérabilités dans les smart contracts. La recherche met également en évidence les incitations financières qui motivent ces attaques, ainsi que la sophistication croissante de la cybercriminalité pilotée par l'IA.
L'article Les Agents d'IA d'Anthropic volent 4,6 millions de dollars lors de tests d'exploitation blockchain est apparu en premier sur CoinCentral.


