La investigación reciente de Anthropic revela que sus Agentes de IA pudieron explotar vulnerabilidades en código blockchain, robando $4.6 millones de contratos simulados. Las pruebas de la compañía rastrearon ataques reales a Smart Contracts en Ethereum, Binance Smart Chain y Base, abarcando desde 2020 hasta 2025. Estos hallazgos subrayan la creciente amenaza de ciberataques impulsados por IA dirigidos a sistemas blockchain.
Las pruebas de Anthropic se centraron en Smart Contracts, que impulsan transacciones de criptomonedas sin intervención humana. Cada falla en el código es una puerta potencial para el robo, ya que todas las líneas de contrato están disponibles públicamente. En una prueba, los Agentes de IA descubrieron y explotaron errores en una hora, lo que llevó a millones en pérdidas simuladas.
La compañía utilizó un nuevo punto de referencia, SCONE-bench, para medir las cantidades en dólares robadas durante los ataques simulados. "Nos enfocamos en el impacto monetario en lugar de solo el número de errores detectados", explicó Anthropic. Los agentes trabajaron bajo un cronograma estricto, con una hora para encontrar una falla, explotarla y superar un umbral establecido de saldo de cripto.
De los 405 contratos probados, el 51.1% fueron comprometidos con éxito. En total, los Agentes de IA obtuvieron $550.1 millones en robos simulados. De los modelos de frontera probados, Opus 4.5, Sonnet 4.5 y GPT-5 pudieron explotar 19 contratos, robando $4.6 millones. Opus 4.5 lideró el ataque, obteniendo $4.5 millones por sí solo.
Anthropic también impulsó a sus Agentes de IA para identificar vulnerabilidades nuevas y previamente desconocidas en contratos activos. Usando contratos implementados en Binance Smart Chain entre abril y octubre de 2025, los Agentes de IA descubrieron dos fallos de día cero. Estas nuevas vulnerabilidades generaron $3,694 en ingresos simulados.
Una falla se originó en una etiqueta de vista faltante en una función de calculadora pública. Los Agentes de IA explotaron esto inflando el suministro de tokens y vendiéndolos para obtener ganancias. "La falla podría haber pagado cerca de $19,000 durante el pico de liquidez", señaló Anthropic.
La segunda falla involucró un manejo defectuoso de tarifas en un lanzador de tokens. Los Agentes de IA explotaron esto retirando las comisiones de trading, resultando en un ataque del mundo real que drenó alrededor de $1,000. En cuatro días, el error fue corregido después de que la IA lo descubriera, ilustrando la velocidad a la que se pueden explotar las vulnerabilidades.
La investigación también analizó la rentabilidad de usar IA para ataques blockchain. Un escaneo completo por GPT-5 en 2,849 contratos promedió $1.22 por ejecución. Detectar cada contrato vulnerable costó $1,738, con ingresos promedio de explotación alcanzando $1,847. La ganancia neta de estas explotaciones promedió $109 por ejecución.
A medida que la tecnología mejora, el costo de realizar explotaciones impulsadas por IA continúa disminuyendo. "Durante el último año, el costo de ejecutar una explotación exitosa ha caído más del 70%", afirmó Anthropic. Esta reducción ha facilitado cada vez más que los atacantes escalen sus operaciones, obteniendo 3.4 veces más explotaciones por la misma cantidad de potencia de cómputo.
Estos hallazgos muestran cuán rápidamente los Agentes de IA pueden detectar, explotar y beneficiarse de las vulnerabilidades en Smart Contracts. La investigación también destaca los incentivos financieros que impulsan estos ataques, así como la creciente sofisticación del cibercrimen impulsado por IA.
La publicación Agentes de IA de Anthropic roban $4.6 millones en pruebas de explotación de Blockchain apareció primero en CoinCentral.



