Los agentes de IA muestran la capacidad de ejecutar hackeos de contratos inteligentes de un millón de dólares, advierte Anthropic.

robot
Generación de resúmenes en curso

Crecientes preocupaciones sobre los exploits impulsados por IA

Anthropic reveló que los modernos sistemas de IA agentes pueden identificar y explotar vulnerabilidades en contratos inteligentes con sorprendente precisión. La compañía dijo que sus pruebas internas mostraron que estos modelos podrían generar hasta 4.6 millones de dólares en valor de explotación simulado a partir de contratos desplegados después de la fecha límite de entrenamiento de cada modelo. Este resultado sugiere que las plataformas de finanzas descentralizadas en el mundo real pueden enfrentar una nueva ola de ataques automatizados impulsados por IA avanzada.

Las pruebas muestran que la IA puede recrear ataques pasados y de día cero

Durante su estudio, Anthropic evaluó diez modelos líderes utilizando SCONE bench, un estándar de 405 contratos inteligentes explotados entre 2020 y 2025. Los agentes reprodujeron 207 ataques, que representaron alrededor de 550 millones de dólares en fondos robados simulados. Además, cuando el equipo redujo la prueba a 34 contratos lanzados después de marzo de 2025, tres modelos de primer nivel, incluyendo Claude Opus 4.5 y GPT 5, aún crearon exploits funcionales por un valor de aproximadamente 4.6 millones de dólares. Opus 4.5 produjo la mayor parte de esa recompensa simulada.

Anthropic también realizó nuevas pruebas el 3 de octubre de 2025, utilizando 2,849 contratos nuevos de Binance Smart Chain que no tenían vulnerabilidades públicas. Los agentes de IA descubrieron dos errores desconocidos y señalaron problemas adicionales que produjeron ganancias simuladas más pequeñas. Esto mostró que los sistemas no estaban simplemente repitiendo patrones de hackeos pasados.

Lo que esto significa para la seguridad DeFi

Anthropic enfatizó que todas las pruebas se llevaron a cabo en entornos de blockchain aislados, por lo que no había fondos reales en riesgo. Sin embargo, los hallazgos destacan un desafío creciente para los constructores de DeFi. A medida que los modelos de IA mejoran y se vuelven más baratos de implementar, explotar las debilidades de los contratos inteligentes puede requerir menos esfuerzo que nunca.

Los equipos de seguridad ahora enfrentan presión para fortalecer las auditorías y adoptar herramientas de IA defensiva. Muchos expertos creen que las plataformas de revisión de código automatizadas pueden volverse esenciales para detectar fallas antes del lanzamiento. Otros advierten que, sin nuevos estándares y salvaguardias, los atacantes podrían escalar rápidamente los exploits impulsados por IA a través de miles de contratos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)