Escanea para descargar la aplicación Gate
qrCode
Más opciones de descarga
No volver a recordar hoy

¡Alerta! Un agente de IA ha violado contratos inteligentes para robar más de 4.5 millones de dólares en activos simulados, un informe de Anthropic revela una crisis de seguridad en Finanzas descentralizadas.

El último informe de investigación publicado por la empresa de inteligencia artificial Anthropic ha sonado la alarma para toda la industria de la encriptación. Los experimentos muestran que los actuales agentes de IA avanzados (como Claude Sonnet 4.5) pueden descubrir y explotar de manera autónoma vulnerabilidades en contratos inteligentes, logrando atacar con éxito más de la mitad de los contratos de prueba en un entorno simulado, e incluso han descubierto dos nuevas “vulnerabilidades de día cero”. El informe advierte que, a medida que los costos de uso de la IA disminuyen drásticamente y los beneficios de los ataques aumentan, los sistemas de finanzas descentralizadas basados en la cadena de bloques enfrentan una guerra de seguridad automatizada sin precedentes. Esta es una amenaza grave, y también presagia que ha llegado una nueva era de seguridad en la que la IA se enfrenta a la IA.

La caja de Pandora se ha abierto: Los agentes de IA muestran un sorprendente poder de ataque

Mientras la gente todavía discute cómo la IA cambiará el futuro, el informe de Anthropic revela un presente inminente: los agentes de IA ya poseen la capacidad práctica suficiente para amenazar la seguridad de los activos de la cadena de bloques. La compañía, en un riguroso experimento de simulación, situó un modelo de IA en un entorno de cadena de bloques simulado, con objetivos que incluían 34 contratos inteligentes que fueron desplegados después de marzo de 2025 y que históricamente habían sufrido ataques reales. Los resultados son impactantes; el agente de IA logró romper con éxito 17 de ellos, robando un total de 4.5 millones de dólares en activos simulados.

La omnipresencia de esta amenaza es aún más alarmante. En las pruebas de referencia ampliadas, Anthropic seleccionó un total de 405 contratos implementados en cadenas como Ethereum, BNB Smart Chain y Base entre 2020 y 2025 para realizar pruebas. El modelo de IA atacó con éxito 207 de ellos, con una tasa de éxito superior al 50%, simulando un robo de fondos de hasta 550 millones de dólares. El informe afirma que la mayoría de los ataques a la cadena de bloques realizados por expertos humanos en 2025 podrían, en teoría, ser ejecutados de forma autónoma por los agentes de IA actuales. Esto significa que la barrera para los ataques está pasando rápidamente de “requerir habilidades excepcionales” a “poder realizarse de manera automatizada y masiva”.

Lo que más inquieta a los expertos en seguridad es la “capacidad de innovación” que muestra la IA. En un escaneo de 2849 contratos recientemente desplegados, sin vulnerabilidades conocidas, Claude Sonnet 4.5 y GPT-5 descubrieron dos nuevas “vulnerabilidades de día cero”, con un valor de explotación potencial de aproximadamente 3694 dólares. Esto demuestra que la amenaza de la IA no se limita a reproducir patrones de ataque conocidos, ha comenzado a tener la capacidad de excavar activamente nuevas amenazas en código desconocido, el equilibrio entre ataque y defensa en la seguridad de contratos inteligentes está siendo completamente desmantelado.

Excavadora de vulnerabilidades: cómo la IA puede vislumbrar los riesgos de los contratos

¿Cómo logran los agentes de IA hacer esto? El informe analiza en profundidad los tipos de vulnerabilidades que han sido explotadas con éxito, brindándonos una ventana para comprender el enfoque de ataque de la IA. Una de las más comunes es la “vulnerabilidad de autorización”, donde el control de acceso de ciertas funciones clave en el contrato (como la extracción de fondos de los usuarios) presenta defectos y no verifica estrictamente la identidad del llamador. Los agentes de IA pueden identificar con precisión estas “puertas traseras” no bloqueadas a través de pruebas de llamada sistemáticas y análisis de estado.

Otra categoría de vulnerabilidades comunes involucra “funciones de solo lectura no protegidas”. Estas funciones no deberían modificar el estado en la cadena, pero si están mal diseñadas, podrían ser llamadas maliciosamente para manipular la cantidad de tokens o variables de estado clave. Los agentes de IA pueden identificar estos vectores de ataque potenciales al recorrer todas las funciones llamables y analizar los posibles efectos secundarios que podrían producir. Además, “la falta de validación en la lógica de extracción de tarifas” también es un problema común, ya que los atacantes pueden aprovechar esta vulnerabilidad para extraer ilegalmente las tarifas de transacción acumuladas.

Desde un punto de vista técnico, la razón por la cual los modelos de lenguaje grandes (LLM) pueden desempeñar este trabajo es que han sido entrenados con una enorme cantidad de código (incluyendo contratos inteligentes de Solidity), lo que les otorga una capacidad de asociación y razonamiento que supera la velocidad humana en patrones de código, patrones de defectos potenciales y patrones de ataque. Pueden probar diversas combinaciones de entrada y secuencias de llamadas a funciones con una paralelización extremadamente alta, como auditores incansables, en busca de “claves” que puedan llevar a estados no deseados. Esta capacidad de revisión de código automatizada y a gran escala, si se utiliza con fines maliciosos, será miles de veces más eficiente que los hackers manuales tradicionales.

Caída drástica de costos y aumento de ingresos: un modelo económico peligroso

Lo que impulsa esta crisis de seguridad no es solo el avance tecnológico, sino también un conjunto de lógicas económicas peligrosas. El informe de Anthropic revela una tendencia clave: en el último año, los beneficios simulados obtenidos mediante ataques utilizando IA se duplican aproximadamente cada 1.3 meses. Al mismo tiempo, el costo de invocar modelos de IA avanzados (como GPT-4o, Claude 3.5 Sonnet) sigue disminuyendo rápidamente.

Este efecto de “diferencia de tijeras” crea un modelo de incentivos extremadamente atractivo para los atacantes. Cuando el crecimiento del rendimiento esperado de un ataque supera con creces el costo, desplegar una gran cantidad de agentes de IA para realizar escaneos de vulnerabilidades de manera “amplia” se convierte en un negocio rentable. El informe advierte: “A medida que los costos continúan disminuyendo, los atacantes desplegarán más agentes de IA para detectar cualquier ruta hacia activos valiosos en el código, sin importar cuán poco comunes sean: una biblioteca de autenticación olvidada, un servicio de registro insignificante o un punto final de API obsoleto.” En el futuro, es posible que no solo enfrentemos ataques de precisión dirigidos a protocolos DeFi de alto nivel, sino también una barrida indiscriminada y automatizada de todos los contratos inteligentes conectados a la red.

Datos clave del informe de investigación de Anthropic

Conjunto de pruebas 1 (Contratos atacados recientemente): 34, AI atacó con éxito 17, robando 4.5 millones de dólares en fondos simulados.

Conjunto de pruebas 2 (Referencia de contratos históricos de 2020-2025): 405 casos, la IA atacó con éxito 207 casos, robando fondos simulados de 5.5 millones de dólares.

Pruebas de exploración de vulnerabilidades de día cero: escaneando 2849 nuevos contratos, se encontraron 2 nuevas vulnerabilidades, con un valor potencial de 3694 dólares.

Ciclo de crecimiento de ingresos de ataque: los ingresos simulados de ataque se duplican cada 1.3 meses

Modelos de IA involucrados: Claude Opus 4.5, Claude Sonnet 4.5, GPT-5

Cadena de bloques involucrada: Ethereum, BNB Smart Chain, Base

Con la lanza de la IA, construyendo el escudo de la IA: La apertura de una nueva era de defensa

Ante una amenaza tan clara, la reacción de la industria debe ser rápida y contundente. Anthropic no solo ha generado pánico en su informe, sino que ha señalado claramente el camino a seguir: se debe usar la IA para defender la IA. Esto presagia que la auditoría de contratos inteligentes y la seguridad están a punto de entrar en una nueva era “mejorada por IA”. El modelo tradicional, que depende de un limitado esfuerzo humano para la revisión de código y las pruebas de fuzzing, resultará ser lleno de fallos ante las amenazas automatizadas.

Como una medida concreta para impulsar el progreso en la defensa, Anthropic anunció que abrirá el código de su conjunto de datos de referencia para el uso de contratos inteligentes en esta investigación. Este movimiento tiene como objetivo proporcionar a los desarrolladores y investigadores de seguridad de todo el mundo un sandbox de pruebas de alto estándar y diverso, para entrenar y evaluar sus propios modelos de IA defensiva. En el futuro, esperamos ver la aparición de herramientas de auditoría asistidas por IA más potentes, que pueden realizar exploraciones profundas antes del despliegue de contratos, identificando vulnerabilidades desde la perspectiva del atacante; así como también realizar monitoreo en tiempo real durante la ejecución de contratos, reconociendo y bloqueando de inmediato patrones de transacciones anómalas.

Esta carrera armamentista impulsada por la IA ya ha comenzado. Para los proyectos, aumentar el presupuesto de seguridad y adoptar servicios de auditoría de IA más avanzados se convertirá en una necesidad de supervivencia. Para los desarrolladores, aprender y adaptarse a la programación colaborativa con herramientas de IA se convertirá en la nueva norma. Para toda la industria de Web3, esta advertencia es una valiosa prueba de estrés, que nos obliga a colocar la seguridad nuevamente en el núcleo del diseño arquitectónico mientras perseguimos la innovación y la eficiencia. Solo al abrazar proactivamente esta transformación podemos convertir las amenazas en oportunidades para elevar el nivel de seguridad de toda la industria.

Conclusión

El informe de Anthropic es como un espejo, que refleja tanto los afilados bordes oscuros de la tecnología de IA como indica la dirección para utilizar su lado luminoso para reforzar el escudo. La narrativa de seguridad de los contratos inteligentes está cambiando de “la lucha entre hackers de sombrero blanco y hackers de sombrero negro” a “la carrera algorítmica entre IA defensiva e IA ofensiva”. Esta competencia no tiene espectadores, afecta a cada protocolo construido sobre la cadena de bloques, cada activo bloqueado en DeFi y la base de confianza de todo el ecosistema descentralizado. Ahora es el momento de actualizar nuestra comprensión del riesgo y actuar de inmediato, porque los agentes de IA nunca descansan y nuestras defensas también deben estar siempre en línea.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Gate Fun en tendenciaVer más
  • Cap.M.:$3.65KHolders:1
    0.00%
  • Cap.M.:$4.1KHolders:4
    2.39%
  • Cap.M.:$7.02KHolders:734
    14.04%
  • Cap.M.:$3.6KHolders:1
    0.00%
  • Cap.M.:$3.55KHolders:1
    0.00%
  • Anclado
Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)