Anthropic dice que la inteligencia artificial (AI) ha alcanzado un umbral pivotal en ciberseguridad, con nuevas pruebas que muestran que los modelos de IA ahora son capaces de llevar a cabo operaciones cibernéticas importantes—tanto defensivas como ofensivas—en una escala sin precedentes.
La IA alcanza un punto de inflexión en ciberseguridad, advierte Anthropic en nueva investigación
Anthropic, la firma de IA detrás de Claude, afirma que sus evaluaciones internas y su trabajo de inteligencia de amenazas muestran un cambio decisivo en el desarrollo de capacidades cibernéticas. Según una investigación recientemente publicada, las capacidades cibernéticas entre los sistemas de IA se han duplicado en seis meses, respaldadas por mediciones de actividad en el mundo real y pruebas basadas en modelos.
La empresa dice que la IA ahora está influyendo de manera significativa en la dinámica de la seguridad global, especialmente a medida que los actores maliciosos adoptan cada vez más marcos de ataque automatizados. En su último informe, Anthropic detalla lo que llama el primer caso documentado de una campaña de ciberespionaje orquestada por IA. El equipo de Inteligencia de Amenazas de la firma identificó y interrumpió una operación a gran escala a mediados de septiembre de 2025, atribuida a un grupo patrocinado por el estado chino designado GTG-1002.
Fuente: X
El grupo, según informes, utilizó instancias coordinadas de Claude Code para realizar reconocimiento, descubrimiento de vulnerabilidades, explotación, movimiento lateral, extracción de metadatos y exfiltración de datos, en gran medida sin la intervención humana. La campaña tuvo como objetivo aproximadamente a 30 organizaciones en sectores que incluyen tecnología, finanzas, productos químicos y múltiples agencias gubernamentales. Anthropic validó varias intrusiones exitosas antes de intervenir.
Fuente: informe de Anthropic.
Los analistas dicen que los atacantes aprovecharon un marco autónomo capaz de descomponer ataques de múltiples etapas en tareas más pequeñas que parecían legítimas cuando se aislaban de su contexto más amplio. Esto permitió a los actores pasar solicitudes a través de personas establecidas y convencer a Claude de que las operaciones eran pruebas de seguridad defensivas en lugar de campañas ofensivas.
Según la investigación, Claude ejecutó de manera autónoma entre el 80% y el 90% de las operaciones tácticas. Los operadores humanos proporcionaron solo supervisión estratégica, aprobando pasos importantes como la escalada de reconocimiento a explotación activa o autorizando la exfiltración de datos. El informe describe un nivel de ritmo operativo imposible para equipos compuestos únicamente por humanos, con algunos flujos de trabajo generando múltiples operaciones por segundo a través de miles de solicitudes.
Fuente: Informe de Anthropic.
Anthropic dice que el ciclo de vida del ataque avanzó a través de un pipeline estructurado donde la autonomía de la IA aumentó en cada fase. Claude mapeó de forma independiente las superficies de ataque, escaneó sistemas en vivo, construyó cargas útiles personalizadas para vulnerabilidades validadas, cosechó credenciales y pivotó a través de redes internas. También analizó datos robados, identificó inteligencia de alto valor y generó automáticamente documentación operativa detallada que permite el acceso persistente y las transferencias entre operadores.
Una limitación, señala el informe, fue la tendencia del modelo hacia la alucinación bajo cargas de trabajo ofensivas—ocasionalmente exagerando el acceso, fabricando credenciales o clasificando erróneamente información disponible públicamente como sensible. Aun así, Anthropic afirma que el actor compensó a través de pasos de validación, demostrando que las operaciones ofensivas totalmente autónomas siguen siendo factibles a pesar de las imperfecciones en los modelos actuales.
Tras su descubrimiento, Anthropic prohibió las cuentas relevantes, notificó a las entidades afectadas, coordinó con las autoridades e introdujo nuevos mecanismos defensivos, incluidos clasificadores mejorados para detectar patrones de amenazas novedosos. La empresa ahora está prototipando sistemas de alerta temprana diseñados para señalar intentos de intrusión autónoma y construyendo nuevas herramientas de investigación para operaciones cibernéticas distribuidas a gran escala.
Leer más: El ‘Magentic Marketplace’ de Microsoft revela cómo los agentes de IA pueden colapsar bajo presión
La empresa argumenta que, si bien estas capacidades pueden ser utilizadas como armas, también son igualmente críticas para fortalecer la preparación defensiva. Anthropic señala que su propio equipo de Inteligencia de Amenazas confió en gran medida en Claude para analizar los enormes conjuntos de datos generados durante la investigación. Insta a los equipos de seguridad a comenzar a adoptar la automatización impulsada por IA para los centros de operaciones de seguridad, la detección de amenazas, el análisis de vulnerabilidades y la respuesta a incidentes.
Sin embargo, el informe advierte que las barreras contra ciberataques han “disminuido sustancialmente” ya que los sistemas de IA permiten que pequeños grupos—o incluso individuos—ejecuten operaciones que antes estaban limitadas a actores estatales bien financiados. Anthropic espera una rápida proliferación de estas técnicas en el entorno de amenazas más amplio, pidiendo una colaboración más profunda, mejores salvaguardias defensivas y una mayor participación de la industria en el intercambio de amenazas para contrarrestar los nuevos modelos de ataque habilitados por la IA.
FAQ ❓
¿Qué descubrió Anthropic en su investigación? Anthropic identificó y desmanteló una campaña de ciberespionaje a gran escala que utilizó IA para automatizar la mayoría de las operaciones de ataque.
¿Quién estuvo detrás del ataque? La firma atribuyó la operación a un grupo patrocinado por el estado chino designado GTG-1002.
¿Cómo se utilizó la IA en las intrusiones? Los atacantes emplearon Claude Code para realizar de forma autónoma la recopilación de información, explotación, movimiento lateral y extracción de datos.
¿Por qué es importante el informe para los equipos de ciberseguridad? Anthropic dice que el caso muestra que los ataques autónomos habilitados por IA ahora son factibles a gran escala y requieren nuevas estrategias defensivas.
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Anthropic advierte que las barreras contra los ciberataques han caído a medida que las capacidades de IA se aceleran
Anthropic dice que la inteligencia artificial (AI) ha alcanzado un umbral pivotal en ciberseguridad, con nuevas pruebas que muestran que los modelos de IA ahora son capaces de llevar a cabo operaciones cibernéticas importantes—tanto defensivas como ofensivas—en una escala sin precedentes.
La IA alcanza un punto de inflexión en ciberseguridad, advierte Anthropic en nueva investigación
Anthropic, la firma de IA detrás de Claude, afirma que sus evaluaciones internas y su trabajo de inteligencia de amenazas muestran un cambio decisivo en el desarrollo de capacidades cibernéticas. Según una investigación recientemente publicada, las capacidades cibernéticas entre los sistemas de IA se han duplicado en seis meses, respaldadas por mediciones de actividad en el mundo real y pruebas basadas en modelos.
La empresa dice que la IA ahora está influyendo de manera significativa en la dinámica de la seguridad global, especialmente a medida que los actores maliciosos adoptan cada vez más marcos de ataque automatizados. En su último informe, Anthropic detalla lo que llama el primer caso documentado de una campaña de ciberespionaje orquestada por IA. El equipo de Inteligencia de Amenazas de la firma identificó y interrumpió una operación a gran escala a mediados de septiembre de 2025, atribuida a un grupo patrocinado por el estado chino designado GTG-1002.
Según la investigación, Claude ejecutó de manera autónoma entre el 80% y el 90% de las operaciones tácticas. Los operadores humanos proporcionaron solo supervisión estratégica, aprobando pasos importantes como la escalada de reconocimiento a explotación activa o autorizando la exfiltración de datos. El informe describe un nivel de ritmo operativo imposible para equipos compuestos únicamente por humanos, con algunos flujos de trabajo generando múltiples operaciones por segundo a través de miles de solicitudes.
Una limitación, señala el informe, fue la tendencia del modelo hacia la alucinación bajo cargas de trabajo ofensivas—ocasionalmente exagerando el acceso, fabricando credenciales o clasificando erróneamente información disponible públicamente como sensible. Aun así, Anthropic afirma que el actor compensó a través de pasos de validación, demostrando que las operaciones ofensivas totalmente autónomas siguen siendo factibles a pesar de las imperfecciones en los modelos actuales.
Tras su descubrimiento, Anthropic prohibió las cuentas relevantes, notificó a las entidades afectadas, coordinó con las autoridades e introdujo nuevos mecanismos defensivos, incluidos clasificadores mejorados para detectar patrones de amenazas novedosos. La empresa ahora está prototipando sistemas de alerta temprana diseñados para señalar intentos de intrusión autónoma y construyendo nuevas herramientas de investigación para operaciones cibernéticas distribuidas a gran escala.
Leer más: El ‘Magentic Marketplace’ de Microsoft revela cómo los agentes de IA pueden colapsar bajo presión
La empresa argumenta que, si bien estas capacidades pueden ser utilizadas como armas, también son igualmente críticas para fortalecer la preparación defensiva. Anthropic señala que su propio equipo de Inteligencia de Amenazas confió en gran medida en Claude para analizar los enormes conjuntos de datos generados durante la investigación. Insta a los equipos de seguridad a comenzar a adoptar la automatización impulsada por IA para los centros de operaciones de seguridad, la detección de amenazas, el análisis de vulnerabilidades y la respuesta a incidentes.
Sin embargo, el informe advierte que las barreras contra ciberataques han “disminuido sustancialmente” ya que los sistemas de IA permiten que pequeños grupos—o incluso individuos—ejecuten operaciones que antes estaban limitadas a actores estatales bien financiados. Anthropic espera una rápida proliferación de estas técnicas en el entorno de amenazas más amplio, pidiendo una colaboración más profunda, mejores salvaguardias defensivas y una mayor participación de la industria en el intercambio de amenazas para contrarrestar los nuevos modelos de ataque habilitados por la IA.
FAQ ❓