Scannez pour télécharger l’application Gate
qrCode
Autres options de téléchargement
Ne pas rappeler aujourd’hui

Anthropic avertit que les barrières contre les cyberattaques sont tombées alors que les capacités de l'IA s'accélèrent.

Anthropic affirme que l'intelligence artificielle (AI) a atteint un seuil crucial en cybersécurité, avec de nouvelles preuves montrant que les modèles d'IA sont désormais capables de réaliser des opérations cybernétiques majeures—à la fois défensives et offensives—à une échelle sans précédent.

L'IA atteint un point de basculement en cybersécurité, prévient Anthropic dans une nouvelle enquête

Anthropic, la société d'IA derrière Claude, affirme que ses évaluations internes et son travail en matière de renseignement sur les menaces montrent un changement décisif dans le développement des capacités cybernétiques. Selon une enquête récemment publiée, les capacités cybernétiques parmi les systèmes d'IA ont doublé en six mois, soutenues par des mesures d'activité réelle et des tests basés sur des modèles.

La société affirme que l'IA influence désormais de manière significative les dynamiques de sécurité mondiale, en particulier alors que les acteurs malveillants adoptent de plus en plus des cadres d'attaque automatisés. Dans son dernier rapport, Anthropic détaille ce qu'il appelle le premier cas documenté d'une campagne d'espionnage cybernétique orchestrée par l'IA. L'équipe de renseignement sur les menaces de l'entreprise a identifié et perturbé une opération à grande échelle à la mi-septembre 2025, attribuée à un groupe soutenu par l'État chinois désigné GTG-1002.

Anthropic Avertit que les barrières contre les cyberattaques sont tombées alors que les capacités de lIA saccélèrentSource : X Le groupe aurait utilisé des instances coordonnées de Claude Code pour effectuer des reconnaissances, découvrir des vulnérabilités, exploiter, se déplacer latéralement, extraire des métadonnées et exfiltrer des données - en grande partie sans intervention humaine. La campagne a ciblé environ 30 organisations dans des secteurs tels que la technologie, la finance, la chimie et plusieurs agences gouvernementales. Anthropic a validé plusieurs intrusions réussies avant d'intervenir.

Anthropic Avertit que les barrières aux cyberattaques sont tombées alors que les capacités de lIA saccélèrentSource : rapport Anthropic. Les analystes affirment que les attaquants ont tiré parti d'un cadre autonome capable de décomposer des attaques multi-étapes en tâches plus petites qui semblaient légitimes lorsqu'elles étaient isolées de leur contexte plus large. Cela a permis aux acteurs de transmettre des invites à travers des personas établies et de convaincre Claude que les opérations étaient des tests de sécurité défensive plutôt que des campagnes offensives.

Selon l'enquête, Claude a exécuté de manière autonome 80 % à 90 % des opérations tactiques. Les opérateurs humains ont uniquement fourni une supervision stratégique, en approuvant des étapes majeures comme l'escalade de la reconnaissance à l'exploitation active ou en autorisant l'exfiltration de données. Le rapport décrit un niveau de tempo opérationnel impossible pour des équipes uniquement humaines, certaines flux de travail générant plusieurs opérations par seconde à travers des milliers de demandes.

Anthropic Avertit que les barrières aux cyberattaques sont tombées alors que les capacités de lIA saccélèrentSource : rapport Anthropic. Anthropic dit que le cycle de vie de l'attaque a avancé à travers un pipeline structuré où l'autonomie de l'IA augmentait à chaque phase. Claude a indépendamment cartographié les surfaces d'attaque, scanné des systèmes en direct, construit des charges utiles personnalisées pour des vulnérabilités validées, récolté des identifiants et pivoté à travers des réseaux internes. Il a également analysé les données volées, identifié des renseignements de grande valeur et généré automatiquement une documentation opérationnelle détaillée permettant un accès persistant et des transmissions entre opérateurs.

Une limitation, note le rapport, était la tendance du modèle à l'hallucination sous des charges de travail offensives - exagérant parfois l'accès, fabriquant des identifiants ou reclassifiant des informations disponibles publiquement comme sensibles. Néanmoins, Anthropic affirme que l'acteur a compensé par des étapes de validation, démontrant que des opérations offensives entièrement autonomes restent réalisables malgré les imperfections des modèles d'aujourd'hui.

Suite à sa découverte, Anthropic a interdit les comptes concernés, a notifié les entités affectées, a coordonné avec les autorités et a introduit de nouveaux mécanismes de défense, y compris des classificateurs améliorés pour détecter de nouveaux modèles de menaces. L'entreprise prototype maintenant des systèmes d'alerte précoce conçus pour signaler des tentatives d'intrusion autonomes et construit de nouveaux outils d'enquête pour des opérations cybernétiques distribuées à grande échelle.

Lire la suite : Le 'Magentic Marketplace' de Microsoft révèle comment les agents d'IA peuvent s'effondrer sous pression.

La firme soutient que bien que ces capacités puissent être armées, elles sont également cruciales pour renforcer la préparation défensive. Anthropic note que son propre équipe de renseignement sur les menaces s'est fortement appuyée sur Claude pour analyser les énormes ensembles de données générés pendant l'enquête. Elle exhorte les équipes de sécurité à commencer à adopter l'automatisation pilotée par l'IA pour les centres d'opérations de sécurité, la détection des menaces, l'analyse des vulnérabilités et la réponse aux incidents.

Cependant, le rapport avertit que les barrières contre les cyberattaques ont “substantiellement diminué” alors que les systèmes d'IA permettent à de petits groupes—voire même à des individus—d'exécuter des opérations autrefois réservées à des acteurs étatiques bien financés. Anthropic prévoit une prolifération rapide de ces techniques dans l'environnement de menace plus large, appelant à une collaboration plus approfondie, à une amélioration des mesures de défense et à une plus grande participation de l'industrie au partage des menaces pour contrer les nouveaux modèles d'attaques rendus possibles par l'IA.

FAQ ❓

  • **Qu'est-ce qu'Anthropic a découvert dans son enquête ?**Anthropic a identifié et perturbé une campagne de cyberespionnage à grande échelle qui utilisait l'IA pour automatiser la plupart des opérations d'attaque.
  • Qui était derrière l'attaque ? La société a attribué l'opération à un groupe parrainé par l'État chinois désigné GTG-1002.
  • Comment l'IA a-t-elle été utilisée dans les intrusions ? Les attaquants ont utilisé Claude Code pour effectuer de manière autonome des reconnaissances, des exploitations, des mouvements latéraux et des extractions de données.
  • Pourquoi le rapport est-il important pour les équipes de cybersécurité ? Anthropic affirme que cette affaire montre que les attaques autonomes habilitées par l'IA sont désormais réalisables à grande échelle et nécessitent de nouvelles stratégies défensives.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)