La vérification KYC est-elle obsolète ? Explosion de la cybercriminalité par IA en Asie du Sud-Est : l'ONU avertit des menaces de fraude automatisée.

robot
Création du résumé en cours

Dans le passé, la cybercriminalité était principalement l'œuvre de hackers agissant seuls, mais elle a désormais évolué en un comportement commercial de grande envergure opéré par des groupes criminels transnationaux. Selon le dernier rapport de l'Office des Nations Unies contre la drogue et le crime (UNODC), l'Asie du Sud-Est devient le centre de cette vague de criminalité alimentée par la technologie. Les outils d'automatisation, l'intelligence artificielle (IA) et la technologie deepfake redéfinissent les méthodes de fraude, d'extorsion, de traite des êtres humains et de blanchiment de capitaux, permettant aux groupes criminels d'étendre leur territoire, d'éviter la surveillance légale et d'améliorer l'efficacité de leurs fraudes.

Criminalité automatisée : de l'hameçonnage aux botnets, l'échelle des attaques connaît une croissance explosive

Les techniques de fraude sont désormais entièrement automatisées. Des outils de phishing « 16shop » fabriqués en Indonésie et circulant dans le monde entier, aux attaques par courrier indésirable et par DDoS utilisant des réseaux de zombies (botnet), ainsi que la diffusion de logiciels de rançon, la technologie d'automatisation permet à des criminels à faible niveau de compétence d'exécuter des fraudes à l'échelle mondiale. Chaque jour, jusqu'à 3,4 milliards de courriels malveillants envahissent le monde, dont 1,2 % sont des attaques de phishing.

Applications malveillantes de l'IA : les nouveaux « super pouvoirs » des criminels

La technologie AI a été armée par des groupes criminels. De la génération automatique de codes malveillants, au contournement des mécanismes de vérification, jusqu'à la production de logiciels malveillants intelligents adaptatifs, l'IA augmente l'échelle et la précision des attaques réseau. Par exemple, "DeepLocker" développé par IBM montre comment utiliser l'IA pour cacher des programmes malveillants dans des logiciels légitimes, jusqu'à ce que des victimes spécifiques soient identifiées pour déclencher l'attaque.

Technologie de deepfake pour créer des CEO, des amoureux et des policiers réalistes

Les voix et images générées par l'IA sont largement utilisées dans les fraudes. En 2024, un employé de la finance à Hong Kong a transféré par erreur 25 millions de dollars après une visioconférence avec un « CFO deepfake ». Des cas similaires ont également émergé à Singapour et dans d'autres pays, certains criminels utilisant la technologie de reproduction vocale par IA pour réaliser des « fraudes de faux enlèvements ».

(« Toutes les réunions en ligne sont fausses » Un employé de Hong Kong victime d'une escroquerie par deepfake, a transféré 200 millions de dollars HK à un faux supérieur)

L'IA aide à la fraude par ingénierie sociale : diversité linguistique, contenu authentique, difficile à identifier.

L'IA ne produit pas seulement des voix et des images trompeuses, mais elle peut également générer à grande échelle des e-mails de phishing et des SMS de fraude réalistes. Les organisations criminelles peuvent désormais utiliser des modèles de langage de grande taille (LLM) pour créer des contenus frauduleux adaptés au contexte et avec un ton professionnel, et même utiliser des outils d'IA pour effectuer des traductions en temps réel, ajuster le ton et peaufiner culturellement, permettant ainsi aux fraudes de s'intégrer parfaitement entre les langues.

Automatisation des flux financiers et têtes virtuelles : les méthodes de blanchiment de capitaux entrent dans l'ère de l'IA

Dans le sud-est asiatique, l'IA est utilisée pour automatiser la création de comptes fictifs, contourner la vérification KYC, effectuer des processus de blanchiment de capitaux tels que les "transferts fractionnés" (smurfing). Les comptes bancaires virtuels et les plateformes de portefeuilles numériques sont abusés, permettant aux recettes de fraude à grande échelle d'être rapidement converties en cryptomonnaies ou blanchies via des systèmes financiers souterrains.

Séduction et chantage : attaques par des photos nues et des vidéos sexuelles falsifiées par l'IA ciblant les jeunes.

Le rapport de l'UNODC indique que ces dernières années, les usines de fraude en Asie du Sud-Est ont utilisé l'IA pour le blanchiment de capitaux. Ces groupes piègent les victimes en leur faisant croire à des vidéos pornographiques fausses créées par IA pour les inciter à faire des appels vidéo dénudés, puis menacent de les enregistrer pour extorsion. Des signes montrent que les centres de fraude au Cambodge, en Birmanie et au Laos sont impliqués dans au moins 493 affaires d'extorsion de mineurs.

Génération d'identité, de documents et de reconnaissance faciale par l'IA : le système de vérification KYC est en danger.

L'IA peut non seulement créer de fausses données de reconnaissance faciale, des voix, voire des documents tels que des permis de conduire, des passeports, des relevés bancaires, mais avec un haut degré de réalisme, presque indiscernables. Des recherches montrent que les faux documents représentent 75 % des cas de fraude d'identité. Le rapport met en garde que dans les 2 à 3 prochaines années, sans mesures efficaces, le système KYC sera massivement contourné.

Le Bureau des enquêtes sur la criminalité informatique de Thaïlande (CCIB) a démantelé plusieurs centres de fraude liés à l'IA, y compris l'utilisation de voix générées par IA et de techniques de superposition faciale pour se faire passer pour des policiers et escroquer de l'argent ; ou l'utilisation d'outils CRM pour suivre les progrès de chaque victime et répondre automatiquement. Dans une affaire, un siège frauduleux de 12 étages a même été découvert, combinant la fraude liée aux crypto-monnaies, la falsification d'identité et le traitement des flux financiers.

L'UNODC appelle les pays à accélérer l'élaboration de réglementations, à renforcer la coopération internationale et le partage des ressources, et à investir dans des outils de lutte contre l'IA tels que la détection de deepfake et les technologies de vérification des filigranes, face à cette révolution de la cybercriminalité alimentée par l'IA. Sinon, l'Asie du Sud-Est pourrait devenir un terrain d'essai et un terreau pour la fraude et les outils criminels alimentés par l'IA.

Cet article KYC est-il obsolète ? Explosion de la cybercriminalité par IA en Asie du Sud-Est : l'ONU met en garde contre la menace des fraudes automatisées, apparue pour la première fois dans Chain News ABMedia.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)