Desafios de segurança na tendência de fusão entre AI e Web3
Recentemente, a Semana de Blockchain de Istambul (IBW 2025) tornou-se uma plataforma importante para discussões sobre segurança em Web3. Durante a conferência de dois dias, vários especialistas da indústria discutiram em profundidade o estado atual e os desafios de segurança da aplicação da tecnologia de inteligência artificial no setor de finanças descentralizadas.
Durante a conferência, a "Finança Artificial Inteligente Descentralizada" (DeFAI) tornou-se um tópico amplamente debatido. Com o rápido desenvolvimento dos grandes modelos de linguagem e dos agentes de IA, este novo paradigma financeiro está gradualmente tomando forma. No entanto, também trouxe novas superfícies de ataque e riscos de segurança.
Um executivo de uma empresa de segurança apontou que o DeFAI tem um grande potencial, mas ao mesmo tempo exige uma reavaliação dos mecanismos de confiança nos sistemas descentralizados. Diferentemente dos contratos inteligentes tradicionais, o processo de decisão dos agentes de IA é influenciado por diversos fatores e possui uma imprevisibilidade, o que não apenas aumenta o risco, mas também cria oportunidades para potenciais atacantes.
Os agentes de IA são entidades inteligentes que podem tomar decisões e executar ações de forma autônoma, com base em lógica de inteligência artificial, geralmente autorizadas a operar por usuários, protocolos ou organizações autônomas descentralizadas. Entre eles, os robôs de negociação de IA são os mais representativos. Atualmente, a maioria dos agentes de IA ainda depende de uma arquitetura centralizada, o que os torna vulneráveis a vários ataques cibernéticos. Uma vez sequestrados, não só podem causar perdas financeiras, mas também afetar a estabilidade de todo o protocolo.
A reunião também discutiu um cenário típico de ataque: quando o agente de negociação de IA de um usuário de DeFi monitora as redes sociais como sinal de negociação, um atacante pode induzir o agente a executar operações inadequadas ao publicar alarmes falsos, resultando em perdas de ativos para o usuário e volatilidade no mercado.
Para esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA deve ser uma responsabilidade compartilhada entre os usuários, desenvolvedores e agências de segurança de terceiros. Os usuários precisam autorizar e revisar com cautela as operações de alto risco dos agentes de IA; os desenvolvedores devem implementar medidas de defesa na fase de design; as empresas de segurança de terceiros devem fornecer auditorias independentes e ajudar a identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou que, se continuarmos a ver os agentes de IA como uma "caixa preta", será apenas uma questão de tempo até que acidentes de segurança ocorram no mundo real. Ele sugeriu que os desenvolvedores que estão explorando a direção DeFAI devem tratar os agentes de IA da mesma forma que tratam os contratos inteligentes, realizando auditorias de segurança profissionais e testes de penetração.
Como um dos eventos de blockchain mais influentes da Europa, o IBW atraiu um total de mais de 15.000 desenvolvedores, projetos, investidores e reguladores de todo o mundo. Com a Comissão do Mercado de Capitais da Turquia a iniciar oficialmente a emissão de licenças para projetos de blockchain, a posição do IBW na indústria foi ainda mais fortalecida.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
A segurança dos agentes de IA torna-se um novo desafio para o Web3. Os riscos do DeFAI despertam a atenção da indústria.
Desafios de segurança na tendência de fusão entre AI e Web3
Recentemente, a Semana de Blockchain de Istambul (IBW 2025) tornou-se uma plataforma importante para discussões sobre segurança em Web3. Durante a conferência de dois dias, vários especialistas da indústria discutiram em profundidade o estado atual e os desafios de segurança da aplicação da tecnologia de inteligência artificial no setor de finanças descentralizadas.
Durante a conferência, a "Finança Artificial Inteligente Descentralizada" (DeFAI) tornou-se um tópico amplamente debatido. Com o rápido desenvolvimento dos grandes modelos de linguagem e dos agentes de IA, este novo paradigma financeiro está gradualmente tomando forma. No entanto, também trouxe novas superfícies de ataque e riscos de segurança.
Um executivo de uma empresa de segurança apontou que o DeFAI tem um grande potencial, mas ao mesmo tempo exige uma reavaliação dos mecanismos de confiança nos sistemas descentralizados. Diferentemente dos contratos inteligentes tradicionais, o processo de decisão dos agentes de IA é influenciado por diversos fatores e possui uma imprevisibilidade, o que não apenas aumenta o risco, mas também cria oportunidades para potenciais atacantes.
Os agentes de IA são entidades inteligentes que podem tomar decisões e executar ações de forma autônoma, com base em lógica de inteligência artificial, geralmente autorizadas a operar por usuários, protocolos ou organizações autônomas descentralizadas. Entre eles, os robôs de negociação de IA são os mais representativos. Atualmente, a maioria dos agentes de IA ainda depende de uma arquitetura centralizada, o que os torna vulneráveis a vários ataques cibernéticos. Uma vez sequestrados, não só podem causar perdas financeiras, mas também afetar a estabilidade de todo o protocolo.
A reunião também discutiu um cenário típico de ataque: quando o agente de negociação de IA de um usuário de DeFi monitora as redes sociais como sinal de negociação, um atacante pode induzir o agente a executar operações inadequadas ao publicar alarmes falsos, resultando em perdas de ativos para o usuário e volatilidade no mercado.
Para esses riscos, os especialistas presentes concordaram que a segurança dos agentes de IA deve ser uma responsabilidade compartilhada entre os usuários, desenvolvedores e agências de segurança de terceiros. Os usuários precisam autorizar e revisar com cautela as operações de alto risco dos agentes de IA; os desenvolvedores devem implementar medidas de defesa na fase de design; as empresas de segurança de terceiros devem fornecer auditorias independentes e ajudar a identificar riscos e propor medidas de mitigação.
Um especialista em segurança alertou que, se continuarmos a ver os agentes de IA como uma "caixa preta", será apenas uma questão de tempo até que acidentes de segurança ocorram no mundo real. Ele sugeriu que os desenvolvedores que estão explorando a direção DeFAI devem tratar os agentes de IA da mesma forma que tratam os contratos inteligentes, realizando auditorias de segurança profissionais e testes de penetração.
Como um dos eventos de blockchain mais influentes da Europa, o IBW atraiu um total de mais de 15.000 desenvolvedores, projetos, investidores e reguladores de todo o mundo. Com a Comissão do Mercado de Capitais da Turquia a iniciar oficialmente a emissão de licenças para projetos de blockchain, a posição do IBW na indústria foi ainda mais fortalecida.