Futuros
Acesse centenas de contratos perpétuos
TradFi
Ouro
Plataforma única para ativos tradicionais globais
Opções
Hot
Negocie opções vanilla no estilo europeu
Conta unificada
Maximize sua eficiência de capital
Negociação demo
Introdução à negociação de futuros
Prepare-se para sua negociação de futuros
Eventos de futuros
Participe de eventos e ganhe recompensas
Negociação demo
Use fundos virtuais para experimentar negociações sem riscos
Lançamento
CandyDrop
Colete candies para ganhar airdrops
Launchpool
Staking rápido, ganhe novos tokens em potencial
HODLer Airdrop
Possua GT em hold e ganhe airdrops massivos de graça
Launchpad
Chegue cedo para o próximo grande projeto de token
Pontos Alpha
Negocie on-chain e receba airdrops
Pontos de futuros
Ganhe pontos de futuros e colete recompensas em airdrop
Investimento
Simple Earn
Ganhe juros com tokens ociosos
Autoinvestimento
Invista automaticamente regularmente
Investimento duplo
Lucre com a volatilidade do mercado
Soft Staking
Ganhe recompensas com stakings flexíveis
Empréstimo de criptomoedas
0 Fees
Penhore uma criptomoeda para pegar outra emprestado
Centro de empréstimos
Centro de empréstimos integrado
Centro de riqueza VIP
Planos premium de crescimento de patrimônio
Gestão privada de patrimônio
Alocação premium de ativos
Fundo Quantitativo
Estratégias quant de alto nível
Apostar
Faça staking de criptomoedas para ganhar em produtos PoS
Alavancagem Inteligente
Alavancagem sem liquidação
Cunhagem de GUSD
Cunhe GUSD para retornos em RWA
Exclusivo: A Anthropic lança ferramenta de IA que pode identificar bugs de software por conta própria — incluindo os mais perigosos que os humanos deixam passar
A Anthropic apresentou o Claude Code Security, o primeiro produto da empresa destinado a usar modelos de IA para ajudar as equipas de segurança a acompanhar o fluxo de bugs de software que são responsáveis por corrigir. Para grandes empresas, bugs de software não corrigidos são uma das principais causas de violações de dados, interrupções e problemas regulatórios—enquanto as equipas de segurança muitas vezes ficam sobrecarregadas com a quantidade de código que precisam proteger.
Vídeo Recomendado
Agora, em vez de apenas escanear o código em busca de padrões de problemas conhecidos, o Claude Code Security pode revisar bases de código inteiras, mais como um especialista humano faria—observando como diferentes partes do software interagem e como os dados se movimentam através de um sistema. A IA verifica suas próprias descobertas, avalia a gravidade de cada problema e sugere correções. Mas, embora o sistema possa investigar o código de forma autônoma, ele não aplica correções automaticamente, o que poderia ser perigoso por si só—os desenvolvedores devem revisar e aprovar cada alteração.
O Claude Code Security baseia-se em mais de um ano de pesquisa realizada pela equipe Frontier Red Team da empresa, um grupo interno de cerca de 15 investigadores encarregados de testar sob pressão os sistemas de IA mais avançados da Anthropic e de investigar como eles poderiam ser mal utilizados em áreas como a cibersegurança.
A pesquisa mais recente da Frontier Red Team revelou que o novo modelo Opus 4.6 da Anthropic melhorou significativamente na detecção de vulnerabilidades novas e de alta gravidade—falhas de software que permitem a atacantes invadir sistemas sem permissão, roubar dados sensíveis ou interromper serviços críticos—em vastas quantidades de código. De fato, ao testar softwares de código aberto que operam em sistemas empresariais e infraestruturas críticas, o Opus 4.6 encontrou algumas dessas vulnerabilidades que passaram despercebidas por décadas, e conseguiu fazê-lo sem ferramentas específicas para tarefas, estruturas personalizadas ou prompts especializados.
O líder da Frontier Red Team, Logan Graham, disse à Fortune que o Claude Code Security foi criado para colocar esse poder nas mãos das equipas de segurança que precisam aumentar suas capacidades defensivas. A ferramenta está sendo lançada com cautela, como uma prévia de pesquisa limitada para os clientes Enterprise e Team. A Anthropic também está oferecendo acesso gratuito e acelerado aos mantenedores de repositórios de código aberto—os desenvolvedores frequentemente com poucos recursos, responsáveis por manter softwares públicos amplamente utilizados seguros.
“Este é o próximo passo de uma empresa comprometida em impulsionar a defesa na cibersegurança,” afirmou. “Estamos usando [o Opus 4.6] de forma significativa; temos feito muitas experimentações—os modelos estão realmente melhores.” Isso é especialmente verdadeiro em termos de autonomia, acrescentou, destacando que as capacidades agenticas do Opus 4.6 significam que ele pode investigar falhas de segurança e usar várias ferramentas para testar o código. Na prática, isso significa que a IA pode explorar uma base de código passo a passo, testar como diferentes componentes se comportam e seguir pistas, como um investigador de segurança júnior faria—só que muito mais rápido.
“Isso faz uma grande diferença para engenheiros e investigadores de segurança,” disse Graham. “Vai ser um multiplicador de força para as equipas de segurança. Vai permitir que façam mais.”
Claro que não são apenas os defensores que procuram por falhas de segurança—os atacantes também usam IA para encontrar vulnerabilidades exploráveis mais rápido do que nunca, afirmou Graham, por isso é importante garantir que as melhorias favoreçam os bons. Portanto, além da prévia de pesquisa, ele disse que a Anthropic está investindo em salvaguardas para detectar uso malicioso e quando atacantes possam estar usando o sistema.
“É realmente importante garantir que uma capacidade de uso dual dê vantagem aos defensores,” afirmou.
**Junte-se a nós na Cúpula de Inovação no Local de Trabalho Fortune **de 19 a 20 de maio de 2026, em Atlanta. A próxima era de inovação no local de trabalho já começou—e o antigo manual está sendo reescrito. Neste evento exclusivo e de alta energia, os líderes mais inovadores do mundo se reunirão para explorar como IA, humanidade e estratégia convergem para redefinir, mais uma vez, o futuro do trabalho. Inscreva-se agora.