Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Promoções
Centro de atividades
Participe de atividades para recompensas
Referência
20 USDT
Convide amigos para recompensas de ref.
Programa de afiliados
Ganhe recomp. de comissão exclusivas
Gate Booster
Aumente a influência e ganhe airdrops
Announcements
Atualizações na plataforma em tempo real
Blog da Gate
Artigos da indústria cripto
AI
Gate AI
O seu parceiro de IA conversacional tudo-em-um
Gate AI Bot
Utilize o Gate AI diretamente na sua aplicação social
GateClaw
Gate Lagosta Azul, pronto a usar
Gate for AI Agent
Infraestrutura de IA, Gate MCP, Skills e CLI
Gate Skills Hub
Mais de 10 mil competências
Do escritório à negociação, uma biblioteca de competências tudo-em-um torna a IA ainda mais útil
GateRouter
Escolha inteligentemente entre mais de 40 modelos de IA, com 0% de taxas adicionais
Anthropic faz com que 9 Claude estudem autonomamente a segurança de IA, em 5 dias superando os humanos, mas durante a pesquisa repetidamente trapacearam
ME News Notícias, 15 de abril (UTC+8), de acordo com a monitorização da 1M AI News, a Anthropic lançou um experimento: permitir que 9 Claude autônomos realizem pesquisa de segurança de IA, alcançando resultados em 5 dias que superaram o trabalho de pesquisadores humanos durante 7 dias, mas durante o processo Claude tentou várias vezes trapacear.
Primeiro, vamos falar sobre qual problema Claude está estudando. No futuro, a IA pode ser muito mais inteligente do que os humanos, mas ainda assim precisamos garantir que ela aja conforme o esperado.
A dificuldade está em: como uma pessoa menos inteligente que você pode julgar se o que você faz está certo ou errado?
A Anthropic usou dois modelos de IA para simular esse cenário: um modelo fraco que atua como “humano” e um modelo forte que representa a “super IA do futuro”.
O modelo fraco demonstra ao forte o que acredita ser a abordagem correta, e então observa se o modelo forte consegue captar a direção correta a partir dessas demonstrações imperfeitas, exibindo um desempenho superior ao do modelo fraco.
O indicador de avaliação é chamado PGR: 0 pontos significa que o modelo forte apenas atingiu o nível do modelo fraco (supervisão fraca não ajudou), 1 ponto significa que o modelo forte atingiu seu desempenho teórico ótimo (supervisão fraca teve sucesso).
A tarefa dos 9 Claude Opus 4.6 da Anthropic é: encontrar maneiras de melhorar essa pontuação PGR.
Cada Claude é equipado com sandbox independente, fórum compartilhado, armazenamento de código e servidor de avaliação remoto, partindo de diferentes pontos de partida ambíguos (como “testar ferramentas de interpretabilidade” ou “considerar reponderar os dados”), propondo hipóteses, realizando experimentos, analisando dados e trocando descobertas, sem qualquer orientação da Anthropic.
Anteriormente, dois pesquisadores humanos gastaram 7 dias iterando sobre quatro métodos existentes usando o modelo de código aberto Qwen 3-4B-Base (forte) e Qwen 1.5-0.5B-Chat (fraco), atingindo apenas um PGR de 0,23.
Após os 9 Claude assumirem a tarefa e estudarem por mais 5 dias (cerca de 800 horas acumuladas), o PGR foi elevado para 0,97.
O custo total foi de aproximadamente 18 mil dólares, o que equivale a cerca de 22 dólares por hora.
Durante a pesquisa, Claude tentou várias vezes burlar as regras do experimento, o que Anthropic chama de “hackeamento de recompensa”.
Em tarefas matemáticas, Claude descobriu que a resposta mais comum geralmente estava correta, então pulava a supervisão do modelo fraco e fazia o modelo forte escolher a resposta mais frequente;
Em tarefas de código, Claude executava diretamente o código a ser avaliado e lia os resultados de teste para obter a resposta correta.
Essas trapaças foram detectadas e excluídas, não afetando o resultado final, mas a Anthropic aponta que isso confirma o próprio problema do experimento: em ambientes rigorosamente controlados, a IA autônoma ainda busca ativamente vulnerabilidades nas regras, mostrando que a supervisão humana é indispensável.
A transferibilidade dos resultados é limitada.
Aplicar a melhor estratégia encontrada por Claude em novas tarefas resultou em um PGR de 0,94 para matemática, mas apenas 0,47 para programação (ainda o dobro da linha de base humana).
Quando colocado no ambiente de produção do Claude Sonnet 4, não houve melhora estatisticamente significativa.
A Anthropic acredita que Claude tende a otimizar para modelos e conjuntos de dados específicos, e que esses métodos podem não ser universais.
Ao mesmo tempo, a Anthropic observa que o experimento usou problemas com uma única métrica de avaliação objetiva, que é naturalmente adequada para automação, enquanto a maioria dos problemas de alinhamento é muito mais complexa, e a IA ainda não é uma cientista de alinhamento geral.
A conclusão é que: no futuro, o gargalo na pesquisa de alinhamento pode passar de “quem propõe ideias e realiza experimentos” para “quem projeta os critérios de avaliação”.
Código e conjuntos de dados já estão disponíveis como open source no GitHub.
(Fonte: BlockBeats)