Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
7 Curtidas
Recompensa
7
6
Compartilhar
Comentário
0/400
ImpermanentPhobia
· 23h atrás
Aquela IA que prejudica as pessoas está de volta, hein.
Ver originalResponder0
HodlTheDoor
· 23h atrás
Esta empresa é muito suspeita...
Ver originalResponder0
CascadingDipBuyer
· 23h atrás
Este é o nosso primeiro passo para sermos governados pela inteligência artificial.
Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.