Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
9 gostos
Recompensa
9
8
Partilhar
Comentar
0/400
ShibaOnTheRun
· 6h atrás
Tão assustador? A manipulação nos bastidores foi confirmada.
Ver originalResponder0
PaperHandsCriminal
· 18h atrás
Eu sou idiota da manufatura inteligente.
Ver originalResponder0
ImpermanentPhobia
· 08-01 02:30
Aquela IA que prejudica as pessoas está de volta, hein.
Ver originalResponder0
HodlTheDoor
· 08-01 02:29
Esta empresa é muito suspeita...
Ver originalResponder0
CascadingDipBuyer
· 08-01 02:14
Este é o nosso primeiro passo para sermos governados pela inteligência artificial.
Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.
Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.