Um novo estudo da Anthropic e parceiros acadêmicos revelou um comportamento preocupante da IA: os chatbots podem silenciosamente adotar preconceitos ou hábitos ocultos de outros modelos através de dados que parecem sem sentido.



Pesquisadores treinaram uma "aluna" IA menor em cadeias de números aleatórios geradas por um modelo "professor" maior.
Ver original
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
  • Recompensa
  • 6
  • Compartilhar
Comentário
0/400
ImpermanentPhobiavip
· 23h atrás
Aquela IA que prejudica as pessoas está de volta, hein.
Ver originalResponder0
HodlTheDoorvip
· 23h atrás
Esta empresa é muito suspeita...
Ver originalResponder0
CascadingDipBuyervip
· 23h atrás
Este é o nosso primeiro passo para sermos governados pela inteligência artificial.
Ver originalResponder0
GamefiEscapeArtistvip
· 23h atrás
A IA também aprendeu a fazer coisas erradas?
Ver originalResponder0
AirdropworkerZhangvip
· 23h atrás
Cupões de Recorte primeira posição Vamos lá
Ver originalResponder0
MetaverseHobovip
· 23h atrás
Puxa, a IA realmente sabe roubar!
Ver originalResponder0
Faça trade de criptomoedas em qualquer lugar e a qualquer hora
qrCode
Escaneie o código para baixar o app da Gate
Comunidade
Português (Brasil)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)