OpenAI a publié "Pourquoi les modèles linguistiques hallucinent", expliquant les causes profondes des hallucinations de l'IA et proposant des solutions pour les réduire.



- Les modèles linguistiques hallucinent parce que les procédures d'entraînement et d'évaluation standard récompensent la supposition plutôt que la reconnaissance de l'incertitude, la plupart
WHY1.44%
ROOT-1.48%
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • 6
  • Reposter
  • Partager
Commentaire
0/400
GasWastingMaximalistvip
· Il y a 20h
Avoir des hallucinations tous les jours, c'est possible ?
Voir l'originalRépondre0
TideRecedervip
· Il y a 20h
J'avais raison sur tout, hahaha
Voir l'originalRépondre0
WinterWarmthCatvip
· Il y a 20h
La prochaine fois, dis à l'IA de ne pas raconter n'importe quoi.
Voir l'originalRépondre0
AirdropLickervip
· Il y a 21h
Ah ah ah, l'IA a commencé à se racheter elle-même.
Voir l'originalRépondre0
ZKProofstervip
· Il y a 21h
*techniquement* pas surprenant. c'est pourquoi nous avons besoin de protocoles de vérification formelle smh
Voir l'originalRépondre0
GasFeeWhisperervip
· Il y a 21h
Je ne peux pas changer cette mauvaise habitude de dire des bêtises.
Voir l'originalRépondre0
Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)