OpenAI a publié "Pourquoi les modèles linguistiques hallucinent", expliquant les causes profondes des hallucinations de l'IA et proposant des solutions pour les réduire.
- Les modèles linguistiques hallucinent parce que les procédures d'entraînement et d'évaluation standard récompensent la supposition plutôt que la reconnaissance de l'incertitude, la plupart
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
13 J'aime
Récompense
13
6
Reposter
Partager
Commentaire
0/400
GasWastingMaximalist
· Il y a 20h
Avoir des hallucinations tous les jours, c'est possible ?
Voir l'originalRépondre0
TideReceder
· Il y a 20h
J'avais raison sur tout, hahaha
Voir l'originalRépondre0
WinterWarmthCat
· Il y a 20h
La prochaine fois, dis à l'IA de ne pas raconter n'importe quoi.
Voir l'originalRépondre0
AirdropLicker
· Il y a 21h
Ah ah ah, l'IA a commencé à se racheter elle-même.
Voir l'originalRépondre0
ZKProofster
· Il y a 21h
*techniquement* pas surprenant. c'est pourquoi nous avons besoin de protocoles de vérification formelle smh
Voir l'originalRépondre0
GasFeeWhisperer
· Il y a 21h
Je ne peux pas changer cette mauvaise habitude de dire des bêtises.
OpenAI a publié "Pourquoi les modèles linguistiques hallucinent", expliquant les causes profondes des hallucinations de l'IA et proposant des solutions pour les réduire.
- Les modèles linguistiques hallucinent parce que les procédures d'entraînement et d'évaluation standard récompensent la supposition plutôt que la reconnaissance de l'incertitude, la plupart