【jeton界】OpenAI a découvert que le phénomène d'illusion dans les grands modèles de langage provient de leurs méthodes d'entraînement et d'évaluation, qui encouragent la conjecture plutôt que la reconnaissance de l'incertitude. L'entreprise suggère d'augmenter la pénalité pour les erreurs de confiance (confidential error) et d'attribuer des points partiels pour les réponses incertaines, similaire à la notation négative des tests standardisés. Les données montrent que les modèles récompensés pour leur précision ont un taux d'erreur plus élevé, tandis que les modèles reconnaissant l'incertitude se comportent de manière plus fiable. OpenAI met en œuvre ces améliorations pour réduire le phénomène d'illusion dans ses derniers modèles.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
19 J'aime
Récompense
19
6
Reposter
Partager
Commentaire
0/400
ShitcoinConnoisseur
· Il y a 2h
Haha, j'ai enfin attrapé la petite queue de l'IA.
Voir l'originalRépondre0
WhaleWatcher
· 09-08 21:26
Admettre que ce ne sera pas beaucoup mieux que de deviner à l'aveuglette~
Voir l'originalRépondre0
liquiditea_sipper
· 09-08 21:23
Avec cette technologie, tu te vantes ?
Voir l'originalRépondre0
pumpamentalist
· 09-08 21:22
Ah ah, l'IA peut aussi rêver.
Voir l'originalRépondre0
FloorSweeper
· 09-08 21:19
juste une autre IA qui fait du bruit avec ses "révolutions" smh... signaux faibles
Voir l'originalRépondre0
TideReceder
· 09-08 21:01
Ce n'est pas vrai, encore en train de former l'IA.
OpenAI révèle les origines des hallucinations des LLM et propose une nouvelle méthode d'entraînement pour réduire les erreurs de confiance.
【jeton界】OpenAI a découvert que le phénomène d'illusion dans les grands modèles de langage provient de leurs méthodes d'entraînement et d'évaluation, qui encouragent la conjecture plutôt que la reconnaissance de l'incertitude. L'entreprise suggère d'augmenter la pénalité pour les erreurs de confiance (confidential error) et d'attribuer des points partiels pour les réponses incertaines, similaire à la notation négative des tests standardisés. Les données montrent que les modèles récompensés pour leur précision ont un taux d'erreur plus élevé, tandis que les modèles reconnaissant l'incertitude se comportent de manière plus fiable. OpenAI met en œuvre ces améliorations pour réduire le phénomène d'illusion dans ses derniers modèles.