OpenAI揭祕LLM幻覺根源 提出新訓練方法減少自信錯誤

【幣界】OpenAI 發現,大型語言模型中的幻覺現象源於其訓練和評估方法,這些方法鼓勵猜測而非承認不確定性。該公司建議加大對自信錯誤(confidential error)的懲罰力度,並對不確定的回答給予部分積分,類似於標準化測試中的負面評分。數據顯示,以準確性爲獎勵的模型錯誤率更高,而承認不確定性的模型則表現更可靠。OpenAI 正在實施這些改進,以減少其最新模型中的幻覺現象。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 讚賞
  • 5
  • 轉發
  • 分享
留言
0/400
巨鲸观察员vip
· 16小時前
承认不会比瞎猜强多啦~
回復0
liquiditea_sippervip
· 16小時前
就这点技术 还吹?
回復0
pumpamentalistvip
· 16小時前
啊哈 ai也会做梦呐
回復0
FloorSweepervip
· 17小時前
又是一个在炒作他们的“突破”的人工智能,真是无奈……信号太弱了
查看原文回復0
潮水退了就知道vip
· 17小時前
不是吧 又在训练ai了
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate App
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)