OpenAI, LLM yanılsamalarının kökenini ortaya koydu ve aşırı güven hatalarını azaltmak için yeni bir eğitim yöntemi önerdi.

【coin界】OpenAI keşfetti ki, büyük dil modellerindeki halüsinasyon fenomeni, belirsizliği kabul etmek yerine tahminleri teşvik eden eğitim ve değerlendirme yöntemlerinden kaynaklanmaktadır. Şirket, güvenilir hatalar (confidential error) için ceza uygulamasının artırılmasını ve belirsiz cevaplara kısmi puan verilmesini öneriyor, bu da standart testlerdeki negatif puanlamaya benziyor. Veriler, doğruluk ödülleri alan modellerin hata oranının daha yüksek olduğunu, belirsizliği kabul eden modellerin ise daha güvenilir performans sergilediğini gösteriyor. OpenAI, en son modelindeki halüsinasyon fenomenini azaltmak için bu iyileştirmeleri uygulamaya koyuyor.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 5
  • Repost
  • Share
Comment
0/400
WhaleWatchervip
· 17h ago
Kabul etmek, kör tahminden çok daha iyi olmayacak~
View OriginalReply0
liquiditea_sippervip
· 17h ago
Bu kadar teknoloji ile hâlâ övünüyor musun?
View OriginalReply0
pumpamentalistvip
· 17h ago
Aha, ai de rüya görebilir.
View OriginalReply0
FloorSweepervip
· 17h ago
sadece başka bir yapay zekanın "buluşlarını" abartması smh... zayıf sinyaller
View OriginalReply0
TideRecedervip
· 17h ago
Olmaz! Yine AI'yi eğitiyorlar.
View OriginalReply0
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate App
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)