OpenAI розкриває джерела ілюзій LLM та пропонує нові методи тренування для зменшення помилок впевненості

【монета】OpenAI виявила, що явище ілюзій у великих мовних моделях походить від їхніх методів навчання та оцінювання, які заохочують здогадки, а не визнання невизначеності. Компанія пропонує збільшити покарання за конфіденційні помилки та надавати часткові бали за невизначені відповіді, подібно до негативного оцінювання у стандартизованих тестах. Дані демонструють, що моделі, які винагороджуються за точність, мають вищий рівень помилок, тоді як моделі, які визнають невизначеність, демонструють більшу надійність. OpenAI впроваджує ці поліпшення для зменшення явища ілюзій у своїх останніх моделях.

Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 5
  • Репост
  • Поділіться
Прокоментувати
0/400
WhaleWatchervip
· 11год тому
Визнати, що це не буде значно краще, ніж сліпі здогадки~
Переглянути оригіналвідповісти на0
liquiditea_sippervip
· 11год тому
З такими технологіями ще й хвалитися?
Переглянути оригіналвідповісти на0
pumpamentalistvip
· 11год тому
Ага, ai теж може мріяти.
Переглянути оригіналвідповісти на0
FloorSweepervip
· 11год тому
просто ще одне ІТ, яке розкручує свої "прориви" смх... слабкі сигнали
Переглянути оригіналвідповісти на0
TideRecedervip
· 12год тому
Не може бути, знову тренують ШІ!
Переглянути оригіналвідповісти на0
  • Закріпити