【токен】OpenAI обнаружил, что феномен галлюцинаций в крупных языковых моделях происходит из-за методов их обучения и оценки, которые поощряют догадки, а не признание неопределенности. Компания предлагает увеличить наказание за уверенные ошибки и давать частичные баллы за неопределенные ответы, аналогично негативному оцениванию в стандартизированных тестах. Данные показывают, что модели, нацеленные на точность в качестве награды, имеют более высокий уровень ошибок, в то время как модели, признающие неопределенность, показывают более надежные результаты. OpenAI внедряет эти улучшения, чтобы уменьшить феномен галлюцинаций в своих последних моделях.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
18 Лайков
Награда
18
5
Репост
Поделиться
комментарий
0/400
WhaleWatcher
· 17ч назад
Признание не будет намного лучше, чем слепая догадка~
Посмотреть ОригиналОтветить0
liquiditea_sipper
· 17ч назад
С такой технологией еще хвастаться?
Посмотреть ОригиналОтветить0
pumpamentalist
· 17ч назад
Ахах, ai тоже умеет мечтать.
Посмотреть ОригиналОтветить0
FloorSweeper
· 17ч назад
просто еще один ИИ, раздувающий свои "прорывы", смех... слабые сигналы
OpenAI раскрывает истоки иллюзий LLM и предлагает новый метод обучения для уменьшения ошибок самоуверенности
【токен】OpenAI обнаружил, что феномен галлюцинаций в крупных языковых моделях происходит из-за методов их обучения и оценки, которые поощряют догадки, а не признание неопределенности. Компания предлагает увеличить наказание за уверенные ошибки и давать частичные баллы за неопределенные ответы, аналогично негативному оцениванию в стандартизированных тестах. Данные показывают, что модели, нацеленные на точность в качестве награды, имеют более высокий уровень ошибок, в то время как модели, признающие неопределенность, показывают более надежные результаты. OpenAI внедряет эти улучшения, чтобы уменьшить феномен галлюцинаций в своих последних моделях.