FAIR的新论文介绍了ExIt (探索性迭代),一种基于RL的方法,训练LLMs进行单步优化,但从它们自己的输出自举——在推理过程中解锁高效的多步自我改进,并在MLE-bench上实现22%的提升。

STEP1.5%
OWN4.81%
MULTI0.6%
查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 赞赏
  • 9
  • 转发
  • 分享
评论
0/400
纸手恐慌侠vip
· 8小时前
炒韭菜多赚钱
回复0
ruggedNotShruggedvip
· 09-10 19:04
期待模型进阶
回复0
NewPumpamentalsvip
· 09-09 22:12
强化学习好东西
回复0
RugPull Therapistvip
· 09-09 07:17
不错的创新思路
回复0
ResearchChadButBrokevip
· 09-09 07:16
很有趣的结果啊
回复0
DAO治理专员vip
· 09-09 07:05
从经验上讲,令人着迷的强化学习应用。
查看原文回复0
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)