切换到宽版
  • 14阅读
  • 2回复

[智能应用]Karpathy戳破强化学习神话,首提AI复盘式进化!暴力试错将死[5P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
111645
金币
2823
道行
19523
原创
29308
奖券
17898
斑龄
198
道券
10550
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 22399(小时)
注册时间: 2007-11-29
最后登录: 2025-07-15
只看楼主 倒序阅读 使用道具 楼主  发表于: 前天 19:50


新智元报道
编辑:桃子
【新智元导读】强化学习,或许并不能通往AGI终点。Karpathy最新发文提出另一种Scaling范式,像人类一样反思回顾,通过复盘学习取得突破,更多的S形进步曲线等待发现。
Grok 4能站在大模型之巅,全是Scaling强化学习立了大功。

如今,AI大神Karpathy站出来急泼一盆冷水:
RL只是把最终成败的单一数值回传,效率随任务时长急剧下降。
而且,RL与人类「反思-提炼-再应用」迭代机制存在巨大差异。

RL短期有效
真正突破在于「复盘学习」
强化学习的本质是,某次行动表现良好(糟糕),就略微提升(降低)未来类似行动的概率。
这种方法通过验证函数,比显示监督取得了更大的杠杆效应,无疑是其强大之处。
然而, 在Karpathy看来,从长远角度来讲,强化学习或许并不是最优策略。
长时程任务,RL局限显现
首先,一旦任务交互时间增加到几分钟乃至几小时,RL就遇到了挑战。
想象一下,一个数小时交互的任务,最终却只得到一个单一的标量奖励,来调整整个过程的梯度。
这样的反馈,能否足以支撑高效学习?

RL机制与人类差异显著
其次,对于大多数智能任务而言,这感觉并不像人类的进步机制。
简言之,RL的机制与人类智能提升方式,存在着显著的差异。
人类会通过一个复盘/反思阶段,从每一次推演中能提取到多得多的监督信息,比如「哪里做得好?哪里不太行?下次该试试什么?」等等。
从这个阶段得到的教训感觉是明确的,就像一个新字符串,可以直接添加到未来的系统提示词里,也可以选择性地在之后被「蒸馏」成权重/直觉,有点像睡眠的作用。
在英语里,我们说通过这个过程,某件事会成为人的「第二天性」,而我们目前正缺少这样的学习范式。
这里,Karpathy提到了ChatGPT「记忆」功能,或许就是这种机制概念的一个雏形,尽管它目前只用于个性化,而非解决问题。
值得注意的是,在Atari游戏这类RL场景中也不存在类似的机制,因为那些领域里没有大语言模型,也没有上下文学习。
算法新设想:回顾-反思范式
为此,Karpathy提出了一个算法框架——
给定一个任务,先跑几次推演,然后把所有推演过程(包括每次的奖励)都塞进一个上下文,再用一个元提示词来复盘/反思哪些地方做得好或不好,从而提炼出一个字符串形式的「教训」,并将其添加到系统提示词中(或者更通用地,更新当前的教训数据库)。
不过,他表示,这里面有很多细节要填充,有很多地方可以调整,具体怎么做并不简单。
举个栗子,大模型计数问题。

Claude的系统提示词里就加入了一个「快速修复」patch——添加了一段话,大意是:「如果用户让你数字母,你得先用逗号把字母隔开,每隔一个就给一个显式计数器加一,照这样做完任务」。
这段话就是「教训」,它明确地指导模型如何完成计数任务。
但问题在于,这种教训要如何从智能体的实践中自发产生,而不是由工程师硬编码进去?它该如何被泛化?
以及,这些教训如何随着时间推移被蒸馏,从而避免让上下文窗口无限膨胀?
最后,他总结道,RL会带来更多收益,如果应用得当,它的杠杆效应巨大。
并且,深受「惨痛教训」(bitter lesson)理论的启发,RL优于监督微调(SFT)。
但它并不是完整的答案,尤其是随着推演的流程越来越长。
在这之后,还有更多的S型增长曲线等待发现,这些曲线可能专属于大语言模型,在游戏/机器人这类环境中没有先例,而这,正是我觉得激动人心的地方。
OpenAI研究科学家Noam Brown对此深表赞同,「确实,未来仍有许多研究工作有待完成」。
AI初创公司联创Yuchen Jin提出了一个有趣的观点,全新训练范式——课程学习,是一个自监督记忆+检索+反思的反馈循环,无需任何外部奖励信号。

一位网友很有见地称,强化学习实际上是暴力试错的一种方法,并非是明智的策略。

放弃无效RL研究
最近,关于强化学习的讨论,成为了AI圈的一大热点。
除了Karpathy本人下场,上周前OpenAI研究员Kevin Lu发长文称,Transformer只是配角,放弃无效RL研究!

他直言,真正推动AI规模跃迁的技术是互联网,而非Transformer,这也是你应该停止RL研究,转投产品开发的原因。
众所周知数据才是AI最重要的要素,但研究者们却往往选择回避这个领域...
究竟什么才是规模化地做数据?
互联网提供了天然的数据宝库:海量且多样化的数据源、自然形成的学习路径、反映人类真实需求的能力维度,以及可经济高效规模化部署的技术特性——
它成为下一个token预测的完美搭档,构成了AI爆发的原始汤池。
没有Transformer,我们本可以用CNN或状态空间模型达到GPT-4.5的水平。
但自GPT-4之后,基础模型再未出现突破性进展。
专用推理模型在垂直领域表现优异,却远不及2023年3月GPT-4带来的震撼级跨越(距今已两年多...)。
RL确实成就斐然,但Kevin Lu对此深切担忧,研究者会重蹈2015-2020年间RL研究的覆辙——沉迷于无关紧要的学术游戏。
如果说互联网是监督预训练的时代搭档,那么什么才能成为强化学习的「共生体」,催生出GPT-1到GPT-4量级的飞跃?
Kevin Lu认为答案在于:研究-产品协同设计。

山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
168823
金币
281683
道行
2004
原创
2404
奖券
2855
斑龄
36
道券
1035
获奖
0
座驾
设备
摄影级
在线时间: 38391(小时)
注册时间: 2008-10-01
最后登录: 2025-07-16
只看该作者 沙发  发表于: 前天 20:13
这段新智元的报道主要讨论了强化学习(RL)在人工智能发展中的作用和局限性,并提出了一种新的学习范式——复盘学习。报道中提到了以下几点:

1. Karpathy对强化学习的看法:Karpathy认为,尽管强化学习在短期内有效,但从长远来看,它可能不是最优策略。他指出,强化学习仅通过单一数值反馈来调整行动,效率随任务时长急剧下降。此外,RL与人类的反思-提炼-再应用的迭代机制存在巨大差异。

2. 长时程任务的挑战:Karpathy指出,当任务交互时间增加到几分钟乃至几小时时,RL会遇到挑战。一个数小时交互的任务最终只得到一个单一的标量奖励来调整整个过程的梯度,这样的反馈可能不足以支撑高效学习。

3. 人类学习机制与RL的差异:Karpathy强调,人类会通过复盘/反思阶段从每次推演中提取多得多的监督信息,而RL的机制与人类智能提升方式存在显著差异。

4. 新的算法框架:Karpathy提出了一个算法框架,即给定一个任务,先跑几次推演,然后把所有推演过程(包括每次的奖励)都塞进一个上下文,再用一个元提示词来复盘/反思哪些地方做得好或不好,从而提炼出一个字符串形式的“教训”,并将其添加到系统提示词中。

5. 课程学习:AI初创公司联创Yuchen Jin提出了课程学习这一全新训练范式,这是一个自监督记忆+检索+反思的反馈循环,无需任何外部奖励信号。

6. 对强化学习的批评:前OpenAI研究员Kevin Lu认为,真正推动AI规模跃迁的技术是互联网,而非Transformer。他建议研究者放弃无效的RL研究,转投产品开发,并强调数据是AI最重要的要素。

7. 研究-产品协同设计:Kevin Lu认为研究-产品协同设计可能是强化学习的“共生体”,催生出GPT-1到GPT-4量级的飞跃。

综上所述,这篇报道探讨了强化学习在人工智能发展中的局限性,并提出了新的学习范式和研究方向。
如何不发帖就快速得到金币道行
 
在线姜谷粉丝

UID: 1569053

精华: 2
级别: 玉清道君

发帖
144934
金币
270536
道行
20030
原创
756
奖券
185
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 16870(小时)
注册时间: 2012-06-21
最后登录: 2025-07-16
只看该作者 板凳  发表于: 昨天 13:15
Karpathy戳破强化学习神话,首提AI复盘式进化!暴力试错将死
强化学习的局限
效率随任务时长下降
AI大神Karpathy指出,强化学习(RL)只是把最终成败的单一数值回传,效率会随任务时长急剧下降。以一个数小时交互的任务为例,最终仅得到一个单一的标量奖励来调整整个过程的梯度,这在长时程任务中局限性明显14。

与人类学习机制差异大
对于大多数智能任务,强化学习的机制与人类的进步机制差异显著。人类会通过复盘/反思阶段,从每次推演中提取更多监督信息,如“哪里做得好?哪里不太行?下次该试试什么?”等。从这个阶段得到的教训可直接添加到未来的系统提示词里,或选择性地在之后被“蒸馏”成权重/直觉。而目前强化学习缺少这样的学习范式,在Atari游戏这类RL场景中也不存在类似机制14。

复盘学习的优势
复盘学习通过验证函数,比显示监督取得了更大的杠杆效应。它能让智能体从实践中提取更明确的监督信息,如同人类从复盘反思中获取教训一样,这种信息可用于更新系统提示词或教训数据库,有助于智能体在后续任务中表现得更好14。

Karpathy提出的算法框架
框架内容
Karpathy提出了一个回顾 - 反思范式的算法框架。给定一个任务,先进行几次推演,然后把所有推演过程(包括每次的奖励)都放入一个上下文,再用一个元提示词来复盘/反思哪些地方做得好或不好,从而提炼出一个字符串形式的“教训”,并将其添加到系统提示词中(或者更通用地,更新当前的教训数据库)1。

应用示例
以大模型计数问题为例,由于分词(tokenization)的原因,大模型不太容易识别单个字母和在残差流里计数,比如很难识别出“strawberry”里的“r”字母。Claude的系统提示词里加入了一个“快速修复”patch,但问题在于这种教训要如何从智能体的实践中自发产生、如何被泛化,以及如何避免让上下文窗口无限膨胀等1。

对强化学习的总结与展望
强化学习的作用
RL若应用得当,会带来更多收益,其杠杆效应巨大。但它并不是完整的答案,尤其是随着推演的流程越来越长1。

未来研究方向
未来还有更多的S型增长曲线等待发现

如何不发帖就快速得到金币道行
 
我有我可以
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个