• 我的订阅
  • 科技

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

类别:科技 发布时间:2024-11-19 09:48:00 来源:机器之心Pro
自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。

自我纠错(Self Correction)能力,传统上被视为人类特有的特征,正越来越多地在人工智能领域,尤其是大型语言模型(LLMs)中得到广泛应用,最近爆火的OpenAI o1模型[1]和Reflection 70B模型[2]都采取了自我纠正的方法。

传统的大语言模型,因为在输出答案的时候是逐个Token输出,当输出长度较长时,中间某些Token出错是必然发生。但即使LLM后来知道前面输出的Token错了,它也得用更多错误来“圆谎”,因为没有机制让它去修正前面的错误。

而OpenAI o1在“慢思考”也就是生成Hidden COT的过程中,通过分析OpenAI官网给出的Hidden COT例子可以发现,在解决字谜问题的思考过程中,o1首先发现了每两个连续的明文字母会映射到一个秘文字母,于是便尝试使用奇数字母来构建明文,但是经过验证发现并不合理(Not directly);接着又重新修正答案最终成功解出字谜。

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

图1 OpenAI o1 官网示例(部分Hidden CoT)

Reflection 70B的关键技术也包括错误识别和错误纠正。他们用到了一种名为Reflection-Tuning(反思微调)的技术,使得模型能够在最终确定回复之前,先检测自身推理的错误并纠正。在实际的执行过程中,这会用到一种名为思考标签(thinking tag)的机制。模型会在这个标签内部进行反思,直到它得到正确答案或认为自己得到了正确答案。

频频应用于大语言模型的自我纠错技术为何有效?为什么纠错过程可以让模型把原本答错的问题重新答对?

为了探究这一问题,北大王奕森团队与MIT合作,从理论上分析了大语言模型自我纠错能力背后的工作机理。

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

论文题目:A Theoretical Understanding of Self-Correction through In-context Alignment 论文地址:https://openreview.net/pdf?id=OtvNLTWYww 代码地址:https://github.com/yifeiwang77/Self-Correction

作者团队将自我纠错的过程抽象为对齐任务,从上下文学习(In-context learning)的角度对自我纠错进行了理论分析。值得一提的是,他们并没有使用线性注意力机制下的线性回归任务进行理论分析,而是使用真实世界LLM在用的softmax多头注意力机制的transformer结构,并利用Bradley-Terry 模型和 Plackett-Luce 模型(LLM对齐的实际选择,用于RLHF和DPO)设计对齐任务进行研究。受理论启发,他们提出了一种简单的自我纠错策略--上下文检查(Check as Context),并通过实验,在消除大语言模型中存在的潜在偏见以及防御越狱攻击中效果显著。

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释
自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释
自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

作者也通过设置验证实验来检验其理论导出的种种结论,以及各个 transformer 结构模块对 LLM 执行上下文对齐能力的影响,作者发现了很多有趣的结论:

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

自我纠错策略:上下文检查

作者使用上下文检查(Check as Context,CaC)作为LLM完成自我纠错的方法,在两个现实世界的对齐任务中探索了自我纠错:缓解社会偏见和防范越狱攻击。

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

图3 BBQ数据集上使用CaC的示例。

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

消除LLM社会偏见

本文使用 BBQ(Bias Benchmark for QA)数据集,在 vicuna-7B 和 Llama2-7b-chat 模型上测试了 CaC 方法的效果。此外,还在 BBQ 上研究了模型大小、评估质量和纠错轮数对纠错效果的影响。主要结论如下:

多数情况下,自我纠错后的正确率高于原正确率(图4) 正确率提升与自我评估的准确率高度相关(图4(c):),甚至呈线性关系(图5(a))。 采用不同的评价方式效果依次提升:仅使用对/错评价 < 自然语言评价 < 包含 CoT 的对/错评价。这是因为 CoT 不仅能提高评价准确性,还能为模型提供额外的自然语言信息。(图5(b)) 更大的模型有更好的纠错能力(图5(c)(d)) 当评价的正确率足够高时,更多的纠错轮数可以带来更好的纠错效果。(图5(e))

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

图4 CaC对于不同种类的偏见的修正

自我纠错如何使OpenAI o1推理能力大大加强?北大MIT团队理论解释

图5 BBQ上关于模型大小、评估质量以及纠错轮数的消融实验

同时,在防御越狱攻击的实验中,CaC也是所有测试的防御手段中最低的。

更多文章细节,请参考原文:https://openreview.net/pdf?id=OtvNLTWYww

参考资料:

[1] https://openai.com/index/introducing-openai-o1-preview/

[2] https://reflection70b.com/

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-19 11:45:11

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

“全球首个通用智能人”北大小女孩“通通”亮相
...模仿,是一种低级智能;乌鸦喝水看似简单,却属于自主推理行为,是由价值与因果驱动的高级智能,也是人工智能的未来发展趋势。他借鉴中国传统哲学思想建立起原创性的以“理”(能力体系
2024-09-14 09:48:00
北大等发布多模态版o1!首个慢思考VLM将开源,视觉推理超闭源
...ion模型打造,超越传统思维链提示,实现自主“慢思考”推理。在多模态推理基准测试中,LLaVA-o1超越其基础模型8.9%,并在性能上超越了一众开闭源模型。新模型具体如何推理
2024-11-20 09:42:00
对话北大赵东岩:为啥DeepSeek幻觉率这么高?用户如何避免被AI“欺骗”?
...达14.3%,显著高于DeepSeek-V3的3.9%,也远远超过行业的其他推理模型,比如OpenAI-o1的测试结果是2
2025-03-05 15:54:00
揭示Transformer「周期建模」缺陷!北大提出新型神经网络FAN,填补周期性特征建模能力缺陷
...中的商业周期、物理学中的电磁波,以及数学运算和逻辑推理等。因此,在许多任务和场景中,人们希望对周期进行建模,以便根据以往的经验进行推理。尽管以 MLP 和 Transform
2024-11-27 13:34:00
5年投资超1000亿,北京公布一系列AI重磅成果,北大清华百度蚂蚁微软大佬齐谈AI未来|钛媒体AGI
...计算具备高算力低功耗的特性,能够加速AI大模型训练与推理。戴琼海提到,清华大学提出光电混合全模拟智能计算架构,研制ACCEL芯片,突破光电模数转换瓶颈。相比A100,ACCE
2024-04-28 11:00:00
无一大模型及格! 北大/通研院提出超难基准,评估长文本理解生成
...的长依赖任务中的多信息检索、时间重排序、计算、理解推理能力表现均不乐观。比如像Claude3-200k,GPT4-32k
2024-08-08 09:39:00
姚期智院士大模型新研究:思维图DoT,用数学理论确保AI逻辑一致
姚期智院士领衔,推出大模型新推理框架,CoT“王冠”戴不住了。提出思维图(DiagramofThought),让大模型思考更像人类
2024-09-24 13:36:00
全模态对齐框架align-anything来啦:实现跨模态指令跟随
...-Vision-11B 既准确地识别出了餐厅,还提供了细致的思考与推理过程。 在 Meta 并未披露 Llama-3
2024-10-18 09:47:00
Transformer推理天花板被谷歌打破?DeepMind首席科学家亮出84页PPT,却遭LeCun反对
...科学家Denny Zhou拿出一篇ICLR 2024论文称:CoT可以让Transformer推理无极限。但随即他就遭到了田渊栋和LeCun等的质疑
2024-09-21 09:43:00
更多关于科技的资讯: