• 我的订阅
  • 科技

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

类别:科技 发布时间:2024-10-29 09:58:00 来源:量子位

OpenAI-o1替代品来了,大模型能根据任务复杂度进行不同时间的思考。

不限于推理性的逻辑或数学任务,一般问答也能思考的那种。

最近畅销书《Python机器学习》作者Sebastian Raschka推荐了一项新研究,被网友们齐刷刷码住了。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

论文一作为华人学者Tianhao Wu,导师之一是2011年清华特奖得主焦剑涛。

团队提出了一种称作思考偏好优化(Thought Preference Optimization)的方法,能让模型像OpenAI-o1一样,通过内部“思考”输出更好答案,最终只显示结果,不展示思考过程。

TPO将思维链式提示/推理融入训练中:

在回答之前,用思维链式方法进行思考;使用一个LLM评判来评估响应(不包括由LLM生成的想法);根据被拒绝和优选的响应形成偏好对进行DPO(包括这些响应中的想法)。

基于Llama 3 8B Instruct的结果表明,TPO效果相当好。

有意思的是,如果添加了思维提示,但Llama 3 8B Instruct基础模型没有在偏好对上经历DPO微调,那么这个基础模型的性能会比没有思维提示时差得多。

在指令数据(直接响应基线)上对模型进行微调(无需思考提示)就能显著提升基模型的性能。

进一步加入TPO,在AlpacaEval、Arena-Hard基准测试中,性能比基线再提升约4%。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

网友纷纷表示这项研究很有意思,简单而又实用。

如果你已经在进行DPO,那么采用这种方法几乎就是不二之选了。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

所以,TPO到底长啥样?

两种思考提示模板,无需额外人工标注数据

TPO的基本思路就是让模型在给出最终回答前先生成“思考”过程,且思考过程对用户不可见,仅作为模型内部计算过程,然后通过迭代优化来提升思考的质量,无需额外的人工标注数据。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

具体来说,它的实现过程始于一个经过指令微调的基础语言模型,首先通过提示词引导模型生成包含思考过程和最终回答两个部分的输出。

这个提示词可以是通用型的,简单要求模型写下思考过程;也可以是具体型的,明确要求模型先写出草稿回答并进行评估。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

对于每个用户指令,模型会生成多个不同版本的输出,每个都包含思考和回答部分。

且思考过程采用自然语言形式,便于解释和利用预训练知识。

然后系统会将这些输出中的回答部分(不含思考过程)提供给一个评判模型来打分。

评判模型可以是像ArmoRM这样直接对单个回答评分的模型,也可以是像Self-Taught Evaluator这样通过比较两个回答来选出更好者的模型。

基于评判结果,系统会选出得分最高和最低的回答,连同它们对应的思考过程一起构成偏好对。

这些偏好对随后被用于直接偏好优化(DPO)训练,通过这种方式,模型能够逐步学习到哪些思考方式能带来更好的回答。

整个过程是迭代进行的,每轮训练后得到的新模型会被用于下一轮的思考和回答生成。

为了防止回答变得过于冗长,TPO还引入了长度控制机制,通过在评分中加入长度惩罚项来平衡回答的质量和简洁性。

值得注意的是,在实际使用时,模型生成的思考过程会被隐藏,只向用户展示最终的回答部分。

更多细节,感兴趣的童鞋可自行查看原论文。

通过这种训练方法,即使是像Llama-3-8B-Instruct这样相对较小的模型也能在AlpacaEval等基准测试中取得接近甚至超过一些更大模型的性能。

在AlpacaEval基准测试中,TPO模型获得52.5%的胜率,比基线提升4.1%;在Arena-Hard测试上,TPO模型获得37.3%的胜率,比基线提升4.3%。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

研究发现,虽然在训练初期,带思考的模型表现不如直接回答的基线模型,但经过多轮迭代训练后,TPO模型的表现明显超过基线。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

更细致的分析显示,思考不仅对推理和数学等传统认为需要思考的任务有帮助,在营销、健康、一般知识等非推理任务上也表现出优势,模型会随着训练逐渐学会更高效的思考(思考长度缩短)。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

华人一作

这项研究由来自Meta FAIR、加州大学伯克利分校、纽约大学的研究人员共同提出。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

论文一作为华人学者Tianhao Wu。

Tianhao Wu目前是加州大学伯克利分校博士生,导师是焦剑涛(Jiantao Jiao)和Kannan Ramchandran。

本科主修数学,合作导师是北大教授、清华交叉信息学院兼职教授王立威(Liwei Wang)。

他的研究重点是通过强化学习改善大语言模型的指令遵循和推理能力,目标是构建可以解决需要多步骤推理的复杂任务的大规模模型。

此外他还在开发由Agent组成的AI社会,这些Agent可以以模块化的方式连接起来,形成更强大的集体智能。

OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化

论文链接:https://arxiv.org/abs/2410.10630

参考链接:[1]https://x.com/rasbt/status/1850177459930497118[2]https://thwu1.github.io/tianhaowu/

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-10-29 11:45:05

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

首届大模型顶会COLM高分论文:偏好搜索算法让大模型评估更高效
...。在 RLHF 训练范式中,奖励模型根据排名比较数据与人类偏好对齐。这增强了 LLMs 与人类价值观的对齐,从而生成更好地帮助人类并遵守人类价值观的回应。近日,第一届大模型顶
2024-08-06 09:26:00
将偏好学习引入模型训练,北大李戈团队提出代码生成优化新框架
代码模型SFT对齐后,缺少进一步偏好学习的问题有解了。北大李戈教授团队与字节合作,在模型训练过程中引入偏好学习,提出了一个全新的代码生成优化框架——CodeDPO。在部分模型上,
2024-11-28 09:57:00
4轮暴训,Llama 7B击败GPT-4!Meta等让LLM「分饰三角」自评自进化
...应,由再让M_t对自己进行评价,由此得到用于训练actor的偏好数据。 之后,给定同一个响应内容y,让M_t生成各种不同评价的变体
2024-08-01 09:40:00
扩散模型也能搞定社交信息推荐,港大数据智能实验室提出RecDiff
...的基于扩散模型的推荐框架,能够更好地捕捉用户的潜在偏好和兴趣,从而生成个性化、贴合用户需求的推荐内容。具体而言,该框架采用隐空间扩散机制,有效清除用户表示中的噪声,无论是压缩
2024-07-30 09:31:00
87.8%准确率赶超GPT-4o登顶!谷歌DeepMind发布自动评估模型FLAMe
...器。一方面,为了使LLM自动评分更加合理、准确并与人类偏好保持一致,对人类判断的数据收集极其重要。 然而,获得这些判断数据既昂贵又耗时。从以前的研究中收集现有的人类评估貌似
2024-08-05 09:37:00
关于LLM-as-a-judge范式,终于有综述讲明白了
...来源(人工标注和模型反馈)和微调技术(有监督微调和偏好学习)对这些工作进行了详细讨论。图 4:LLM-as-a-judge prompting 方法(2)提示
2024-12-04 09:49:00
零成本突破多模态大模型瓶颈!多所美国顶尖高校华人团队,联合推出自增强技术CSR
...对齐不同模态时面临幻觉和细粒度感知不足等问题,传统偏好学习方法依赖可能不适配的外源数据,存在成本和质量问题。Calibrated Self-Rewarding(CSR)框架通过自我增强学习
2024-06-21 09:21:00
OpenAI重拾规则系统,用「AI版机器人定律」守护大模型安全
...型,既能改善过度谨慎的奖励模型,也能改进(有时候)偏好不安全输出的奖励模型。 该团队也进行了消融研究,实验了不同的设计选择,比如多种不同的安全提示集数量和组成。用于安全的基于
2024-11-07 09:54:00
这才是真开源模型!公开后训练一切,性能超越Llama 3.1 Instruct
...训练的新方法,以及使用模型自己的生成结果创建高性能偏好数据的新方法。加上更多优化细节,得到的 Tülu 3 系列模型明显优于同等规模的其它模型
2024-11-26 09:44:00
更多关于科技的资讯: