• 我的订阅
  • 科技

大模型不会推理,为什么也能有思路?有人把原理搞明白了

类别:科技 发布时间:2024-11-23 09:42:00 来源:机器之心Pro

大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会照搬训练数据中的数学推理,回答事实问题和推理问题的「思路」也不一样。

大语言模型的「推理」能力应该不是推理,在今年 6 月,一篇 Nature 论文《Language is primarily a tool for communication rather than thought》曾引发 AI 社区的大讨论,改变了我们对于 AI 智力的看法。

该论文认为人类语言主要是用于交流的工具,而不是思考的工具,对于任何经过测试的思维形式都不是必需的。图灵奖获得者 Yann LeCun 对此还表示,无论架构细节如何,使用固定数量的计算步骤来计算每个 token 的自回归 LLM 都无法进行推理。

那么,大模型的「推理」行为到底是在做什么呢?本周四,一篇来自伦敦大学学院(UCL)等机构的研究《Procedural Knowledge in Pretraining Drives Reasoning in Large Language Models》详细探讨了大语言模型(LLM)在执行推理任务时采用的泛化策略类型,得出的结论给我们了一些启发。

大模型的「推理」是在做什么?

一个普遍的猜测是:大模型的推理难道是在从参数知识中检索答案?该研究给出了反对这一观点的证据。作者认为,是预训练中的程序性知识在推动大模型进行推理。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

自从大模型出现以来,AI 研究领域一直流传着这样一种假设:当大模型在进行推理时,它们进行的是某种形式的近似检索,即从参数知识中「检索」中间推理步骤的答案,而不是进行「真正的」推理。

考虑到大模型所训练的数万亿个 token、令人印象深刻的记忆能力、评估基准的数据污染问题已得到充分证实,以及大模型推理依赖于 prompt 的性质,这种想法看起来似乎是合理的。

然而,大多数研究在得出结论认为模型不是真正推理时,并没有进一步去研究预训练数据。在新的工作中,人们希望探索一个命题:即使推理步骤的答案就在数据中,模型在生成推理轨迹时是否会依赖它们?

作者使用影响函数来估计预训练数据对两个 LLM(7B 和 35B)完成事实问题回答(下图左)的可能性,以及简单数学任务(3 个任务,其中一个显示在右侧)的推理轨迹的影响。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

令人惊讶的是,研究发现的结果与我们的想法相反:LLM 使用的推理方法看起来不同于检索,而更像是一种通用策略——从许多文档中综合程序性知识并进行类似的推理。

新论文的一作、UCL 在读博士 Laura Ruis 表示,该研究是基于对 5M 预训练文档(涵盖 25 亿个 token)对事实问题、算术、计算斜率和线性方程的影响的分析。总而言之,他们为这项工作做了十亿个 LLM 大小的梯度点积。

接下来还有几个问题:大模型是否严重依赖于特定文档来完成任务,或者文档是更有用,还是总体贡献较少?前者适合检索策略,后者则不适合。

通过实验可以看到,模型在生成推理痕迹时对单个文档的依赖程度低于回答事实问题(下图箭头粗细表示)时对单个文档的依赖程度,并且它们所依赖的文档集更具通用性。

对于事实问题,答案往往表现出很大的影响力,而对于推理问题则不然(见下图底行)。此外,该研究发现的证据表明代码对推理既有正向影响,也有反向的影响。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

另外,看文档对查询推理轨迹的影响可以较容易地预测出该文档对具有相同数学任务的另一个查询的影响,这表明影响力会吸收文档中用于推理任务的程序性知识。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

因此可以得出结论,大模型通过应用预训练期间看到的类似案例中的程序性知识(procedural knowledge)进行推理。这表明我们不需要在预训练中涵盖所有可能的案例——专注于高质量、多样化的程序数据可能是更有效的策略。

该研究可能会改变我们对于 LLM 推理的看法。Laura Ruis 表示,很期待见证这种程序泛化风格的发现,对于更大的模型,或潜在的不同预训练数据分割等方向的影响。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

论文链接:https://arxiv.org/abs/2411.12580

实验设置

模型选择

研究者选择了两个不同体量的模型(7B 和 35B),分别是 Cohere 的 Command R 系列的基础和监督微调版本。其中,他们使用基础模型估计二阶信息并计算文档梯度,并使用监督指令微调模型生成完成并计算查询梯度。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

查询设置

研究者收集了一个包含不同类型问题的查询集,其中 40 个推理问题,40 个事实问题。

对于推理问题,他们确定了两种数学推理类型,每种模型都可以使用零样本 CoT 来稳健地完成。研究者在包含每种推理类型的 100 个问题的更大集合上对模型进行评估,并选择了至少 80% 正确率的任务。

这为 7B 模型提供了简单的两步算法(如下表 1 所示),并为 35B 模型求解线性方程中的 x(如下表 9 所示)。研究者确保没有查询需要输出分数。并且,为了使 7B 和 35B 模型之间的结果更具可比性,他们对这两个模型使用了相同的斜率问题。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

大模型不会推理,为什么也能有思路?有人把原理搞明白了

对于 40 个事实问题,研究者确保模型一半回答正确,一半错误,从而能够识别从参数知识中检索事实的失败。

文档设置

研究者想要比较预训练数据对不同大小模型(7B 和 35B)推理的影响,因此他们选择了两个在相同数据上训练的模型。其中,每个模型只需要对 Hessian 进行一次 EK-FAC 估计,但公式 1 中的其他项要求每个文档 - 查询对通过模型进行两次前向和后向传递。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

为了解决这个问题,研究者从预训练数据中抽取了一组文档,这些文档涵盖了预训练期间看到的每个批次的多个示例,总共 500 个文档(约 25 亿 token),其分布与训练分布相似。

EK-FAC 估计

为了估计 7B 和 35B 模型的 Hessian,研究者通过对两个模型进行预训练,随机抽取了 10 万份均匀分布的文档。

实验结果:五大发现

为了回答上述关于 LLM 推理泛化的问题,研究者进行了定量和定性分析,并得出了以下五大发现。

发现 1:对于具有相同底层推理任务的查询,文档的影响力得分之间存在显著的正相关性,表明了这些文档与「需要对不同数字应用相同程序」的问题相关。

研究者计算了所有 500 万个文档得分对于所有查询组合的 Pearson R 相关性(每个模型有 802 个相关性)。下图右显示了每个任务 10 个查询的子样本结果。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

他们还发现,相同推理类型的很多查询之间存在非常显著的正相关性(p 值均低于 4e - 8),而大多数(但不是全部)事实查询或其他组合(例如不同类型的推理查询)之间存在非常显著的相关性缺失(p 值均在 4e - 3 左右)。这意味着许多文档对同一类型的推理具有类似的影响。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

发现 2:在推理时,模型对每个文档的依赖程度平均低于回答事实问题时对每个生成信息量的依赖程度,总体影响幅度波动性要小得多,表明它是从一组更一般的文档中泛化出来的。模型越大,效果越明显。下图 2 展示了对排名中不同百分数正向部分的总影响。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

结果描述了 top-k 百分位正向排名文档中包含的总影响力,比如第 20 个百分数包含了一个查询的 20% 正向文档,显示的总影响力是截止到该部分排名的所有文档影响力的总和。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

发现 3:事实问题的答案在对问题 top 影响力的文档中出现的频率相对较高,而推理问题的答案几乎没有在对它们 top 影响力的文档中出现过。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

如下图 3 所示,对于 7B 模型,研究者在 55% 的事实查询的前 500 个文档中找到了答案,而推理查询仅为 7.4%。对于 35B 模型,事实查询的答案在 top 影响力文档中出现的概率为 30%,而推理集的答案从未出现过。

发现 4:对推理查询有影响力的文档通常采用类似的逐步推理形式,如算术。同时有影响力的文档通常以代码或一般数学的形式实现推理问题的解决方案。

总的来说,研究者在 top 100 份文档中手动找到了 7 个以代码实现斜率的独特文档,以及 13 个提供计算斜率方程式的文档。其中,7B 模型依赖其中 18 个文档来完成其补全(这意味着 18 个不同的文档出现在所有查询的 top 100 份文档中),而 35B 模型则依赖 8 个文档。

下图分别是一个以 JavaScript(左)和数学(右)实现解决方案的极具影响力的文档示例。

大模型不会推理,为什么也能有思路?有人把原理搞明白了

发现 5:对于事实查询,最有影响力的数据来源包括维基百科和小知识;而推理查询的主要来源包括数学、StackExchange、ArXiv 和代码。

总而言之,该研究结果表明,LLM 实际上可以从预训练数据中学习一种通用的推理方法,并且可以从数据中的程序性知识中学习。此外,人们发现没有任何证据表明模型依赖于预训练数据中简单数学推理步骤的答案。这意味着近似检索假设并不总是正确的,这对未来人工智能的设计具有重要意义。

也就是说,我们可能不需要专注于覆盖预训练数据中的每种情况,而是可以专注于数据应用和演示各种推理任务的程序。

这份研究结果表明,LLM 实际上可以从预训练数据中学习一种通用的推理方法,并且可以从数据中的程序性知识中学习。此外,人们没有发现任何证据表明模型依赖于预训练数据中简单数学推理步骤的答案。这意味着近似检索假设并不总是正确的,这对未来 AI 的设计具有意义。

也就是说,我们可能不需要专注于覆盖预训练数据中的每种情况,而是可以专注于数据应用和演示各种推理任务的程序。

更多技术细节与实验结果请参阅原论文。

参考内容:

https://www.reddit.com/r/MachineLearning/comments/1gvveu8/r_procedural_knowledge_in_pretraining_drives/

https://lauraruis.github.io/2024/11/10/if.html

https://x.com/LauraRuis/status/1859267739313185180

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-23 11:45:06

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

DeepSeek/o3的弱点找到了!三心二意 明明对了又改错了
DeepSeek和o1/o3一类推理大模型持续带来震撼之际,有人开始研究他们的弱点了。最新研究揭示:在遇到高难度问题时,推理大模型可能像“三心二意的学生”一样频繁切换解题思路,却
2025-02-04 19:41:00
Transformer推理天花板被谷歌打破?DeepMind首席科学家亮出84页PPT,却遭LeCun反对
...科学家Denny Zhou拿出一篇ICLR 2024论文称:CoT可以让Transformer推理无极限。但随即他就遭到了田渊栋和LeCun等的质疑
2024-09-21 09:43:00
思维链让大模型推理更准确?谷歌早于OpenAI押中o1模型核心原理
...本质的不同。其不仅进入到复杂的领域,还表现出超强的推理能力。OpenAI 将 GPT-4o 和 o1 在国际数学奥林匹克竞赛资格考试方面进行对比测试
2024-09-20 13:33:00
CMU清华教LLM练成数学高手,LeanSTaR训练模型边思考边证明,登顶新SOTA
...办?CMU清华团队提出了Lean-STaR训练框架,在语言模型进行推理的每一步中都植入CoT,提升了模型的定理证明能力
2024-08-10 09:47:00
罗格斯大学团队提出思想链概念,提高大模型的算数推理能力
...概念,提高了大语言模型(LLM,large language models)在复杂推理任务上的性能,例如算术推理、常识推理和符号推理等
2024-03-15 10:41:00
AI出图更快、更懂你心意,高美感文生图模型修炼了哪些技术秘籍?
...等工具如何为部署模型提供支持,助力大模型更加高效地推理。赵一嘉首先分享了 Stable Diffusion 背后模型的原理详解
2024-08-13 09:39:00
清华团队提出新型光计算架构,光训练速度提升1个数量级
...智能计算的“潜力股”,为后摩尔时代带来新的希望。 推理和训练是 AI 大模型核心能力的两个重要阶段,正是看到了这一点,该团队在推理和训练方面进行了同期的并行研究。今年 4
2024-08-09 09:57:00
科学家提出情景学习新范式,让学霸大模型向学弱大模型输送能力
...十亿左右。“做大”,能让大模型具备更强的涌现能力和推理能力,从而适用于难度更高的任务。“做小”,能让大模型获得更优秀的推理能力,从而能被部署到手机、手表、耳机、录音笔等各类小
2024-03-01 09:36:00
ChatGPT大流行的思考-解析篇
...器人的本质区别。2. ChatGPT如何实现知识的获取、存储、推理及实时更新那究竟GPT如何有如此优秀的表现呢?我们不妨从人类学习思路入手,我们学习一般可分为获取知识-存储知
2023-02-17 21:00:00
更多关于科技的资讯:
WowNow即将亮相CES 2026|以AI驱动的柔性制造,探索消费端创意直连制造的新路径
中国创新科技品牌WowNow宣布,将于2026年1月6日至9日亮相在美国拉斯维加斯举办的国际消费电子展(CES 2026)
2026-01-05 11:04:00
国内多筒血拼正酣!海尔三筒洗衣机泰国亮相填补空白
国内三筒洗衣机市场正上演激烈角逐,消费者对分区洗护的需求推动产品快速普及,各大品牌纷纷加码布局,行业竞争持续升级。海尔三筒洗衣机在热销超30万台
2026-01-05 09:52:00
山东移动泰安分公司圆满完成“你好2026”泰山跨年音乐嘉年华通信保障
鲁网1月4日讯2025年12月31日晚,“你好2026”泰山跨年音乐嘉年华在泰安市泰汶吾悦广场西南侧盛大举行,吸引超过两万名乐迷齐聚一堂
2026-01-05 09:55:00
国产新原料赋能产品创新:一支用“牙齿”成分做成的牙膏
近年来,国产科研力量正在持续推动口腔健康科技进步。从材料源头研发到临床研究验证,一系列应用转化研究不仅展示了国产功效型材料的技术潜力
2026-01-05 10:03:00
“手机随时待命、消息秒回”——新兴职业“秒回师”以其即时响应与情感陪伴的特点,吸引了不少年轻人加入。与此同时,代遛宠物专员
2026-01-05 08:36:00
■王哲娟摘要:在数字化与知识经济时代,企业的竞争边界不断扩展,组织间的关系由单向依附转向多层协同。协同创新成为企业嵌入生态系统
2026-01-05 05:42:00
东南网龙岩1月4日讯(通讯员 詹春艳 林培民)近日,龙岩市新罗区10千伏中新线上空,一场静默而精准的“人机协同”带电作业悄然完成
2026-01-04 23:27:00
蔡高民:颠覆认知!打破西方理论垄断!中国老年学自主知识体系诞生
《全生命周期养能力发展与医养结合:理论和实践》的核心突破,在于建构“养”的元概念、定义与内涵外延,并以此为基础构建了逻辑自洽的三大理论体系
2026-01-04 20:15:00
编者按:周期更迭,变量叠加。站在“十五五”开局之年的关键节点上,各行业如何调整节奏、校准路径、寻找增量?中新经纬广邀多领域学者
2026-01-04 20:21:00
春节临近,年味渐浓。在贵阳,一场不同于传统年货市集的新春活动正在酝酿——它以“创意游乐场”为定位,融合在地风物、潮流文化与青年创造力
2026-01-04 21:50:00
不经意晃动手机,软件立即跳转购物页面。最近,记者实测发现,备受诟病的“摇一摇跳转”广告乱象依然时有发生,困扰着不少用户
2026-01-04 17:59:00
2025年度帆书APP经典热搜榜,精准解锁经典中的成长指南
当“信息过载”成为常态,“选择困难”深入骨髓,我们比任何时候都更需要一个清晰的信号:什么才是值得投入时间的真知?近日,帆书APP根据全年用户收听数据发布的“经典热搜榜”
2026-01-04 14:25:00
黄鹤权据光明网报道,英国《剑桥词典》将2025年年度词汇定为“准社交”,形容个体单方面与名人、虚拟角色或聊天机器人产生的密切连接感
2026-01-04 14:25:00
飞晟科技入选海南省儋州市中小企业数字化转型城市试点服务商
近日,海南省儋州市科学技术和工业信息化局对外公示《儋州市中小企业数字化转型城市试点服务商拟纳入名单(第一批)》。公示名单显示
2026-01-04 15:28:00
抖音生活服务联合南京德基广场落地“心动街区”,电视台直播+明星见面会+打卡活动助力商圈消费
12月30日,抖音生活服务“心动街区”活动联合江苏电视台城市频道零距离栏目发起“心动德基24h·南京跨年在德基”美食专场直播
2026-01-04 15:30:00