• 我的订阅
  • 科技

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

类别:科技 发布时间:2024-07-11 09:33:00 来源:机器之心Pro

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

2.4B 的 Memory3比更大的 LLM 和 RAG 模型获得了更好的性能。

近年来,大型语言模型 (LLM) 因其非凡的性能而获得了前所未有的关注。然而, LLM 的训练和推理成本高昂,人们一直在尝试通过各种优化方法来降低成本。

本文来自上海算法创新研究院、北京大学等机构的研究者受人类大脑记忆层次结构的启发,他们通过为 LLM 配备显式记忆(一种比模型参数和 RAG 更便宜的记忆格式)来降低这一成本。从概念上讲,由于其大部分知识都外化为显式记忆,因而 LLM 可以享受更少的参数大小、训练成本和推理成本。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

论文地址:https://arxiv.org/pdf/2407.01178

论文标题:Memory3 : Language Modeling with Explicit Memory

作为初步的概念证明,研究者从零开始训练了一个 2.4B 的 LLM,它比更大的 LLM 和 RAG 模型获得了更好的性能,并实现了比 RAG 更高的解码速度。这个模型被命名为 Memory3,因为在 LLM 中,显式记忆是继隐式记忆(模型参数)和工作记忆(上下文键值)之后的第三种记忆形式。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

具体而言,本文引入了一种新的记忆格式,即显式记忆,其特点是写入成本和读取成本相对较低。如图 1 所示,模型首先将知识库(或任何文本数据集)转换为显式记忆,实现为稀疏注意力键 - 值,然后在推理过程中调用这些内存并将其集成到自注意力层中。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

新的记忆格式定义了新的记忆层次结构:

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

此外,本文还介绍了一种支持知识外化的记忆电路理论,并提出了可以让存储易于处理的记忆稀疏机制和促进记忆形成的两阶段预训练方案。

总结而言:

Memory3 在推理过程中利用显式记忆,减轻了模型参数记忆特定知识的负担;

显式记忆是从构建的知识库中编码而来的,其中稀疏记忆格式保持了真实的存储大小;

研究者从头开始训练了一个具有 2.4B 非嵌入参数的 Memory3 模型,其性能超过了更大规模的 SOTA 模型。它还比 RAG 具有更好的性能和更快的推理速度;

此外,Memory3 提高了事实性并减轻了幻觉,并能够快速适应专业任务。

方法介绍

记忆电路理论有助于确定哪些知识可以存储为显式记忆,以及哪种模型架构适合读取和写入显式记忆。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

研究者将输入输出关系作为电路的内部机制,并将知识定义为输入输出关系及其电路。通过操纵这些电路,人们可以从 LLM 中分离出许多知识,同时保持其功能完好无损。

Memory3:在架构方面,本文的目标是为 Transformer LLM 设计一个显式的记忆机制,使其写入成本和读取成本都比较低。此外,本文希望将对 Transformer 架构的修改限制在尽可能小的范围内,不添加任何新的可训练参数,这样大多数现有的 Transformer LLM 都可以在几乎不进行微调的情况下转换为 Memory3 模型。简单的设计过程如下:

写入成本:在推理之前,LLM 将每个参考写入显式记忆,保存在驱动器上。记忆是从自注意力层的键值向量中选择的,因此写入过程不涉及训练。每个引用都是独立处理的,避免了长上下文注意力的成本。

读取成本:在推理过程中,显式记忆从驱动器中检索,并与通常的上下文键值一起由自注意力读取。每个记忆由来自少量注意力头的极少量键值组成,从而大大减少了额外的计算、GPU 存储、驱动器存储和加载时间。它允许 LLM 频繁检索许多参考,而对解码速度的影响有限。

推理过程如图 9 所示,每当 LLM 生成 64 个 token 时,它就会丢弃当前记忆,使用这 64 个 token 作为查询文本来检索 5 个新记忆,并继续使用这些记忆进行解码。同样,在处理提示时,LLM 会为每 64 个 token 块检索 5 个记忆。每个块都会关注自己的记忆,并且不同块之间的记忆可能会有所不同。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

写入与读取记忆:在推理过程中,LLM 可以通过其自注意力层直接读取检索到的显式记忆,方法是将它们与上下文键值连接起来(图 9)。具体来说,对于第 l 层的每个注意力头 h,如果它被选为记忆头,那么它的输出 Y^( l,h ) 将会改变:

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

此外,该研究对所有显式记忆采用并行位置编码,即所有键位置都位于长度为 128 的同一区间内,如图 9 所示。

两阶段预训练:预训练由两个阶段组成,warmup 和持续训练。只有持续训练阶段涉及显式记忆,而 warmup 阶段使用与普通预训练相同的格式。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

图 13 绘制了 warmup 阶段训练损失和学习率时间表。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

图 14 绘制了持续训练阶段训练损失和学习率时间表。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

实验结果

研究者评估了 Memory3 模型的一般能力(基准任务)、对话能力、专业能力(法律和医学)以及幻觉。此外,研究者还测量了 Memory3 的解码速度,并与类似和更大的 SOTA LLM 以及 RAG 模型进行了比较。

一般能力的评估结果如下所示,结果表明显式记忆使平均分提高了 2.51%。相比之下,Llama2-7B 与 13B 的得分差距为 4.91%。显式记忆可以将「有效模型大小」提高 2.51/4.91 ≈ 51.1%。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

接下来作者评估了 Memory3 的对话技巧,结果列于表 18 中,表明模型以更少的参数胜过 Vicuna-7B、Falcon-40B-Instruct 和 ChatGLM2-6B。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

目前,LLM 仍然面临幻觉问题。从概念上讲,Memory3 应该不太容易受到幻觉的影响,因为它的显式记忆直接对应于参考文本。为了评估幻觉,研究者选择了两个英文数据集进行评估。结果如表 19 所示,Memory3 在大多数任务上都取得了最高分。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

使用显式记忆的一个好处是,LLM 可以通过更新其知识库轻松适应新领域和任务。只需将与任务相关的参考导入 Memory3 的知识库,并可选择在热启动的情况下将其转换为显式记忆。然后,该模型可以利用这些新知识进行推理,跳过成本更高且可能有损的微调过程,并且运行速度比 RAG 更快。图 4 已证明这种成本降低,并且可以促进 LLM 在各个行业的快速部署。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

下表表明,Memory3 的表现优于大多数模型。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

最后,研究者通过每秒生成的 token 数来评估 Memory3 的解码速度或吞吐量。

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆

了解更多内容,请参考原论文。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-07-11 12:45:01

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...交通大学人工智能未来科技对话会上,中国科学院院士鄂维南的发言引发不少与会者共鸣。高校若要引领下一代AGI的发展,需要解决哪些瓶颈?发力点在哪里?又该如何更好地输出AI人才与技
2024-04-21 05:57:00
AI数据之战:大模型的“燃料”还能烧多久?
...据分析的门槛和成本都会比较低。”在中国科学院院士鄂维南看来,如何将大量的非结构化数据转化为结构化形式,以降低数据分析门槛与成本,成为亟待解决的问题。非结构化数据,是如文本、图
2024-07-09 17:41:00
院士专家江苏行|鄂维南院士:建设人工智能时代的创新体系
...行暨国情考察活动高端科普报告会上,中国科学院院士鄂维南围绕当前人工智能发展的两大主题和对未来技术产业的影响,带来了一场精彩的“人工智能与科技创新”高端科普报告。活动由中国科协
2023-10-15 20:39:00
5年投资超1000亿,北京公布一系列AI重磅成果,北大清华百度蚂蚁微软大佬齐谈AI未来|钛媒体AGI
...生态计划。同时,包括北京大学教授、中国科学院院士鄂维南;中国工程院院士、清华大学信息科学技术学院院长戴琼海;百度CTO王海峰;蚂蚁集团CTO何征宇;微软全球资深副总裁、Mic
2024-04-28 11:00:00
...计划”建设工作座谈会在广州召开。钟南山、郑泉水、鄂维南、宋尔卫等国内外院士专家通过线上、线下等不同方式参加,科技部、广东省、广州市等有关单位领导出席座谈会。“π-HuB计划”
2024-12-17 18:01:00
《理解未来》科学讲座聚焦ChatGPT等 探索生物制药领域搭建模型
...授、北京大数据研究院院长、北京科学智能研究院院长鄂维南以《AI for Science:一场正在发生的科技革命》为题
2023-02-14 16:48:00
中科院院士领衔!德清打造国际首创的“数字地磁”系统
...清。共享联盟·德清 姚海翔 摄该项目由中国科学院院士领衔,主要构建天、空、地、海一体地球磁场实时监测网络系统和地球磁场模拟系统;开展各类地磁测量磁强计、芯片化角速度传感器等领
2023-04-21 22:56:00
院士专家江苏行暨国情考察活动高端科普报告会在南京举办
...科技自立自强走在前列做出重大贡献。中国科学院院士鄂维南以“人工智能与科技创新”为主题,围绕当前人工智能发展及其对未来技术产业的影响进行分享。“人工智能对集成电路、生物制药、高
2023-10-15 18:00:00
...I工程师与AI科学家等。北京大学教授、中国科学院院士鄂维南表示,百万卡规模的算力资源、多模态的数据资源、AI数据库能力,以及新模型框架、算法和工程能力,都是发展下一代AGI所
2024-04-27 21:09:00
更多关于科技的资讯:
《次第花开》首期圆满落幕,女性成长新时代启航
近日,她创美好赋能学园首期传承营——《次第花开》在学员的满载收获中圆满落幕。本次课程汇聚了来自各行业的优秀女性,通过为期三天的系统学习
2025-12-24 11:31:00
千企齐聚利雅得,深度链接沙特“2030愿景”---- 2025沙特中国出口品牌联展启幕
12月22日,2025沙特中国出口品牌联展(以下简称“沙特联展”)在沙特利雅得前沿会展中心开幕。作为首次落地沙特的中国出口品牌系列展
2025-12-24 11:34:00
凭何赢得央视频认可? 成都普济中医以专业实力诠释“身边的肿瘤康复专家”
在国家“健康中国”战略深入推进的背景下,树立医疗健康领域的优质标杆,传播科学、规范的实践模式,已成为推动行业高质量发展的重要途径
2025-12-24 11:44:00
大皖新闻讯 近日,安徽敏航科技有限公司与北京魔康科技发展有限公司进行“数智赋能·空域共生”无人机战略合作签约,双方建立全面战略合作伙伴关系
2025-12-24 12:32:00
数据驱动的仓储革命:中感智能清仓机器人如何成为企业积累工艺数据资产的关键
当前,全球工业领域正加速向智能化、无人化转型,国家政策亦持续鼓励“机械化换人、自动化减人、智能化无人”,以提升本质安全水平与生产效率
2025-12-24 10:31:00
中新经纬12月24日电 针对法国仓遭遇盗抢事件,京东回应中新经纬称,北京时间12月22日,位于法国巴黎地区的京东仓储遭遇盗抢
2025-12-24 10:32:00
厦门网讯(厦门日报记者 楚燕 通讯员 陈雯 李欣)在患者脑中植入电极片,设备就能实时解码患者意图,通过穿戴式设备帮助患者实现抬手
2025-12-24 08:04:00
太晓红摘要:金融科技的崛起对传统商业银行的经营影响极为深远,通过重塑其成本结构、拓展收入边界、优化资产质量,显著提升了传统商业银行的盈利能力
2025-12-24 06:39:00
杭州日报讯 近日,工信部发布50个全国中小企业数字化转型细分行业实践样本。公布的名单中,杭州作为首批中小企业数字化转型试点城市
2025-12-24 07:12:00
方毅、李晓军等分享实战经验杭州日报讯 大数据时代,大学生的创业之路如何启程?12月19日,在“共梦想·创未来”杭州大学生创业者赋能活动中
2025-12-24 07:12:00
中新经纬12月22日电 据国家市场监督管理总局网站消息,为严格落实获证生产企业质量安全主体责任,充分发挥CCC认证管理制度“事前发力
2025-12-23 08:07:00
日前,杭州市人民政府办公厅印发《关于支持类脑智能未来产业创新发展的若干措施》,提出了一系列措施支持类脑智能产业研发创新
2025-12-23 08:15:00
坚定信心 勇挑大梁·产业新亮点丨河北特色产业集群共享智造故事(八):产品设计共享给白沟箱包带来什么
产品设计共享给白沟箱包带来什么——河北特色产业集群共享智造故事(八)11月27日,白沟箱包数字化转型赋能中心工作人员(左二)向商户展示通过共享设计平台生成的效果图
2025-12-23 08:24:00
中旅酒店品牌焕新:以客户为中心诠释中国待客之道
当前,中国旅游市场正经历从高速增长向高质量发展的深刻转型。随着"体验经济"时代的全面到来,消费者的需求已超越简单的住宿与观光
2025-12-23 08:56:00
RGB-Mini LED、激光电视双料加冕,海信电视斩获音视频领域最高奖项
12月19日,中国电子视像行业协会在北京隆重举办了第二十一届中国音视频产业大会。会上对音视频产业取得的重大创新科技成果进行表彰
2025-12-23 08:56:00