• 我的订阅
  • 科技

3天把Llama训成Mamba,性能不降,推理更快!

类别:科技 发布时间:2024-09-06 10:01:00 来源:新智元

3天把Llama训成Mamba,性能不降,推理更快!

【新智元导读】近日,Mamba方面又搞出了有意思的研究:来自康奈尔、普林斯顿等机构的研究人员成功将Llama提炼成了Mamba模型,并且设计了新的推测解码算法,加速了模型的推理。

先来看一张其乐融融的图片(一眼AI):

3天把Llama训成Mamba,性能不降,推理更快!

右边的小羊驼代表Llama,而左边的蛇(Mamba)也是我们的老熟人了。

至于到底能不能其乐融融,咱就不管了,之所以有此场景,是因为Mamba方面又搞出了有意思的研究:

——如何把Llama变成Mamba?

3天把Llama训成Mamba,性能不降,推理更快!

论文地址:https://arxiv.org/pdf/2408.15237

代码地址:https://github.com/jxiw/MambaInLlama

近日,来自康奈尔、普林斯顿等机构的研究人员推出了上面这篇工作,将Llama这样的大型Transformer提炼成了Mamba模型,

并且成功在Mamba架构上应用了带有硬件感知的推测解码算法,提高了整个模型的推理速度。

为什么要把Llama变成Mamba?

因为从头开始训练一个大模型太贵了。

Mamba也火了这么长时间了,相关的研究每天都有,但自己训练大尺寸Mamba模型的却很少。

目前比较有名的是AI21的Jamba(进化到了1.5版本,最大398B,MoE),以及NVIDIA的Hybrid Mamba2模型(8B)。

3天把Llama训成Mamba,性能不降,推理更快!

不过世界上有那么多成功的Transformer大模型,而知识就包含在这些模型参数里。

如果能够锁住知识,同时把Transformer微调成Mamba,不就解决问题了?

3天把Llama训成Mamba,性能不降,推理更快!

在本文中,研究人员结合渐进式蒸馏、监督微调(SFT)和定向偏好优化(DPO)等方法达成了这一目标。

光是变大还不够,

在性能匹配Transformer的前提下,速度也要够快才行。

Mamba凭借固定的推理开销,在长序列中的优势明显,但Transformer这边也是有推理加速方案的,比如推测解码。

而由于Mamba本身的结构特性,不能直接应用这种方案,所以作者设计了全新的算法,并结合硬件的性质来实现基于Mamba的推测解码。

3天把Llama训成Mamba,性能不降,推理更快!

最终,研究人员将Zephyr-7B、Llama-3 8B提炼为了线性RNN模型(混合Mamba和Mamba2),且性能与蒸馏之前的标准模型相当。

3天把Llama训成Mamba,性能不降,推理更快!

整个训练过程只使用了20B的token,效果却能够与使用1.2T个token从头开始训练的Mamba 7B模型,以及使用3.5T个token训练的NVIDIA Hybrid Mamba2模型相媲美。

3天把Llama训成Mamba,性能不降,推理更快!

从 Transformer 到 Mamba

在介绍Mamba 2的时候我们讲过,线性RNN(或SSM)跟线性注意力是一回事。

所以可以根据x,B,C与V,K,Q的对应关系直接复用注意力中的投影矩阵。

3天把Llama训成Mamba,性能不降,推理更快!

额外的参数包括SSM需要的A矩阵和Δt(由x投影得到),这就完成了基本的参数初始化。

之后就是SSM的运算过程,再通过投影和累加得到输出。

模型架构和训练

下图给出了模型的架构,因为Transformer的知识存在于MLP层,所以冻结这部分参数。

除了用线性RNN层(Mamba)替换掉注意力头,还有一些组件需要处理,比如跨头共享键和值的分组查询注意力(GQA)。

3天把Llama训成Mamba,性能不降,推理更快!

知识蒸馏(Knowledge distillation,KD)是一种常用的压缩技术,用来训练模仿较大模型(teacher)行为的较小网络(student)。

3天把Llama训成Mamba,性能不降,推理更快!

根据经验,这里采用逐步替换Attention层的策略,先是每2层进行蒸馏,然后每4层继续蒸馏......

监督微调

有两种常见的蒸馏方法。一种方法是使用word-level的KL散度,此时训练student模型去匹配teacher模型输出的完整概率分布。

第二种方法是序列级知识蒸馏(SeqKD),直接使用teacher模型的输出作为ground truth来训练student模型(也称为伪标签)。

3天把Llama训成Mamba,性能不降,推理更快!

这里θ是student模型的可训练参数,α和β分别控制序列和词的loss项的权重。

偏好优化

LLM指令调优的第二阶段是使其符合用户偏好。这个阶段,使用一组期望的偏好对来改进模型的输出。

优化的目标是使奖励模型最大化,同时保持产生的输出接近参考模型。

通常,参考模型使用上一步监督微调后的模型。这里因为是蒸馏,直接可以用teacher模型:

偏好模型的奖励函数定义取决于所使用的方法,本文采用直接偏好优化(DPO),通过直接梯度更新有效地到达优化目标。

3天把Llama训成Mamba,性能不降,推理更快!

DPO表明,对于给定的提示x ,如果我们能够获得preferred和dispreferred两种输出,就可以将这个优化问题重新表述为:

3天把Llama训成Mamba,性能不降,推理更快!

这种优化可以在序列级别上执行,让teacher模型和student模型一起对preferred和dispreferred输出进行评分,然后反向传播给student模型。

推测解码

经过上面的一套小连招,模型转换就搞定了,下面开始想办法应用Transformer那边的推测解码。

推测解码(Speculative Decoding)可以简单理解为下面这张图。

3天把Llama训成Mamba,性能不降,推理更快!

Transformer做推理的时候,除了要处理不断变长的KV cache之外,计算效率也是个问题。

因为显卡的设计是计算高于访存的,具体到计算单元就是做矩阵乘法。

而推理的时候每次只能进入一个词向量,显卡的很多计算就被浪费了。

3天把Llama训成Mamba,性能不降,推理更快!

推测解码给出的解决方案是,使用一个小模型做生成,然后拿显卡多余的计算做验证。

小模型跑得快,可以一口气生成很多输出向量,但是可能效果差一点。这时候用大模型作为验证,一次计算之前生成的很多个向量。

所以小模型串行跑得快,大模型可以并行计算跑得也快,遇到验证不通过的就直接回滚,整体上提高了推理的速度。

3天把Llama训成Mamba,性能不降,推理更快!

Transformer可以方便地回滚,因为KV cache跟时间是一一对应的,但Mamba这边只有一个当前的中间状态ht,你总不能把所有中间状态都存起来吧。

为了解决这个问题,研究人员设计了下面的算法:

3天把Llama训成Mamba,性能不降,推理更快!

简单来说就是每次使用小模型(draft model)生成一组输出,然后大模型(verification model)验证这一组输出,根据验证匹配的位置来更新需要保存的中间状态。

我们可以从下面的伪代码了解详细的过程:

3天把Llama训成Mamba,性能不降,推理更快!

每次生成K个草稿输出,验证模型通过MultiStep函数返回K个真正的输出,以及上一次校验成功位置的cache(中间状态hj)和本次最后位置的cache(hk)。

3天把Llama训成Mamba,性能不降,推理更快!

Multi-Step内核的性能特征

通过FirstConflict函数找到最后匹配(校验成功)的位置,如果所有都匹配,则cache可以更新到最后的hk,否则就只更新到上一次的hj。

兵马后动,粮草先行,不耽误输出和校验,同时只需要多存储一个中间状态。

当然,如果草稿模型也用Mamba的话,算法的推测部分会变得复杂一些,因为草稿模型需要重新计算上一次迭代中验证成功位置的状态。

硬件特定优化

下面使用Mamba 7B和 Mamba 2.8B作为目标模型进行推测实验。

最初,作者搞了一版简单的算法实现,结果在Ampere架构的GPU(3090)上面效果显著,Mamba 2.8B获得了1.5倍的推理加速, 同时有60%的接受率。

但是这种实现方式在H100 GPU上不太好使,主要是因为GEMM操作的速度更快了,使得缓存和重新计算产生的开销更加明显。

3天把Llama训成Mamba,性能不降,推理更快!

所以,作者通过融合内核以及调整实现方式来优化算法。

对于验证模型,首先从缓存中重新计算之前的步骤,然后对新的草稿token序列进行多步解码,最后在单个内核中进行缓存。

对于草稿模型,重新计算、解码和缓存也融合在单个内核中。最终实现了上表中的加速效果。

实验

研究人员使用两个LLM聊天模型进行实验:Zephyr-7B和Llama-3 Instruct 8B。

采用三阶段蒸馏。在第一阶段,使用UltraChat和UltraFeedback作为种子提示,并使用teacher模型生成伪标签。

使用AdamW优化器训练模型,β=(0.9,0.98) ,批量大小64。先使用线性学习率预热,然后进行余弦退火。

第二阶段,在一个epoch中使用SFT在GenQA、InfinityInstruct和OpenHermes 2.5数据集上对模型进行监督微调,采用与Zephyr相同的超参数。

最后一个阶段,对于从Zephyr中提取的模型,在UltraFeedback数据集上使用DPO与标准模型进行蒸馏对齐。

过程中只在第一阶段冻结MLP层,后两个阶段所有参数都进行训练。

作者表示,通常只需要在8卡80G A100上运行3到4天,即可重现本文的结果。

3天把Llama训成Mamba,性能不降,推理更快!

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-09-06 11:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

鄂维南院士领衔新作:大模型不止有RAG、参数存储,还有第3种记忆
...凡的性能而获得了前所未有的关注。然而, LLM 的训练和推理成本高昂,人们一直在尝试通过各种优化方法来降低成本。本文来自上海算法创新研究院、北京大学等机构的研究者受人类大脑记
2024-07-11 09:33:00
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!
...元导读】史上最快Transformer芯片诞生了!用Sohu跑Llama 70B,推理性能已超B200十倍,超H100二十倍
2024-06-27 09:25:00
Meta祭出三篇最详尽Llama微调指南!千字长文,0基础小白必备
...类型的信息:- 仅输入和输出文本,也就是少样本学习- 推理追踪:添加中间推理步骤,可参阅思维链(COT)提示- 计划和反思追踪:添加信息,教LLM计划和反思其解决问题的策略,
2024-08-27 12:03:00
真香!智谱大模型,有了首个免费的API
...同时,GLM-4 支持了更长的上下文、更强的多模态、更快的推理速度,以及更多并发请求,大大降低了推理成本。在此基础上发展出的 GLM-4-Flash
2024-08-28 09:43:00
亚马逊连甩6款大模型!推出3nm AI训练芯片,最强AI服务器算力爆表
...比,苹果已用Amazon Graviton、Inferentia等AWS芯片在机器学习推理工作负载方面实现了40%以上的效率提升
2024-12-05 09:47:00
补齐Transformer规划短板又不放弃快速思考,Dualformer双重优势
...些解答或慢点思考。OpenAI ο1 模型的发布掀起了人们对 AI 推理过程的关注,甚至让现在的 AI 行业开始放弃卷越来越大的模型
2024-10-17 09:47:00
PyTorch官宣:告别CUDA,GPU推理迎来Triton加速新时代
...PyTorch官宣,借助OpenAI开发的Triton语言编写内核来加速LLM推理,可以实现和CUDA类似甚至更佳的性能
2024-09-07 09:48:00
大模型步入推理Scaling时代,SambaNova如何挑战英伟达的霸主地位
...震。o1 能像人类一样「思考」复杂问题,拥有优秀的通用推理能力。在未经专门训练的情况下,o1 能够直接拿下数学奥赛金牌,甚至能在博士级别的科学问答环节上超越人类专家。在性能跃
2024-10-21 09:55:00
北大推出全新机器人多模态大模型!面向通用和机器人场景的高效推理和操作
...码仓库 Trending Research 第一位。为了赋予机器人端到端的推理和操纵能力,本文创新性地将视觉编码器与高效的状态空间语言模型集成
2024-06-21 09:52:00
更多关于科技的资讯:
2025服贸会丨走进贵州展区 一睹服贸“新”风采
2025年中国国际服务贸易交易会(简称“服贸会”)于9月10日至14日在北京首钢园区举办。其间,贵州将以“开放贵州,创新服贸”为主题设立展区
2025-09-11 03:24:00
烟台高新区多家企业入围第十届“创客中国”时空信息大赛决赛
胶东在线9月9日讯(通讯员 郭健)近日,由工业和信息化部网络安全产业发展中心(工业和信息化部信息中心)、北京市经济和信息化局联合主办
2025-09-11 03:03:00
8月28日,秦皇岛市海港区阿尔勃特空间智能(河北)视觉技术有限公司展示区,公司副总经理朱晓明用语音进行操作,要求机器人“鲁班1号”打好对应工位的螺丝
2025-09-10 08:27:00
第六届中国人工智能大赛在厦启动 描绘“数实融合”新图景
扫码了解详情厦门网讯(厦门日报全媒体记者 翁华鸿)在生成式人工智能持续迭代演进、与实体经济深度融合的背景下,一场高规格的人工智能盛会再度在厦门启航
2025-09-10 08:27:00
上海人工智能实验室主任、首席科学家周伯文:“人工智能+供应链”创新成果将在厦涌现
周伯文。(厦门日报全媒体记者 王火炎 摄)厦门正在全力推进国家人工智能应用中试基地建设,一批“人工智能+供应链”的创新成果有望在此加速涌现
2025-09-10 08:58:00
随着中报陆续披露,在今年国内医疗器械行业普遍承压的大环境下,鱼跃医疗交出了一份营收、净利双增的亮眼答卷,其中海外业务同比增长26
2025-09-10 09:17:00
上海时尚之都的形象深入人心,时装之外,上海还是一座美妆之城。今年8月,胡润研究院发布《2025 CBE·胡润中国彩妆品牌TOP50》报告
2025-09-10 10:55:00
当消费市场从规模竞赛转向价值深耕时,一场以民生需求为罗盘的产业变革正加速演进。国家统计局日前发布的数据显示,今年1—7月
2025-09-10 10:55:00
青岛锐智智能装备科技股份有限公司:科技创新引领高质量发展
鲁网9月10日讯(记者 葛万彩)在国际国内市场竞争异常激烈的形势下,青岛锐智智能装备科技股份有限公司靠科技人员自主研发
2025-09-10 11:20:00
AirPods Pro 3 登场了!耳机支持测心率,实时翻译功能国行暂不支持
在今日凌晨举行的“前方超燃”苹果发布会上,AirPods Pro 3正式亮相。这款耳机不仅延续了苹果经典的简约设计和出色音质
2025-09-10 11:24:00
重大变革!iPhone17将仅支持eSIM,不再配备实体卡槽,苹果官网默默下架iPhone16pro
9月10日,在凌晨举行的苹果2025秋季新品发布会上,苹果宣布,“史上最薄”iPhone Air 将在全球范围内统一采用仅支持eSIM的设计
2025-09-10 11:24:00
大众网记者 徐浩 通讯员 李琛 潍坊报道近年来,随着大数据、云计算、人工智能等技术的快速发展,保险行业数字化转型步伐持续加快
2025-09-10 11:49:00
高端成效凸显!深圳首家卡萨帝体验中心开业,套购占比超6成
下半年以来,伴随卡萨帝高端化战略布局的持续深化,全国城市体验中心加速落地,战略成效进一步凸显。8月31日,位于深圳市福田区的深圳首家卡萨帝城市体验中心正式开业
2025-09-10 14:14:00
加加酱油七年减盐路引领行业革新,净利润跃升129%书写转型典范
今日,记者从宁乡市获悉,当中国调味品行业仍在价格战的泥潭中挣扎时,加加食品(002650.SZ)用一份亮眼的半年报,为行业开辟出一条价值增长的新路径
2025-09-10 14:16:00
“佳直播”携手爱奇艺打造明星感4K超高清直播间,助力内容电商激活商业价值
2024年,我国直播电商市场规模已达5.8万亿元,用户规模突破5.97亿,业态早已从实物商品销售扩展至本地生活服务、虚拟内容付费等多元领域
2025-09-10 14:17:00