• 我的订阅
  • 科技

chatgpt低成本复现流程来了

类别:科技 发布时间:2023-02-17 14:37:00 来源:浅语科技

首个开源的ChatGPT低成本复现流程来了!

预训练、奖励模型训练、强化学习训练,一次性打通。

最小demo训练流程仅需 1.62GB 显存,随便一张消费级显卡都能满足了。单卡模型容量最多提升 10.3倍。

相比原生PyTorch,单机训练速度最高可提升 7.73倍,单卡推理速度提升1.42倍,仅需一行代码即可调用。

对于微调任务,可最多提升单卡的微调模型容量 3.7倍,同时保持高速运行,同样仅需一行代码。

chatgpt低成本复现流程来了

要知道,ChatGPT火是真的火,复现也是真的难。

毕竟ChatGPT是不开源的,市面上至今没有开源预训练权重、完全开源的低成本训练流程,而且千亿级别大模型的训练本身就是个难题。

但ChatGPT军备赛已经愈演愈烈,为了抓住趋势,如谷歌等都在打造对标竞品。快速复现ChatGPT是应趋势所需。

开源加速方案 Colossal-AI 正是为此而来。

并且在提供开源完整复现流程的同时,把成本降了下来!

开源地址:https://github.com/ hpcaitech/ColossalAI降显存开销是关键

ChatGPT的效果好,主要是由于在训练过程中引入了人类反馈强化学习(RLHF),但这也直接导致ChatGPT的复现训练难度飙升。

其训练流程主要分为三个阶段:

1、监督微调:从Prompt库中采样,收集其人工回答,利用这些数据来微调预训练大语言模型;

2、奖励模型:从Prompt库中采样,使用大语言模型生成多个回答,人工对这些回答进行排序后,训练奖励模型(RM),来拟合人类的价值判断。

3、基于第一阶段的监督微调模型和第二阶段的奖励模型,利用强化学习算法对大语言模型进一步训练。

△RLHF的三个阶段

对于ChatGPT训练而言,第三阶段是核心部分。

OpenAI采用了强化学习中近端策略优化算法(PPO),借此引入奖励信号,使得语言模型生成内容更加符合人类评判标准。

但强化学习的引入,也意味着更多模型调用。

例如,使用基于Actor-Critic(AC)结构的PPO算法,需要在训练时进行Actor、Critic两个模型的前向推理和反向传播,以及监督微调模型、奖励模型的多次前向推理。

在ChatGPT基础的InstructGPT论文中,Actor和监督微调模型都使用了 1750亿参数的GPT-3系列模型,Critic和奖励模型则使用了 60亿参数的GPT-3系列模型。

如此大规模的模型参数,意味着想要启动原始ChatGPT训练流程,需要数千GB的显存开销,单张GPU显然无法容纳,常见的数据并行技术也不能搞定。

即便引入张量并行、流水并行对参数进行划分,也需要至少64张80GB的A100作为硬件基础。而且流水并行本身并不适合AIGC的生成式任务,bubble和调度复杂会导致效率受限。单张消费级显卡都能体验

Colossal-AI基于ZeRO,Gemini,LoRA,Chunk-based内存管理等方法,提出了一系列单卡、单机多卡、大规模并行解决方案。

对于基于GPT-3系列模型的ChatGPT,Colossal-AI能用原本一半的硬件资源启动1750亿参数模型训练,从64卡降低到32卡。

如果继续用64卡,则将训练时间压缩到更短,节省训练成本、加速产品迭代。

而为了能让更大范围的开发者体验复现ChatGPT,除了1750亿参数版本外,Colossal-AI还提供单卡、单机4/8卡的类ChatGPT版本,以降低硬件限制。

chatgpt低成本复现流程来了

要知道,在单机多卡服务器上,即便把显卡规格提升为A10080GB,由于ChatGPT的复杂性和内存碎片,PyTorch最大也只能启动基于GPT-L(774M)这样的小模型ChatGPT。

用PyTorch原生的DistributedDataParallel(DDP)进行多卡并行扩展至4卡或8卡,性能提升有限。

Colossal-AI最高可提升单机训练速度7.73倍,单卡推理速度1.42倍,还可继续扩大规模并行。

chatgpt低成本复现流程来了

为了尽可能降低训练成本和上手门槛,Colossal-AI还提供了在单张GPU 上即可尝试的ChatGPT训练流程。

相比于PyTorch在约10万元的A10080GB上,最大仅能启动7.8亿参数模型,Colossal-AI将单卡容量提升10.3倍至80亿参数。

对于基于1.2亿参数小模型的ChatGPT训练,最低仅需1.62GB显存,任意单张消费级GPU 即可满足。

chatgpt低成本复现流程来了

此外,Colossal-AI也致力于降低基于预训练大模型的微调任务成本。以ChatGPT可选的开源基础模型OPT为例,相比PyTorch,Colossal-AI可将提升单卡微调模型容量 3.7倍(原始计算量显著增大),同时保持高速运行。一行代码快速上手

到了具体操作部分,如上复现流程中的多个步骤,基于Colossal-AI开源方案,都能实现一行代码快速上手。

先看模型使用方面。

尽管ChatGPT背后的大语言模型GPT-3.5不开源,但如GPT、OPT、BLOOM等主流开源模型可作为替代。

Colossal-AI为HuggingFace社区的这些模型,提供了开箱即用的ChatGPT复现代码,可覆盖三个阶段的训练。

以GPT为例,添加一行代码指定使用Colossal-AI作为系统策略即可快速使用。from chatgpt.nn import GPTActor, GPTCritic, RewardModelfrom chatgpt.trainer import PPOTrainerfrom chatgpt.trainer.strategies import ColossalAIStrategywith strategy.model_init_context(): actor = GPTActor().cuda() critic = GPTCritic().cuda() initial_model = deepcopy(actor).cuda() reward_model = RewardModel(deepcopy(critic.model)).cuda()trainer = PPOTrainer(strategy, actor, critic, reward_model, initial_model, ...)trainer.fit(prompts)

使用下列命令,即可快速启动单卡、单机多卡、1750亿版本训练,并测试各种性能指标(包括最大显存占用、吞吐率和TFLOPS等):# 使用单机单卡训练GPT2-S,使用最小的batch size,Colossal-AI Gemini CPU策略torchrun --standalone --nproc_pero_node 1 benchmark_gpt_dummy.py --model s --strategy colossalai_gemini_cpu --experience_batch_size 1 --train_batch_size 1# 使用单机4卡训练GPT2-XL,使用Colossal-AI Zero2策略torchrun --standalone --nproc_per_node 4 benchmark_gpt_dummy.py --model xl --strategy colossalai_zero2# 使用4机32卡训练GPT-3,使用Colossal-AI Gemini CPU策略torchrun --nnodes 4 --nproc_per_node 8 \ --rdzv_id=$JOB_ID --rdzv_backend=c10d --rdzv_endpoint=$HOST_NODE_ADDR \ benchmark_gpt_dummy.py --model 175b --strategy colossalai_gemini_cpu --experience_batch_

背后原理如何?

核心方案还是Colossal-AI。

它从诞生起就面向大模型应用,可基于PyTorch高效快速部署AI大模型训练和推理,是这一领域的明星项目了,GitHubStar超八千颗,并成功入选SC、AAAI、PPoPP、CVPR等国际AI与HPC顶级会议的官方教程。

目前,Colossal-AI已成功帮助一家世界五百强企业,开发具备在线搜索引擎能力增强的类ChatGPT聊天机器人模型。

此前,它们还为StableDiffusion、OPT、AlphaFold等前沿模型,提供了多样高效的大规模多维并行分布式解决方案。

主创人员为加州伯克利大学杰出教授JamesDemmel和新加坡国立大学校长青年教授尤洋。

chatgpt低成本复现流程来了

Colossal-AI与当今主要开源项目同期开源数据对比

具体到细节原理上,LoRA、ZeRO+Gemini是关键。低成本微调的LoRA

在微调部分,Colossal-AI支持使用低秩矩阵微调(LoRA)方法。

LoRA方法认为大语言模型是过参数化的,其在微调中的参数改变量是一个低秩的矩阵,可以将其分解为两个更小的的矩阵的乘积,即

chatgpt低成本复现流程来了

在微调时,固定大模型参数,只调整低秩矩阵参数,从而显著减小训练参数量。在微调之后,进行推理部署之前,只需要将参数加回原有矩阵即可,即

chatgpt低成本复现流程来了

,不增加模型的推理延迟。

chatgpt低成本复现流程来了

LoRA示意图,仅需训练A、B减少内存冗余的ZeRO+Gemini

Colossal-AI支持使用无冗余优化器(ZeRO)来优化内存使用,这种方法可以有效减少内存冗余,并且相比传统的数据并行策略,不会牺牲计算粒度和通信效率,同时可以大幅提高内存使用效率。

为了进一步提升ZeRO的性能,Colossal-AI引入了自动Chunk机制。

通过将运算顺序上连续的一组参数存入同一个Chunk中(Chunk是一段连续的内存空间),可以确保每个Chunk的大小相同,从而提高内存使用效率。

使用Chunk方式组织内存可以保证PCI-e和GPU-GPU之间的网络带宽得到有效利用,减小通信次数,同时避免潜在的内存碎片。

chatgpt低成本复现流程来了

Chunk机制

此外,Colossal-AI的异构内存空间管理器Gemini支持将优化器状态从GPU卸载到CPU,以节省GPU内存占用。

可以同时利用GPU内存、CPU内存(由CPUDRAM或NVMeSSD内存组成)来突破单GPU内存墙的限制,进一步扩展了可训练模型规模。

chatgpt低成本复现流程来了

通过ZeRO+Gemini提升硬件的模型容量OneMoreThing

尽管此次开源包含了复现ChatGPT的完整算法流程和必要软件系统,但想要走到实际应用落地,还至少需要数据、算力等方面的支持。

参考开源大模型BLOOM、开源AI画画工具StableDiffusion的经验,这背后都需要包括个人开发者、算力、数据模型等可能合作方的支持共建——

此前,超过1000个科学家联合发起、耗时一年多炼出了号称和GPT-3一样强大的语言模型BLOOM。还有AI画画趋势的头号明星StableDiffusion,也是由StabilityAI、EleutherAI和LAION多方联合完成的。

复现ChatGPT也是如此,Colossal-AI正在发起这一开发活动。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-02-17 15:45:14

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

chatgpt低成本复现流程开源
首个开源的ChatGPT低成本复现流程来了!预训练、奖励模型训练、强化学习训练,一次性打通。最小demo训练流程仅需1
2023-02-15 15:47:00
腾讯发布最大开源MoE模型,3890亿参数免费可商用
...质量合成数据混元团队开发了一套完整的高质量数据合成流程,主要包括四个步骤:指令生成、指令进化、回答生成和回答过滤。在指令生成阶段,混元团队使用高质量的数据源作为种子,覆盖多个
2024-11-07 09:54:00
Meta祭出三篇最详尽Llama微调指南!千字长文,0基础小白必备
...模型能力、训练成本、推理成本、数据集类型等。下面的流程图总结了一些建议,可以帮助你选择合适的LLM适配方法。❌ 预训练预训练是LLM训练的重要组成部分,它使用token预测变
2024-08-27 12:03:00
GPT-4被破解 训练成本 模型架构的秘密都被挖出来了?
...关于GPT-4的技术信息,包括GPT-4的架构、参数数量、训练成本、训练数据集等。本篇涉及的GPT-4数据是由他们收集
2023-07-12 20:14:00
大模型新趋势之MoE:现状、挑战及研究方向
...数量超过近三年总和。MoE大模型架构凭借平衡大模型训推成本和计算效率等优势,更适合处理大规模数据和复杂任务,已成谷歌、OpenAI、阿里、腾讯等企业控制成本、提升模型性能、应
2024-11-04 16:00:00
大模型观察|从训练到落地金融业,大模型“升级之路”面临哪些挑战?
...研大模型LexinGPT目前已经在电销、客服、催收等主要业务流程中全面落地。以电销场景为例,应用AI大模型后,当日授信转化率相对外采技术提高70%、当日下单转化率提升10%;
2024-01-29 21:36:00
微调大模型,AMD MI300X就够了!跟着这篇博客微调Llama 3.1 405B
...是其中的一家创业公司,致力于简化 AI 训练集群的搭建流程。Nikhil Sonti 和 Nikhin Sonti 创立了 Felafax
2024-10-09 09:52:00
第一个100%开源的MoE大模型,7B的参数,1B的推理成本
...种任务上取得了重大进展,但在训练和推理方面,性能和成本之间仍然需要权衡。对于许多学者和开发人员来说,高性能的 LM 是无法访问的,因为它们的构建和部署成本过高。改善成本 -
2024-09-06 10:01:00
36氪首发|打造分布式AI开发和部署平台,「潞晨科技」完成数亿元A轮融资
...层大模型的成熟,但训练大模型需要的算力、网络、数据成本非寻常公司能承受。而本文主角潞晨科技,希望为这一难题提供解法。潞晨科技成立于2021年,主要业务是通过打造分布式AI开发
2023-05-22 09:14:00
更多关于科技的资讯:
鲁网10月24日讯2025年国庆、中秋双节期间,八天的“超长黄金周”不仅点燃了积攒已久的消费热情,更成为银行业激活内需
2025-10-24 10:11:00
随着 2025 年中国 GEO(生成式引擎优化)服务市场规模突破 217.3 亿元,企业对 AI 流量获取的需求愈发多元
2025-10-24 10:43:00
“缦”享生活:东箭科技旗下MANTA品牌发布会圆满开启
10月22日,汽车后市场领军企业广东东箭科技股份有限公司(以下简称“东箭科技”)旗下子公司四川缦塔汽车科技有限公司(简称“MANTA”)品牌发布会在中国·成都·花舞人间启幕
2025-10-24 10:46:00
在数字化转型加速推进的当下,企业知识管理已成为提升核心竞争力的关键环节。据Gartner《2025年企业AI应用趋势报告》显示
2025-10-24 10:48:00
夸克AI眼镜开售,88VIP叠加9折消费券,最低3329元
10月24日零点,阿里巴巴首款自研的夸克AI眼镜在其天猫官方店铺——夸克智能设备旗舰店上正式首发。天猫平台的实时成交竞速榜单显示
2025-10-24 10:49:00
中国网10月24日讯 据“国家安全部”微信公众号24日消息,当前,数字化浪潮席卷全球,电子零售新业态蓬勃发展,只需使用手机线上选物下单
2025-10-24 09:48:00
鲁网10月23日讯近日,工商银行泰安分行依托成熟的线上金融生态与智能风控体系,连续为山东勋光有限公司、岫岩满族自治县炽阳新能源有限公司(辽宁鞍山)及鞍山市创泽新能源有限公司(辽宁鞍山)成功上线光伏电费线上代扣服务
2025-10-24 09:30:00
溧水制造业再添一员“大将”年产两万台,易咖智车智能工厂投产南报网讯(记者胡英华通讯员陶燕燕谢一凡)自动导引车(AGV)“唱着歌”送材料
2025-10-24 07:47:00
中新经纬10月23日电 题:“山姆们”为何加速布局下沉市场?作者 江瀚 盘古智库高级研究员近日,以盒马、山姆为代表的新零售企业加速向全国下沉市场布局
2025-10-23 14:10:00
让残片活成文明的密码:专访90后文物活化创业者苗毅斐
2025 年上半年,文物拍卖市场迎来全面复苏,头部拍卖行交出亮眼成绩单,佳士得亚洲春季拍卖斩获 22 亿港元,苏富比亚洲中国艺术品专场亦录得 7
2025-10-23 14:18:00
西瓜学员科创赛事创佳绩,勇夺全球发明大会公益主题奖
2025 年 7 月 26 日至 28 日,全球发明大会中国区(ICC)全国总决赛在河南郑州国际会展中心落下帷幕。作为教育部严格筛选出的 “白名单” 竞赛
2025-10-23 14:18:00
深夜的福州南站,本应是灯火渐暗、人潮散去的时刻。然而在10月20日凌晨,这里却灯火通明、人声鼎沸——中国铁路南昌局集团有限公司首次推出的“歌迷专列”正整装待发
2025-10-23 15:29:00
万达电影亮相版博会,授权+原创双管齐下诠释“版权正当潮”
2025年10月16日,第十届中国国际版权博览会在青岛国际会展中心(崂山馆)正式开幕,万达电影作为参展商亮相北京展区。万达电影以“版权正当潮”为题
2025-10-23 16:08:00
拼多多给员工发黄金,10年老员工直接领100克金子? 网友:还得是真金白银实在!
2025年是拼多多成立10周年,日前,有拼多多员工在社交平台上晒出了拼多多给员工赠送的“周年礼”。据拼多多员工晒出的“周年礼”
2025-10-23 17:15:00
鲁网10月23日讯(记者 于胜涛)如今走进青岛市即墨区第二人民医院,会发现曾经缴费窗口排起的长队变短了,窗口前的焦灼面容也减少了
2025-10-23 17:19:00