• 我的订阅
  • 科技

当大模型Scaling Law继续,万卡集群算力释放在百舸找到一条通途

类别:科技 发布时间:2024-09-26 13:37:00 来源:机器之心Pro

在电影《天下无贼》中,葛优扮演的黎叔有这样一句经典的台词,「二十一世纪什么最贵?人才!」而随着人工智能行业进入到大模型时代,这一问题的答案已然变成了「算力」。

随着模型规模急剧扩张,参数已经飙升到了千亿甚至万亿级,业界开启了千模大战,AI 算力需求不可避免迎来爆炸式增长,无论是前期训练还是后期推理,都是如此。

在训练层面,OpenAI 曾在 2018 年做过估算,自 2012 年以来,AI 模型训练算力需求每 3.5 个月翻一番,每年所需算力增幅高达 10 倍,增速远远超出了芯片产业长期存在的摩尔定律(性能每 18 个月翻一番)。同时随着大模型及应用越来越多地部署到企业实际业务场景中,推理算力需求也水涨船高。

因此,指数级增长的算力需求对 GPU 等硬件提出了更高要求,大规模 GPU 算力集群成为必然选择。这也是为什么近年来国内外科技厂商纷纷布局 AI 算力基础设施,死磕万卡甚至 10 万卡集群。此外,大规模算力集群也越来越凸显训推一体的重要性,寻求在同一个集群中无缝切换大模型的训练和推理,简化用户部署流程。

虽然 GPU 集群可以满足大模型时代的算力需求,但面临的挑战也不少,比如多类型芯片混合训练、数据中心电力消耗、网络通信和负载、单卡算力效率、多卡并行计算、设施稳定性等。加之当前集群算力利用率不高且成本高昂,这些都要求厂商在集群系统、框架和算法层面进行技术突破。

国内一些厂商已经在面向万卡集群的 AI 基础设施方面积累了丰富的经验,并催生了覆盖广泛的「多芯混合训练时代」。我们以百度为例,其基于文心大模型训练的经验沉淀,推出了 AI 异构计算平台「百舸」,打造业界领先的多芯混合训练 AI 集群,并正在帮助客户更快、更稳、更省地落地大模型应用。

从 2021 年的 1.0 版本到去年的 3.0 版本,我们发现,连续三年,百舸围绕系统性提升 GPU 集群的整体算力利用率不断深入优化。在今日举办的 2024 百度云智大会上,再度升级的百舸 4.0 带给了客户更多惊喜,也给同行们带来了一点小小的震撼。

当大模型Scaling Law继续,万卡集群算力释放在百舸找到一条通途

算力浪费降至 1/10

万卡集群下的大模型训推更快、更省

对于国内云厂商来说,面对 AI 大模型时代的巨量算力需求,归根到底要解决好两个核心诉求:一是如何在算力资源供应短缺的大环境下扩大算力来源,二是如何在大模型产生的高昂计算成本压力下极致高效地利用算力。从已有进展来看,百舸 AI 异构计算平台做到了「两手抓、两手都要硬」。

在去年 12 月的 2023 百度云智大会・智算大会上,百舸 3.0 已经展现了业界领先的万卡集群算力释放能力,集群有效训练时长达到了 98%、网络带宽有效利用率达到了 95%。如今,9 个多月过去了,百舸 4.0「百尺竿头更进一步」,在一些集群算力指标上又有所提升。

此次,百舸 4.0 在整体架构上相较 3.0 版本有了略微调整,从底层硬件往上依次分为资源层、组件层、大模型加速层和工具层。四层架构,各司其职,针对大模型的训推、部署和调优等全流程进一步优化。

具体来讲,资源层提供了包括异构芯片、高速互联、高效存储等在内的算力资源,组件层主要解决大规模集群的稳定性和性能问题,大模型加速层专为大模型训推提速而设计,工具层则通过一套管理界面提供了更便捷的操作体验。

当大模型Scaling Law继续,万卡集群算力释放在百舸找到一条通途

百度集团执行副总裁、百度智能云事业群总裁沈抖

依托四层架构,百舸 4.0 对集群算力调用的各个环节做到了精准把控,并具备了「多、快、稳、省」四大特性,形成了其作为 AI 异构计算平台的核心竞争力。

首先是多芯异构。我们观察到,一云多芯已经成为算力集群的主流选择,既可以屏蔽硬件之间的差异,利用弹性更强的供应链体系摆脱对单一芯片的依赖;又能够根据用户特定业务场景灵活调配算力资源并提高利用率。

百舸 4.0 构建了 GPU 和多类型 AI 芯片组成的单一智算集群,兼容了昆仑芯、昇腾、海光 DCU、英伟达、英特尔等国内外主流 AI 芯片的混合训练,并全面适配。同时通过「控制台」轻松一键发起,易用性很高。百舸 4.0 还通过大模型训推加速套件 AIAK 支持了更多使用场景、多种模型架构和主流训推方式,全能属性拉满。

当然,对于不同规模的多芯混合训练任务,百舸 4.0 将性能损失拉到业界最低,其中百卡性能损失控制在 3%,万卡性能损失在 5% 以内。

如果说多芯混训是走出算力卡脖子的关键一步,那么接下来就要集中精力考虑如何围绕集群部署、大模型训推和效果调优来更充分地释放万卡集群的算力潜能。

现在,百舸 4.0 帮助客户省去了大量复杂和琐碎的配置和调试工作,最快 1 小时便能创建万卡规模集群,这要比行业通常需要的数天甚至数周快得多。

然后便又是 AIAK 发挥了用武之地,针对主流开源大模型在并行策略、显存、算力等层面进行了深度优化,为万卡集群下的大模型训推加速注入新的驱动力。

一方面,百舸 4.0 在大模型加速层全新升级了 AIAK 训练加速,万卡集群下支持万亿参数 MoE 模型训练。不仅如此,单个芯片的效能也发挥到了极致,配合使用优化后的通信和并行策略,整体训练效率提升了 30%。这些都预示着集群实力的大增。

另一方面,百舸 4.0 同样升级了 AIAK 推理加速,尤其在速度和成本两个客户最关心的方面加码,效果较以往版本有了质的提升。对于长文本推理任务,模型如今可以做到「极速生成」与「秒回」,效率提升了一倍。同时,投机式推理策略的引入可以先让成本低的小模型生成多个预选结果,然后交给成本高的大模型验证并给出最终结果,从而调动更多便宜的小模型来承担计算负担,由此降低了成本。

当然实际运行中需要面对数据清洗、生成、格式对齐等重复性工作,百舸 4.0 具备的数据工程能力可以调用大模型来处理这些工作。此外提供了数据增强、效果评估和 Prompt 优化等功能,以便进一步调优。

大模型调用全流程尤其是训练阶段不单单要求速度快,稳定性同样重要。如果一个集群无法保证稳定的训练时长,易出错、难纠错、诊断慢、恢复时间长,则会对整体效率和成本造成不利影响。目前,百舸 4.0 在万卡规模 AI 任务上的有效训练时长占比已经达到 99.5%,这意味着昂贵的计算资源可以得到最大化利用,浪费更少,成本效益更高。

最后,算力资源利用率的高低一定程度上决定了集群能不能为客户省钱,当前行业平均水平仅能达到 50%,一半的算力被浪费了。借助自研的训推一体技术,百舸 4.0 让集群同时支持在线推理服务部署和离线训练任务,训推之间的算力自由切换,训推场景在不同时间复用相同的 GPU 资源,并在推理时将高算力高显存的训练卡分配给多个业务应用,最终将算力资源利用率提升到了 90%。

可以说,从支持多芯混训到加速大模型训推、逼近 100% 的有效训练时长和远超行业的算力资源利用率,百舸 4.0 交出了一份亮眼的「成绩单」,为客户当前的大模型落地实践尽最大可能解除算力层面的后顾之忧,势必更能赢得他们的青睐。

背后的路线思考

五大维度完成算力破局

如何在大模型时代发挥出大集群的有效算力,这是一个重大而急迫的命题。当前有能力提供万卡集群的云厂商都在力争脱颖而出,这就要求他们在优化架构、降低成本、提供差异化服务、构建智算生态等各个方面出击,找到算力破局关键点。

全新升级的百舸 4.0,提供了当前万卡集群的最优解。

我们发现,百舸已经形成自己的一套成熟打法,针对能耗有效率、单卡算力有效率、并行扩展有效率、有效训练时长和资源利用率等五大行业痛点问题,对症下药,用技术突破为算力释放保驾护航。

针对大模型训练产生的巨大电力消耗,百度云通过在自建的数据中心采用自研的液冷方案,使得机器性能提升 10% 的同时故障率降低了 60%-70%,从而令数据中心能源效率指标 PUE(Power Usage Effectiveness)平均值小于 1.1,优于业界平均水平。

为了提升集群内单卡算力有效率,百舸 4.0 依托 AIAK 训练加速方案,通过显卡、算力等层面的深度优化,在主流开源大模型训练任务中将 GPU 有效利用率 MFU(Model FLOPS Utilization)提升到了行业领先水平,达到 70% 以上。

单卡算力效能极致「压榨」的同时,多卡并行计算效率也要跟上。现阶段大模型往往采用多个计算资源同时训练的并行方式,并发展出了计算资源利用率高、效率高、开发难度小的自动并行策略,使训练任务在多个计算单元上的分配更为合理和高效。百舸 4.0 通过 AIAK 进一步优化了并行策略,较开源方案实现了 30% 的性能提升。同时模型并行策略调优时间也大幅降低,从小时级缩短至如今的分钟级,加快了训练和优化速度。

此外如上所述,百舸 4.0 在万卡任务上实现了 99.5% 的有效训练时长,最大程度避免因频繁故障而导致的训练任务中断、资源浪费、模型收敛速度慢、运维成本增加等问题,集群稳定性得到前所未有地加强。达成这一效果主要得益于以下几大能力的共同加持:

全方位的可观测能力,对资源池、队列、节点、任务、实例、加速卡等多个维度实现了无死角的覆盖。 自动容错能力,百舸 Flash Checkpoint 故障恢复机制实现秒级 Checkpoint 和近乎无损的 Step 粒度容错。此外为 PyTorch 大模型训练场景开发的 Checkpoint 框架 FlashCKPT 可以实现 1 秒千亿大模型 Checkpoint 写入。 故障诊断和快速恢复能力,通过快速筛查、召回集群硬件故障并隔离自愈,避免在故障芯片上分配工作负载,有效降低任务故障发生频次。故障恢复时间从小时级降至分钟级。 百舸集群级集合通信库 BCCL 不仅可以在故障发生时做到秒级感知和定位,提高故障处理效率。同时快速定位训练慢的节点,提升整体训练效率。

同样地,百舸 4.0 算力资源利用率突破 90%,除了自研的训推一体技术,还要归功于弹性伸缩机制、弹性层级队列等技术,可以根据训练任务的变化来自动分配和布局算力,从而将利用率拉到了行业最高水平。

在我们看来,五大维度不仅巩固了百舸 4.0 在万卡集群时代的行业领先地位,也为其他云厂商在算力资源管理以及智算集群的设计、调度、容错等方面提供了一定的借鉴。

今年 9 月初,马斯克宣布旗下 xAI 打造的由 10 万块 Nvidia H100 组成的超级训练集群 Colossus 正式上线,并将在未来几个月另外增加 10 万块 GPU(一半为 H200)。这释放出了一种很明显的信号:不止万卡,更大规模的 10 万、数十万卡集群的建设「时不我待」。

可以看到,无论是为现阶段超大规模模型的训练提供算力支撑,还是推动大模型技术的进一步落地普及、以及加速未来 AGI 时代的更快到来,集群的作用似乎已经无可取代,对于企业依托大模型的智能化转型也至关重要。

显然,百度早在 2021 年就意识到了这一点,通过全方位布局百舸 AI 异构计算平台来建设大模型时代的 AI 基础设施,并在算力、通信、能效等方面的持续优化中构筑起更坚实的 AI 生态发展基石。

百舸 4.0 的全新发布,既有助于增强百度 AI 基础设施的可持续性与领先性,还会为客户在业务场景中落地大模型应用尽可能地降本增效,更对大模型引领的 AIGC 爆发以及 AI 普惠铺平道路。

未来,随着集群规模的继续扩大,还会出现更复杂的软硬件协同、算力调度等问题,这些都需要通过持续的技术突破来一一克服。面对挑战更大的算力之争,百舸已经做好了准备。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-09-26 14:45:11

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

近日,百度智能云成功点亮昆仑芯三代万卡集群,这也是国内首个正式点亮的自研万卡集群。据悉,百度智能云将进一步点亮3万卡集群。这一重大突破标志着百度在人工智能算力领域迈出了坚实的一步
2025-02-05 11:06:00
中国智算建设潮背后,谁在推动十万卡集群
在打造十万卡集群上,几家国内头部企业已有动作。在11月12日举办的百度世界2024大会上,百度集团执行副总裁、百度智能云事业群总裁沈抖透露,为了支撑大模型进一步的高速发展,百度在
2024-11-15 10:01:00
具身智能竞速时刻,百度百舸提供全栈加速方案
...镜像,并进行一键提交。训练过程中,百舸平台可以支持万卡集群 99.5% 的有效训练时长。仿真测评:支持主流仿真环境的一键部署,助力模型在高保真虚拟环境中进行高效、大规模的性能
2025-08-13 17:25:00
大模型「标王」硬气:不做Sora ,要帮更多企业做出Sora
...。因为,百舸的多芯混合训练任务的性能损失,控制在了万卡性能损失 5%,已经是业界最高水平。除了「多」,训练、推理也又「快」又「稳」。从发布到上线仅三个月,生数科技就完成了对
2024-12-11 09:52:00
百度云升级模型服务,百度版GPTs即日开放 | 最前线
...为核心能力。大会上发布的百舸异构计算平台3.0能够支持万卡级别的超大规模AI集群计算。相比自建智算基础设施,百舸能将模型训、推吞吐分别最高提升30%和60%。在资源利用层面,
2023-12-21 14:31:00
算力浪费超50%!百度AI计算部负责人拆解大模型时代的算力成本
...鹏向媒体解读了大模型时代的算力成本。为了有效降低AI万卡集群的算力开支,他提出搭载RDMA网络、自动并行策略、保证训练稳定性、动态分配算力、多芯异构混训,共五个方面的解决方案
2024-09-14 09:55:00
百度智能云两大基础设施再升级!打造AI时代最开放的智能基础设施
...利用百度智能云的系统级能力打造企业专属AI基础设施。百舸+昆仑芯超节点:推理性能提升13倍、成本降低95%算力是AI时代的“新电力”。百度智能云通过自研昆仑芯P800芯片及
2025-04-25 16:27:00
空间智能产业化加速 一线企业集体锚定百度智能云
...,百度智能云基于百度百舸AI异构计算平台,能够提供从万卡到十万卡级的集群运维支持和任务全生命周期管理。据了解,百度百舸目前已成为Liblib、光魔科技等空间智能赛道大模型企业
2025-07-24 19:59:00
百度沈抖:解决算力问题,一云多芯是中国企业的必然选择
...事业群总裁沈抖 一云多芯会成为中国企业必然选择 百度百舸让企业共享“芯片选择”自由 由于算力吃紧,多数企业将选择混合使用多厂商芯片的异构算力底座,避免依赖单一芯片带来的议价
2024-07-20 08:00:00
更多关于科技的资讯:
今年5月 全球机器人将在杭州“同台竞技”
人形机器人在生产线上搬运物料 国家机器人检测与评定中心供图都市快报讯 昨天,2026杭州国际具身机器人场景应用大赛宣布
2026-03-01 08:35:00
30天连融三轮,5亿订单在手节后第一周,杭州四足机器人赛道就传来一阵密集的“脚步声”。2月26日,具微科技宣布完成超亿美元A++轮融资
2026-03-01 08:35:00
商报讯 近日,西湖区召开“新春第一会”,探索“顾问式”服务,为建设一流创新生态再出新招。据介绍,2026年,西湖区锚定科创
2026-03-01 08:35:00
昨天,百度智能云项目签约落地上城区。北京百度网讯科技有限公司将与上城区携手共建百度智能云千帆大模型(杭州)产业创新中心
2026-03-01 08:35:00
今年春节,秦皇岛市海港区一旅游景点“上新”智能机器人,该款机器人通过特色舞蹈表演、人机互动等形式,为游客提供表演、人机互动、海洋向导、天气预报等服务,让游客在欢声笑语中感受科技的
2026-03-01 10:32:00
杭州又一机器人大赛 定档5月
商报讯 又一机器人赛事即将开赛——5月15日至16日,2026杭州国际具身机器人场景应用大赛将在杭州云栖小镇会展中心和双浦机器人测试训练场举行
2026-03-01 08:35:00
鲁网2月28日讯冬尽春归,马蹄报喜。2026年迎来史上最长9天春节假期。从装点门庭的年俗好物,到象征团圆的珍馐美馔,涌动着万象更新的消费活力
2026-02-28 22:40:00
在全球经济充满不确定性的时代背景下,企业如何在危机中把握机遇、在变局中实现稳健增长,成为衡量领导者战略能力的重要标尺。作为荷美尔亚太区总裁
2026-02-28 17:17:00
电与未来同行:松下中国在海南开展电能知识可持续科普活动
2026年1月,松下中国来到海南乡村学生身边,在万宁市和乐、莲花、礼纪等地开展可持续教育科普活动。课程活动以“电能”为核心线索
2026-02-28 17:19:00
350+中企将集体亮相,展示通信与AI交织的中国力量
再过两天,世界移动通信大会(MWC2026)就要在西班牙巴塞罗那开幕,这场全球科技行业瞩目的盛会,也即将迎来它落地巴塞罗那二十周年的里程碑
2026-02-28 17:04:00
中国消费者报杭州讯(记者郑铁峰)2月25日,浙江省市场监管局党委书记、局长谢小云把一张特种设备检验检测机构核准证,交到浙江石油化工有限公司(以下简称浙石化)负责人手中
2026-02-28 17:09:00
无锡锡山又一高端制造业项目签约落地
新春伊始,锡山新能源汽车产业发展再添新动能。2月27日,总投资5亿元的新能源汽车三电系统关键零部件研发及生产项目举行签约仪式
2026-02-28 14:18:00
华商3.15维权进行时|| 万元iPhone 17 Pro“星宇橙”褪成粉色 消费者遭遇维权难 商家称“外壳不在保修范围”
冲着那一抹独特的“橙”,消费者万元入手IPhone17Pro等机型,却没想到这份橙色的“保质期”仅一个多月就出现褪色。更让消费者无法接受的是
2026-02-28 16:52:00
山东移动滨州分公司:以科技赋能“春满古城·贺岁盛典” 铸就网络保障新典范
鲁网2月28日讯2026年2月10日至23日,无棣古城“春满古城·贺岁盛典”活动期间,滨州移动以“硬核科技+精细服务”双轮驱动
2026-02-28 14:21:00
【宅男财经|专家面对面】国家统计局28日发布《中华人民共和国2025年国民经济和社会发展统计公报》提到,全年完成92次宇航发射
2026-02-28 15:17:00