• 我的订阅
  • 科技

优刻得首个「国产千卡智算集群」落地,支持智源千亿大模型训练

类别:科技 发布时间:2024-06-27 19:01:00 来源:爱云资讯

在人工智能引领的时代浪潮中,算力已成为技术进步与创新的核心驱动力。面对当下AI算力需求的飙升、高端AI芯片供应受限的挑战,加之OpenAI带来的技术封锁,唯有坚定不移的发展自主可控的国产技术方案,持续壮大国产智算集群规模,才能一路突破围追堵截,进一步促进国产大模型产业生态繁荣。

作为中立、安全的云计算服务厂商,优刻得持续发力人工智能智算领域,与国内主流AI芯片厂商深度合作,共同搭建的「国产千卡智算集群」现已上线商用。国内顶尖的AI创新型研发机构北京智源人工智能研究院(下称:智源研究院)成为首批用户,标志着优刻得自主可控的国产GPGPU算力底座有能力支撑大模型研发与验证,双方在国产AI智算领域的合作正式开启。

国产千卡智算集群,支持千亿参数大模型训推

优刻得国产智算集群基于国产通用GPU(GPGPU)所建设,能够快速构建大规模分布式训练环境,可支持超千卡规模、千亿参数级别的大模型训练和推理任务,旨在突破算力瓶颈,加速AI算力的国产化进程。

国产千卡智算集群采用软硬件一体化的架构设计,提供低延迟、高吞吐、高可用的IB组网环境,支持GDR技术,使得集群在算力获取、数据传输和算力调度等方面具有极高的效率。经过精心适配和调优,优刻得国产智算集群现已在上海青浦智算中心全面部署,智源研究院正基于国产算力更高效地完成大模型的训推工作。

突破算力瓶颈,技术自主可控

基于国内知名AI芯片厂商所自研的高性能GPUIP,优刻得国产智算集群具有强大的多精度混合算力、64G大容量高带宽显存以及先进的多卡互联技术,特别适合千亿参数AI大模型的训练和推理,且增强了技术的自主性。在计算精度、稳定性、易用性和算力利用率等方面,优刻得国产智算集群均表现出优异特性,助力智源研究院在千亿MoE大模型训练方面取得了显著成效。

智源研究院成立于2018年,其推出的「智源悟道大模型」,是中国首个大模型,为中国人工智能技术发展奠定了深远的研究基础。在2024北京智源大会上,智源研究院公布了大模型全家桶。当前,智源研究院正在优刻得国产智算集群上持续进行更为复杂的模型结构设计和参数调整,以不断提升大模型迭代速度和自研水平。

优刻得首个「国产千卡智算集群」落地,支持智源千亿大模型训练

基于全自研的虚拟机技术和显卡高效直通技术,优刻得国产智算集群还实现了多用户机器隔离和快速处理GPU故障等功能,确保GPU算力的高效利用。目前,优刻得国产GPU算力底座不仅提供海量算力支持,有效支撑了智源研究院进行国内领先的大模型研发,也进一步论证了国产芯片在收敛性上对于千亿模型的训练的有效性,性能比肩国际一流的同类GPU产品。

支持异构混训,模型研发更高效

随着多元异构算力成为新的发展趋势,当前智源团队也正致力于研究在多芯片上实现大模型稳定高效训练与推理的并行框架,助力国产算力规模应用和大模型成果转化。智源联合优刻得、国产芯片厂商,共同探索“混训集群”的构建,并证实了优刻得国产智算集群与英伟达主流计算平台混合组网、异构混训的可行性。

优刻得首个「国产千卡智算集群」落地,支持智源千亿大模型训练

得益于国产AI算力加持,智源研究院基于优刻得国产智算集群完成了多元异构大模型训练平台的搭建,并在实训中实现了长时间的稳定训练不中断。联合测试表明,智源研究院推出的开源大模型并行训练框架FlagScale可以支持国产芯片做为算力支撑:FlagScale支持基于国产算力的8x16B千亿参数MoE语言大模型1024卡40天以上的稳定训练,全面帮助用户实现高效稳定的集群管理、资源优化、大模型研发。

生态兼容,灵活支撑业务发展

优刻得国产智算集群全面兼容CUDA等主流GPU生态软件栈,这意味着企业能够将CUDA应用零成本迁移到国产智算平台,实现快速适配。集群还提供了完善高效的软件栈工具,集成多种主流的深度学习编程框架,通过测试验证,确保了对行业领先人工智能模型的高效支持,做到开箱即用,用户可快速投入模型的开发和部署,加速了其在人工智能领域的布局和发展。

优刻得首个「国产千卡智算集群」落地,支持智源千亿大模型训练

其中,FlagGemm是智源研究院主导开发的一套高性能大模型算子库,技术路线上是基于OpenAITriton编译器,具有高性能、覆盖广、轻量级的多个优势。优刻得国产智算集群通过适配和支持FlagGemm算子库,实现了强大的生态兼容性和灵活的业务支撑能力。

随着OpenAI决定终止对中国大陆的AI服务,国内对于建设自主可控智算平台的需求愈发迫切。优刻得致力于构建先进的AGI算力底座,携手合作伙伴共建大型国产智算集群,以高性能算力和全栈智算解决方案服务大模型训练和推理。随着更多用户的入驻和应用深入,优刻得国产千卡智算集群将不断推动我国科技创新与智算产业升级迈向新的高度。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-06-27 21:45:17

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

国产GPU为底座,摩尔线程首个千卡智算中心落地
...办,这宣告国内首个以国产全功能GPU为底座的大规模算力集群正式落地。与此同时,摩尔线程联合国内众多合作伙伴发起并成立了摩尔线程PES -KUAE智算联盟和摩尔线程PES-大模
2023-12-20 09:46:00
国内首个以国产全功能GPU为底座的大规模算力集群正式落地
...也代表着,国内首个以国产全功能GPU为底座的大规模算力集群正式落地。摩尔线程CEO张建中表示,摩尔线程构建了从芯片到显卡到集群的智算产品线,依托全功能GPU的多元计算优势,可
2023-12-19 18:46:00
从0到1:国产化千卡集群的一小步,AI算力主动权的一大步
...透过OpenAI的演进轨迹,就会发现AI算力的重心已从单机向集群蜕变:伴随大模型的参数规模从百亿、千亿到万亿,所需的数据量也从几百B跃升到P级,千卡、万卡集群正日益成为大模型
2024-04-28 11:52:00
国产GPU万卡集群终于来了!摩尔线程CEO张建中:做难而正确的事
...100天,折算成H100则需要1000张;Meta今年推出2个24576张H100集群,用于训练Llama 3等新模型
2024-07-09 09:47:00
芯片战场丨瞄准大模型 摩尔线程首个千卡智算中心落地
...介绍,这是国内首个以国产全功能GPU为底座的大规模算力集群。同时,摩尔线程CEO张建中在当天发布了大模型智算加速卡MTT S4000
2023-12-20 10:52:00
通信效率超98%!壁仞科技实现中国首个三种异构芯片混训技术
...异构协同、开源开放的大模型整体解决方案可以实现千卡集群、千亿参数的自动断点续训小于10分钟,15天连续训练不中断,4天连续训练无故障。 壁仞科技还透露,其正联合客户、合作伙
2024-09-06 10:03:00
摩尔线程kuae千卡集群正式落地
...举办,宣告国内首个以国产全功能GPU为底座的大规模算力集群正式落地,大模型智算加速卡MTTS4000也同步发布。附MTTS4000参数如下
2023-12-20 06:02:00
...质生产力为导向;以构建智能绿色、自主可控的算力中心集群为重点;以支持算力要素技术研发和创新场景应用为引领,推动形成具有国际竞争力的产业生态格局,拓展“算力高地”的产业深度和辐
2024-05-08 12:40:00
芯片“围城”加剧,如何通过“算力运营”加速国产商业落地?
...致市场使用积极性欠佳;其二,众多智算中心采用的单卡集群模式,难以支撑当地产业多元化场景需求;其三,传统的租赁、包销模式束缚智算中心,难以拓展多元客户群。进口芯片使用受限的情况
2024-12-05 09:55:00
更多关于科技的资讯: