• 我的订阅
  • 科技

大模型推理乘上RISC-V快车?国内AI芯片创企推大模型系列一体机

类别:科技 发布时间:2023-11-15 15:41:00 来源:芯东西
大模型推理乘上RISC-V快车?国内AI芯片创企推大模型系列一体机

作者 | 程茜

编辑 | 漠影

2023年,毫无疑问是算力需求大爆发的转折之年,如今随着国内两批超20个大模型获得审批、种类多样的大模型相关应用显现,企业对私有化部署的需求也水涨船高。

面向这一行业趋势,2023年世界互联网大会乌镇峰会上,国内云端RISC-V大芯片创企希姆计算就联合国鑫发布了基于开源指令架构RISC-V打造的大模型系列一体机。其中包括2U4卡、4U8卡机,支持部署6B、7B、13B参数规模的大模型,这也是专门针对私有化部署提供的系统级解决方案。

在私有的处理器指令集Arm和x86之外,希姆计算的产品为满足市场算力需求提供了在用户高并发、技术自主可控方面具有优势的新选择。

AI大模型在推理侧的新机遇与RISC-V创新架构具有的可扩展性、可编程性、超大规模等优势特点不谋而合。

技术和场景应用的双重优势下,希姆计算的大模型一体机能支撑企业将基座模型进行大规模部署。

从希姆计算的大模型一体机出发,芯东西与希姆计算副总裁姚金鑫进行了深入交流,探讨了大模型产业发展至今产生的显著变化,以及专注于RISC-V架构的希姆计算在其中扮演的角色。

可以看出,大模型私有化商业部署的关键是对数据安全,算力自主可控以及部署成本的苛刻要求,RISC-V架构本身的开源、灵活等特性,以及希姆计算联合生态伙伴共同打造的软硬一体国产化方案,成为企业规模化部署大模型的坚实基础。

一、大模型焦点转向推理侧,催生AI芯片创企新机遇

去年11月底,聊天机器人ChatGPT横空出世,催生了新一轮的技术创新。到今天,大模型的热度仍然不减,对于国内AI芯片企业而言,姚金鑫最大的感触之一就是,算力需求正无限扩张,并且看不到需求的上限。

毫无疑问,AI芯片“一哥”英伟达依靠自身的技术,供应链资源以及生态优势在训练领域一骑绝尘,国内AI芯片厂家结合目前的商业环境,看到了新的市场机遇——大模型推理。

姚金鑫谈道,今年前三个季度产业聚焦于训练,现在一些面向消费者、垂直场景的大模型应用出现,接下来就是“基座模型向细分应用场景的切入,其中重要的计算就是Fine-tuning(微调)和推理”。

据了解,百度、字节跳动、商汤、百川智能、智谱华章、蚂蚁等超20个大模型通过备案,开始正式对外提供服务,相关应用产品也相继发布,这都使得产业的焦点正在从大模型训练扩展到规模化推理部署。

从算力层面来看,大模型训练和推理平台的侧重点不同。训练平台的特点是大集群、高集中度、高性能,姚金鑫解释说,训练任务对芯片本身的算力、内存大小、带宽、片间互联以及网络层面的技术要求都很高,这与模型本身的参数规模、训练数据相关,而且直接影响大模型训练效率以及迭代速度。

放到推理侧来看,其重点在于关注单机甚至单卡在算力,内存容量和带宽,卡间互联能力上面的要求,还有一个更为关键的点在于,需要结合软硬件一体从系统层面提升计算效率以支持尽可能多的并发用户。

也就是说,训练对算力的需求一定程度上取决于模型的大小,并且追求的是高性能和高稳定性,推理不仅要考虑模型的大小还需要考虑用户的数量,侧重于实现同时并发,其对算力的需求更多体现在计算效率和规模上。

值得一提的是,当下受地缘政治影响,国内半导体产业发展受限,开源、高效、成本低的RISC-V指令集架构也成为解决国内大模型落地算力需求的有效技术路径。

这些新的变化都为基于RISC-V技术线路做数据中心芯片的希姆计算展现出新的市场机会。

二、系列一体机设备落地,场景私有化本地部署策略解析

希姆计算联合国鑫推出的一系列针对大模型推理场景的一体机,就是这家创企在新产业变革下追逐产业机遇的有力探索。

2023年世界互联网大会乌镇峰会上,希姆计算正式对外发布了4U8卡一体机,此外还包括2U4卡一体机,这都是其针对私有化部署提供的系统级解决方案。

大模型推理乘上RISC-V快车?国内AI芯片创企推大模型系列一体机

希姆STCP920系列采用12nm工艺,是基于RISC-V的人工智能计算加速卡,具备较高的云端AI计算能效比和可编程性,混合支持FP16/INT8数据类型。

希姆计算将其在传统AI场景里的方案针对大模型进行了专门的优化,姚金鑫坦言,这一一体机的劣势在于内存规格较小、带宽较窄,这也限制了其部署千亿级别模型需要多卡部署,再加上多卡之间通过PCIe和CPU之间的传输,会影响性能。

但是由于STCP920研发较早,已经实现大规模量产商用,而且供应链未受限制其优势在如今的大模型推理场景下也更为显著。他补充说,目前一体机可以单卡部署7B、13B参数规模的模型,并支持高强度的用户并发。

大模型推理乘上RISC-V快车?国内AI芯片创企推大模型系列一体机

此外,希姆计算还正在研发机头+AI Box的产品,打造这一产品的目的为,使得标准机柜可以容纳更高的算力,同时支持更高的用户并发。

目前,希姆计算以7B、13B参数规模的Llama 2为基座模型打造了一系列解决方案,主要面向的就是私有化部署场景。

三、RISC-V架构三大优势,直指大模型推理场景

成立于2019年的希姆计算,是国内最早基于RISC-V做数据中心芯片设计的企业,据了解,其产品已经实现了在头部互联网巨头的批量商业落地。

截至目前,希姆计算已经完成7轮融资,投资方包括中国互联网投资基金、建银国际、中银国际等国家队投资机构,以及广州市产投基金等地方引导性基金。

精简指令集架构RISC-V正在凭借其开放开源的核心特点迅猛发展。据了解,2019年12月至今,RISC-V国际基金会的会员数已经从435个增加到将近4000个。

RISC-V对于AI计算的支持可以较好平衡高性能效率和高可编程性、高通用性,再加上其核心技术的开源开放、生态格局的逐渐成熟,逐步展现出强大的优势和演进迭代空间。我们看到Meta的AI加速芯片和谷歌的下一代TPU都采用RISC-V指令集架构。

除了架构本身优势外,姚金鑫谈道,团队当时还看到了数据中心对于AI计算需求的急速增长。这也奠定了希姆计算的发展方向。

RISC-V具有的可扩展性、可编程性和超大规模特性与大模型推理有着天然契合度。

RISC-V的优势之一是可扩展性,可以针对计算负载进行定制和优化,具体就AI计算而言,就是根据AI应用的需求,通过扩展指令提高执行计算任务的效率。这对于在确定的工艺制程下面提升性能至关重要。

姚金鑫补充说,事实上,RISC-V指令集的DSA架构除了可以通过扩充算力、加大内存容量与带宽来提高计算性能规格以外,还由于其具备良好的可编程性,可以更加快速地适配各类不同参数的大模型,针对新衍生的不同模型结构、算子实现快速优化升级。

除此以外,为了适应大模型推理的需求,希姆计算还从系统层面进行提升,通过服务器设计支持更多的用户并发。姚金鑫谈道,针对推理场景除了优化计算卡性能外,希姆计算还通过提升机柜下容纳的算力密度来支持更多的并发用户数。这在最新禁令限制芯片算力密度的情形下,显得尤为重要。

作为芯片设计企业,希姆计算提供给客户的产品除了芯片还有软硬件系统,因此面向推理场景该公司也实现了系统级交付。诸如产业园区智能化展示场景、校园管理的学工服务、法务领域的文本处理等领域。

2019年至今,希姆计算在CV(计算机视觉)、NLP(自然语言处理)等领域都有丰富的场景应用积累,对于芯片稳定性的不断完善和优化,为支持大模型私有化部署奠定了坚实的基础。

除了技术路线演进外,RISC-V开源社区的工作也在稳步推进。据了解,希姆计算是国际上最早开源RISC-V AI扩展指令的团队。同时,希姆计算作为RISC-V国际基金会董事单位,也正在全力推进自研AI扩展指令的国际标准化工作。

大模型推理乘上RISC-V快车?国内AI芯片创企推大模型系列一体机

可以看出,想要抓住产业机遇,具体的技术开发和工程实践积累才是重中之重。

结语:瞄准大模型推理场景,探索RISC-V结构新解法

大模型产业浪潮轰轰烈烈蔓延至今,越来越多的企业、人才、资本都聚焦于此,又因为算力作为大模型重要的底座,国内AI芯片企业更是处于风口浪尖的存在。想要快速抓住机遇,除了强大的执行力外,更离不开企业的技术积累与布局。

如今大模型推理侧爆发出新的机遇,最早入局基于RISC-V架构打造数据中心芯片的希姆计算,看到了AI推理侧暴发出的新市场机遇,从而基于多年来在AI行业与芯片行业的布局与深耕,迅速掏出系列解决方案从而满足其背后的算力需求。希姆计算正在从私有化本地部署推进,在大模型带来的产业变革下,热切寻找市场机遇。

可以看出,想要抓住产业机遇,具体的技术开发和工程实践积累才是重中之重。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-11-15 21:45:27

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

国产首台GPU千亿参数大模型训推一体机发布,优刻得提供灵活算力部署方案
...”)、智谱华章共同发布国产首台GPU千亿参数大模型训推一体机。国产首台GPU千亿参数大模型训推一体机发布仪式优刻得与沐曦、智谱华章共同在宁夏的开放平台上面向第一批用户:航天医
2023-08-21 19:01:00
...率和精度、降低落地门槛等多重优势。 从容大模型训推一体机则基于华为最新Atlas900系列训练服务器,预置从容大模型训练推理一体化平台。平台适配国产化芯片,通过工程优化,实
2023-11-15 10:18:00
·据刘庆峰介绍,在单卡算力上,“星火一体机”对标英伟达A100,同时还正在和华为一道打造面向超大规模大模型训练的国产算力集群,形成集群化优势。“科大讯飞和华为已在联合攻关算力卡脖
2023-08-16 09:02:00
对话云天励飞董事长陈宁:2030年人类将实现AGI,推理芯片将是蓝海市场|钛媒体AGI
...在去年,云天励飞就与华为昇腾联合推出天舟大模型训推一体机。一年之后,云天励飞推出“深目”AI模盒是面向边缘训推场景的硬件产品
2024-03-30 18:00:00
单卡算力对标英伟达A100,科大讯飞联手华为发布星火一体机
...工智能的需求,此次科大讯飞与华为联合发布了讯飞星火一体机,为企业提供国产自主创新平台上的自主、安全、可控的私有化部署大模型。星火一体机将提供从底层算力、AI框架、训练算法、推
2023-08-16 22:01:00
AI服务器缺货真相调查:两天涨价30万,连“味精大王”都入场了
...器。比如,8月15日,科大讯飞与华为联合发布了讯飞星火一体机。星火一体机基于鲲鹏CPU+昇腾GPU,采用华为存储和网络提供整机柜方案
2023-10-21 17:43:00
超星未来梁爽:软硬件协同优化,赋能AI 2.0新时代
...「惊蛰」系列芯片可支持多维智驾解决方案,如智能前视一体机、双目前视方案、5-7V高性价比行泊一体、11V1L高性能行泊一体等,并涵盖主流的行车、泊车以及智能驾驶和机器人通用的
2024-07-22 13:00:00
大模型应用疯狂加速,洗牌却在静悄悄进行了
...便“秀”起了“肌肉”,科大讯飞与华为合作发布“星火一体机”,进一步把大模型端侧应用摆在了台面上。一波接一波的行业浪潮席卷而来,正推动整个“大模型+”应用时代加速到来。首先,大
2023-10-07 15:24:00
清华汪玉创始公司浮出水面,要做大模型一体机,仍是“深鉴式”师生组合拳
...担任创始人身份的新公司无问芯穹,主要做大模型推理用一体机,以及工具链软件。公司旨在解决大模型算法向大算力芯片的高效统一部署问题,打造算法-硬件联合优化平台,提升大模型到国产芯
2023-09-18 10:33:00
更多关于科技的资讯: