• 我的订阅
  • 科技

大模型热到芯片暴涨,阿里百度成了英伟达的打工仔

类别:科技 发布时间:2023-04-18 17:00:00 来源:钛媒体APP
大模型热到芯片暴涨,阿里百度成了英伟达的打工仔

图片来源@视觉中国

钛媒体注:本文来源于微信公众号中国企业家杂志(ID:iceo-com-cn),作者 | 闫俊文,编辑 | 李薇,钛媒体经授权发布。

中国科技公司和创业者竞相追逐大模型,引发GPU芯片需求量的暴增,以及价格的疯狂上涨。

GPU是ChatGPT训练和部署的关键部件,这是强大算力的基础设施。根据公开消息,微软的Azure云服务为ChatGPT构建了超过1万枚A100 GPU芯片的AI计算集群。

千芯科技董事长陈巍告诉《中国企业家》,以A100芯片为例,从去年年底到现在,其单价涨了超过50%,从之前约5万元涨到了近10万元。由于A100已经被美国禁止售往中国内地,国内同行预估仅有3万枚存量。推出的A100替代版A800,国内厂商也是排队拿货,并且常常无货。

国内某大型服务器厂商的员工王石也感受到了这股浪潮。他告诉《中国企业家》,近期供应的压力比较大,包括等供应商的压力也比较大,但这并不代表错过了这一波就没有机会了,“相信今年年内供需回归到相对理性的水平”。

“我要给大家降温。这是一个突发的需求,大家不要着急,不是说我错过了这两个月或者三个月,我就失败了,远远没有到那个时候。”王石强调。

据《中国企业家》统计,除了阿里巴巴、百度等互联网巨头之外,商汤科技、昆仑万维、毫末智行、360等公司也官宣了自己的大模型,如果再加上王小川、王慧文、李开复等创业者,中国年内推出的大模型数量已经超过了10个。

一些行业人士预测,国内需要有8至20个大模型,比如生物医药计算、材料计算、化学计算、自动驾驶、气象等大模型,甚至未来四五十个也说不定。

算力、算法和数据构成了AI时代的三要素,而算力又是电力般的基础设施,有多少枚GPU,有多少算力,成为外界评估大模型研发和创业成败的关键。

在这一轮由ChatGPT掀起的大模型创业潮里,黄仁勋和成为了大赢家。

据统计,2020年,全世界跑AI的云计算与数据中心,80.6%都在用英伟达的GPU驱动。截至发稿,股价为270美元,比2022年9月时的低点119美元翻了一番,总市值为6669亿美元,成为美国第五大上市公司,比德州仪器、超威半导体(AMD)、高通、英特尔等芯片企业市值相加还要多。

五分之二的预算买算力

已经供不上货了。

近期,马斯克为推进推特内部的新AIGC项目,购买了大约1万枚GPU。从2022年末,微软就实行了GPU资源配额供给,但今年1月以来审批时间越来越长,如今部分申请需要等待几天甚至几周才能获批。同时,微软向预订的数万枚GPU芯片,交货无期。

2月份,出门问问CEO李志飞和美团联合创始人王慧文,讨论了大模型创业要花多少钱、入门门槛什么样。李志飞认为,门槛至少需要5000万美元,其中的2000万美元就是用来购买算力的。王慧文和李志飞不久前相继宣布在大模型领域创业。

根据陈巍测算,国内如果想要直接训练出一个ChatGPT3级别的大模型,常规最少需要1000枚A100级别的GPU芯片,而如果想要实际部署,不考虑冗余和响应速度,对于搜索引擎级别的服务,至少需要6000枚A100级别的GPU芯片。仅仅芯片一项,最小投入就到了近10亿元人民币。

一份流传的《阿里AI专家交流纪要》显示,百度年初紧急下单3000台8张芯片的A800服务器,这意味着需要2.4万枚A800,而预计全年百度会有A800和H800共5万枚的需求。阿里云预计在今年需要1万枚左右,其中6000枚是H800。此外,阿里云也会用到平头哥这种自研的芯片,每年采购大概3000枚。

2022年9月,发布H100型号GPU,但被美国禁止出口至中国,但怎会忍心错过中国的大模型热,为了出口,牺牲了部分性能,在今年推出了H800版本。

对照百度发布的文心一言,陈巍测算,按照国内成本估算单次应答成本5分钱,如果日访问量10亿人次,以月租价格评估,每天云计算成本约5000万元人民币,一个月将增加成本15亿元,一年增加成本180亿元,远远高于训练成本。此前媒体估算,ChatGPT光3月份的电费就得交近200万美元,这差不多跟27.5万中国居民一个月用电量相当。

《中国企业家》了解到,对于不缺钱的巨头来说,A100存储量也不多,未来采购以A800和H800为主,但仍需要V100等老式芯片补充。V100性价比高一些,在云上跑的成本是A100的三分之二左右,但运行速度较慢,如果是ChatGPT4级别大模型就不够用了。

也就是说,要想大模型算得更快、更准,必须适配最先进的GPU芯片。虽然拿不到最先进的GPU,但大模型玩家依然在积极囤货。按照上述数字估算,国内对A800以及H800的需求已经到了数十万级别。

王石说,目前来看,对于算力的需求可以说是上不封顶,有多少算力,都希望能够投身进来,“只能这么说,越多越好”。

仅仅靠资本似乎已经玩不转了,大模型之战,最后结局可能还是巨头之间的游戏。

一位头部投资机构的负责人告诉《中国企业家》:“创投界这点资本是不值一提的,资本它对整个行业的格局不造成影响,本来就这点钱也投不起,中国这几个VC加上PE,今年不在ChatGPT上投下10亿、20亿美元,水漂都打不起来,做不了几个训练级,但是百度和华为如果愿意在上面努力去做的话,我觉得投得起。”

瘸腿奔跑的中国大模型

不管是阿里巴巴、腾讯、百度等巨头,还是王慧文、王小川等创业者,他们不得不戴着枷锁跳舞:一方面,迫于美国的芯片禁令,他们得不到最先进的芯片源源不断的支持;另一方面,他们还要追赶国外已经到了ChatGPT4水准的技术。

陈巍感慨中国AI企业的不易。如果得不到国外先进的芯片,中国企业只能使用比较老旧或者工艺成熟但不那么先进的芯片,综合性能可能只有A100的60%,数量需要更多,跑得却更慢,综合成本要高出20%至30%,对于企业来说,这很有可能是赚钱和不赚钱的分水岭,活下去和活不下去的分水岭。

处处受限,起步又晚,但大模型也得干下去。

王小川在接受媒体采访时说,晚了也得干。美国人之前把核弹造出来,中国就不造了吗?这跟创业公司本身没关系,是中国要不要做的问题。

王石认为,中国企业没必要“芯片焦虑”。他提到了前几年“挖币”造成的硬盘泡沫,结果造成了SSD(硬盘)的一地鸡毛,整个硬盘厂商在2022年整年可能都在消耗库存。

GPU只是大模型创业链条中的一环,机房环境、算法、人才等等也必须配套跟上。

IT设备特别是计算设备的迭代和更新太快,如果在没有准备好的时候,放在库房里没有用,放一年,价值就浪费了。“现在都在用A800,今年下半年就有H800,性能提升很快,这个时候抢到了A800,但如果还没有用起来,是没有价值的,永远会有新产品出来。”王石表示。

王石还补充说,现阶段,算力的供应无论如何是不够的。这有两个策略,一个是把后台的产能跟上,另一个则是优化效率,通过算法等技术手段提升可用算力的效率。

英伟达成最大赢家

阿里和腾讯近期在算力市场都有重大动作。

阿里云在4月11日峰会上说,阿里云进行有史以来最大幅度的一次降价,通用计算将大幅降低,对比上一代主售产品最高可下降40%,还发布了“飞天免费试用计划”,开放计算存储、数据库、机器学习等核心产品免费试用。

腾讯则发布了新一代高性能计算集群HCC,采用了国内首发的H800 GPU。有数据称,腾讯云新一代集群的算力性能较前代提升高达3倍,是国内性能最强的大模型计算集群。

但不管哪家,他们都摆脱不了一个名叫英伟达的厂商,其创始人黄仁勋,江湖人称“黄教主”,他多次为此次ChatGPT浪潮鼓风。

“我们正处于AI的iPhone时刻。”黄仁勋在3月2023年GTC大会上说,“初创公司正在竞相打造颠覆性产品和商业模式,科技巨头也在寻求突破。”

在此次大会上,黄仁勋发布了ChatGPT专用芯片H100,而且他宣布,将会把由八块旗舰版A100或H100芯片集成的超级AI计算系统通过租赁的方式开放给企业。每月租金为37000美元,以加速推动这轮大语言模型引领的AI繁荣。

外媒一份数据显示,英伟达占据了95%图形处理器的市场份额。IDC数据显示,国内GPU服务器在2021年占国内服务器市场规模的比例超过88.4%,的产品占比超80%。

联想集团CTO芮勇说,目前来看,还是的天下,但未来不确定,因为大家对算力的需求只会越来越大。

行业人士说,未来GPU和算力的需求一定是多元的,或者说异构的。到了现在算力需求大爆发的时候,带来的第一个变化就是在这个领域多元化的蓬勃发展。

水大鱼大,但虾米和浮游生物等也会有存活机会。多元带来了更多的机会,但是最后谁能胜出,就看谁的战略定力,能持续地投入。

(应采访对象要求,文内王石为化名)返回搜狐,查看更多

责任编辑:

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-04-18 17:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

美国商务部长示警黄仁勋“芯片不准卖中国”,英伟达“中国特供”生意将如何延续?|硅基世界
...里云上。而随着阿里云“崩”上热搜,促使更多人思考,英伟达 AI 芯片禁售,未来可能将对中国 AI 公司的业务产生长期影响。当然,虽然美国政府不想让黄仁勋“赚钱”,但中国人也希
2023-12-08 16:26:00
英伟达特供芯片遇冷:阿里、腾讯不想要降级版,转向本土供应商【附人工智能芯片行业趋势预测】
(图片来源:摄图网)美国在2023年10月发布新规阻止英伟达向中国出售尖端人工智能芯片,英伟达并没有束手就擒,而是迅速为中国开发了特供芯片,以满足中国市场的需求。然而,据《华尔街
2024-01-08 11:51:00
从濒临破产到市值破万亿美元、相当于5个阿里,华人黄仁勋如何创造英伟达?
英伟达CEO黄仁勋在国际电脑展Computex 2023上展示产品出品 | 搜狐科技作者 | 梁昌均编辑 | 杨锦GPU巨头英伟达的股价仍在继续上涨
2023-05-31 20:00:00
美国25万一张的显卡,禁止向中国供应!
...靡全球后,科技巨头们纷纷入局。而AI的硬件心脏,则由英伟达强势把持着,占据用于机器学习的图形处理器市场的95%。然而,现在英伟达的高性能GPU: A100和H100,都不允许
2023-03-09 17:45:00
AI竞赛推动英伟达股价暴涨超90% 科技巨头承诺将继续“买买买”
科技公司对于人工智能的强劲需求正在推动芯片巨头英伟达的股价暴涨。今年以来,英伟达股价累计涨幅超过了90%,成为美国科技巨头企业中涨幅最大的公司,英伟达市值目前已经超过6800亿美
2023-05-05 11:20:00
阿里董事长蔡崇信:中国 AI 技术可能落后美国OpenAI两年|钛媒体AGI
...由美国企业发起的新一轮 AI 浪潮,而且从长远来看,在英伟达芯片禁售下,中国可以自己制造这些高端GPU(图形处理器)芯片
2024-04-04 22:00:00
...,反面是兼容性差。 华为自研的昇腾910芯片性能方面和英伟达,华为自己开发的框架MindSpore才能激发最大的性能
2023-07-10 12:56:00
【科技早报】联想、英特尔、爱奇艺签署谅解备忘录;国内低轨卫星通信测试成功
...竞争日益激烈的最新迹象。本周稍早,有知情人士称, 英伟达正采用Arm Holdings Plc的技术开发芯片。英特尔在计算机处理器领域的长期竞争对手AMD也在开发一款采用Arm技术的新中央处理器CPU
2023-11-01 11:02:00
GPU受限,国内AI大模型能否交出自己的答卷?
...的算力资源,GPU是大模型的最佳算力发动机。截至目前,英伟达的GPU芯片正在为全球绝大多数的人工智能系统提供最基础的算力支持。那么,在GPU受限的情况下,国内AI行业发展境况
2023-04-14 18:02:00
更多关于科技的资讯: