• 我的订阅
  • 科技

ChatGPT引发AI芯片荒 台积电成了英伟达身后的超级大赢家

类别:科技 发布时间:2023-06-27 13:48:00 来源:雷科技

1849 年,美国加州发现金矿的消息传开后,淘金热开始了。无数人涌入这片新土地,他们有的来自东海岸,有的来自欧洲大陆,还有来到美国的第一代华人移民,他们刚开始把这个地方称为「金山」,后来又称为「旧金山」。

但不管如何,来到这片新土地的淘金者都需要衣食住行,当然最关键的还是淘金的装备——铲子。正所谓「工欲善其事,必先利其器」,为了更高效地淘金,人们开始疯狂地涌向卖铲人,连带着财富。

一百多年后,旧金山往南不远,两家硅谷公司掀起了新的淘金热:OpenAI 第一个发现了 AI 时代的「金矿」,英伟达则成为了第一批「卖铲人」。和过去一样,无数人和公司开始涌入这片新的热土,拿起新时代的「铲子」开始淘金。

不同的是,过去的铲子几乎不存在什么技术门槛,但今天英伟达的 GPU 却是所有人的选择。今年以来,仅字节跳动一家就向英伟达订购了超过 10 亿美元的 GPU,包括 10 万块 A100 和 H800 加速卡。百度、谷歌、特斯拉、亚马逊、微软……这些大公司今年至少都向英伟达订购了上万块 GPU。

ChatGPT引发AI芯片荒 台积电成了英伟达身后的超级大赢家

H100 GPU 图源:英伟达

但这依然不够。旷视科技 CEO 印奇 3 月底在接受财新采访的时候表示,中国只有大约 4 万块 A100 可用于大模型训练。随着 AI 热潮的持续,英伟达上一代高端 GPU A100 的阉割版——A800 在国内一度也涨到了 10 万元一块。

6 月的一场非公开会议上,OpenAI CEO Sam Altman 再次表示,GPU 的严重短缺,导致了很多优化 ChatGPT 的工作被迫推迟。按照技术咨询机构 TrendForce 的测算,OpenAI 需要大约 3 万块 A100 才能支持对 ChatGPT 的持续优化和商业化。

就算从今年 1 月 ChatGPT 的新一轮爆发算起,AI 算力的短缺也持续了近半年,这些大公司为什么还缺 GPU 和算力?

ChatGPT们缺显卡?缺的是英伟达

借用一句广告语:不是所有 GPU 都是英伟达。GPU 的短缺,实质是英伟达高端 GPU 的短缺。对 AI 大模型训练而言,要么选择英伟达 A100、H100 GPU,要么也是去年禁令后英伟达专门推出的减配版 A800、H800。

AI 的使用包括了训练和推理两个环节,前者可以理解为造出模型,后者可以理解为使用模型。而 AI 大模型的预训练和微调,尤其是预训练环节需要消耗大量的算力,特别看重单块 GPU 提供的性能和多卡间数据传输能力。但在今天能够提供大模型预训练计算效率的 AI 芯片(广义的 AI 芯片仅指面向 AI 使用的芯片):

不能说不多,只能说非常少。

大模型很重要的一个特征是至少千亿级别的参数,背后需要巨量的算力用来训练,多个 GPU 之间的数据传输、同步都会导致部分 GPU 算力闲置,所以单个 GPU 性能越高,数量越少,GPU 的利用效率就高,相应的成本则越低。

ChatGPT引发AI芯片荒 台积电成了英伟达身后的超级大赢家

英伟达 DGX H100 AI 超级计算机 图源:英伟达

而英伟达 2020 年以来发布的 A100 、H100,一方面拥有单卡的高算力,另一方面又有高带宽的优势。A100 的 FP32 算力达到 19.5 TFLOPS(每秒万亿次浮点运算),H100 更是高达 134 TFLOPS。

同时在 NVLink 和 NVSwitch 等通信协议技术上的投入也帮助英伟达建立了更深的护城河。 到 H100 上,第四代 NVLink 可以支持多大 18 个 NVLink 链接,总带宽达 900GB/s,是 PCIe 5.0 带宽的 7 倍。

面向中国市场定制的 A800 和 H800,算力几乎不变,主要是为了避开管制标准,带宽分别削减了四分之一和一半左右。按照彭博社的说法,同样的 AI 任务,H800 要花比 H100 多 10% -30% 的时间。

但即便如此,A800 和 H800 的计算效率依然超过其他 GPU 和 AI 芯片。这也是为什么在 AI 推理市场会出现「百花齐放」的想象,包括各大云计算公司自研的 AI 芯片和其他 GPU 公司都能占据一定的份额,到了对性能要求更高的 AI 训练市场却只有英伟达「一家独大」。

ChatGPT引发AI芯片荒 台积电成了英伟达身后的超级大赢家

H800“刀”了带宽 图源:英伟达

当然,在「一家独大」的背后,软件生态也是英伟达最核心的技术护城河。这方面有很多文章都有提及,但简而言之,最重要的是英伟达从 2007 推出并坚持的 CUDA 统一计算平台,时至今日已经成为了 AI 世界的基础设施,绝大部分 AI 开发者都是以 CUDA 为基础进行开发,就如同 Android、iOS 之于移动应用开发者。

不过照理说,英伟达也明白自己的高端 GPU 非常抢手,春节后就有不少消息指出,英伟达正在追加晶圆代工订单,满足全球市场的旺盛需求,这几个月时间理应能够大幅提高代工产能,毕竟又不是台积电最先进的 3nm 工艺。

然而问题恰恰出在了代工环节。

英伟达的高端 GPU,离不开台积电

众所周知,消费电子的低潮以及还在继续的去库存,导致晶圆代工大厂的产能利用率普遍下滑,但台积电的先进制程属于例外。

由于 ChatGPT 引发的 AI 热潮,基于台积电 7nm 工艺的 A100、4nm 的 H100 都在紧急追加订单,其中台积电 5/4nm 的产线已经接近满载。供应链人士也预估,英伟达大量涌向台积电的 SHR(最急件处理等级)订单将持续 1 年。

换言之,台积电的产能并不足以应付英伟达短期内的旺盛需求。不怪有分析师认为,由于 A100、H100 GPU 始终供不应求,不管从风险控制还是成本降低的角度,在台积电之外寻找三星乃至英特尔进行代工都是题中应有之义。

ChatGPT引发AI芯片荒 台积电成了英伟达身后的超级大赢家

半导体硅片上造芯片 图源:台积电

但事实证明,英伟达至少在短期内没有这个想法,也没有办法离开台积电。就在 Sam Altman 抱怨英伟达 GPU 不够用之前,英伟达创始人兼 CEO 黄仁勋才在 COMPUTEX 上表示,英伟达下一代芯片还是会交由台积电代工。

技术上最核心的原因是,从 V100、A100 到 H100,英伟达的高端加速卡都采用台积电 CoWoS 先进封装技术,用来解决高算力 AI 背景下芯片的存算一体。而 CoWoS 先进封装核心技术:没有台积电不行。

2012 年,台积电推出了独家的 CoWoS 先进封装技术,实现了从晶圆代工到终端封装的一条龙服务,客户包括英伟达、苹果等多家芯片大厂在高端产品上都全线采用。为了满足英伟达的紧急需求,台积电甚至采用部分委外转包的方法,但其中并不包括 CoWoS 制程,台积电仍专注在最有价值的先进封装部分。

按照野村证券预估,2022 年底台积电 CoWoS 年化产能大概在 7-8 万片晶圆,到 2023 年底有望增至 14-15 万片晶圆,到 2024 年底有望挑战 20 万片产能。

但远水解不了近火,台积电先进 CoWoS 封装的产能严重供不应求,去年起台积电 CoWoS 的订单就在翻番,今年来自谷歌、AMD 的需求同样强劲。即便是英伟达,也要通过黄仁勋与台积电创始人张忠谋的私人关系,进一步争取更高的优先级。

ChatGPT引发AI芯片荒 台积电成了英伟达身后的超级大赢家

台积电 图源:Wikimedia Commons

写在最后

过去几年由于疫情和地缘政治的变化,所有人都意识到了一种建立在沙子之上的尖端技术——芯片是如此重要。ChatGPT 之后,AI 再度举世瞩目,而连带对人工智能和加速算力的渴望,无数芯片订单也纷至沓来。

高端 GPU 的设计和制造都需要很长研发投入和积累,需要面对难以逾越的硬件和软件壁垒,这也导致了在这场「算力的盛宴」之中,英伟达和台积电可以拿到大部分的蛋糕以及话语权。

不管是今天关心生成式 AI,还是上一轮以图像识别为主的深度学习浪潮,中国公司在 AI 软件能力上的追赶速度都有目共睹。然而中国公司花费巨资,调转船头开向 AI 的时候,很少着眼于更底层的硬件。

但 AI 加速背后,最重要的四款 GPU 已经有两款在国内受限,另外两款阉割的 A800、H800 不仅拖慢了中国公司的追赶速度,同时也无法排除受限的风险。比起在大模型上的角逐,或许,我们更需要看到中国公司在更底层的竞争。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-06-27 17:45:22

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

一块H100 GPU显卡,英伟达赚23.7万
因为AI大模型的火爆,英伟达成为了今年芯片领域的最大赢家。因为所有的AI大模型,都需要GPU显卡,而英伟达的A100、H100、A800、H800等,被所有厂商疯抢,真的是一卡难
2023-08-27 16:25:00
sk海力士计划在美国建晶圆厂
...了不少市场份额,甚至出现了“赢家通吃”的局面。作为英伟达高带宽存储器合作伙伴,SK海力士目前向其大量供应HBM3和HBM3E芯片。据相关媒体报道,SK海力士透露,考虑在美国印
2024-02-03 02:25:00
英伟达市值一夜暴涨5000亿,黄仁勋坐稳AI铁王座
来源:中国企业家英伟达和黄仁勋,成为AI大模型浪潮最大赢家。文|《中国企业家》记者 赵东山30岁开始创业,60岁的AI教父黄仁勋,在今年等来他的高光时刻——伴随着AI大模型在全球
2023-08-26 13:53:00
英伟达面临AI芯片供应短缺,转向英特尔寻求封装服务
从去年开始,负责英伟达AI芯片的制造及封装的台积电(TSMC)在先进封装方面的产能变得紧张,为此不断扩大2.5D封装产能,以满足持续增长的产能需求。此前有报道称,台积电整全力以赴
2024-02-02 10:31:00
三星计划为英伟达AI GPU提供HBM3和2.5D封装服务
据TheElec报道,英伟达正在努力实现数据中心AI GPU中使用的HBM3和2.5D封装的采购多元化。消息人士称,这家美国芯片巨头正在与包括三星在内的潜在供应商进行交易谈判
2023-07-20 19:00:00
Intel CEO:如果没了中国的订单 再建晶圆厂还有啥用?
...人士透露,近日,英特尔CEO帕特·基辛格(Pat Gelsinger)、英伟达CEO黄仁勋(Jensen Huang)和高通公司CEO克里斯蒂亚诺·阿蒙(Cristiano Amon)与拜登政府官员在华盛顿举行了会议
2023-07-24 18:32:00
受英伟达ai芯片需求暴涨影响,台积电紧急订购封装设备
6月7日消息,昨日台积电总裁魏哲家透露,英伟达及台积电先前低估了市场对于GPU的需求,现有CoWos湿制程封装设备已经无法满足订单需要。据台媒《经济日报》称,晶圆厂消息人士透露,
2023-06-07 22:03:00
英伟达计划提高2024年数据中心GPU产量
近日,英伟达公布了2024财年第二财季的财报,得益于过去几个月的高性能计算(HPC)和人工智能(AI)的高需求,季度营收首次超过100亿美元,达到了135.07亿美元。其中数据中
2023-08-31 21:30:00
英伟达下一代显卡曝光,代号“Blackwell”
...如NVIDIAGeForceRTX50“Blackwell”系列)的价格上涨。据报道,英伟达首席执行官还访问了台湾
2023-04-14 12:42:00
更多关于科技的资讯: