我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
作者 | 虞景霖
编辑 | 邓咏仪 杨逍
AI大模型带来的基础设施增量,正在让底层的芯片竞争愈加白热化。领跑的英伟达,如今也面临越来也多对手的追击。
据路透,AMD CEO苏姿丰表示,计划在2023年第四季度扩产MI300系列芯片,包括CPU-GPU混合型MI300A和纯GPU型MI300X。相关样品已经送达客户进行测试,预计在2024年批量销售。
此消息的发布后,AMD股价在盘后交易中上涨3%。
人工智能(Artificial Intelligence,简称AI)是涉及计算机视觉、语音识别、自然语言处理、机器学习等许多领域的技术,要求计算机具有强大的计算能力,GPU(图形处理器)较CPU(中央处理器)具有更高的并行计算能力,是AI应用的更优选择。
在GPU市场,英伟达现在是毫无疑问的领头羊。据Jon Peddie Research 的GPU市场数据统计报告显示,截至2022年四季度,英伟达(NVIDIA)占据了独立GPU84%的市场份额,远超同业竞争公司。
此次AMD的MI300X芯片,对标的正是英伟达的H100芯片。
在具体参数上,MI300X用两个额外的CDNA-3 GPU芯片替换了MI300A中的三个Zen4 CPU芯片,是MI300A的纯GPU版本。
相较于英伟达H100 SXM,MI300X具备192GB的HBM3内存,是H100的2.4倍,还具有5.2TBps的内存宽带,是H100的1.6倍。更大的内部密度和内存宽带大大提高AI模型的训练速度,减少模型变化带来的性能损耗。
根据AMD CEO 苏姿丰介绍,单个MI300X可以运行含有800亿个参数的大语言模型。
但英伟达的另一产品HI00 NVL的HBM3内存可达188GB,内存宽带为7.8TBps,较AMD的MI300X优势明显。
值得注意一点的是,H100目前已经全面发货、成本更低,更重要的是,MI300系列不具备H100的Transformer引擎,在提高大模型训练性能方面有限。
此前,AMD的两大竞争对手英伟达与英特尔均针对中国市场定制了特供版芯片,但AMD并没有,在中国市场的行动相对滞后。
但如今,AMD不愿再错过。苏姿丰在本周二的分析师电话会议上表示,AMD正在考虑对其 MI300和较旧的MI250芯片采取“类似的策略”。
如今,英伟达的GPU芯片仍无法满足当前快速增长的市场需求。苏姿丰预测,到2027年,AI芯片的市场规模可达1500亿美元。而华为首席供应官应为民表示,国内的人工智能(AI)芯片需求较年初增加了10倍以上。
若AMD的MI250和MI300系列芯片能够在2023年第四季度成功推出,将有效填补缺口,带动公司营收增长。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-08-02 18:45:13
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: