我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
出品 | 搜狐科技
作者 | 梁昌均
面对AI时代带来的强劲算力需求,越来越多的科技巨头开始自研芯片,三年前入局的微软也终于交出成果。
在当地时间周三举行的Microsoft Ignite全球技术大会上,微软正式发布首款自研AI芯片和云计算处理器,试图竞争越发激烈的AI计算市场掌握更多技术,也显示了微软想与亚马逊、谷歌等加强竞争的意图。
微软CEO Satya Nadella(萨提亚·纳德拉)表示:“我们的目标是,确保我们和我们的合作伙伴能够带来终极效率、性能和规模。”
对目前正在加速AI大模型服务布局的微软来说,自研芯片更多有着成本考虑,同时也能够避免过度依赖供应商,对其长期的商业化也将产生影响。
两款芯片均为5nm制程,OpenAI开启测试
微软发布的首款AI芯片命名为Maia 100,是一款用于云端训练和推理的AI加速器芯片。这款芯片采用台积电5nm制程,晶体管数量达到1050亿个,1600-3200TFLOPS的算力、4.8Tbps的网络IO等超过了英伟达H100和AMD MI300X,但在宽带等指标上有所落后。
微软表示,Maia将作为Azure云计算服务的一部分,率先支持微软自己的AI应用,然后向合作伙伴和客户开放,但并不打算单独出售芯片。目前,微软已在用Bing和Office AI产品测试该芯片,和微软有密切合作的也正在GPT-3.5 Turbo上进行测试,微软将利用这些经验教训来构建未来的芯片。
微软发布的第二款芯片是云处理器Cobalt 100,是一款基于Arm架构的128核芯片,同样是基于台积电的5纳米制造技术。纳德拉表示,它比当前一代基于Arm架构的Azure芯片性能提升了40%,并称其为”云计算供应商中速度最快的芯片”。
这两款芯片将在明年初开始在微软数据中心推出,为微软的Copilot或Azure OpenAI Service等服务提供动力。微软还表示,目前已经在研发第二代的Maia AI芯片和Cobalt CPU。
随着这两款芯片的发布,微软也初步构建起从底层硬件、软件,到下游应用的更为完善的云计算服务基础体系,从而与亚马逊、谷歌等对手展开竞争。这两家巨头自研芯片的时间比微软更长,亚马逊早在2015年就收购了芯片公司,并在自己的云服务中使用,甚至还对外出售云计算和AI芯片。
外界分析认为,微软自研芯片更多还出于成本考虑。AI大模型尤其是参数越大的模型所需要的芯片就越多,有数据提到,如果把大模型都部署在Bing、Office 365、GitHub等产品中,微软需要投入高达数百亿美元的硬件基础设施成本,其中AI芯片占大比例。
同时,随着微软Copilot等AI服务开启广泛应用后,用户越多、使用越多,也会带来额外的运营成本。OpenAI此前就被爆出光是运行ChatGPT,每日投入成本就可能高达70万美元。微软推出的GitHub Copilot等AI服务也因运营成本过高一直在赔钱,今年头几个月每位用户每月平均损失超过20美元。
微软表示,通过提供由自己定制的芯片驱动的服务,可以在性能和效率方面带来巨大的收益。作为全球第二大云计算厂商,,微软的系统将运行在自己设计的芯片上,软硬一体,兼容性更强,有望带来更好的性能。长期来看,自研芯片能够降本增效。
这也是亚马逊、谷歌、苹果、Meta,以及国内的阿里、腾讯等都在推进芯片自研的业界共识。相反来看,英伟达在芯片基础之上也在持续研发自己的AI系统,背后的考虑亦是如此。Open AI此前也被曝光正在自研AI芯片,并公开招募芯片工程师。
目前,OpenAI正在GPT-3.5 Turbo上测试微软的Maia 100芯片。“当微软首次分享其Maia芯片的设计时,我们很兴奋,我们一直在共同努力,用我们的模型对其进行改进和测试。“OpenAI首席执行官Sam Altman表示,Azure的人工智能架构与Maia芯片的优化,为训练更有能力的模型铺平了道路,并使这些模型对客户来说更便宜。
避免供应商依赖,“抛弃”英伟达?
微软自研芯片还有供应链方面的考虑。负责Azure芯片部门的副总裁Rani Borkar就提到,对微软这样规模的公司来说,重要的是优化和整合其硬件的每个元素以提供最佳性能,并避免供应链瓶颈。
以能够运行大模型的AI芯片来看,英伟达几乎垄断了这一市场,但由于其产能限制导致市场供应紧张,单张GPU H100的价格今年暴涨到2.5万-4万美元,英伟达也因此爆赚。
在AI大模型还未带来明显的商业化效益前,微软显然会面临投入产出不平衡的局面,而对英伟达的过度依赖显然不利于改善这一情况。
不过,微软推出自己的芯片,并不代表将完全抛弃英伟达。微软表示,将继续提供运行英伟达H100芯片的云计算功能,并增加对英伟达刚发布的H200芯片的访问权限。微软还透露,他们正在AMD的MI300X上测试运行GPT- 4,将开始向部分用户开放,明年将全面提供AMD MI300芯片的接入服务。
在此次大会上,纳德拉还邀请英伟达CEO黄仁勋来到现场。黄仁勋表示,AI的第一波浪潮源自OpenAI等一批创业公司,现在整个产业已经进入了第二波浪潮,由微软Copilot推动的企业级AI。而第三波也是最大的那一波将会是整个世界的重工业数字化,并从生成式AI中获益。
“生成式AI是计算史上最重要的平台转型,过去12个月,微软与英伟达两个团队尽一切努力加快速度,联手打造了世界上最快的AI超级计算机。”黄仁勋表示,英伟达将成为AI模型的代工厂。
双方还宣布,微软Azure云将接入英伟达的AI工坊服务(AI foundry service),其涵盖英伟达的AI基础模型、NeMo框架和工具,以及英伟达DGX Cloud AI超级计算和服务三大要素。微软用户将可以在Azure云上利用英伟达的AI软件生成并部署模型。
显然,走向芯片自研的微软,还没到跟英伟达撕破脸的时候,其芯片具体性能、运行效果到底如何还需要一定时间的观察。此外,英伟达芯片更为成熟,也有稳定的生态系统,微软能多大程度替代也未可知。
在此次大会上,微软再次更新了Copilot产品布局,将必应Chat更名为Copilot。365服务也迎来迭代,将OpenAI在上周发布的GPTs融合进入微软Copilot体系,并推出Copilot Studio,帮助用户创建GPT和补丁、自定义工作流等。
此外,微软还宣布推出MAAS产业模式(模型即服务),用户可以直接通过微软云来调用API、微调和部署各类开源大模型。微软已与Meta等达成合作,将开源的Llama 2等作为服务推出。可以说,微软在AI大模型产品和服务上再次进化,透露出其对于商业化的渴望。
对于持续布局AI大模型服务和产品的微软来说,自研芯片何时能规模上线、是否会带来更好的使用体验,以及到底能带来多大成本的下降,都将影响其后续商业化的表现。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-11-16 18:45:01
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: