• 我的订阅
  • 科技

谷歌推出第五代AI芯片:训练和运行AI模型的速度提高5倍

类别:科技 发布时间:2023-08-31 10:04:00 来源:澎湃新闻

·谷歌第五代定制张量处理器(TPU)芯片TPU v5e用于大模型训练和推理,训练和运行AI模型的速度提高了5倍。与上一代芯片相比,TPU v5e每一美元的训练性能提高2倍,每一美元的推理性能提高2.5倍。

谷歌推出第五代AI芯片:训练和运行AI模型的速度提高5倍

谷歌第五代定制张量处理器(TPU)芯片TPU v5e用于大模型训练和推理,训练和运行AI模型的速度提高了5倍。当地时间8月29日,谷歌在旧金山的年度云会议Google Cloud Next上发布了新的人工智能芯片,即第五代定制张量处理器(TPU)芯片TPU v5e,用于大模型训练和推理。与上一代芯片相比,TPU v5e每一美元的训练性能提高2倍,每一美元的推理性能提高2.5倍。TPU是谷歌为神经网络设计的专用芯片,TPU经过优化可加快机器学习模型的训练和推断速度,2016年推出第一代TPU,2021年发布第四代定制处理器TPU,2022年面向开发者提供。云TPU(Cloud TPU)是一项谷歌云服务,适合训练需要进行大量矩阵计算的大型复杂深度学习模型,例如大语言模型、蛋白质折叠建模和药物研发等,帮助企业在实现AI工作负载时节省资金和时间。

此次推出的TPU v5e专为中大型模型训练和推理所需的成本效益和性能而构建。谷歌云表示,该版本芯片的开发重点是效率,与上一代TPU v4相比,TPU v5e每一美元的训练性能提高2倍,每一美元的推理性能提高2.5倍,而成本不到TPU v4的一半,使得更多组织能够训练和部署更大更复杂的AI模型。客户不需要通过牺牲性能或灵活性来获得这些成本效益。谷歌云将TPU v5e描述为“超级计算机”,最多允许256个芯片互连,总带宽超过400 Tb/s,支持八种不同的虚拟机配置,客户可选择合适的配置服务于各种大语言模型和生成式AI模型。根据速度基准测试,在TPU v5e上训练和运行AI模型时速度提高了5倍。

据科技媒体TechCrunch报道,谷歌云计算和机器学习基础设施副总裁兼总经理马克·洛迈尔(Mark Lohmeyer) 表示,“这是迄今为止最具成本效益且易于访问的云TPU。” 洛迈尔强调,谷歌云确保用户能够将其TPU集群扩展到以前无法达到的水平,让客户能够轻松扩展他们的人工智能模型,超越单个TPU集群的物理边界。也就是说,单个大型人工智能工作负载可以跨越多个物理TPU集群,扩展到数万个芯片,并且经济高效。“在云GPU和云TPU方面,我们为客户提供了很多选择和灵活性,以满足我们看到的人工智能工作负载的广泛需求。”

除了新一代TPU,谷歌云还宣布将在下个月推出基于英伟达H100 GPU的A3系列虚拟机,作为GPU超级计算机进行交付,为人工智能大模型提供动力。

(本文来自澎湃新闻,更多原创资讯请下载“澎湃新闻”APP)

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-08-31 12:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

前谷歌工程师创业造AI芯片!产品明年问世,已拿到1.8亿融资
...9日消息,本周二,据彭博社报道,由谷歌前员工成立的AI芯片创企MatX浮出水面。MatX正在挑战英伟达在AI芯片领域的霸主地位
2024-03-30 11:11:00
掰开安卓手机 满屏都是三个字:大模型
...大模型当场塞进手机系统……其竞争激烈程度,不亚于抢芯片首发。到底是怎么回事?究其原因,还是智能终端已经成为了各类AIGC应用的落地“新滩头”。先是图像生成大模型接二连三地被塞
2023-11-16 20:30:00
响应速度碾压英伟达,AI芯片领域又出“王炸” 创始人豪言将把计算成本“降至零”
...视觉震撼时,AI圈又出了一个“王炸”产品,这一次是在芯片领域。自从AI赛道大热以来,人们的关注点主要在各种大模型的竞争,OpenAI、谷歌、Meta等巨头和各种初创企业在软件
2024-02-22 16:46:00
谷歌推出其最先进AI模型Gemini,希望击败GPT-4
...表现相当出色。”与新模型一起亮相的,还有新版本的TPU芯片TPU v5p,旨在减少训练大语言模型相关的时间投入。TPU是谷歌为神经网络设计的专用芯片,经过优化可加快机器学习模
2023-12-07 10:21:00
GPT-4被破解 训练成本 模型架构的秘密都被挖出来了?
... GPU 的几代生命周期中,Nvidia 不断更新低级软件,通过在芯片周围、芯片和内存之间更智能地移动数据来提高 FLOPS 利用率
2023-07-12 20:14:00
携手华为,科大讯飞打造中国通用智能新底座
...速增长的态势,而另一方面却是支撑AI核心算力的高端GPU芯片面临短缺,算力吃紧的问题。尤其是国内蓬勃发展的大模型,对于算力的需求相当迫切。科大讯飞高级副总裁、认知智能全国重点
2023-07-12 00:56:00
微软推出自研AI芯片:台积电5nm工艺、Open AI开启试用,想摆脱对英伟达依赖?
...时代带来的强劲算力需求,越来越多的科技巨头开始自研芯片,三年前入局的微软也终于交出成果。在当地时间周三举行的Microsoft Ignite全球技术大会上,微软正式发布首款自
2023-11-16 16:47:00
李彦宏:AI原生应用比大模型数量更重要
...,人工智能时代,IT技术栈发生了根本性改变,从原来的芯片、操作系统和应用三层架构,变成了芯片、框架、模型、应用四层架构:底层是芯片层,主流芯片从CPU变成了GPU。芯片之上是
2023-06-26 19:20:00
微软被曝未来3年花1000亿美金囤芯片;杨元庆:AI不是取代人类的智能|钛媒体AGI
...。另外,有消息指,微软公司计划到2024年底储备180万块AI芯片,这意味着微软今年计划储备的图形处理单元(GPU)的数量增加了两倍
2024-04-30 11:00:00
更多关于科技的资讯: