• 我的订阅
  • 科技

Meta首次公布AI芯片细节 功耗低于英伟达

类别:科技 发布时间:2023-05-19 14:00:00 来源:砍柴网

Meta并不像谷歌、微软等科技巨头从事销售云计算服务的业务,过去公司从未公开谈论其内部数据中心芯片项目。

为了更好地支持人工智能项目,科技巨头竞相在企业内部研发AI芯片。Facebook母公司Meta在5月18日首次宣布了其AI自研芯片项目,并分享了数据中心项目的新细节。

Meta首次公布AI芯片细节 功耗低于英伟达

Meta并不像谷歌、微软等科技巨头从事销售云计算服务的业务,过去公司从未公开谈论其内部数据中心芯片项目。但Meta高管称,全球科技界都对此表现出兴趣,所以有必要与外界沟通。

Meta当天股价上涨近2%。今年以来,该公司累计涨幅已经翻番。

在一篇博客文章中,Meta公司表示,它早在2020年就设计了第一代芯片,作为Meta训练和推理加速器(MTIA)计划的一部分,主要用于提升广告投放和其他内容推荐模型的效率。

据Meta介绍,首个MTIA芯片将专注于AI推理。Meta软件工程师Joel Coburn表示,Meta最初考虑将GPU用于推理任务,但后来发现GPU并不不太适合推理工作。

“GPU在真实模型应用方面的效率仍然很低,而且部署起来成本高昂。”Coburn表示,“这就是我们需要MTIA的原因。”

研究机构Gartner分析师盛陵海对第一财经记者表示:“英伟达的GPU也可以用于推理,但是效能不一定合适,因为推理需要的算力区别很大,很多时候会浪费算力,就好像重型卡车不适合做保姆车。还是要根据具体应用场景,匹配相应的算力。”

市场认为,AI芯片最终将支持更高级的元宇宙相关任务,例如虚拟现实和增强现实,以及新兴的生成式人工智能领域。

今年2月,Meta发布了新的大型语言模型LLaMA之后,扎克伯格宣布公司正在创建一个专注于生成式AI研发的顶级团队。

目前Meta使用由16000个英伟达A100 GPU组成的超级计算机来训练LLaMA语言模型。公司称,最大的LLaMA语言模型LLaMA 65B包含650亿个参数。相比之下,谷歌最新发布的大型语言模型PaLM 2包含了3400亿个参数。

Meta去年开启大规模裁员,并转而加大对AI技术基础设施的投资建设。不过,它没有就MTIA新型芯片的部署时间表发表评论。

Meta承认,MTIA芯片在处理高复杂度AI模型时仍然面临挑战,但在处理中低复杂度模型时,比竞争对手的芯片更有效。

“MTIA芯片的功耗仅为25瓦,远低于英伟达等厂商的芯片功耗,并使用RISC-V的开源芯片架构。”Meta在博客中表示,“性能的改进将证明投资是合理的。”

另据博客文章介绍,该芯片处理器采用台积电7纳米工艺制造。不过公司没有进一步透露相关的细节。

Meta还介绍了一种称作“可规模化视频处理器”(MSVP)的芯片,可用于处理视频并传输,同时降低能源需求。公司称,每天需要处理40亿个视频的任务。

【来源:第一财经】返回搜狐,查看更多

责任编辑:

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-05-19 17:45:22

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

英伟达新版旗舰AI芯片售价炒到4万美金 “算力垄断”难被打破
...语言模型带动的芯片需求飙升趋势依然没有平息的迹象。英伟达的最新版旗舰AI芯片H100近日在网上的售价已经被炒到4万多美金,反映了科技行业对训练和部署人工智能软件的需求仍未被满
2023-04-16 23:42:00
英伟达深度布局+大模型全面赋能!自动驾驶芯片迎爆发期,受益上市公司梳理
...启“主驾位无安全员”的自动驾驶无人化测试。国际巨头英伟达在自动驾驶领域布局已久,拥有从算法到底层软件中间件再到芯片的全栈解决方案
2023-06-04 10:00:00
AI芯片下半场:英伟达不再一家独大
ChatGPT爆火迄今,英伟达被公认为本次全球AI淘金浪潮的最大“卖铲人”,也是各大媒体和社交平台上讨论度最高的一家AI芯片公司。不过,随着AI热潮持续升温,越来越多厂商也开始在
2023-11-16 23:46:00
AI推理速度提升超10倍,Groq LPU能否取代英伟达GPU?
...得其对于大模型的推理速度提高了10倍以上,甚至超越了英伟达的GPU。推理速度是英伟达GPU的10倍,功耗仅1/10据介绍
2024-02-21 14:03:00
大模型下沉,汽车需要存算一体芯片|超级观点
...项之初认为:“按照现在生成式AI的快速发展,2027年预计英伟达大概需要提供150万台服务器,每年消耗的电量接近一个瑞典或荷兰、阿根廷体量国家一年的耗电量。在AGI初步实现的
2023-12-07 19:25:00
大模型厂商急寻PlanB:英伟达改良版芯片已调试 华为等国产算力供应不足
...令正式生效,已经月余。《IT时报》记者多方采访获悉,英伟达面向中国市场的改良版——HGX H20已与国内头部服务器厂商在进行适配测试,由于具体的性能差异和优化程度挂钩,目前还
2023-11-29 10:32:00
收入占比40%、电话会议点名16次,英伟达:推理端的需求被低估了
昨天凌晨,英伟达发布了2024财年第四季度财报,业绩再次超出预期。但比起亮眼的业绩,更让人印象深刻的是,英伟达在财报电话会议的一个观点:推理端的爆发,可能很多人还是低估了。据英伟
2024-03-02 13:38:00
英伟达发布GB200计算卡:2080亿个晶体管,AI性能提升5倍
在这个星球上,英伟达毫无疑问是如今的AI之王,其推出的H100已经被众多科技企业抢购,而英伟达的营收和利润也是节节攀升。但是在这个算力决定效率的今天,英伟达H100计算卡的算力还
2024-03-19 11:53:00
AI大算力芯片行业报告:百舸争流,创新者先
...大模型正对算力提出史无前例的要求,具体的表现是:据英伟达数据显示,在没有以Transformer模型为基础架构的大模型之前
2023-06-20 20:00:00
更多关于科技的资讯: