• 我的订阅
  • 科技

Meta连甩AI加速大招 首推AI推理芯片 AI超算专供大模型训练

类别:科技 发布时间:2023-05-19 14:01:00 来源:智东西

当地时间5月18日,Meta在官网发布公告,为了应对未来十年AI算力需求急剧增长,Meta正执行一项宏伟计划——专为AI建设下一代基础设施。

Meta公布了其为AI构建下一代基础设施的最新进展,包括首款用于运行AI模型的定制芯片、一个全新的AI优化数据中心设计、首款视频转码ASIC,以及集成16000块GPU、用于加速AI训练的AI超级计算机RSC等。

Meta连甩AI加速大招 首推AI推理芯片 AI超算专供大模型训练

Meta官网关于AI基础设施细节的披露

Meta将AI视为公司的核心基础设施。自从2010年Meta的第一个数据中心破土动工至今,AI已成为每天使用Meta系列应用程序的30多亿人的引擎。从2015年的Big Sur硬件到PyTorch的开发,再到去年Meta的AI超算的初步部署,Meta当下正将这些基础设施进一步升级进化。

01.Meta首代AI推理加速器7nm制程、102.4TOPS算力

MTIA(Meta Training and Inference Accelerator),是Meta第一个针对推理工作负载的内部定制加速器芯片系列。

AI工作负载在Meta的业务中中无处不在,这是广泛应用项目的基础,包括内容理解、信息流、生成式AI和广告排名等。随着AI模型的大小和复杂性的增加,底层硬件系统需要在保持效率的同时提供指数级增长的内存和计算。但Meta发现CPU难以满足其规模所需的效率水平需求,于是针对这一挑战设计了Meta自研训练和推理加速器MTIA ASIC系列。

自2020年起,Meta为其内部工作负载设计了第一代MTIA ASIC。该加速器采用台积电7nm工艺,运行频率为800MHz,在INT8精度下提供102.4TOPS算力,在FP16精度下提供51.2TFLOPS算力。它的热设计功率(TDP)为25W。

据介绍,MTIA提供了比CPU更高的计算能力和效率,通过同时部署MTIA芯片和GPU,其将为每个工作负载提供更好的性能、更低的延迟和更高的效率。

02.布局下一代数据中心开发首款视频转码ASIC

Meta的下一代数据中心设计将支持其当前的产品,同时支持未来几代AI硬件的训练和推理。这个新的数据中心将是面向AI优化设计,支持液冷AI硬件和连接数千个AI芯片的高性能AI网络,用于数据中心规模的AI训练集群。

据官网解读,Meta下一代数据中心还将更快、更经济地构建,并将补充其他新硬件,例如Meta的第一个内部开发的ASIC解决方案MSVP,旨在为Meta不断增长的视频工作负载提供动力。

随着生成式AI等新技术内容产生,人们对视频基础设施的需求进一步加剧,这推动Meta推出了一款可扩展视频处理器MSVP。

MSVP是Meta为内部开发的第一个用于视频转码的ASIC。MSVP是可编程和可扩展的,并且可以配置为有效地支持点播所需的高质量转码,以及直播所需的低延迟和更快的处理时间。未来,MSVP还将帮助为Meta应用系列的每个成员带来新形式的视频内容——包括AI生成的内容以及VR(虚拟现实)和AR(增强现实)内容。

Meta连甩AI加速大招 首推AI推理芯片 AI超算专供大模型训练

MSVP的架构示意图

03.AI超算集成16000个GPU支持LLaMA大模型加速训练迭代

据Meta公告,其AI超级计算机(RSC)是世界上最快的人工智能超级计算机之一,旨在训练下一代大型AI模型,为新的AR工具、内容理解系统、实时翻译技术等提供动力。

Meta RSC具有16000个GPU,所有GPU都可以通过三级Clos网络结构访问,为2000个训练系统中的每个系统提供全带宽。在过去的一年里,RSC一直在推动像LLaMA这样的研究项目。

LLaMA是Meta在今年早些时候构建并开源的大型语言模型,具有650亿参数规模。Meta称其目标是提供一个更小、更高性能的模型,研究人员可以在不需要重要硬件的情况下对特定任务进行研究和微调。

Meta基于1.4万亿Tokens训练了LLaMA 65B和较小的LLaMA 33B。其最小的模型,LLaMA 7B,训练也用到了一万亿Tokens。大规模运行的能力允许Meta加速训练和调优迭代,比其他企业更快地发布模型。

04.结语:大模型技术应用倒逼大厂加速布局基础设施

Meta之所以自定义设计其大部分基础设施,主要是因为这能使其优化端到端的体验,包括从物理层到软件层再到实际的用户体验。因为从上到下控制堆栈,所以其可以根据自己的特定需求对其进行定制。这些基础设施将支持Meta开发和部署更大规模、更复杂的AI大模型。

在未来几年里,我们将看到芯片设计、专用和特定工作负载的AI基础设施、新系统和工具的专业化、定制化程度的提高,以及产品和设计支持效率的提高。这些都将提供建立在最新研究基础上的日益复杂的模型和产品,使世界各地的人们能够使用这种新兴技术。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-05-19 18:45:14

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

从狂热到理性:大模型训练三堵墙,一场少数人的游戏 | 钛媒体深度
...型的厂商,无一例外在AI领域都有足够积累,特别是底层基础设施层面,他们的实践也在验证“云是规模算力的最佳承载平台”这一判断。“为了打造AI超级计算机,微软早在2018年就开始
2023-06-29 12:00:00
谷歌推出第五代AI芯片:训练和运行AI模型的速度提高5倍
...了5倍。据科技媒体TechCrunch报道,谷歌云计算和机器学习基础设施副总裁兼总经理马克·洛迈尔(Mark Lohmeyer) 表示
2023-08-31 10:04:00
特斯拉,不仅仅是芯片
...式发展的秘诀。特斯拉目前拥有非常少量的内部人工智能基础设施,只有约 4000 个 V100 和约 16000 个 A100
2023-06-28 12:00:00
GPT-4被破解 训练成本 模型架构的秘密都被挖出来了?
...-4 的信息,今天我们想分享一下。这包括模型架构、训练基础设施、推理基础设施、参数计数、训练数据集组成、令牌计数、层数、并行策略、多模态视觉适应、不同工程权衡背后的思维过程、
2023-07-12 20:14:00
AI服务器缺货真相调查:两天涨价30万,连“味精大王”都入场了
...层的“盖章”。10月8日,工信部等六部门联合印发《算力基础设施高质量发展行动计划》,计划提出,到2025年我国算力规模超过300EFLOPS(300百亿亿次浮点运算/秒)
2023-10-21 17:43:00
AI大算力芯片行业报告:百舸争流,创新者先
...意见,加快计算中心、算力中心、工业互联网、物联网等基础设施建设。基于国家与地方政府相关政策指引,AI厂商们纷纷建立起超算/智算中心,较于以往不同的是,今年算力的首个市场化运作
2023-06-20 20:00:00
卷模型技术,更要卷工程实现
...开源,模型间的技术壁垒有望进一步消除,如何降低 AI 基础设施和模型实施的成本将成为企业、团队和个人开发者关切的话题。这要求企业对人工智能技术有全面的认识,并对自身的基础设施
2023-08-10 10:00:00
“AIGC智算之道”圆桌对话: 浪潮信息+百川+快手+金山办公
...会面临算力的瓶颈、算力的压力,大家期待什么样的算力基础设施来支撑大模型的创新和应用?刘军:从浪潮信息的角度,首先是全力做好算力供给保障工作,在算力供应紧张的背景下,如何构建具
2023-09-13 18:00:00
英特尔推出新款AI芯片:推理性能比英伟达H100快50%
...术,提供部署便利性、性能和价值。RAG可使企业在标准云基础设施上运行的大量现存专有数据源得到开放大语言模型(LLM)功能的增强,加速生成式AI在企业中的应用。进入4月以来,英
2024-04-10 10:52:00
更多关于科技的资讯: