我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
购置芯片,买的越多,省得越多?只需一台电脑,在家就能微调大模型?从前费时费力又烧钱的元宇宙,如今用生成式AI已经可以快速生成数字孪生模型,迅速构建虚拟世界?
8月8日,皮衣教主黄仁勋带着英伟达的一系列更新,在SIGGRAPH现场发表NVIDIA主题演讲。SIGGRAPH是计算机图形学的年度顶级会议,也是计算机图形学和交互技术领域的一个重要组织。
而英伟达自1993年创立以来,在计算机图形学领域扎根,推动着图形处理器(GPU)技术的发展,包括实时光线追踪技术的突破、多核与众核处理器创新以及在人工智能和深度学习领域加速算法的训练和推理。这也是时隔五年后,皮衣教主黄仁勋再一次登上SIGGRAPH的演讲台。

那么此次演讲,皮衣教主给各路看客带来了哪些惊喜?划重点了!一、GH200+GraceHopper:降低大语言模型推理成本
今年五月,英伟达发布了GH200系统,专为处理大规模的生成式人工智能(GenerativeAI)工作负载而设计。GH200将256个NVIDIAGraceHopper™Superchip完全连接成一个单一的GPU,可以支持处理大规模的推荐系统、生成式人工智能和图分析等领域的模型。
此次演讲,黄仁勋又详细介绍了自己“如数家珍”的GH200,在他看来,未来的前沿模型将会在大规模系统上进行训练和应用。每个节点上都会有一个单一的GraceHopper,这种架构在过去60年来一直是计算的方式,现在在加速计算和AI计算方面将成为主流,未来将使得前沿模型能够更好地进行训练和应用。
也就是说,此类系统可以进行普适性应用,未来的前沿模型将成为各种应用的前端。每个应用程序、每个数据库,在与计算机交互时,都可能首先与一个大型语言模型进行交互。这些模型将理解用户的意图、愿望和特定情境,并以最佳方式呈现信息。这种模型将进行智能查询和搜索,甚至可能用于音乐生成等领域。“在计算的未来,加速计算和AI计算将成为主流。”黄仁勋信心满满的展望道。
在能源效率和成本效益方面,黄仁勋反复强调:“买的越多,省得越多”。这可不是“信口开河”,加速计算在生成式AI应用程序的能源效率和成本效益方面相当于20倍的Moore定律和目前的CPU扩展方式。Moore定律是由英特尔创始人之一戈登・摩尔提出的观点。其核心内容是,集成电路上可以容纳的晶体管数量,大约每隔18个月到24个月就会增加一倍。换句话说,处理器的性能大约每两年翻一倍,同时价格下降为之前的一半。那么,20倍的Moore定律是什么概念?
黄仁勋举了一个生动的例子:具体来说,打造一个数据中心,使用通用计算的GPU需要1亿美元,而使用加速计算的GraceHopper仅需800万美元。而且使用通用计算的能耗是兆瓦级别,而使用GraceHopper仅需262千瓦(即262,000瓦),能耗减少了20倍。成本方面,使用GraceHopper相较通用计算成本减少了12倍。使用加速计算可以显著降低能耗,同时大幅降低成本。也就是说购买越多GH200,节省的成本就越多。

二、进击的Omniverse:元宇宙触手可及?
在生成式AI现在可以自动生成数字孪生模型之前,数字孪生模型的构建是一个相对复杂的过程,涉及多维虚拟模型和融合数据的驱动。无论是多维虚拟模型构建、数据采集与传感器集成还是模型融合和校准、交互式仿真和优化等流程,以往的数字孪生模型构建过程更多地依赖于专业人员的经验和手动操作,需要将实际数据与虚拟模型进行集成和校准,以实现监控、仿真、预测和优化等功能。
这样的制作过程,别说是个人,就连许多“财大气粗”的企业也望而却步。然而,英伟达Omniverse的更新让数字孪生的门槛进一步降低,目前开发者、企业和行业已经能够使用OpenUSD框架和生成式AI优化改进3D流程,也就是说,开发者可以随意在Omniverse上制作自己的专属虚拟助理和数字人,企业也可以在此平台上自动生成产品的数字孪生广告大片。
黄仁勋现场展示了世界上最大的广告公司WPP与电动汽车制造商比亚迪基于Omniverse的合作。OmniVerseCloud允许比亚迪使用高保真数据创建实时数字孪生体,从而实现物理精确的模拟。WPP的艺术家可以在同一环境中使用AutoDesk、Adobe和SideFX等工具进行无缝协作,使得比亚迪可以通过OmniVerseCloud连接不同时间和空间的设计师和开发者,从而快速构建具有物理级准确性的虚拟世界。
来感受下生成的炫酷数字孪生大片,汽车颜色与场景都可以随意变换,上一秒还是黑色,下一秒就能变为红色,上一个画面还在草原,下一帧就直接出现在雪地!
黄仁勋进一步介绍道,OpenUSD技术使WPP能够创建一个超级数字孪生体,将所有可能的变化整合到一个单一资产中。这个数字孪生体部署在UniverseClassGDNA网络上,实现了完全交互式的三维配置器,可以将高保真度的实时三维体验传送到全球100多个地区的设备上。该解决方案还可以生成个性化的内容,用于全球营销活动,USD模型位于三维环境中,可以使用现实世界中的扫描数据或生成式AI工具进行创建。
同时,Machinima应用也得到了更新,以帮助用户更好地构建逼真的虚拟形象。引入了NVIDIAOmniverseAvatarCloudEngine(ACE),以及新的Omniverse连接器和应用,这使用户可以轻松地构建和自定义虚拟助理和数字人。
目前,Omniverse用户已经可以通过OmniLive增强USD(UniversalSceneDescription)工作流中的交互,将真实世界的实时准确性引入3D虚拟世界。三、AIWorkbench:在家就能Fine-tune,AI帮你叠BUFF?
只需一台电脑,在家就可以测试、微调大模型?用皮衣教主黄仁勋的话来总结就是:“人人都可以生成AI”。
这已经不是天方夜谭,黄仁勋此次现场宣布英伟达发布了全新的统一工作空间,名为NVIDIAAIWorkbench。该平台为开发者提供了一个统一、易用的工作空间,使他们能够在个人电脑或工作站上快速创建、测试和微调生成式AI模型,然后将这些模型扩展到几乎所有数据中心、公有云或DGXCloud。

与此同时,黄仁勋宣布NVIDIA将与初创企业HuggingFace一起为数百万开发者提供生成式AI超级计算,帮助他们构建大型语言模型等高级AI应用。开发者将能够使用HuggingFace平台内的NVIDIADGXCloudAI超级计算训练和调整高级AI模型。

具体而言,AIWorkbench和HuggingFace将怎样帮打工人解放双手呢?
NVIDIA基于新一代AdaLovelace架构的NVIDIARTX6000工作站GPU,为设计师和创作者提供了具有2-4倍性能提升的强大工具。这款GPU可以使设计师和工程师能够驱动先进的基于模拟的工作流程,构建和验证更复杂的设计。艺术家可以将叙事推向新的高度,创造更引人入胜的内容,构建沉浸式虚拟环境。科学家、研究人员和医疗专业人员可以在工作站上利用超级计算能力来加速开发生命救助药物和程序,其性能达到上一代RTXA6000的2-4倍。
NVIDIA的RTX6000AdaGenerationGPU则采用了Ada架构AI和可编程着色器技术,可为神经图形和高级虚拟世界模拟提供理想的平台,可用于使用NVIDIAOmniverseEnterprise创建元宇宙内容和工具。
除了RTX6000之外,NVIDIA还推出了三款全新的工作站GPU:RTX5000、RTX4500和RTX4000,这些新产品在规格上各有不同。RTX5000采用了AD102芯片,是RTX6000的削减版本,提供12800CUDA核心和32GBGPU内存。RTX4500采用了AD104芯片,拥有24GBGPU内存。而RTX4000是入门级的工作站GPU,采用了20GBGPU内存和6144CUDA核心。这些新GPU将为设计师、创作者和工程师提供更广泛的选择,以满足不同领域的需求。也就是说,有了AIWorkbench和HuggingFace,打工人完全可以叠BUFF,利用平台完成更加精细、更加复杂的内容。

毫无疑问的是,NVIDIA无论在生成式人工智能、数字孪生建模方面的进展还是AIWorkbench的推出以及与HuggingFace的合作,都是在推动人工智能、虚拟现实以及内容创作的未来,降低生成式AI的门槛,让“不会用AI的低成本用上AI,会用AI的用的更加娴熟并更加节省成本”,给诸多行业提供“加速器”。皮衣教主黄仁勋,正在人工智能、图形和模拟领域不断推动技术的边界,带来新的惊喜。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-08-10 15:45:19
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: