我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
3月28日消息,据报道,英伟达的尖端图像处理半导体(GPU)H200现已开始供货。H20为面向AI领域的半导体,性能超过当前主打的H100。
根据英伟达方面公布的性能评测结果,以Meta公司旗下大语言模型Llama2处理速度为例,H2000相比于H100,生成式AI导出答案的处理速度最高提高了45%。
市场调研机构Omdia曾表示,2022年英伟达在AI半导体市场约占8成的份额,与此同时AMD等竞争对手也在开发对抗英伟达的产品,竞争愈演愈烈。
英伟达当地时间3月18日在开发者大会上宣布,年内将推出新一代AI半导体“B200”,B200和CPU(中央运算处理装置)组合的新产品用于最新的LLM上。“最强AI加速卡”GB200包含了两个B200BlackwellGPU和一个基于Arm的GraceCPU ,推理大语言模型性能比H100提升30倍,成本和能耗降至25分之一。
GB200采用新一代AI图形处理器架构Blackwell,黄仁勋在GTC大会上表示:“Hopper固然已经非常出色了,但我们需要更强大的GPU”。
据IT之家此前报道,英伟达H200于去年11月发布,其为基于英伟达的“Hopper”架构的HGXH200GPU,是H100GPU的继任者,也是该公司第一款使用HBM3e内存的芯片,这种内存速度更快,容量更大,因此更适合大型语言模型。较前任霸主H100,H200的性能直接提升了60%到90%。英伟达称:“借助HBM3e,英伟达H200以每秒4.8TB的速度提供141GB的内存,与A100相比,容量几乎是其两倍,带宽增加了2.4倍。”
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-03-30 09:45:06
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: