我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
近期由于半导体实况低迷,DRAM价格一路走低,像三星和SK海力士这样的内存芯片大厂苦不堪言,后者2022年第四季度的财务报表显示,甚至时隔十年再次出现单个季度亏损。
不过最近ChatGPT在全球范围内掀起了一股热潮,这款人工智能工具在推出后,受到了不少人的关注。英伟达创始人兼CEO黄仁勋先生在近期的演讲中表示,ChatGPT是人工智能领域的iPhone时刻,也是计算领域有史以来最伟大的技术之一。
事实上,ChatGPT的出现似乎给存储器制造商带来了转机。据BusinessKorea报道,今年年初以来,三星和SK海力士的HBM订单量激增,价格也水涨船高,给低迷的DRAM市场注入了一丝活力。
相比于普通的DRAM,HBM通过堆叠方式实现了更高的带宽,与CPU及GPU协同工作中,可以提高机器学习和计算性能。除了英伟达和AMD的计算卡,近期英特尔也发布了首款采用HBM内存的x86处理器XeonMax,上面也使用了HBM2e,越来越多涉及AI的高性能芯片选择HBM。
虽然HBM有着更强的性能,但比起普通DRAM出货量要少很多,这是由于其平均售价是普通DRAM的三倍,需要复杂的生产工艺和先进的生产技术。随着ChatGPT的出现,AI再次成为了热点,对高性能计算芯片的需求增加,也让HBM受惠。英伟达最新的H100计算卡采用了最新的HBM3,据了解,与最高性能DRAM相比,目前HBM3的价格最高上涨了五倍。
此外,存储器制造商还在原有HBM基础上集成AI引擎。此前三星就推出了HBM-PIM(Aquabolt-XL)芯片,最高可提供1.2TFLOPS嵌入式计算能力,使内存芯片本身可以执行CPU、GPU、ASIC或FPGA的操作。通过在每个内存模块内注入了一个AI处理器,从而将处理操作转移到HBM本身,从而减轻了内存与一般CPU之间转移数据的负担,未来还会扩展到DDR4、DDR5、LPDDR5X、GDDR6和HBM3内存上。SK海力士也在去年宣布开发出具备计算功能的GDDR6-AiM(Accelerator-in-Memory/内存加速器),将计算功能添加到速率为16Gbps的GDDR6上。
有业内人士表示,存储器制造商仅依靠制造工艺的时代已经过去,加入数据处理能力的AI半导体技术的发展将变得非常重要,可能决定芯片制造商的未来。从中长期来看,HBM-PIM这类型专用DRAM芯片的发展将使半导体行业发生巨大变化。
举报/反馈
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-02-18 23:45:09
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: