我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
HBM产品被认为是人工智能(AI)计算的支柱之一,近两年行业发展迅速。在人工智能和高性能计算的影响下,HBM市场带给了存储器厂商新的希望,以推动收入的巨大增长。作为英伟达高带宽存储器合作伙伴,SK海力士目前在HBM市场的处于领导地位。
据BusinessKorea报道,SK海力士副总裁Chun-hwanKim在SEMICONKorea2024的主题演讲中表示,生成式AI市场预计将以每年35%的速度增长,而SK海力士有望在2026年大规模生产下一代HBM4。
HBM类产品前后经过了HBM(第一代)、HBM2(第二代)、HBM2E(第三代)、HBM3(第四代)、HBM3E(第五代)的开发,其中HBM3E是HBM3的扩展(Extended)版本,而HBM4将是第六代产品。HBM4堆栈将改变自2015年以来1024位接口的设计,采用2048位接口,而位宽翻倍也是是HBM内存技术推出后最大的变化。
目前单个HBM3E堆栈的数据传输速率为9.6GT/s,理论峰值带宽为1.2TB/s,而由六个堆栈组成的内存子系统的带宽则高达7.2TB/s。出于于可靠性和功耗方面的考虑,一般速度不会达到最高的理论带宽,像H200的峰值带宽为4.8TB/s。按照美光之前的说法,单个HBM3E堆栈的峰值带宽将提高到1.5TB/s。由于2048位接口需要在集成电路上进行非常复杂的布线,预计成本也会高于HBM3和HBM3E。
HBM4在堆栈的层数上也有所变化,除了首批的12层垂直堆叠,预计2027年存储器厂商还会带来16层垂直堆叠。此外,HBM还会往更为定制化的方向发展,不仅排列在SoC主芯片旁边,部分还会转向堆栈在SoC主芯片之上。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-02-05 15:45:12
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: