我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
2月27日消息,据报道,用于人工智能(AI)和高性能计算(HPC)应用的英伟达H100GPU交货周期大幅缩短,从之前的8-11个月缩减至仅3-4个月。这导致一些囤货的公司正在试图出售其过剩的H10080GB处理器,因为现在从亚马逊云服务、谷歌云和微软Azure等大型公司租用芯片更加方便。
据TheInformation报道称,由于稀缺性降低以及维护未使用库存的高昂成本,一些公司正在转售其H100GPU或减少订单,这与去年争相抢购英伟达HopperGPU形成鲜明对比。尽管芯片可用性改善且交货周期显著缩短,但报道称,对AI芯片的需求仍然超过供给,尤其是一些训练大型语言模型(LLM)的公司,例如OpenAI。
云服务提供商(CSP)例如亚马逊AWS提供按需租用H100GPU的服务,缓解了部分需求压力,缩短了等待时间。
然而,由于训练大型语言模型需要成千上万的GPU,因此此类公司仍面临供应瓶颈,有时需要等待数月才能获得所需的处理能力。因此,英伟达H100等处理器的价格并未下降,公司仍保持着高利润率。
注意到,随着芯片供应瓶颈的缓解,买家行为也发生了转变。企业变得更加注重价格和采购/租赁的合理性,倾向于选择更小的GPU集群并关注其业务的经济可行性。
由于替代方案(例如AMD或AWS的处理器)的性能和软件支持不断加强,再加上对AI处理器更加谨慎的支出,AI领域可能迎来更加平衡的市场格局。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-02-28 14:45:13
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: