我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
在生成式AI领域,推出了ChatGPT的OpenAI是处于领先地位的,他们的GPT-4已经是万亿参数级别,还在训练更先进的GPT-5,届时又会在技术水平上甩开国内的追赶者。
OpenAI能够领先,先进AI显卡用到的GPU是功不可没的,背靠微软这棵大树,他们在算力资源上不会受到限制,GPT-4的训练就使用了2万张NVIDIA的AI显卡训练。
但是万张显卡级别的算力还不是终点,今年也投身AI创业的前搜狗CEO王小川日前在采访中透露了OpenAI的动向,提到后者正在做更先进的训练方法,设计能够将1000万张GPU连在一起的计算模型。
1000万张GPU是什么概念?目前NVIDIA每年的产量也就是100万块GPU(应该主要是指AI方面的GPU),OpenAI的规模相当于10倍于NVIDIA年产能的水平。
王小川称OpenAI的1000万张GPU算力的目标是登月级别的计划,显然认为它很伟大。
不说这些GPU显卡能不能生产出来,购买花费多少,光是1000万张显卡互联的难度都是不可想象的,OpenAI要是做到了就真的无敌于天下了。
不过这也非常让人怀疑OpenAI是否表达错了,还是王小川听来的投行报告写错了,从几万张GPU到1000万张GPU的互联难度可不是一个级别的。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-07-25 11:45:16
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: