• 我的订阅
  • 科技

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

类别:科技 发布时间:2023-11-04 14:46:00 来源:新智元

新智元报道

编辑:编辑部

【新智元导读】微软最近一篇论文爆料,GPT-3.5的参数量只有20B,远远小于之前GPT-3公布175B。网友表示,ChatGPT能力似乎「配得上」这个体量?

GPT-3.5只有200亿参数?

今天,大模型圈都被微软论文中的一纸截图刷爆了,究竟是怎么回事?

就在前几天,微软发表了篇论文并挂在了arXiv上,该论文提出了一个参数量只有75M的小规模扩散模型——CodeFusion。性能方面,7500万参数的CodeFusion在top-1准确率指标上,可以与最先进的350M-175B模型相媲美。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

论文地址:https://arxiv.org/abs/2310.17680

这篇论文的工作很有意义,但引起大家格外注意的却是——

作者在对比ChatGPT(gpt-3.5-turbo)时,标称的参数量竟然只有20B!

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

在此之前,大家针对GPT-3.5参数量的猜测都是1750亿,这相当于是缩减了差不多十倍!

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

根据这篇论文的爆料,网友还去维基百科上更新了GPT-3.5的介绍,直接把参数大小改成了20B。消息一出,直接登上知乎热搜,网友们都炸了。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

有人表示,赶紧回头再把我之前模型蒸馏的博文拿出来复习复习 。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

是「乌龙」还是「事实」?

网友的爆料贴一出,瞬间就引发了激烈的讨论。

目前,已经有超过68万人前来围观。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

这位老哥表示,论文的几位作者也都在用推特,估计过不了多久就会亲自下场解释。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

而对于这个神秘的「20B」,网友们也是众说纷纭。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

有人猜测,这很可能是作者手误打错了。比如原本是120B,或者200B。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

结合现实中的各项评测来看,确实有很多小模型能够取得和ChatGPT差不多的成绩,比如Mistral-7B。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

也许,这也是侧面证实了GPT-3.5体量真的不大。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

很多网友也认为20B的参数可能是准确的,纷纷发出感叹:

「这也太难以想象了!Falcon-180B和Llama2-70B,竟然都无法击败这款20B的模型。」

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

也有网友认为,gpt-3.5-turbo是精炼版的gpt-3.5。

而这次参数的「泄露」,正好从侧面印证了那些关于gpt-3.5-turbo表现不如旧版gpt-3.5的传言。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

不过,根据OpenAI的官方文档,除了已经不再使用的text-davinci和code-davinci,GPT-3.5家族全员都是基于gpt-3.5-turbo构成的。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!
微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

微软发布CodeFusion

而爆出GPT3.5只有20B参数的微软论文,是想介绍一个用于代码生成的扩散模型。

研究人员针对Bash、Python和Microsoft Excel条件格式(CF)规则的自然语言生成代码的任务来评估这个模型——CodeFusion。

实验表明,CodeFusion(只有75M参数)在top-1精度方面与最先进的LLM(350M-175B参数)相当,并且在top-3和top-5精度方面性能和参数比非常优秀。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

模型架构

CODEFUSION用于代码生成任务,它的训练分为两个阶段,第一阶段是无监督预训练,第二阶段是有监督微调。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

在第一阶段,CODEFUSION使用未标记的代码片段来训练降噪器和解码器。它还使用可训练的嵌入层L,将代码片段嵌入到连续空间中。

在第二阶段,CODEFUSION进行有监督的微调,使用来自文本-代码对数据。在这个阶段,编码器、降噪器和解码器都会得到调整,以更好地执行任务。

此外,CODEFUSION还借鉴了之前有关文本扩散的研究成果,将来自解码器的隐藏表示D融合到模型中。这是为了改进模型的性能。在训练过程中,在不同step中,模型引入一些噪声,然后计算损失函数,以确保生成的代码片段更符合预期的标准。

总之,CODEFUSION是一个执行代码生成工作的小模型,通过两个阶段的训练和噪声引入来不断提升其性能。这个模型的灵感来自于文本扩散的研究,并通过融合解码器的隐藏表示来改进损失函数,以更好地生成高质量的代码片段。

评估结果

下表总结了CODEFUSION模型与各个基线模型在top-1、top-3和top-5设置下的性能表现。

在top-1中,CODEFUSION的性能与自回归模型相媲美,甚至在某些情况下表现更出色,尤其是在Python任务中,只有GPT-3(175B)的性能稍微优于CODEFUSION(75M)。然而,在top-3和top-5方面,CODEFUSION明显优于所有基线模型。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

表下表展示了CODEFUSION和自回归模型(包括T5、CodeT5、StarCoder、CodeGen、GPT-3)在各项基准任务上的平均多样性结果,考察了每个模型的前5代生成结果。

相对于自回归模型,CODEFUSION生成更加多样化的结果,表现更出色。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

在消融实验中,作者停止了去噪过程,并生成了在时间步t∈[0, T]范围内的当前状态的代码片段。利用归一化字符串编辑距离来衡量每个时间步长(每100步为一个增量)所获得的结果。

这一方法有助于总结和展示CODEFUSION模型的逐步进展,如下图所示。

微软论文一张截图,曝出GPT-3.5仅有200亿参数?AI圈巨震,网友大呼太离谱!

说了这么多,GPT-3.5的参数量到底是多少?GPT-4与GPT-3.5在技术和其他方面有着什么样的联系?

GPT-3.5是一个个小专家模型的集成还是一个通才模型?是通过更大模型的蒸馏还是更大数据训练?

这些问题的答案只能等到真正开源的时候才能揭晓了。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-11-04 18:45:05

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

微软开源爆火1bit大模型推理框架!千亿参数模型量化后单CPU可跑
微软开源1bit大模型推理框架!现在1000亿参数大模型量化后单CPU可跑,速度可达每秒5-7个token。就是今年爆火论文The Era of 1-bit LLMs的官方代码实现
2024-10-23 12:05:00
马斯克xAI发布首款大模型;苹果发布M3芯片;ChatGPT被曝仅200亿参数|本周硅谷发生了什么?
...3nm工艺加持的“M3芯片”,顺带展示了搭载M3的MacBook Pro。微软的一篇论文则意外曝光ChatGPT实际参数仅有200亿
2023-11-05 17:03:00
微软打造 13 亿参数小型 LLM AI 模型
...积实际上效果并不见得更好,更多要看训练数据的质量,微软日前最近发布了一款13亿参数的语言模型phi-1,采用“教科书等级”的高品质资料集训练而成
2023-06-27 22:27:00
OpenAI举办“AI春晚”;李开复大模型破纪录 | 图灵周报
...A股、美股的“超导概念股”都曾受影响,大幅波动。 03微软以安全问题为由限制员工访问ChatGPT图源:Pixabay在当地时间周四的一段时间内
2023-11-13 15:48:00
微软推出14b参数“最先进”小型语言模型
12月13日消息,微软今天宣布推出14B参数“最先进”小型语言模型(SLM)Phi-4,除了传统的语言处理外,它还擅长数学等领域的复杂推理
2024-12-14 00:08:00
大模型新趋势之MoE:现状、挑战及研究方向
...发各种新型MoE架构,以提升模型性能或实用性。如清华和微软联合提出MH-MoE5,通过多头机制弥补MoE原始缺陷,实现专家激活率由8
2024-11-04 16:00:00
微软发布旗下最小语言模型phi-2
11月17日消息,微软Ignite2023大会已拉开帷幕,微软在本次活动中发布了旗下最小的语言模型Phi-2,共有27亿参数
2023-11-17 14:00:00
挑战Scaling Law,Meta发布移动端350M小模型MobileLLM,性能比肩7B LLaMA-v2
...是唯一的路径,模型「以小搏大」的故事不断上演。先有微软更新;后有谷歌用。硬件方面,我们看到了AI功能逐渐与电子产品进行深度集成
2024-07-23 09:39:00
专家模型不要专家并行!微软开源MoE新路径
【新智元导读】近日,来自微软的研究人员开源了使用全新方法训练的MoE大模型,不走寻常路,且编码和数学表现出色。继Phi家族之后
2024-11-12 09:57:00
更多关于科技的资讯:
全产业链展示秀出硬实力 “集优品·向辛行”2025辛集国际皮革盛会开幕
河北新闻网8月2日讯(侯淼、毛宇)今天,2025外贸优品中华行(辛集专场)暨辛集国际皮革皮草时装周、中国(辛集)国际皮毛时装博览会在辛集国际皮革城正式开幕
2025-08-02 21:44:00
7月31日下午,一场科技与美学的奇幻碰撞正在上演,孩子们的手指轻划屏幕,一件又一件充满设计感的服装瞬间“穿”在虚拟模特身上
2025-08-02 08:14:00
250万元撬动2000万元!六盘水:“小”券激活“大”经济
7月31日晚七点,金鸿购物超市人潮涌动。王女士的购物车里放着刚挑选好的榴莲和小龙虾,手机里一张“满100减30”的消费券即将核销
2025-08-02 13:57:00
德州扒鸡:在传承与创新中焕发新生
鲁网8月2日讯(记者 吴美琳 实习记者 费书慧)8月1日,德州市举行第二场“产业链上的山东好品牌”系列记者见面会,邀请山东德州扒鸡股份有限公司副董事长
2025-08-02 14:13:00
从清晨到日暮 恩博力以“冠军标准”定义健康家居新体验
(广告)在碧波与奖牌的背后,一位花样游泳世界冠军的日常,由无数个对细节的精准把控和对健康的不懈追求构筑而成。作为恩博力品牌代言人
2025-08-02 14:25:00
深国际·太原智慧物流制造项目主体完工
8月2日,深国际·太原智慧物流制造项目主体建设已经完工,目前,正在进行内部平台的改造,部分设备已进场。
2025-08-02 18:21:00
振健科技布局全国八大直营生产基地,引领行业高质量发展
近日,广东振健生物科技股份有限公司(以下简称:振健科技)宣布,企业已在全国范围内成功建立八大直营生产基地,主要分布在广州
2025-08-02 19:24:00
《聊斋志异·崂山道士》系列数字资产首发上线乐数通
由人民美术出版社正版授权,云栖博悟(杭州)文化传播有限公司设计发行的首款文化数字资产——《聊斋志异·崂山道士》,于2025年7月31日在浙江文化产权交易所长三角文化数字资产交易平台“乐数通”正式首发
2025-08-02 19:24:00
寻找会“讲故事”的声音展品! 三诺AI+智造博物馆老物件征集活动进行中
导语:在你的记忆中,是否有这样一些物件,它们曾用独特的“声音”在时光里留下印记?或许是流淌着咿呀戏曲的老式收音机,是旋转时沙沙低语的黑胶唱片
2025-08-02 19:24:00
8月1日晚,倍轻松(股票代码:688793.SH)发布公告,将“信息化升级建设项目”的节余募集资金,用于面向实感交互智能的传感器矩阵搭建与应用研究
2025-08-02 19:24:00
近日,重庆中京云智人工智能科技有限公司宣布完成数千万天使轮融资。本轮资金将重点投入核心项目“京店长”的技术研发与全国布局
2025-08-02 19:24:00
当家 APP 与龙牌集团达成战略合作,共筑家装行业新生态
7月30日上午,国内领先的互联网装修平台当家APP与建材行业龙头企业北新建材龙牌集团正式签署战略合作协议。双方宣布将在龙骨
2025-08-02 19:24:00
即小评丨“混搭”潮出圈 蚂蚁市集何以成为即墨“新地标”?
大众网记者 朱晓娟 青岛报道“混搭”一词来源于时尚界,从服饰营销策略扩展到一种文化符号,特指通过巧妙的平衡的协调,创造出新颖
2025-08-02 14:19:00
创新服务企业模式,为数字资产保护提供新的解决方案河北开具首张数据知识产权公证存储证明河北日报讯(记者马彦铭)7月28日
2025-08-02 08:54:00
石家庄食草堂文化饰品有限公司总经理牛睿仪:“选择一行,就要脚踏实地干下去”7月,牛睿仪又打卡了三个城市。作为石家庄食草堂文化饰品有限公司总经理
2025-08-02 09:01:00