• 我的订阅
  • 科技

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

类别:科技 发布时间:2022-12-30 20:18:00 来源:浅语科技

就说程序员的手速有多快吧,首个开源ChatGPT项目已经出现了!

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

基于谷歌语言大模型PaLM架构,以及使用从人类反馈中强化学习的方法(RLHF),华人小哥 PhillipWang 复刻了一个ChatGPT出来。

项目GitHub星已经超过1.7k了,而且还在一路飙升ing。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

不过一反常态的是,网友们看到“开源ChatGPT”却没有火速开冲,反倒齐刷刷在发问:

这……有人能run?

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

开源了但没完全开?

项目的核心内容,是在PaLM架构上实现基于人类反馈的强化学习。

其中,PaLM(PathwaysLanguageModel)是谷歌在今年4月发布的 5400亿参数全能大模型,基于Pathways系统训练,BERT之父JacobDevlin为主要贡献者之一。

PaLM可以完成写代码、聊天、语言理解等任务,并且在大多数任务上实现了SOTA少样本学习性能。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

另一个核心点是RLHF“从人类反馈中强化学习”。

OpenAI提出InstructGPT时就用到了这一方法,它能让AI的回答更加符合情景要求,降低“有害性”。

具体分三步:

第一步,找一些人写下示范答案,来微调GPT-3模型,训练监督模型baseline。

第二步,收集某个问题的几组不同输出数据,由人类对几组答案进行排序,在此数据集上训练奖励模型。

第三步,使用RM作为奖励函数,近端策略优化(PPO)算法微调GPT-3策略,以强化学习方法最大化奖励。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

ChatGPT 使用的GPT-3.5,其中text-davinci-002就是在code-davinci-002的基础上,采用了InstructGPT训练方法改进得到。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

正是基于如上两方面核心内容,作者实现了ChatGPT的复刻。

大致步骤有3步:

首先来训练一下PaLM,就和其他自回归Transformer一样。

第二……

等等,训练PaLM???这确定不是在开玩笑?

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

现在明白为啥大家都觉得这个开源项目完全不能run了……

打个不恰当的比方,这就像如果想吃熊肉,那先自己去打头熊来。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

项目中只有PaLM架构和代码,没有预先训练好的权重。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

所以完成第一步,大概效果就是……

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

话虽如此,但还是继续接着往下看看……

第二步,就要训练基于RLHF的奖励模型了。作者使用的是一种轻量级训练大语言模型方法LoRA,这种方法是开源的。

然后,再把之前训练好的模型和奖励模型用强化学习进行微调。

经过这三步后,就能得到一个开源版的ChatGPT了。

这中间面临的问题包括巨大的计算量、超大模型和难收集的文本……所以有人也不免发问:

有没有一种可能,它也没啥用?

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

不过有网友觉得这本质上还是一件好事啦。

AI的一个关键区别就是,每有一个重大突破,很快就会出现一个开源版本。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

实际上,开源项目作者小哥PhilipWang一直都热衷于复刻各种明星项目,过去还尝试过Dall・E2、AlphaFold2等。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

以及LAION也发起了一个类似项目 OpenAssistant,他们将通过“众筹脑力”的方式,共同开发一个开源的聊天AI。

StableDiffusion用的开放数据集,就是这一组织做的。

首个“开源chatgpt”来了:基于谷歌5400亿参数大模型

感兴趣的童鞋不妨去试试看~

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2022-12-30 22:45:08

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

百川智能发布baichuan3稳定语言模型
1月29日,百川智能发布超千亿参数的大语言模型Baichuan3。在多个权威通用能力评测如CMMLU、GAOKAO和AGI-Eval中
2024-01-29 19:57:00
谷歌发布 MediaPipe Diffusion 插件
谷歌发布低成本可控文生图插件模型MediaPipeDiffusion,移动端提速20+倍,在v100上运行提速高达100倍
2023-07-13 05:54:00
轻量级的模型亦有其存在的市场空间。2022年11月底,基于GPT-3.5的ChatGPT刚出来的时候,小米集团AI实验室主任
2023-11-08 18:13:00
7月11日,百川智能发布了其最新的大模型Baichuan-13B,这是一款拥有130亿参数的开源可商用大规模语言模型。据官方介绍
2023-07-12 16:58:00
华人团队爆火instructblip抢跑看图聊天
碾压GPT-4识图能力的多模态生成模型来了。华人团队最新提出的InstructBLIP在多项任务上实现SOTA。GPT-4看图聊天还没上线
2023-05-15 20:17:00
infini-attention:谷歌大内存机制
...歌大改Transformer,“无限”长度上下文来了。现在,1B大模型上下文长度可扩展到1M(100万token,大约相当于10部小说)
2024-04-14 02:57:00
chatgpt低成本复现流程开源
首个开源的ChatGPT低成本复现流程来了!预训练、奖励模型训练、强化学习训练,一次性打通。最小demo训练流程仅需1
2023-02-15 15:47:00
中国也有Sora同款训练架构公司,清华班底,智谱也投了 | 36氪首发
...雨编辑 | 邓咏仪全球首家发布Sora同款底层架构的清华系模型公司,近期完成了新一轮融资。投资名单中,也出现了大模型独角兽智谱AI的身影。36氪获悉,近日多模态AI模型公司生
2024-03-14 15:12:00
chatgpt低成本复现流程来了
首个开源的ChatGPT低成本复现流程来了!预训练、奖励模型训练、强化学习训练,一次性打通。最小demo训练流程仅需 1
2023-02-17 14:37:00
更多关于科技的资讯: