• 我的订阅
  • 科技

国内团队新发大模型:ceo上阵写代码

类别:科技 发布时间:2023-06-07 21:01:00 来源:浅语科技

国内自研大模型迎来新面孔,而且发布即开源!

最新消息,多模态大语言模型TigerBot正式亮相,包含70亿参数和1800亿参数两个版本,均对外开源

由该模型支持的对话AI同步上线。

写广告语、做表格、纠正语法错误,效果都不错;也支持多模态,能生成图片。

国内团队新发大模型:ceo上阵写代码

评测结果显示,TigerBot-7B已达到OpenAI同样大小模型综合表现的96%

国内团队新发大模型:ceo上阵写代码

△公开NLP数据集上的自动评测,以OpenAI-instructGPT-6B-SFT为基准,归一化并平均各模型的得分情况

而更大规模的TigerBot-180B或是目前业内开源的最大规模大语言模型。

此外,团队还一并开源100G预训练数据、监督微调1G或100万条数据

基于TigerBot,开发者在半天内就能打造出自己的专属大模型。

目前TigerBot对话AI已邀请内测,开源代码数据等已上传至GitHub(详细链接见文末)。

国内团队新发大模型:ceo上阵写代码

如上这些重磅工作,来自一支最初只有5人的小团队,首席程序员&科学家就是CEO本人

但这个团队,绝非师出无名。

从2017年起,他们就在NLP领域开始创业,专长垂直领域搜索。最擅长对数据重度以来的金融领域,和方正证券、国信证券等有过深入合作。

创始人兼CEO,有着20多年从业经验,曾任UC伯克利客座教授,手握3篇最佳顶会论文和10项技术专利。

如今,他们决心从专长领域走向通用大模型。

而且一开始便从最底层的基础模型做起,3个月内完成3000次实验迭代,还有底气将阶段性成果对外开源。

不禁让人好奇,他们是谁?想要做哪些事?如今已经带来了哪些阶段性成果?

TigerBot是什么?

具体来看,TigerBot是一款国产自研的多语言任务大模型。

覆盖生成、开放问答、编程、画图、翻译、头脑风暴等15大类能力,支持子任务超过60种。

国内团队新发大模型:ceo上阵写代码

而且支持插件功能,能让模型联网,获取到更加新鲜的数据和信息。

国内团队新发大模型:ceo上阵写代码

它的定位更偏向办公场景,提出改善人们工作流、提高效率的目标。

比如让它来帮我写一条AppleVisionPro的新闻快讯,效果有模有样:

国内团队新发大模型:ceo上阵写代码

或者写一个论文大纲,条理清晰、结构合理:

国内团队新发大模型:ceo上阵写代码

编程也没问题,并且支持英文对话。

国内团队新发大模型:ceo上阵写代码

国内团队新发大模型:ceo上阵写代码

如果让它画图的话,每次都会生成3张不一样的,可以自己挑选。

这次发布,TigerBot一共推出了两种size:70亿参数(TigerBot-7B)和1800亿参数(TigerBot-180B)。

团队将目前取得的阶段性成果——模型、代码、数据,通通开源。

开源模型包括三个版本:

TigerBot-7B-sft

TigerBot-7B-base

TigerBot-180B-research

其中TigerBot-7B-base的表现优于OpenAI同等可比模型、BLOOM。TigerBot-180B-research或是目前业内开源的最大规模模型(Meta开源OPT的参数量为1750亿、BLOOM则为1760亿规模)。

开源代码包括基本训练和推理代码,双卡推理180B模型的量化和推理代码。

数据包括100G预训练数据,监督微调1G或100万条数据。

根据OpenAIInstructGPT论文在公开NLP数据集上的自动评测,TigerBot-7B已达到OpenAI同样大小模型的综合表现的96%。

而这一版本还只是MVP(最小可行性模型)。

这些成果主要得益于团队在GPT和BLOOM基础上,在模型架构和算法上都做了更进一步的优化,也是TigerBot团队过去几个月来的主要创新工作,让模型的学习能力、创造力和生成可控上都有明显提升。

具体如何实现?往下看。

性能提升同时降低成本

TigerBot带来的创新主要有以下几个方面:

提出指令完成监督微调的创新算法提升模型可学习性

运用ensemble和probabilisticmodeling的方法实现可控事实性和创造性

在并行训练上突破deep-speed等主流框架中的内存和通信问题,实现千卡环境下数月无间断

针对中文语言更不规则的分布,从tokenizer到训练算法上做了更适合的优化

首先来看指令完成监督微调方法。

它能让模型在只使用少量参数的情况下,就能快速理解人类提出了哪类问题,提升回答的准确性。

原理上使用了更强的监督学习进行控制。

通过Mark-upLanguage(标记语言)的方式,用概率的方法让大模型能够更准确区分指令的类别。比如指令的问题是偏事实类还是发散类?是代码吗?是表格吗?

因此TigerBot涵盖了10大类、120类小任务。然后让模型基于判断,朝着对应方向优化。

带来的直接好处是调用参数量更少,同时模型对新数据或任务的适应能力更好,即学习性(learnability)提高。

在同样50万条数据训练的情况下,TigerBot的收敛速度比斯坦福推出的Alpaca快5倍,在公开数据集上评测显示性能提升17%。

其次,模型如何更好平衡生成内容的创造性事实可控性,也非常关键。

TigerBot一方面采用ensemble的方法,将多个模型组合起来兼顾创造性和事实可控性。

甚至可以根据用户的需求,调整模型在二者之间的权衡。

另一方面还采用了AI领域经典的概率建模(ProbabilisticModeling)方法。

它能让模型在生成内容的过程中,根据最新生成的token,给出两个概率。一个概率判断内容是否应该继续发散下去,一个概率表示生成内容离事实内容的偏离程度。

综合两个概率的数值,模型会在创造性和可控性上做一个权衡。TigerBot中这两个概率的得出由专门数据进行训练。

考虑到模型生成下一个token时,往往无法看到全文的情况,TigerBot还会在回答写完后再进行一次判断,如果最终发现回答不准确,便会要求模型重写。

我们在体验过程中也发现,TigerBot生成回答并不是ChatGPT那样逐字输出的模式,而是在“思考”后给出完整答案。

国内团队新发大模型:ceo上阵写代码

国内团队新发大模型:ceo上阵写代码

△ChatGPT和TigerBot回答方式对比

而且由于TigerBot的推理速度很快,能够支撑模型快速重写。

这里就要说到TigerBot在训练和推理上的创新了。

除了思考到模型底层架构的优化,TigerBot团队认为工程化水平在当下大模型时代也很重要。

一方面是因为要考虑运营效率——随着大模型趋势持续,谁能更快迭代模型非常关键;另一方面当然还要考虑算力的经济性。

因此,他们在并行训练方面,突破了deep-speed等主流框架中的若干内存和通信问题,实现了千卡环境下训练数月无间断。

这使得他们每月在训练上的开销,能够节省数十万。

最后,针对中文连续性强、多义歧义情况多等问题,TigerBot从tokenizer到训练算法上,都做了相应优化。

总结来看,TigerBot实现的技术创新,全都发生在当下大模型领域中最受关注的领域内。

不仅是底层架构的优化,还考虑到了落地层面的用户需求、开销成本等问题。并且整个创新过程的速度非常快,是10人左右小团队在几个月时间内实现。

这对团队本身的开发能力、技术见解、落地经验都有非常高的要求。

所以,到底是谁带着TigerBot突然杀入大众视野?

虎博科技是谁?

TigerBot的幕后开发团队,其实就藏在它本身的名字里——虎博科技

它成立于2017年,也就是人们常说的AI上一轮爆发期内。

虎博科技给自己的定位是“一家人工智能技术驱动的公司”,专注于NLP技术的应用落地,愿景是打造下一代智能且简单的搜索体验。

具体实现路径上,他们选择了对数据信息最为敏感的领域之一——金融。自研了垂直领域内智能搜索、智能推荐、机器阅读理解、总结、翻译等技术,推出了智能金融搜索和问答系统“虎博搜索”等。

公司创始人兼CEO为陈烨,是一位世界级AI科学家。

国内团队新发大模型:ceo上阵写代码

他博士毕业于威斯康辛大学麦迪逊分校,曾任加州大学伯克利分校客座教授,到现在为止从业已有20余年。

他先后在微软、eBay、雅虎担任主任科学家和研发总监等要职,主导研发了雅虎的行为定向系统、eBay的推荐系统以及微软搜索广告竞拍市场机制等。

2014年,陈烨加入大众点评。之后美团点评合并,他任美团点评高级副总裁,分管集团广告平台,助力集团年广告收入从1000万提升至40多亿。

学术方面,陈烨曾三次获得顶会最佳论文奖(KDD和SIGIR),在SIGKKD、SIGIR、IEEE等人工智能学术会议上发表20篇论文,拥有10项专利。

2017年7月,陈烨正式创立虎博科技。成立1年后,虎博便快速拿下超亿元融资,目前公司披露融资总额达4亿元

国内团队新发大模型:ceo上阵写代码

7个月以前,ChatGPT横空出世,AI在时隔6年以后,再次颠覆大众认知。

即便是陈烨这样在AI领域内创业多年的技术专家,也用“从业以来前所未有的震撼”来形容。

而在震撼之外,更多还是激动。

陈烨说,看到ChatGPT后,几乎不用思考或决定,内心的呼唤让他一定会跟进趋势。

所以,从1月份开始,虎博正式成立了TigerBot的初始开发团队。

不过和想象中不太一样,这是一支极客风格非常鲜明的团队。

用他们自己的话来说,致敬硅谷90年代经典的“车库创业”模式。

团队最初只有5个人,陈烨是首席程序员&科学家,负责最核心的代码工作。后面成员规模虽有扩充,但也只控制在了10人,基本上一人一岗。

为什么这样做?

陈烨的回答是:

我认为从0到1的创造,是一件很极客的事,而没有一个极客团队是超过10个人的。

以及纯技术科学的事,小团队更犀利。

的确,TigerBot的开发过程里,方方面面都透露着果断、敏锐。

陈烨将这个周期分为三个阶段。

第一阶段,也就是ChatGPT爆火不久后,团队迅速扫遍了OpenAI等机构过去5年内所有相关文献,大致了解ChatGPT的方法机制。

由于ChatGPT代码本身不开源,当时相关的开源工作也比较少,陈烨自己上阵写出TigerBot的代码,然后马上开始跑实验。

他们的逻辑很简单,让模型先在小规模数据上验证成功,然后经过系统科学评审,也就是形成一套稳定的代码。

在一个月时间内,团队就验证了模型在70亿规模下能达到OpenAI同规模模型80%的效果。

第二阶段,通过不断吸取开源模型和代码中的优点,加上对中文数据的专门优化处理,团队快速拿出了一版真实可用的模型,最早的内测版在2月便已上线。

同时,他们还发现在参数量达到百亿级别后,模型表现出了涌现的现象。

第三阶段,也就是到了最近的一两个月内,团队在基础研究上实现了一些成果和突破。

如上介绍的诸多创新点,就是在这一时期内完成的。

同时在这一阶段内整合更大规模算力,达到更快的迭代速度,1-2个星期内,TigerBot-7B的能力便快速从InstructGPT的80%提升到了96%。

陈烨表示,在这个开发周期内,团队始终保持着超高效运转。TigerBot-7B在几个月内经历了3000次迭代。

小团队的优势是反应速度快,早上确定工作,下午就能写完代码。数据团队几个小时就能完成高质量清洗工作。

但高速开发迭代,还只是TigerBot极客风格的体现点之一。

因为他们仅凭10个人在几个月内肝出来的成果,将以全套API的形式向行业开源

如此程度的拥抱开源,在当下趋势尤其是商业化领域内,比较少见。

毕竟在激烈竞争中,构建技术壁垒是商业公司不得不面对的问题。

那么,虎博科技为什么敢于开源?

陈烨给出了两点理由:

第一,作为一名AI领域内的技术人员,出于对技术最本能的信仰,他有一点热血、有一点煽情。

我们想要以世界级的大模型,贡献于中国创新。给行业一个可用的、底层基础扎实的通用模型,能让更多人快速训练出专业大模型,实现产业集群的生态打造。

第二,TigerBot接下来还会继续保持高速迭代,陈烨认为在这种赛跑的局面下,他们能保持身位优势。即便是看到有人以TigerBot为底层开发出了性能更好的产品,这对于行业内来说又何尝不是一件好事?

陈烨透露,接下来虎博科技还会持续快速推进TigerBot的工作,进一步扩充数据来提升模型性能。

“大模型趋势就像淘金热”

在ChatGPT发布6个月以后,随着一个个大模型横空出世、一家家巨头火速跟进,AI行业格局正在被快速重塑。

尽管当下还相对混沌,但大致来看,基本上会分为模型层、中间层、应用层三层。

其中模型层决定底层能力,至关重要。

它的创新程度、稳定程度、开放程度,直接决定了应用层的丰富程度。

而应用层的发展是大模型趋势演进的外化体现;更是AIGC愿景里,人类社会生活走向下一阶段的重要影响因素。

那么,在大模型趋势的起点,如何夯实底层模型基础,是行业内必须思考的事。

在陈烨看来,目前人类才只开发了大模型10-20%的潜力,在fundamental层面还有非常大的创新和提升空间。

就好像曾经的西部淘金热,最初要找到金矿在哪里一样。

所以在这样的趋势和行业发展要求下,虎博科技作为国产领域创新代表,高举开源大旗,迅速起跑、追赶世界最前沿技术,确实也为行业内带来了一股与众不同的气息。

国产AI创新正在高速狂奔,未来一段时间内,相信我们还会看到更多有想法、有能力的团队亮相,为大模型领域注入新的见解、带来新的改变。

而这,或许就是趋势轰轰烈烈演进过程中,最迷人之处了。

国内团队新发大模型:ceo上阵写代码

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-06-07 23:45:34

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

错例都一样!斯坦福学生团队致歉抄袭中国大模型:已撤回 代码作者失联
美国斯坦福大学的一个AI(人工智能)团队就抄袭中国大模型致歉。近日,由三位美国斯坦福大学学生组成的一个AI团队发布了开源模型Llama3-V
2024-06-04 22:12:00
斯坦福AI团队抄袭国产大模型?连识别“清华简”都抄了!清华系团队发文回应
智东西6月3日消息,大模型“套壳”的回旋镖,这次扎到了美国科研团队身上。最近几天,斯坦福大学AI团队陷入抄袭风波,被质疑“套壳”清华系大模型开源成果,引起舆论哗然。起因是这个团队
2024-06-04 14:35:00
最强AI程序员砸饭碗:84秒跑通代码 像人一样思考
...了30.07%问题的成绩夺得榜首。(SWE-Bench是一个用来评估大模型解决现实中软件问题的基准。)而这个成绩可谓是遥遥领先第二名19
2024-08-13 14:46:00
模拟5亿年自然进化史,全新蛋白质大模型ESM3诞生!前Meta老将力作LeCun转赞
...此,研究团队使用进化生物学的方法,把esmGFP当成自然界新发现的蛋白质进行分析。他们估计,esmGFP等效于进化模拟器执行的超过 5 亿年的自然进化
2024-06-27 09:31:00
该实习生已在8月被辞退。近日有传闻称字节跳动大模型训练被实习生攻击,对此,字节跳动10月19日回应表示,经公司内部核实,确有商业化技术团队实习生发生严重违纪行为且已被辞退,但相关
2024-10-19 21:50:00
...的A轮融资。上轮融资后,硅心科技一方面加快了代码大模型的研发进程;另一方面开始推进模型落地应用,面向金融、互联网等重点行业的头部客户提供模型个性化训练和私有化部署服务。202
2023-09-01 14:57:00
Llama版o1来了,来自上海AI Lab,强化学习代码已开源,
复刻OpenAI o1推理大模型,开源界传来最新进展:LLaMA版o1项目刚刚发布,来自上海AI Lab团队。简介中明确
2024-11-06 09:49:00
「虎博科技」发布自研多模态大模型TigerBot,开源模型、代码及数据 | 36氪首发
...勋36氪获悉,6月7日,虎博科技正式发布并开源其自研大模型TigerBot。同时,虎博科技还发布了大模型应用开发所需的全套API
2023-06-07 13:04:00
7月5日,麻省理工学院和微软的研究学者们发现,人工智能(AI)模型GPT-4具有卓越的代码自我纠错能力,而GPT-3.5不具备这种特性。目前相关论文已经在相关学术平台进行发布。当
2023-07-08 05:56:00
更多关于科技的资讯: