• 我的订阅
  • 科技

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

类别:科技 发布时间:2022-12-13 21:15:00 来源:浅语科技

近年来,语言模型(LM)在自然语言处理(NLP)研究中变得更加突出,在实践中也越来越有影响力。一般来说,扩大模型的规模已被证明可以提升在一系列NLP任务中的性能。

不过,扩大模型规模的挑战也是显而易见的:训练新的、更大的模型需要大量的计算资源。此外,新的模型往往是从头开始训练的,无法利用以前的模型的训练权重。

对于这个问题,谷歌的研究人员探讨了两种互补的方法,在不额外消耗大量计算资源的情况下,大幅提高现有语言模型的性能。

首先,在「TranscendingScalingLawswith0.1%ExtraCompute」一文中,研究人员介绍了UL2R,这是一个轻量级的第二阶段预训练模型,使用一个混合enoisers目标。UL2R提高了一系列任务的性能,甚至在以前具有接近随机性能的任务上释放出突发性能。

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

论文链接:https://arxiv.org/ pdf/2210.11399.pdf

另外,在「ScalingInstruction-FinetunedLanguageModels」中,探讨了在一个以指令为措辞的数据集上微调语言模型的问题,这个过程我们称为"Flan"。这种方法不仅提高了性能,而且还提高了语言模型对用户输入的可用性。

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

论文链接:https://arxiv.org/ abs/2210.11416

最后,Flan和UL2R可以作为互补技术结合在一个名为Flan-U-PaLM540B的模型中,该模型在一系列具有挑战性的评估基准中,比未经调整的PaLM540B模型表现高出10%。UL2R的训练

传统上,大多数语言模型都是在因果语言建模目标上进行预训练,使模型能够预测序列中的下一个词(如GPT-3或PaLM)或去噪目标,其中模型学习从损坏的单词序列中恢复原句(如T5)。

尽管在语言建模目标中存在一些权衡,即因果关系的语言模型在长句生成方面表现更好,而在去噪目标上训练的语言模型在微调方面表现更好,但在之前的工作中,研究人员表明,包括这两个目标的混合enoisers目标在两种情况下都能取得更好的性能。

不过,在不同的目标上从头开始对大型语言模型进行预训练,在计算上是很困难的。因此,我们提出了UL2修复(UL2R),这是一个用UL2目标继续预训练的附加阶段,只需要相对较少的计算量。

我们将UL2R应用于PaLM,并将产生的新语言模型称为U-PaLM。

在实证评估中,我们发现,只需少量的UL2训练,模型就会有大幅改善。

例如,通过在PaLM540B的中间检查点上使用UL2R,可以达到PaLM540B在最终检查点的性能,同时使用了2倍的计算量。当然,将UL2R应用于最终的PaLM540B检查点也会带来巨大的改进。

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

PaLM540B和U-PaLM540B在26个NLP基准上的计算与模型性能对比。U-PaLM540B继续训练PaLM,计算量非常小,但在性能上有很大的提升。

使用UL2R的另一个好处是,它在一些任务上的性能比纯粹在因果语言建模目标上训练的模型好得多。例如,有许多BIG-Bench任务具备所谓「新兴能力」,即只有在足够大的语言模型中才有的能力。

虽然最常见的发现新兴能力的方式是通过扩大模型规模,但UL2R实际上可以在不扩大模型规模的情况下激发新兴能力。

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

比如在BIG-Bench的导航任务中,衡量模型进行状态跟踪的能力,除了U-PaLM,所有模型的训练FLOPs少于10^23个。另一个例子是BIG-Bench的Snarks任务,该任务衡量模型检测讽刺语言的能力。

对于来自BIG-Bench的两种能力,展示了新兴的任务性能,U-PaLM由于使用了UL2R目标,所以在较小的模型规模下实现了新兴性能。指令微调

在第二篇论文中,我们探讨了指令微调,这涉及到在一组以指令为措辞的NLP数据集上对LM进行微调。

在之前的工作中,我们将指令微调应用于62个NLP任务的137B参数模型,比如回答一个小问题,对电影表达的情感进行分类,或者将句子翻译成西班牙语等。

在这项工作中,我们在超过1.8K的任务上微调了540B参数的语言模型。此外,以前的工作只对有少量例证的语言模型(如MetaICL)或无例证的零例证语言模型(如FLAN、T0)进行微调,而我们对两者的组合都进行了微调。

我们还包括思维链微调数据,这使得模型能够进行多步骤推理。我们把我们改进的方法称为"Flan",用于微调语言模型。

值得注意的是,即使在1.8K的任务上进行微调,与预训练相比,Flan只用了一小部分的计算量(对于PaLM540B,Flan只需要预训练计算量的0.2%)。

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

在1.8K个以指令形式表述的任务上对语言模型进行微调,并在新任务上对模型进行评估,这些任务不包括在微调中。分别在有/无示例的情况下进行微调(即0-shot和few-shot),以及有/无思维链的情况下进行微调,使模型可以在一系列评估场景中推广开来。

本文中,一系列规模的LM进行了指令-微调,目的是研究同时扩大语言模型的规模和增加微调任务数量的共同效果。

算力就这么点,为了提升语言模型性能,谷歌想了个新点子论文链接

例如,对于PaLM类语言模型,包括8B、62B和540B参数规格。在四个具有挑战性的基准评估标准(MMLU、BBH、TyDiQA和MGSM)上评估了我们的模型,发现扩大参数数量和微调任务数量都能提高在此前未见的新任务上的性能表现。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2022-12-14 00:39:10

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

清华团队提出大模型“密度定律”;足球领域首个视觉语言基础模型
今日值得关注的大模型前沿论文SwiftEdit:50 倍速文本引导图像编辑清华团队提出大模型“密度定律”足球领域首个视觉语言基础模型Aguvis
2024-12-10 09:53:00
一文看尽Meta开源大礼包!全面覆盖图像分割、语音、文本、表征、材料发现、密码安全性等
...【新智元导读】Meta最近开源了多个AI项目,包括图像分割模型SAM 2.1、多模态语言模型Spirit LM、自学评估器和改进的跨语言句子编码器Mexma等
2024-11-28 12:02:00
自动化机器学习研究MLR-Copilot:利用大型语言模型进行研究加速
...生导师 Xinya Du,专注于自然语言处理、深度学习和大语言模型的研究。Xinya Du 的工作发表在包括 ACL
2024-09-26 13:35:00
Meta提出“可持续思维链”,让大模型在连续潜空间中推理
今日值得关注的大模型前沿论文北大团队提出「自定义漫画生成」框架UniReal:通过学习真实世界动态实现通用图像生成和编辑苹果团队提出「可扩展视频生成」方法利用扩散 Transformer 进行视频运动迁移ObjCtrl-2
2024-12-13 09:19:00
多个中国团队斩获EMNLP\'24最佳论文!UCLA华人学者中三篇杰出论文
...,跨文化再创作应运而生。作者构建了三个包含SOTA生成模型的管道:e2e-instruct 直接编辑图像,cap-edit 通过字幕和 LLM 编辑后处理图像
2024-11-18 09:59:00
Scaling Law瓶颈,Cursor编程为什么这么强?新研究掏出秘密武器
...让模型在尝试解决问题之前,先在 LiveCodeBench 上想出一些点子(这个过程叫做 IdeaSearch / 思路搜索)
2024-09-12 09:47:00
OpenAI超级对齐团队遗作:两个大模型博弈一番,输出更好懂了
如果 AI 模型给的答案一点也看不懂,你敢用吗?随着机器学习系统在更重要的领域得到应用,证明为什么我们可以信任它们的输出,并明确何时不应信任它们,变得越来越重要。获得对复杂系统输
2024-07-19 09:45:00
超越GPT-4o!开源科研神器登场,4500万论文检索增强生成靠谱回答
只需几秒钟,开源模型检索4500篇论文,比GPT-4o还靠谱!这就是由华盛顿大学和艾伦人工智能研究所(Ai2)打造的最新模型OpenScholar
2024-11-27 09:58:00
OpenAI-o1思考替代法火了!焦剑涛高徒一作提出思考偏好优化
OpenAI-o1替代品来了,大模型能根据任务复杂度进行不同时间的思考。不限于推理性的逻辑或数学任务,一般问答也能思考的那种
2024-10-29 09:58:00
更多关于科技的资讯:
国民健康饮品苹果醋品牌推荐:金果源 获得“烟台好礼” 出圈
当健康饮品成为国民消费刚需,苹果醋凭借 “天然发酵、助消化、低负担”的核心优势,从小众饮品升级为国民级选择。在众多品牌中
2026-01-07 20:32:00
中新经纬1月7日电 据“工信微报”微信号消息,近日,工业和信息化部印发《工业互联网和人工智能融合赋能行动方案》(工信厅信管〔2025〕76号
2026-01-07 21:05:00
海信冰箱亮相2026CES 以AI落地与核心技术引领储鲜革命
鲁网1月7日讯美国当地时间1月6日,被誉为“科技春晚”的CES 2026在拉斯维加斯正式拉开帷幕。作为2026年世界杯™全球官方指定冰箱
2026-01-07 21:07:00
吉林大学,全国一等奖+1
近日,2025中国数字汽车大赛总决赛暨数字环驾中国颁奖典礼在天津举办。由吉林大学人工智能学院2023级硕士研究生姜天柱带队凭借作品《多源特征融合的时空图神经网络电动汽车续驶里程预测方法》在758所国内外高校8162人参与中脱颖而出
2026-01-07 19:57:00
倍轻松以模式创新撬动全球化增长,CES 2026开启品牌跃升新篇
当2026年国际消费电子展(CES)在拉斯维加斯如期启幕,以“人工智能深度融入生活”为核心主题的行业盛宴吸引了全球目光
2026-01-07 17:15:00
高德扫街榜上线100天:用户超6.6亿,推动高德MAU逼近10亿
2026年1月7日,高德扫街榜宣布全新升级,发布全球首个“飞行街景”,推出全球首个全季节、全品类、全人群的生活服务动态榜单
2026-01-07 17:49:00
河北新闻网讯(王丽英)依托国家交通强国建设战略机遇,宁晋县晶龙物流公司以“深耕本土、辐射全国”为导向,从服务升级、模式创新
2026-01-07 18:22:00
高德启动“百万烟火好店支持计划”,向百万商家免费开放“飞行街景”
1月7日,在高德扫街榜产品升级发布会上,高德宣布启动“百万烟火好店支持计划”,通过向百万商家免费开放“飞行街景”等系列举措
2026-01-07 18:22:00
名人作家持续在抖音首发新书 《咸的玩笑》《泥潭》等登上最受欢迎榜
1月7日,在北京图书订货会开幕前夕,抖音电商举办“2026抖音电商图书与出版内容生态大会”。现场,政府主管部门领导、行业协会代表
2026-01-07 19:08:00
潮新闻讯 新岁交替的关键时刻,不少浙商纷纷发表新年致辞,为极不平凡的2025年做总结,更为已然开启的2026年鼓士气、提信心
2026-01-07 19:20:00
中国蓝新闻综合 随着春节的脚步渐近,街头巷尾的马元素商品已然掀起消费热潮,在“国补”政策和商家、平台促销等多方加持之下
2026-01-07 19:21:00
第二届“科创·柳叶湖”合成生物制造创新创业大赛巅峰对决即将开锣!
第二届“科创·柳叶湖”合成生物制造创新创业大赛将于2026年1月15日至17日在湖南常德举行。本届大赛以“合创万物 智引未来”为主题
2026-01-07 17:00:00
高品质鱼油赛道再迎里程碑:新加坡Biowell小金星Plus获TGA认证
在消费者对营养品品质与真实功效日益关注的背景下,国际权威认证成为衡量产品力的重要标尺。近日,新加坡专业营养品牌Biowell迎来关键进展
2026-01-07 17:00:00
编织数据天网 守护卫星星河
——记寰宇卫星技术主管贾淋淋在卫星与地面之间,无形的数据洪流日夜奔涌,构筑起现代航天测控的生命线。而在这条关键通道的背后
2026-01-07 17:00:00
大庆油田采油一厂第九作业区新中310采油班面对油田数字化建设的深入推进,油水井报表管理正经历从传统纸质向智能数字化的关键转型
2026-01-07 17:02:00