• 我的订阅
  • 科技

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

类别:科技 发布时间:2024-07-30 09:38:00 来源:新智元

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

【新智元导读】适逢Llama 3.1模型刚刚发布,英伟达就发表了一篇技术博客,手把手教你如何好好利用这个强大的开源模型,为领域模型或RAG系统的微调生成合成数据。

Epoch AI上个月刚刚发文,结果。

真实数据稀缺可能不再是问题了,Nemotron 9T token的预训练预料中,98%都是合成数据。

也许你还对合成数据存在顾虑,或者不知道如何应用LLM驱动数据生成。或许,英伟达的这篇博客可以提供答案。

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

原文地址:https://developer.nvidia.com/blog/creating-synthetic-data-using-llama-3-1-405b/?linkId=100000275486093

首先我们需要理解,用LLM合成数据的本质究竟是什么?

合成数据并不是「从无到有」地创造新信息,而是对现有信息进行转换,生成不同的变体。

实际上,合成数据在AI领域的应用已经有十多年的历程,比如物体检测或分类系统中曾经的数据增强技术。

那么,LLM带来了什么新变化呢?

从「需求端」来看,由于模型需要大量训练语料,合成数据的动机被大大增强。

而在「供给端」,生成式语言模型也为合成数据技术带来了质的改变。

用合成数据微调基座模型,可以更好地应用于实际场景。例如,在金融领域改进风险评估、在零售领域优化供应链、在电信领域提升客户服务,以及在医疗领域改善患者护理等等。

尤其是405B开源巨兽Llama 3.1最近正式上线,既可用于批处理和在线推理,也可以作为基座模型,进行特定领域的专门预训练或微调。

尤其是考虑到Llama 3.1有如此大的参数规模,加上丰富的15.6T token训练数据,非常适合用于数据生成。

这篇博客文章将介绍几个合成数据的生成与应用案例,并就其中一个进行深入探讨。

合成数据的生成是推动GenAI在特定领域应用的关键工作流程

将最新的Llama 3.1与英伟达Nemotron-4 340B奖励模型配合使用,非常适用于生成合成数据

要让LLM生成基于最新信息的有根据的响应,构建RAG流程十分重要,而且模型响应的准确性取决于流程的质量。

LLM合成数据如何应用于GenAI

改进语言模型

要通过合成数据来微调模型,大致有两种方法——知识蒸馏(knowledge distillation)和自我改进(self-improvement)。

知识蒸馏是将大模型的能力转移到较小模型的过程,但不是简单地在同一个数据集上训练两个模型,因为较小模型很难学习到底层数据的准确表征。

在这种情况下,我们可以先让大模型完成任务,再使用这些数据指导小模型进行。

自我改进则是让同一个模型评判自己的推理过程,常被用于进一步磨练模型的能力。

让我们来看看如何实现这一目标。训练语言模型通常包括三个步骤:预训练、微调和对齐(alignment)。

预训练

预训练通常需要极其庞大的语料库,使模型了解语言的一般结构。

Llama 3.1、GPT-4这种通用LLM,一般需要互联网规模的数据。而特定领域的LLM(如几何学、放射学、电信行业等)则需要注入相关的领域信息,这个过程被称为领域自适应预训练(Domain Adaptive Pretraining,DAPT)。

除了要贴近相关领域,另一种在预训练阶段使用合成数据的例子当属Phi-1.5模型,目的是注入逻辑推理能力。

微调

掌握了语言的一般结构后,下一步就是微调,让模型更好地遵循指令、完成特定任务。

比如,要让模型提高逻辑推理能力、实现更好的代码生成和函数调用,或者提升阅读理解类任务的表现,都可以通过微调来实现。

Self-Instruct、WizardCoder、Alpaca等模型都通过创建特定领域的数据并进行微调,来定向提升模型能力。

对齐

最后,我们希望确保模型响应的风格和语气与用户期望一致,例如听起来像对话、具有适当的详细程度、复杂性、一致性等。

可以创建一个包含指令模型(instruct model)和奖励模型(reward model)的流水线来实现这个需求。

先让模型对同一问题创建多个响应,然后让奖励模型对这些相应的质量进行反馈。这种方法属于从AI反馈中进行强化学习(Reinforcement Learning from AI Feedback, RLAIF)。

改进其他模型和系统

除了改善语言模型本身,合成数据还可以应用于LLM邻接模型(LLM-adjacent model)以及LLM驱动的流水线。

最经典的例子就是检索增强生成(Retrieval Augmented Generation,RAG),先用嵌入模型来检索相关信息,再让语言模型生成最终答案。

在这个过程中,我们可以使用LLM来解析底层文档和合成数据,从而评估并微调嵌入模型。

类似于RAG,任何智能体(Agentic)流水线都可以被评估,其组件模型也可以被微调,实现方式就是用LLM驱动的智能体来构建模拟。

这些模拟还可以用于研究行为模式,此外,也可以在LLM中设定特定角色,以针对特定任务进行大规模数据生成。

使用合成数据评估RAG

为了更好地理解上述讨论,我们来思考一个基本的流程,应用于一个具体的用例——为检索过程生成评估数据。

下述流程的实现代码已经上传至GitHub。

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

项目地址:https://github.com/NVIDIA/NeMo-Curator/tree/main/tutorials/synthetic-retrieval-evaluation

要创建用于评估检索流程的数据,主要面临以下2个挑战:

多样性:问题不应只关注信息的单一方面或仅包含提取性问题

复杂性:生成的问题应需要一些推理或多个证据来回答

我们将重点关注多样性,但为了探索复杂性角度——关键是找到具有重叠信息点的内容块。找到重叠信息的几种方法包括计算句子级语义的Jaccard相似度,并利用长上下文模型找到同一文档的不同块之间的关联。

多样性源自不同的视角,比如考虑如下文本:

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

对于同一篇文档,金融分析师可能对两家公司合并前后的财务状况感兴趣,法律专家可能关注公司面临的来自FTC、欧盟和其他方的法律审查,记者则希望了解事实要点。

所有这些都是有效的视角和用户角色。由于他们以不同的视角看待相同的信息,因此评估流程也需要适应这些视角。

因此,让我们设计一个评估流程,该流程以文档和用户角色作为输入,并以符合角色的语气输出问题。

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

图1. 三步流程的概述:生成用于评估检索过程的合成数据

如图1所示,这个评估流程有三个主要步骤。

步骤1:生成所有可能的问题

这些问题都是用户角色可能感兴趣的。

步骤2:筛选出相关的问题

从生成的问题中筛选出最相关和有价值的问题。

步骤3:引入用户角色的写作风格

将筛选出的问题转换为符合用户角色写作风格的形式。

通过这三个步骤,可以确保不同用户角色获得他们所需的信息,并以他们熟悉的方式呈现。

步骤1:生成问题

在生成问题之前,我们需要先读取文档并将其分成若干块(chunk)。

然后,让LLM从给定的文本块中,为每个用户角色提取感兴趣的点。

所谓的「用户角色」(persona),实际上就是对潜在用户的描述,比如:

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

由于多个用户角色可能有相似的兴趣点,因此需要使用嵌入模型来进行语义去重,从而为每个角色映射出段落中不同的相关信息。

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

多样性的另一个方面是问题类型。

我们需要提出各种类型的问题,如提取性、抽象性、比较性的问题,而不仅仅是简单的「如何/什么」问题。因此,下一步是根据段落中的信息,确定每个兴趣点适用的问题类型。

最后,利用文本块-兴趣点-问题类型的三元组,生成所有可能的问题。通过用户角色和问题类型,开发人员可以将生成的问题引导到用户会问的类型上。

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

步骤2:过滤问题

生成问题之后,下一步就是过滤并提取最有用的子集。首先,我们需要对所有生成的问题进行去重,因为不同的兴趣点可能会利用相邻的信息点,导致问题重叠。

接下来,我们使用LLM来判断问题与段落的相关性,确保这些问题能够完全通过段落中的信息回答。然后,我们将所有相关问题重写为对话语气。最后,我们会进行另一次过滤,分类并剔除那些可能过于笼统的问题。

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

步骤3:注入用户角色风格

在前两步中,我们创建并筛选了多样化的问题。最后一步是将用户角色的写作风格融入到问题中。

使用LLM,我们首先根据给定的用户角色描述来制定写作风格。然后,基于这些写作风格重新改写问题。

比如,可以这样描述用户角色的写作风格:

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

英伟达最新技术分享:手把手教你用Llama 3.1合成数据改进模型!附代码

在这个三步流程结束后,我们得到了如下问题:

鉴于现行的监管框架,拟议的合并还需要遵守哪些额外的政策指令,才能获得相关部门的批准?

SolarPower和GreenTech合并的哪些具体方面目前正在接受相关监管部门的审查?

如果在大笔买断之后,GreenTech的研发中心保持单飞状态,那些天才会被炒鱿鱼吗?

可以看出,前两个问题很像Padma的语气,而第三个问题似乎是Aaron会问的。

这些问题各自包含了真实标签,对应特定的文本块,因此不仅限于这一个用例,可以用于评估各种检索流程。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-07-30 11:45:09

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

斯坦福AI虚拟小镇开源;英伟达再推超级芯片;OpenAI发布爬虫机器人 | 本周硅谷发生了什么?
...论。另外,在基础设施层,继上周AMD推出MI300芯片,本周英伟达又放出大招:推出新版超级芯片GH200,主要面向大模型和生成式AI
2023-08-14 15:59:00
热点解读:英伟达GTC要点梳理,关注算力、机器人及游戏投资机遇
一、前言英伟达GTC大会于太平洋时间3月18日至21日在美国圣何塞会议中心举行。2024年3月19日,英伟达在2024年GTC大会上推出全新Blackwell架构芯片平台
2024-03-21 09:46:00
英伟达SC24六大技术亮点,不止加速超算500强
...500榜单,在这500个全球最强的计算机系统中有384个采用了英伟达的技术,其中前十名中更是占据了八个席位。黄仁勋表示:“自CUDA诞生以来,英伟达将计算成本降低至之前的百万
2024-11-22 09:48:00
不光鸡生蛋、蛋也能生鸡?英伟达正测试用生成式AI来帮助研发芯片
仰仗着热销全球的最尖端AI芯片H100,英伟达无疑是年内这轮AI浪潮中最显眼的“弄潮儿”之一。生成式AI的研发需要大量算力的支持,而英伟达的尖端AI芯片则是大语言模型(LLM)开
2023-11-01 02:02:00
“DeepSeek甚至绕过了CUDA”!论文细节再引热议 工程师灵魂提问:英伟达护城河还在吗
英伟达刚刚从DeepSeek-R1引发的4万亿元暴跌中缓过劲来,又面临新的压力?硬件媒体Tom‘s Hardware带来开年最新热议
2025-01-29 18:07:00
大模型全方位重构云计算,2024年或将成为AI原生应用元年
...市场的底层算力开始迁移到以GPU为主。2023年第三季度,英伟达的营收超过英特尔,英伟达最新市值也超过英特尔1万亿美元。“未来GPU的增长将远大于CPU。在这一趋势下,百度需
2023-12-29 09:28:00
谷歌云AIGC火力全开!推出新AI芯片TPU v5e,企业AI服务30美元/月,接入Llama 2等大模型
...,推出新型AI芯片Cloud TPU v5e,目前提供预览版;推出配备英伟达H100 GPU的A3虚拟机,将于下个月全面上市
2023-08-30 10:13:00
AI将爆发哪些超级应用?
...点 在2012年10月,佛罗伦萨计算机视觉会议上 ,只用了4颗英伟达GPU的AlexNet击败了用了16000颗CPU的谷歌猫
2024-11-03 16:20:00
OpenAI CEO宣布转向,“大模型时代”即将结束?
...大一部分来源于 OpenAI 所面临的现实原因。在今年三月,英伟达专用于大模型参数计算、采用专用 Transformer Engine 架构的英伟达 H100NVL 系列发布之后
2023-04-20 10:33:00
更多关于科技的资讯:
巨量引擎 x 刀法研究所《2025爆单内容直播间白皮书》正式发布
从功能满足到价值认同,中国的消费市场已经进入了心智为王的增长新周期,品牌急需建立起一套以内容为核心的全新增长范式,通过引人入胜的故事与消费者建立情感连接和信任关系
2025-08-18 16:19:00
将时针拨回至二十多年前,彼时保险行业的服务场景曾深深镌刻着线下烦琐操作的基因,客户要到网点与业务人员交流,售前、售中及售后均要依托线下网点办理
2025-08-18 12:10:00
少儿人形机器人“主打”陪伴
少儿人形机器人筑境H1在与巡检机器人互动。南京日报/紫金山新闻记者 孙琳 摄□南京日报/紫金山新闻记者孙琳 通讯员焦娇朱强申“大家好
2025-08-18 07:40:00
□南京日报/紫金山新闻记者 邓露洁 通讯员彭海洋“生成一张挂机空调展示海报,要有家居背景,文字要醒目一点。”8月14日下午
2025-08-18 07:41:00
六成参赛机器人“关节”,南京造!
因克斯一体化关节模组赋能2025世界人形机器人运动会六成参赛机器人“关节”,南京造!南报网讯(记者徐宁)8月14日,全球首个以人形机器人为参赛主体的综合性体育盛会“2025世界人形机器人运动会”在北京开幕
2025-08-17 09:53:00
骑手升级“城市骑士”!饿了么淘宝闪购全面提升骑士保障激励体系
8月17号饿了么“骑士日”当天,饿了么董事长兼CEO范禹发布内部信,宣布平台全体骑手正式升级为“城市骑士”,全面升级骑士保障
2025-08-17 15:18:00
合肥神笔生物:基因编辑点亮“中国光”
大皖新闻讯 近日,在青岛海底世界高达9.5米的崖壁前,水流裹挟着自主培育的发光菌奔涌而下,形成一道璀璨流动的“荧光星河瀑布”
2025-08-17 13:26:00
2025“爽爽贵阳·世界风味嘉年华”暨“爽爽贵阳·咖啡飘香”系列活动开幕
8月16日,作为商务部2025服务消费季系列活动之一,2025“爽爽贵阳·世界风味嘉年华”暨“爽爽贵阳·咖啡飘香”系列活动在贵阳市观山湖区阿云朵仓开幕
2025-08-17 21:02:00
360集团20周年庆典:官宣“All in Agent”战略
8月15日,360集团迎来二十周年,在北京奥林匹克体育中心举办的“360集团20周年荣耀庆典”上,创始人周鸿祎向现场数千名员工发表演讲
2025-08-17 13:03:00
培育壮大十大千亿级产业集群丨天为铝业:弃“建”逐“工” 产业迈入新“铝”程
十堰广电讯(全媒体记者 喻波 叶旭升 通讯员 杜达巍)面对建筑型材市场的激烈竞争,今年,湖北天为铝业科技有限公司果断转型
2025-08-17 19:24:00
7月25日,位于邢台市沙河市的河北德金玻璃有限公司三线生产车间,两条生产线上不同规格的玻璃从自动传送带缓缓下线,一台台机械臂来回抓取新鲜出炉的玻璃原片
2025-08-17 07:29:00
90后寒门CEO,帮了雷军一个大忙
小米汽车YU7爆单后,车越欠越多,根本交付不完。即便雷军7月10日称小米汽车交付已超过30万台,但后面还有小米YU7迫在眉睫的24万个新订单
2025-08-16 15:53:00
用AI帮中小企业傻瓜式获客,这个营销Agent收入每月增长150%
文|邓咏仪编辑|苏建勋2024年中离开阿里,开始在Agent赛道创业时,郭振宇面临不少质疑:到底是做AutoAgent(自主代理
2025-08-17 02:24:00
“产业链上的山东好品牌”青岛市系列现场媒体见面会|现代轻工产业链专场——利和味道(青岛)食品产业股份有限公司
鲁网8月16日讯8月15日,在青岛鑫复盛集团有限公司,青岛市政府新闻办举行“产业链上的山东好品牌”青岛市系列现场媒体见面会第三场——现代轻工产业链专场
2025-08-16 09:40:00
通讯员 张汶宁8月14日,山东泰安举办“产业链上的山东好品牌”泰安企业家系列记者见面会首场活动。泰开集团、泰和电力、山东瑞福锂业
2025-08-16 09:56:00