• 我的订阅
  • 科技

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

类别:科技 发布时间:2024-07-25 09:32:00 来源:机器之心Pro

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

经历了提前两天的「意外泄露」之后,Llama 3.1 终于在昨夜由官方正式发布了。

Llama 3.1 将上下文长度扩展到了 128K,拥有 8B、70B 和 405B 三个版本,再次以一已之力抬高了大模型赛道的竞争标准。

对 AI 社区来说,Llama 3.1 405B 最重要的意义是刷新了开源基础模型的能力上限,Meta 官方称,在一系列任务中,其性能可与最好的闭源模型相媲美。

下表展示了当前 Llama 3 系列模型在关键基准测试上的性能。可以看出,405B 模型的性能与 GPT-4o 十分接近。

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

与此同时,Meta 公布了《The Llama 3 Herd of Models》论文,揭示了 Llama 3 系列模型迄今为止的研究细节。

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

论文地址:https://ai.meta.com/research/publications/the-llama-3-herd-of-models/

接下来,让我们看一下论文内容。

Llama3 论文亮点

1、在使用 8K 上下文长度进行预训练后,Llama 3.1 405B 使用 128K 上下文长度进行连续训练,且支持多语言和工具使用。

2、与以前的 Llama 模型相比,Meta 加强了预处理和预训练数据的 Curation pipelines,以及后训练数据的质量保证和过滤方法。

Meta 认为,高质量基础模型的开发有三个关键杠杆:数据、规模和复杂性管理。

首先,与 Llama 的早期版本相比,Meta 在数量和质量两方面改进了用于预训练和后训练的数据。Meta 在大约 15 万亿的多语言 Token 语料库上对 Llama 3 进行了预训练,相比之下,Llama 2 只使用了 1.8 万亿 Token。

此次训练的模型规模远大于以前的 Llama 模型:旗舰语言模型使用了 3.8 × 10²⁵ 次浮点运算(FLOPs)进行预训练,超过 Llama 2 的最大版本近 50 倍。

基于 Scaling law,在 Meta 的训练预算下,当前的旗舰模型已是近似计算最优的规模,但 Meta 对较小模型进行的训练时间已经远超计算最优的时长。结果表明,这些较小模型在相同推理预算下的表现优于计算最优模型。在后训练阶段,Meta 使用了 405B 的旗舰模型进一步提高了 70B 和 8B 模型这些较小模型的质量。

3、为了支持 405B 模型的大规模生产推理,Meta 将 16 位 (BF16) 量化为 8 位 (FP8),从而降低了计算要求,并使模型能够在单个服务器节点上运行。

4、在 15.6T token(3.8x10²⁵ FLOPs)上预训练 405B 是一项重大挑战,Meta 优化了整个训练堆栈,并使用了超过 16K H100 GPU。

正如 PyTorch 创始人、Meta 杰出工程师 Soumith Chintala 所说,Llama3 论文揭示了许多很酷的细节,其中之一就是基础设施的构建。

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

5、在后训练中,Meta 通过多轮对齐来完善 Chat 模型,其中包括监督微调(SFT)、拒绝采样和直接偏好优化。大多数 SFT 样本由合成数据生成。

研究者在设计中做出了一些选择,以最大化模型开发过程的可扩展性。例如,选择标准的密集 Transformer 模型架构,只进行了少量调整,而不是采用专家混合模型,以最大限度地提高训练的稳定性。同样,采用相对简单的后训练程序,基于监督微调(SFT)、拒绝采样(RS)和直接偏好优化(DPO),而不是更复杂的强化学习算法, 因为后者往往稳定性较差且更难扩展。

6、作为 Llama 3 开发过程的一部分,Meta 团队还开发了模型的多模态扩展,使其具备图像识别、视频识别和语音理解的能力。这些模型仍在积极开发中,尚未准备好发布,但论文展示了对这些多模态模型进行初步实验的结果。

7、Meta 更新了许可证,允许开发者使用 Llama 模型的输出结果来增强其他模型。

在这篇论文的最后,我们还看到了长长的贡献者名单:

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

这一系列因素,最终造就了今天的 Llama 3 系列。

当然,对于普通开发者来说,如何利用 405B 规模的模型是一项挑战,需要大量的计算资源和专业知识。

发布之后,Llama 3.1 的生态系统已准备就绪,超过 25 个合作伙伴提供了可与最新模型搭配使用的服务,包括亚马逊云科技、NVIDIA、Databricks、Groq、Dell、Azure、Google Cloud 和 Snowflake 等。

击败GPT-4o的开源模型如何炼成?关于Llama 3.1 405B都写在论文里

更多技术细节,可参考原论文。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-07-25 12:45:04

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

超越GPT-4o!开源科研神器登场,4500万论文检索增强生成靠谱回答
只需几秒钟,开源模型检索4500篇论文,比GPT-4o还靠谱!这就是由华盛顿大学和艾伦人工智能研究所(Ai2)打造的最新模型OpenScholar
2024-11-27 09:58:00
多个中国团队斩获EMNLP\\\'24最佳论文!UCLA华人学者中三篇杰出论文
...,跨文化再创作应运而生。作者构建了三个包含SOTA生成模型的管道:e2e-instruct 直接编辑图像,cap-edit 通过字幕和 LLM 编辑后处理图像
2024-11-18 09:59:00
梁文锋杨植麟论文撞题,“注意力机制”对大模型意味着什么
2月18日,在大洋彼岸的马斯克秀出最新大模型Grok 3当天,国产AI公司深度求索(DeepSeek)最新一篇论文引发关注
2025-02-19 18:43:00
北大字节VAR最佳论文、厦大清华亚军,NeurIPS 2024最佳论文出炉
...可扩展图像),论文一作为田柯宇(此前因涉攻击内部大模型,被字节起诉)。参见机器之心报道《GPT 超越扩散、视觉生成 Scaling Law 时刻
2024-12-05 09:47:00
2022生成模型进展有多快,新论文盘点9类生成模型代表作
ChatGPT的出现,彻底将生成AI推向爆发。但别忘了,AI生成模型可不止ChatGPT一个,光是基于文本输入的就有7种——图像
2023-01-30 16:34:00
一块GPU都没用,苹果自研大模型干翻GPT-4?
...,上线Apple Intelligence的首个版本,同时47页的苹果自研大模型技术报告重磅发布。Apple Intelligence首个版本上线了以下AI功能
2024-07-31 09:37:00
「学术版ChatGPT」登场!Ai2打造科研效率神器OpenScholar,让LLM帮你搞定文献综述
...进行文献搜索和文献综述工作,而且做到了数据、代码、模型权重的全方位开源。LLM集成到搜索引擎中,可以说是当下AI产品的一个热门落地方向
2024-11-27 13:33:00
世界首个AI科学家连发10篇论文,横扫「顶会」!一篇仅需100元,自主科研效率完爆人类
...eak Accept的水准。世界首个「AI科学家」诞生了!现在的大模型已经可以独立搞科研,甚至完全不需要人类插手。这不,它刚刚一口气连肝了10篇论文。从提出研究想法、实验、写
2024-08-14 13:55:00
遗憾不?百度早研究过Scaling Law,Anthropic CEO灵感都来自百度
...Scaling Law 的相关研究,并且通过实证研究验证了深度学习模型的泛化误差和模型大小随着训练集规模的增长而呈现出可预测的幂律 scaling 关系
2024-11-28 10:00:00
更多关于科技的资讯: