• 我的订阅
  • 科技

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

类别:科技 发布时间:2024-08-22 09:51:00 来源:机器之心Pro

现在,长上下文视觉语言模型(VLM)有了新的全栈解决方案 ——LongVILA,它集系统、模型训练与数据集开发于一体。

现阶段,将模型的多模态理解与长上下文能力相结合是非常重要的,支持更多模态的基础模型可以接受更灵活的输入信号,以便人们可以以更多样化的方式与模型交互。而更长的上下文使模型处理的信息更多,例如长文档、长视频,这种能力同样为更多现实世界的应用程序提供了所需的功能。

然而,目前面临的问题是一些工作已经启用了长上下文视觉语言模型(VLM),但通常是采用简化的方法,而不是提供一个全面的解决方案。

全栈设计对于长上下文视觉语言模型至关重要。训练大型模型通常是一项复杂而系统的工作,需要数据工程和系统软件协同设计。与纯文本 LLM 不同,VLM(例如 LLaVA)通常需要独特的模型架构和灵活的分布式训练策略。

此外,长上下文建模不仅需要长上下文数据,还需要能够支持内存密集型长上下文训练的基础设施。因此,对于长上下文 VLM 来说,精心规划的全栈设计(涵盖系统、数据和 pipeline)是必不可少的。

本文,来自英伟达、MIT、UC 伯克利、得克萨斯大学奥斯汀分校的研究者引入了 LongVILA,这是一种用于训练和部署长上下文视觉语言模型的全栈解决方案,包括系统设计、模型训练策略和数据集构建。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

论文地址:https://arxiv.org/pdf/2408.10188 代码地址:https://github.com/NVlabs/VILA/blob/main/LongVILA.md 论文标题:LONGVILA: SCALING LONG-CONTEXT VISUAL LANGUAGE MODELS FOR LONG VIDEOS

对于训练基础设施,该研究建立了一个高效且用户友好的框架,即多模态序列并行 (MM-SP),它支持训练记忆 - 密集型长上下文 VLM。

对于训练 pipeline,研究者实施了一个五阶段训练流程,如图 1 所示:即 (1) 多模态对齐,(2) 大规模预训练,(3) 短监督微调,(4) LLM 的上下文扩展,以及 (5) 长监督微调。

对于推理,MM-SP 解决了 KV 缓存内存使用率的挑战, 这在处理非常长的序列时会成为瓶颈。

通过使用 LongVILA 增加视频帧数,实验结果表明该研究在 VideoMME 和长视频字幕任务上的性能持续提高(图 2)。在 1024 帧上训练的 LongVILA 模型在 1400 帧的大海捞针实验中实现了 99.5% 的准确率,相当于 274k 个 token 的上下文长度。此外, MM-SP 系统可以有效地将上下文长度扩展到 200 万个 token 而无需梯度检查点,与环形序列并行(ring sequence parallelism)相比实现了 2.1 倍至 5.7 倍的加速,与 Megatron 上下文并行 + 张量并行相比实现了 1.1 倍至 1.4 倍的加速。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

下图为 LongVILA 技术在处理长视频字幕时的示例:在字幕开头,8 帧的基线模型仅描述了静态图像和两辆车。相比之下,256 帧的 LongVILA 描述了雪地上的汽车,包括车辆的前、后和侧面视图。在细节上,256 帧的 LongVILA 还描述了点火按钮、变速杆和仪表盘的特写,这些在 8 帧的基线模型中是缺失的。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

多模态序列并行

训练长上下文视觉语言模型(VLM)会产生大量内存需求。例如下图 1 中 Stage 5 的长视频训练,单个序列包含了产生 1024 个视频帧的 200K tokens,这超出了单个 GPU 的内存容量。

研究者开发了一个基于序列并行的定制系统。序列并行是当前基础模型系统中常用的一种技术,用于优化仅文本的 LLM 训练。不过,研究者发现现有系统既不高效,扩展性也不足以处理长上下文 VLM 工作负载。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

在确定现有系统的局限性之后,研究者得出结论,一个理想的多模态序列并行方法应该通过解决模态和网络异构性来优先实现效率和可扩展性,并且扩展性不应受到注意力头数量的限制。

MM-SP 工作流。为了应对模态异构性的挑战,研究者提出了一种两阶段式分片策略,以优化图像编码和语言建模阶段的计算工作负载。

具体如下图 4 所示,第一阶段首先在序列并行进程组内的设备之间均匀地分布图像(比如视频帧),从而在图像编码阶段实现负载平衡。第二阶段,研究者聚合全局视觉和文本输入以进行 token 级分片。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

2D 注意力并行。为了解决网络异构性并实现可扩展性,研究者结合环形(Ring)序列并行和 Ulysses 序列并行的优势。

具体来讲,他们将跨序列维或注意力头维的并行视为「1D SP」。该方法通过跨注意力头和序列维的并行计算来实现扩展,将 1D SP 转换为由独立的 Ring(P2P)和 Ulysses(A2A)进程组组成的 2D 网格。

以下图 3 左所示,为了实现跨 2 个节点的 8-degree 序列并行,研究者使用 2D-SP 构建了一个 4×2 通信网格。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

此外,在下图 5 中,为了进一步解释 ZIGZAG-RINGATTN 如何平衡计算以及 2D-Attention 机制如何运作,研究者解释了使用不同方法的注意力计算计划。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

与 HuggingFace 的原生 pipeline 并行策略相比,本文的推理模式更加高效,原因在于所有设备同时参与计算,从而与机器数量呈正比地加速进程,具体如下图 6 所示。同时,该推理模式是可扩展的,内存均匀地分布给各个设备,以使用更多机器来支持更长的序列。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

LongVILA 训练流程

上文提到,LongVILA 的训练流程分为 5 个阶段完成。各个阶段的主要任务分别如下:

在 Stage 1,只有多模态映射器可以训练,其他映射器被冻结。

在 Stage 2,研究者冻结了视觉编码器,并训练了 LLM 和多模态映射器。

在 Stage 3,研究者针对短数据指令遵循任务对模型全面进行微调,比如使用图像和短视频数据集。

在 Stage 4,研究者以持续预训练的方式,使用仅文本的数据集来扩展 LLM 的上下文长度。

在 Stage 5,研究者通过长视频监督微调来增强指令遵循能力。值得注意的是,所有参数在该阶段是可训练的。

实验结果

研究者从系统和建模两个方面对本文全栈解决方案进行评估。他们首先展示了训练和推理结果,从而说明了可支持长上下文训练和推理的系统实现了效率和可扩展性。接着评估了长上下文模型在字幕和指令遵循任务上的表现。

训练与推理系统

该研究对训练系统的吞吐量、推理系统的延迟以及支持的最大序列长度进行了定量评估。

表 2 显示了吞吐量结果。与 ZIGZAG-RINGATTN 相比,本文系统实现了 2.1 倍至 5.7 倍的加速,性能与 DeepSpeed-Ulysses 相当。与 Megatron-LM CP 中更优化的环形序列并行实现相比,实现了 3.1 倍至 4.3 倍的加速。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

该研究通过逐步将序列长度从 1k 增加到 10k 来评估固定数量 GPU 支持的最大序列长度,直到发生内存不足错误。结果总结在图 9 中。

当扩展到 256 个 GPU 时,本文方法可以支持大约 8 倍的上下文长度。此外,所提系统实现了与 ZIGZAG-RINGATTN 类似的上下文长度扩展,在 256 个 GPU 上支持超过 200 万的上下文长度。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

表 3 比较了支持的最大序列长度,该研究提出的方法支持的序列比 HuggingFace Pipeline 支持的序列长 2.9 倍。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

图 11 展示了长视频大海捞针实验的结果。相比之下,LongVILA 模型(右)在一系列帧数和深度上都表现出了增强的性能。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

表 5 列出了各种模型在 Video MME 基准上的表现,比较了它们在短视频、中视频和长视频长度上的有效性以及整体性能。LongVILA-8B 采用 256 帧,总分为 50.5。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

研究者还在表 6 对第 3 阶段和第 4 阶段的影响进行了消融研究。

支持1024帧、准确率近100%,英伟达「LongVILA」开始发力长视频

表 7 显示了在不同帧数(8、128 和 256)上训练和评估的 LongVILA 模型的性能指标。随着帧数的增加,模型的性能显著提高。具体来说,平均分数从 2.00 上升到 3.26, 突显了模型在更多帧数下生成准确丰富字幕的能力。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-08-22 11:45:09

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

大模型重构生命科学!最大基础模型面世,解锁DNA超长序列
...等,这样一来在各种具体下游任务下,实现更好的性能和准确率。还有像DNA大模型序列长度跃升至128K,可以更好的捕获远端调控信息,实现了超长序列解码生命的可能性。这有点类似于通
2024-11-07 09:50:00
英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升
...LLM骨干模型,特别是在文本数学和编码基准测试中,平均准确率提高了4.3个百分点。文本大模型经过多年的发展,逐渐发展成了统一的纯解码器Transformer架构。反观现有的多
2024-09-24 13:36:00
梁文锋杨植麟论文撞题,“注意力机制”对大模型意味着什么
...通过NSA新架构,和Transformer原先传统的注意力机制相比,准确率相同或更高,处理64k标记序列时速度可提高至11
2025-02-19 18:43:00
...款 2 亿日元,并计划在 2024 财年将拨款提升至 3 亿日元。准确率可达 70%,科学家利用 AI 解读狗的叫声
2024-06-11 09:00:00
...数学教育)全部 20 个科目及大多数文科科目中获得较高准确率,在涉及“抽象思维”的科目中,还有一定进步空间。OpenAI向所有用户开放ChatGPT“自定义指令”功能8月11日消息
2023-08-15 01:10:00
00后华裔小哥哈佛辍学组团挑战英伟达,史上最快AI芯片Sohu推理性能超H100二十倍!
...d又宣布了炸裂的新消息:已筹到1.2亿美元。 就在上周,英伟达的市值达到3.3万亿美元,超过微软成为全球第一。而Etched相信,自己的35人团队能够击败英伟达。他们的豪放
2024-06-27 09:25:00
微软、英伟达纷纷押注小模型,大模型不香了?
...例如,在多项选择题中,Claude 3 Opus、GPT- 4 和Gemini Ultra的准确率均超过83%,而在推理任务中
2024-08-26 14:17:00
长上下文能力只是吹牛?最强GPT-4o正确率仅55.8%,开源模型不如瞎蒙
...绩直接惨不忍睹,表现最好的Command R(simple)只有22.47%的准确率。——要知道,这考试瞎蒙也能得25分(四选一)
2024-07-23 17:12:00
英伟达帝国的一道裂缝
...一个能够识别猫的深度学习网络“谷歌猫”,74.8%的识别准确率,比知名识别图像大赛ImageNet前一年获胜算法的74%还要高出0
2023-05-18 11:06:00
更多关于科技的资讯:
第二届“科创·柳叶湖”合成生物制造创新创业大赛巅峰对决即将开锣!
第二届“科创·柳叶湖”合成生物制造创新创业大赛将于2026年1月15日至17日在湖南常德举行。本届大赛以“合创万物 智引未来”为主题
2026-01-07 17:00:00
高品质鱼油赛道再迎里程碑:新加坡Biowell小金星Plus获TGA认证
在消费者对营养品品质与真实功效日益关注的背景下,国际权威认证成为衡量产品力的重要标尺。近日,新加坡专业营养品牌Biowell迎来关键进展
2026-01-07 17:00:00
编织数据天网 守护卫星星河
——记寰宇卫星技术主管贾淋淋在卫星与地面之间,无形的数据洪流日夜奔涌,构筑起现代航天测控的生命线。而在这条关键通道的背后
2026-01-07 17:00:00
大庆油田采油一厂第九作业区新中310采油班面对油田数字化建设的深入推进,油水井报表管理正经历从传统纸质向智能数字化的关键转型
2026-01-07 17:02:00
二元魂与京东京造深度联动,共建 AI 潮玩全龄陪伴生态
近日,京东京造携手 JoyInside 全新推出4 款 AI 产品,精准覆盖全家不同生活场景的陪伴需求。此次上新阵容中
2026-01-07 17:02:00
美学舒适双在线,ROSE CASTLE 玫瑰城堡|打造能传家的奢侈品级婚鞋
婚礼当天,新娘的足下承载着远超一双鞋的物理重量。它是踏入人生新阶段的仪式感起点,是全天候优雅姿态的基石,也是婚礼记忆中最具象的情感信物之一
2026-01-07 17:02:00
河北新闻网讯(刘富伟)日前,工业和信息化部、国家药品监督管理局联合发布《2025年人工智能医疗器械创新任务揭榜挂帅入围名单》
2026-01-07 16:56:00
人体工学品牌MS官宣2025营收破亿,未来三年剑指十亿目标
12月30日,国内人体工学显示器支架品牌MS在年度工作总结会上宣布:2025年MS营收突破亿元大关,并确立了未来三年营收向十亿迈进的目标
2026-01-07 16:57:00
同样的预算,别买“电子垃圾”!阿尔法蛋词典笔,平价背后的专业与安全
平价词典笔就选阿尔法蛋吗?是的,这是明智之选。 在预算有限时,家长往往面临“廉价山寨”与“高价品牌”的两难。阿尔法蛋词典笔打破了这种困境
2026-01-07 16:58:00
Coosea酷赛智能的下一站:聚焦核心技术,剑指智能硬件百万台增量市场
在全球智能硬件市场持续扩张的浪潮中,酷赛智能科技股份有限公司(以下简称“Coosea酷赛智能”)正以行业引领者之姿,稳步推进其战略布局
2026-01-07 15:10:00
杜蒿坨数字时代,指尖轻点就能完成金融业务,银行网点正在经历“瘦身”。据国家金融监督管理总局金融许可证信息查询系统粗略统计
2026-01-07 15:27:00
从仓库到接驳点,无人配送车上路厦门首次在开放道路上开展自动驾驶配送测试东南网1月7日讯 (海峡导报记者 江小聪) 近日
2026-01-07 15:51:00
王志顺国家税务总局近日通报,2025年前11个月,税务部门共查处1818名包括明星网红在内的“双高”人员,查补税款高达15
2026-01-07 15:57:00
科技赋能健康,倍轻松携AI+中医创新亮相2026 CES,全球化战略再提速
当全球消费科技的目光聚焦于拉斯维加斯威尼斯人会展中心,中国健康科技领军企业倍轻松(股票代码:688793)以全新姿态登陆2026年国际消费电子展(CES)
2026-01-07 16:21:00
百镜大战再添新军 思问AI眼镜如何脱颖而出
2026年1月10日,大湾区深中通道西人工岛,吸引人们的不只是网红打卡地、超级工程,还将有一场人工智能的科技秀:思问AI眼镜
2026-01-07 16:22:00