• 我的订阅
  • 科技

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

类别:科技 发布时间:2024-11-28 09:59:00 来源:机器之心Pro

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

在当今多模态领域,CLIP 模型凭借其卓越的视觉与文本对齐能力,推动了视觉基础模型的发展。CLIP 通过对大规模图文对的对比学习,将视觉与语言信号嵌入到同一特征空间中,受到了广泛应用。

然而,CLIP 的文本处理能力被广为诟病,难以充分理解长文本和复杂的知识表达。随着大语言模型的发展,新的可能性逐渐显现:LLM 可以引入更丰富的开放时间知识、更强的文本理解力,极大提升 CLIP 的多模态表示学习能力。

在此背景下,来自同济大学和微软的研究团队提出了 LLM2CLIP。这一创新方法将 LLM 作为 CLIP 的强力 「私教」,以少量数据的高效微调为 CLIP 注入开放世界知识,让它能真正构建一个的跨模态空间。在零样本检索任务上,CLIP 也达成了前所未有的性能提升。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

论文标题:LLM2CLIP: POWERFUL LANGUAGE MODEL UNLOCKS RICHER VISUAL REPRESENTATION 论文链接:https://arxiv.org/pdf/2411.04997 代码仓库:https://github.com/microsoft/LLM2CLIP 模型下载:https://huggingface.co/collections/microsoft/llm2clip-672323a266173cfa40b32d4c

在实际应用中,LLM2CLIP 的效果得到了广泛认可,迅速吸引了社区的关注和支持。

HuggingFace 一周内的下载量就破了两万,GitHub 也突破了 200+ stars!

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

值得注意的是, LLM2CLIP 可以让完全用英文训练的 CLIP 模型,在中文检索任务中超越中文 CLIP。

此外,LLM2CLIP 也能够在多模态大模型(如 LLaVA)的训练中显著提升复杂视觉推理的表现。

代码与模型均已公开,欢迎访问 https://aka.ms/llm2clip 了解详情和试用。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

LLM2CLIP 目前已被 NeurIPS 2024 Workshop: Self-Supervised Learning - Theory and Practice 接收。

研究背景

CLIP 的横空出世标志着视觉与语言领域的一次革命。不同于传统的视觉模型(如 ImageNet 预训练的 ResNet 和 ViT)依赖简单的分类标签,CLIP 基于图文对的对比学习,通过自然语言的描述获得了更丰富的视觉特征,更加符合人类对于视觉信号的定义。

这种监督信号不仅仅是一个标签,而是一个富有层次的信息集合,从而让 CLIP 拥有更加细腻的视觉理解能力,适应零样本分类、检测、分割等多种任务。可以说,CLIP 的成功奠基于自然语言的监督,是一种新时代的 「ImageNet 预训练」。

虽然 CLIP 在视觉表示学习中取得了成功,但其在处理长文本和复杂描述上存在明显限制。而大语言模型(LLM)例如 GPT-4 和 Llama,通过预训练掌握了丰富的开放世界知识,拥有更强的文本理解和生成能力。

将 LLM 的这些能力引入到 CLIP 中,可以大大拓宽 CLIP 的性能上限,增强其处理长文本、复杂知识的能力。借助 LLM 的知识扩展,CLIP 在图文对齐任务中的学习效率也得以提升。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

原始的 LLM 无法给 CLIP 带来有意义的监督

事实上,将 LLM 与 CLIP 结合看似简单粗暴,实际并非易事。直接将 LLM 集成到 CLIP 中会引发「灾难」,CLIP 无法产生有效的表示。

这是由于 LLM 的文本理解能力隐藏在内部,它的输出特征空间并不具备很好的特征可分性。

于是,该团队设计了一个图像 caption 到 caption 的检索实验,使用 COCO 数据集上同一张图像的两个不同 caption 互相作为正样本进行文本检索。

他们发现原生的 llama3 8B 甚至无法找到十分匹配的 caption,例如 plane 和 bat 的距离更近,但是离 airplane 的距离更远,这有点离谱了,因此它只取得了 18.4% 的召回率。

显然,这样的输出空间无法给 CLIP 的 vision encoder 一个有意义的监督,LLM 无法帮助 CLIP 的进行有意义的特征学习。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

图像描述对比微调是融合 LLM 与 CLIP 的秘诀

从上述观察,研究团队意识到必须对提升 LLM 输出空间对图像表述的可分性,才有可能取得突破。

为了让 LLM 能够让相似的 caption 接近,让不同图像的 caption 远离,他们设计了一个新的图像描述对比微调——Caption-Contrastive(CC)finetuning。

该团队对训练集中每张图像都标注了两个以上 caption,再采用同一个图像的 caption 作为正样本,不同图像的 caption 作为负样本来进行对比学习,来提升 LLM 对于不同画面的描述的区分度。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

实验证明,这个设计可以轻易的提升上述 caption2caption 检索的准确率,从上述 cases 也可以看出召回的例子开始变得有意义。

高效训练范式 LLM2CLIP

让 SOTA 更加 SOTA

LLM2CLIP 这一高效的训练范式具体是怎么生效的呢?

首先,要先使用少量数据对 LLM 进行微调,增强文本特征更具区分力,进而作为 CLIP 视觉编码器的强力 「教师」。这种设计让 LLM 中的文本理解力被有效提取,CLIP 在各种跨模态任务中获得显著性能提升。

实验结果表明,LLM2CLIP 甚至能在不增加大规模训练数据的情况下,将当前 SOTA 的 CLIP 性能提升超过 16%。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

英文训练,中文超越,CLIP 的语言能力再拓展

一个令人惊喜的发现是,LLM2CLIP 的开放世界知识不仅提升了 CLIP 在英文任务中的表现,还能赋予其多语言理解能力。

尽管 LLM2CLIP 仅在英文数据上进行了训练,但在中文图文检索任务上却超越了中文 CLIP 模型。这一突破让 CLIP 不仅在英文数据上达到领先水平,同时在跨语言任务中也展现了前所未有的优势。

跨模态大升级!少量数据高效微调,LLM教会CLIP玩转复杂文本

提升多模态大模型的复杂视觉推理性能

LLM2CLIP 的优势还不止于此。当该团队将 LLM2CLIP 应用于多模态大模型 LLaVA 的训练时,显著提升了 LLaVA 在复杂视觉推理任务中的表现。

LLaVA 的视觉编码器通过 LLM2CLIP 微调后的 CLIP 增强了对细节和语义的理解能力,使其在视觉问答、场景描述等任务中取得了全面的性能提升。

总之,该团队希望通过 LLM2CLIP 技术,推动大模型的能力反哺多模态社区,同时为基础模型的预训练方法带来新的突破。

LLM2CLIP 的目标是让现有的预训练基础模型更加强大,为多模态研究提供更高效的工具。

除了完整的训练代码,他们也逐步发布了经过 LLM2CLIP 微调的主流跨模态基础模型,期待这些模型能被应用到更多有价值的场景中,挖掘出更丰富的能力。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-28 12:45:01

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

阿里国际发布最新开源多模态模型Ovis,多模态能力再升级
...手写英文准确翻译成中文、还能精准分析财报数据……多模态能力再次升级!今天,阿里国际AI团队发布了一款多模态大模型Ovis,在图像理解任务上不断突破极限,多种具体的子类任务中均
2024-09-20 13:35:00
英伟达开源NVLM 1.0屠榜多模态!纯文本性能不降反升
【新智元导读】NVLM 1.0系列多模态大型语言模型在视觉语言任务上达到了与GPT-4o和其他开源模型相媲美的水平,其在纯文本性能甚至超过了LLM骨干模型,特别是在文本数学和编码
2024-09-24 13:36:00
Gemini引领多模态AI热潮,产业发展有望加速
12月11日,多模态AI概念股继续活跃,苏州科达(603660.SH)三连板。截至当日中午收盘,因赛集团(300781
2023-12-11 15:01:00
...中国科学院自动化研究所所长徐波在发布“紫东太初”全模态大模型时,展示了该模型的新“能耐”。作为“紫东太初”1.0的升级版,“紫东太初”全模态大模型具备全模态理解能力、生成能力
2023-06-26 01:45:00
别只盯着ChatGPT版Her,多模态AI拟人互动上,国内玩家也支棱起来了
... AI 发起挑战的高规格赛事落下了帷幕!这就是第二届多模态情感识别挑战赛(MER24),它由清华大学陶建华教授、中国科学院自动化研究所连政
2024-08-01 09:34:00
对比学习滥用隐私数据!中科院等发布「多步误差最小化」方法 | ACM MM2024
...出了一种新颖的多步误差最小化(MEM)方法,用于生成多模态不可学习样本,以保护个人数据不被多模态对比学习模型滥用。通过优化图像噪声和文本触发器,MEM方法有效地误导模型,降低
2024-08-02 09:55:00
文本、图像、点云任意模态输入,AI能够一键生成高质量CAD模型了
...同完成,是全球首个同时支持文本描述、图像、点云等多模态输入的计算机辅助设计(CAD)生成大模型。计算机辅助设计(Computer-Aided Design
2024-11-26 09:46:00
紫东.太初再进化,揭秘全模态大模型的想象力
...在演讲中介绍了基于昇腾AI与昇思MindSpore AI框架打造的全模态大模型紫东.太初2.0,并首次提出全模态多任务统一生成式学习框架
2023-05-12 06:00:00
首个可保留情感的音频LLM!Meta重磅开源7B-Spirit LM,一网打尽「音频+文本」多模态任务
【新智元导读】Meta最近开源了一个7B尺寸的Spirit LM的多模态语言模型,能够理解和生成语音及文本,可以非常自然地在两种模式间转换,不仅能处理基本的语音转文本和文本转语音
2024-11-23 09:43:00
更多关于科技的资讯:
厦门网讯 (厦门日报记者 林露虹)“平时我们更多是在实验室做科研,这次比赛让我们和产业界有了深入交流,对我们的成长很有帮助
2025-11-11 08:38:00
千里姻缘一线牵:米连用户从线上相识到终成眷属
去年五月,25岁的万森在伊对平台上偶然认识了26岁的陈珊,惊讶地发现两人竟然是同乡,他们的村子相距仅60公里。更令人称奇的是
2025-11-11 08:47:00
企创云课堂直播课预告丨GaN功率器件与功率集成电路:赋能下一代高效能源系统
氮化镓(GaN)功率器件正成为推动能源电子系统高效化、小型化、智能化的核心技术,引领电力电子从“硅时代”迈向“宽禁带时代”
2025-11-11 08:47:00
京津冀机器人产业链配套需求与供给能力清单发布需求聚集产业 “邻居”成为“伙伴”河北日报讯(记者米彦泽)作为2025京津冀产业链供应链对接活动的系列活动之一
2025-11-11 09:13:00
2025 Wallpaper*中文版设计大奖 于深圳湾文化广场完美落幕
(2025 年 11 月 3 日,深圳)第五届Wallpaper*中文版设计大奖在湾区全新文化地标——深圳湾文化广场圆满落幕
2025-11-11 09:17:00
“链”动先“机”,济南锚定这个“万亿级”|链上济南项新行
编者按:“十五五”规划建议中提出,提升产业链自主可控水平,强化产业基础再造和重大技术装备攻关,滚动实施制造业重点产业链高质量发展行动
2025-11-11 09:39:00
河北新闻网讯(曾儒奇)房产主播轮番上阵,数十场“直播看房”实时开讲;线上专门设立金融服务窗口,为购房者提供信贷全流程指导
2025-11-11 10:01:00
日常活跃度不高、功能相对单一,维护和优化更新成本却高昂——金融机构“断舍离” App掀起“关停潮”□南京日报/紫金山新闻记者曹丽珍买理财
2025-11-11 08:02:00
艾拓生命“全自动液态悬浮芯片检测仪”获批
艾拓生命“全自动液态悬浮芯片检测仪”获批宁企“芯”突破,检测精度高艾拓生命“全自动液态悬浮芯片检测仪”。 企业供图南报网讯(通讯员江高轩记者张希)近日
2025-11-11 08:03:00
2025“直通乌镇”全球互联网大赛颁奖宁企斩获智能终端赛道一等奖南报网讯(记者徐宁实习生黄倩)11月9日上午,2025“直通乌镇”全球互联网大赛颁奖典礼在浙江乌镇举行
2025-11-11 07:30:00
南京企业发力“双11”,消费新意多热力足即时零售增长快 “即”刻满足体验佳□南京日报/紫金山新闻记者黄琳燕 实习生黄莹“3
2025-11-11 07:30:00
中新经纬11月10日电 据国家发改委网站10日消息,国家发改委、国家数据局等十部门印发《关于推动物流数据开放互联 有效降低全社会物流成本的实施方案》(下称《方案》)提到
2025-11-11 07:34:00
GMT for Kids七赴进博会,以科技创新构筑儿童护脊新高度
2025年11月5日,第八届中国国际进口博览会(以下简称"进博会")在上海隆重举行。作为全球首个以进口为主题的国家级展会
2025-11-10 14:09:00
近日,2025年广东省职工职业技能竞赛暨“羊城工匠杯”生成式人工智能系统应用员大赛决赛在广州拉开帷幕。在这场人工智能系统应用领域的巅峰对决中
2025-11-10 14:40:00
2025中国企业全球形象高峰论坛| 完美世界总编辑伊迪:中国文化“出海” 要与世界文明“相融”
大皖新闻讯 完美世界集团是全球领先的文化娱乐产业集团,涵盖影视、游戏、电竞等板块,旗下产品遍布美、欧、亚等全球100多个国家和地区
2025-11-10 15:14:00