• 我的订阅
  • 科技

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

类别:科技 发布时间:2024-11-11 13:31:00 来源:量子位

空间智能版ImageNet来了,来自斯坦福李飞飞吴佳俊团队!

HourVideo,一个用于评估多模态模型对长达一小时视频理解能力的基准数据集,包含多种任务。

通过与现有模型对比,揭示当前模型在长视频理解上与人类水平的差距。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

2009年,李飞飞团队在CVPR上首次对外展示了图像识别数据集ImageNet,它的出现极大推动计算机视觉算法的发展——懂CV的都是知道这里面的门道有多深。

现在,随着多模态迅猛发展,团队认为“现有的视频基准测试,大多集中在特定领域或短视频上”,并且“这些数据集的平均视频长度较短,限制了对长视频理解能力的全面评估”。

于是,空间智能版ImageNet应运而生。

HourVideo包含500个来自Ego4D数据集的第一人称视角视频,时长在20到120分钟之间,涉及77种日常活动。

评测结果表示,人类专家水平显著优于目前长上下文多模态模型中最厉害的Gemini Pro 1.5(85.0%对37.3%)。

在多模态能力上,大模型们还任重而道远。

HourVideo如何炼成?

之所以提出HourVideo,是因为研究人员发现目前长视频理解越来越重要,而现有评估benchmark存在不足。

多模态越来越卷,人们期待AI被赋予autonomous agents的类似能力;而从人类角度来看,由于人类具备处理长时间视觉处理的能力,因此能在现实视觉中感知、计划和行动。

因此,长视频理解对实现这一目标至关重要。

而当前的多模态评估benchmark,主要还是集中在评测单张图像或短视频片段(几秒到三分钟),对长视频理解的探索还有待开发。

不可否认的是,AI评估长视频理解面临诸多挑战,譬如要设计任务、避免通过先验知识或简短片断回答等。

因此,团队提出HourVideo。

这是一个为长视频理解而设计的基准数据集。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

为了设计出需要长期理解的任务,团队首先提出了一个新的任务对应套件,包含总结、感知(回忆、跟踪)、视觉推理(空间、时间、预测、因果、反事实)和导航(房间到房间、对象检索)任务,共18个子任务。

其中,总结任务要求模型对视频中的关键事件、主要交互等进行概括性描述,例如总结出脖子上挂了个相机的人在超市中有什么关键交互行为。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

感知任务由两部分构成,

一个是回忆任务,包括事实回忆(比如脖子上挂了个相机的人,在超市拿起的乳制品)和序列回忆(比如那个人在超市称完西红柿过后做了什么),以及对时间距离的判断(比如吃了多久的披萨才扔掉盒子)。

还有一个是跟踪任务,主要用来识别脖子上挂了个相机的人在特定场景(比如超市、药店)中互动的独特个体。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

接下来是视觉推理任务,分为空间推理和时间推理。

空间推理负责判断物体之间的空间关系、空间接近度(如微波炉与冰箱或水槽相比是否更近)以及空间布局(如选择正确描绘脖子上挂相机的人的公寓的布局图)。

时间推理则包括对活动持续时间的比较、事件发生频率的判断、活动的先决条件、预测(如洗完衣服后最可能做的活动)、因果关系(如第二次离开车库的原因)以及反事实推理(如用烤箱做土豆泥会怎样)。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

导航任务包含了房间到房间的导航、对象检索导航。

以上每个任务有精心设计的问题原型,以确保正确回答问题需要对长视频中的多个时间片段进行信息识别和综合,从而有效测试模型的长期理解能力。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

与此同时,研究人员通过pipeline来生成了HourVideo数据集。

第一步,视频筛选。

团队从Ego4D数据集中手动审核1470个20到120分钟的视频,让5位人类专家选择了其中500个视频,

至于为啥要从Ego4D中选呢,一来是其以自我为中心的视角与autonomous agents和助手的典型视觉输入非常一致;二来是它具有广泛的视觉叙述,有助于创建多样化的题;三来Ego4D的访问许可非常友好。

第二步,候选MCQ生成。

这需要在长视频中跨多个时间片段,进行信息分析和合成。

具体来说,研究人员以20分钟为间隔分割了视频,提取信息转化为结构化格式供大模型处理。最终一共开发了25个特定任务的prompts。

第三步,LLM优化与人工反馈。

在这个阶段,团队实现了一个人工反馈系统,7名经验丰富的人员人工评估每个问题的有效性、答案准确性、错误选项合理性。最终收集了400多个小时的人工反馈,然后设计prompt,自动优化 MCQ₂得到 MCQ₃。

第四步,盲选。

这一阶段的目标是消除可以通过大模型先验知识的问题,或者消除那些可以在不用视频中任何信息就可以回答的问题。

团队用两个独立的大模型——GPT-4-turbo和GPT-4,对MCQ₃进行盲筛,确保剩余 MCQ₄高质量且专门测试长视频语言理解。

第五步也是最后一步,专家优化。

这一步是用来提升MCQ₄质量,将宽泛问题精确化,经此阶段得到高质量 MCQ₅。

4个专家干的事be like,把 “挂着相机的人把钥匙放在哪里了?” 精确成“挂着相机的人购物回家后,把自行车钥匙放在哪里了?”

如上pipeline中,研究图纳队使用了GPT-4来遵循复杂的多步骤指令,同时还使用了CoT提示策略。

此外,pipeline中涉及大模型的所有阶段的问题被设为0.1。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

据统计,HourVideo涵盖77种日常生活场景,包含500个Ego4D视频,视频时长共381个小时、平均时长45.7分钟,其中113个视频时长超过1小时。

每个视频有约26个高质量五选一题,共计12976个问题。

除因果、反事实和导航任务外,问题在任务套件中均匀分布。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

最好表现仍远低于人类专家水平

在实验评估方面,HourVideo采用五选多任务问答(MCQ)任务,以准确率作为评估指标,分别报告每个任务以及整个数据集的准确率。

由于防止信息泄露是评估长视频中的MCQ时的一个重要挑战——理想情况下,每个MCQ应独立评估,但这种方法计算成本巨高,且十分耗时。

因此,实际评估中按任务或子任务对问题进行分批评估,对于预测任务,提供精确的时间戳以便对视频进行有针对性的剪辑,从而平衡计算成本和评估准确性。

研究团队比较了不同的多模态模型在零镜头设置下理解长视频的性能。

主要评估了三类模型,所有这些模型都在一个通用函数下运行:

盲LLM:

指是指在评估过程中,不考虑视频内容,仅依靠自身预先训练的知识来回答问题的大型语言模型。

实验中以GPT-4为代表。它的存在可以揭示模型在多大程度上依赖于其预训练知识,而不是对视频中实际视觉信息的理解。

苏格拉底模型:

对于大多数当前的多模态模型,直接处理非常长的视频存在困难。

因此,采用Socratic模型方法,将视频(总时长为t分钟)分割成1分钟的间隔,每个间隔独立加字幕,然后将这些字幕聚合形成一个全面的基于语言的视频表示,并与通用任务无关的提示一起作为输入进行长视频问答。

实验中分别使用GPT-4和LLaVA- NEXT-34-DPO 为视频字幕生成器,并最终使用GPT-4进行实际问题回答。

原生多模态模型:

像Gemini 1.5 Pro这样的原生多模态模型,在多模态数据(包括音频、视频、图像和文本)上联合训练,能够处理非常长的上下文长度*((2M +),适合直接对HourVideo进行端到端评估。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

为了与模型性能进行对比,实验人员从基准数据集中选取了14个视频,涵盖>18种场景,包括手工制作/绘画、烹饪、建筑/装修、园艺、清洁/洗衣和庭院工作等。

然后邀请了3位人类专家,对上述总时长11.2小时的视频内容进行进行评估,共涉及213个MCQ。

为确保评估的公正性,参与评估的人类专家未参与过这些视频的早期注释工作。

最终,人类专家在评估中的准确率达到了85.0% 。

而盲LLM的准确率为19.6%,Socratic模型准确率略高,原生多模态模型准确率最高,达到了37.3%,仍然远低于人类专家水平。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

此外,独立评估每个MCQ与按任务级别评估相比,性能下降2.1%,但成本增加3倍以上,证明了任务级评估方法的效率和有效性。

最后,团队表示未来计划扩展基准测试,包括更多样化的视频来源(如体育和YouTube视频),纳入音频模态支持,并探索其他感官模态。

同时强调在开发模型时需考虑隐私、伦理等问题。

团队成员

HourVideo项目来自斯坦福李飞飞和吴佳俊团队。

论文共同一作是Keshigeyan Chandrasegaran和Agrim Gupta。

Keshigeyan Chandrasegaran是斯坦福大学计算机科学博士二年级学生,从事计算机视觉和机器学习研究,导师是李飞飞和斯坦福视觉与学习实验室(SVL)联合主任胡安·卡洛斯·尼贝莱斯。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

共同一作Agrim Gupta是斯坦福大学计算机科学专业的博士生,2019年秋季入学,同样是李飞飞的学生。

此前,他曾在微软、DeepMind,有Meta的全职经历,也在Google做过兼职。2018年时,他就跟随李飞飞一同在CVPR上发表了论文。

目前,Agrim的Google Scholar论文被引用量接近6400次。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

李飞飞是大家熟悉的AI教母,AI领域内最具影响力的女性和华人之一。

她33岁成为斯坦福计算机系终身教授,44岁成为美国国家工程院院士,现任斯坦福以人为本人工智能研究院(HAI)院长。

计算机视觉领域标杆成果ImageNet亦是由她一手推动。

此前,李飞飞也曾短暂进入工业界,出任谷歌副总裁即谷歌云AI首席科学家。她一手推动了谷歌AI中国中心正式成立,这是Google在亚洲设立的第一个AI研究中心。并带领谷歌云推出了一系列有影响力的产品,包括AutoML、Contact Center AI、Dialogflow Enterprise等。

今年,李飞飞宣布创办空间智能公司World Labs,公司成立不到4个月时间,估值突破10亿美元。

所谓空间智能,即“视觉化为洞察;看见成为理解;理解导致行动”。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

吴佳俊,现任斯坦福大学助理教授,隶属于斯坦福视觉与学习实验室(SVL)和斯坦福人工智能实验室(SAIL)。

他在麻省理工学院完成博士学位,本科毕业于清华大学姚班,曾被誉为“清华十大学神”之一。

同时,他也是李飞飞创业公司World Labs的顾问。

空间智能版ImageNet来了!李飞飞吴佳俊团队出品

参考链接:[1]https://arxiv.org/abs/2411.04998v1[2]https://www.worldlabs.ai/team[3]https://keshik6.github.io/

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-11-11 15:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

空间智能新进展:教机器人组装家具,实现操作步骤与真实视频对齐
斯坦福吴佳俊团队,给机器人设计了一套组装宜家家具的视频教程!具体来说,团队提出了用于机器人的大型多模态数据集IKEA Video Manuals
2024-11-27 09:57:00
...市场上已公开的大多数模型出自初创公司和小型技术开发团队,包括Runaway、Pika等,且目前已呈现较为可观的完成效果和商业模式。(实习生张泊洋对此文亦有贡献)
2024-02-26 08:58:00
空间智能产业化加速 一线企业集体锚定百度智能云
...服务平台,通过百度智能云的AI赋能,该平台链接了内容团队编导、拍摄、剪辑、投放、管理等五大协同角色及工作流,已累计服务超8500家企业客户,有效解决视频创意门槛高、拍摄成本大
2025-07-24 19:59:00
...,目前企业估值已达1亿美金。资金主要将用于核心研发团队的建设,加速多模态大模型和应用产品的研发。成立于2023年3月,生数科技由安全可控人工智能方案提供商瑞莱智慧RealAI
2023-06-19 09:03:00
GPT-4V暴露致命缺陷?JHU等发布首个多模态ToM 测试集
...的重要基础。近日,来自 JHU, NYU, MIT, Harvard 等机构的研究团队开创了第一个多模态的 ToM 测试基准
2024-09-12 09:45:00
全自动组装家具! 斯坦福发布IKEA Video Manuals数据集:首次实现「组装指令」真实场景4D对齐
...让数据集更能反映实际应用中的难点。‍有趣的是,研究团队发现25%的家具存在多种有效的组装顺序。比如Laiva架子就有8种不同的组装方式!这种多样性真实地反映了现实世界中组装任
2024-12-04 09:53:00
全球顶尖人工智能科学家加盟 阿里AI To C业务布局再提速
...频频,引入世界级顶尖人才,组建顶级AI算法研究和工程团队,将进一步刷新国内AI应用赛道的产品范式与竞争水位。据悉,许教授在人工智能工业界和学术界拥有超20年经验,曾在新加坡南
2025-02-08 18:48:00
阿里发布千问3.5,性能媲美Gemini 3, Token价格仅为其1/18
...升的背后,是对Transformer经典架构的重大创新突破。千问团队自研的门控技术成果,曾斩获全球AI顶会2025 NeurIPS最佳论文
2026-02-16 17:34:00
大模型下探音视频AI市场,战争才刚刚开始 | ToB产业观察
...为保证抽取出的摘要信息的事实准确,大幅度减少幻觉,团队还融合了在推理、对齐和对话问答等方面的研究成果。如在推理能力方面,2022年团队提出了基于大语言模型的知识探测与推理利用
2023-06-07 14:00:00
更多关于科技的资讯:
六天六课,赋能出海!跨境电商技能夜校圆满收官
江南时报讯 4月14日晚,随着第六课《客服体系与订单处理》顺利结束,由苏州市相城区电子商务协会主办、苏州千帆跨境电商科技有限公司协办
2026-04-17 17:11:00
2026年度IBBY-iRead爱阅人物奖获奖人正式公布
当地时间2026年4月13日下午,国际儿童读物联盟(International Board on Books for Young People
2026-04-17 17:17:00
2026年4月,AI财税全产业链人才服务平台禾申特(重庆)科技有限公司(以下称:禾申特)宣布完成200万元种子轮融资,资金将重点用于AI多维能力档案系统研发
2026-04-17 20:48:00
斑马x北京大学发展与比较心理实验室:儿童与AI互动关系研究课题正式启动
近日,斑马与北京大学发展与比较心理实验室联合主办的“儿童与AI互动关系”课题研究启动仪式在北京大学举行。北京大学心理与认知科学学院苏彦捷教授团队与斑马儿童研究院院长修佳明及教研团队共同出席
2026-04-17 17:47:00
第二十六届中国零售业博览会在杭州开幕 聚焦“服务提质”绘制行业新蓝图
4月15日,第二十六届中国零售业博览会(2026 CHINASHOP)在杭州大会展中心盛大启幕。本届博览会以"服务提质"为核心主题
2026-04-17 14:45:00
4月14日,由北京市老龄产业协会主办、首都电影院协办的“银发影视表演人才培养与产业应用专题研讨会”在京举行。来自老龄产业
2026-04-17 15:16:00
山东移动聊城分公司全力保障聊城春季车展网络畅通
鲁网4月17日讯4月10日,2026年聊城春季车展在聊城摩天轮欢乐城南广场开幕。针对车展期间现场人流量激增、通信需求大幅上升的情况
2026-04-17 15:20:00
智汇高新 创享未来 —烟台·AI新视界OPC沙龙暨首届AI短视频大赛发布会圆满举办
鲁网4月17日讯(记者 魏萱 见习记者 裴中月 毛钰洁)近日,由烟台高新区管委主办、高新国有资本运营集团等单位承办的烟台·AI新视界OPC沙龙暨AI短视频大赛发布会在烟台市大学生创业园圆满举办
2026-04-17 15:21:00
鲁网4月17日讯为加快推动农业灌溉向智能化、精细化转型,进一步提升阳谷县农田水利保障能力,山东移动阳谷分公司充分发挥云计算
2026-04-17 15:22:00
3000 +园区验证:捷顺科技这套模式,让园区续租率提升 90%
作为产业集聚的核心阵地,全国产业园区总建筑面积在2025年已突破62 亿平方米,人均可分得4.7平方米产业空间。园区体量大幅扩容的背后
2026-04-17 15:23:00
链式发展 聚力攻坚丨烟台高新区,到底藏了多少空天产业“隐形王者”?
鲁网4月17日讯(记者 魏萱 见习记者 毛钰洁 裴中月)航空航天产业是国家“十五五”规划确定的战略性新兴产业,也是全市“三级五集群”战略布局的重要产业
2026-04-17 15:24:00
八马上市稳健前行 以硬核财报铸就高端中国茶龙头标杆
八马上市后正式交出首份2025年度成绩单,以稳健增长实力印证资本赋能与品牌厚积薄发,持续领跑中国茶行业标准化、品牌化升级新征程
2026-04-17 15:24:00
@青年创客,这场沙龙直击AI创业“痛点”
大河网讯 当算力成为新基础设施,人工智能正以前所未有的速度重塑创业逻辑。4月16日下午,“MEET INNOPORT·创见航空港”首期创业沙龙在郑州航空港区青合众创青年创业园举行
2026-04-17 16:08:00
近日,工业和信息化部发布《2025年5G工厂典型应用实践》名单,新兴铸管武安本级新兴能源科技股份有限公司“5G智能工厂”项目入选
2026-04-17 17:04:00