• 我的订阅
  • 科技

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

类别:科技 发布时间:2024-08-08 09:39:00 来源:机器之心Pro

AIxiv专栏是机器之心发布学术、技术内容的栏目。过去数年,机器之心AIxiv专栏接收报道了2000多篇内容,覆盖全球各大高校与企业的顶级实验室,有效促进了学术交流与传播。如果您有优秀的工作想要分享,欢迎投稿或者联系报道。投稿邮箱:liyazhou@jiqizhixin.com;zhaoyunfeng@jiqizhixin.com

本文第一作者为斯坦福大学研究生蔡闻骁,此前,他以绩点第一名的成绩在东南大学取得学士学位。他的研究兴趣为多模态大模型、具身智能。此工作为其在上海交通大学访问和北京智源人工智能研究院实习期间完成,导师为本文通讯作者赵波教授。

此前,李飞飞老师提出了空间智能 (Spatial Intelligence) 这一概念,作为回应,来自上交、斯坦福、智源、北大、牛津、东大的研究者提出了空间大模型 SpatialBot,并提出了训练数据 SpatialQA 和测试榜单 SpatialBench, 尝试让多模态大模型在通用场景和具身场景下理解深度、理解空间。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

论文标题: SpatialBot: Precise Depth Understanding with Vision Language Models 论文链接: https://arxiv.org/abs/2406.13642 项目主页: https://github.com/BAAI-DCAI/SpatialBot

在具身智能的 pick and place 任务中,需要判断机械爪是否碰到了目标物体。如果碰到,则可以合上爪子抓取。然而,在这个 Berkerly UR5 Demonstration Dataset 场景中,即使是 GPT-4o 或人类,都无法从单张 RGB 图像中判断机械爪是否碰到了目标物体,比如借助深度信息,将深度图直接给 GPT-4o 看的话,也无法判断,因为它不能理解深度图。

SpatialBot 通过对 RGB-Depth 的理解,可以准确获得机械爪和目标物体的深度值,从而产生对空间概念的理解。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

具身场景的 SpatialBot Demo:

1. 以人 (相机) 的视角,抓取右侧的茶杯

2. 抓取最中间的茶杯

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

视频链接:https://mp.weixin.qq.com/s?__biz=MzA3MzI4MjgzMw==&mid=2650929304&idx=4&sn=906cb76e1014596f6aede719086eba5d&chksm=84e43ce6b393b5f05c11dcd7bbd0fc5b0ab428af6e0c2ab8bbd7b212f281be3731895e2529e3&token=1689653070&lang=zh_CN#rd

作为走向具身智能的必要路径,如何让大模型理解空间?

点云比较贵,双目相机在使用中需要经常校准。相比之下,深度相机价格可以接受、使用范围广。在通用场景中,即使没有这样的硬件设备,大规模无监督训练过的深度估计模型已经可以提供较为准确的深度信息。因此,作者提出,使用 RGBD 作为空间大模型的输入。

目前的技术路线存在什么问题?

    现有模型无法直接理解深度图输入。比如,图像编码器 CLIP/SigLIP 在 RGB 图像上训练,没有见过深度图。 现有大模型数据集,大多仅用 RGB 就可以分析、回答。因此,如果仅仅简单的将现有数据改为 RGBD 输入,模型不会主动到深度图中索引知识。需要专门设计任务和 QA,引导模型理解深度图、使用深度信息。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

三个层次的 SpatialQA,逐步引导模型理解深度图、使用深度信息

如何引导模型理解和使用深度信息,理解空间?

作者提出具有三个层次的 SpatialQA 数据集。

    在 low level 引导模型理解深度图,引导从深度图直接获取信息; 在 middle level 让模型将 depth 与 RGB 对齐; 在 high level 设计多个深度相关任务,标注了 50k 的数据,让模型在理解深度图的基础上,使用深度信息完成任务。任务包括:空间位置关系,物体大小,物体接触与否,机器人场景理解等。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

示例对话

SpatialBot 包含什么?

1. 借鉴 agent 中的思想,SpatialBot 在需要时,可以通过 API 获取准确的深度信息。在深度信息获取、远近关系比较的任务上,可以达到 99%+ 的准确率。

2. 针对空间理解任务,作者公布了 SpatialBench 榜单。通过精心设计和标注 QA,测试模型深度理解能力。SpatialBot 在榜单上展示了和 GPT-4o 接近的能力。

模型如何理解深度图?

1. 输入模型的深度图:为了兼顾室内室外任务,需要统一的深度图编码方式。室内的抓取、导航任务可能需要毫米级的精确度,室外的场景不需要这么精准,却可能需要 100 米以上的深度值范围。传统视觉任务中会用 Ordinal Encoding 来编码,但是 ordinal 的值无法进行加减运算。为了尽可能保留所有深度信息,SpatialBot 直接使用以毫米为单位的 metric depth,范围为 1mm~131m,使用 uint24 或三通道的 uint8 来保留这些值。

2. 为了精准的获取深度信息,借鉴 agents 中的思想,SpatialBot 在认为有必要的时候,会以点的形式调用 DepthAPI,获取准确的深度值。若想获取物体的深度,SpatialBot 会先思考物体的 bounding box 是什么,然后用 bounding box 的中心点调用 API。

3. SpatialBot 使用物体的中心点、深度平均、最大和最小四个值来描述深度。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

SpatialBot 和 DepthAPI 架构

SpatialBot 在通用场景和具身场景效果如何?

1. SpatialBot 基于 3B 到 8B 的多个 base LLM。通过在 SpatialQA 中学习空间知识,SpatialBot 在常用 MLLM 数据集 (MME、MMBench 等) 上同样展示了显著的效果提升。

2. 在 Open X-Embodiment、作者收集的机器人抓取数据等具身任务上,SpatialBot 同样展示了惊人效果。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

SpatialBot 通用场景对比实验

数据如何标注?

精心设计了关于空间理解的问题,比如深度、远近关系、上下左右前后位置关系、大小关系,并且包含了具身中的重要问题,比如两个物体是否接触。

在测试集 SpatialBench 中,首先人工思考问题、选项和答案。为了扩大测试集大小,也使用 GPT 以同样的流程标注。

训练集 SpatialQA 包含三方面:

    直接理解深度图,让模型看深度图,分析深度的分布,猜测其中可能包含的物体; 空间关系理解和推理; 机器人场景理解:描述 Open X-Embodiment 和本文收集的机器人数据中的场景、包含的物体、可能的任务,并人工标注物体、机器人的 bounding box。

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

空间关系理解

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

Open X-Embodiment 机器人场景理解

李飞飞空间智能之后,上交、智源、北大提出空间大模型SpatialBot

深度图理解。在使用 GPT 标注这部分数据时,GPT 会先看到深度图,描述深度图、推理其中可能包含的场景和物体,然后看到 RGB 图,筛选出正确的描述和推理。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-08-08 12:45:01

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...我套用他的话,万物皆向量。大模型基于其所构建的向量空间,很可能打造出崭新的智能信息处理基础平台,进而变革各行各业的基本生态。大模型必然会导致相关产业重新洗牌,金融大模型正在重
2023-08-24 13:53:00
产学融合加速行业大模型落地 北大光华与腾讯共建AI通识课
本文转自:人民日报客户端施芳6月21日,北京大学光华管理学院联合腾讯举办“科技创新与管理升维”论坛,共同探讨科技创新的动力、面向未来的管理、技术升维管理的方案。双方还在论坛现场共
2023-06-21 23:23:00
5年投资超1000亿,北京公布一系列AI重磅成果,北大清华百度蚂蚁微软大佬齐谈AI未来|钛媒体AGI
...可信数据资源平台、超大规模算力资源平台,往上一层是空间计算操作系统,再往上是通用大模型平台,最上面是智能体运营平台。“我们将秉承以人为本的初心,将率先在五道口和大钟寺两个先导
2024-04-28 11:00:00
...。特别是在大模型技术变革到来之际,字节跳动与清华、北大分别联合成立相关研究组织,通过产学研深度合作推动技术创新。字节跳动还陆续开启“TopSeed人才计划”和“筋斗云人才计划
2025-01-15 16:41:00
北大推出全新机器人多模态大模型!面向通用和机器人场景的高效推理和操作
...理和操纵能力,本文创新性地将视觉编码器与高效的状态空间语言模型集成,构建了全新的 RoboMamba 多模态大模型
2024-06-21 09:52:00
大模型重塑金融科技 如何落地到场景?
...和智能化进程,跨越数字化鸿沟。”度小满CTO许冬亮在“北大光华-度小满金融大模型技术与应用论坛”上表示。“北大光华-度小满金融大模型技术与应用论坛”于8月23日在北京举办。论
2023-08-24 16:37:00
AI科研风暴来袭,中科院北大复旦大咖齐聚!海淀解锁千万算力补贴
【新智元导读】中科院北大复旦大佬齐聚的2024科学智能峰会,刚刚在位于北京海淀的北大百年纪念讲堂落下帷幕,现场演讲信息量爆棚。同期,海淀这片创新热土还有好消息传出:海淀区送算力补
2024-11-08 09:43:00
新华社联合北大发布AI大模型评测:安全可靠成重点,360智脑表现优异
近日,新华社研究院中国企业发展研究中心发布的《人工智能大模型体验报告2.0》(以下简称“报告”)显示,当前中国大模型产品进步显著,360智脑、智谱ChatGLM等表现抢眼。其中3
2023-08-14 11:35:00
全模态对齐框架align-anything来啦:实现跨模态指令跟随
...性且至关重要的挑战。然而,随着模态的增加,输入输出空间的分布更加广泛,并增加了幻觉现象,使得全模态对齐变得更加复杂
2024-10-18 09:47:00
更多关于科技的资讯: