我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
离开OpenAI后,Figure AI正式发布“从未在人形机器人上看到过的东西”。
当地时间2月21日,AI机器人初创公司Figure AI公布了端到端人形机器人VLA(视觉-语言-动作)通用大模型Helix。
Figure AI表示,如果机器人的能力没有质的飞跃,就无法进入家庭领域,而Helix模型能像人类一样推理。
据Figure AI介绍,Helix不仅实现了对整个机器人的上半身,包括手腕、躯干、头部和单个手指输出高速率连续控制,也可以在两台机器人上同时运行,使它们能够解决共享的长距离操作任务,操作它们从未见过的物品。
配备Helix的图形机器人只需根据自然语言提示,就能拾取几乎任何小型家用物品,包括它们从未见过的物品。
与之前的方法不同,Helix使用一组神经网络权重来学习所有行为——拾取和放置物品、使用抽屉和冰箱以及跨机器人交互——而无需针对具体任务进行微调。
Figure AI Helix演示视频。(02:33)
此外,Helix还能够完全在嵌入式低功耗GPU上运行,可立即投入商业部署。
FigureAI表示,家庭是机器人技术面临的最大挑战。与受控的工业环境不同,家庭中充斥着无数难以预测的物品。机器人要想在家庭中发挥作用,就必须能够按需生成新的智能行为,尤其是针对它们从未见过的物体。而目前,即使是教机器人学会一种新行为,也需要大量的人力:要么是数小时的博士级专家手工编程,要么是数千次的演示。如果考虑到家庭问题的实际规模,这两种方式的成本都高得令人望而却步。而人工智能的其他领域已经掌握了这种即时通用的方法。如果能简单地将视觉语言模型(VLM)中捕捉到的丰富语义知识直接转化为机器人动作,将从根本上改变机器人技术的发展轨迹。而关键问题是如何从VLM中提取所有的常识性知识,并将其转化为可通用的机器人控制。由此,FigureAI构建了Helix来弥补这一差距。
对于人形机器人上半身的控制,Helix采用了“双系统”方法。
Figure AI表示,之前的方法面临着一个根本性的权衡:VLM架构通用但不够快,而机器人的视觉运动策略快但不通用。Helix通过两个互补系统解决了这一问题,让两个系统经过端对端训练,可以进行通信。系统1(S1):快速反应视觉运动策略,将系统2(S2)生成的潜在语义表征转化为精确的连续机器人动作。
这种架构让每个系统都能以其最佳时间尺度运行。S2“慢思考”高层次目标,而S1则“快思考”实时执行和调整动作。
Helix的“双系统”架构。(00:07)
据介绍,S2是基于一个70亿参数的开源、开放权重的视觉语言模型构建,该模型在互联网规模的数据上进行了预训练。S1是一个8000万参数的交叉注意力Transformer架构,依靠一个全卷积、多尺度的视觉骨干网络进行视觉处理,该网络从全模拟环境中完成的预训练中构建。同时,对于分开的S1和S2,还可以分别进行迭代,而不需要寻找统一的观察空间或动作表示。
Figure AI表示,他们收集了一个高质量、多机器人、多操作员的多样化遥操作行为数据集,总计约500小时。为了生成自然语言条件下的训练对,还使用了一个自动标注的VLM来生成事后指令。该VLM处理来自机器人机载摄像头的分段视频片段,并以“为了得到这段视频中看到的动作,您会给机器人下达什么指令?”为提示。训练期间处理过的所有物品都会在评估中被排除,防止数据污染。
搭载Helix的人形机器人训练(00:13)
与其他方案相比,其速度可与专门用于单一任务的行为克隆策略媲美,同时还能对数千个新测试对象进行零样本泛化,也可直接输出高维动作空间的连续控制。
Figure AI成立于2022年,2023年3月正式发布首款通用人形机器人Figure 01,旨在通过在制造、物流、仓储和零售等行业执行各种任务来解决全球劳动力短缺问题,曾获OpenAI、微软、英伟达、英特尔以及亚马逊创始人贝佐斯等投资,但在今年2月初,Figure AI在宣布即将公布此次的重大进展时表示,将终止与OpenAI合作。
在此次Helix发布后,Figure AI创始人布雷特·阿德科克(Brett Adcock)表示想要将Helix的规模扩大1000倍,并称“2025年将是关键的一年,我们将开始生产、出货更多的机器人,并解决家用机器人的问题”。
阿德科克也表示,还有很长的路要走,“但这是可行的”。
值得一提的是,“人形机器人第一股”深圳市优必选科技股份有限公司(优必选,9880.HK)在Figure AI此次发布的前一天(2月20日)也刚刚宣布,针对最新的开源推理大模型 DeepSeek-R1,已在人形机器人应用场景中进行了验证,最新测试结果显示,经过多模态能力扩展的DeepSeek-R1能够让人形机器人在执行任务前结合看到的场景和接收到的指令进行思考验证,零样本推理水平与调优后的同级别大模型推理水平相当。公司将基于DeepSeek-R1研发适用于人形机器人的多模态具身推理大模型,预期在真实场景的数据调优后,其表现将会进一步提升。
另一方面,OpenAI投资的另一家机器人初创公司1X宣布将在明天有新发布。
同时,OpenAI自2024年底开始也已在重组机器人部门,由Meta增强现实(AR)眼镜团队前负责人凯特琳·卡利诺夫斯基(Caitlin Kalinowski)负责机器人和消费硬件业务。今年1月末,OpenAI向美国专利商标局提交新的商标申请,涉及人形机器人、XR、智能手表、可穿戴设备等硬件设备。
国内的另一家机器人代表企业宇树科技近期也频繁公布人形机器人的算法升级,宇树科技创始人、CEO王兴兴也在最近的一次采访中表示,现在AI驱动机器人每天进化得非常快,AI人形机器人在今年年底前会达到一个新量级。
看来好戏才刚刚开始。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2025-02-21 14:45:05
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: