• 我的订阅
  • 科技

机器人笑了,我却笑不出来

类别:科技 发布时间:2024-04-15 05:58:00 来源:新周刊
机器人笑了,我却笑不出来

本文经授权转载自

把科学带回家

(ID:steamforkids)

作者:万物杂志

机器人越来越像人了,但和人互动时,它如果不明所以地咧开嘴笑了……这大概并不会传达出开心之情,而是让人感到恐惧。

不过现在,一款名叫Emo的机器人就不会这么瘆人。它可以分析人类的面部表情,并在人类做出表情前的0.839秒就预测出人类即将做出的表情,于是它可以和人类几乎同时一起微笑,从而避免尴尬或让人害怕。

机器人笑了,我却笑不出来

机器人Emo会预测人类的微笑,并一起笑。(图/参考资料[1])

目前,大多数机器人只会在人类做完表情后再做出反应。这种滞后会让机器人显得不真实、不真诚。对人而言,在面对面的沟通过程中,微笑之类的非语言交流非常重要。“我认为准确预测人类面部表情是人机交互(Human-Robot Interaction)领域的一场革命,”该研究的主要作者、美国哥伦比亚大学创意机器实验室(Creative Machines Lab)的博士生胡宇航说道。

在2021年,他和研究团队还开发了一个名叫Eva的机器人,这是首批能够自我模仿人类面部表情的机器人之一。从Eva到Emo,我们可以看到机器人在模仿人类面部表情方面实现了显著的进步。

机器人Emo实时预测、模仿研究者的面部表情。这是一个有声音的视频。(图/参考资料[1])

事实上,要实现这一点很困难,这首先需要研究人员打造出一张能够实现逼真的面部肌肉运动的机器人脸,其次还要让机器人通过人工智能学习人类表情的细微差别,并迅速做出准确的反应。

机器人笑了,我却笑不出来

如何造头?

与机器人Eva相比,Emo具有显著的硬件改进。Eva脸部只有10个执行器,而Emo有26个独立的执行器——这些组件可以更精密地控制机器人脸部的运动,而且也提供了更大的自由度,可以实现不对称的面部表情。

机器人笑了,我却笑不出来

没有皮肤时的样子。(图/Columbia Engineering)

机器人Emo的每只眼睛都配备了具有高分辨率的RGB相机,可以实现人形视觉感知,并追踪和自己对话的人类的眼睛,进行眼神交流。RGB相机基于人眼对颜色感知的方式,能够分别记录红、绿、蓝三种基本颜色的信息,并将其组合生成彩色图像,从而呈现出真实的视觉信息。其生成的图像可用来做目标识别、颜色分割等各种数据处理和分析。

机器人笑了,我却笑不出来

眼睛可以追踪人类移动,然后和人进行眼神互动。(图/Columbia Engineering)

而机器人的整个面部皮肤由柔软的硅胶制成,并使用30块磁铁连接到硬件上。磁铁连接的设计使得机器人可以轻松换皮肤,从而获得不同的外观,并能让人得以更好地维护它的“脸皮”。

机器人笑了,我却笑不出来

Emo的脸可以换皮肤。(图/Columbia Engineering)

当被问及机器人的脸为什么是蓝色时,研究团队的负责人、哥伦比亚大学机械工程教授霍德·利普森(Hod Lipson)表示,他们想离开或者走出所谓的“恐怖谷”。

恐怖谷(uncanny valley)理论,即人形机器人的外貌逼真度越高,人们对它的亲近感就越强。然而,当一个逼真度很高的人形却仍存在微小的不自然之处时,人们则会对其感到反感,甚至恐惧。而超过这个“谷底”后,随着机器人外貌完全拟人了之后,它会再次赢得人们的好感。

所以,研究团队就想:“好吧,让我们把它们变成蓝色,我们甚至不想让它们看着像个人。”事实上,研究人员制作了好几块不同颜色的脸皮——除了蓝色,机器人的脸皮颜色还有绿色、紫色等等。

机器人笑了,我却笑不出来

(图/参考资料[1])

机器人笑了,我却笑不出来

“照镜子”自我学习

除了复杂缜密的硬件和驱动装置,研究人员还为机器人开发了两个独立的人工智能模型。一个模型可以分析人类微小的面部表情线索,然后预测人即将做出的表情。另一个模型则负责计算如何让机器人的脸部快速做出相应的表情。

第一个模型是通过网络视频上的人脸表情视频进行训练。通过逐帧观察,经过几个小时的训练后,机器人就可以观察出人们准备做某个表情之前的微小面部变化,从而预测人的表情。

而第二个模型的训练过程则是让机器人自己“照镜子”。确切地说,机器人是面对着一部RBG摄像机,实时观测自己的表情。研究人员通过RGB相机来捕捉机器人面部的细微变化,并提取面部标志,通过面部特征和运动命令的数据集来训练模型。

机器人笑了,我却笑不出来

机器人自己学习面部表情和运动命令之间关系。(图/参考资料[1])

说白了,这就像人类通过照镜子来练习面部表情。“它知道当它拉伸所有这些肌肉时,它的脸会是什么样子。”利普森说道。这个在没有人类监督的情况下,机器人自己学习面部表情和运动命令之间关系的训练过程,被研究人员称作“自我建模”(Self Modeling)。

机器人笑了,我却笑不出来

学习框架。(图/参考资料[1])

在实验中,为了避免机器人头出现碰撞或柔软的面部皮肤被撕裂,机器人的运动动作受到了限制。

机器人笑了,我却笑不出来

机器将更加像人

虽然机器人在掌握非语言交流方面还有很长的路要走,但现在这个微笑算是向前迈出了一步。“我认为这是一个重要的一步。” 利普森说道。

“我是一个厌倦了的机器人专家,我不会对机器微笑,但当这个机器人对我微笑时,我会对它回以微笑。”

在同步微笑之后,研究团队之后还打算拓宽机器人的表情范围,并进一步研究口型同步。现在,机器人Emo只会分析人类的面部表情,还无法通过分析语言文本与人类对话。研究人员希望后续能把机器人与ChatGPT等大型语言模型相结合,实现更加自然的人机互动。

机器人笑了,我却笑不出来

(图/Columbia Engineering)

虽然这有望带来大量积极的应用,但其潜在的伦理问题也让一些人感到担心。“我们真的不想让它看起来像人类。但是,如果你给它戴上假发,涂上口红,加上各种各样的东西,它就真的开始像人了。”利普森补充道。

“我认为这是不可避免的,最终这些机器人都将越来越像人类,而我们将不得不……无论我们是否喜欢,我们都得开始和它们建立联系。”

机器人笑了,我却笑不出来

(图/Columbia Engineering)

机器人笑了,我却笑不出来
机器人笑了,我却笑不出来

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2024-04-15 09:45:03

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

...的研究小组开发出一种动态面部表情合成技术,可使人形机器人更好地表达情绪状态,如兴奋或困倦。这项技术有望显著提升交流型机器人的价值,使它们能够以更自然、更像人类的方式与人类交换
2024-12-31 23:09:00
机器人登上戏剧舞台!AI合成台词,捕捉人类表情生成面部表情
...临其境的体验。国内首部以未来人机共生时代为背景、以机器人为主要角色的机器人戏剧《巨物之城》,近日亮相上海戏剧学院数字演艺集成创新文旅部重点实验室XR穹顶环幕实验剧场。作为上海
2024-05-29 16:56:00
表情最逼真机器人靠aigc再进化,
把 StableDiffusion接入机器人会怎样?告诉它你想让它画什么,然后一笔一笔画出来。只见它一边与旁边的人类工程师谈笑风生,一边熟练地用马克笔在白板上画出一只简笔的猫。最
2023-07-03 15:17:00
...科学技术大学(下称“中国科大”)计算机科学与技术学院机器人实验室内,人形情感交互机器人“呱呱”正在声情并茂地展示自己的“才艺”。“呱呱”是由中国科大“90后”博士曹荣昀和他的
2024-05-20 11:48:00
...帽,能与人对话,还懂量子。“这只学术猫是一款集交互机器人技术与大模型技术于一体的智能毛绒玩具,是公司在自主研发交互式人形机器人技术体系下孵化的第一款产品。”无论科技(安徽)有
2024-05-07 09:23:00
曾扬言消灭人类的机器人索菲亚,成沙特公民后,又一次创造出奇迹
15年前,一部名为《我,机器人》的电影上映了,它讲述的是2035年的故事,2035年的地球上,机器人已经是人们生活中不可或缺的物品和劳动替代品了,随着人类和机器人相处的加深,机器
2024-09-24 18:15:00
马斯克预言成真?EX机器人CEO李博阳:定制化机器人批量生产成本或降至十万内
EX机器人CEO李博阳8月16日,2023世界机器人大会在北京经开区亦创国际会展中心开幕,备受瞩目的仿生人形机器人集体亮相。在今年大会的发布会上,人形机器人小七承担了主持人的工作
2023-08-17 11:20:00
世界上最像人的人形机器人ameca作画
日前,英国机器人公司EngineeredArts上传了一则新视频。视频中,人形机器人Ameca亲自上阵,完成现场作画。Ameca机器人之前就因为表情逼真而被称为“世界上最像人的人形机器人”
2023-07-05 05:47:00
机器人长“脸”了!日本培育出活体皮肤人脸:笑容一言难尽
...体报道,日本东京大学的研究团队,成功培育出活体皮肤机器人脸。这款机器人脸不仅能够展示出类似人类的微笑表情,还具备自我愈合的能力。据了解,这项技术是将人类皮肤细胞生长在胶原蛋白
2024-06-26 15:07:00
更多关于科技的资讯: