我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
本文转自:齐鲁晚报
大脑恐怕是宇宙间最复杂的系统了,连人类自己都未必读懂它。不过,在人工智能帮助下,读心术如今已不再是“痴人说梦”。AI就像是一个神奇魔法师,如果它能够读心,明白你心里的想法,你会感到惊喜还是焦虑?
人类最大的秘密,装在脑子里。如果有一天,你的所想不再是秘密,还未说出口的话,通过AI转换成文字,从机器上显示出来;脑中浮想联翩的画面,变成一幅艺术画,你会不会觉得可怕?这看起来像科幻电影一样不可思议的事,在AI帮助下,正在成为现实。
如何利用AI来“读心”?中国科学院计算技术研究所研究员山世光解释,所谓AI“读心”,并非真的去推测人的内心想法,更多是从情感角度来评估一个人。
他引用哲学家西塞罗的话说,“世间一切尽在脸上”。也就是说,AI通过一个人的语言、行为,来判断这个人内在的心理和精神状态。
正像诺贝尔奖获得者、法国生理学家科瑞尔在《人,神秘莫测者》一书中写道:“我们会见到许多陌生面孔,这些面孔能反映出他们的心理状态,脸就像一台能展示感情、欲望、希冀等一切内心活动的显示器。”
山世光介绍,AI“读心”可以概括为三个层次,第一层是生理指标,包括心率、呼吸、血压、血氧、眨眼率、视线方向等;第二层是短期的心理状态,比如疲劳、专注、亢奋、无聊等;第三层是长期的精神状况,这就涉及自闭症、抑郁症等精神性疾病。
与其他生物识别技术相比,人工智能要做到“知人知面知心”,门槛更高。
技术难点主要体现在三方面:数据收集,必须是动态的视频数据;每个人对表情的定义各不相同,比如,对“微笑”“难过”等标准难以判定;人类通过脑力认知世界、探索情感,而AI则依靠算力去接近“智能”。
大脑有了自己的“翻译机”
如今,AI系统已基本能翻译人脑中的想法。美国加州大学旧金山分校科研团队,使用AI解码系统,把人的脑电波转译成了英文句子。
实验中,参与对象大脑表面被植入数百个微电极,研究者让他们大声朗读一些设定好的句子,并利用电极记录大脑活动。
AI通过对网络音频的学习,分析不同脑电波对应的语音特征,将参与者脑中语言进行了解码翻译。
结果显示,最好情况下,一位参与者大脑信号被翻译成文本时,错误率仅为3%,低于人工速记员5%的错误率。科学家称,这项研究,未来有可能帮助渐冻人、高位截瘫等残疾患者与身边人正常沟通。
脑电波转译语言成为可能,那么,能把大脑想象的内容,拍下来或画出来吗?
日本京都大学的科学家,让这样的想象离落地更进一步。他们利用AI系统中的深度神经网络来解码思想,在持续10个月的研究中,AI把收集到的信息逆向解码,生成了参与者心中所想的图像。
中国科学院何晖光团队还提出一种新的分析技术,通过复杂算法,用AI“更精确”地读懂大脑信号,并在屏幕上显示出来。
AI被赋予高级“读心术”的重任,实际上,就是通过脑机接口,把检测脑电波的电极植入大脑,再通过脑电波传送到AI软件,由后者破译脑电波,知道人们的想法或思维。
AI破译的想法,既可以发送到假肢,帮助残疾人完成各种行为,如吃饭、穿衣和行走,像正常人一样生活,也可以转变成文字和语言,把人的想法呈现出来。
AI“读心”,在诊断疾病、防骗贷方面有一套
中科院心理研究所副研究员王甦菁介绍,未来的人脸识别要从读脸向读心发展,让计算机不仅知道你是谁,还知道你在想什么。
AI系统将脑电波“翻译”为语言、画面,为解决医学难题带来新思路。山世光介绍,在辅助诊断精神疾病方面,AI“读心”已有了较多应用。
以抑郁症诊断为例,传统方法主要靠主观量表来判断,评测偏差较大,而AI“读心”能提供更客观的评估。
来自澳大利亚堪培拉大学的科研团队,曾通过AI,利用三项特征来诊断抑郁症。
第一项是语音与语言特征,如被测者说话时音量大小、停顿时长和频率等。
第二项是头部姿态特征,比如在与他人交流时,被测者是否摇头晃脑、东看西看等。
最后一项是眼神特征,如被测者眨眼频率、视线方向等。
实验表明,将这三项特征融合之后,判断是否患抑郁症,能达到88%的精度。
AI“读心”,也可应用于情感陪护机器人和自动驾驶领域,对危险驾驶行为作出预警。AI“读心”的另一大典型应用,就是智能客服,让“机器人服务”变得“知人心、解人意、讲人话”。
AI“读心”还能构建用户画像,比如在银行审批贷款时,可评估客户骗贷的风险有多高。目前,一些银行开发的微表情识别技术,可实时捕捉贷款申请人面部43块肌肉运动,识别30多种最小表情动作,最高精确度达到98.1%。
中科院自动化研究所研究员孙哲南表示,未来,AI系统通过情绪识别,会在客户服务、在线辅导等领域发挥更大作用。
“动动嘴皮子”AI就知道你说啥
目前,我国听障人口超过2054万,除了手语交流,读唇语也是重要的沟通方式。但人工解读唇语容易受经验、视觉感受能力等因素影响,于是人们开始尝试利用AI技术来解读唇语。
“所谓AI读唇语,即人工智能唇语识别。”北京理工大学计算机学院副教授闫怀志介绍,“究其本质,就是通过大量唇语数据来训练AI模型,力求文本输出的准确性。”
近几年,不断有AI巨头开始在唇语识别赛道上作出尝试。谷歌旗下公司就研发出一款AI读唇语软件,通过让其“收看”数千小时的电视节目,来训练唇语识别能力。在随机抽取200个视频片段的读唇语测试中,AI读唇语软件的准确率达到46.8%,而经过专业训练的读唇语专家,准确率仅为12.4%。
不过,闫怀志表示,目前我国人工智能唇语识别技术尚处于起步阶段,若想利用AI准确识别唇语,还有很长的路要走。
毕竟,不同人说话的语气、方言、口音等因素,会导致嘴型的细微变化,恰恰是这种细微变化,会严重影响人工智能对于唇语的识别和判断。
从技术层面来看,人工智能采集唇语的环境较为复杂,若想精准识别,难度很高。
“读心术”虽神奇监管不能缺位
AI读心技术的发展,一方面让人们感到欣喜,另一方面也引发担忧。很多人担心,AI读心、读唇语,会使人们的隐私遭到泄漏。
山世光介绍,AI读心,本质上还是要进行脑电波收集。一是脑机接口,即在大脑表层或内部植入电极,二是佩戴电子帽,其中有脑电图扫描仪,激活大脑皮层的语言中心,并收集生物电信号。
对此,应该有法律方面的限制,比如是否可以收集正常人的脑电波?如果可以,以什么方式进行?无论哪种方式,都要进行反复论证,确保AI收集和解读的想法,不能泄漏和被第三者利用。
AI读唇语也一样,应从隐私安全保护的角度,在管理层面加强法律法规的制定,严格规范和约束AI读唇语的应用场景、范围和目的。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2023-03-09 08:45:07
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: