我们正处于一个信息大暴发的时代,每天都能产生数以百万计的新闻资讯!
虽然有大数据推荐,但面对海量数据,通过我们的调研发现,在一个小时的时间里,您通常无法真正有效地获取您感兴趣的资讯!
头条新闻资讯订阅,旨在帮助您收集感兴趣的资讯内容,并且在第一时间通知到您。可以有效节约您获取资讯的时间,避免错过一些关键信息。
本文转自:长江日报
·技术与人·
你可以任意摔打机器人娃娃吗?
段伟文 中国社会科学院研究员,著有《技术有病我没药》。
□ 段伟文
各种陪伴机器人,不论是无形的智能软件或智能音箱,还是将来可能出现的外形可以假乱真的人形机器人,都是在功能上可以与人交互的智能体或者行动者。智能体这个词看起来很抽象,但你在用手机上的应用程序抢高铁票,或进出机场、高铁站通过人脸识别设备的时候,不难发现,你的生活已越来越多地由这些智能机器也就是所谓的智能体与世界相连接,而下一步,智能机器将在你的生活中担当起服务者、照看者、陪护者乃至伴侣的作用。
在此呼之欲出的泛智能体社会的愿景中,首先遇到的伦理问题是,人类与机器可以建立一种真实的关系吗?或者说,人如果将这种关系视为真实关系会不会造成某种不可忽视的危害?
比方说,当你心情不好的时候,可以对你的机器人娃娃大打出手吗?这算不算未来可能出现的新型家暴呢?
换句话来讲,陪伴机器人应该像人自身一样被当作道德考虑或关怀的对象吗?人会不会把机器人当“人”看?从感知的角度来讲,对于小冰、小度之类的无形的聊天机器人,人们需要发挥想象力脑补“她们”的“人格”,而人形机器人的“身份”要相对容易把握一些。有人借助法国当代哲学家列维纳斯的理论,指出应该赋予机器人一张可以识别和区分的脸,以便人们更容易将机器人视为应该道德地去对待的“他者”。这就要求,将来的各种陪伴机器人各自长着各自的脸,有着独特的眼神。
但迄今为止,这类哲学思考会遇到的一个麻烦是,机器人没有意识,甚至并不真正知晓它自己是机器人,它的表情和所流露出的情感不过是情感计算的结果——机器人根据人所设计的智能识别程序一边捕捉人的表情和情绪,一边给出恰当的表情与情绪反应。在机器人没有自我意识之前,无论你如何对待它,其所呈现的喜感或悲伤都是人设计给人看的,机器人自身并没有可以真实感受喜怒哀乐的内心。因此,你可不可以任意摔打机器人娃娃,目前并不直接涉及交互意义上的人与机器人之间的伦理关系,而主要取决于人们在道德上是否接受这种行为。一方面,在多大程度上,人们会认为故意“虐待”机器人是可以接受的或无需关注的;另一方面,在何种限度上,人们又会觉得哪些对机器人的故意“虐待”或更“暴力”的行为在道德上是不可接受的,甚至应进一步对其施加哪些合理的道德限制。
必须指出的是,这些道德限制需要依据的事实基础目前尚不明晰。就像电子游戏中的暴力行为究竟是有助于不良情绪宣泄还是会强化暴力倾向一样,是否应该限制对机器人的“暴力”恐怕一时很难有明确的结论。一般而言,各国对陪伴机器人的治理和监管以不限制其发展为原则,科技巨头对陪伴机器人的负面后果的研究兴趣往往以不影响其应用推广为前提,大多数使用者也很难理性地反思对机器人“施暴”。
简言之,当前这一问题还处在观念讨论阶段。从避免技术滥用的角度来看,应该展开必要的技术社会学和技术人类学研究,在具体场景中发现可能出现的问题细节,探寻可行的伦理规范,并使其渗透到相关产品的设计、应用和使用等全生命周期之中。
以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。
快照生成时间:2024-04-23 05:45:11
本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。
信息原文地址: