• 我的订阅
  • 科技

你的观点,真的不是AI灌给你的吗?

类别:科技 发布时间:2023-05-15 13:49:00 来源:爱范儿

你的观点,真的不是AI灌给你的吗?

我们和工具的关系,从来都不只是「使用」和「被使用」。

虽然 ChatGPT 让更多人关注到 AI 的潜力,但融入了 AI 的工具,我们其实使用已久。然而,我们对于工具于人的影响,相关研究认知还是偏少。

不少人已经知道,社交媒体平台的推荐算法,不仅让手机「越来越好刷」,同时也以「猜你喜欢」来把用户卷入信息茧房。

那些自动纠正拼写、自动生成邮件回复、生成 PPT 的 AI 工具,你也许会觉得是自己在指挥它们工作,但这些工具真的不是你想象中「中性」。

写着写着,你就被说服了

你的观点,真的不是AI灌给你的吗?

越来越多研究指出,AI 工具在人们没意识到的情况下改变人们的想法。

其中一个最新研究指出,当被研究对象用 AI 来辅助写论文,AI 会根据自身偏见,推动研究对象去写一篇支持或反对特定观点的论文。

同时,写论文这个过程也会大幅影响用户对这个话题的看法。

康奈尔大学的 Mor Naaman 将这称为「隐性说服」,并表示人们「可能根本不知道自己在被影响」。

AI 虽然能让人更高效,但也会潜移默化地改变人的观点。

而且,AI 改变人的方式更像一个人通过合作和社会活动去改变说服另一个人,没那么像社交媒体对我们的影响方式。

另一份研究则针对了 Gmail 的智能回复功能。

在这个功能辅助下,人们会发出更积极的回复,用户间的交流沟通也更加积极。

第二个研究则指出,这种自动回复,也会让接收者认为发出的人更温暖和愿意合作。

考虑到微软和 Google 等公司都在将 AI 有机地融入到各个办公软件里,AI 对人们进一步的影响也近在咫尺。

在最坏的情况下,掌握权力和技术的人,能够通过这些看似无害,还能提高生产效率的工具来推动和影响人们对特定事物的态度。

和社交媒体上应用的推荐算法、过滤泡泡和兔子洞外相比……这里最有趣的地方在于其「隐秘性」。

发现了这个情况的研究员认为,最佳的防御方式是让人们意识到这个问题的存在。

而从更长期来看,管制要求 AI 保持透明化也是另一种方式 —— 让用户知道特定 AI 持有的是怎样的偏见。

哥伦比亚大学教授 Lydia Chilton 指出,当人们了解 AI 具体持有什么偏见,并选择将此偏见为己所用,决定在何时使用,人们就会重新获得自主性。

是「偏见」,也是一种「目标观」

你的观点,真的不是AI灌给你的吗?

AI 无「价值观」,但因为训练素材和调教的人有价值偏向,所以 AI 会有偏见。

研究人员认为,这种偏见,在某些程度上能帮助我们了解特定群体对特定事件的态度。

然而,在利用前,我们要先研究清楚,AI 的偏向是什么。

Tatsunori Hashimoto 博士和同事们想到了一种方法 —— 让 AI 来做问卷调查。

Hashimoto 的团队让 AI 去做了皮尤研究中心理念的民意调查问卷,并将 AI 做出来的结果和皮尤本身划分的调研群体做对比,找出特定 AI 的「偏见」和什么群体更相似。

研究发现,OpenAI 语言模型(非最新版)的「偏见」并不符合大部分美国群体的观念,而是更接近大学生群体。

研究推测,可能因为这个群体的人最有可能负责类似语言模型的调整,所以语言模型也更能反映出这个群体的观念。

哥伦比亚大学教授 Lydia Chilton 认为,当人们能够看清 AI 背后的「偏见」立场是什么,我们不仅可以避免受到「隐性说服」的影响,也能更好地利用这些工具。

譬如,销售部分可以专门打造主攻销售的 AI 助手,立场就是要完成销售;客服部门也可以打造自己的服务型 AI 助手,目标就是要让客人开心。

而且,人们也可以会主动用特定 AI 来把自己推向特定表达方式(或者是他们心目中理想的表达方式):

我觉得要兴奋起来,用快乐的语气说话好累人。

一般来说,咖啡因对这有点帮助,而现在 ChatGPT 也能帮上忙了。

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-05-15 15:45:36

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

修正阶级偏见,快上虚拟现实
...工智能对世界产生日益增长影响的背景下,关注AI模型的偏见及其对弱势群体造成的影响变得尤为重要。虚拟现实(Virtual Reality)技术
2024-03-26 14:00:00
AI哨所 | AI比核武器还危险?ChatGPT为此建立了一支“红队”
...,“如果你问一个特定的群体,它会给你一个带有偏见的观点或非常有偏见的回答。”OpenAI也承认,GPT-4仍然存在偏见。红队成员从国家安全角度评估模型,对新模型的安全性有不同
2023-04-14 18:02:00
人工智能在招聘领域?会产生偏见!三种优秀实践帮你轻松搞定!
...带来的益处。为了帮助你有效地处理人工智能处理上的“偏见”,本文提供了一些指导意见。招聘中的人工智能:你需要知道的以前,人们在报纸的分类广告中查找招聘信息,并通过手写信件的方式
2023-01-18 12:00:00
在认知美德上,科学家群体为何能超越常人?
...。 要承认自己的局限,承认自己经过长期努力而得到的观点有可能有误,承认他人特别是竞争对手可能做对了,这是所有人都难以面对的局面。特别是在涉及名誉、地位、身份认同等情境时,绝
2023-07-14 06:45:00
Nature重磅调查:1600余名科学家,仅4%认为AI当前是“必需品”
...相标准。”科学家的担忧与兴奋为了评估活跃研究人员的观点,《自然》杂志通过电子邮件联系了在 2022 年最后 4 个月内发表论文的 4 万多名科学家,并邀请《自然简报》的读者参
2023-10-08 18:12:00
...荐的丰富性,包括内容领域的多样化以及同一领域内不同观点的丰富性。从用户的使用来看,此前人们关注比较少,而“算法”与用户之间处于相互响应、相互发展的状态,归根到底,推荐“算法”
2024-02-05 03:22:00
为什么“温和派”在网上不受欢迎?
...:“恐跨症”或是“猎巫者”。此时,具体而温和地探讨观点本身的内容,已经不再重要。2018年,美国计算机科学家杰伦·拉尼尔出版了新作《立刻注销你的社交媒体账号的十大理由》,他认
2024-04-11 10:34:00
联合国报告:生成式人工智能加剧性别偏见
...国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。大语言模型是一种用于支持时
2024-03-08 21:46:00
当上女高管后,她开始“整顿职场”
...行,随时指出我们的成见。最好选择那些能够理解不同人观点的“成见阻断者”,选择多位而不仅是一位。 同时,我们需要具备成长型心态,不要把失败和批评看作不可改变或负面的个人特征,
2023-07-24 10:10:00
更多关于科技的资讯: