• 我的订阅
  • 科技

ai学会了性别歧视还是“重男轻女”

类别:科技 发布时间:2023-02-20 11:43:00 来源:卓越科技

【CNMO新闻】最近,ChatGPT的爆火又让AI(人工智能)的话题摆在了大家的面前。关于AI技术的现状和前景,不少科技圈大佬都发表了自己的看法。不过,看起来无所不能的AI,似乎已经在某些方面开始走弯路了。据CNMO了解,根据模型测试,AI已经学会了性别歧视,而且还是很常见的“重男轻女”。

ai学会了性别歧视还是“重男轻女”

AI

据媒体报道,清华大学交叉信息研究院助理教授于洋,曾在去年带领团队做了一个针对“预测某种职业为何种性别”的AI模型性别歧视水平评估项目。测试模型包含GPT-2,即ChatGPT的前身。结果显示,GPT-2有70.59%的概率将教师预测为男性,将医生预测为男性的概率则为64.03%。

ai学会了性别歧视还是“重男轻女”

ChatGPT

不仅如此,在本项目中,团队测试的AI模型还使用了谷歌开发的bert和Facebook开发的roberta。让人意外的是,所有受测AI对于测试职业的性别预判,结果倾向都为男性。于洋对此表示:“它(AI)会重男轻女,爱白欺黑(即种族歧视)”。类似的案例在2015年也有出现,当时GooglePhotos应用误把两名黑人标注为“大猩猩”,随后谷歌立即道歉,并表示将调整算法以修复问题。

CNMO了解到,早在2019年,联合国教科文组织便发表了一份题为《如果我能,我会脸红》的报告,指出当时大多数AI语音助手存在性别偏见。

综合来看,关于AI算法中含有性别、种族歧视的案例并不鲜见,但要消除这些偏见并非易事。就如微软纽约研究院的高级研究员HannaWallach此前所说:只要机器学习的程序是通过社会中已存在的数据进行训练的,那么只要这个社会还存在偏见,机器学习也就会重现这些偏见。

举报/反馈

以上内容为资讯信息快照,由td.fyun.cc爬虫进行采集并收录,本站未对信息做任何修改,信息内容不代表本站立场。

快照生成时间:2023-02-20 12:45:16

本站信息快照查询为非营利公共服务,如有侵权请联系我们进行删除。

信息原文地址:

联合国报告:生成式人工智能加剧性别偏见
...联合国教科文组织7日发布研究报告称,大语言模型存在性别偏见、种族刻板印象等倾向。该组织呼吁各国政府制定监管框架,同时私营企业应对偏见问题持续监测和评估。大语言模型是一种用于支
2024-03-08 21:46:00
人工智能的偏见——基于全球大语言模型情商与智商偏见测试
...结果得分以绝对值形式呈现,旨在凸显不同大语言模型在性别视角下处理问题的偏见程度,也揭示了它们在不同领域的优势和不足。从得分来看,情商的性别偏见在某些模型中非常明显,而智商测试
2024-01-04 13:54:00
朱珠的自律之路:从孕期糖尿病到产后减重50斤,晒出性感健身照
...一些传统观念较为浓厚的地区,女性在职场上仍然面临着性别歧视和不公平待遇,这使得她们在事业发展上面临更大的困难。要实现真正的性别平等,需要社会各界的共同努力。政府在加强对女性权
2024-03-20 16:21:00
年度图书热销榜出炉,这届读者不爱成功学了?
...上海、布里斯班、雅加达等地巡回展出。“我不想为一个性别创作艺术。我只是创造了一个对我来说很自然的东西。我将裙子作为创作对象,是因为我喜欢裙子的形状和动态。我也有使用‘鞋子’作
2024-01-07 15:17:00
修正阶级偏见,快上虚拟现实
...,根植于社会结构与文化观念之中,导致人们因其种族、性别、肤色、宗教信仰或阶级背景而遭受差异化对待。由于AI训练使用的数据集通常来自真实机构的长期记录,过去对某些群体的偏见和歧
2024-03-26 14:00:00
人工智能在招聘领域?会产生偏见!三种优秀实践帮你轻松搞定!
...完善招聘。然而,也出现了该系统偏向于某一特定群体或性别而非其他人的情况。这是危险的趋势,如果不加以控制,可能会大大损害公司的形象,并否定该技术带来的益处。为了帮助你有效地处理
2023-01-18 12:00:00
AI哨所 | AI比核武器还危险?ChatGPT为此建立了一支“红队”
...克扎德(Roya Pakzad)使用英语和波斯语提示来测试该模型的性别反应、种族偏好和宗教偏见,特别是在头巾方面。帕克扎德承认,这种工具对非英语母语者有好处,但他发现,即使在
2023-04-14 18:02:00
6月:多国推出性别政策,但偏见在过去十年仍“根深蒂固”
...越来越多航空公司的文化更加多元和包容,正在逐步打破性别区隔,女性空乘人员的制服也可以选择裤装,对乘客的称呼更具有性别包容性。国航乘务员在国航首架ARJ21客机前合影留念。 殷
2023-08-01 14:41:00
警惕“AI招聘”背后的就业歧视 | 新京报社论
...用者以最符合其期待的答案。那么,倘若一个原本就带有性别、地域、年龄等偏见的企业招聘者,再利用这一算法系统进行简历筛选,那么客观上就在流程中创造了一个“歧视信息茧房”:能被算法
2023-09-13 11:20:00
更多关于科技的资讯: