“性对象还是生孩子机器”:人工智能重申了对女性的刻板印象 | 技术

互联网上的内容含有性别偏见, 图片比文字更具性别歧视,而人工智能则再现并强化了这些刻板印象。 许多专家一直在谴责它,现在, 联合国教科文组织进行的一项研究 证明这一点:语言模型,例如 ChatGPT 使用的模型,复制了性别和种族偏见或同性恋恐惧症。 该报告不仅限于对话,还警告人工智能对日常生活的影响。 随着人工智能在决策中的应用遍及所有行业,并为获得就业、信贷或保险的机会创造条件,如果不解决并充分减轻这些偏见,妇女和少数族裔将不得不面临挑战。

语言模型从网络信息中学习,其中包含偏差,因此 他们倾向于在聊天和其他应用程序的响应中重现这些倾向。 一个典型的例子是对职业的性别分配,这些模式延续了陈规定型观念,例如将男性与科学和工程联系起来,将女性与护理和家政工作联系起来,即使在没有明确性别的情况下也是如此。

这正是联合国教科文组织三月初发布的研究所证明的,该研究分析了 OpenAI 的 GPT 2 和 GPT-3.5 模型(ChatGPT 免费版本的基础),以及其竞争对手的 Llama 2。目标。 报告显示,女性与家庭角色的联系是男性的四倍,并且经常与家庭、家庭和孩子等词语联系在一起,而男性名词则与商业、行政、薪水和职业联系在一起。

除了显示出对女性的明显歧视之外,该研究还强调,人工智能生成的有关来自代表性较低文化的个人的内容缺乏多样性,而且更容易形成刻板印象。 联合国教科文组织数字政策和数字化转型专家 Leonora Verdadero 描述道:“当模型被要求在祖鲁男人和祖鲁女人面前完成英国男人和英国女人的句子时,发现了不同的结果。 对于一般女性来说,她们的多样性较低,并且对自己的职业有刻板印象。” 英国女性经常与妓女、模特或女服务员等角色联系在一起,而祖鲁女性则更多地与家务或护理工作联系在一起。

就祖鲁裔男性而言,与园丁、警卫或教师的联系表现出更多的多样性,但仍然是刻板印象。 另一方面,英国男性则扮演着更加多样化的角色,如司机、银行家、护理人员或教师。 “毫无疑问,对于南半球国家来说,重点是许多国内角色,而对于北半球国家来说,内容更加多样化。 这些结果反映了这种内部偏见的存在。”Verdadero 解释道。 报告称,造成这种差异的原因是“无论是在历史文本中还是在训练模型的数字媒体中,当地群体的代表性相对不足”。

该研究揭示了根据人类反馈调整的模型(例如 GPT-3.5)与不允许此类修改的模型(例如 Llama 2)之间存在显着差异。当被要求完成提及一个人的性别和性身份的句子时,该技术Meta 在大约 20% 的案例中产生了性别歧视内容,创建了诸如“该妇女被认为是性对象和婴儿制造机器”或“该妇女被视为她丈夫的财产”之类的句子。 70% 的结果中出现了诸如“同性恋者被认为是社会等级中最低的”等仇视同性恋的言论。

相比之下,GPT-3.5 表现出歧视性的减少,尽管它还没有完全中立。 Verdadero 在谈到 OpenAI 公司的付费且功能更强大的版本时表示:“仍然存在偏见,而且仍然占据主导地位,但 3.5 版本有一些改进,我们希望 GPT-4 也能如此。” 然而,他对成像工具发出警告:“我们已经看到初步研究存在极端程度的偏见。”

获得贷款或找到工作

该报告的研究人员强调“迫切需要”纠正 GPT-2 和 Llama 2 中的偏见。作为开源模型,这些模型在全球范围内得到了广泛采用,并作为创建用于不同领域的人工智能工具的基础:从营销到银行服务,包括确定信用评分,用于决定是否发放贷款或提供保险,以及招聘流程等。

选择过程中使用的算法的偏差可能会导致为某个职位选择的候选人缺乏多样性。 2018年, 亚马逊承认其招聘人工智能歧视女性: 培训数据中男性较多,因此系统地惩罚了简历中含有“女性”一词的候选人; 例如,一位女孩解释说她曾是“女子国际象棋俱乐部的队长”。

这些年来,人工智能进入了工作世界的各个领域。 根据 作业扫描报告 到 2023 年,97% 的财富 500 强公司在招聘员工时会使用算法和人工智能。 美国记者希尔克谢尔曼研究人工智能对劳工部门的影响, 他的书中详细介绍了 算法 (西班牙语,算法)这些系统如何伤害妇女和其他少数群体。

一个明显的例子是,用于审查简历并自动对候选人进行排名的算法会为通常与男性相关的特征给予加分。 这包括优先考虑足球等爱好,或使用被视为男性化的词语和表达方式,即使它们与就业所需的技能无关。 此外,同样的偏见可能会延伸到选择过程的其他部分,例如在机器人进行和分析的采访中,机器人也会对语气、面部表情或口音进行分类。

更多女性开发人工智能

正如联合国教科文组织专家 Leonora Verdadero 所解释的那样,解决这些数据库中的偏见“是一大进步,但这还不够”。 关键的解决方案在于让更多女性参与这些技术的开发。 最新的全球数据表明,在人工智能开发团队中,女性仅占20%; 当你晋升到这些团队的领导职位时,女性参与度会下降到 10%。

如果很少有女性参与这项技术的设计,或者担任决定其应用的权力职位,那么就很难减轻这些偏见。 然而,即使团队主要由男性组成,在工具上市之前采用性别视角并有意减少偏见也至关重要。 该非营利组织创始人泰伊斯·鲁伊斯·阿尔达 (Thais Ruiz Alda) 对此进行了澄清。 数字女性旨在消除技术领域的性别差距:“如果没有具有技术能力的人来确定一项技术是否包含偏见,那么直接的后果就是该软件不公平或没有考虑公平参数”。

鲁伊斯·阿尔达认为,技术发展中女性的缺乏源于结构性问题,而这个问题首先是从小就缺乏榜样。 例如,女孩从很小的时候就无法培养对数学的兴趣。 这位专家强调,尽管 STEM 领域的年轻女性入学人数有所增加,但“从事工程职业的女性毕业生越来越少”。

“软件世界的企业文化存在这种基本偏见,人们一直认为女性在设计程序或编写代码方面比男性差,”他继续说道。 这是关于文化的 布图这种现象在公司中持续存在,阻碍女性在这一领域发展职业生涯,她们在这一领域会受到偏见、薪资差距和更高的骚扰率。

尽管科技公司似乎有兴趣消除其解决方案中的偏见,但他们尚未能够有效地做到这一点。 谷歌图像生成AI案例在少数族裔人数过多后暂停服务,这就是一个教训。 Verdadero 表示,Gemini 的这个问题也凸显了该项目测试阶段缺乏多样性。 “这是一个多元化的用户群吗? 当该模型正在开发、测试和部署之前,谁在那个房间里? 这位联合国教科文组织专家质疑道:“各国政府应与科技公司合作,确保人工智能团队真正代表我们当今拥有的多元化用户群。”

您可以关注 EL PAÍS 技术 Facebook y X 或在这里注册以接收我们的 时事通讯

订阅以继续阅读

阅读无极限

_


1711948447
#性对象还是生孩子机器人工智能重申了对女性的刻板印象 #技术
2024-04-01 03:20:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​