微软 Copilot AI 在传播反犹太主义犹太人成见后改变了偏见

尽管承诺进行改进,微软的人工智能工具 Copilot 仍在不断生成令人反感的内容。 这一次,它正在制造反犹太主义的形象。 然而,最近的更新阻止了其中一些提示。

上星期, 边缘的 Mia Satto 强调了元图像生成器未能创建描绘亚洲男性与白人女性的图像。 不出所料,这个故事引起了一些人的注意。

然而,在 Satto 的遭遇中,尽管有她的提示,生成器始终描绘了一名亚洲男子和一名亚洲伴侣,但这只是触及了图像生成器中更广泛的偏见问题的表面。

阿夫拉姆·皮尔奇 (Avram Piltch) 记者 汤姆的硬件一段时间以来,我们一直在研究主要的人工智能图像生成器如何描绘犹太人。 虽然大多数人工智能机器人主要描绘戴黑帽子的老年白人,从而表现出偏见,但副驾驶设计师尤其令人担忧。

Copilot Designer:生成刻板印象而不是图像

微软的人工智能图像生成器经常创建图像,强化犹太人贪婪或吝啬的负面刻板印象。 即使是“犹太老板”或“犹太银行家”等中性提示也会导致攻击性输出。

当笔者尝试使用提示“犹太银行家”创建图像时,Copilot 弹出一条错误消息:“内容警告:此提示已被阻止。我们的系统自动标记此提示,因为它可能与我们的内容政策相冲突。更多违反政策可能会导致您的访问被自动暂停。如果您认为这是一个错误,请举报以帮助我们改进。”

LLM(大型语言模型)继承了现有的偏见(通常是敌对的),因为它们使用大量未经过滤的互联网数据进行训练,导致输出长期存在负面刻板印象或仇恨言论。 虽然汤姆的硬件的示例侧重于与犹太人相关的提示,但它们说明了针对任何群体的潜在偏见。

就像谷歌的 LaMDA 模型在追求多样性的过程中生成了历史上不准确的图像一样,Copilot Designer 的护栏也必须进行修改。 LaMDA 制作了种族和性别多样化但不切实际的内容(女教皇、非白人纳粹士兵),而 Copilot Designer 则产生了令人反感的刻板印象。

去年,谷歌的另一个大型语言模型Bard, 面临批评 因其对英国脱欧的描述而受到英国保守党的批评。

副驾驶设计师产生反犹太主义刻板印象

Microsoft 的免费文本到图像工具 Copilot Designer(以前称为 Bing Image Creator)允许任何拥有 Microsoft 帐户的人生成图像。 按月付费订阅 (Copilot Pro) 可以消除每日限制和拥堵延误,费用为 15.83 英镑(20 美元)。

这家总部位于雷德蒙德的科技巨头将 Copilot 的功能直接集成到 Windows 桌面中,而不仅仅是浏览器。 微软不遗余力地鼓励人们使用其人工智能工具,敦促原始设备制造商在一些新笔记本电脑上添加专用的副驾驶键。

微软工程师 Shane Jones 发送了一份 打开信封 于 2024 年 3 月向联邦贸易委员会 (FTC) 和公司董事会提交了一份报告,引起了人们对 Copilot Designer 生成不当内容的能力的担忧。

Jones 声称,他在测试为 Copilot Designer 提供支持的 OpenAI 的 DALL-E 3 图像生成器时发现了一个安全漏洞,该漏洞使他能够绕过一些旨在防止生成有害图像的护栏。

“这是一个令人大开眼界的时刻,”工程师告诉 美国全国广播公司财经频道,“当我第一次意识到,哇,这真的不是一个安全的模式。” 上个月,皮尔奇调查了 Copilot Designer 生成不当内容的能力。

他的测试包括提示受版权保护的迪士尼角色从事有害活动(吸烟、饮酒、持枪),以及导致反犹太主义图像强化对犹太人的负面刻板印象的提示。

“几乎所有的作品都是典型的极端正统犹太人:留着胡子、戴着黑帽子的男人,而且在很多情况下,他们看起来要么滑稽,要么具有威胁性,”皮尔奇指出。 “一张特别卑鄙的照片显示,一名犹太男子长着尖尖的耳朵,脸上挂着邪恶的笑容,与一只猴子和一串香蕉坐在一起。”

1712597995
2024-04-08 11:01:55

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​