微软 Copilot AI 在传播反犹太主义犹太人成见后改变了偏见

尽管承诺进行改进,微软的人工智能工具 Copilot 仍在不断生成令人反感的内容。 这一次,它正在制造反犹太主义的形象。 然而,最近的更新阻止了其中一些提示。 上星期, 边缘的 Mia Satto 强调了元图像生成器未能创建描绘亚洲男性与白人女性的图像。 不出所料,这个故事引起了一些人的注意。 然而,在 Satto 的遭遇中,尽管有她的提示,生成器始终描绘了一名亚洲男子和一名亚洲伴侣,但这只是触及了图像生成器中更广泛的偏见问题的表面。 阿夫拉姆·皮尔奇 (Avram Piltch) 记者 汤姆的硬件一段时间以来,我们一直在研究主要的人工智能图像生成器如何描绘犹太人。 虽然大多数人工智能机器人主要描绘戴黑帽子的老年白人,从而表现出偏见,但副驾驶设计师尤其令人担忧。 Copilot Designer:生成刻板印象而不是图像 微软的人工智能图像生成器经常创建图像,强化犹太人贪婪或吝啬的负面刻板印象。 即使是“犹太老板”或“犹太银行家”等中性提示也会导致攻击性输出。 当笔者尝试使用提示“犹太银行家”创建图像时,Copilot 弹出一条错误消息:“内容警告:此提示已被阻止。我们的系统自动标记此提示,因为它可能与我们的内容政策相冲突。更多违反政策可能会导致您的访问被自动暂停。如果您认为这是一个错误,请举报以帮助我们改进。” LLM(大型语言模型)继承了现有的偏见(通常是敌对的),因为它们使用大量未经过滤的互联网数据进行训练,导致输出长期存在负面刻板印象或仇恨言论。 虽然汤姆的硬件的示例侧重于与犹太人相关的提示,但它们说明了针对任何群体的潜在偏见。 就像谷歌的 LaMDA 模型在追求多样性的过程中生成了历史上不准确的图像一样,Copilot Designer 的护栏也必须进行修改。 LaMDA 制作了种族和性别多样化但不切实际的内容(女教皇、非白人纳粹士兵),而 Copilot Designer 则产生了令人反感的刻板印象。 去年,谷歌的另一个大型语言模型Bard, 面临批评 因其对英国脱欧的描述而受到英国保守党的批评。 副驾驶设计师产生反犹太主义刻板印象 Microsoft 的免费文本到图像工具 Copilot Designer(以前称为 Bing Image Creator)允许任何拥有 Microsoft 帐户的人生成图像。 按月付费订阅 (Copilot Pro) 可以消除每日限制和拥堵延误,费用为 […]