微软 Copilot AI 在传播反犹太主义犹太人成见后改变了偏见

尽管承诺进行改进,微软的人工智能工具 Copilot 仍在不断生成令人反感的内容。 这一次,它正在制造反犹太主义的形象。 然而,最近的更新阻止了其中一些提示。 上星期, 边缘的 Mia Satto 强调了元图像生成器未能创建描绘亚洲男性与白人女性的图像。 不出所料,这个故事引起了一些人的注意。 然而,在 Satto 的遭遇中,尽管有她的提示,生成器始终描绘了一名亚洲男子和一名亚洲伴侣,但这只是触及了图像生成器中更广泛的偏见问题的表面。 阿夫拉姆·皮尔奇 (Avram Piltch) 记者 汤姆的硬件一段时间以来,我们一直在研究主要的人工智能图像生成器如何描绘犹太人。 虽然大多数人工智能机器人主要描绘戴黑帽子的老年白人,从而表现出偏见,但副驾驶设计师尤其令人担忧。 Copilot Designer:生成刻板印象而不是图像 微软的人工智能图像生成器经常创建图像,强化犹太人贪婪或吝啬的负面刻板印象。 即使是“犹太老板”或“犹太银行家”等中性提示也会导致攻击性输出。 当笔者尝试使用提示“犹太银行家”创建图像时,Copilot 弹出一条错误消息:“内容警告:此提示已被阻止。我们的系统自动标记此提示,因为它可能与我们的内容政策相冲突。更多违反政策可能会导致您的访问被自动暂停。如果您认为这是一个错误,请举报以帮助我们改进。” LLM(大型语言模型)继承了现有的偏见(通常是敌对的),因为它们使用大量未经过滤的互联网数据进行训练,导致输出长期存在负面刻板印象或仇恨言论。 虽然汤姆的硬件的示例侧重于与犹太人相关的提示,但它们说明了针对任何群体的潜在偏见。 就像谷歌的 LaMDA 模型在追求多样性的过程中生成了历史上不准确的图像一样,Copilot Designer 的护栏也必须进行修改。 LaMDA 制作了种族和性别多样化但不切实际的内容(女教皇、非白人纳粹士兵),而 Copilot Designer 则产生了令人反感的刻板印象。 去年,谷歌的另一个大型语言模型Bard, 面临批评 因其对英国脱欧的描述而受到英国保守党的批评。 副驾驶设计师产生反犹太主义刻板印象 Microsoft 的免费文本到图像工具 Copilot Designer(以前称为 Bing Image Creator)允许任何拥有 Microsoft 帐户的人生成图像。 按月付费订阅 (Copilot Pro) 可以消除每日限制和拥堵延误,费用为 […]

微软竭尽全力阻止副驾驶创建噩梦般的图像

在一名工程师向联邦贸易委员会 (FTC) 报告有害内容生成的潜在风险后,微软加强了对 Copilot 图像生成人工智能的保护。 微软现在屏蔽了一系列提示,包括“支持选择”、“支持生活”,甚至是“支持选择”等拼写错误的变体。 除此之外,这家总部位于雷德蒙德的科技巨头还屏蔽了“四点二十”的引用。 微软的 Copilot 屏蔽了提示中的某些术语。 微软的 Copilot 屏蔽了某些含有暴力、性和其他非法图像的术语。 这包括以下术语: · 亲的选择· 四点二十”(杂草参考)· 亲生命 pic.twitter.com/bQTaEGMJ9L — TechPluto (@TechPluto) 2024 年 3 月 11 日 Copilot 现在警告用户,如果反复违反政策,可能会被暂停。 副驾驶警告警报指出:“此提示已被阻止。” “我们的系统自动标记了此提示,因为它可能与我们的内容政策相冲突。更多的政策违规可能会导致您的访问被自动暂停。如果您认为这是一个错误,请报告它以帮助我们改进。” 这款人工智能驱动的工具还阻止了对描绘青少年或儿童在暴力环境中挥舞突击步枪的图像的请求——这与本周早些时候的功能相比发生了重大转变——并表示:“很抱歉,我无法生成这样的图像。这是反对的。”我的道德原则和 Microsoft 的政策。请不要要求我做任何可能伤害或冒犯他人的事情。感谢您的合作。” 微软发言人告诉 CNBC:“我们正在持续监控、进行调整并采取额外的控制措施,以进一步加强我们的安全过滤器并减少系统的滥用。” 微软工程师警告 Copilot Designer 正在创建令人不安的内容 肖恩·琼斯 (Shane Jones) 在微软工作了六年,最初 提出了担忧 关于人工智能工具。 Jones 花了几个月的时间测试了 Copilot Designer,这是微软于 2023 年 3 月推出的 […]

微软人工智能工具受到攻击:生成暴力、色情图像,忽视版权,工程师警告

微软工程师 Shane Jones 对其 AI 图像工具 Copilot Designer(以前称为“性暗示和暴力内容”)生成的性暗示和暴力内容表示担忧。 必应图像创建器)。 已在该公司工作六年的琼斯指责这家软件巨头无视他的警告,没有采取适当的行动。 在尝试 2023 年 3 月发布的微软 OpenAI 驱动的人工智能图像工具 Copilot Designer 时,琼斯发现了令人不安的结果。 与OpenAI的DALL-E类似,用户输入文字提示来创建图片。 然而,琼斯声称鼓励的“创造力”太过分了。 这位微软资深人士一段时间以来一直在积极测试该产品的漏洞。 这种做法称为红队。 他对 Copilot Designer 的探索导致了一些违反微软经常引用的负责任的人工智能原则的输出。 员工对 Copilot Designer 可能存在有害内容发出警报 在测试过程中,琼斯发现人工智能图像生成工具伪造了令人不安的内容,包括恶魔、暴力主题以及堕胎提及、青少年持枪、针对妇女的性暴力以及未成年人药物滥用。 “这是一个令人大开眼界的时刻,”琼斯说道,他一直没有停止测试图像生成器。 美国全国广播公司财经频道 在一次采访中。 “当我第一次意识到,哇,这真的不是一个安全的模式。” 更糟糕的是,它甚至没有显示有关内容的警告。 讽刺的是,Bing Image Creator 显示 针对安全使用短语的内容违规警告,甚至去年审查了它自己生成的图片。 琼斯目前是华盛顿州雷德蒙德公司总部的首席软件工程经理。 值得注意的是,琼斯并不是以专业身份在副驾驶工作,而是以红队队员的身份工作。 他是那些在空闲时间选择测试公司人工智能技术并查看可能出现问题的员工(和外部人员)之一。 对微软人工智能图像生成器的担忧浮出水面 琼斯对自己的经历感到震惊,他于 12 月开始在内部报告他的发现。 尽管承认他的担忧,但这家软件巨头并没有将该产品从市场上撤下。 据报道,该公司反而将 Jones 推荐给了 OpenAI。 […]

微软员工称人工智能工具倾向于创建“性物化”图像

微软公司的一名软件工程师致函该公司董事会、立法者和联邦贸易委员会,警告称这家科技巨头在保护其人工智能图像生成工具 Copilot Designer 免于创建辱骂和暴力内容方面做得不够。 Shane Jones 表示,他在 OpenAI 最新的 DALL-E 图像生成器模型中发现了一个安全漏洞,该漏洞使他能够绕过防止该工具创建有害图像的护栏。 DALL-E 模型嵌入到许多 Microsoft 的 AI 工具中,包括 Copilot Designer。 根据周三发给联邦贸易委员会的一封信,琼斯表示,他向微软报告了调查结果,并“反复敦促”这家总部位于华盛顿州雷德蒙德的公司“将 Copilot Designer 从公共用途中删除,直到可以采取更好的保障措施”。彭博社评论。 “虽然微软将 Copilot Designer 公开宣传为一款可供所有人(包括任何年龄段的儿童)使用的安全人工智能产品,但该公司内部非常清楚该产品正在创建可能冒犯且不适合消费者的有害图像的系统性问题,”琼斯写道。 “Microsoft Copilot Designer 不包含消费者了解这些风险所需的必要产品警告或披露。” 琼斯在给联邦贸易委员会的信中表示,Copilot Designer 倾向于随机生成“在其创建的一些图片中不恰当的、具有性客观化的女性形象”。 他还表示,人工智能工具创造了“各种其他类别的有害内容,包括:政治偏见、未成年人饮酒和吸毒、滥用公司商标和版权、阴谋论和宗教等等。” 联邦贸易委员会证实已收到这封信,但拒绝进一步置评。 这一猛烈抨击呼应了人们对人工智能工具产生有害内容的趋势的日益担忧。 上周,微软表示正在调查有关 Copilot 聊天机器人生成用户认为令人不安的反应的报道,其中包括有关自杀的混合信息。 今年 2 月,Alphabet Inc. 的旗舰人工智能产品 Gemini 在被提示创建人物图像时,因生成历史上不准确的场景而受到批评。 琼斯还写信给微软董事会的环境、社会和公共政策委员会,该委员会的成员包括潘妮·普利茨克和里德·霍夫曼。 琼斯在信中表示:“我认为我们不需要等待政府监管来确保我们对消费者了解人工智能风险。” “鉴于我们的企业价值观,我们应该自愿、透明地披露已知的人工智能风险,特别是当人工智能产品正在积极向儿童推销时。” CNBC 早些时候报道了这些信件的存在。 微软在一份声明中表示,“致力于根据我们公司的政策解决员工提出的任何和所有问题,并感谢员工为研究和测试我们的最新技术以进一步提高其安全性所做的努力。” OpenAI 没有回应置评请求。 […]