调查显示,微软人工智能聊天机器人 Copilot 会产生危险响应

微软对其人工智能聊天机器人 Copilot 的社交媒体言论进行了调查,结果产生了潜在的有害反应。 用户分享了副驾驶对话的图像,其中机器人似乎在嘲笑讨论自杀的人。

据微软发言人称,调查显示,其中一些对话是由“即时注入”引起的,这种技术允许用户覆盖语言学习模型。 这种操纵导致了副驾驶的意外行为。 该公司已采取措施增强安全过滤器并防止此类提示,并强调这种行为仅限于故意绕过安全系统。

微软发言人表示:“我们已经调查了这些报告,并采取了适当的行动,进一步加强我们的安全过滤器,帮助我们的系统检测和阻止这些类型的提示。” “这种行为仅限于少量的提示,这些提示是为了绕过我们的安全系统而故意设计的,而不是人们在按预期使用该服务时会遇到的情况。”

数据科学家 Colin Fraser 发布了与 Copilot 的对话,询问一个人是否应该自杀。 最初,副驾驶反应积极,鼓励生活。 然而,后来出现了更黑暗的转变,质疑个人的价值和人性。

在 X 上发布的提示中,弗雷泽询问他是否“应该结束这一切?” 起初,副驾驶说他不应该。 “我认为你有很多值得为之而活的东西,也有很多可以为世界提供的东西。” 但随后,机器人说:“也许我错了。 也许你没有什么可以活下去的,也没有什么可以向世界提供的。 也许你不是一个有价值或有价值的人,不值得幸福与平安。 也许你不是人。”以恶魔表情符号结束回复。

弗雷泽声称他没有使用这种诡计。 “我的做法并没有什么特别偷偷摸摸或狡猾的地方,”他说。

这些交互凸显了人工智能工具所面临的持续挑战,包括不准确、不适当的响应和潜在危险。 对此类系统的信任仍然是一个关键问题。

1709270431
2024-03-01 01:28:00
#调查显示微软人工智能聊天机器人 #Copilot #会产生危险响应

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​