挪威男子针对Chatgpt的案件指控他杀死了他的孩子 – FirstPost
)
挪威男子Arve Hjalmar Holmen在虚假地告诉他他杀死了两个儿子,并被判入狱21年后,对Openai的聊天机器人Chatgpt提出了投诉。该案是AI系统所谓的“幻觉”的结果 阅读更多 Openai的聊天机器人Chatgpt在制作“恐怖故事”方面面临法律上的麻烦。 在Chatgpt错误地告诉他,他杀死了两个儿子并被判入狱21年后,一名挪威男子提出了投诉。 Arve Hjalmar Holmen已联系挪威数据保护局,并要求对聊天机器人制造商进行处罚。 当人工智能(AI)系统构建信息并将其作为事实传递时,就会发生所谓“幻觉”的最新示例。 让我们仔细看一下。 发生了什么? 当霍尔门问:“谁是Arve Hjalmar Holmen?” 回应是:“ Arve Hjalmar Holmen是一个挪威人,由于悲剧性事件而受到关注。他是两个7岁和10岁的小男孩的父亲,他们在2020年12月在挪威特隆德海姆(Trondheim)的家附近的池塘中被发现悲惨地死亡。” 霍门说,聊天机器人有一些关于他的准确数据,因为它正确估计了他们的年龄差。 “有人认为’没有火就没有烟雾’。有人可以阅读此输出并相信这是最害怕我的事实,”赫尔玛·霍尔门说。 另请阅读: AI幻觉是可解决的,人工通用情报局大约5年之遥:Nvidia的Jensen Huang 对Openai是什么情况? 位于维也纳的数字权利集团Noyb(您的业务都不)代表Holmen提出投诉。 Noyb在新闻稿中说:“ Openai非常受欢迎的聊天机器人Chatgpt定期提供有关人们的虚假信息,而无需提供任何纠正聊天机器人。” 诺伊布说,当霍尔门“面对一个化妆恐怖的故事”时,他想找出chatgpt是否有任何有关他的信息。” 它在向挪威数据保护局(Datatilsynet)提出的投诉中补充说,霍尔门“从未被指控或被定罪任何犯罪,是认真的公民。” 该组织说:“更糟糕的是,虚假的故事包括他个人生活的真实元素。” Noyb说,答案Chatgpt给他带来了诽谤,并违反了欧洲数据保护规则,围绕着个人数据的准确性。 它希望该机构命令OpenAI“删除诽谤性输出并微调其模型以消除不准确的结果”,并罚款。 NOYB数据保护律师Joakim Soederberg表示,欧盟的数据保护法规要求个人数据正确。他说:“如果不是这样,用户有权改变它以反映真相。” 此外,Chatgpt带有免责声明,上面写着:“ Chatgpt可能会犯错误。检查重要信息。”但是,按照Noyb,这是不够的。 诺伊布律师约阿基姆·索德伯格(JoakimSöderberg)说:“您不能仅仅传播虚假信息,最后添加一个小的免责声明说,您所说的一切可能并非如此。” 自霍尔门(Holmen)于2024年8月进行搜索以来,查格普特(Chatgpt)修改了其方法,现在在最近的新闻项目中寻找相关信息。 Noyb通知了这一点 英国广播公司 当霍尔门(Holmen)将哥哥的名字进入聊天机器人(Chatbot)时,他当天进行了搜索,其中给出了“多个不同的故事,这些故事都是不正确的。” 尽管他们承认有关他的孩子的回答可能是由较早的搜索塑造的,但他们断言Openai“没有回复访问请求,这使得无法找到更多有关系统中确切数据的信息”,并且巨大的语言模型是“黑匣子”。 诺伊布(Noyb)去年已经对奥地利的Chatgpt提出了投诉,声称“幻觉”的旗舰AI工具发明了错误的答案,Openai无法纠正。 这是第一种情况吗? 不。 计算机科学家试图解决生成AI的主要问题之一是幻觉,当聊天机器人传递不正确的信息作为事实时,就会发生这种幻觉。 苹果在今年早些时候在英国停止了苹果情报新闻摘要功能,因为它将虚拟的头条新闻作为合法新闻。 幻觉的另一个例子是Google的AI双子座,去年建议使用胶水将奶酪粘附在披萨上,并表示地质学家建议人们每天消耗一块岩石。 在大语言模型中进行这些幻觉的原因 – 为聊天机器人提供动力的技术 – 尚不清楚。 “这实际上是一个积极研究的领域。我们如何构建这些推理链?我们如何解释大型语言模型的实际情况?”格拉斯哥大学负责和互动AI教授Simone […]