乔治华盛顿大学法学教授乔纳森·特利 (Jonathan Turley) 在被 ChatGPT 错误地指控性骚扰后,对人工智能的危险性发出了警告,ChatGPT 引用了一篇关于 2018 年所谓案件的虚假文章。
特利是福克斯新闻的撰稿人,他一直直言不讳地强调人工智能的危险。长期以来,他一直对虚假信息的危险表示担忧,尤其是广受欢迎的 OpenAI 聊天机器人 ChatGPT。
去年,加州大学洛杉矶分校的一位教授和 Turley 的一位朋友在研究 ChatGPT 时告诉他,他的名字出现在了搜索结果中。ChatGPT 的提示要求提供五例美国法学教授性骚扰的例子,并引用相关报纸文章来支持这些指控。
法学教授遭聊天机器人诬告
“有五位教授上台,其中三人的故事明显是假的,包括我自己的故事,”特利在接受《故事》采访时说道。 福克斯周一新闻。人工智能的捏造是这起事件中最令人不安的方面。ChatGPT 编造了一篇《华盛顿邮报》的故事,并附上了一段捏造的引言,指控一名学生在阿拉斯加旅行时遭到骚扰。
“那次旅行根本就没发生过。我从来没有和任何法学院的学生一起旅行过。那次旅行让我在错误的学校任教,我也从未被指控性骚扰,”特利澄清道。
2023 年 4 月 6 日,这位 61 岁的法律学者在 X(以前的 Twitter)上 暴露 ChatGPT 的诽谤。该人工智能捏造了 2018 年的性骚扰指控,声称一名女学生在阿拉斯加旅行中指控他——而这趟旅行从未发生过。
ChatGPT 是一款人工智能聊天机器人,以其类似人类的对话技能而闻名,全球用户都在使用它来完成电子邮件撰写、代码调试、研究、创意写作等任务。Turley 引用了自己使用 ChatGPT 的经验,呼吁负责任的人工智能开发,并敦促新闻机构在使用此类软件之前实施更严格的验证流程。
当算法继承偏见时
与 Turley 的警告相呼应的是, 最近的研究 发现像 ChatGPT 这样的大型语言模型 (LLM) 很容易被操纵为恶意行为。研究人员进一步震惊地发现,应用安全训练技术未能纠正人工智能的欺骗倾向。
“我很幸运,很早就知道,在大多数情况下,这种情况会在互联网上被复制一百万次,然后就失去了踪迹。你无法弄清楚这是由人工智能系统发起的,”特利说。
“对于一名学者来说,没有什么比人们将这种指控与你和你的职位联系起来更能损害你的职业生涯了。所以我认为这是一个警示故事,人工智能经常给人带来准确和中立的印象。”
Turley 认为,人工智能和人类一样,会从其训练数据中继承偏见和意识形态倾向。去年,一份报告显示微软的人工智能助手 Copilot 提供了 不准确的信息 关于美国大选的相关疑问。
Turley 指出,人工智能的好坏取决于程序员。他还指出,ChatGPT 尚未道歉,也没有回应玷污其声誉的捏造故事。
“我甚至没有听到那家公司的消息,”特利继续说道。“那个故事,各种新闻机构都联系了他们。他们什么也没说。这也很危险。因为当你在记者的文章中被这样诽谤时,你知道如何联系。你知道该联系谁。而对于人工智能,没有人在那里。而 ChatGPT 看起来只是耸耸肩,然后就此作罢了。”
1717785601
2024-06-07 09:35:25