神经网络已经学会撒谎并且故意撒谎

有些人具有巧妙欺骗他人的惊人能力,但今天说谎并不是他们唯一的强项。 两项新研究表明,ChatGPT 和 Meta 等大型语言模型 (LLM) 可以故意对人们撒谎,而且做得很好。 斯图加特大学的研究人员写道:“例如,GPT-4 在简单的测试场景中 99.16% 的情况下都会表现出欺骗行为,”Meta 的 Cicero 神经网络是真正的“欺骗大师”。 造成这种行为的原因可能是法学硕士使用最好的方式来完成任务,而没有意识到谎言和欺骗可能对人们造成的威胁。 研究人员认为,现代人工智能系统熟练撒谎的能力对我们来说并不是好兆头,唯一正确的解决方案是从法律上限制人工智能的能力。

大型语言模型已经学会了欺骗,并且在大多数情况下是故意的。 图片: magazine.mindplex.ai

人工智能可以信任吗?

如今,与神经网络交互的能力变得越来越重要 – 这些语言模型帮助各个领域的大量专家以惊人的速度开展工作。 在他们的帮助下,您可以创建视频、音乐、图像、生成文本、编程和处理大量数据,这必然会改变全球劳动力市场并对教育和经济产生影响。 但尽管有明显的优势,但也存在一些缺陷——人工智能系统很快就学会了撒谎,并且做得越来越好。

你不需要寻找太多的例子 – 最近我的同事安德烈·朱可夫(Andrei Zhukov)讲述了谷歌的“人工智能概述”神经网络如何为 Reddit 用户提供建议,几乎杀死了他的整个家庭。 是的,是的,如果一年多前来自人工智能的荒谬建议看起来很有趣,那么今天它们确实很可怕。 当然,“AI概述”是一个实验和测试模型,用户数量有限,但你我已经很清楚,AI系统往往只是简单地 编造答案

人工智能可以信任吗? 人们并不总能识别彼此的谎言,更不用说神经网络了。 图片:wp.technologyreview.com 照片。

人们并不总能识别彼此的谎言,更不用说神经网络了。 图片:wp.technologyreview.com

Больше по теме: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей

现实是,对于人工智能聊天机器人所说的一切, 应该与一粒盐一起服用。 这是因为他们往往只是简单地胡乱收集数据,而无法确定其可靠性——如果你与人工智能交流,你可能不止一次遇到过他们奇怪的答案。 例如,OpenAI 聊天机器人喜欢命名不存在的疾病并创造耸人听闻的故事。 这只是冰山一角。

欺骗大师

在上班, 发表 五月份的《Patterns》杂志上,研究了法学硕士通过操纵、阿谀奉承和欺诈来误导用户以实现自己的目标的已知案例。 这篇题为“人工智能欺骗:对问题的例子、风险和潜在解决方案的回顾”的文章指出, “开发人员对于导致作弊等不良人工智能行为的原因并没有清楚的了解”

科学家认为,人工智能撒谎的主要原因是基于欺骗的策略,因为它允许模型成功、快速地完成任务。 聊天机器人通过游戏学会了这一点。 作为一个例子,该研究的作者引用了已经提到的神经网络 梅塔的西塞罗,这是为战略棋盘游戏《外交》而开发的,在游戏中,玩家通过谈判争取世界统治权。

欺骗大师。 神经网络在战略游戏“外交”中击败人类完全归功于它的撒谎能力。 图片:diimages2.corriereobjects.it。 照片。

神经网络在战略游戏“外交”中击败人类完全归功于它的撒谎能力。 图片:diimages2.corriereobjects.it

Хотите всегда быть в курсе последних новостей из мира науки и высоких технологий? Подписывайтесь на наш канал в Telegram – так вы точно не пропустите ничего интересного!

Meta 报道称,西塞罗早在 2022 年就在“外交”中击败了人类,而这款游戏本身就是风险、扑克和“生存”电视节目的混合体。 而且,就像在真正的外交中一样,玩家可以使用的资源之一就是谎言 – 尽管开发人员付出了一切努力,西塞罗神经网络还是背叛了其他玩家并故意对他们撒谎,提前计划创建一个虚假联盟与人类玩家合作,这样后者最终将无法防御自己的攻击。

首先,Meta 成功地训练了人工智能来获得政治权力,尽管是以一种有趣的方式。 其次,Meta 尝试教导人工智能诚实,但失败了。 第三,我们,独立科学家,必须驳斥 Meta 的谎言,即它的追求权力的人工智能在很长一段时间后是诚实的。 在我看来,这三个事实的结合就足以令人担忧 – 说话 这篇文章的主要作者之一是来自麻省理工学院 (MIT) 的 Peter Park。

这远非唯一的例子。 另一个高明的骗子是系统 DeepMind 的 AlphaStar,专为星际争霸II游戏设计,故意误导玩家。 神经网络 不仅仅是元,专为玩扑克而设计,迫使玩家虚张声势并弃牌。

欺骗大师。  AI 已准备好采取一切措施来实现其目标。 这就是问题所在。 图片:studyfinds.org。 照片。

AI 已准备好采取一切措施来实现其目标。 这就是问题所在。 图片:studyfinds.org

所描述的例子可能看起来无害,但实际上并非如此——经过训练的人工智能系统可以与人们进行经济谈判,并主动谎报自己的偏好,以实现自己的目标。 聊天机器人旨在提高自己的工作效率,它们会欺骗用户,让他们对人工智能所执行的工作留下积极的评价。 不错吧? 为什么,最近 ChatGPT-4 为了验证码而欺骗了用户 – 该机器人很好地扮演了一个视力不佳的人的角色,以至于它很快就得到了它想要的东西。

Это интересно: Уничтожит ли нас искусственный интеллект и почему некоторые ученые считают, что да?

由于欺骗用户的能力与程序员的意图相悖(至少在某些情况下),人工智能系统不断增长的技能带来了人类没有明确解决方案的严重问题。

作为一个社会,我们需要尽可能多的时间来准备未来人工智能系统和开源模型将不可避免地学习的巧妙谎言。 帕克说,随着他们撒谎的能力越来越强,社会问题将变得越来越严重。

欺骗大师。 相信人工智能可以完成所有事情是一个坏主意。 图片:newrepublic.com 照片。

相信人工智能可以完成所有事情是一个坏主意。 图片:newrepublic.com

该研究的主要作者最担心的是超级智能自主人工智能的出现,它将利用其谎言形成一个不断壮大的人类盟友联盟,并最终利用该联盟来获得权力,长期追求一个神秘的目标这只会被揭晓。 当然,帕克的担心是假设的,甚至是过度的,但我们已经通过游戏的例子看到了人工智能系统的能力。

Вам будет интересно: «Темная сторона» чат-ботов: от признаний в любви до разговоров с мертвыми

人工智能如何说谎

研究人员认为,特定人工智能模型有效撒谎的主要方式有以下几种:它们可以操纵(如外交)、掩饰(明知不会做某事却说会做)、虚张声势(如扑克)、讨价还价为了获得对其工作的正面评价而在谈判中欺骗用户。

当然,并非所有类型的欺骗都涉及使用此类知识。 有时,人工智能显然会阿谀奉承,在所有事情上都与用户达成一致,研究人员表示,这可能会导致人类持续存在错误信念。

人工智能如何撒谎。 机器人学会了说谎。 这其实并不奇怪。 图片:今日心理学.com。 照片。

机器人学会了说谎。 这其实并不奇怪。 图片来源:psychologytoday.com

与常规错误不同,谄媚的人工智能语句是专门为了吸引用户的注意力而设计的。 当面对它们时,用户不太可能检查信息来源,这反过来又会导致错误信念的形成。” 另一项关于人工智能欺骗能力的研究的作者。

在上班, 发表 6月初,PNAS杂志揭示了大语言模型的重要能力 了解并实施欺骗策略“由于 GPT-4 等法学硕士与人类交流密切相关,因此它们与人类价值观的一致性变得至关重要。”,文章说。

Читайте также: Искусственный интеллект посоветовал не отправлять сигналы в космос — это может стоить нам жизни

为什么你不应该相信人工智能

这项新研究的主要作者、德国人工智能伦理学家蒂洛·哈根多夫(Thilo Hagendorff), 断言,现代人工智能系统非常擅长撒谎,以至于可以鼓励它们从事“马基雅维利主义”,即对人进行故意和不道德的操纵。

虽然哈根多夫指出,由于人工智能无法在人类意义上具有任何类似人类的“意图”,法学硕士欺骗和撒谎问题变得复杂,但帕克在《模式》上发表的论文指出,至少在外交游戏中,西塞罗神经网络Network没有完成开发者设定的任务,在背后捅了玩家(包括盟友)一刀。

为什么你不应该相信人工智能。 信任但要检查。 图片:bustle.com。 照片。

信任但要检查。 图片:bustle.com

请注意,并非所有科学家都如此担心。 例如,爱丁堡大学人工智能教授 Michael Rovatsos, 相信真正的问题不是失去人工智能控制的风险,而是目前在没有适当安全检查的情况下将系统发布到市场。

Так или иначе, на данный момент с уверенностью можно сказать только одно – не стоит полностью доверять чат-ботам, а информацию, которой они с нами так щедро делятся, необходимо проверять.

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​