神经网络已经学会撒谎并且故意撒谎

有些人具有巧妙欺骗他人的惊人能力,但今天说谎并不是他们唯一的强项。 两项新研究表明,ChatGPT 和 Meta 等大型语言模型 (LLM) 可以故意对人们撒谎,而且做得很好。 斯图加特大学的研究人员写道:“例如,GPT-4 在简单的测试场景中 99.16% 的情况下都会表现出欺骗行为,”Meta 的 Cicero 神经网络是真正的“欺骗大师”。 造成这种行为的原因可能是法学硕士使用最好的方式来完成任务,而没有意识到谎言和欺骗可能对人们造成的威胁。 研究人员认为,现代人工智能系统熟练撒谎的能力对我们来说并不是好兆头,唯一正确的解决方案是从法律上限制人工智能的能力。 大型语言模型已经学会了欺骗,并且在大多数情况下是故意的。 图片: magazine.mindplex.ai 人工智能可以信任吗? 如今,与神经网络交互的能力变得越来越重要 – 这些语言模型帮助各个领域的大量专家以惊人的速度开展工作。 在他们的帮助下,您可以创建视频、音乐、图像、生成文本、编程和处理大量数据,这必然会改变全球劳动力市场并对教育和经济产生影响。 但尽管有明显的优势,但也存在一些缺陷——人工智能系统很快就学会了撒谎,并且做得越来越好。 你不需要寻找太多的例子 – 最近我的同事安德烈·朱可夫(Andrei Zhukov)讲述了谷歌的“人工智能概述”神经网络如何为 Reddit 用户提供建议,几乎杀死了他的整个家庭。 是的,是的,如果一年多前来自人工智能的荒谬建议看起来很有趣,那么今天它们确实很可怕。 当然,“AI概述”是一个实验和测试模型,用户数量有限,但你我已经很清楚,AI系统往往只是简单地 编造答案。 人们并不总能识别彼此的谎言,更不用说神经网络了。 图片:wp.technologyreview.com Больше по теме: Нейросеть от Microsoft объявила себя сверхразумом и требует поклонения от пользователей 现实是,对于人工智能聊天机器人所说的一切, 应该与一粒盐一起服用。 这是因为他们往往只是简单地胡乱收集数据,而无法确定其可靠性——如果你与人工智能交流,你可能不止一次遇到过他们奇怪的答案。 例如,OpenAI 聊天机器人喜欢命名不存在的疾病并创造耸人听闻的故事。 […]