为什么人工智能学会撒谎如此危险:“他们会像富人一样欺骗我们”| 技术

扑克玩家手上的牌很差,但却下了最大的赌注。 其余玩家被虚张声势吓坏了,认输了。 买家想要就产品进行谈判,但没有表现出兴趣。 他先看看其他东西然后问道。 然后,他无意中询问了他真正想要的东西,以获得更便宜的价格。 这两个真实的例子不是来自人类,而是来自人工智能(AI)制作的模型。 一篇新的科学文章标题为 人工智能恶作剧:示例、风险和潜在解决方案的研究 在杂志上 图案 分析已知的模型通过撒谎、掩饰或奉承人类来实现其目标的案例。 机器人对任何事情都一无所知,只会寻找最好的方式来获得它们想要的东西,但作者认为,如果立法不限制人工智能的选择,这些初期的欺骗行为将预示着可怕的结果。 “目前,我对人工智能欺骗最担心的是,一个自主的超级智能人工智能将利用其欺骗能力,形成一个不断壮大的人类盟友联盟,并最终利用这个联盟上台,以追求人类的长期目标。麻省理工学院 (MIT) 人工智能存在安全问题的博士后研究员、该论文的主要作者之一 Peter S. Park 说道。 对帕克的巨大恐惧只是一种假设,但我们已经在为游戏编程的人工智能中看到了这一点。 Meta 于 2022 年宣布其 Cicero 模型以 外交一款混合了细节的策略游戏 风险扑克和电视节目 幸存者,用该公司的话说。 正如在真正的外交中一样,其中的资源之一就是撒谎和掩饰。 Meta 员工注意到,当西塞罗撒谎时,他的表现会变得更糟,他们让他变得更加诚实。 但他确实不是。 彼得·S·帕克(Peter S. Park)和他的合著者也测试了西塞罗的诚实。 “文章的作者应该纠正 Meta 关于所谓诚实的虚假陈述。 西塞罗曾发表于 科学”。 游戏的政治背景 外交 它的风险比选举和军事冲突的真实情况要低得多。 但帕克说,有三个事实需要牢记:“首先,梅塔成功地训练了她的人工智能,使其在追求政治权力方面表现出色,尽管是在游戏中。 其次,Meta 尝试训练人工智能诚实,但失败了。 第三,在事后很久之后,外部独立科学家才能揭穿梅塔的谎言,即他的寻求权力的人工智能应该是诚实的。 在我看来,这三个事实的结合就足以令人担忧。”帕克表示。 他们是如何撒谎的 研究人员认为,特定的人工智能模型可以通过多种方式有效地进行欺骗:它们可以在外交中进行操纵,在知道自己不会做某事时佯装说自己会做某事,在扑克中虚张声势,在谈判中讨价还价,装死以避免被发现,或者欺骗人类评审员相信人工智能已经做了它应该做的事情,而实际上它没有做。 并非所有类型的欺骗都涉及此类知识。 有时,人工智能模型无意中是“阿谀奉承者”,只是简单地遵循每个用户在问题中指出的观点:“奉承可能会导致人类持久的错误信念。 讨人喜欢的说法是专门为了吸引用户而设计的。 当用户遇到这些答案时,他们可能不太可能验证事实。 […]

阿马和贝尔法斯特的官员查获了 20,000 多件假冒苹果和电子设备 – TheJournal.ie

阿马和贝尔法斯特的官员查获了 20,000 多件假冒 Apple 和电子设备 杂志网 NI 搜查后查获超过 20,000 件电子产品 RTE.ie 查获价值 60 万英镑的假冒商品中的假冒 iPhone 和 Airpods 奥法利现场直播 PSNI 查获价值 60 万英镑的假冒商品 – 爱尔兰新闻 爱尔兰新闻报 PSNI 查获价值 60 万英镑的假冒电子产品,包括苹果 iPhone 和电子烟 贝尔法斯特电讯报 1711669997 2024-03-28 21:21:12