人工智能安全协议可能遗漏了最大的威胁

人工智能时代已经开始,它带来了许多新的焦虑。 人们投入了大量的精力和资金来确保人工智能只做人类想做的事。 但我们更应该害怕的是人工智能会做人类想做的事。 真正的危险是我们自己。

这并不是该行业正在努力解决的风险。 在 二月,一家名为 Synth Labs 的完整公司的成立就是为了“人工智能对齐”的明确目的,使其表现得完全符合人类的意图。 其投资者包括微软旗下的M12和谷歌前首席执行官埃里克·施密特创立的First Start Ventures。 ChatGPT 的创建者 OpenAI 承诺将其 20% 的处理能力用于“超对准”这将“引导和控制比我们聪明得多的人工智能系统。” 大科技就是这一切。

这可能是一件好事,因为 快速剪辑 人工智能技术发展。 几乎所有关于风险的讨论都与人工智能系统追求的目标的潜在后果有关,这些目标偏离了它们的编程目标,也不符合人类的利益。 每个人都可以支持人工智能协调和安全的概念,但这只是危险的一方面。 想象一下如果人工智能会发生什么 做人类想做的事。

当然,“人类想要的”并不是一成不变的。 不同的人想要不同的东西,并且对于什么构成“更大的利益”有无数的想法。 我认为我们大多数人都会正确地担心人工智能是否符合弗拉基米尔·普京或金正恩的最佳世界愿景。

即使我们能让每个人都关注整个人类的福祉,我们也不太可能就具体情况达成一致。 埃隆·马斯克上周在他的社交媒体平台 X 上分享时明确表示,他 担心的 关于人工智能推动“强制多样性”和过于“觉醒”。 (在此之前,马斯克对 OpenAI 提起诉讼,称该公司没有履行其承诺 承诺 开发人工智能造福人类。)

具有极端偏见的人可能真诚地相信,杀死任何他们认为异常的人符合人类的整体利益。 “与人类一致”的人工智能本质上与设计它的人一样善良、邪恶、建设性或危险。

这似乎就是该公司的人工智能开发部门 Google DeepMind 最近成立了一个 内部组织 专注于人工智能安全并防止其被不良行为者操纵。 但是,由这家特定公司的少数个人(以及其他一些类似的公司)来决定什么是“坏”的事情,这并不理想——包括他们的盲点以及个人和观点。 文化偏见

潜在的问题超出了人类伤害他人的范围。 历史上,对人类“有益”的事物已经多次出现 以费用 其他众生的。 今天的情况就是这样。

仅在美国,我们就有 数十亿动物 遭受囚禁、酷刑和剥夺其基本权​​利 心理 以及任何特定时间的生理需求。 整个物种都被征服并被系统地屠杀,这样我们就可以吃到煎蛋卷、汉堡和鞋子。

如果人工智能完全按照“我们”(无论是谁对系统进行编程)想要的那样,这可能意味着更有效、更大规模、更多地实施这种大规模残酷行为。 自动化 富有同情心的人们介入并标记任何特别可怕的事情的机会也越来越少。

事实上,在工厂化农业中,这是 已经 正在发生,尽管规模比可能的要小得多。 美国泰森食品公司、泰国正大食品公司和挪威Mowi等主要动物产品生产商已经开始试验人工智能系统,旨在提高动物生产和加工的效率。 这些系统正在接受测试,除其他活动外,还可以喂养动物、监测它们的生长、在它们的身体上留下痕迹,以及使用声音或电击与动物互动来控制它们的行为。

比让人工智能与人类的直接利益保持一致更好的目标是我所说的“感知对齐”——人工智能按照所有有感知力的利益行事,包括人类、所有其他动物,以及有感知力的人工智能(如果存在的话)。 换句话说,如果一个实体能够体验快乐或痛苦,那么人工智能系统在做出决策时就应该考虑到它的命运。

这对一些人来说是一个激进的主张,因为对所有有感知生命有利的事情可能并不总是与对人类有利的事情一致。 有时,甚至经常,它可能与人类想要的东西或对我们大多数人来说最好的东西相反。 例如,这可能意味着人工智能消除 动物园, 破坏非必要的生态系统以减少 野生动物的痛苦 或者 禁止动物试验

最近谈到 播客 哲学家、1975 年具有里程碑意义的著作《动物解放》的作者彼得·辛格 (Peter Singer) 认为,“综合考虑”,人工智能系统的最终目标和优先事项比与人类保持一致更重要。

“问题实际上是,这个超级智能人工智能是否会仁慈并想要创造一个更美好的世界,”辛格说,“即使我们不控制它,它仍然会创造一个更美好的世界,我们的利益将在其中得到体现。”考虑到。 有时它们可​​能会被非人类动物的利益或人工智能的利益所压倒,但这仍然是一个好的结果,我认为。”

我同意辛格的观点。 我们能做的最安全、最富有同情心的事情似乎就是考虑非人类的有感知生命,即使这些实体的利益可能会与人类的最佳利益相冲突。 在任何程度上,特别是在这种极端的情况下,使人类去中心化,都是一个对人们构成挑战的想法。 但如果我们要防止当前的物种歧视,这是必要的 增殖的 以新的、可怕的方式。

我们真正应该要求的是工程师在设计技术时扩大自己的同情心。 当我们想到“安全”时,让我们想想“安全”对所有众生意味着什么,而不仅仅是人类。 当我们的目标是让人工智能变得“仁慈”时,我们要确保这意味着对整个世界的仁慈——而不仅仅是生活在其中的单个物种。

布莱恩·凯特曼 (Brian Kateman) 是 Decetarian 基金会的联合创始人,该基金会是一个致力于减少社会动物产品消费的非营利组织。 他最新的书和纪录片是“半路给我肉”。


2024-03-31 10:00:22
1711978693

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​