Meta 的 AI 主管 Yann LeCun 谈 AGI、开源和 AI 风险

中号eta首席人工智能科学家, Yann LeCun,获得了另一项荣誉,添加到他的长名单中 奖项 周日,当他 认可的 由于他对人工智能世界的贡献而荣获 TIME100 影响力奖。

在迪拜举行的颁奖典礼之前,LeCun 与《时代》杂志坐下来讨论了实现“通用人工智能”(AGI) 的障碍、Meta 开源方法的优点,以及他认为人工智能可以实现的“荒谬”主张。对人类构成生存风险。

《时代》杂志于 1 月 26 日采访了 LeCun。为了清晰起见,本次对话经过了精简和编辑。

当今科技界的许多人相信,利用更多计算能力和更多数据训练大型语言模型 (LLM) 将带来通用人工智能。 你同意?

令人惊讶的是如何 [LLMs] 如果你大规模地培训他们,他们会发挥作用,但效果非常有限。 今天我们看到这些系统产生了幻觉,它们并不真正了解现实世界。 它们需要大量的数据才能达到最终的智能水平。 他们无法真正推理。 除了他们接受过的培训之外,他们无法计划任何事情。 因此,它们并不是通向人们所说的“AGI”的道路。 我讨厌这个词。 它们很有用,这是毫无疑问的。 但它们并不是通往人类水平智能的道路。

你提到你讨厌缩写词“AGI”。 这是马克·扎克伯格 (Mark Zuckerberg) 在 1 月份使用的一个术语,当时他宣布 Meta 正在将构建通用人工智能作为其组织的核心目标之一。

这里面有很多误解。 所以FAIR的使命 [Meta’s Fundamental AI Research team] 是人类水平的智能。 这艘船已经航行了,这是一场我输掉的战斗,但我不喜欢称它为AGI,因为人类智能根本不通用。 有些智能生物所具有的特征是当今人工智能系统所不具备的,比如理解物理世界; 规划一系列行动以实现目标; 推理的方式可能会花费你很长时间。 人类和动物的大脑都有一个特殊的部分,我们将其用作工作记忆。 LLM 没有这个。

婴儿在生命的最初几个月里就会了解世界是如何运作的。 我们不知道该怎么做 [with AI]。 一旦我们拥有了通过观察世界的流逝来学习“世界模型”的技术,并将其与规划技术相结合,或许还可以将其与短期记忆系统相结合,那么我们可能会找到一条通往通用智能的道路,但让我们说猫级别的智力。 在我们达到人类水平之前,我们将不得不经历更简单的智能形式。 我们离这个目标还很远。

阅读更多: 人工智能学会像婴儿一样说话

在某些方面,这个比喻是有道理的,因为猫可以观察世界并学习最先进的法学硕士根本无法学到的东西。 但是,人类知识的整个概括历史对猫来说是无法获得的。 这个比喻的局限性有多大?

这是一个非常简单的计算。 大型语言模型或多或少是根据公共互联网上可用的整个文本进行训练的。 通常情况下,这是 10 万亿个代币。 每个令牌大约是两个字节。 所以这是 10 的两倍 [power of] 13 个字节用于训练数据。 你会说,天啊,这太不可思议了,人类需要 17 万年才能读完这本书。 这只是大量的数据。 但当你与发展心理学家交谈时,他们告诉你,一个 4 岁的孩子一生中已经有 16,000 小时处于清醒状态。 然后你可以尝试量化四年内有多少信息进入其视觉皮层。 而视神经每秒大约有20兆字节。 因此,每秒 20 兆字节,乘以 60,000 小时,再乘以每小时 3,600 秒。 这就是 10 的 [power of] 15 个字节,是 170,000 年文本价值的 50 倍。

是的,但是文本编码了人类知识的整个历史,而 4 岁孩子获得的视觉信息只编码了关于世界、基本语言等的基本 3D 信息。

但你说的都是错误的。 人类的绝大多数知识不是用文本表达的。 它存在于你大脑的潜意识部分,是你在会说话之前的第一年里学到的。 大多数知识确实与我们对世界的体验及其运作方式有关。 这就是我们所说的常识。 法学硕士没有这些,因为他们无权获得它。 所以他们可能会犯非常愚蠢的错误。 这就是幻觉的来源。 我们完全认为理所当然的事情对于计算机来说复制起来极其复杂。 因此,AGI(人类水平的人工智能)不仅指日可待,而且还需要一些相当深刻的感知变化。

我们来谈谈开源。 您在职业生涯中一直是开放研究的大力倡导者,Meta 采取了有效开源其最强大的大型语言模型的政策,最近 骆驼2。 这一策略将 Meta 与谷歌和微软区分开来,后者不会公布其最强大系统的所谓权重。 你认为随着 Meta 的人工智能变得越来越强大,甚至接近人类水平的智能,Meta 的方法还会继续适用吗?

首先的答案是肯定的。 其原因是,在未来,每个人与数字世界以及更广泛的知识世界的互动都将由人工智能系统介导。 他们基本上将扮演人类助手的角色,始终与我们在一起。 我们不会使用搜索引擎。 我们只需向助手提问,这会对我们的日常生活有所帮助。 因此,我们的整个信息饮食将由这些系统来调节。 它们将构成所有人类知识的宝库。 而且你不能对专有的、封闭的系统有这种依赖,特别是考虑到世界各地语言、文化、价值观、利益中心的多样性。 就好像你说,你能在美国西海岸的某个地方有一个商业实体来制作维基百科吗? 不会。维基百科是众包的,因为它有效。 因此,对于人工智能系统来说也是如此,它们必须在世界各地每个人的帮助下接受培训,或者至少进行微调。 人们只有能够为广泛可用的开放平台做出贡献,才会这样做。 他们不会为专有系统这样做。 因此,出于文化多样性、民主和多样性的原因,未来至少必须是开源的。 我们需要多元化的人工智能助手,就像我们需要多元化的媒体一样。

您经常听到的一种批评是,开源可能会让非常强大的工具落入滥用它们的人手中。 如果攻击力与防御力存在一定程度的不对称,那么这对整个社会来说可能是非常危险的。 是什么让你确信这不会发生?

关于这个的很多说法基本上都是完全的幻想。 其实有一个 报告 兰德公司刚刚发布,他们研究了在当前的系统下,它会变得容易多少 [it] 让居心不良的人想出生物武器的配方? 答案是:不会。 原因是因为现在的系统确实没有那么智能。 他们接受过公共数据方面的培训。 所以基本上,他们无法发明新东西。 他们会从公共数据中反省他们所接受的训练,这意味着你可以从谷歌获得它。 人们一直在说,“天哪,我们需要监管法学硕士,因为它们太危险了。” 这不是真的。

现在,未来的系统却是另一回事了。 因此,也许一旦我们拥有一个强大的超级智能系统,他们将有助于科学,他们将有助于医学,他们将帮助商业,他们将通过允许同声传译消除文化障碍。 所以有很多好处。 因此,有一个风险收益分析,即:尝试将技术保密,希望坏人不会得到它,是否有效? 或者相反,策略是尽可能广泛地开放,以便进展尽可能快,以便坏人永远落后? 我非常属于第二类思维。 需要做的是让整个社会,好人,通过进步保持领先。 然后就是我的好人工智能对抗你的坏人工智能。

您称人工智能对人类构成生存风险的想法“荒谬”。 为什么?

这里面有很多谬误。 第一个谬论是,因为系统是智能的,所以它想要控制。 这完全是错误的。 甚至在人类内部也是错误的。 我们当中最聪明的人不想主宰其他人。 如今,我们在国际政治舞台上就有这样的例子——领导者并不是我们当中最聪明的人。

当然。 但最终掌握权力的是那些有统治欲望的人。

我相信你认识很多非常聪明的人,他们非常擅长解决问题。 他们不想成为任何人的老板。 我就是其中之一。 支配欲与智力根本无关。

但这与统治有关。

好吧,但是一些人类的统治欲,或者至少是影响力,已经通过进化而根植于我们的体内,因为我们是一个具有等级组织的社会物种。 看看猩猩。 他们不是社会性动物。 他们没有这种主宰的动力,因为这对他们来说完全没用。

这就是为什么人类是优势物种,而不是猩猩。

关键是,人工智能系统尽管可能很聪明,但仍将屈服于我们。 我们设定了他们的目标,但他们没有任何我们可以为他们建立的内在目标来控制。 建造它实在是太愚蠢了。 也会毫无用处。 反正没人会买。

如果一个有支配欲的人将这个目标编程到人工智能中会怎样?

然后,再说一次,这是我的好人工智能对抗你的坏人工智能。 如果你的人工智能表现不佳,无论是由于糟糕的设计还是故意的,你都会有更聪明、更好的人工智能来消灭它们。 就像我们有警察或军队一样。

但警察和军队拥有使用武力的垄断权,而在开源人工智能的世界里,这是不可能的。

你是什​​么意思? 在美国,你可以在任何地方购买枪支。 即使在美国大部分地区,警察也拥有使用武力的合法垄断权。 但很多人都可以获得极其强大的武器。

进展顺利吗?

我发现这对北美大陆居民的生命威胁比人工智能要大得多。 但不,我的意思是,我们可以想象各种灾难场景。 有数百万种构建人工智能的方法都是糟糕的、危险的、无用的。 但问题不在于它是否有可能变坏。 问题是是否有办法让它顺利进行。

设计越来越强大的安全护栏系统,使其可靠、安全、有用,这将是一个漫长而艰巨的过程。 这不会在一天内发生。 这不像有一天,我们要建造一台巨大的计算机并打开它,然后下一分钟它就会接管世界。 这就是荒谬的场景。

最后一个问题。 我们对 Llama 3 应该有什么期待?

嗯,很可能会有更好的性能。 视频多模态等等。 但它仍在训练中。

1707867745
#Meta #的 #主管 #Yann #LeCun #谈 #AGI开源和 #风险
2024-02-13 16:14:54

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​