我1960 年,赫伯特·西蒙 (Herbert Simon) 荣获诺贝尔经济学奖和计算机科学图灵奖, 写道 在他的书中 管理决策的新科学 “20 年内,机器将能够完成人类能做的任何工作。”
历史上充满了未能实现的丰富技术预测。 在人工智能领域,最大胆的预测是关于能够执行人类可以执行的任何任务的系统的到来,通常被称为通用人工智能(AGI)。
因此,当 Google DeepMind 联合创始人兼首席 AGI 科学家 Shane Legg 时, 估计 到 2028 年 AGI 有 50% 的机会开发出来,人们可能会认为他是另一位没有汲取历史教训的人工智能先驱。
尽管如此,人工智能无疑正在快速发展。 GPT-3.5 是为 OpenAI 的 ChatGPT 提供支持的语言模型,于 2022 年开发,在律师统一考试(准律师必须通过的标准化考试)中得分为 213 分(满分 400 分),在人类考生中排名倒数 10%。 几个月后开发出来的 GPT-4 得分为 298,进入前 10%。 许多专家预计这一进展将继续下去。
阅读更多: 4 张图表显示人工智能进展为何不可能放缓
Legg 的观点在目前构建最强大的人工智能系统的公司领导层中很常见。 在八月, 达里奥·阿莫代,Anthropic 联合创始人兼首席执行官, 说 他预计“人类水平”的人工智能可以在两到三年内开发出来。 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 相信 AGI 可能会在未来四五年内实现。
但在最近的一次 民意调查 在回答“人工智能何时能够比人类工人更好、更便宜地完成每项任务”这个问题时,1712 名人工智能专家中的大多数人并不那么乐观。 独立 民意调查 拥有杰出业绩记录的精英预测家表明,他们的乐观态度仍然不那么乐观。
预测谁是正确的风险很高。 Legg 和许多其他人工智能先驱一样, 警告 未来强大的人工智能系统可能会导致人类灭绝。 即使对于那些不太关心的人来说 终结者 在这种情况下,一些人警告说,可以在任何任务中取代人类的人工智能系统可能会 完全替代人类劳动。
缩放假设
许多在构建最大、最强大的人工智能模型的公司工作的人都认为,通用人工智能的到来即将到来。 他们赞同一种被称为“缩放假说”的理论:即使在此过程中需要一些渐进的技术进步,继续使用更大量的计算能力和数据来训练人工智能模型也将不可避免地导致通用人工智能。
有一些证据支持这一理论。 研究人员观察到用于训练人工智能模型的计算能力(也称为“计算”)与其执行给定任务的效果之间存在非常清晰且可预测的关系。 对于大型语言模型 (LLM)(为 ChatGPT 等聊天机器人提供支持的人工智能系统),缩放法则可预测模型预测句子中缺失单词的能力。 OpenAI 首席执行官 Sam Altman 最近 告诉 在 OpenAI 研究人员之后,他在 2019 年意识到 AGI 的到来可能比大多数人想象的要早得多 发现 缩放定律。
阅读更多: 2023 年度首席执行官:萨姆·奥尔特曼
甚至在遵守缩放定律之前,研究人员就早已明白,使用更多计算来训练人工智能系统可以使其能力更强。 用于训练人工智能模型的计算量已经 增加 随着成本的下降,过去 70 年的增长相对可预测。
专家们利用基于计算预期增长的早期预测来预测人工智能何时可以与人类匹敌(然后可能超越)人类。 1997 年,计算机科学家 Hans Moravec 争论 到 2020 年代,廉价硬件的计算能力将与人脑相媲美。 广泛用于人工智能训练的 Nvidia A100 半导体芯片成本约为 10,000 美元,可执行约 20 万亿次 FLOPS,而本十年后期开发的芯片仍将具有更高的性能。 然而,对人脑使用的计算量的估计差异很大 一万亿 每秒浮点运算次数 (FLOPS) 超过 一千万亿 FLOPS,使得评估 Moravec 的预测变得困难。 此外,训练现代人工智能系统比运行它们需要更多的计算量,而莫拉维克的预测没有考虑到这一事实。
最近,非营利组织 Epoch 的研究人员制作了一个更复杂的基于计算的 模型。 Epoch 方法没有估计何时使用类似于人脑的计算量来训练人工智能模型,而是直接利用缩放定律并做出简化的假设:如果使用给定计算量训练的人工智能模型可以忠实地再现给定的文本的一部分——基于缩放定律预测这样的模型是否可以几乎完美地重复预测下一个单词——然后它可以完成生成该文本的工作。 例如,能够完美复制书籍的人工智能系统可以替代作者,能够完美复制科学论文的人工智能系统可以替代科学家。
有些人认为,仅仅因为人工智能系统可以产生类似人类的输出,并不一定意味着它们会像人类一样思考。 毕竟,罗素·克劳在 2001 年的电影中饰演诺贝尔奖获得者数学家约翰·纳什, 美丽的心灵但没有人会说他的演技越好,他的数学功底一定越令人印象深刻。 大纪元研究人员 争论 这种类比基于对语言模型如何工作的错误理解。 随着规模的扩大,法学硕士获得了像人类一样推理的能力,而不仅仅是表面上模仿人类的行为。 然而,一些研究人员 争论 目前还不清楚当前的人工智能模型是否真的能够推理。
Epoch 的副主任 Tamay Besiroglu 表示,Epoch 的方法是对尺度假设进行定量建模的一种方法,他指出 Epoch 的研究人员倾向于认为人工智能的进展速度将低于模型显示的速度。 该模型估计变革性人工智能的可能性为 10%——定义的 “人工智能如果广泛部署,将引发堪比工业革命的变革”——到 2025 年开发出来,到 2033 年开发出来的可能性为 50%。该模型的预测与 Legg 等人的预测之间的差异可能是贝西罗格鲁表示,很大程度上是因为变革性人工智能比通用人工智能更难实现。
请教专家
尽管最著名的人工智能公司的许多领导层相信当前的人工智能进步之路将很快产生通用人工智能,但他们是局外人。 为了更系统地评估专家对人工智能未来的看法,AI Impacts 是非营利性机器智能研究所的一个人工智能安全项目, 被调查的 2023 年秋季,共有 2,778 名专家参与,他们去年都在著名的人工智能期刊和会议上发表了同行评审的研究成果。
除此之外,专家们被问到,他们认为“高级机器智能”(定义为无需帮助就能比人类工人更好、更便宜地完成每项任务)的机器是否可行。 尽管各个预测差异很大,但预测的平均值表明,到 2047 年这种情况发生的可能性为 50%,到 2027 年发生的可能性为 10%。
和许多人一样,专家们似乎对去年人工智能的快速进步感到惊讶,并相应更新了他们的预测——当 AI Impacts 在 2022 年进行同样的调查时,研究人员估计高级机器智能到来的可能性为 50%到 2060 年,到 2029 年,这一概率为 10%。
研究人员还被问及他们何时认为各种个人任务可以由机器执行。 他们估计,到 2028 年,人工智能有 50% 的机会跻身热门 40 名图书,并写出一本书,让纽约成为热门书籍 时代 2029 年畅销书排行榜。
超级预测家对此表示怀疑
尽管如此,有大量证据表明专家并不能成为优秀的预测者。 1984 年至 2003 年间,社会科学家菲利普·泰特洛克 (Philip Tetlock) 收集了 284 名专家的 82,361 项预测,并向他们提出以下问题:苏联领导人米哈伊尔·戈尔巴乔夫 (Mikhail Gorbachev) 会在政变中被赶下台吗? 加拿大能否作为一个政治联盟继续存在? 泰特洛克发现,专家的预测往往并不比偶然更好,而且专家越有名,他们的预测往往就越不准确。
接下来,泰洛克和他的合作者着手确定是否有人 可以 做出准确的预测。 在一场预测比赛中 推出 在 2010 年美国情报高级研究项目活动中,Tetlock 的团队“良好判断项目”(GJP) 主导了其他项目,据报道,其预测比有权访问机密信息的情报分析师准确 30%。 作为竞赛的一部分,GJP 评选出“超级预测者”,即始终做出高于平均水平预测准确度的个人。 然而,尽管超级预测者已被证明对于两年或更短时间范围内的预测相当准确,但尚不清楚他们对于诸如何时可能开发 AGI 等长期问题也同样准确,埃兹拉·卡格(Ezra Karger)说,芝加哥联邦储备银行经济学家兼泰特洛克预测研究所研究主任。
超级预测家认为 AGI 何时到来? 作为一个 预测锦标赛 预测研究所于 2022 年 6 月至 10 月期间开展了一项调查,询问了 31 名超级预测员,他们对尼克·博斯特罗姆 (Nick Bostrom) 的看法如何。 超级智能——会肯定AGI的存在。 超级预测者中位数认为,到 2030 年这种情况发生的可能性为 1%,到 2050 年发生这种情况的可能性为 21%,到 2100 年发生这种情况的可能性为 75%。
谁是对的?
预测 AGI 何时可能开发的所有三种方法——Epoch 的尺度假设模型以及专家和超级预测者的调查——都有一个共同点:存在很多不确定性。 特别是,专家们分布广泛,10%的人认为AGI很可能在2030年实现,18%的人认为AGI要到2100年之后才能实现。
不过,平均而言,不同的方法会给出不同的答案。 Epoch 的模型估计,变革性人工智能在 2033 年出现的可能性为 50%,专家估计 AGI 在 2048 年之前出现的概率为 50%,而超级预测家则预测到 2070 年出现的可能性要远得多。
作为 AI Impacts 首席研究员组织此次专家调查的 Katja Grace 表示,对于何时开发 AGI 存在许多分歧,引发了争论。 首先,当前构建人工智能系统的方法,通过更多的计算和输入更多的数据,以及一些算法调整,是否足够? 这个问题的答案部分取决于您认为最近开发的人工智能系统有多令人印象深刻。 用微软研究人员的话说,GPT-4 是 AGI的火花? 或者是这样,在 字 哲学家休伯特·德雷福斯 (Hubert Dreyfus) 说,“就像声称第一只爬上树的猴子正在朝着登陆月球的方向前进一样?”
其次,即使目前的方法足以实现开发通用人工智能的目标,但目前还不清楚距离终点线有多远,格蕾丝说。 也有可能有些事情会阻碍进展,例如训练数据的不足。
最后,格蕾丝说,在这些技术性更强的辩论的背景下,人们对世界可能发生变化的程度和速度有了更基本的信念。 那些从事人工智能工作的人通常专注于技术,并愿意接受他们的创造可以极大地改变世界的想法,而大多数人认为这是不现实的。
解决这一分歧的风险很高。 除了询问专家他们认为人工智能将多快达到某些里程碑之外,AI Impacts 还询问了他们该技术的社会影响。 在回答有关人工智能对社会影响的问题的 1,345 名受访者中,89% 的人表示他们非常或极其担心人工智能生成的深度伪造品,73% 的人同样担心人工智能可能会增强危险群体的能力,例如使他们能够设计病毒。 受访者中位数认为 AGI 导致“极其糟糕”的结果(例如人类灭绝)的可能性为 5%。
考虑到这些担忧,以及 10% 的受访专家认为到 2030 年人工智能可能能够完成人类能完成的任何任务,Grace 认为政策制定者和公司现在就应该做好准备。
格雷斯说,准备工作可能包括投资安全研究、强制性安全测试以及开发强大人工智能系统的公司和国家之间的协调。 其中许多措施也被建议在 纸 人工智能专家去年发表的。
加州大学计算机科学教授斯图尔特·拉塞尔(Stuart Russell)表示:“如果政府现在下定决心采取行动,我们就有机会先学会如何确保人工智能系统的安全,然后再学习如何让人工智能系统变得强大到无法控制。”伯克利分校和该论文的作者之一在 10 月份告诉《时代》杂志。
1705696131
#人工智能什么时候会比我们更聪明 #这取决于你问谁
2024-01-19 18:44:27