人工智能调查夸大了世界末日的风险

一月初的头条新闻毫不拐弯抹角,而且都是同一个主题的变体:研究人员认为人工智能有 5% 的机会消灭人类。

这是发人深省的发现 发表在预印本服务器 arXiv.org 上的论文。 在其中,作者报告了一项针对 2,778 名研究人员的调查结果,这些研究人员曾在备受瞩目的人工智能研究会议和期刊上发表并发表过研究成果,这是迄今为止在这个曾经默默无闻的领域进行的最大规模的此类民意调查,该领域突然发现自己正在解决核心问题人类的未来。 “人们对人工智能研究人员对这些事情的看法很感兴趣,”该论文的联合主要作者兼首席研究员 Katja Grace 说道。 人工智能的影响, 组织 进行了这项调查。 “他们在关于人工智能会发生什么的对话中发挥着重要作用。”

但一些人工智能研究人员表示,他们担心调查结果偏向危言耸听的观点。 AI Impacts 得到了 Open Philanthropy 等多个组织的部分资助,这些组织提倡有效的利他主义——这是一种在硅谷流行的新兴哲学运动,以其对人工智能未来与人类互动的悲观前景而闻名。 这些资金联系以及调查中的问题框架使得一些人工智能研究人员公开谈论使用投机性民意调查结果来评估人工智能的真正威胁的局限性。

有效利他主义(EA)被其支持者称为“智力项目”旨在利用资源为人类生活带来最大可能的利益。 该运动越来越关注人工智能,将其视为人类的生存威胁之一,与 核武器。 但批评人士表示,这种对未来情景的关注分散了社会对人工智能今天已经带来的风险的讨论、研究和监管的注意力,包括涉及歧视、隐私和劳工权利以及其他紧迫问题的风险。

最近的调查是 AI Impacts 自 2016 年以来在该领域进行的第三次此类民意调查,要求研究人员估计人工智能导致人类“灭绝”(或物种“同样永久且严重丧失权力”)的可能性。 一半的受访者预测概率为 5% 或更高。

但人工智能促进协会 (AAAI) 前主席托马斯·G·迪特里奇 (Thomas G. Dietterich) 认为,以这种方式构建调查问卷本质上宣扬了人工智能构成生存威胁的观点。 迪特里希是被邀请参加的约 20,000 名研究人员之一,但在读完问题后,他拒绝了。

“与前几年一样,许多问题都是从人工智能毁灭者、存在风险的角度提出的,”他说。 特别是,调查的一些问题直接要求受访者假设最终将建立高级机器智能,将其定义为能够在每项可能的任务上超越人类的机器。 迪特里希指出,并不是每个人工智能研究人员都认为这是理所当然的。 他说,对于这些问题,几乎任何结果都可以用来支持关于人工智能潜在未来的令人震惊的结论。

“我喜欢这项调查中的一些问题,”迪特里希说。 “但我仍然认为重点是‘多少 我们应该担心吗? 而不是进行仔细的风险分析并制定政策来减轻相关风险。”

其他人,例如阿姆斯特丹大学的机器学习研究员 Tim van Erven,也参与了这项调查,但 后来后悔了。 范埃尔文说,“这项调查强调了对人类灭绝的毫无根据的猜测,但没有具体说明”这种情况会通过哪种机制发生。 他表示,向受访者呈现的场景并不清楚假设的人工智能的能力或何时可以实现这些能力。 “这种模糊的、炒作的概念是危险的,因为它们被用作烟幕弹……以转移人们对当前正在发生的平凡但更紧迫的问题的注意力,”范埃尔文补充道。

人工智能影响首席研究员格蕾丝反驳说,了解大多数接受调查的人工智能研究人员是否认为存在风险是一个问题很重要。 该信息应该“不一定 [be obtained] 排除其他一切,但我确实认为绝对应该至少进行一项调查,”她说。 “不同的担忧加在一起,就强调要小心这些事情。”

事实上,AI Impacts 已获得来自一家名为有效利他主义基金 (Effective Altruism Funds) 的组织以及之前支持过 EA 的其他支持者的资助 关于人工智能存在风险的活动,促使一些研究人员提出,该调查对存在风险问题的框架可能会受到该运动的影响。

Nirit Weiss-Blatt 是一名通信研究员和记者,他研究了有效的利他主义者为提高人工智能安全问题意识所做的努力,他表示人工智能社区中的一些人对关注存在风险感到不安,他们声称这是以牺牲其他问题为代价的。 “如今,越来越多的人正在重新考虑让有效的利他主义为人工智能行业和即将到来的人工智能监管制定议程,”她说。 “EA 的声誉正在恶化,强烈的抵制即将到来。”

“我想,如果有人批评我们是 EA,那么这种批评可能很难阻止,”Grace 说道。 “我想我可能会谴责 EA 之类的东西。 但就主题的偏见而言,我想我已经写过 最好的作品之一 关于反对认为人工智能将导致人类灭绝的反驳。” 格蕾丝指出,她本人并不了解所有同事对人工智能存在风险的看法。 “我认为,就信仰而言,人工智能的总体影响比人们想象的更广泛,”她说。

Grace 和她的同事为自己的研究进行了辩护,他们表示,他们一直在努力解决前几年对 AI Impacts 研究提出的一些批评,尤其是受访者数量相对较少并不能充分代表该领域的观点。 今年,AI Impacts 团队试图通过接触更多人并扩大吸引参与者的会议来增加受访者数量。

但有人说这张天罗地网仍然不够广泛。 “我发现他们仍然没有包括明确考虑道德和人工智能的会议,比如 FAccT [the Association for Computing Machinery (ACM) Conference on Fairness, Accountability, and Transparency] 或者 爱斯 [the AAAI/ACM Conference on Artificial Intelligence, Ethics, and Society]”,人工智能公司 Hugging Face 的首席道德科学家玛格丽特·米切尔 (Margaret Mitchell) 说道。 “这些是人工智能和道德的‘顶级人工智能场所’。”

米切尔收到了参加调查的邀请,但没有这样做。 “我一般不会回复那些我不认识的人发来的要求我做更多工作的电子邮件,”她说。 她推测这种情况可能会导致调查结果出现偏差。 “你更有可能找到那些没有大量电子邮件需要回复的人,或者渴望让自己的声音被听到的人,因此更多的是初级人员,”她说。 “这可能会影响难以量化的事情,比如在做出的选择中所蕴含的智慧。”

但还有一个问题是,一项要求研究人员猜测遥远未来的调查是否能提供有关人工智能风险真相的任何有价值的信息。 “我认为大多数回答这些调查的人都没有进行仔细的风险分析,”迪特里希说。 他们也没有被要求支持他们的预测。 “如果我们想找到这些问题的有用答案,”他说,“我们需要资助研究来仔细评估每项风险和收益。”


2024-01-26 13:00:00
1706285106

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​