斯嘉丽约翰逊的人工智能之争让人想起硅谷过去的糟糕时光

斯嘉丽约翰逊的人工智能之争让人想起硅谷过去的糟糕时光

  • 作者 Zoe Kleinman
  • 角色,技术编辑
  • 推特,@zsk
  • 1小时前

“快速行动,打破陈规”这句座右铭在年轻的马克·扎克伯格 (Mark Zuckerberg) 提出大约 20 年后,仍然困扰着科技行业。

这五个词象征着硅谷最糟糕的一面——无情的野心和相当惊人的傲慢的结合——以利润为导向的创新而不担心后果。

本周,当演员斯嘉丽约翰逊与 OpenAI 发生冲突时,我想起了这句话。 Johansson 女士声称,她和她的经纪人都拒绝让她担任 ChatGPT 新产品的代言人,但当该产品推出时,它听起来就像她一样。 OpenAI 否认这是故意模仿。

这正是创意产业所担心的典型例子——被人工智能模仿并最终取代。

上周,全球最大的音乐出版商索尼音乐写信给谷歌、微软和 OpenAI,要求了解其艺术家的歌曲是否被用来开发人工智能系统,并表示他们没有获得这样做的许可。

这一切都与昔日那些充满男子气概的硅谷巨头相呼应。 将寻求宽恕而不是许可作为非正式的商业计划。

但 2024 年的科技公司非常希望摆脱这种声誉。

OpenAI 并不是按照这个模式塑造的。 它最初是作为一个非营利组织而创建的,它将把任何额外的利润投资回业务中。

2019年,当它组建盈利部门时,他们表示盈利部门将由非营利部门主导,并对投资者可以获得的回报设定上限。

但并非所有人都对这一转变感到高兴——据说这是最初的联合创始人埃隆·马斯克决定退出的一个关键原因。

去年年底,当 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 突然被自己的董事会解雇时,其中一个理论是他想远离最初的使命。 我们从未确定过。

但即便OpenAI已经变得更加以盈利为目的,它仍然必须正视自己的责任。

在政策制定领域,几乎所有人都同意,需要明确的界限,才能让 OpenAI 这样的公司在灾难发生之前保持一致。

到目前为止,人工智能巨头基本上都在纸上谈兵。 六个月前,在全球首届人工智能安全峰会上,一群科技巨头签署了一项自愿承诺,致力于打造负责任、安全的产品,最大限度地发挥人工智能技术的优势,并将其风险降至最低。

这些风险最初是由活动组织者确定的,它们简直就是噩梦。当时我问起人工智能工具对人类造成的更现实的威胁,比如歧视人类或取代人类的工作,他们非常肯定地告诉我,这次聚会只讨论绝对最坏的情况——这是终结者、世界末日、人工智能失控并摧毁人类的领域。

六个月后,当峰会重新召开时,“安全”一词已从会议标题中被彻底删除。

上周,由 30 名独立专家组成的英国政府报告草案得出结论, “尚无证据” 人工智能可以产生生物武器或进行复杂的网络攻击。 报告称,人类失去对人工智能控制的可能性“极具争议”。

业内一些人一直在说,人工智能工具最直接的威胁是它们将取代工作或无法识别肤色。人工智能伦理专家 Rumman Chowdhury 博士表示,这些才是“真正的问题”。

AI 安全研究所拒绝透露是否对最近几天推出的任何新 AI 产品进行过安全测试;尤其是 OpenAI 的 GPT-4o 和谷歌的 Project Astra,这两个都是迄今为止我见过的最强大、最先进的生成式 AI 系统。与此同时,微软推出了一款包含 AI 硬件的新型笔记本电脑——这是 AI 工具物理嵌入我们设备的开始。

独立报告还指出,目前没有可靠的方法来准确理解为什么人工智能工具会产生这样的输出,即使是在开发人员中也是如此,而且红队的既定安全测试实践中,评估人员故意尝试获得人工智能工具行为不端,没有最佳实践指南。

一些人担心所有这些承诺和保证还不够。

“志愿者协议本质上只是公司批改作业的一种方式,”独立研究机构艾达洛夫莱斯研究所副所长安德鲁·斯特雷特(Andrew Straight)说。 “它本质上并不能取代具有法律约束力和可执行性的规则,这些规则是激励这些技术负责任的开发所必需的。”

OpenAI 刚刚发布了自己的 10 点安全流程,并表示将致力于此——但其一位负责安全的高级工程师最近辞职了,他在 X 上写道,他的部门内部一直处于“逆风航行”的状态。

“在过去的几年里,安全文化和流程已经让位于闪亮的产品,”简·雷克 (Jan Leike) 表示。

当然,OpenAI 的其他团队也继续专注于安全和保障。

但目前,对于他们的实际行为还没有官方的、独立的监督。

“我们不能保证这些公司会遵守他们的承诺,”英国顶尖计算机科学家之一温迪·霍尔教授说。

“我们如何让他们对自己所说的话负责,就像我们对制药公司或其他高风险行业所做的那样?”

我们还可能会发现,一旦情况变得紧急,并且自愿协议变得更具可执行性,这些强大的技术领导者就会变得不那么顺从。

英国政府表示,如果大型科技公司推出的安全功能有可能危害国家安全,它希望有权暂停这些功能。对此,苹果公司威胁要撤下英国的这些服务,并称这是立法者“前所未有的越权行为”。

该法案已经通过,到目前为止,苹果公司仍然在这里。

欧盟的《人工智能法案》刚刚签署成为法律,这是第一部也是最严格的立法。不遵守规定的公司也会受到严厉处罚。但 Gartner 副总裁分析师 Nader Henein 表示,这给人工智能用户带来了比人工智能巨头本身更多的麻烦。

“我会说大多数 [of AI developers] “我们高估了该法案对他们的影响,”他说。

他解释说,任何使用人工智能工具的公司都必须对它们进行分类并对其进行风险评分,而提供人工智能的人工智能公司必须提供足够的信息才能做到这一点。

但这并不意味着他们就可以摆脱困境。

“我们需要逐步走向法律监管,但我们不能操之过急,”霍尔教授表示,“制定人人都遵守的全球治理原则确实很难。”

“我们还需要确保我们保护的是真正的全球性,而不仅仅是西方世界和中国。”

参加人工智能首尔峰会的人表示,峰会很有用。一位与会者表示,峰会“没有布莱切利峰会那么浮夸”,但讨论更多。有趣的是,峰会的总结声明已由 27 个国家签署,但中国没有签署,尽管中国派代表亲自出席了峰会。

与以往一样,最重要的问题是监管和政策的进展比创新慢得多。

霍尔教授认为,政府层面的“形势正在好转”。问题在于能否说服科技巨头等待他们的到来。

BBC InDepth 是网站和应用程序的新家,提供来自我们顶级记者的最佳分析和专业知识。 在一个独特的新品牌下,我们将为您带来挑战假设的新鲜视角,并对最大问题进行深入报道,以帮助您理解复杂的世界。 我们还将展示来自 BBC Sounds 和 iPlayer 的发人深省的内容。 我们从小事做起,但胸怀大志,我们想知道您的想法 – 您可以通过点击下面的按钮向我们发送您的反馈。

保持联系

InDepth 是 BBC 新闻最佳分析的新家园。告诉我们您的想法。


1716427481
2024-05-22 23:56:53

#斯嘉丽约翰逊的人工智能之争让人想起硅谷过去的糟糕时光

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​