斯嘉丽·约翰逊的人工智能之争让人想起硅谷过去的糟糕岁月

“快速行动,打破陈规”这句座右铭在年轻的马克·扎克伯格 (Mark Zuckerberg) 提出大约 20 年后,仍然困扰着科技行业。

这五个词象征着硅谷最糟糕的一面——无情的野心和令人震惊的傲慢的结合——以利润为导向的创新,不惧怕后果。

这周,我想起了这句话 演员斯嘉丽约翰逊与 OpenAI 发生冲突。 约翰逊女士声称,她和她的经纪人都拒绝让她担任新产品 ChatGPT 的代言人——但当新产品发布时,听起来却和她一模一样。OpenAI 否认这是故意模仿。

这正是创意产业所担心的典型例子——被人工智能模仿并最终取代。

上周,全球最大的音乐出版商索尼音乐 写道 谷歌、微软和 OpenAI 要求了解其艺术家的歌曲是否被用来开发人工智能系统,并表示他们没有获得这样做的许可。

这一切都与昔日那些充满男子气概的硅谷巨头相呼应。 将寻求宽恕而不是许可作为非正式的商业计划。

但 2024 年的科技公司极力摆脱这种声誉。

OpenAI 并不是按照这个模式塑造的。 它最初是作为一个非营利组织而创建的,它将把任何额外的利润投资回业务中。

2019年,当它组建盈利部门时,他们表示盈利部门将由非营利部门主导,并对投资者可以获得的回报设定上限。

并不是所有人都对这一转变感到高兴——据说这是原联合创始人埃隆·马斯克决定离开的一个关键原因。

去年年底,当 OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 突然被自己的董事会解雇时,其中一个理论是他想远离最初的使命。 我们从未确定过。

但即便OpenAI已经变得更加以盈利为目的,它仍然必须正视自己的责任。

在政策制定领域,几乎所有人都同意,需要明确的界限,才能让 OpenAI 这样的公司在灾难发生之前保持一致。

到目前为止,人工智能巨头基本上都在纸上谈兵。 六个月前,在全球首届人工智能安全峰会上,一群科技巨头签署了一项自愿承诺,致力于打造负责任、安全的产品,最大限度地发挥人工智能技术的优势,并将其风险降至最低。

这些风险最初是由活动组织者确定的,它们简直就是噩梦。当时我问起人工智能工具对人类造成的更现实的威胁,比如歧视人类或取代人类的工作,他们非常肯定地告诉我,这次聚会只讨论绝对最坏的情况——这是终结者、世界末日、人工智能失控并摧毁人类的领域。

六个月后,当峰会重新召开时,“安全”一词已从会议标题中被彻底删除。

上周,由 30 名独立专家组成的英国政府报告草案得出的结论是, “还没有证据” 人工智能可以产生生物武器或进行复杂的网络攻击。 报告称,人类失去对人工智能控制的可能性“极具争议”。

业内一些人一直在说,人工智能工具最直接的威胁是它们将取代工作或无法识别肤色。人工智能伦理专家 Rumman Chowdhury 博士表示,这些才是“真正的问题”。

人工智能安全研究所拒绝透露是否对最近推出的任何新人工智能产品进行了安全测试。 尤其是 OpenAI 的 GPT-4o 和 Google 的 Project Astra,它们都是我迄今为止见过的最强大、最先进的生成式人工智能系统之一。 与此同时,微软推出了一款包含人工智能硬件的新型笔记本电脑——人工智能工具开始物理嵌入我们的设备中。

该独立报告还指出,目前还没有可靠的方法来准确理解为什么人工智能工具会产生这样的输出——即使是开发人员也是如此——并且既定的红队安全测试实践(评估人员故意试图让人工智能工具行为不当)没有最佳实践指南。

一些人担心所有这些承诺和保证还不够。

“志愿者协议本质上只是公司批改作业的一种方式,”独立研究机构艾达洛夫莱斯研究所副所长安德鲁·斯特雷特(Andrew Straight)说。 “它本质上并不能取代具有法律约束力和可执行性的规则,这些规则是激励这些技术负责任的开发所必需的。”

OpenAI 刚刚发布了自己的 10 点安全流程,并表示将致力于此——但其一位负责安全的高级工程师最近辞职了,他在 X 上写道,他的部门内部一直处于“逆风航行”的状态。

“在过去的几年里,安全文化和流程已经让位于闪亮的产品,”简·雷克 (Jan Leike) 表示。

当然,OpenAI 还有其他团队继续关注安全和保障。

但目前,还没有官方的独立监督来监督他们实际在做什么。

英国著名计算机科学家温迪·霍尔教授表示:“我们无法保证这些公司会遵守承诺。”

“我们如何让他们对自己所说的话负责,就像我们对制药公司或其他高风险行业所做的那样?”

我们还可能会发现,一旦情况变得紧急,并且自愿协议变得更具可执行性,这些强大的技术领导者就会变得不那么顺从。

当英国政府表示,如果大型科技公司推出的安全功能有可能危害国家安全,它希望有权暂停这些公司的安全功能时,苹果公司威胁要从英国撤下这些服务,称这是 “前所未有的过度扩张” 由立法者制定。

立法已经通过,到目前为止,苹果仍然存在。

欧盟的《人工智能法案》刚刚签署成为法律,这是第一部也是最严格的立法。不遵守规定的公司也会受到严厉处罚。但 Gartner 副总裁分析师 Nader Henein 表示,这给人工智能用户带来了比人工智能巨头本身更多的麻烦。

“我会说大多数 [of AI developers] “我们高估了该法案对他们的影响,”他说。

他解释说,任何使用人工智能工具的公司都必须对其进行分类和风险评分,而提供人工智能的人工智能公司必须提供足够的信息才能做到这一点。

但这并不意味着他们就可以摆脱困境。

“我们需要逐步走向法律监管,但我们不能操之过急,”霍尔教授表示,“制定人人都遵守的全球治理原则确实很难。”

“我们还需要确保它真正是全世界的,而不仅仅是我们保护的西方世界和中国。”

参加人工智能首尔峰会的人表示,感觉很有用。 一位与会者表示,它比布莱奇利“不那么浮华”,但讨论更多。 有趣的是,此次活动的结论声明有27个国家签署,但没有中国,尽管中国派了代表亲自到场。

与以往一样,最重要的问题是监管和政策的进展比创新慢得多。

霍尔教授相信,政府层面的“星星正在对齐”。 问题是能否说服科技巨头等待他们。

1716451649
2024-05-23 06:14:42

#斯嘉丽约翰逊的人工智能之争让人想起硅谷过去的糟糕岁月

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​