Anthropic 如何设计自己以避免 OpenAI 的错误

去年感恩节,布莱恩·伊斯雷尔发现自己被一次又一次地问到同样的问题。 人工智能实验室 Anthropic 的总法律顾问和科技界的其他人一样,目瞪口呆地看着这一切:距离 Anthropic 旧金山总部仅两英里的地方,其主要竞争对手 OpenAI 似乎正在崩溃。 OpenAI 董事会解雇了首席执行官山姆·奥特曼,称他失去了董事会的信任,此举似乎可能会让这家初创公司 800 多亿美元的估值一落千丈。此次解雇之所以发生,是因为 OpenAI 奇怪的公司结构,其董事没有为股东增加利润的受托责任——奥特曼本人曾参与设计这一结构,以便 OpenAI 能够构建强大的人工智能,不受市场不正当激励的影响。对许多人来说,这个计划似乎适得其反。五天后,在 OpenAI 的主要投资者微软、风险投资家和 OpenAI 自己的员工(他们持有该公司的宝贵股权)的施压下,奥特曼恢复了首席执行官一职,解雇他的三名董事中有两名辞职。“人工智能现在属于资本家,”《纽约时报》 時間 结论是,OpenAI 开始组建新的董事会,它看起来更适合一家高增长公司,而不是担心强大人工智能危险的研究实验室。 因此,那个周末,Anthropic 的投资者和客户疯狂地向以色列询问:同样的事情会发生在 Anthropic 吗? Anthropic 与 OpenAI 一样,都是顶级的人工智能实验室,但其公司结构也非常另类。该公司也采用了类似的结构,以确保能够开发人工智能,而无需为了追求利润而偷工减料。但相似之处也就到此为止了。对于感恩节期间提出问题的所有人,Israel 的回答都是一样的:OpenAI 发生的事情不能发生在我们身上。 阅读更多: 在 Anthropic 内部,这家人工智能公司认为安全可以成为一种制胜策略 在 OpenAI 灾难发生之前,关于人工智能公司治理的问题似乎并不明晰。但现在很明显,人工智能公司的结构对于谁控制 21 世纪最强大的技术有着至关重要的影响。随着人工智能变得越来越强大,风险只会越来越高。5 月初,OpenAI 安全方面的两位领导人辞职。其中一位是 Jan Leike,他在一份离职声明中表示,安全已经“让位于闪亮的产品”,并表示如果 OpenAI 要安全地开发先进的人工智能,就需要进行“文化变革”。周二,Leike 宣布他已转投 Anthropic。(Altman 承认 Leike 的批评,说“我们还有很多事情要做;我们致力于去做。”) Anthropic 以其不同于 […]