山姆·奥尔特曼的戏剧表明科技界的更深层次分裂

时间这里很少 怀疑萨姆·奥尔特曼对公开赛的奉献精神人工智能,该公司处于人工智能的最前沿(人工智能)革命。 作为联合创始人和老板,他似乎像在之前的一家初创公司一样孜孜不倦地为公司的成功而努力,当时他的一心一意导致了坏血病的发作,这种疾病通常与过去时代的水手有关,他们在海上停留太久而无法接触到水。新鲜食品。 所以他的 突然被解雇 11 月 17 日,震惊了。 该公司董事会对奥尔特曼失去信心的原因尚不清楚。 有传言称人们对他的副业感到不安,并担心他扩张开放的速度太快人工智能该公司在不考虑安全影响的情况下提供商业产品,该公司还承诺为了“人类的最大利益”而开发这项技术。

该公司的投资者和部分员工目前正在寻求奥特曼先生的复职。 无论他们成功与否,很明显,公开赛上的赛事人工智能 这是硅谷日益扩大的分歧的最引人注目的表现。 一方面是“末日论者”,他们认为,如果不加以控制, 人工智能 对人类构成生存风险,因此提倡更严格的监管。 反对他们的是“婴儿潮一代”,他们淡化了对经济衰退的恐惧。 人工智能 启示录并强调其推动进步的潜力。 事实证明更有影响力的阵营可能会鼓励或阻碍更严格的监管,这反过来又可能决定谁将从中获利最多。 人工智能 将来。

打开人工智能的公司结构跨越了鸿沟。 该公司成立于 2015 年,是一家非营利组织,三年后成立了一家营利性子公司,以满足其对昂贵计算能力和人才的需求,以推动技术发展。 满足末日一代和婴儿潮一代的相互竞争的目标总是很困难。

这种分歧部分反映了哲学上的差异。 末日阵营中的许多人都受到“有效的利他主义”,这一运动关注的是以下可能性: 人工智能 消灭全人类。 担忧者包括 Dario Amodei,他离开了 OpenAI,创办了另一家模型制造商 Anthropic。 包括微软和亚马逊在内的其他大型科技公司也担心这一问题。 人工智能 安全。

婴儿潮一代拥护一种称为“有效加速主义”的世界观,它反驳了这样的观点: 人工智能 如果允许其不受阻碍地进行,则应加快速度。 领先者是风险投资公司 Andreessen Horowitz 的联合创始人马克·安德森 (Marc Andreessen)。 其他 人工智能 科学家们似乎对这一事业表示同情。 Meta 的 Yann LeCun 和 Andrew Ng 以及 Hugging Face 和 Mistral 等众多初创公司 人工智能 主张减少限制性监管。

奥特曼先生似乎对这两个群体都表示同情,他公开呼吁建立“护栏”,以确保 人工智能 同时按下“打开”按钮时安全人工智能 开发更强大的模型并推出新工具,例如供用户构建自己的聊天机器人的应用程序商店。 其最大投资者微软已向 Open 注资超过 100 亿美元人工智能 据称,他在没有获得母公司任何董事会席位的情况下获得了 49% 的股份,对此感到不满,因为他比奥特曼先生早了几分钟就知道了被解雇的消息。 如果他不回来,公开赛似乎很可能人工智能 将更加坚定地站在厄运者一边。

然而,似乎还有比抽象哲学更多的事情在发生。 碰巧的是,这两个群体也沿着更多的商业路线分裂。 末日论者是先行者 人工智能 种族,拥有更雄厚的财力并拥护专有模型。 另一方面,婴儿潮一代更有可能是正在迎头赶上、规模较小且更喜欢开源软件的公司。

从早期的赢家开始。 打开人工智能的聊天总蛋白 推出后短短两个月内就增加了 1 亿用户,紧随其后的是由 Open 叛逃者创立的 Anthropic人工智能 现在估值为 250 亿美元。 谷歌的研究人员撰写了关于大型语言模型的原始论文,大型语言模型是经过大量数据训练的软件,支撑着包括 Chat 在内的聊天机器人总蛋白。 该公司一直在生产更大、更智能的模型,以及名为 Bard 的聊天机器人。

与此同时,微软的领先地位很大程度上是建立在其对 Open 的巨大押注之上的。人工智能。 亚马逊计划向 Anthropic 投资 40 亿美元。 但在科技领域,先行并不总能保证成功。 在技​​术和需求都快速发展的市场中,新进入者有充足的机会颠覆现有企业。

这可能会进一步推动失败者推动更严格的规则。 奥尔特曼先生在五月向美国国会作证时表达了对该行业可能“对世界造成重大伤害”的担忧,并敦促政策制定者制定具体法规 人工智能。 同月一组350人 人工智能 科学家和技术高管,包括来自 Open 的科学家和技术高管人工智能、Anthropic 和谷歌签署了一份单行声明,警告该公司带来的“灭绝风险” 人工智能 与核战争和流行病同等重要。 尽管前景令人恐惧,但支持该声明的公司都没有暂停自己的建设更强大的工作 人工智能 楷模。

政客们正争先恐后地表明他们认真对待这些风险。 7 月,乔·拜登总统的政府推动了七家领先的模型制造商,包括微软、Open人工智能、Meta 和 Google 做出“自愿承诺”,让他们的 人工智能 产品在向公众发布之前均经过专家检验。 11 月 1 日,英国政府让一个类似的组织签署了另一项不具约束力的协议,允许监管机构测试他们的政策。 人工智能 产品具有可信赖性和有害能力,例如危害国家安全。 几天前,拜登发布了一项更具说服力的行政命令。 它迫使任何 人工智能 正在构建超过一定规模(由软件所需的计算能力定义)的模型的公司,以通知政府并分享其安全测试结果。

图片:经济学人

两个群体之间的另一个分歧是开源的未来 人工智能勒姆要么是专有的,比如来自 Open 的人工智能, Anthropic 和 Google,或者开源。 2月份发布的 骆驼是 Meta 创建的模型,刺激了开源活动 人工智能 (见图表)。 支持者认为开源模型更安全,因为它们可以接受审查。反对者担心让这些强大的模型变得强大 人工智能 公共模型将允许不良行为者将其用于恶意目的。

但围绕开源的争论也可能反映出商业动机。 例如,风险投资家是它的忠实粉丝,也许是因为他们为自己投资的初创公司寻找到了赶上前沿或免费获得模型的方法。 现有企业可能担心竞争威胁。 谷歌内部人士在 5 月份泄露的一份备忘录承认,开源模型在某些任务上取得的成果可与专有模型相媲美,而且构建成本要低得多。 该备忘录的结论是,谷歌和 Open人工智能 拥有针对开源竞争对手的防御性“护城河”。

到目前为止,监管机构似乎已经接受了悲观者的论点。 拜登先生的行政命令可能会阻碍开源 人工智能。 该命令对“军民两用”模型的广泛定义,可以具有军事或民用目的,对此类模型的制造商提出了复杂的报告要求,而这些模型也可能及时捕获开源模型。 目前尚不清楚这些规则的执行程度。 但随着时间的推移,比如新法律的通过,他们可能会取得进展。

并非所有大型科技公司都完全站在分歧的两边。 Meta 决定开源其 人工智能 模型使其成为初创公司意想不到的冠军,因为它为初创公司提供了构建创新产品的强大模型。 Meta 认为,开源工具带来的创新浪潮最终将通过生成更新形式的内容来帮助它,从而让用户着迷,让广告商满意。 苹果是另一个异类。 全球最大的科技公司对此保持沉默 人工智能。 在 9 月份推出新款 iPhone 时,该公司展示了众多 人工智能驱动功能而不提及该术语。 当受到激励时,其高管倾向于赞扬“机器学习”,这是机器学习的另一个术语。 人工智能

看起来很聪明。 公开赛的崩溃人工智能 表明文化战争的破坏性有多大 人工智能 可。 但正是这些战争将决定技术如何进步、如何监管以及谁会获得战利品。

See also  五件事要知道:英特尔的盈利预期和俄勒冈州增长最快的公司

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​