硅谷的人工智能游戏预测人类灭绝

的可能性 人工智能 生成(AI)是巨大的。 今天,由于使用了诸如 聊天GPT,也许您组织了一次纽约之旅,这减轻了工作量,让机器人值班为您查找信息或撰写电子邮件。 这还不错,但真正有趣的事情将在中期出现; 当机器变得比最聪明的人类更聪明时。 那么工作日将会减少,一个人就可以经营价值数十亿欧元的公司。 至少,这是一些技术专家所希望的。 是的,只要认真开发就可以。 否则,他们指出算法最终可能会以最纯粹的终结者风格绘制未来的反乌托邦。 只是,这一次,是在银幕之外。

在硅谷这个卓越科技人才的摇篮,甚至已经开始进行统计数据,称为 p(厄运) ——类似于“诅咒的概率”——值班的商人在其中指出,在他看来,机器最终威胁人类的概率是多少。 取决于你问的是谁,这种可能性或多或少是存在的。 例如,根据’纽约时报”,联邦贸易委员会主席莉娜·汗认为,这种可能性为 15%。 初创公司 Anthropic 的首席执行官 Darío Amodei 的看法有些悲观,他指出“在 10% 到 25% 之间”。 这是一个相当窄的范围,至少与 Emmet Shear 提出的 5% 或 50% 相比,Emmet Shear 于去年 11 月担任 OpenAI 临时首席执行官几天,就在之前 山姆·奥尔特曼重新夺回自己的位置

虽然未知 p(厄运) 对于重新上任的首席执行官来说,众所周知,他看到了技术未来的风险。 去年春天,他在美国国会大厦举行的听证会上警告说:“如果出了问题,事情可能会变得非常糟糕。” 但这并不意味着我们必须放慢人工智能的发展速度。 他不打算这样做,这显然就是为什么该初创公司的前任董事会试图免除他的服务。 虽然,当然,不是唯一的一个。

在 OpenAI 首席执行官再次出任 OpenAI 首席执行官数小时后,《路透社》报道称,据称离职的触发因素是发现了一个有潜力成为人工智能的人。 对人类的“威胁”。 关于解决方案几乎一无所知; 只是他对Q-Star的名字做出了回应,如今他已经能够做小学生水平的数学题了。 SciTheWorld 人工智能卓越中心执行董事兼全球人工智能协会全球人工智能监管部门联席主席 Sergio Álvarez-Teleña 解释说:“他们甚至没有选择如何称呼它。”在与 ABC 的对话中。 依赖于 OECD 和 G7。

“这个名字来自 q-learning,这是一种已经使用多年的强化学习技术,”Álvarez-Teleña 说。 «它的工作原理就像你要求机器人离开房间一样。 “她会多次碰壁,直到她明白为止,”她继续说道。 当被问及这些特征的解决方案是否可能威胁人类时,这位高管笑了笑,很快就解决了这个问题:“不,不,不。 这都是一种营销策略。 “他们非常擅长制造噪音。”

AGI的到来

奥特曼和他的公司表示,随着通用人工智能(AGI)的未来出现,人类面临的潜在危险将随之而来,它可能“很快或在遥远的未来到来”; 但根据该高管最近在其社交网络上做出的预测,至少不会在 2024 年发生。 无论知识领域如何,该算法都比最有能力的人类更有能力,并且可以以类似的方式进行推理。

在去年春天与科学家和商人签署的一封信中,奥特曼更加提高了声音,甚至指出: 人工智能带来的“灭绝风险”必须缓解。 去年五月,他在美国国会大厦和马德里等几个欧洲城市发表了或多或少相同的言论。 人工智能初创公司 DeepMind 的首席执行官 Demis Hassabis 或谷歌前高管杰弗里·辛顿 (Geoffrey Hinton) 几周前与 Meta 的人工智能主管 Yann LeCun 讨论了 X 的话题,完全不相信该技术最宿命的预言。

LeCun的例子也不例外。 数千名其他学者和专家对此表示怀疑。 既有 AGI 终结人类的潜力,也有 Q-Star 项目所构成的所谓威胁。 其中包括 AI 专家、IBM 欧洲研究院院长 Juan Bernabé。 他也完全不确定 AGI 是否会很快到来:“我们还没有到那个时候。 “你可以在数据中看到一些推理的曙光,但这仍然是一个研究领域。” “人工智能进步的事实并不意味着它可以发展出主宰世界的趋势。 我们人类是创造它并引导它的人”,他补充道。

阿尔瓦雷斯-特莱尼亚表示,许多科学家批评了有关人工智能发展的最具末日论的立场,这些担忧主要是为了满足大公司的利益,以转移监管机构对实际问题的注意力,例如缺乏人工智能培训的透明度。 他还指出,正在尝试“设置障碍”,阻止小公司竞争。

1704691233
#硅谷的人工智能游戏预测人类灭绝
2024-01-07 17:52:44

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​