生成式人工智能挖掘了传统搜索引擎和虚拟助手的坟墓 | 技术

上周展示的人工智能 (AI) 最新进展意义非凡。那么,未来将会如何发展呢?

谷歌研究部门DeepMind主管德米斯·哈萨比斯(Demis Hassabis)的回答很明确:“迈向等于或超越人类智能的通用人工智能(AGI)。”

在过去十年中,我们拥有的设备(例如虚拟助手 Siri、Alexa、Hey Google 或 Bixby)在响应和执行链接设备上的操作方面功能有限。另一方面,自上个世纪末以来,搜索引擎帮助用户找到答案并根据用户需求提供服务。但两者的时代都屈指可数了。人工智能领域的进步已经开始为这两项服务挖掘坟墓,以便将它们统一为一个能够像人类一样对话、分析不同领域的文档(文本、图像或视频)、提供复杂的答案和解决方案并代表用户执行的单一平台。OpenAI 首席执行官 Sam Altman 表示,搜索引擎和虚拟助手将成为一种工具或“超级能干的同事”,将出现在我们生活的方方面面。

这些新进展代表着人工智能迈出了关键一步。到目前为止,我们拥有的人工智能工具包括语音助手(Siri 或 Alexa),它们已经理解自然语言,或者可以将文本请求转换为图像或视频的应用程序(Sora),或者可以创建文本或总结文档和会议的聊天机器人(ChatGPT)。谷歌和 OpenAI 最近几天发布的演进功能远不止这些。DeepMind 和十几所大学及实体的一份文件将它们定义为“具有自然语言界面的人工智能代理,其功能是代表用户规划和执行一系列动作——跨越一个或多个领域——符合用户的期望。”

根据最新研究,关键在于使用自然语言,这有助于与机器进行交互。这与机器的自主性相结合,可以制定计划并“代表用户”执行计划,在可以使用的资源方面具有横向性,并且能够根据用户的情况进行情境化以满足期望。人工智能不再是一个简单的工具:它是一个复杂的机器人,它知道它在和谁说话,以及它应该产生什么结果。“[Artificial general intelligence] 将对我们个人和集体生活产生深远影响,”该文件警告说。

除了这项研究发现的无数道德问题之外,现在开始的转变还带来了直接的技术后果:我们一直在使用的人工智能工具以一种独特的方式变得过时了。人工智能的发展已经开始取代我们迄今为止所熟知的搜索引擎和虚拟助手。

传统搜索引擎正在消亡

1998 年,拉里·佩奇和谢尔盖·布林在斯坦福大学相识并发表了《大型超文本网络搜索引擎的剖析》一书,之后他们成立了谷歌。通过这项研究,他们开发出了一种搜索引擎,在短短一年内,每天的查询量就达到 350 万次。现在,它是世界上使用率最高的搜索引擎,每天的信息请求量超过 35 亿次。但在这个瞬息万变的时代,我们所熟知的谷歌搜索引擎正开始走向衰落。谢尔盖·布林本人上周二在加利福尼亚州山景城的谷歌总部承认了这一过程。

“过去 25 年来,我们在搜索引擎上投入了大量资金。但我们需要考虑如何满足用户的新需求……我真的认为 [we can achieve this via] “谷歌 Gemini,”谷歌新任搜索主管 Liz Reid 表示,她的使命是开启一个新时代。Google Gemini 是该公司的 AI 聊天机器人工具,是 Open AI 的 ChatGPT 的竞争对手。

里德解释说,传统系统——她承认,它是一种“非常强大的工具”——需要“大量工作”才能维护。传统的搜索功能(称为“谷歌搜索”)用于搜索用户所在地附近的餐馆或其他服务,提供地址地图和网页列表。信息搜索者必须逐页滚动浏览每个页面来完成该过程。当然,那些付费显示在结果顶部的网站会首先被看到。谷歌用户还可以缩小搜索范围,指定他们需要哪种类型的食物或特定服务,直到他们获得更精确的网站列表。

显然,这个繁琐的过程即将结束。“我们彻底改变了它的运作方式,”谷歌首席执行官 Sundai Pichai 表示。Reid 也表示赞同:“我们建立了一个定制的 Gemini 模型,专门为搜索设计,将我们的实时信息与前所未有的质量和分类系统相结合。”

该指令保证,在进行的测试中,“人们点击的网站也更加多样化。”这一趋势将迫使 SEO 策略(搜索引擎优化)进行修改,SEO 策略是用于提高网站在搜索引擎结果中排名的技术。现在,公司必须适应人工智能处理信息的方式。

新的搜索引擎会规划、推理、理解用户的背景,并且根据用户的要求,执行产品或服务的购买订单、推荐附加组件或进行预订。

理解、观察、推理和计划

新的搜索引擎具有分步推理的能力。这样,它们可以要求您提供每周菜单,该菜单将根据您与它们的互动或提供的详细信息进行调整以适应您的口味。下一步可能是将其调整为适合素食主义者,并根据这种偏好修改已选择的食谱。

新的人工智能聊天机器人还能够提前规划。用户可以要求它们安排一次去任何地方的旅行,同时考虑到儿童和成人的活动。请求可以根据用户的兴趣进行定制,无论他们是自然爱好者,还是对文化充满热情。

同样,这些新的聊天机器人可以根据图像进行购买。用户只需上传视频并通过语音或文字指示哪个角色穿着他们想要的物品。结果随后将显示位置、价格和可用性。或者,用户可以简单地用手指圈出想要的衣服图片。或者,用户可以提供电器故障的顺序,聊天机器人可以提供有关维修服务的信息。

谷歌率先推出了新搜索引擎。不过,微软等其他公司也在推进具有类似功能的 Copilot,并得到了 OpenAI 的支持。

人工智能助手

OpenAI 一直是人工智能快速发展的推动力,但至今仍未推出类似产品。不过,该公司在过去一周取得了其他重大进展。另一方面,早在 4 月,谷歌就已经向使用谷歌云的客户展示了其下一代人工智能助手,谷歌云承载着开发人员的大部分工作。这些新助手将取代 Siri、Alexa 或 Hey Google 等工具。

5 月 13 日,就在谷歌宣布 Project Astra(其对未来 AI 助手的愿景)的 24 小时前,OpenAI 推出了 ChatGPT-4o,这是一款对话机器人,它还能够代表用户看、听、解决和执行任务。它可以通过网络和移动应用程序免费访问,但最先进的版本(功能强大五倍)每月收费 20 美元。

OpenAI 首席执行官 Sam Altman 在接受麻省理工学院采访时表示,他同意 DeepMind 的观点,认为这些新助手将彻底改变人们的生活 技术评论。Altman 还认为,通过语音或文本请求生成图像的 AI 工具(例如 DALL-E 或 Sora)或通过提示生成文本的 AI 工具(例如 ChatGPT 的初始版本)只是简单的工具。他认为,虽然它们用于单独的任务,但它们从我们与它们的对话中了解我们的能力有限。

华盛顿大学教授 Chirag Shah 与引领这些人工智能发展的大公司没有任何关系,他同意这一评估。“这 [new AI assistant] “它真的非常了解你……它可以为你做很多事情,可以处理多个任务和领域,”他告诉《麻省理工技术评论》。

谷歌的新助手名为 Astra。它将于 2024 年底全面投入使用。其最先进的版本将在 Google One 的 AI Premium 版本中提供,并将免费提供两个月。随后,用户每月将支付约 20 美元。谷歌正在努力将该助手纳入其手机、智能眼镜和其他设备中。“我们对所有格式持开放态度……但如果 OpenAI 维持有限的免费版本,我们可能不得不这样做,”一位谷歌高管在美国接受《国家报》采访时承认。他们要求不具名。

Demis Hassabis 进一步解释道:“我们处理的是不同的感官信息流。这些 [AI assistants] 可以更好地看到和听到我们所做的事情,了解我们所处的环境,并在对话中快速做出反应,从而提高互动的节奏和质量 [between the user and their device] 更加自然。”

凭借这些能力,Astra 和 ChatGPT-4o 能够通过手机陪伴用户。它们可以了解交互发生的背景,同时回答特定问题、解决数学问题、识别一页代码或解释我们可能遗失了某件物品。

这些惊人功能的主要用途是在工作场所或家中。例如,用户可以要求这些下一代人工智能助手识别费用(例如待付的保险费或电费),对其进行分析,将其显示在电子表格上并确定储蓄选项。

助理将筛选电子邮件、存储的文档以及任何包含费用信息的文件或网站(只要用户授予访问权限)。所有这些都将被组织和汇总,同时还将查阅相关服务提供商的网页。虚拟助理随后将提出一项储蓄计划,并且——如果用户要求的话——人工智能将执行续订或取消订阅等操作。

这些下一代人工智能助手有多种应用。其目标是让它们为用户提供全方位的支持。韩国电子和电信研究院社会机器人实验室的首席研究员 Minsu Jang 正在致力于开发用于任务规划的人工智能:“我们计划研究和开发能够在不确定情况下预测任务失败的技术,并改善人类寻求帮助时的反应。这项技术对于实现每家一台机器人的时代至关重要。”

优势与风险

DeepMind 委托十几所大学和实体开展的这项研究考察了通用人工智能领域的新发展,同时确定了它们的优势和风险。专家们强调,这些高级助手可以“赋予用户权力”,帮助他们实现目标或幸福,或者充当“导师、朋友或值得信赖的顾问”。在这方面,最近发表在《美国医学信息学协会杂志》(JAMIA)上的一项新研究揭示了 AGI 如何能够应对不同的情绪状态。

在对ChatGPT、Gemini和Llama(Meta)的评估中,伊利诺伊大学展示了这项技能的重要性。”[Next-generation AI assistants] 例如,可以帮助提高用户对健康行为的认识,增强他们改变的情感承诺, [make users] 意识到他们的习惯会如何影响周围的人,”该领域的研究员米歇尔·巴克解释道。

这些助手还可以帮助用户做出更明智的决定,或帮助他们发展创造力、个人培训或解决问题的能力。它们还可以帮助他们更有效地安排时间,为个人活动和家庭关系提供更多时间。

但这个乌托邦世界也有它的阴影。上周,OpenAI 安全部门发生了一起辞职事件。该公司的主要研究人员之一 Jan Leike 直言不讳,他在社交媒体上写道,公司更看重新产品的创造,而不是安全。在离开时,他对 X 进行了严厉的反思:“制造比人类更聪明的机器本质上是一项危险的事业。”

如果人工智能助手向用户返回的答案看似正确,但实际上却不正确甚至有害,那么它们还可能侵犯隐私并造成潜在的安全隐患。这些错误被称为幻觉,在现有工具中很常见。

同样,这些下一代 AGI 助手可以响应开发人员的特定兴趣,并将响应限制在他们可能涉及金钱的目标上,而不是用户的目标。它们还可以被编程为优先考虑个人用户的利益,而不是社区可能感受到的后果。

此外,这些虚拟助手还可以向社会灌输价值观,制造某些舆论潮流,或被用于恶意的网络攻击活动。“我们调查了 2023 年 9 月至 2024 年 2 月期间举行的 36 场议会、地区和总统选举,发现至少有 10 起案件中,带有语音克隆的视频和录音被用于虚假宣传活动。在 [upcoming] 欧洲大选之后,我们可以预计所有国家都会出现新一波欺骗现象,”Check Point Research 威胁情报小组主管 Sergey Shykevich 解释道。

注册 我们的每周新闻通讯 获取更多来自《国家报》美国版的英语新闻报道

1716700273
2024-05-26 04:05:00
#生成式人工智能挖掘了传统搜索引擎和虚拟助手的坟墓 #技术

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​