谷歌的人工智能概述将永远被打破。这就是人工智能的工作原理

一周后,其算法建议人们 吃石头 并把 在披萨上涂胶水谷歌周四承认,它需要对其大胆的生成式人工智能搜索功能做出调整。这一事件凸显了谷歌积极推动生成式人工智能商业化的风险,以及该技术的危险和根本局限性。

谷歌的 AI 概览功能借鉴了 Gemini,这是一个大型语言模型,类似于 OpenAI 的 ChatGPT,它通过总结在线信息来生成一些搜索查询的书面答案。当前的 AI 热潮建立在法学硕士令人印象深刻的文本流畅性之上,但该软件也可以利用这种能力对谎言或错误进行令人信服的粉饰。使用该技术总结在线信息承诺可以使搜索结果更容易消化,但当在线资源具有收缩性或人们可能使用这些信息做出重要决策时,这是危险的。

“现在,凭借法学硕士学位,你可以相当快地获得一个快速的原型,但要真正让它不告诉你吃石头,还需要做很多工作,”理查德·索彻 (Richard Socher) 说,他作为一名研究员为语言人工智能做出了重要贡献,并于 2021 年底推出了一款以人工智能为中心的搜索引擎,名为 优网

Socher 表示,争取法学硕士学位需要付出相当大的努力,因为底层技术并没有真正理解这个世界,而且网络上充斥着不可信的信息。“在某些情况下,最好不要只给你一个答案,或者向你展示多种不同的观点,”他说。

谷歌搜索业务主管 Liz Reid 在公司 周四晚些时候发表的博客文章 在推出 AI Overviews 之前,该公司进行了广泛的测试。但她补充说,像吃石头和胶水披萨的例子这样的错误——谷歌的算法分别从一篇讽刺文章和一篇诙谐的 Reddit 评论中提取信息——促使谷歌进行了额外的改变。谷歌表示,这些改变包括更好地检测“无意义的查询”,并使系统减少对用户生成内容的依赖。

Socher 表示,You.com 经常会避免谷歌 AI 概览所显示的错误,因为他的公司开发了大约十几种技巧来防止 LLM 在用于搜索时出现故障。

“我们之所以更准确,是因为我们投入了大量资源来提高准确性,”Socher 说。You.com 还使用定制的网络索引,旨在帮助法学硕士避开错误信息。它还从多个不同的法学硕士中选择答案来回答特定查询,并使用可以解释来源矛盾的引用机制。不过,让人工智能搜索正确无误还是很棘手的。《连线》杂志周五发现 You.com 未能正确回答已知会绊倒其他人工智能系统的查询,并表示“根据现有信息,没有以字母‘K’开头的非洲国家。”在之前的测试中,它都顺利通过了这项查询。

谷歌对其使用最广泛、利润最高的产品进行生成式人工智能升级,是整个科技行业重启的一部分,这一举措受到 OpenAI 于 2022 年 11 月发布聊天机器人 ChatGPT 的启发。ChatGPT 首次亮相几个月后,OpenAI 的主要合作伙伴微软利用其技术升级了其同样落后的搜索引擎必应。升级后的必应受到人工智能生成的错误和奇怪行为的困扰,但该公司首席执行官萨蒂亚·纳德拉 (Satya Nadella) 表示,此举旨在挑战谷歌, “我想让人们知道我们让他们跳舞。”

一些专家认为,谷歌的 AI 升级有些仓促。“我很惊讶他们推出了这项功能,因为它可以处理很多查询,包括医疗、财务查询,我以为他们会更谨慎,” 巴里·施瓦茨,Search Engine Land 的新闻编辑,Search Engine Land 是一家跟踪搜索行业的出版物。他补充说,该公司应该更好地预料到有些人会故意试图搞砸 AI Overviews。“谷歌必须聪明地处理这个问题,”施瓦茨说,尤其是当他们在最有价值的产品上将结果显示为默认结果时。

莉莉·雷搜索引擎优化顾问 Ray 曾担任 AI Overviews 之前原型的 beta 测试员一年,谷歌将其称为“搜索生成体验”。她说,考虑到之前的版本经常出错,她对上周出现的错误并不感到惊讶。“我认为它几乎不可能总是把所有事情都做对,”Ray 说。“这就是人工智能的本质。”

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​