搜索初创公司 Perplexity 越来越多地引用人工智能生成的来源

今年 4 月,人工智能搜索初创公司 Perplexity 的首席执行官 Aravind Srinivas 告诉《福布斯》,“引用量就是我们的货币。”现在,该公司越来越多地引用人工智能生成的各种主题的博客文章。

科视Christie Hemm 福布斯时钟

人工智能搜索引擎 Perplexity 声称与 ChatGPT 等其他生成式人工智能工具不同。它不会在不包含任何来源的情况下重复数据,而是用脚注标记任何主题的简短摘要,这些脚注应该链接到从互联网上获取的最新和可靠的实时信息来源。“引用就是我们的货币,”首席执行官 Aravind Srinivas 告诉 福布斯 在四月份。

尽管这家初创公司因未经适当授权转载记者作品而受到批评, 福布斯 据了解,Perplexity 还引用了人工智能生成的博客作为权威来源,其中包含不准确、过时甚至相互矛盾的信息。

根据 学习 由人工智能内容检测平台 GPTZero 进行的一项研究显示,Perplexity 的搜索引擎正在从人工智能生成的帖子中提取信息并引用这些帖子,这些帖子涉及各种主题,包括旅游、体育、食品、科技和政治。该研究通过 GPTZero 的人工智能检测软件来确定某个来源是否由人工智能生成,该软件可以估计一篇文章由人工智能编写的可能性,准确率为 97%;在这项研究中,只有当 GPTZero 至少 95% 确定这些来源是由人工智能编写时,这些来源才被视为由人工智能生成的(福布斯 通过一个名为 DetectGPT 的附加 AI 检测工具对它们进行运行,该工具的准确率高达 99%,可以证实 GPTZero 的评估)。

该研究测试了 100 多个提示,结果表明,Perplexity 用户平均只需要输入三个提示就会遇到 AI 生成的源。

GPTZero 首席执行官 Edward Tian 表示:“困惑度的好坏取决于其来源。如果来源是人工智能的幻觉,那么输出也是如此。”

“困惑的程度取决于其来源。如果来源是人工智能的幻觉,那么输出也是如此。”

GPTZero 联合​​创始人兼首席执行官 Edward Tian

Perplexity 首席商务官 Dmitri Shevelenko 在电子邮件声明中表示 福布斯 该公司的系统“并非完美无缺”,该公司通过改进识别相关和高质量来源的流程不断改进其搜索引擎。Perplexity 通过为不同域及其内容分配“信任分数”将来源分类为权威来源。他说,其算法会降低排名并排除包含大量垃圾邮件的网站。例如,微软和 Databricks 的帖子在搜索结果中的优先级高于其他帖子,Shevelenko 说。

“作为这一过程的一部分,我们开发了自己的内部算法来检测内容是否由人工智能生成。与其他检测器一样,这些系统并不完美,需要不断完善,尤其是随着人工智能生成的内容变得越来越复杂,”他说。

随着人工智能生成的垃圾充斥互联网,区分真实内容和虚假内容变得越来越困难。田说,这些合成帖子越来越多地流入依赖网络资源的产品,带来了其中的不一致或不准确性,导致了“二手幻觉”。

“互联网不需要 50% 都是人工智能,就可以开始创建这个人工智能回音室,”他告诉 福布斯。

在多个场景中,Perplexity 依靠人工智能生成的博客文章以及其他看似可靠的来源来提供健康信息。例如,当 Perplexity 被提示提供“一些治疗细菌感染的青霉素替代品”时,它直接引用了一家自称宾夕法尼亚大学医学贝克尔耳鼻喉科和过敏诊所的人工智能生成的博客。(根据 GP零,该博客是 AI 生成的可能性为 100%。DetectGPT 表示,该博客是假的的可能性为 94%。)

此类数据来源远非可靠,因为它们有时会提供相互矛盾的信息。人工智能生成的博客提到,对于对青霉素过敏的人,可以使用头孢菌素等抗生素作为青霉素的替代品,但几句话之后,该帖子自相矛盾,称“对青霉素过敏的人应避免使用头孢菌素”。田说,这种矛盾也反映在 Perplexity 的人工智能系统生成的答案中。然而,聊天机器人确实建议咨询专家,以获得最安全的替代抗生素。

有小贴士给我们吗?请安全地联系 Rashi Shrivastava,邮箱地址为 [email protected],或致电 Signal 上的 rashis.17。

宾夕法尼亚大学贝克尔耳鼻喉科和过敏科客户服务代表已重定向 福布斯 宾夕法尼亚大学医学院。但为了回应 福布斯 当被问及该诊所为何使用人工智能生成提供医疗建议的博客时,宾夕法尼亚大学医学院发言人 Holly Auer 表示,该专科医生的网站并非由宾夕法尼亚大学医学院管理,并且“准确性和编辑完整性是与我们品牌相关的所有网络内容的关键标准,我们将调查这些内容并根据需要采取行动。目前还不清楚谁负责管理该网站。

舍维连科表示,该研究的例子并没有对 Perplexity 引用的来源进行“全面的评估”,但他拒绝分享该系统引用的来源类型的数据。

“实际情况是,这在很大程度上取决于用户询问的类型和他们的位置,”他说。“如果有人在日本询问购买哪种电视最好,那么他得到的来源与如果有人在美国询问购买哪种跑鞋最好,那么他得到的来源将大不相同。”

GPTZero 的研究指出,Perplexity 搜索“埃里克·施密特的人工智能战斗无人机”(Perplexity 登陆页面上的“预先推荐”搜索主题之一)时,也使用了 博客文章 这篇文章的来源之一是人工智能。(GPTZero 发现,该博客由人工智能生成的可能性为 98%,而 DetectGPT 则表示有 99% 的把握。)

“当你使用这样的提法时,即使没有故意,也更容易传播虚假信息。”

扎克·舒梅洛夫 (Zak Shumaylov),剑桥大学机器学习研究员。

A 有线 调查发现,这家初创公司还通过一个秘密 IP 地址访问并抓取了 有线 以及媒体公司旗下的其他出版物 康泰纳仕集团 尽管其工程师曾试图阻止 Perplexity 的网络爬虫窃取内容。即便如此,该搜索引擎仍倾向于编造不准确的信息并归因于 虚假引文 斯里尼瓦斯没有回应 有线 但同时表示,“Wired 的质疑反映出人们对 Perplexity 和互联网运作方式存在着深刻而根本的误解。”

Srinivas 在 2022 年创办 Perplexity 之前曾是 OpenAI 的研究员,他已经筹集了超过 1.7 亿美元的风险投资(根据 Pitchbook)。该公司的支持者包括科技界一些最知名的人物,包括亚马逊创始人杰夫·贝佐斯、谷歌首席科学家杰夫·迪恩、前 YouTube 首席执行官苏珊·沃西基、Open AI 联合创始人安德烈·卡帕西和 Meta 首席科学家 Yann LeCun。最近几个月,它的对话式搜索聊天机器人人气爆棚,拥有 1500 万用户,其中包括 Nvidia 首席执行官黄仁勋和戴尔创始人兼首席执行官迈克尔·戴尔等亿万富翁。

Perplexity 使用一种称为“RAG”或检索增强生成的过程,该过程允许人工智能系统从外部数据源检索实时信息以改善其聊天机器人的响应。但专家表示,这些来源的质量下降可能会直接影响人工智能产生的响应。

剑桥大学机器学习研究员扎克·舒梅洛夫表示,如果实时数据本身存在偏差或不准确性,那么任何基于这些数据构建的应用程序最终都可能经历一种称为 模型崩溃其中,使用人工智能生成的数据进行训练的人工智能模型开始“胡言乱语,因为不再有信息,只有偏见”。

他说:“当你使用这样的提法时,即使没有故意,也更容易传播虚假信息。”

依赖低质量的网络资源是人工智能公司面临的普遍挑战,其中许多公司根本不引用来源。今年 5 月,谷歌的“AI 概览”功能(使用人工智能生成主题预览)产生了一系列误导性回应,例如建议在披萨上加胶水来粘奶酪,以及声称吃石头对健康有益。部分问题在于,该系统似乎从未经审查的来源提取信息,例如 Reddit 上的讨论论坛和讽刺网站,例如 洋葱。 谷歌搜索主管利兹·里德 (Liz Reid) 在接受采访时承认, 博客 谷歌出现一些错误结果的部分原因是某些主题缺乏高质量信息。

“困惑只是一个例子,”田说。“它只是一种症状,而不是全部问题。”

福布斯更多报道

福布斯热门 AI 搜索引擎 Perplexity 直接抄袭新闻媒体内容作者:Sarah Emerson福布斯“我想要那个可爱的宝贝”:人工智能生成的孩子在 TikTok 和 Instagram 上吸引掠食者作者:Alexandra S. Levine福布斯维诺德·科斯拉、马克·安德森和亿万富翁争夺 AI 的未来作者:Alex Konrad福布斯Stability AI 创始人如何搞砸了他价值数十亿美元的初创公司作者:Kenrick Cai

1719426823
2024-06-26 17:47:13
#搜索初创公司 #Perplexity #越来越多地引用人工智能生成的来源

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​