谷歌人工智能概述可能会产生错误的医疗信息

上个月 谷歌 推出了新的人工智能搜索工具,名为 AI 概览该公司似乎确信已经对该工具进行了充分测试,并在公告中指出,“人们已经通过我们的 实验 在搜索实验室中。”该工具并不像典型的 谷歌 搜索,但返回基于各种来源生成的答案,并在答案下方链接。但在启动后,用户立即开始发布 极其错误答案的例子,包括使用胶水的披萨食谱,以及一只狗曾经在 NBA 打过球的有趣事实。

作为斯坦福大学互联网观察站的技术研究经理,蕾妮·迪雷斯塔 (Renée DiResta) 多年来一直在追踪网上错误信息。

虽然披萨食谱不太可能说服任何人挤上 艾尔默,AI Overview 中的错误答案并非全都是如此明显——而且有些可能会造成很大危害。 蕾妮·迪雷斯塔 多年来一直追踪网上虚假信息,担任 斯坦福互联网观测站 并且有一个 新书 了解那些“把谎言变成现实”的网络宣传者。她研究了 医疗错误信息 通过社交媒体,所以 IEEE 频谱 与她讨论了人工智能搜索是否会给粗心的用户带来大量错误的医疗建议。

我知道您多年来一直在追踪网络上的虚假信息。您是否认为,像谷歌的 AI Overviews 这样的 AI 增强搜索工具的推出会让情况变得更糟还是更好?

蕾妮·迪雷斯塔: 这是一个非常有趣的问题。谷歌长期以来实施的一些政策似乎与人工智能生成的搜索产生了矛盾。这让我觉得谷歌试图跟上市场的发展步伐。生成人工智能工具的发布速度令人难以置信地快,我们看到大型科技公司试图确保自己保持竞争力。我认为这是正在发生的事情之一。

我们早就知道,大型语言模型会产生幻觉。这并不是什么新鲜事。我认为,将它们部署到搜索领域是仓促且考虑不周的,因为人们希望搜索引擎能为他们提供权威信息。这是你对搜索的期望,而你可能对社交媒体没有这种期望。

迪雷斯塔: 是的。它返回的信息是从训练数据中合成的。问题是,它似乎没有遵循谷歌长期以来对返回健康信息搜索结果的思考标准。我的意思是,谷歌到目前为止已经有 10 多年的搜索政策,叫做 你的金钱或你的生命。你熟悉这个吗?

我不这么认为。

“你的钱还是你的命”这一框架长期以来一直指导着谷歌在这些高风险话题上的工作。这就是为什么我认为,当人们看到人工智能生成的搜索结果重复出现明显错误的健康信息(这些信息来自可能恰好出现在训练数据中的低质量网站)时,他们会感到不安。

那么看起来 AI 概述似乎并没有遵循同样的政策——或者从外部看起来是这样?

迪雷斯塔: 从外部来看就是这样。我不知道他们内部是怎么想的。但你看到的那些截图——很多这样的事例都可以追溯到孤立的社交媒体帖子或一个名声不佳但确实存在的诊所——都在网上。这不仅仅是编造。但它也没有给出我们认为的高质量回应结果。

我看到谷歌对一些问题的回应是 一篇博客文章 表示他们意识到了这些糟糕的结果,并正在努力做出改进。我可以给你读一下关于健康的一个要点。它说:“对于新闻和健康等主题,我们已经建立了强大的护栏。在健康方面,我们推出了额外的触发改进措施,以加强我们的质量保护。”你知道这意味着什么吗?

迪雷斯塔: 该博客文章解释了 [AI Overviews] 不仅仅是 产生幻觉— 它指向 URL 这一事实应该是一种护栏,因为它使用户能够跟踪结果的来源。这是一件好事。他们应该包括这些来源,以提高透明度,以便外部人员可以对其进行审查。然而,考虑到谷歌通过在其健康信息搜索排名中返回高质量的结果而逐渐建立起来的信任,这也是对观众的一项相当大的责任。

我知道多年来您一直在关注的一个主题是有关疫苗安全性的虚假信息。您是否看到过此类虚假信息进入 AI 搜索的证据?

迪雷斯塔: 我没有,不过我想外部研究团队现在正在测试结果,看看会出现什么。疫苗一直是健康错误信息讨论的焦点,我想谷歌已经派人专门在内部审查中关注这个话题,而其他一些话题可能不是质量团队关注的重点。 负责检查 如果返回的是坏结果。

您认为谷歌下一步应该采取什么措施来防止人工智能搜索中出现医疗错误信息?

迪雷斯塔: 谷歌有一套非常好的政策要执行。你的钱还是你的生命是一条坚实的道德准则,可以融入到搜索未来的体现中。所以我认为,这并不是说需要建立一种新的、新颖的道德基础。我认为,更重要的是确保现有的道德基础仍然是新人工智能搜索工具的基础。

2024-06-13 13:00:04
1718532700

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​