谷歌似乎正在手动删除一些奇怪的人工智能搜索答案

谷歌似乎正在手动停用其新 AI 搜索功能提供的一些奇怪答案, 据 The Verge 报道。

新的 AI 概览一直在指示用户做一些奇怪的事情,包括在披萨上涂胶水以及建议他们吃石头。

一些奇怪的答案在社交媒体上分享后开始消失,导致 猜测谷歌 手动删除它们。

谷歌发言人梅根·法恩斯沃思 (Meghann Farnsworth) 向 The Verge 表示,公司正在“迅速采取行动”,删除“根据我们的内容政策适当的情况下”针对某些查询的人工智能概览,并利用这些示例对我们的系统进行更广泛的改进,其中一些改进已经开始推出。”

由于不在正常工作时间,谷歌没有立即回应 Business Insider 的评论请求。

该公司此前曾告诉 BI,社交媒体上分享的 AI 概述的示例“通常是非常不常见的查询,并不代表大多数人的经历”。

谷歌表示,绝大多数 AI 概述“提供了高质量的信息”,并且在产品推出之前进行了“广泛的测试”。

该公司表示:“对于违反我们政策的行为,我们已经采取了行动,并且我们也会利用这些孤立的例子来继续完善我们的整体系统。”

这并不是谷歌第一次在推出人工智能产品后陷入困境。

今年早些时候发布 Gemini 模型后,这家搜索巨头发现自己陷入了一场“觉醒”文化战争的中心。在用户抱怨该模型生成的有色人种图像不符合历史事实后,谷歌暂停了 Gemini 的图像生成功能。

聊天机器人也面临批评 对于其一些书面回复,包括一个广为流传的例子,其中它似乎无法决定是否 伊隆马斯克或阿道夫希特勒 更糟的是。

这场争议导致一些批评人士声称,左翼员工对谷歌的文化产生了不成比例的影响,而这反过来又可能 影响人工智能模型的构建方式。

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​