谷歌似乎正在手动删除一些奇怪的人工智能搜索答案

谷歌似乎正在手动停用其新 AI 搜索功能提供的一些奇怪答案, 据 The Verge 报道。 新的 AI 概览一直在指示用户做一些奇怪的事情,包括在披萨上涂胶水以及建议他们吃石头。 一些奇怪的答案在社交媒体上分享后开始消失,导致 猜测谷歌 手动删除它们。 谷歌发言人梅根·法恩斯沃思 (Meghann Farnsworth) 向 The Verge 表示,公司正在“迅速采取行动”,删除“根据我们的内容政策适当的情况下”针对某些查询的人工智能概览,并利用这些示例对我们的系统进行更广泛的改进,其中一些改进已经开始推出。” 由于不在正常工作时间,谷歌没有立即回应 Business Insider 的评论请求。 该公司此前曾告诉 BI,社交媒体上分享的 AI 概述的示例“通常是非常不常见的查询,并不代表大多数人的经历”。 谷歌表示,绝大多数 AI 概述“提供了高质量的信息”,并且在产品推出之前进行了“广泛的测试”。 该公司表示:“对于违反我们政策的行为,我们已经采取了行动,并且我们也会利用这些孤立的例子来继续完善我们的整体系统。” 这并不是谷歌第一次在推出人工智能产品后陷入困境。 今年早些时候发布 Gemini 模型后,这家搜索巨头发现自己陷入了一场“觉醒”文化战争的中心。在用户抱怨该模型生成的有色人种图像不符合历史事实后,谷歌暂停了 Gemini 的图像生成功能。 这 聊天机器人也面临批评 对于其一些书面回复,包括一个广为流传的例子,其中它似乎无法决定是否 伊隆马斯克或阿道夫希特勒 更糟的是。 这场争议导致一些批评人士声称,左翼员工对谷歌的文化产生了不成比例的影响,而这反过来又可能 影响人工智能模型的构建方式。