谷歌研究显示人工智能生成的错误信息迅速增多

从虚假的战争图片到名人恶作剧,人工智能技术催生了网络上扭曲现实的新形式的虚假信息。谷歌研究人员共同撰写的新分析报告显示了这个问题发展得有多快。

这项研究由谷歌、杜克大学和多家事实核查和媒体组织的研究人员共同撰写, 以预印本形式发表 上周。该论文介绍了一个可追溯到 1995 年的庞大的新错误信息数据集,该数据集由 Snopes 等网站进行了事实核查。

据研究人员称,数据显示,人工智能生成的图像迅速受到关注,几乎与传统的处理形式一样受欢迎。

这项工作是 404 Media 首次报道 在被 Faked Up 新闻通讯发现后,它清楚地表明“直到去年年初,人工智能生成的图像只占内容操纵的极小部分”,研究人员写道。

去年,包括 OpenAI、微软和谷歌在内的科技巨头都发布了新的人工智能图像生成工具。该报告称,现在人工智能生成的错误信息“几乎与文本和一般内容操纵一样普遍”。

研究人员指出,事实核查人工智能图片数量的增加与人工智能炒作的普遍浪潮相吻合,这可能促使网站关注该技术。数据集显示,事实核查人工智能在最近几个月有所放缓,而传统的文本和图像处理则有所增加。

该图表显示了 2023 年初人工智能生成的图像错误信息的增加。 (杜福尔、帕塔克等人,2024)

该研究还调查了其他形式的媒体,发现视频恶作剧目前占所有经过事实核查的媒体报道的约 60%。

机器学习平台 Hugging Face 的领先人工智能伦理研究员 Sasha Luccioni 表示,这并不意味着人工智能生成的错误信息已经减少。

“我个人觉得这是因为 [examples of AI misinformation] “很难跟踪!”卢奇奥尼在一封电子邮件中说。“我自己也经常看到它们,甚至在社交媒体之外,比如在广告中。”

人工智能已被用来生成真人的假图像,其效果令人担忧。例如, 泰勒斯威夫特 今年早些时候流传。 404 媒体报道 用于创建图像的工具是微软的 AI 生成软件,该软件从 ChatGPT 制造商 OpenAI 获得许可——促使这家科技巨头关闭了允许生成图像的漏洞。

这项技术还能用一些更无害的方式欺骗​​人们。最近有假照片显示凯蒂·佩里出席了纽约的 Met Gala——但实际上她根本没有出席—— 在社交媒体上愚弄观察者 甚至这位明星的父母。

人工智能的兴起给社交媒体公司和谷歌本身带来了麻烦。虚假的名人图片已被 在 Google 图片搜索中占据显著位置 过去,由于 SEO 驱动的内容农场,搜索结果质量有所下降。使用人工智能操纵搜索结果违反了 Google 的政策。

观看 | 泰勒·斯威夫特的深度伪造视频下线。对于普通人来说,这并不容易:

泰勒·斯威夫特的深度伪造视频被下线。对于普通人来说,这并不容易

人工智能生成的泰勒·斯威夫特的色情假照在社交媒体上被疯狂转发,直到 17 小时后 X 才将其删除。但这一趋势日益增长,许多受害者缺乏手段、影响力和法律来实现同样的目标。

谷歌发言人没有立即发表评论。此前,一位发言人告诉科技新闻媒体 Motherboard,“当我们发现低质量内容排名很高时,我们会构建可扩展的解决方案,不仅针对某项搜索,而且针对一系列查询改善结果。”

为了应对人工智能造假问题,谷歌推出了以下举措: 数码水印标记,该技术会用人眼无法看见的标记将人工智能生成的图像标记为假图像。该公司与微软、英特尔和 Adob​​e 一起, 也在探索 让创作者可以选择在 AI 生成的图像中添加可见水印。

“我认为,如果大型科技公司能够合作制定人工智能水印标准,那么这肯定会对整个领域有所帮助,”Luccioni 说道。

1716948566
2024-05-28 20:31:23

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​