谷歌研究显示人工智能生成的错误信息迅速增多

从虚假的战争图片到名人恶作剧,人工智能技术催生了网络上扭曲现实的新形式的虚假信息。谷歌研究人员共同撰写的新分析报告显示了这个问题发展得有多快。 这项研究由谷歌、杜克大学和多家事实核查和媒体组织的研究人员共同撰写, 以预印本形式发表 上周。该论文介绍了一个可追溯到 1995 年的庞大的新错误信息数据集,该数据集由 Snopes 等网站进行了事实核查。 据研究人员称,数据显示,人工智能生成的图像迅速受到关注,几乎与传统的处理形式一样受欢迎。 这项工作是 404 Media 首次报道 在被 Faked Up 新闻通讯发现后,它清楚地表明“直到去年年初,人工智能生成的图像只占内容操纵的极小部分”,研究人员写道。 去年,包括 OpenAI、微软和谷歌在内的科技巨头都发布了新的人工智能图像生成工具。该报告称,现在人工智能生成的错误信息“几乎与文本和一般内容操纵一样普遍”。 研究人员指出,事实核查人工智能图片数量的增加与人工智能炒作的普遍浪潮相吻合,这可能促使网站关注该技术。数据集显示,事实核查人工智能在最近几个月有所放缓,而传统的文本和图像处理则有所增加。 该图表显示了 2023 年初人工智能生成的图像错误信息的增加。 (杜福尔、帕塔克等人,2024) 该研究还调查了其他形式的媒体,发现视频恶作剧目前占所有经过事实核查的媒体报道的约 60%。 机器学习平台 Hugging Face 的领先人工智能伦理研究员 Sasha Luccioni 表示,这并不意味着人工智能生成的错误信息已经减少。 “我个人觉得这是因为 [examples of AI misinformation] “很难跟踪!”卢奇奥尼在一封电子邮件中说。“我自己也经常看到它们,甚至在社交媒体之外,比如在广告中。” 人工智能已被用来生成真人的假图像,其效果令人担忧。例如, 泰勒斯威夫特 今年早些时候流传。 404 媒体报道 用于创建图像的工具是微软的 AI 生成软件,该软件从 ChatGPT 制造商 OpenAI 获得许可——促使这家科技巨头关闭了允许生成图像的漏洞。 这项技术还能用一些更无害的方式欺骗​​人们。最近有假照片显示凯蒂·佩里出席了纽约的 Met Gala——但实际上她根本没有出席—— 在社交媒体上愚弄观察者 […]