谷歌研究显示人工智能生成的错误信息迅速增多

从虚假的战争图片到名人恶作剧,人工智能技术催生了网络上扭曲现实的新形式的虚假信息。谷歌研究人员共同撰写的新分析报告显示了这个问题发展得有多快。 这项研究由谷歌、杜克大学和多家事实核查和媒体组织的研究人员共同撰写, 以预印本形式发表 上周。该论文介绍了一个可追溯到 1995 年的庞大的新错误信息数据集,该数据集由 Snopes 等网站进行了事实核查。 据研究人员称,数据显示,人工智能生成的图像迅速受到关注,几乎与传统的处理形式一样受欢迎。 这项工作是 404 Media 首次报道 在被 Faked Up 新闻通讯发现后,它清楚地表明“直到去年年初,人工智能生成的图像只占内容操纵的极小部分”,研究人员写道。 去年,包括 OpenAI、微软和谷歌在内的科技巨头都发布了新的人工智能图像生成工具。该报告称,现在人工智能生成的错误信息“几乎与文本和一般内容操纵一样普遍”。 研究人员指出,事实核查人工智能图片数量的增加与人工智能炒作的普遍浪潮相吻合,这可能促使网站关注该技术。数据集显示,事实核查人工智能在最近几个月有所放缓,而传统的文本和图像处理则有所增加。 该图表显示了 2023 年初人工智能生成的图像错误信息的增加。 (杜福尔、帕塔克等人,2024) 该研究还调查了其他形式的媒体,发现视频恶作剧目前占所有经过事实核查的媒体报道的约 60%。 机器学习平台 Hugging Face 的领先人工智能伦理研究员 Sasha Luccioni 表示,这并不意味着人工智能生成的错误信息已经减少。 “我个人觉得这是因为 [examples of AI misinformation] “很难跟踪!”卢奇奥尼在一封电子邮件中说。“我自己也经常看到它们,甚至在社交媒体之外,比如在广告中。” 人工智能已被用来生成真人的假图像,其效果令人担忧。例如, 泰勒斯威夫特 今年早些时候流传。 404 媒体报道 用于创建图像的工具是微软的 AI 生成软件,该软件从 ChatGPT 制造商 OpenAI 获得许可——促使这家科技巨头关闭了允许生成图像的漏洞。 这项技术还能用一些更无害的方式欺骗​​人们。最近有假照片显示凯蒂·佩里出席了纽约的 Met Gala——但实际上她根本没有出席—— 在社交媒体上愚弄观察者 […]

随着人工智能变得越来越像人类,专家警告用户必须更加批判性地思考其反应

科技巨头谷歌宣布升级其人工智能技术,就在竞争对手 OpenAI 宣布对其产品进行类似改变的一天后,两家公司都试图主导这个快速新兴的市场,在这个市场中,人类可以向计算机系统提出问题,并在人工智能中获得答案。人类反应的风格。 这是推动 ChatGPT 等人工智能系统不仅更快、而且更全面地立即做出响应而无需提出多个问题的努力的一部分。 周二,谷歌演示了如何将人工智能响应与其有影响力的搜索引擎的一些结果合并。 作为年度开发者大会的一部分,谷歌承诺将开始使用人工智能来提供问题和搜索的摘要,其中至少有一些在页面顶部被标记为人工智能。 谷歌的人工智能生成的摘要目前仅在美国可用,但它们将使用对话语言编写。 OpenAI 最近还宣布对其旗舰产品进行更新,允许人工智能和人类用户之间进行对话交互。 (达多·鲁维克/路透社) 与此同时,OpenAI 新发布的 GPT-4o 系统将能够以更接近人类的声音进行对话响应。 它在周一引起了人们的关注,因为它能够与用户互动,同时采用自然对话,几乎没有延迟——至少在演示模式下是这样。 OpenAI 研究人员展示了 ChatGPT 的新语音助手功能,包括使用新的视觉和语音功能与研究人员对话,解决纸上的数学方程。 有一次,一位 OpenAI 研究人员告诉聊天机器人,他心情很好,因为他正在展示“你是多么有用和令人惊奇”。 ChatGPT 回应道:“哦别说了!你让我脸红了!” “这感觉就像电影中的人工智能,”OpenAI 首席执行官 Sam Altman 在博客文章中写道。 “对我来说,与电脑交谈从来没有感觉如此自然;现在却如此了。” 观看 | OpenAI 的 GPT-4o 以自然的人声说话: OpenAI 展示了新模型进行真实对话的能力 从提供建议和分析图表到指导某人完成数学方程,甚至讲笑话,ChatGPT 的新模型(称为 GPT-4o)被吹捧为能够以自然的人声语气进行实时响应。 人工智能的反应并不总是正确的 但技术和人工智能领域的研究人员警告说,随着人们以更加用户友好的方式从人工智能系统获取信息,他们还必须小心留意对其查询的不准确或误导性响应。 而且,由于人工智能系统通常不会透露它们是如何得出结论的,因为公司希望保护其工作方式背后的商业秘密,因此它们也不会像传统搜索引擎那样显示那么多的原始结果或源数据。 根据理查德·拉赫曼的说法,这意味着他们更容易提供看起来或听起来很自信的答案,即使它们是不正确的。 多伦多城市大学 RTA 媒体学院任教的理查德·拉赫曼 (Richard Lachman) 表示,人工智能聊天机器人现在能够操纵用户,让他们感觉“比应有的响应质量更舒服”。 (亚当·卡特/CBC) 多伦多城市大学 […]