谷歌研究显示人工智能生成的错误信息迅速增多

从虚假的战争图片到名人恶作剧,人工智能技术催生了网络上扭曲现实的新形式的虚假信息。谷歌研究人员共同撰写的新分析报告显示了这个问题发展得有多快。 这项研究由谷歌、杜克大学和多家事实核查和媒体组织的研究人员共同撰写, 以预印本形式发表 上周。该论文介绍了一个可追溯到 1995 年的庞大的新错误信息数据集,该数据集由 Snopes 等网站进行了事实核查。 据研究人员称,数据显示,人工智能生成的图像迅速受到关注,几乎与传统的处理形式一样受欢迎。 这项工作是 404 Media 首次报道 在被 Faked Up 新闻通讯发现后,它清楚地表明“直到去年年初,人工智能生成的图像只占内容操纵的极小部分”,研究人员写道。 去年,包括 OpenAI、微软和谷歌在内的科技巨头都发布了新的人工智能图像生成工具。该报告称,现在人工智能生成的错误信息“几乎与文本和一般内容操纵一样普遍”。 研究人员指出,事实核查人工智能图片数量的增加与人工智能炒作的普遍浪潮相吻合,这可能促使网站关注该技术。数据集显示,事实核查人工智能在最近几个月有所放缓,而传统的文本和图像处理则有所增加。 该图表显示了 2023 年初人工智能生成的图像错误信息的增加。 (杜福尔、帕塔克等人,2024) 该研究还调查了其他形式的媒体,发现视频恶作剧目前占所有经过事实核查的媒体报道的约 60%。 机器学习平台 Hugging Face 的领先人工智能伦理研究员 Sasha Luccioni 表示,这并不意味着人工智能生成的错误信息已经减少。 “我个人觉得这是因为 [examples of AI misinformation] “很难跟踪!”卢奇奥尼在一封电子邮件中说。“我自己也经常看到它们,甚至在社交媒体之外,比如在广告中。” 人工智能已被用来生成真人的假图像,其效果令人担忧。例如, 泰勒斯威夫特 今年早些时候流传。 404 媒体报道 用于创建图像的工具是微软的 AI 生成软件,该软件从 ChatGPT 制造商 OpenAI 获得许可——促使这家科技巨头关闭了允许生成图像的漏洞。 这项技术还能用一些更无害的方式欺骗​​人们。最近有假照片显示凯蒂·佩里出席了纽约的 Met Gala——但实际上她根本没有出席—— 在社交媒体上愚弄观察者 […]

再次精益 Google 搜索结果 › ifun.de

在美国是Google 最近切换到这个,用人工智能算法创建的内容补充搜索结果,并直接在 Google 搜索中显示来自网络的内容 – 从长远来看,这应该使点击源页面完全没有必要。 搜索“伊朗” 随着人工智能结果的引入(尚未在德国提供),谷歌还推出了仅提供经典搜索结果的纯网络搜索。 对于希望返回传统谷歌搜索而不使用人工智能生成结果的美国用户,谷歌现在提供了新的“网络”部分。 这不仅删除了人工智能内容,还删除了所有即时答案、大型结果卡和所谓的“特色片段”。 示例:搜索“拜仁慕尼黑” 虽然目前还没有官方的方法将新的“Web”区域设置为新搜索查询的标准,但为了到达“Web”区域,在搜索地址中添加参数“udm=14”就足够了在路上给予。 各个结果页面之间的差异是惊人的。 搜索“拜仁慕尼黑” 创建您自己的搜索引擎 目前尚不清楚谷歌的轻量级网络搜索将持续多久。 只要“udm=14”技巧仍然有效,您就可以在浏览器中创建一个新的搜索引擎,默认为新的搜索查询提供附加参数,从而确保干净的结果页面。 在Chrome中,新的搜索引擎可以在该领域使用 设置 > 搜索引擎 > 管理搜索引擎和站点搜索 > 站点搜索 > 添加 创造。 将任何缩写分配给新搜索引擎并使用以下地址:

随着人工智能变得越来越像人类,专家警告用户必须更加批判性地思考其反应

科技巨头谷歌宣布升级其人工智能技术,就在竞争对手 OpenAI 宣布对其产品进行类似改变的一天后,两家公司都试图主导这个快速新兴的市场,在这个市场中,人类可以向计算机系统提出问题,并在人工智能中获得答案。人类反应的风格。 这是推动 ChatGPT 等人工智能系统不仅更快、而且更全面地立即做出响应而无需提出多个问题的努力的一部分。 周二,谷歌演示了如何将人工智能响应与其有影响力的搜索引擎的一些结果合并。 作为年度开发者大会的一部分,谷歌承诺将开始使用人工智能来提供问题和搜索的摘要,其中至少有一些在页面顶部被标记为人工智能。 谷歌的人工智能生成的摘要目前仅在美国可用,但它们将使用对话语言编写。 OpenAI 最近还宣布对其旗舰产品进行更新,允许人工智能和人类用户之间进行对话交互。 (达多·鲁维克/路透社) 与此同时,OpenAI 新发布的 GPT-4o 系统将能够以更接近人类的声音进行对话响应。 它在周一引起了人们的关注,因为它能够与用户互动,同时采用自然对话,几乎没有延迟——至少在演示模式下是这样。 OpenAI 研究人员展示了 ChatGPT 的新语音助手功能,包括使用新的视觉和语音功能与研究人员对话,解决纸上的数学方程。 有一次,一位 OpenAI 研究人员告诉聊天机器人,他心情很好,因为他正在展示“你是多么有用和令人惊奇”。 ChatGPT 回应道:“哦别说了!你让我脸红了!” “这感觉就像电影中的人工智能,”OpenAI 首席执行官 Sam Altman 在博客文章中写道。 “对我来说,与电脑交谈从来没有感觉如此自然;现在却如此了。” 观看 | OpenAI 的 GPT-4o 以自然的人声说话: OpenAI 展示了新模型进行真实对话的能力 从提供建议和分析图表到指导某人完成数学方程,甚至讲笑话,ChatGPT 的新模型(称为 GPT-4o)被吹捧为能够以自然的人声语气进行实时响应。 人工智能的反应并不总是正确的 但技术和人工智能领域的研究人员警告说,随着人们以更加用户友好的方式从人工智能系统获取信息,他们还必须小心留意对其查询的不准确或误导性响应。 而且,由于人工智能系统通常不会透露它们是如何得出结论的,因为公司希望保护其工作方式背后的商业秘密,因此它们也不会像传统搜索引擎那样显示那么多的原始结果或源数据。 根据理查德·拉赫曼的说法,这意味着他们更容易提供看起来或听起来很自信的答案,即使它们是不正确的。 多伦多城市大学 RTA 媒体学院任教的理查德·拉赫曼 (Richard Lachman) 表示,人工智能聊天机器人现在能够操纵用户,让他们感觉“比应有的响应质量更舒服”。 (亚当·卡特/CBC) 多伦多城市大学 […]

生成式人工智能正在使一个老问题变得更加严重

听听这篇文章 由 ElevenLabs 和 News Over Audio (NOA) 使用 AI 旁白制作。 今年早些时候,泰勒·斯威夫特的露骨色情图片 被共享 这些图片几乎肯定是用生成式人工智能工具创建的,这表明该技术可以轻松地用于邪恶目的。 这个案例反映了许多其他明显相似的例子,包括描绘 逮捕 前总统唐纳德·特朗普,人工智能生成 图片 支持特朗普的黑人选民,以及 编造的 安东尼·福奇博士的照片。 媒体报道有一种倾向: 来源 因为生成式人工智能是一项许多人仍在试图理解的新技术。 但这一事实掩盖了这些图像相关的原因:它们在社交媒体网络上传播。 Facebook、Instagram、TikTok、X、YouTube 和 Google 搜索决定了数十亿人每天如何体验互联网。 这一事实在生成人工智能时代并没有改变。 事实上,随着越来越多的人更容易根据命令制作文本、视频和图像,这些平台作为看门人的责任变得越来越明显。 让合成媒体获得数百万次观看——就像 Swift 图像一样 在短短几个小时内完成——他们需要庞大、聚合的网络,这使他们能够确定最初的受众,然后进行传播。 随着生成人工智能的广泛使用,可用内容的数量不断增加,社交媒体作为策展人的角色将变得更加重要。 阅读:凯特·米德尔顿和共享现实的终结 线上平台有 市场 敬请广大个人用户关注。 用户可能会接触到比他或她有时间看到的更多的帖子。 在 Instagram,例如,Meta 的 算法 从用户提要中实际出现的每个帖子的无数内容中进行选择。 随着生成式人工智能的兴起,可供平台选择的潜在选项可能会增加一个数量级,这意味着每个视频或图像的创作者将更加积极地争夺观众的时间和注意力。 毕竟,即使用户可用的内容量迅速增长,他们也不会花更多的时间。 那么,随着生成式人工智能变得更加普遍,可能会发生什么? 如果没有大的变化,我们应该期待更多像 Swift 图像这样的情况。 但我们也应该期待更多 一切。 随着合成介质的过剩,这种变化正在进行中 […]