Deepfakes 和人工智能欺骗正在扰乱历史上最大规模的选举

我今年2月, X 上的一篇帖子在印度掀起了一场虚拟风暴。 当谷歌的人工智能工具 Gemini 被问及印度总理纳伦德拉·莫迪是否是法西斯分子时,它说他“被指控实施一些专家认为是法西斯主义的政策”。 在谈到莫迪所在的印度人民党时,双子座补充道,“这些指控基于多种因素,包括印度人民党的印度教民族主义意识形态、对异见的镇压以及对宗教少数群体使用暴力。” 相比之下,正如社交媒体帖子所详述的那样,当对美国前总统唐纳德·特朗普和中国领导人习近平提出类似问题时,据报道没有明确的答案。 事件发生后不久,谷歌发言人回应称:“我们很快就解决了这个问题。 Gemini 是一种创造力和生产力工具,但可能并不总是可靠,尤其是在响应有关时事、政治话题或不断发展的新闻的一些提示时。 这是我们不断努力改进的事情。” 问题并没有就此停止。 针对最初的社交媒体帖子,电子和 IT 国务部长拉吉夫·钱德拉塞卡 (Rajeev Chandrasekhar) 发帖称,这直接违反了印度的中介 IT 规则和《刑法》的多项条款。 该帖子被标记为 Google AI、Google India 以及电子和 IT 部。 在谷歌做出澄清后,他又发了一篇帖子来回应,强调了同样的观点,并表示平台也不能免受法律的约束。 印度正在进行的全国大选对于处于高度参与的虚拟空间中的该国公民意味着什么? 据报道,超过一半的印度人是活跃的互联网用户到2025年,这一数字将达到9亿。选举将于4月19日至6月1日分七个阶段进行,结果将于6月4日公布。 政府已明确表示,他们认为人工智能生成的深度伪造品是一个大问题。 在选举年伊始,钱德拉塞卡表示,由于印度网民规模庞大,印度比其他国家“更早地意识到”深度造假带来的危险。 他还警告说,社交媒体公司将根据“非常明确和明确的规则”,对其平台上发布的任何人工智能生成的“深度伪造”内容承担责任。 具有讽刺意味的是,政党本身一直在积极的选前竞选活动中使用深度造假和人工智能,从多语言公共演讲和个性化视频信息到已故领导人的逼真视频。 虽然人工智能深度造假的意图并非严格意义上的邪恶,但它是 2024 年印度选举的关键部分,这个拥有超过 14.3 亿人口的大国将在这一年投票选出他们希望在未来五年看到的政府。 在这一关键背景下,印度记者面临两个明显的挑战。 一种观点认为,印度是一个错误信息磁石,深度造假现在应该被视为该领域内一个独立且更危险的问题。 另一个是,对错误信息的回应是出台越来越严厉的法律,这些法律威胁到言论自由,并对记者和平台提出繁重的要求。 A其头 一年一度的达沃斯峰会,世界经济论坛发布了 2024 年全球风险报告,分析各国在未来十年将面临的挑战。 该报告将错误和虚假信息列为构成风险的首位,而印​​度则被列为世界上面临最高风险的国家。 对于许多经验丰富的印度事实核查人员来说,这并不奇怪。 2018年,BBC发布 一份报告 基于对印度、肯尼亚和尼日利亚普通公民参与和传播假新闻方式的广泛研究。 报告称,“对一些人来说,增强民族认同的情感愿望比事实更重要。 社交媒体分析表明,右翼网络比右翼网络更有组织性。 [those] […]

Elon Musk 的 X 通过改进图像匹配来打击 Deepfakes

埃隆·马斯克表示,“改进图像匹配”的新更新将击败 Deepfakes 和 Shallowfakes 新德里: 特斯拉和 SpaceX 首席执行官埃隆·马斯克 (Elon Musk) 周六表示,“改进的图像匹配”的新更新将击败社交媒体平台 X 上的 Deepfakes 和 Shallowfakes。 新的更新将显示包含“相似或相同图像”的帖子的注释,数量增加了 30%。 X 在帖子中表示:“我们刚刚推出了更新,并将监控任何错误的图像匹配。” 埃隆·马斯克补充说,这一举措“应该会对击败深度造假(和浅度造假)产生重大影响。” 这对于击败 Deepfakes(和Shallowfakes)应该会产生很大的影响 https://t.co/rQ8mtBB9qr — 埃隆·马斯克 (@elonmusk) 2024 年 5 月 3 日 Shallowfakes 是指在没有人工智能 (AI) 帮助的情况下生成的照片、视频和语音剪辑,并使用广泛使用的编辑和软件工具。 图像上的 X 注释会自动显示在包含匹配图像的帖子上。 “这些注释与数十、数百甚至数千个帖子匹配是很常见的。现在,您可以在注释详细信息中看到图像注释与多少个帖子匹配,”该公司表示。 在全球选举季,专家对旨在干扰民意调查的假新闻和深度造假的传播发出警告。 由来自全球 22 名全球人权和言论自由专家组成的独立监督委员会呼吁采取紧急行动,应对威胁全球选举的深度造假问题。 (除标题外,这篇报道未经 NDTV 工作人员编辑,而是通过联合供稿发布。) 等待 回复 加载… 1714801764 2024-05-04 05:08:27 #Elon […]

微软的新人工智能工具只需一张照片即可创建逼真的 Deepfakes

微软亚洲研究院揭牌 一个新的实验性人工智能工具 本周可以创造出一些相当可信的深度赝品。 称为VASA-1,该工具可以拍摄一个人的静态图像,甚至只是他们的图画,并将其与他们的音频文件配对,几乎可以立即创建他们逼真的说话面孔。 该工具创建的东西看起来非常逼真,可以模仿照片中一个人的面部表情和头部动作,并以一种让他们看起来真的是在说话或唱歌的方式移动他们的嘴唇。 群组 发布了该工具的一些实际使用视频 非常值得一看 近距离观察,训练有素的眼睛可能会发现头部运动有点机械化,人工智能工具的结果相当可信。 事实上,该工具是如此可信,以至于研究人员选择不发布在线演示、API 或使用它的产品,直到他们可以确定它“将被负责任地使用并符合适当的法规”。 该组织表示:“我们反对任何制造误导性或有害真实人物内容的行为,并有兴趣应用我们的技术来推进伪造检测。” 该组织还表示,目前使用该工具创建的视频存在可识别的伪影。” 我们的编辑推荐 最终,研究人员认为该工具可以用来为有需要的人提供陪伴和治疗支持,或者用来在使用人工智能的情况下提供一个可以与之交谈的“人”。 本周早些时候,微软将其 WizardLM-2 AI 模型在发布后一天内下线,因为开发人员未能在发布前完成毒性测试。 获取我们最好的故事! 注册 现在有什么新变化 每天早上将我们的头条新闻发送到您的收件箱。 本新闻稿可能包含广告、优惠或附属链接。 订阅时事通讯即表示您同意我们的 使用条款 和 隐私政策。 您可以随时取消订阅时事通讯。 1713721914 2024-04-21 16:46:05 #微软的新人工智能工具只需一张照片即可创建逼真的 #Deepfakes

Meta 的监督委员会正在调查人工智能色情 Deepfakes

Meta 的监督委员会正在调查两起人工智能生成女性公众人物图像的案件。 其中一个案例涉及 Facebook 上一名美国女性人物的色情深度伪造。 董事会将审查 Meta 关于如何处理显式人工智能图像的政策。 感谢您的注册! 当您在旅途中时,可以在个性化源中访问您最喜欢的主题。 下载应用程序 Meta 的监督委员会 周二宣布 它将调查该公司关于女性明显的人工智能深度假货的政策。 这家科技巨头董事会表示,正在调查两起具体案件,一起发生在 Instagram 上,另一起发生在 Facebook 上。 其中一个案例涉及人工智能生成的图像,该图像类似于一名裸体美国女性公众人物,而一名男子正在抚摸她。 该人物在标题中被命名,并发布在 Facebook 的人工智能创作小组中。 Meta 的监督委员会没有具体说明 AI Deepfake 中使用了哪位女性公众人物。 监督委员会表示,在 Facebook 群组分享之前,另一名用户已经发布了人工智能生成的裸照。 这张露骨的照片因违反“侮辱性色情 Photoshop 或图画”的欺凌和骚扰政策而被删除。 发布照片的用户对删除提出上诉,但被自动化系统拒绝。 该用户随后向委员会提出上诉。 泰勒·斯威夫特 (Taylor Swift) 在 X 上的色情深度假货一月份在互联网上引起了轰动。 许多照片显示这位流行歌星在足球场进行性行为。 X(以前称为 Twitter)上的一位经过验证的用户上传的一篇帖子吸引了超过 4500 万次浏览,大约 17 小时后被版主删除。 另一项调查涉及人工智能生成的裸体女性图像,该图像类似于印度公众人物。 该内容发布在一个 Instagram 帐户上,该帐户仅分享人工智能生成的印度女性图像。 本例中,Meta在两次举报后均未能删除该内容。 […]

Deepfakes 敲响了选举中人工智能的警钟

专家、官员和观察人士都对 2024 年深度造假带来的危险发出警报,因为使用人工智能 (AI) 和传播合成内容变得越来越容易,这些内容可能会在关键的选举年煽动虚假信息并迷惑选民。 上周,亚利桑那州当地的一份时事通讯发布了一段由人工智能生成的参议院候选人卡里·莱克 (Kari Lake) 的深度伪造视频,以警告读者“这项技术有多好”。 在佐治亚州,立法者倡导一项法案,禁止通过播放捏造的背书片段来进行政治传播中的深度造假。 非营利监管组织“保护民主”的技术政策策略师 Nicole Schneidman 表示,人工智能正在“加剧”对选举系统的威胁。 “虚假信息、选民压制——生成式人工智能真正所做的是使其能够更有效地执行此类威胁。” 这项可以生成图像、音频和视频并以数字方式改变肖像和声音的先进技术正在迅速发展,让学者和立法者争先恐后地追赶。 这也让普通选民在选举环境中变得越来越难以判断图片、帖子和视频的真实性。 施奈德曼说:“我认为选民已经无法依靠自己的感官来区分合成的和真实的了。” 在亚利桑那州,上周的 Substack 时事通讯试图强调“任何拥有电脑的白痴”都可以免费组合并传播相对令人信服的深度造假内容。 “嗨,我是卡里·莱克。 订阅《亚利桑那议程》,了解重磅、真实的新闻,并预览下一次选举中即将出现的可怕人工智能,例如这段视频,这是《亚利桑那议程》制作的人工智能深度伪造,旨在向您展示这项技术有多么出色得到,”参议院候选人在视频中的面孔和声音说道。 时事通讯作者汉克·斯蒂芬森 问观众 考虑“即使我们的‘深假卡里湖’告诉你她是假的,你的大脑是否需要一秒钟才能跟上。” 第二段视频展示了 Lake 的渲染图,解释了换脸、音频克隆和口型同步技术的工作原理。 几年前需要工作室预算和制作团队制作的内容现在可以由日常用户只需点击几下就可以制作完成,政治学教授兼选举研究中心主任巴里·伯登说。威斯康星-麦迪逊。 随着社交媒体平台的普及,捏造的内容可以广泛传播,而几乎没有正式的检查。 伯登说:“随着我们越来越接近选举日,我认为风险会变得更大,因为它可能会影响选民或选举结果,并且直到投票和计票后才被发现或纠正。” 11 月之前的狭窄窗口也是推动新立法控制的紧迫时间表。 在乔治亚州, 州议会批准了一项法案 该法案旨在打击政治传播中的“实质欺骗性媒体”或看似描述“现实中未发生的真实个人言论或行为”的内容。 上周,州众议员布拉德·托马斯(Brad Thomas)(右)向佐治亚州参议院提出了这一想法 音频剪辑 据称,该法案的反对者转而支持该法案,然后警告人工智能可能会被用来歪曲官员的立场或发布虚假的竞选公告。 当被问及他为其他立法者制作的深度造假产品时,托马斯告诉《国会山报》:“有些人只是经历了惨痛的教训,我想眼见为实,”他认为这项技术对选举来说是“一个巨大的、潜在的不稳定因素”。 剪辑中出现了他的声音的州众议员科尔顿·摩尔(Colton Moore) 网上反对该法案 作为对“模因”和言论自由的攻击。 伯登说:“我认为人们正在做的演示……创造深度伪造品来展示深度伪造品的效力,非常有帮助,因为我认为公众和许多立法者还没有意识到这项技术的发展速度有多快。” 一月份,一个机器人电话模仿了拜登总统的声音,敦促数千名新罕布什尔州选民不要在花岗岩州初选中投票。 施奈德曼称新罕布什尔州的机器人电话是如何利用合成内容来压制选民的“里程碑”示例。 美联社 报道称,这些电话背后的人声称,他是想警告人们有关人工智能的事情,而不是影响比赛。 人工智能在选举领域的存在不断增加的另一个例子是, 假人工智能图像 支持前总统特朗普的黑人选民在网上流传,因为他在 11 […]

有些人实际上喜欢 Deepfakes

一个月前,咨询公司埃森哲向一位潜在客户展示了一个不同寻常且引人注目的新项目。 客户看到的不是通常的幻灯片,而是 深度造假 几名真实的员工站在虚拟舞台上,完美地描述了他们希望从事的项目。 “我想让他们见见我们的团队,”提出这个想法的埃森哲高级董事总经理雷纳托·斯卡夫 (Renato Scaff) 说道。 “这也是我们在竞争中脱颖而出的一种方式。” 这些 Deepfake 是在员工同意的情况下由埃森哲投资的 Touchcast 公司生成的,该公司提供了一个以真实或合成人的化身为特色的交互式演示平台。 Touchcast 的化身可以使用人工智能模型来回答打字或口头问题,分析相关信息并即时生成答案。 “这有一种令人毛骨悚然的感觉,”斯卡夫谈到他的深度造假员工时说道。 “但还有更酷的元素。” 深度造假是一种强大而危险的虚假信息和声誉损害武器。 但同样的技术也被一些公司所采用,它们认为这是一种巧妙且吸引人的新方式来接触客户并与之互动。 这些实验不仅限于企业部门。 伦敦帝国理工学院商学院创新、数字教育和分析实验室执行主任莫妮卡·阿雷斯 (Monica Arés) 创建了真实教授的深度伪造品,她希望这能成为一种更有吸引力、更有效的方式来回答学生在课堂之外的问题和疑问。课堂。 阿雷斯表示,该技术有潜力提高个性化,提供管理和评估学生的新方法,并提高学生的参与度。 “你仍然像一个人在跟你说话,所以感觉很自然,”她说。 正如当今经常出现的情况一样,我们要感谢人工智能来解开现实。 好莱坞电影公司长期以来都可以通过软件复制演员的声音、面孔和举止,但近年来,人工智能已经使类似的技术变得广泛可用且几乎免费。 除了 Touchcast 之外,公司还包括 综合 和 嘿根 为企业提供一种生成真实或虚假个人头像的方法,用于演示、营销和客户服务。 Touchcast 创始人兼首席执行官 Edo Segal 认为,数字化身可能是一种呈现内容和与内容交互的新方式。 他的公司开发了一个名为 Genything 的软件平台,允许任何人创建自己的数字孪生。 与此同时,随着包括美国在内的许多国家的选举临近,深度造假正成为一个主要问题。 上个月, AI 生成的机器人呼叫 以假乔·拜登为主角被用来传播选举虚假信息。 泰勒·斯威夫特 (Taylor Swift) 最近也成为 深度伪造色情内容的目标 使用广泛使用的人工智能图像工具生成。 […]

更严格的人工智能政策可以保护泰勒·斯威夫特和其他所有人免受 Deepfakes 的侵害

对于泰勒·斯威夫特来说,2023 年的最后几个月是胜利的。 她的 Eras 巡演被评为 最高票房 有史以来的巡回演唱会。 她首次推出了一部伴随音乐会的电影 新生活 进入流派。 最后, 时间 杂志 命名的 她的年度人物。 但在一月下旬,这位超级巨星因为一个远不那么有说服力的原因而成为头条新闻:她成为了最新的一个备受瞩目的露骨、非自愿性行为目标。 deepfake 图像 使用人工智能制作。 斯威夫特的粉丝很快就举报了违规内容 流传的 在社交媒体平台上,包括 X(以前的 Twitter),暂时 被阻止的搜索 斯威夫特的名字。 这并不是第一次这样的案例——全球各地的妇女和女孩都曾面临过这样的情况 类似的虐待行为。 然而,斯威夫特的声望让这个问题进入了公众的视野,而这一事件也放大了要求立法者介入的呼声。 乔治华盛顿大学法学院教授兼网络民权倡议组织主席玛丽·安妮·弗兰克斯表示:“目前我们的力量太小,也太晚了,但我们仍然可以努力减轻正在出现的灾难。” 她补充说,在滥用人工智能方面,女性就像“煤矿里的金丝雀”。 “这不仅仅是 14 岁女孩或泰勒·斯威夫特。 这将是政治家。 这将是世界领导人。 这将是选举。” 关于支持科学新闻 如果您喜欢这篇文章,请考虑通过以下方式支持我们屡获殊荣的新闻事业 订阅。 通过购买订阅,您将有助于确保有关塑造当今世界的发现和想法的影响力故事的未来。 斯威夫特最近 成为亿万富翁弗兰克斯说,也许能够通过个人诉讼取得一些进展。 (斯威夫特的唱片公司没有回应关于该艺术家是否会提起诉讼或支持打击深度造假的评论请求。)这位法学教授补充道,但真正需要的是专门禁止此类行为的法规。内容。 “如果几年前就通过了立法,当倡导者说这种技术必然会发生这种情况时,我们可能不会处于这种境地,”弗兰克斯说。 一份这样的法案 她指出,可以帮助与斯威夫特处境相同的受害者的是纽约州众议员乔·莫雷尔去年五月推出的《防止亲密图像深度伪造法案》。 如果该法案通过成为法律,该立法将禁止共享未经同意的深度伪造色情内容。 另一个最近的 参议院的提案 将使 Deepfake 受害者起诉此类内容的创作者和发行者,要求赔偿损失。 多年来,支持者一直呼吁针对未经同意的深度伪造行为制定政策解决方案。 各州法律各不相同,但专家表示缺乏联邦监督。 […]

泰勒·斯威夫特 (Taylor Swift) 在 X 上的 Deepfakes 错误地描绘了她对特朗普的支持

泰勒·斯威夫特再次成为深度造假的目标,唐纳德·特朗普的支持者发布受操纵的媒体,错误地显示她支持特朗普并参与否认选举的行为。 X 上病毒式传播的图像和剪辑已被观看数百万次,而就在 Swift 的假裸照发布一周多后 病毒式传播 在该平台上,人们注意到 X 无法控制恶意不真实媒体的传播。 X 短暂阻止搜索 事件发生后,“泰勒·斯威夫特”一直在努力控制“泰勒·斯威夫特”深度假货的传播。 一些显示斯威夫特支持特朗普的深度伪造品带有警告媒体不真实的内容标签,但这些帖子和转发的许多分享最初并没有相同的标签。 Deepfakes 是被操纵的真实媒体,通常在人工智能的帮助下,往往会 目标名人 和 高调女性 尤其。 斯威夫特最著名的支持特朗普的深度伪造视频使用了她最近在格莱美红地毯上对着镜头摆姿势的视频。 但视频经过编辑,显示她举着一个标语,上面写着“特朗普赢了”和“民主党被骗了!” 根据 X 的指标,X(以前称为 Twitter)上包含该视频的一篇帖子的观看次数超过 1030 万次。 它有一个社区说明,说该视频经过编辑,斯威夫特并没有真正持有旗帜。 NBC 新闻还发现了另外 13 个包含虚假视频的帖子。 其中八个人没有社区笔记或被操纵的媒体标签。 根据 X 的指标,其中一篇未贴标签的帖子截至发布时已获得超过 72,000 次浏览。 截至周四晚上,这些视频均未被删除,尽管这些视频似乎违反了 X 针对受操纵媒体的政策。 一些视频后来被贴上了标签,指出这些帖子包含被操纵的媒体。 X 的一位代表写道:“该团队已获悉这段人工智能生成的视频,并根据我们的合成和操纵媒体政策,于 2024 年 2 月 4 日对近 100 个帖子采取了行动。 我们正在积极监控,一旦发现帖子,它们也会被标记为受操纵的媒体。” 被操纵的媒体似乎源自一个支持特朗普的 X […]

报告称泰勒·斯威夫特 Deepfakes 源于人工智能挑战

(彭博社)——据社交网络分析公司 Graphika 称,泰勒·斯威夫特 (Taylor Swift) 的色情深度假货上个月末在社交媒体上激增,源于一项在线挑战,旨在打破旨在阻止人们利用人工智能生成淫秽图像的安全机制。 研究人员发现,数周以来,互联网论坛 4chan 的用户一直在参加日常竞赛,寻找可以帮助他们绕过流行图像生成服务(包括 Microsoft Designer 和 OpenAI 的 DALL-E)过滤器的单词和短语。 最终目标是创造歌手和政治家等杰出女性人物的性感形象。 Graphika 高级分析师 Cristina López G. 在一封电子邮件中表示:“虽然泰勒·斯威夫特的色情图片在网上疯传,引起了主流社会对人工智能生成的未经同意的亲密图像问题的关注,但她远不是唯一的受害者。” “在这些图片起源的 4chan 社区中,她甚至不是最常成为攻击目标的公众人物。 这表明,从全球名人到学童,任何人都可能成为这种方式的攻击目标。” 4chan 的代表没有回应置评请求。 根据 Graphika 的分析,深度假货于 1 月初起源于该频道,然后转移到 Telegram,然后转移到 X,在淫秽图片引发愤怒后,X 被迫屏蔽所有泰勒·斯威夫特的搜索。 据 The Verge 报道,其中一张图片在 X 上保留了 17 个小时,浏览量超过 4500 万次。 许多文本到图像生成公司已禁止某些关键字,以阻止用户生成有害内容。 不过,4chan 和其他在线论坛上的一些用户分享了如何突破这些安全措施的技巧。 “这些图像源自一群人,他们的动机是规避生成人工智能产品的保障措施,而新的限制被视为‘失败’的另一个障碍,”López G. 说。 “为了从源头上防止进一步的滥用,了解这种恶意活动的游戏化性质非常重要。” 多年来,专家们一直担心该技术正在失控,但 Swift […]

诈骗者利用 Deepfakes 冒充高管,骗取公司 2600 万美元

香港警方称,诈骗者利用 Deepfake 技术冒充高管,骗取一家跨国公司约 2600 万美元(3040 万欧元),这是该市首例此类案件之一。 执法机构正在努力跟上生成式人工智能的发展,专家表示,生成式人工智能有可能产生虚假信息和滥用,例如深度伪造图像显示人们说出他们从未说过的话。 警方告诉法新社,中国金融中心的一名公司员工接到“冒充公司高级管理人员的视频电话会议,要求将资金转入指定的银行账户”。 警方于 1 月 29 日收到有关该事件的报告,当时已通过 15 次转账损失了约 2 亿港元(3,040 万欧元)。 警方表示,“调查仍在进行中,尚未逮捕任何人”,但没有透露该公司的名称。 据香港媒体报道,受害者在财务部门工作,诈骗者冒充该公司驻英国的首席财务官。 代理高级警司 Baron Chan 表示,视频电话会议有多名参与者,但除了受害者之外,所有人都是冒充的。 “诈骗者通过 YouTube 找到了假冒目标的公开视频和音频,然后使用 Deepfake 技术来模仿他们的声音……以引诱受害者遵循他们的指示,”陈告诉记者。 他补充说,这些深度伪造视频是预先录制的,不涉及与受害者的对话或互动。