微软的人工智能工具可以将照片变成人们说话和唱歌的逼真视频

微软亚洲研究院有 揭幕 一个新的实验 人工智能工具 称为 VASA-1,它可以拍摄一个人的静态图像(或一个人的图画)和现有的音频文件,实时创建一个栩栩如生的说话面孔。 它能够为现有的静态图像生成面部表情和头部动作,以及匹配语音或歌曲的适当的嘴唇动作。 研究人员在项目页面上上传了大量示例,结果看起来足够好,可以欺骗人们认为它们是真实的。 研究人员相信他们的技术有很多好处,尽管它有可能被滥用。 他们表示,它可以用来增强教育公平,并改善那些有沟通障碍的人的可及性,也许可以让他们获得一个可以为他们沟通的化身。 他们说,它还可以为有需要的人提供陪伴和治疗支持,暗示 VASA-1 可以用于提供与人们可以交谈的人工智能角色的程序。 根据 纸 随公告一起发布的 VASA-1 接受了 VoxCeleb2 数据集的训练,该数据集包含从 YouTube 视频中提取的“6,112 名名人的超过 100 万条话语”。 尽管该工具是在真实面孔上进行训练的,但它也适用于《蒙娜丽莎》等艺术照片,研究人员将其与安妮·海瑟薇病毒式传播的李尔·韦恩的作品的音频文件有趣地结合在一起 狗仔队。 它是如此令人愉快,值得一看,即使你怀疑这样的技术能做什么。 本文包含附属链接; 如果您点击此类链接并进行购买,我们可能会赚取佣金。 2024-04-20 07:00:52 1713708847

微软的人工智能工具可以将照片变成人们说话和唱歌的逼真视频

微软亚洲研究院有 揭幕 一个新的实验 人工智能工具 称为 VASA-1,它可以拍摄一个人的静态图像(或一个人的图画)和现有的音频文件,实时创建一个栩栩如生的说话面孔。 它能够为现有的静态图像生成面部表情和头部动作,以及匹配语音或歌曲的适当的嘴唇动作。 研究人员在项目页面上上传了大量示例,结果看起来足够好,可以欺骗人们认为它们是真实的。 研究人员相信他们的技术有很多好处,尽管它有可能被滥用。 他们表示,它可以用来增强教育公平,并改善那些有沟通障碍的人的可及性,也许可以让他们获得一个可以为他们沟通的化身。 他们说,它还可以为有需要的人提供陪伴和治疗支持,暗示 VASA-1 可以用于提供与人们可以交谈的人工智能角色的程序。 根据 纸 随公告一起发布的 VASA-1 接受了 VoxCeleb2 数据集的训练,该数据集包含从 YouTube 视频中提取的“6,112 名名人的超过 100 万条话语”。 尽管该工具是在真实面孔上进行训练的,但它也适用于《蒙娜丽莎》等艺术照片,研究人员将其与安妮·海瑟薇病毒式传播的李尔·韦恩的作品的音频文件有趣地结合在一起 狗仔队。 它是如此令人愉快,值得一看,即使你怀疑这样的技术能做什么。 1713597207 2024-04-20 07:00:52 #微软的人工智能工具可以将照片变成人们说话和唱歌的逼真视频

WME 正在利用人工智能技术打击名人深度造假

随着人工智能的进步激增,人才机构正在加强防御,以保护好莱坞明星免受误导、操纵的图像或视频的侵害,从而使他们面临风险。 生成式人工智能和“深度造假”(即以虚假方式使用人的图像的视频和图片)的兴起导致未经授权的剪辑广泛扩散,可能损害名人的品牌和业务。 这些剪辑旨在展示名人所说和所做的事情,他们从未说过或做过。 例如:名人的假裸体,或制作成看起来像好莱坞明星的视频 认可产品 他们还没有真正使用过。 而且这个问题预计还会加剧。 现在有一些技术工具可以使用人工智能来对抗这种威胁,娱乐业也已经来了。 人才经纪公司 WME 与 很多是一家总部位于西雅图的公司,专门开发用于标记互联网上发布的未经授权内容(包括客户肖像)的软件。 该公司拥有 25 名员工,随后迅速向在线平台发送请求,要求删除这些侵权照片和视频。 该交易的财务细节并未披露。 在好莱坞,人工智能既被视为朋友,又被视为敌人——一种可能提高流程效率并激发新创新的工具,但也被视为就业杀手,也是窃取知识产权的另一种方式。 在去年夏天美国作家协会和演员工会 SAG-AFTRA 的罢工中,对人工智能采取更好保护措施的需求发挥了核心作用。 周二,非营利组织艺术家权利联盟向科技公司发布了一封公开信,要求他们“停止贬值”自己的作品,并有 200 名音乐家签名 包括比莉·艾利什和埃尔维斯·科斯特洛。 随着深度伪造品的增加,各机构希望利用人工智能来阻止网络上的不良行为者。 WME 合伙人兼数字战略主管 Chris Jacquemin 表示:“最糟糕的打地鼠游戏就是在没有技术合作伙伴帮助的情况下处理 Deepfake 问题。” Loti 联合创始人 Luke Arrigoni 大约一年半前创办了这家初创公司。 他之前经营过一家名为 Arricor AI 的人工智能公司,在此之前,他曾在 WME 的主要竞争对手 Creative Artists Agency 担任数据科学家。 阿里戈尼表示,洛蒂大约四五个月前开始与 WME 合作。 WME 的客户给了 Loti 几张自己不同角度的照片。 他们还录制简短的音频剪辑,然后用于帮助识别未经授权的内容。 […]

Deepfake 视频电话会议导致公司损失数百万美元

在《赫芬顿邮报》,我们相信每个人都需要高质量的新闻,但我们知道并不是每个人都能负担得起昂贵的新闻订阅费用。 这就是为什么我们致力于提供深入报道、经过仔细事实核查的新闻,供所有人免费获取。 无论您来到《赫芬顿邮报》是为了了解 2024 年总统竞选的最新动态、对我们国家当今面临的关键问题进行的严厉调查,还是让您开怀大笑的热门故事,我们都感谢您。 事实是,新闻的制作需要花钱,我们感到自豪的是,我们从未将我们的故事置于昂贵的付费墙后面。 您愿意加入我们,帮助所有人免费分享我们的故事吗? 您只需贡献 2 美元,就可以发挥很大的作用。 当美国人将于 2024 年参加投票时,我们国家的未来正受到威胁。 在《赫芬顿邮报》,我们相信新闻自由对于拥有消息灵通的选民至关重要。 这就是为什么我们的新闻对每个人都是免费的,尽管其他新闻编辑室都退到昂贵的付费墙后面。 没有您的帮助,我们无法做到这一点。 只需捐款 2 美元即可支持我们的新闻编辑室,让所有人免费获得新闻。 当美国人将于 2024 年参加投票时,我们国家的未来正受到威胁。 在《赫芬顿邮报》,我们相信新闻自由对于培养消息灵通的选民至关重要。 这就是为什么我们的新闻对每个人都是免费的,尽管其他新闻编辑室都退到昂贵的付费墙后面。 我们的记者将继续报道这次历史性总统选举期间的曲折。 在您的帮助下,我们将为您带来在其他地方找不到的强有力的调查、深入研究的分析和及时的见解。 在当前的政治气候下进行报道是我们不会掉以轻心的责任,我们感谢您的支持。 只需捐款 2 美元,即可让所有人免费获得我们的新闻。 2024-02-06 23:08:31 1707382177

Meta 将标记来自 OpenAI、Google 和其他公司的 AI 生成图像

其最高政策执行官周二表示,Meta Platforms 将在未来几个月内开始使用文件中内置的一组隐形标记来检测和标记其他公司人工智能服务生成的图像。 Meta 的全球总裁表示,Meta 将把这些标签应用到发布到其 Facebook、Instagram 和 Threads 服务上的任何带有标记的内容上,以向用户表明这些图像(在许多情况下类似于真实照片)实际上是数字创作。尼克·克莱格在一篇博客文章中写道。 该公司已经对使用自己的人工智能工具生成的所有内容进行了标记。 克莱格表示,一旦新系统启动并运行,Meta 将对 OpenAI、微软、Adobe、Midjourney、Shutterstock 和 Alphabet 旗下的谷歌运行的服务创建的图像执行相同的操作。 该公告让我们得以初步了解科技公司正在开发的新兴标准系统,以减轻与生成人工智能技术相关的潜在危害,该技术可以根据简单的提示吐出虚假但看似真实的内容。 该方法以过去十年中一些公司建立的模板为基础,以协调跨平台删除被禁止的内容,包括对大规模暴力和儿童剥削的描述。 音频、视频标签技术仍在开发中 在接受采访时,克莱格告诉路透社,他相信这些公司目前可以可靠地标记人工智能生成的图像,但表示标记音频和视频内容的工具更加复杂,并且仍在开发中。 克莱格说:“尽管这项技术尚未完全成熟,特别是在音频和视频方面,但我们希望能够为行业其他公司创造一种动力和动力,让他们效仿。” 观看 | 人工智能生成的视频如何在选举中被武器化: 你能发现 Deepfake 吗? 人工智能如何威胁选举 人工智能生成的虚假视频被用于诈骗和网络笑话,但当它们被创建来干扰选举时会发生什么? 加拿大广播公司 (CBC) 的凯瑟琳·通尼 (Catharine Tunney) 详细分析了如何将这项技术武器化,并探讨加拿大是否已准备好进行深度造假选举。 他补充说,在此期间,Meta 将开始要求人们为自己修改过的音频和视频内容贴上标签,如果他们不这样做,将实施处罚。 克莱格没有描述处罚情况。 他补充说,目前没有可行的机制来标记由 ChatGPT 等人工智能工具生成的书面文本。 “那艘船已经起航了,”克莱格说。 Meta 发言人拒绝透露该公司是否会将标签应用于其加密消息服务 WhatsApp 上共享的生成人工智能内容。 Meta 的独立监督委员会周一谴责了该公司针对误导性篡改视频的政策,称其范围过于狭窄,内容应该被标记而不是被删除。 克莱格表示,他基本上同意这些批评。 他说,董事会是对的,Meta 的现有政策“在合成内容和混合内容比以前多得多的环境中根本不适合目的。” 他引用新的标签合作伙伴关系作为 Meta 已经朝着董事会提议的方向前进的证据。 […]

被克隆声音欺骗,公司将资金转移给骗子

帕 法新社 已发表 30 分钟前, 更新 17 分钟前 “数据脚本=“https://static.lefigaro.fr/widget-video/short-ttl/video/index.js”> 一家中国跨国公司因这起骗局损失了 2600 万美元,一名员工相信他正在与其财务部门的高管交谈。 骗子利用以下方式诈骗了一家中国跨国公司 深度造假技术,这是一个可以激励他人的第一。 据市警方报告,受骗公司向这些网络犯罪分子支付了 2600 万美元。 深度伪造是使用人工智能制作或修改的视频或音频记录。 它有可能产生错误信息和滥用,例如深度伪造图像显示人们说了他们从未说过的话。 另请阅读针对泰勒·斯威夫特的色情深度伪造提高了人们对人工智能危险的认识 中国某金融中心某公司员工收到 “有人冒充公司高级经理进行视频会议,要求他们将钱转入指定的银行账户”警方告诉法新社。 来自 YouTube 的视频 警方于 1 月 29 日收到该事件的报告,当时已通过 15 次转账损失了约 2 亿港元(2,600 万美元)。 “调查仍在进行中,到目前为止尚未逮捕任何人”警方表示,但没有透露该公司的名称。 受害者在财务部门工作,诈骗者冒充该公司位于英国的财务总监。 一名高级警官表示,视频会议有多名参与者,但除了受害人外,所有人都在场。 “伪造的”。 “诈骗者通过 YouTube 找到公开的视频和音频,然后使用 Deepfake 技术模仿他们的声音,欺骗受害者遵循他们的指示”该警官告诉记者。 他补充说,这些深度伪造视频是预先录制的,不涉及与受害者的任何对话或互动。 1707149833 #被克隆声音欺骗公司将资金转移给骗子 2024-02-05 15:38:48

微软首席执行官:泰勒·斯威夫特的假露骨图片疯传后,人工智能需要“护栏”

在人工智能生成的泰勒·斯威夫特 (Taylor Swift) 的露骨图像疯传后,微软首席执行官萨蒂亚·纳德拉 (Satya Nadella) 呼吁对人工智能 (AI) 和技术设置更多“护栏”。 在一个 独家专访 纳德拉在接受 NBC 新闻的莱斯特·霍尔特采访时表示,管理新兴技术是“我们的责任”。 “我想说两件事。 一是再次,我回想一下……我们的责任是什么? 这就是我们需要在技术周围设置的所有护栏,以便制作出更安全的内容,并且还有很多事情要做,还有很多事情没有做。”他在周二完整播出的采访中说道。 NBC 晚间新闻。 “但这关系到全球、社会……某些规范的趋同……尤其是当你拥有可以整合的法律、执法和技术平台时,”纳德拉继续说道。 “我认为我们可以治理的事情比我们想象的要多得多。” 这位首席执行官发表此番言论之前,人工智能生成的 Swift 露骨图像在 X(该平台以前称为 Twitter)上疯传。 她的支持者被称为“Swifties”,他们报道了这些照片,并在标签上铺满了这位歌手的更多正面形象, 美联社报道。 这 拜登政府呼吁 这些图像的传播“令人震惊”,并敦促社交媒体公司检查它们在执行规则以阻止错误信息和未经同意的亲密图像传播方面​​所发挥的“重要作用”。 十月,拜登总统签署了一项全面的 行政命令 专注于管理新兴技术及其风险的人工智能。 众议员 Yvette Clarke(纽约州民主党)也 呼吁采取行动 民主党和共和党共同致力于解决妇女在未经她们同意的情况下不断成为深度造假目标的问题。 版权所有 2023 Nexstar Media Inc. 保留所有权利。 该材料不得出版、广播、重写或重新分发。 1706468363 #微软首席执行官泰勒斯威夫特的假露骨图片疯传后人工智能需要护栏 2024-01-27 15:53:34

泰勒·斯威夫特 NSFW 深度假货引发立法者批评

周四在社交媒体上流传的泰勒·斯威夫特 (Taylor Swift) 的色情 AI 图像背后的创作者与多名立法者存在不和。 纽约州众议员乔·莫雷尔 (Joe Morelle) 和伊维特·克拉克 (Yvette Clarke) 都是民主党人,他们将目光转向了最近备受瞩目的深度造假色情事件,谴责人工智能生成图像的增加和扩散,这些图像压倒性地 影响妇女和儿童。 “人工智能生成的泰勒·斯威夫特露骨图像的传播令人震惊——可悲的是,这种情况每天都在发生在世界各地的女性身上,”莫雷尔 说 在推文中。 “这是性剥削,”莫雷尔在宣传他提出的《防止亲密图像深度造假法案》之前补充道。 账单 这将使未经被描绘者同意而分享深度伪造色情内容成为违法行为。 在她的 鸣叫克拉克指出,多年来,女性一直遭受未经同意的深度伪造品,人工智能技术的进步使人们更容易、更便宜地制造深度伪造品。 克拉克写道:“这是两党甚至斯威夫特人都应该能够共同解决的问题。” 在斯威夫特的粉丝在 X(前身为 Twitter)上表达愤怒的几小时后,政客们发表了声明。 周四,“保护泰勒·斯威夫特”成为了斯威夫特人的战斗口号,因为他们支持这位格莱美奖得主。 这些被篡改的照片本质上是色情的,并提到了这位“午夜”歌手与堪萨斯城酋长队近端锋特拉维斯·凯尔斯的高调恋情。 泰勒·斯威夫特的遭遇并不是什么新鲜事。 多年来,女性一直是未经她们同意的深度伪造的目标。 随着人工智能的进步,制作深度赝品变得更容易、更便宜。 这是两党甚至 Swifties 都应该能够共同解决的问题。 — 伊维特·D·克拉克 (@RepYvetteClarke) 2024 年 1 月 25 日 许多 Swifties 自行承担 报告 共享 Swift Deepfake 的 X 帐户。 “它们的存在实际上很可怕。 请举报+不要更多地关注这些推文,”用户@naboocoffee […]

来自未来的常见问题解答——我们如何挣扎并击败深度造假

把你的思想向前推进。 现在是 2028 年 11 月 8 日, 另一场总统选举后的第二天。 这一行动进展顺利——没有指控存在猖獗的作弊行为,也没有明显的欺诈行为——这在很大程度上要归功于民主最新敌人——深度造假的失败。 这样的未来可能吗? 到目前为止,政府和科技行业都没有就针对深度造假的有效防护措施达成一致。 但这份常见问题解答(未来五年)表明 2024 年发生的事件很可能会迫使这个问题出现——并且解决方案是可能的。 为什么花了这么长时间才找到有效的方法来对抗深度造假? 2022 年末,复杂的低成本人工智能软件出现,可以轻松创建逼真的音频、视频和照片,即所谓的 Deepfakes。 随着这些生成式人工智能程序的迅速改进,人们越来越清楚地意识到,深度造假内容将对民主构成威胁。 政治深度造假——包括音频和视频——很快就出现了:拜登总统宣布美国人将应征入伍去乌克兰作战。 唐纳德·特朗普拥抱并亲吻安东尼·福奇博士的照片。 马萨诸塞州民主党参议员伊丽莎白·沃伦 (Elizabeth Warren) 告诉 MSNBC,不应允许共和党人在 2024 年投票。只会说一种语言的纽约市长埃里克·亚当斯 (Eric Adams) 在人工智能生成的机器人通话中讲西班牙语、意第绪语和普通话。 很快, 白宫, 欧盟 和 各大科技公司 所有这些都提出了广泛的人工智能监管提案,其中包括对人工智能内容进行“水印”——将 ID 标签(一段永久的计算机代码)插入到任何人工智能生成内容的数字文件中,以识别其人工来源。 但事实证明,人工智能规则制定很复杂,而标签则体现了这种困境:法律是否需要人工智能水印? 将如何执行? 早在2023年,一些手机摄像头就在图像处理中使用了AI。 多少人工智能输入内容需要标识符? Instagram 美容影响者需要在她的面部调整自拍照上添加水印吗? 由于过于复杂,没有一个系统被广泛采用。 发生了什么变化? 历史上最大规模的深度造假协同攻击发生在 2024 年 11 月大选后的第二天。 美国的每个社交媒体频道都充斥着描绘十几个摇摆州选举舞弊的虚假音频、视频和静态图像,这些高度真实的内容在数小时内就有数百万人观看。 媒体和政府的揭穿努力受到源源不断的新深度伪造品的阻碍,这些伪造品大多产自俄罗斯、朝鲜、中国和伊朗。 […]