企业如何防御网络威胁?

如今,所有企业都面临网络攻击的风险,而且这种风险正在不断增加。 数字化转型导致更多敏感和有价值的数据被转移到能够利用的在线系统上,从而提高了成功违规的盈利能力。 此外,发动网络攻击变得越来越容易。 漏洞利用工具包和恶意软件即服务产品 越来越便宜,而开源人工智能工具使伪装成值得信赖的高管和利用漏洞变得更加容易。 TechRepublic 综合了专家关于企业如何防御最常见网络威胁的建议,这些威胁包括: 社会工程攻击。 零日漏洞利用。 勒索软件攻击和数据盗窃。 物联网攻击。 供应链攻击。 人工智能深度造假。 社会工程攻击 这些是什么? 社会工程是一些最常见类型的网络攻击的总称,所有这些攻击都涉及某种形式的人为操纵以获取有关组织或网络的信息。 社会工程攻击包括但不限于: 网络钓鱼: 攻击者冒充合法实体来欺骗个人泄露机密信息,例如登录凭据。 大多数情况下,这以电子邮件的形式进行,但也可以通过电话(语音钓鱼)或短信(短信发送)来完成。 诱饵: 攻击者将包含恶意软件的物理设备(例如 U 盘或 CD)留在公共场所,希望有人拿起并使用它,从而损害他们的系统。 捕鲸: 更加个性化的网络钓鱼版本,通常针对单个高级个人。 商业电子邮件妥协: 一种有针对性的网络攻击,攻击者通过受损的电子邮件帐户冒充值得信赖的高管,欺骗员工转移资金或泄露敏感信息。 请参阅:社会工程攻击中使用的 6 种说服策略 最常见的攻击入口点有哪些? 虽然社会工程攻击可以通过电子邮件、电话和 U 盘发起,但它们都有一个共同的攻击入口点:人类。 企业如何保护自己? 零日漏洞利用 这些是什么? TechRepublic 撰稿人 Kihara Kimachia 将零日漏洞定义为: “零日漏洞是软件供应商、安全研究人员和公众不知道的代码漏洞和漏洞。 “零日”一词源于软件供应商修补有缺陷代码的剩余时间。 由于零日(或零小时)响应,开发人员很容易受到攻击,并且没有时间修补代码和堵塞漏洞。 一个漏洞就可以让黑客有足够的权限来探索和映射内部网络、窃取有价值的数据并找到其他攻击媒介。” 请参阅:零日漏洞备忘单:定义、示例及其工作原理 由于大型语言模型的可访问性不断提高,零日攻击可能会增加。 此类模型可用于加快漏洞搜索速度,并帮助进行令人信服的社会工程攻击。 最常见的攻击入口点有哪些? 零日漏洞的潜在攻击入口点与已知和已修补的漏洞相同 – 攻击者可以利用软件或硬件系统中的弱点的任何方式。 […]

预计选举中不会出现深度造假浪潮,但风险依然存在

图片编辑NOS欧洲议会(左)和美国国会(右)的建筑物 NOS Nieuws•vandaag, 17:26 南多·卡斯特莱因 编辑技术 南多·卡斯特莱因 编辑技术 今年年初,美国新罕布什尔州居民接到疑似来自拜登总统的电话:议长建议他们不要参加初选投票。 只有11月的真正选举才算数。 只是实际上并不是总统在打电话,而是由人工智能语音传递信息,这是一个例子 深度伪造。 电话来自德克萨斯州的一家公司。 该公司目前因涉嫌非法活动而受到调查。 多年来,虚假信息一直围绕选举传播,过去曾多次提到俄罗斯。 2024年是一个特殊的选举年,全球一半以上的人口将参加投票。 印度的选举已经开始,欧洲将于下月初举行,美国将于今年秋天举行。 因此,由于生成型人工智能(人工智能)的兴起,制造深度赝品变得越来越容易,风险很高。 一张 Deepfake 就够了 欧洲数字媒体观察站事实核查协调员托马索·卡内塔 (Tomasso Canetta) 表示:“选举前一两天,一个人工智能生成的音频文件就足以对投票产生影响。” 去年斯洛伐克就已经发生过这样的事情,给自由党领导人带来了不好的印象。 根据 Canetta 的说法,音频是目前最有问题的变体。 对于使用 AI 创建的图像,您经常会看到图像中存在(小的)偏差。 那是清晰可见的 带有图像 弗兰斯·蒂默曼斯 (Frans Timmermans) 撰写,去年秋天在 X 上流传。 这张照片显然是假的。 AI 制作的视频还没有达到与真实视频无法区分的程度,尽管 OpenAI 的文本转视频模型 Sora 可以改变这一现状。 现在,视频中的音频通常是假的,而且嘴唇是对口型的。 “音频深度伪造是最有害的,因为普通用户无法轻易识别它们,特别是如果你不密切注意对话风格和语法的话,”卡内塔说。 他强调,有很好的方法来识别这些类型的深度赝品,但它们并不能提供 100% 的保证。 在这里听听乔·拜登的深度造假。 你首先听到拜登的真声,然后是假声: 假货与真品难以区分:在这里听听乔·拜登的深度赝品 […]

实时 Deepfake 浪漫骗局已经到来

《连线》杂志对这些视频和三个相关的雅虎男孩电报频道的评论显示,随着深度造假应用程序和人工智能的改进,骗子的技术是如何演变的。 这是首次详细记录诈骗者使用深度伪造视频通话的具体策略和古怪技术。 视频显示雅虎男孩在涉及笔记本电脑和手机的设置中使用了该技术。 在多个视频中,诈骗者经常厚颜无耻地展示自己以及他们所诈骗的受害者的面孔。 “我不认为他们这样做是因为他们愚蠢,”迈蒙说。 “我认为他们根本不在乎,也不怕后果。” 雅虎男孩是经验丰富的骗子,他们公开吹嘘这一点。 从 Facebook 到 TikTok,他们的欺骗和招募的照片和视频在社交媒体上随处可见。 然而,拥有尼日利亚王子电子邮件诈骗链接的网络犯罪分子可以说是 Telegram 上最公开的。 在包含数千名成员的团体中,雅虎男孩组织并宣传他们的个人技能,以进行各种诈骗。 他们是熟练的社交操纵者,可以 对受害者产生长期影响。 每天都有数百个帖子宣扬商业电子邮件泄露、加密货币诈骗和冒充诈骗。 成员声称出售照片和视频编辑技能以及可用于构建令人信服的角色的整套露骨照片。 假身份证和看似合法的社交媒体资料正在出售。 诈骗“脚本”可以免费下载。 网络传染研究所的情报分析师保罗·拉菲尔 (Paul Raffile) 表示:“雅虎男孩具有有组织犯罪和无组织犯罪的成分。” 调查雅虎男孩对青少年进行性勒索 和 驾驶他们 走向自杀。 “他们没有领导者,也没有治理结构。” 拉菲尔说,相反,他们以集群形式组织起来,并在网上分享建议和技巧。 Telegram 没有回应《连线》杂志关于雅虎男孩频道的置评请求,但这三个频道似乎已无法访问。 迈蒙表示,数字骗子在 2022 年 5 月左右开始使用深度伪造作为浪漫骗局的一部分。 “人们所做的只是发布自己的视频,改变他们的外表,然后将它们发送给受害者 – 试图引诱他们与他们交谈,”他说。 从那时起,他们就继续前进。 为了制作视频,雅虎男孩使用了一些不同的软件和应用程序。 《连线》没有命名具体软件,以限制人们复制攻击的能力。 然而,他们使用的工具经常被宣传用于娱乐目的,例如允许人们与名人或有影响力的人交换面孔。 雅虎男孩的实时深度伪造通话以两种不同的方式进行。 在第一个例子中,如上图所示,诈骗者使用两部手机和一个换脸应用程序。 诈骗者拿着他们打电话给受害者的手机(迈蒙说,他们大多使用 Zoom,但它可以在任何平台上运行),并使用其后置摄像头记录第二部手机的屏幕。 第二部手机的摄像头对准了诈骗者的脸部,并且正在运行换脸应用程序。 视频显示,他们经常将两部手机放在支架上,以确保它们不会移动,并使用环形灯来改善实时面部交换的条件。

微软的人工智能应用程序 VASA-1 让图片中的面孔说话和唱歌:它是如何工作的? | 科技新闻

不久前,一些应用程序可以通过类似 GIF 的动作让照片变得栩栩如生。 现在,我们有了一个人工智能系统,可以让照片跳舞唱歌。 微软亚洲研究院的人工智能研究人员团队创建了一款人工智能应用程序,可以将人物的静态图像和音轨转换为动画。 这不仅仅是动画/据报道,输出准确地显示了图像中的人物对着音轨说话或唱歌,以及恰当的面部表情。 最新的应用程序 Vasa 是一个框架,用于从单个静态图像和语音音频剪辑中生成具有吸引人的视觉情感技能 (VAS) 的虚拟角色的逼真说话面孔。 研究人员写道:“我们的首个模型 VASA-1 不仅能够产生与音频完美同步的嘴唇运动,还能捕捉大量面部细微差别和自然头部运动,有助于感知真实性和活力。”在描述该框架的论文中。 “我们的方法不仅提供具有逼真的面部和头部动态的高视频质量,而且还支持高达 40 FPS 的在线生成 512×512 视频,并且启动延迟可以忽略不计。 它为与模仿人类对话行为的逼真化身进行实时互动铺平了道路,”研究人员写道。 什么是 VASA-1? 微软的研究人员声称,他们的新方法不仅能够产生唇音同步,还可以创建大量富有表现力的面部细微差别和自然的头部运动。 “它可以处理任意长度的音频并稳定输出无缝的人脸视频。” VASA-1 的研究人员开始了一项雄心勃勃的任务,即让静态图像栩栩如生,让它们与任何音轨完美同步地说话、唱歌和表达情感。 VASA-1 是他们努力的成果,人工​​智能系统将静止的视觉效果(无论是照片、图画还是绘画)转换为同步动画。 在控制方面,研究人员声称他们的扩散模型可以接受可选信号作为主眼注视方向、头部距离、情绪偏移等条件。 根据该研究论文,该团队通过大量视频剪辑展示了 VASA-1 系统的功能。 其中一张卡通版的《蒙娜丽莎》栩栩如生,并唱出一首说唱歌曲。 在这个例子中,蒙娜丽莎的表情和嘴唇动作与歌词完美契合。 与此同时,另一个例子是一张女人的照片变成了唱歌表演。 另一个例子是一个正在演讲的男人的肖像,人们可以注意到他的表情自然地变化以强调所说的话。 VASA-1 是如何创建的? 根据该研究论文,VASA-1 的突破是通过广泛的训练过程实现的。 这涉及到人工智能系统暴露于数千张描绘各种面部表情的图像。 据报道,这个庞大的数据集使系统能够学习并准确地重现人类情感和语音模式的细微差别。 VASA-1 的当前迭代可生成 512X512 像素的高分辨率视觉效果,帧速率为 45fps,使其显得流畅。 据报道,这些逼真动画的渲染平均需要两分钟,这可以通过使用桌面级 Nvidia RTX 4090 GPU 的计算能力来实现。 该研究论文没有明确提及发布日期,但指出 […]

最大的 Deepfake 色情网站现已在英国被封锁

两个最大的深度伪造色情网站现已开始阻止人们试图从英国访问它们。 此举是在英国政府几天后做出的 公布的计划 制定一项新法律,将未经同意制造深度伪造品定为刑事犯罪。 非自愿的深度伪造色情网站和从照片上“剥掉”衣服的应用程序一直在以惊人的速度增长,给它们所针对的数千名女性造成了难以估量的伤害。 杜伦大学法学教授克莱尔·麦克格林表示,此举是“非常重要的时刻” 反对 深度伪造滥用。 “这结束了深度伪造性虐待材料的轻易获取和正常化,”麦格林告诉《连线》杂志。 自 Deepfake 技术于 2017 年 12 月首次出现以来,它一直被用来创建未经同意的女性性图像——将她们的脸换成色情视频或允许生成新的“裸体”图像。 随着技术的进步和变得更容易访问,数百个网站和应用程序已经创建。 最近,学生被发现创作同学的裸体。 英国的深度造假网站上的封锁今天首次被发现,其中两个最著名的服务在其登陆页面上显示通知,称来自该国的访问者不再可以访问这些网站。 由于这两个网站存在滥用行为,《连线》杂志没有点名。 受到限制的网站之一是当今最大的深度造假色情网站。 当从英国访问时,其主页显示一条消息称访问被拒绝。 “根据您所在国家或州的法律或(即将出台的)立法,我们很遗憾有义务拒绝您访问该网站,”该消息称。 它还显示访问者的 IP 地址和国家/地区。 另一个网站也有一个应用程序,显示类似的消息。 它说:“在您的国家/地区访问该服务被阻止”,然后暗示可能有办法绕过地理限制。 从美国访问时,这些网站似乎没有任何限制,但在其他国家/地区也可能受到限制。 目前尚不清楚这些网站为何引入位置限制,或者他们这样做是否是为了响应任何法律命令或通知。 也不清楚这些封锁是否是临时的。 通过电子邮件地址和联系表格发送到网站的消息没有得到回复。 这些网站的创建者尚未在网站或其社交媒体渠道上发布任何有关这些区块的公开消息。 英国通信监管机构 Ofcom 有权根据去年生效的英国备受争议的全面在线安全法,对有害网站采取行动。 然而,这些权力尚未完全发挥作用,Ofcom 仍在就这些权力进行咨询。 这些限制可能会大大限制英国寻找或试图创建深度伪造性虐待内容的人数。 数字情报公司Similarweb的数据显示,这两个网站中最大的网站上个月有1200万全球访问者,而另一个网站有400万访问者。 在英国,他们分别拥有约 500,000 名和 50,000 名游客。

俄罗斯美国大选干预目标是在缓慢启动后支持乌克兰

由于初选竞争较少,外国恶意影响美国总统选举的速度比 2016 年和 2020 年要慢。 俄罗斯的努力重点是破坏美国对乌克兰的支持,而中国则寻求利用社会两极分化并削弱人们对美国民主制度的信心。 此外,人们对复杂的人工智能深度造假视频能否成功操纵选民的担忧尚未得到证实,但更简单的“浅层”人工智能增强和人工智能音频造假内容可能会取得更大的成功。 这些见解和分析包含在 第二份微软威胁情报选举报告 今天发布。 俄罗斯投入巨资破坏美国对乌克兰的支持 俄罗斯影响力行动(IO)在过去两个月中势头强劲。 微软威胁分析中心 (MTAC) 追踪到至少 70 名俄罗斯行为者,他们利用传统媒体和社交媒体以及秘密和公开的活动,参与针对乌克兰的虚假信息。 例如,微软追踪的 Storm-1516 演员已成功使用跨多种语言的一致模式向美国受众洗白反乌克兰叙事。 通常,该小组遵循三个阶段的过程: 个人以举报人或公民记者的身份出现,在专门建立的视频频道上传播叙事 然后,该视频被一个看似无关的全球秘密管理网站网络覆盖 俄罗斯侨民、官员和旅伴随后扩大了这一报道。 最终,美国观众可能不知道原始来源而重复并转发虚假信息。 图 1:Storm-1516 向美国观众空间传播虚假信息的过程 中国寻求扩大社会分歧并破坏民主制度 中国在其以选举为重点的活动中采用了多层次的方法。 它利用现有的社会政治分歧,并将其攻击与党派利益结合起来,以鼓励有机循环。 图2:与中共有联系的马甲账户冒充美国选民发布以美国为中心的选举内容 中国在与选举相关的影响力活动中越来越多地使用人工智能,这是它与俄罗斯不同的地方。 虽然俄罗斯对人工智能的使用影响力不断发展,但中华人民共和国 (PRC) 和中国共产党 (CCP) 相关的参与者利用生成式人工智能技术来有效地创建和增强图像、模因和视频。 到目前为止,伊朗的活动有限,经常出现游戏后期剧透的情况 伊朗过去的行为表明,它可能会在临近美国选举日时发起激烈的网络影响行动。 德黑兰的选举干预战略采用了一种独特的方法:将网络和影响力行动结合起来,以产生更大的影响。 中东持续的冲突可能意味着伊朗将改变其针对美国的计划目标和努力 2024 年选举中的生成式人工智能——风险依然存在,但与预期不同 自 2022 年底生成式人工智能民主化以来,许多人担心这项技术将被用来改变选举结果。 MTAC 与 Microsoft 的多个团队合作,识别、分类和分析民族国家在影响力行动中恶意使用生成式人工智能的情况。 简而言之,迄今为止,使用世界领导人和候选人的高产量合成深度伪造视频尚未造成大规模欺骗和广泛的混乱。 事实上,我们已经看到,观众更有可能被吸引并分享简单的数字伪造品,这些伪造品在过去十年中一直被有影响力的演员所使用。 例如,虚假新闻报道上印有真实新闻机构的徽标。 观众有时确实会喜欢生成式人工智能内容,尽管成功的场景有相当大的细微差别。 […]

唐纳德·特朗普和“深度假货”战争

美国热情。 这位共和党候选人精通模糊所有基准的策略,借助人工智能和算法进行反民主宣传。 因此,政治学家玛丽-塞西尔·纳维斯强调,平台的透明度是白宫竞选中的一个关键问题。 帕 玛丽·塞西尔·纳维斯 发表于 2024 年 4 月 3 日上午 11:30 免费进入 稍后阅读 分享 Facebook 推特 电子邮件 复制链接 发送 本文是全权委托,由期刊外作者撰写,其观点不代表编辑人员。 几周前,我们看到大量的竞选图片 唐纳德·特朗普 与一群微笑的黑人支持者合影,他希望明年 11 月在这个选民中取得进展 关键国家,特别是在男性和年轻人中。 但这些照片给人留下了奇怪的印象。 走近一看, 就像 BBC 所做的那样,我们意识到它们是假的:拼贴画很粗糙,一个主角的手指不见了,另一个主角只有三只手臂。 事实仍然是:这些视觉效果被(真正的)特朗普支持者和忠于前总统的极端保守媒体广泛分享。 是经过他的同意,还是主动? 没人知道。 另一方面,这位共和党候选人确实在三月底播放了一段恶搞视频,内容是 乔·拜登 手脚被绑在皮卡后座上。 他的 Instagram 帐户定期发布蒙太奇,例如,一辆标有“拜登-哈里斯”的自卸卡车着火,或者民主党总统向一群竞相穿越墨西哥和美国边境的移民铺开红地毯。-美国。 并就 深度造假,这不仅仅是图像。 一月份,新罕布什尔州的选民接到一个电话,其中现任总统的经过篡改的声音建议他们不要在该州的民主党初选中投票(美国全国广播公司透露 因为乔·拜登的竞争对手为民主党提名而聘请的一位政治顾问是其起源)。 事实仍然是,自 2015-2016 年竞选以来,唐纳德·特朗普继续传播和宣传针对他的对手或他所定义的那些人的虚假暴力图像:全速投掷高尔夫球以击倒希拉里·克林顿或乔·拜登,唐纳德·特朗普在曼哈顿检察官的照片旁边挥舞着棒球棒 阿尔文·布拉格 甚至在一场摔跤比赛中,他击倒了一名 > 频道的工作人员。 另请阅读 报告文学 […]

Deepfake 裸体生成器揭示了受害者令人不寒而栗的样子

该网站上的另一张图片显示了一群似乎在上中学的青少年:一个男孩在似乎是学校体育馆的地方自拍,两个女孩微笑着摆姿势拍照。 男孩的特征被 Snapchat 镜头遮挡,他的眼睛放大到遮住了他的脸。 显然上传的图像上的标题表明它们包括朋友、同学和浪漫伴侣的图像。 一个标题写着“我的女朋友”,展示了一位年轻女子对着镜子自拍。 许多照片都是在 TikTok、Instagram 和其他社交媒体平台上受欢迎的影响者。 其他照片似乎是人们分享日常生活图像的 Instagram 截图。 一张照片显示,一位年轻女子微笑着享用甜点,上面放着庆祝蜡烛。 几张照片中的人似乎与拍照者完全陌生。 一张从后面拍摄的照片描绘了一名妇女或女孩,她没有摆出姿势拍照,而只是站在似乎是旅游景点的地方。 《连线》杂志审查的一些图像经过裁剪,去掉了妇女和女孩的脸部,只显示她们的胸部或胯部。 大量观众 在对该网站进行为期八天的监控期间,《连线》杂志发现主页上出现了五张新的女性照片,探索页面上则出现了三张。 网站上列出的统计数据显示,这些图像中的大多数都积累了数百次“浏览量”。 目前尚不清楚提交到该网站的所有图像是否都会进入“主页”或“探索”提要,也不清楚视图是如何制成表格的。 主页上的每个帖子至少有几十个浏览量。 名人和拥有大量 Instagram 粉丝的人的照片位居网站上“观看次数最多”图像的榜首。 该网站有史以来观看次数最多的人是演员 Jenna Ortega(观看次数超过 66,000 次)、歌手兼作曲家 Taylor Swift(观看次数超过 27,000 次),以及来自马来西亚的影响者和 DJ(观看次数超过 26,000 次)。 斯威夫特和奥尔特加之前曾成为深度伪造裸体的目标。 的流通量 斯威夫特的假裸照 一月份的 X 事件引发了关于深度造假的影响以及为受害者提供更多法律保护的必要性的新讨论。 本月,NBC 报道称,七个月来,Meta 主持了 Deepnude 应用程序的广告。 该应用程序利用 Jenna Ortega 16 岁时的照片夸耀其“脱衣服”的能力。 在美国,没有联邦法律针对传播虚假的、未经同意的裸体图像。 少数几个州 制定了自己的法律。 […]

摄影不再是任何事物的证据

几周来,世界充斥着由以下因素引发的阴谋论: 奇怪的文物 在摄影中 失踪的威尔士王妃的照片 她最终 承认 已被编辑。 他们中有一些 变得很疯狂,从掩盖凯特所谓的死亡,到王室成员是爬行动物外星人的理论。 但没有一个想法比 2024 年任何人都可能相信数字图像是证据更奇怪的了。 任何事物。 数字图像不仅具有无限的可塑性,而且操纵它们的工具也像泥土一样常见。 对于任何关注的人来说,这一点几十年来已经很清楚了。 这个问题在大约 40 年前就已明确提出, 共同撰写的一篇文章 凯文·凯利 (Kevin Kelly),《连线》杂志创始编辑; 斯图尔特·布兰德; 和 Jay Kinney 在 1985 年 7 月版的 整个地球评论,一份由位于加利福尼亚州索萨利托的布兰德组织运营的出版物。 大约一年前,凯利看到了他父亲工作的出版商《时代生活》的内部时事通讯,由此萌生了写这个故事的想法。 它描述了一台价值数百万美元、名为 Scitex 的机器,它可以从摄影胶片中创建高分辨率数字图像,然后可以使用计算机对其进行更改。 高端杂志是第一批顾客:凯利了解到 国家地理 使用该工具确实移动了吉萨金字塔之一,以便它可以适合封面镜头。 “我想,‘伙计,这会改变一切,’”凯利说。 这篇文章的标题是“数字修饰:摄影作为一切证据的终结”。 它以一个虚构的法庭场景开始,一名律师辩称,受损照片应排除在案件之外,并表示,由于其不可靠性,“摄影在这个或任何其他法庭中没有地位。就此而言,电影、录像带、或录音带。” 这篇文章是否引起了人们对摄影可能被剥夺其作为文献证据的作用这一事实的广泛关注,或者是一个无人能辨别真假的时代的前景? “不!” 凯利说。 没有人注意到。 就连凯利也认为,要使令人信服的修改照片的工具变得普遍可用还需要很多年。 三年后,来自密歇根州的两兄弟发明了 Photoshop,并于 1990 年作为 Adob​​e 产品发布。该应用程序将数字照片处理放在台式电脑上,从而大幅降低了成本。 到时候甚至 纽约时报 […]

儿童卡通片可免费享受 YouTube 的 Deepfake 披露规则

YouTube 更新了新时代的规则手册 深度造假。 从今天开始,任何将视频上传到该平台的人都必须披露合成媒体的某些用途,包括生成人工智能,以便观众知道他们所看到的不是真实的。 YouTube 说它适用于“现实”的改变媒体,例如“使其看起来就像一座真正的建筑物着火了”或 交换 “一个人的脸与另一个人的脸。” 这 新政策 显示 YouTube 正在采取措施帮助遏制病毒传播 人工智能生成的错误信息 作为 美国总统选举 接近。 它所允许的内容也令人震惊:人工智能生成的针对儿童的动画不受新的合成内容披露规则的约束。 YouTube 的 新政策 将动画内容完全排除在公开要求之外。 这意味着 人工智能生成的内容骗子快速致富的新兴场景 可以继续制作针对儿童的视频,而不必透露他们的方法。 担心匆忙制作的童谣视频质量的家长将不得不自行识别人工智能生成的卡通片。 YouTube 的新政策还表示,创作者无需标记使用人工智能进行“主要是美观”的“次要”编辑,例如美颜滤镜或清理视频和音频。 使用人工智能“生成或改进”脚本或字幕也是允许的,无需披露。 YouTube 上不乏没有人工智能制作的低质量内容,但生成式人工智能工具降低了视频制作的门槛,从而加速了视频的制作。 YouTube 的母公司谷歌最近表示 调整其搜索算法 降级最近的洪水 AI 生成的标题诱饵,通过 ChatGPT 等工具成为可能。 视频生成技术尚不成熟 但进步很快。 既定问题 YouTube 是 儿童娱乐巨头,让 Netflix 和迪士尼等竞争对手相形见绌。 该平台过去一直在努力调整大量针对儿童的内容。 它因托管表面上适合或对儿童有吸引力的内容而受到批评,但实际上 仔细观察包含令人不快的主题。 《连线》杂志最近报道 针对儿童的 YouTube 频道的兴起,这些频道似乎使用人工智能视频生成工具来制作以通用 3D […]