菲律宾称小马科斯深度造假背后有“外国演员”敦促对中国采取军事行动

深度造假内容背后可能有一名“外国演员”,这让菲律宾总统小费迪南德·马科斯听起来像是在敦促 对中国采取军事行动据他的通讯办公室称。 通讯办公室在周五的一份声明中表示,政府正在调查篡改视频的传播情况,并将对责任人提起诉讼。 该办公室表示,这些“看似要求武装部队对另一个国家采取行动”的深度假货已被删除,但没有提及中国。 这些虚假内容本月流传之际,菲律宾和中国因在南海问题上的重叠主张而关系紧张。 南中国海。 马科斯 他曾多次表示,他并不是试图激怒北京,因为中国维护自己的权利,并向争议海域派遣船只,而那里与中国的接触已经变得更加频繁。 当地媒体报道称,深度假货将菲律宾领导人描绘成呼吁使用武力对中国进行报复。 他的通讯办公室本周早些时候标记了被操纵的内容,并表示总统没有这样的指令。 小马科斯下令对华采取军事行动的 Deepfake 引起警惕 PCO 在周二的一份声明中表示,“总统通讯办公室注意到,在网上流传的一个流行视频流媒体平台上发布的视频内容经过了精心设计,听起来像是小费迪南德·R·马科斯总统的音频”。 。 “深度伪造音频试图让人感觉总统已指示我们的菲律宾武装部队对特定外国采取行动。 不存在也没有制定过这样的指令,”它补充道。 据 PCO 称,它正在通过媒体和信息素养运动制定打击假新闻、错误信息和虚假信息的措施。 “我们还与政府机构和相关私营部门利益相关者密切协调和合作,积极解决视频和音频深度伪造以及其他生成人工智能内容的扩散和恶意使用问题,”它表示。 11:56 从印度到中国,深度造假如何重塑亚洲政治 从印度到中国,深度造假如何重塑亚洲政治 马科斯的深度假货事件表明,随着人工智能的腾飞,从美国到印度,世界各国正在努力应对试图影响政治的受操纵的在线内容。 去年,国防部长吉尔伯托·特奥多罗警告军事和安全人员不要使用利用人工智能生成个人肖像的应用程序,称它们可能“被恶意用来创建虚假个人资料,从而导致身份盗窃、社会工程、网络钓鱼攻击和其他行为”。恶意活动”。 三名立法者还寻求通过一项法案对使用深度伪造技术实施的犯罪行为施加更严厉的处罚。 菲律宾马科斯排除因妻子不和而解雇副总统杜特尔特的可能性 该法案草案将“深度伪造”定义为“通过技术手段创建或更改的任何音频、视频或视听记录,例如录像、电影、录音、电子图像或照片,其令人信服程度足以使合理的人们会误认为它是个人言论或行为的真实表现。” 《南华早报》亚洲部门的补充报告 1714132539 #菲律宾称小马科斯深度造假背后有外国演员敦促对中国采取军事行动 2024-04-26 04:25:41

在英国制作性深度假货已成为刑事犯罪 | 科技

16 apr 2024 om 12:23 对于英国人来说,未经所描绘的人同意进行性深度假将构成刑事犯罪。 英国政府通过新立法将这些深度造假行为定为应受惩罚的罪行。 深度伪造是利用经过处理或编辑的现有图像制作的。 在性深度假货的情况下,一个人的脸经常被粘贴到色情演员的身体上。 多年来,这些编辑变得越来越现实。 违法的英国人将面临被罚款和留下犯罪记录的风险。 据法务部称,如果传播这些图像,还可能被判处监禁。 该部称未经请求的性深度假货制造者令人厌恶。 需要强调的是,如果他们不传播经过处理的图像,而只是为了伤害受害者,很快也将被定为刑事犯罪。 副国务卿劳拉·法里斯 (Laura Farris) 表示,深度假货被用来羞辱和非人化。 她说,现在正在发出一个明确的信号:“这是不道德的,往往是厌恶女性的,应该受到惩罚”。 在荷兰,根据现行立法,未经同意制作和传播性深度假货已经受到惩罚。 仅仅做到这一点就可能导致一年监禁。 进一步分配的期限为两年。 Beeld: Getty Images Lees meer over: TechDeepfake 1713316229 #在英国制作性深度假货已成为刑事犯罪 #科技 2024-04-16 10:23:38

公主的水手上衣,人工智能生成视频的证据?

和 对水手的爱,这是一股席卷网络的模糊理论浪潮。 如果他在上周五发布的视频中说: 凯特·米德尔顿呼吁尊重她的隐私 而对于她的家人来说,只需要拍摄一位穿着条纹毛衣坐在长凳上的公主,就可以重启阴谋机器。 因此,许多互联网用户确信发布的这段视频 下午 6:59 肯辛顿宫实际上是一种粗鲁 深度伪造, 人工智能生成的一系列虚假图像。 证据就是:凯特·米德尔顿的毛衣。 更准确地说,是威廉王子的妻子在 2016 年的一次宣传活动中穿的一件水手上衣。 根据《网络神探夏洛克》的说法,这些图像是在英国花园的田园诗般的环境中拍摄的。 点击“ 我接受 ”您接受外部服务存储的 cookie,从而可以访问我们合作伙伴的内容。 页面上有更多信息Cookie 管理政策 我接受 “这张2016年的照片看起来熟悉吗? 出现了几个问题:凯特在她最新的视频中穿着一件八年前(或一模一样)的上衣,这是否是巧合? 或者这张八年前的照片被用来制作假人工智能视频? ”, 一位互联网用户问道 他并不孤单(Jeuxvidéo.com 论坛推出 讨论 “凯特的视频很奇怪,不是吗? ”)。 从周六早上开始, 水手上衣是所有假设的中心 因此,所有人得出的结论是,著名的凯特·米德尔顿视频是 由人工智能生成 来自 2016 年的图像。 “对不起,温莎王室、凯特·米德尔顿(和)主流媒体——我仍然不买你们卖的东西,”说 因此,一名互联网用户。 假冒 2016年威廉王子、凯特王妃和哈里王子拍摄的视频是 新的 Heads Together 活动。 他的目标是什么? 结束与心理健康相关的耻辱。 阳光明媚的日子里,三人组在花园里活动。 在这里,凯特也穿着水手上衣。 当仔细观察时 [et il […]

OpenAI 的视频生成器 Sora 可能允许裸体。 专家们忧心忡忡

看到一个很酷的梦想或想法的视频回放可能很快就会成为现实。 OpenAI 的文本到视频 AI 生成器 Sora, 是 将被公开发布 “今年肯定是这样,”该公司首席技术官米拉·穆拉蒂 (Mira Murati) 告诉《华尔街日报》。 该新闻媒体提供了 Sora 几代人的例子,其中有智能手机的美人鱼和瓷器店里的公牛。 山姆·奥尔特曼是如何吓唬董事会成员的? | OpenAI 的下一步是什么? 但当被问及 Sora 的裸体时, 穆拉蒂表示,她不确定视频世代是否会允许这样做,并补充说艺术家可能会在创作环境中使用裸体一代。 Murati 表示,OpenAI 正在“与不同领域的艺术家和创作者合作,以确定什么是有用的”,以及 Sora 应该具有“什么程度的灵活性”。 但是,尽管致力于模型研究的初创公司和公司努力对可以生成的内容类型实施护栏,但敏感材料(例如 深度伪造裸体 和 深度伪造色情内容 由主要的生成人工智能工具定期制作。 专家表示,OpenAI 和其他致力于类似技术的科技公司以及美国政府应该更多地采取行动。 在像 Sora 这样的工具广泛发布之前,积极主动地对其进行监管。 爬上护栏 在人工智能政策研究所 (AIPI) 2 月份对美国选民进行的一项民意调查中,77% 的受访者表示,当谈到像 Sora 这样的人工智能视频生成器时,包括防止滥用的护栏和保障措施是值得考虑的。 比使模型广泛可用更重要。 超过三分之二的受访者表示,人工智能模型的开发者应对任何问题承担法律责任。 模特的非法活动,例如制作用于诽谤或报复色情的虚假视频。 AIPI 创始人兼执行董事丹尼尔·科尔森 (Daniel Colson) 表示:“这确实表明了公众如何认真对待这项技术。” “他们认为它很强大。 […]

Deepfake 首席财务官诱骗远程员工在“视频通话”后向他们发送 2000 万英镑

香港当局已对一起重大金融欺诈案件展开调查,此前一名在一家未公开身份的公司工作的员工报告称,在一次深度伪造的视频电话会议中,被骗向欺诈者转账了 2 亿港元(2000 万英镑)。 香港警务处证实,他们已收到受害人的举报,称受害人是“冒充公司高级人员”的人的目标。 根据警方的声明,该员工于 1 月 29 日报案,透露诈骗行为是通过视频电话会议进行的,冒充者令人信服地将自己描绘成公司高级官员,指示将资金转入指定的银行账户。 此案凸显了先进技术(例如深度造假技术)所构成的日益严重的威胁,该技术允许 网络犯罪分子操纵视觉和听觉内容来创建逼真的模仿。 在这种情况下,欺诈者利用了通过视频会议建立的信任,利用受害者的信念,即她正在与真正的公司领导进行互动。 香港警方目前正在努力追查欺诈性视频电话会议的起源,并查明那些精心策划这一复杂骗局的人。 警方表示,经初步调查,案件已列为“以诈骗手段获取财物”,目前由网络犯罪部门管辖。 截至目前,尚未逮捕任何人,调查工作正在进行中。 根据 香港电台是香港的公共广播公司,受影响的人是一家未公开姓名的跨国公司雇用的职员。 据报道,代理高级警司 Baron Chan 推测肇事者可能是 利用人工智能进行欺骗。 陈解释道:“[The fraudster] 邀请举报人 [clerk] 参加一个有很多参与者的视频会议。 由于视频会议中的人看起来像真人,举报人…按照指示向五个本地银行账户进行了 15 笔交易,总计 2 亿港元。 我相信诈骗者提前下载了视频,然后利用人工智能添加虚假声音用于视频会议。” 网络安全专家强调,需要提高认识并加强安全措施,以保护企业和个人免遭此类欺骗行为的受害者。 该事件凸显了与远程通信渠道相关的漏洞,特别是在远程工作变得越来越普遍的情况下。 随着公司继续依赖虚拟会议和视频会议,迫切需要强有力的网络安全措施和员工培训,以防止财务欺诈和未经授权的资金转移。 当局敦促企业实施严格的身份验证协议,定期举办网络安全培训课程,并投资于能够检测深度伪造内容的技术。 随着调查的进展,建议企业保持警惕并采取积极措施 保护其金融资产免受不断变化的网络威胁。 香港警方致力于调查这起高额诈骗案,反映出当局对待此类事件的严肃态度。 随着技术不断进步,企业必须调整其安全策略,以领先于利用创新方法实施金融诈骗的网络犯罪分子。 此案清楚地提醒我们,执法机构和企业之间需要持续保持警惕并进行合作,以应对不断升级的威胁 与深度伪造相关的欺诈。 Deepfake CFO 骗局的财务影响不仅仅限于 2000 万英镑的直接损失。 它强调了对公司声誉、员工信任和整体财务稳定性的潜在损害。 受害员工在所谓的视频通话中表现出善意,现在面临着毁灭性的经济损失。 随着调查的展开,企业应保持警惕并培养网络安全意识文化。 员工意识和教育对于防止成为此类诈骗的受害者至关重要,确保远程工作人员保持警惕并验证所有在线互动的真实性。 2024-03-03 21:26:44 […]

全球欺诈活动增多,公司因 Deepfake 骗局损失 2500 万美元

香港当局已针对一家未公开身份公司的一名员工提出指控展开调查,该员工声称自己成为了涉及深度造假视频电话会议的复杂骗局的受害者,导致她的 2 亿港元(2000 万英镑)资金被转移。公司资金流向诈骗者。 香港警务处证实收到该员工的举报,指她被冒充公司高层的人士误导而进行转移。 警方在一份官方声明中披露:“警方于1月29日接获一名公司员工报案,称她接到冒充该公司高级人员的视频电话,要求其公司被骗约2亿港元。将钱转入指定的银行账户。” 经初步调查,该案已列为“诈骗财物”,并已移交网络犯罪部门进一步审查。 截至目前,尚未逮捕任何人,调查正在进行中。 据香港公共广播公司香港电台报道,受影响的人被确定为一家跨国公司的职员,但该公司的名称尚未公开。 据香港电台引述,署理高级警司陈百伦推测,肇事者利用人工智能(AI)来执行欺诈计划。 ”[The fraudster] 邀请举报人 [clerk] 参加一个有很多参与者的视频会议。 由于视频会议中的人看起来像真人,线人……按照指示向五个本地银行账户进行了 15 笔交易,总计 2 亿港元。” 他进一步补充道:“我相信诈骗者提前下载了视频,然后利用人工智能添加虚假声音在视频会议中使用。” 该广播公司还表示,该员工收到了公司首席财务官的指示,强调交易的保密性。 直到转账并与公司总部交谈后,该员工才意识到该电话是诈骗电话。 陈先生在评论该事件时警告说:“从这个案例中我们可以看到,欺诈者能够在在线会议中使用人工智能技术,因此即使在有很多参与者的会议中,人们也必须保持警惕。” 该欺诈计划最初是在网络钓鱼企图后被发现的,该计划涉及深度伪造视频电话会议,导致一家公司的资金转移了 2 亿港元给欺诈者。 据透露,该公司香港分公司财务部的一名员工收到了一条据称来自该公司驻英国首席财务官的钓鱼邮件。 该消息指示他们执行一项秘密交易,引起了怀疑。 然而,在随后以首席财务官和其他公司官员为主角的集体视频通话中,该员工被说服继续进行调动。 尽管最初心存疑虑,该员工还是向五个不同的香港银行账户进行了 15 笔转账,总额达 2 亿港元。 直到大约一周后,官员们才意识到这一骗局,促使警方对此事进行调查。 全球范围内与深度造假相关的担忧不断增多,这一事件也随之而来。 值得注意的是,深度造假技术在其他情况下的利用引发了重大反应。 引起广泛关注的一个例子是未经授权创作和传播人工智能生成的以歌手为主角的深度伪造色情内容 泰勒斯威夫特。 该事件引起了相当大的强烈反对,并迫切需要采取积极措施来解决此类技术的滥用问题。 为了应对围绕深度造假内容不断升级的担忧,人们提出并实施了各种措施。 科技公司如 微软 对其软件进行了更新,以防止使用 Deepfake 技术生成不当内容。 此外,X(以前称为 Twitter)等平台已采取措施遏制 Deepfake 内容的传播,包括关闭负责传播此类材料的帐户。 此外,政策制定者已开始采取行动应对深度造假技术带来的挑战。 诸如《破坏显式伪造图像和未经同意的编辑 (DEFIANCE) 法案》等举措已被引入,以打击操纵内容的传播。 […]

骗子与 Deepfake 首席财务官、同事进行视频通话后,公司损失 3500 万美元

香港一家跨国公司的一名财务工作人员被利用人工智能的诈骗者盯上,最终与众多诈骗者进行了一次虚假视频电话会议,该公司损失了 2 亿港元(约合 3450 万加元)。 深度伪造 同事。 警方在新闻发布会上讨论了该事件的细节,但没有透露涉案公司或员工的名字,以警告公众警惕这一新颖的骗局。 香港警务处网络安全及科技罪案调查科代理高级警司 Baron Chan 表示,该骗局始于上个月,当时该员工收到一封据称来自该公司驻英国首席财务官 (CFO) 的电子邮件。 据该公司称,这封电子邮件涉及需要进行的“秘密交易” 南华早报。 该员工一开始有“怀疑的时刻”,因为这封电子邮件似乎是网络钓鱼诈骗,但在假首席财务官邀请他们参加视频电话会议后,他们最终被愚弄了。 故事在广告下方继续 电话中似乎还有该员工认识的许多其他同事——他们甚至听起来像是真正的同事。 但他们不是此人的同事;而是此人的同事。 他们根本就不是人。 它们是深度伪造品,是一种通过机器学习创建的合成媒体,可以模仿人的外表和言语。 一位数字化重建的首席财务官和一些外部人士也出席了电话会议。 获取最新的国家新闻。 每天发送到您的电子邮件。 陈在新闻发布会上表示:“由于视频会议中的人看起来像真人,所以(员工)……按照指示向五个本地银行账户进行了 15 笔交易,总计 2 亿港元。” 香港电台播出。 陈补充说:“我相信诈骗者提前下载了视频,然后使用人工智能添加假声音以在视频会议中使用。” 专家警告说,随着技术的进步,人工智能语音和视频生成变得越来越容易。 过去需要大量录音才能创建可信的克隆声音,但现在只需要几秒钟的录制语音。 任何公共视频都可以用来训练人工智能模型来模仿人的声音和外表。 3:21 消费者事务:人工智能使诈骗变得更加复杂 上一个视频

泰勒·斯威夫特案:打击深度伪造色情内容的三种方法

泰勒·斯威夫特案:打击深度伪造色情内容的三种方法 上周,流行歌星泰勒·斯威夫特的露骨色情视频在互联网上疯传。 数百万人在 X 等社交媒体平台上观看了由身份不明的人制作的 Deepfake Swift 色情内容。 此后,短信服务部门采取了严厉措施来阻止传播—— 例如,针对该歌手的所有搜索查询都被屏蔽。 这并不是一个新现象:深度造假已经存在多年了。 然而,过去两年生成式人工智能的兴起使得创建此类内容变得更加容易——即使是明确的内容。 广告 这使得一种全新类型的性骚扰成为可能,并导致大规模侵犯个人权利。 研究合成媒体领域的人工智能专家 Henry Ajder 表示,女性尤其受到影响。 然而,还是有一些希望的:新的工具和法律应该会让人们更难使用深度伪造的人作为武器——而且它们还可以帮助追究肇事者的责任。 新的可能性涉及三个中心领域。 水印 社交平台自动部分屏蔽上传的帖子 人类内容管理员 – 并删除违反其政策的内容。 然而,这个过程充其量是不完整的,并且确实允许有问题的内容通过,正如 X 上的假 Swift 色情内容所示。 此外,区分真实内容和人工智能生成的内容变得越来越困难。 一种技术解决方案可以是所谓的水印。 然后,隐形数字水印将允许计算机确定录音是否是使用人工智能生成的。 比如Google很早就开发了一个叫SynthID的系统, 它使用神经网络来改变图像中的各个像素并添加人眼不可见的水印。 如果图像已被编辑或已截取屏幕截图,则该标记也应该能够被读取。 理论上,此类工具可以帮助社交媒体公司改善审核并阻止虚假内容,包括有问题的内容 深度造假, 以便更快地被认可。 优点: 水印是一种有用的工具,可以更轻松、更快速地检测人工智能生成的内容并识别应删除的有害帖子。 人工智能公司 Hugging Face 的研究人工智能系统偏见的研究员 Sasha Luccioni 表示,标准化所有图像上水印的使用也将使恶意行为者更难制造有问题的深度伪造品。 缺点: 水印仍处于实验阶段,尚未广泛普及。 坚定的攻击者仍然可以操纵它们。 互联网公司和软件提供商也没有将该技术全面应用于所有图像。 AI图像生成器的用户 图片来自谷歌 例如,您可以选择是否为 […]

泰勒·斯威夫特深度造假丑闻内幕:“男人告诉一位有权势的女人回到她的盒子里”| 深伪

F或者上周几乎一整天,深度伪造的色情图片 泰勒斯威夫特 该社交媒体平台(前身为 Twitter)反应非常缓慢,以至于一张图片在被删除之前就获得了 4700 万次浏览。 主要是斯威夫特的粉丝动员并大规模报道了这些图像,公众感到愤怒,甚至白宫也称其“令人震惊”。 X 最终在周日晚上删除了这些图像并阻止了对这位流行歌星名字的搜索。 对于那些未经同意创作和分享深度造假色情作品的受害者的女性来说,过去一周发生的事件将可怕地提醒她们自己受到的虐待,即使她们也可能希望聚光灯能够迫使立法者采取行动。 但由于照片被删除,斯威夫特的经历远非正常。 大多数受害者,即使是那些名人,也没有那么幸运。 17 岁的漫威演员 Xochitl Gomez 本月谈到了 X 无法删除 她的色情深度假货。 “这与我无关。 但它就在我的脸上,”她说。 诺埃尔·马丁 (Noelle Martin) 是图像滥用的幸存者,该术语涵盖共享未经同意的性图像和露骨的深度假货。 11 年前,她第一次发现自己的脸被用于色情内容。 “像我这样的普通女性不会有数百万人努力保护我们并帮助删除内容,我们也不会受益于大型科技公司,因为大型科技公司对此提供了便利,以应对虐待行为,”她说。 西澳大利亚大学技术与政策实验室的活动家兼研究员马丁表示,最初是修改了她的照片,但在过去几年中,随着生成式人工智能的蓬勃发展,它已经变成了视频,主要在色情网站上分享。 “这令人作呕、令人震惊,”她说。 “我尽量不去看它。 如果我真的遇到了它,那只是……”她停顿了一下。 “我什至不知道如何描述它。 真的只是一阵疼痛。” 即使这些图像不是特别真实,“仍然足以对人造成无法弥补的伤害”,她说。 祝你好运,尝试将这些图像从互联网上删除。 “拆除和拆除是一个徒劳的过程。 这是一场艰苦的战斗,一旦有东西出现,你永远无法保证将其完全删除。” 她说,它影响一切,“从你的就业能力到你未来的收入能力,再到你的人际关系。 这是一种不可避免的虐待形式,其后果将是永久性的。” 马丁在工作面试中不得不提到这一点。 “这是你在第一次约会时必须谈论的事情。 它侵犯了你生活的方方面面。” 当活动家和作家 劳拉·贝茨 出版了她的书 讨厌女人的男人一项针对网上厌女症污水坑的调查显示,男人们会向她发送图像,让贝茨看起来像是在进行“各种性行为,包括那些向我发送自己照片的人,这些照片经过修改,看起来像是我在给他们口交”。性别”。 她说,人们很难理解这种影响,即使你知道这不是真实的。 “在某人对你的极端厌恶女性的幻想中看到自己令人难以置信的超现实形象,这确实是一种发自内心的感觉,”她说。 “这确实是一种有辱人格的事情,非常丢脸。 它会留在你身边。” 她补充说,这张照片可以与潜在的数百万人分享。 贝茨表示,深度伪造的色情图像和视频“绝对在极端主义厌恶女性的社区内传播”。 关于斯威夫特的滥用行为,特别值得注意的是“它们在主流社交媒体平台上的传播程度。 […]

世界经济论坛警告人工智能驱动的错误信息威胁全球稳定和选举

世界经济论坛(WEF)对经济危机的危险影响敲响了警钟。 人工智能关于即将举行的关键选举的错误信息和虚假信息,凸显了其严重扰乱全球经济的潜力。 世界经济论坛在达沃斯年度大会之前做出了极其悲观的评估,对虚假信息传播引发的政治动乱表示深切忧虑。 该论坛声称,这可能为内乱、劳工罢工和政府镇压异议铺平道路。 世界经济论坛的年度风险报告基于 1,400 名专家的见解,揭示了一个令人毛骨悚然的现实:30% 的受访者预计未来两年内很有可能发生全球性灾难,更令人震惊的是,三分之二的受访者担心灾难会发生未来十年内发生的灾难性事件。 在这一令人不安的预测中,世界经济论坛强调了生活成本危机的持续威胁以及虚假信息和两极分化社会造成的相互交织的危险,从而确定了 2024 年的总体前景。 英国、美国、欧盟和印度等占全球国内生产总值 (GDP) 60% 的国家定于当年举行选举,促使世界经济论坛强调捏造信息与虚假信息之间的关键联系。社会剧变,预计它将成为这些运动中的中心舞台。 错误信息、错误或不准确的信息与虚假信息、故意传播经常用于宣传或煽动恐惧和怀疑的虚假内容之间的界限对于理解当前威胁的严重性至关重要。 世界经济论坛调查的专家从十年的长远角度出发,认为极端天气事件和气候变化是最紧迫的风险。 世界经济论坛在瑞士滑雪胜地达沃斯举行,强调迫切需要解决日益不稳定的全球秩序,其特点是两极分化、不安全以及极端天气、经济不确定性和错误信息和虚假信息扩散的影响不断升级。 世界经济论坛常务董事萨迪亚·扎希迪强调,全球领导人不仅要解决眼前的危机,还要为更具弹性、可持续和包容性的未来奠定基础。 该报告由苏黎世保险公司和达信集团共同编写,对两年和十年的风险进行了分类,揭示了最迫在眉睫的威胁和即将出现的威胁。 在短期内,该报告指出了五个最突出的风险,即错误信息和虚假信息、极端天气事件、社会两极分化、网络不安全和国家间武装冲突。 Marsh McLennan 欧洲首席商务官 Carolina Klint 强调了人工智能进步对组织风险前景的破坏性影响,特别是在应对错误信息、去中介化和战略误判带来的威胁方面。 克林特强调必须坚定不移地加强组织、国家和国际层面的抵御能力,并强调公共和私营部门之间的合作在应对这一迅速变化的风险形势方面发挥着重要作用。 人工智能的指数级增长放大了虚假信息和传播的广泛传播所带来的威胁。 误传,可能会对民选政府的合法性产生怀疑。 克林特预先警告说,选民可能成为敌对外国势力和国内实体的目标,从而加剧民主进程的脆弱性。 展望未来,该报告确定了排名前五的长期风险,即极端天气事件、地球系统的重大变化、生物多样性丧失和生态系统崩溃、自然资源稀缺以及错误信息和虚假信息的持续威胁。 尽管三分之二的受访者对 2024 年极端天气事件表示担忧,但这些风险的紧迫性存在差异。 与民间社会或政府相比,私营部门受访者预计环境风险发生的时间更长,这表明超过不可逆转损害点的风险不断升级。 扎希迪平衡地指出,虽然前景看似黯淡,但它并没有明确预测未来。 她断言,未来的轨迹牢牢掌握在人类的控制之中,强调机构和主动干预的潜力,以形成更有利的结果。 2024-01-10 22:20:59 1704925394