ChatGPT 的邪恶“兄弟”和对生成人工智能的其他威胁 | 技术

欺诈 GPT 是 兄弟 ChatGPT 邪恶。 它推广于 暗网 你可以写一条冒充银行的消息,创建 恶意软件 或根据数据分析平台显示容易被诈骗的网站 内滕里奇。 其他工具 像蠕虫GPT 他们还承诺让网络犯罪分子的工作变得更加容易。 生成式人工智能可用于恶意目的:从生成复杂的骗局,到制作未经同意的色情内容、虚假信息活动,甚至生化武器。

西班牙计算机安全公司 ESET 的研究和意识总监 Josep Albors 表示:“尽管相对较新,但犯罪分子利用生成式人工智能的功能来实现其目的并不迟缓。” 专家举了一些例子: 网络钓鱼 日益完善——没有拼写错误,除了很好的细分和指导之外——不会产生错误信息和 深度造假。 也就是说,用人工智能操纵视频来改变或替换人的面部、身体或声音。

对于费尔南多·阿纳亚来说, 区域经理 Proofpoint 认为,生成式人工智能已被证明是“一个进化的步骤,而不是革命性的一步”。 “建议用户寻找明显的语法、上下文和句法错误来检测恶意电子邮件的日子已经一去不复返了,”他说。 现在攻击者就更容易了。 只需要求其中一个工具即可生成一封有关更新帐户和路由信息的紧急且引人注目的电子邮件。

此外,他们可以轻松创建多种语言的电子邮件。 “LLM(一种巨大的语言模型,它使用 深度学习 并接受过大量数据训练)首先阅读组织的所有 LinkedIn 个人资料,然后为每位员工撰写一封非常具体的电子邮件。 所有这些都是完美的英语或荷兰语,适应接收者的具体兴趣,” 荷兰网络安全中心警告

菲利普·哈克新欧洲数字研究学院数字社会法律和伦理学教授解释说,生成式人工智能可用于创造 恶意软件 更有效、更难检测并且能够攻击特定系统或漏洞:“虽然开发高级病毒仍然需要大量的人类专业知识,但人工智能可以在创建病毒的初始阶段提供帮助 恶意软件”。

阿尔伯斯表示,此类技术的实施“还远未得到广泛应用”。 但像 FraudGPT 或 WormGPT 这样的工具可能会给“未来带来严重的问题”。 “在它的帮助下,几乎没有任何技术知识的犯罪分子可以准备各种恶意活动,并且成功的可能性相当大,这对于用户和公司来说意味着必须应对更多的威胁。”

生成音频、图像和视频

骗局越有说服力,就越有可能成为受害者。 有些人使用人工智能来合成音频。 “诈骗 就像杀猪一样“有一天,他们可以从消息转向电话,进一步提高这一技术的说服力,”阿纳亚说。 这种骗局被翻译成西班牙语为“猪屠宰场”,之所以被称为“猪屠宰场”,是因为攻击者将受害者“养肥”并获得他们的信任,然后拿走他们拥有的一切。 虽然它通常与加密货币有关,但也可能涉及其他金融交易所。

Proofpoint 研究人员已经发现网络犯罪分子利用这项技术来欺骗政府官员。 您对 TA499 小组的研究显示了一些内容,它使用这种技术来对付政客、商人或名人。 阿纳亚解释说:“他们在视频通话中试图通过人工智能和其他技术尽可能地让自己看起来与被冒充的人相似,以便受害者分享信息或嘲笑他们,然后将录音上传到社交网络。”

生成人工智能还用于通过修改后的图像甚至视频来开展活动。 电视主持人或重要人物(如安娜·博廷、埃隆·马斯克甚至阿尔贝托·努涅斯·费约)的音频都已被克隆。 Albors 是这样解释的:“这些深度伪造品主要用于促进对加密货币的投资,而这些投资通常会导致投资资金的损失。”

从色情到生化武器

黑客发现使用生成人工智能来制作色情内容尤其“令人震惊”。 “这种形式的虐待几乎专门针对女性,并造成严重的个人和职业伤害,”他说。 几个月前 埃斯特雷马杜拉的数十名未成年人报告称,人工智能制作的假裸照正在流传。 有些名人喜欢 罗莎莉亚或劳拉·埃斯卡内斯 都遭受过类似的攻击。

正如黑客所强调的那样,同样的技术还被用来“制造描绘威胁移民的虚假图像,目的是影响公众舆论和选举结果,并大规模制造更复杂、更令人信服的虚假信息活动”。 时间继八月份摧毁毛伊岛的野火之后一些出版物在没有任何证据的情况下表示,这些事件是由美国测试的秘密“气候武器”引起的。 据报道,这些信息是中国领导的一场活动的一部分,其中包括显然是用人工智能创建的图像 纽约时报

使用生成人工智能的潜力并不止于此。 杂志上发表的一篇文章 自然机器智能 表明先进的人工智能模型可以帮助制造生化武器。 对于黑客来说,这代表着全球性的危险。 此外,专家表示,算法可以渗透到关键基础设施软件中:“这些混合威胁模糊了传统攻击场景之间的界限,使得它们难以预测,也很难用现有的法律法规来应对。”

防范FraudGPT和其他工具风险的挑战

有一些使用机器学习和其他技术的解决方案 检测并阻止最复杂的攻击。 即便如此,Anaya 仍然强调用户教育和意识,以便他们自己能够识别网络钓鱼电子邮件和其他威胁。 对于黑客来说,减轻与恶意使用生成人工智能相关的风险需要一种结合监管措施、技术解决方案和道德准则的方法。

在可能的措施中,它提到建立强制性的独立团队来测试此类工具以识别漏洞和可能的滥用或禁止某些开源模型。 他总结道:“应对这些风险很复杂,因为人工智能的各种道德目标与实施某些措施的可行性之间存在重要的权衡。”

您可以关注 EL PAÍS 技术 Facebook y X 或在这里注册以接收我们的 时事通讯


1705745315
#ChatGPT #的邪恶兄弟和对生成人工智能的其他威胁 #技术
2024-01-20 04:20:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​