自行生成的儿童性虐待材料 (CSAM) 数量增加 66%

苏西·哈格里夫斯指出,增加的部分原因可能是检测方法的改进。
国际联合会

最近的一份报告揭示了儿童剥削领域的一个令人深感不安的趋势,超过 90% 的儿童性虐待图像都是自己生成的。

互联网观察基金会 (IWF) 报告称,去年在超过 100,000 个网页上发现了涉及 10 岁以下儿童的自制儿童性虐待材料 (CSAM)。

与上一年相比,这一数字显着增加了 66%。

总的来说,IWF 确认 CSAM 出现在创纪录的 275,655 个网页上,增长了 8%。

这一新数据的发布重新引发了英国政府反对端到端加密的运动,IWF 也为此提供了支持。

然而,该慈善机构首席执行官苏西·哈格里夫斯(Susie Hargreaves)指出,此类图像的发现和删除的升级不一定会引起担忧。

她指出,增加的部分原因可能是检测方法的改进。

“这确实意味着我们发现了更多的儿童性虐待事件,但我认为,如果你发现更多的儿童性虐待事件,这绝对不是一件好事。显然,如果我们没有发现任何儿童的图像,IWF 将是最成功的。”性虐待。

“我们的使命是消除儿童性虐待——这不仅仅是尽可能多地发现并消除它,”她说。

这种微妙的观点表明,报告案件的增加部分可能是由于更有效的监测和报告机制,而不仅仅是露骨材料创建的激增。

专家将自制内容的增长归因于智能手机的普及和互联网的便捷访问。

儿童经常受到掠夺者的胁迫或操纵,越来越多地成为受害者和不知情的肇事者。

该报告强调了解决此类受害的根本原因的至关重要性,其中包括网络诱骗和剥削以及传播露骨内容。

IWF 进一步透露,一些受到审查的自制图像是由年仅三岁的儿童制作的,其中第五幅被归类为造成“A 类”伤害,表示最严重的性虐待形式。

Hargreaves 强调了这一令人担忧的趋势,他表示:“十年前,我们根本没有看到自行生成的内容,十年后,我们现在发现,我们删除的网页中 92% 都有自行生成的内容他们。”

她详细解释说,这些内容通常来自卧室或家庭环境中的孩子,他们曾经呆过的地方 被欺骗、胁迫或引诱进行性活动,随后在儿童性虐待网站上记录并分享。

该慈善机构强调,这些根据 2023 年收集的数据整理而成的新数据,强化了其对 Meta 为 Messenger 实施端到端加密的意图的反对。

此安全功能将使公司不知道其服务上共享的内容。

2022年, Meta 报告了 2000 万起人们分享儿童性虐待材料的事件 (CSAM) 至 IWF 的美国对应机构国家失踪与受虐儿童中心 (NCMEC)。

IWF 担心采用端到端加密可能会导致几乎所有此类报告丢失。 此外,哈格里夫斯批评苹果公司放弃了在 iPhone 上扫描 CSAM 的计划,尽管苹果公司最初保证该方法将保护隐私。

这些揭露凸显了那些努力打击涉及未成年人的自制露骨内容惊人扩散的组织所面临的挑战。

IWF 对端到端加密的反对及其对科技巨头战略的批评反映了一场关于隐私措施与保护弱势个人免受在线剥削的必要性之间微妙平衡的持续辩论。

随着数字环境的发展,监管机构、科技公司和儿童保护组织之间的合作对于解决这些复杂问题和确保儿童上网安全变得越来越重要。

英国政府还应继续倡导采取措施打击网上儿童剥削行为。 关于隐私与增强在线安全的必要性之间的平衡的争论愈演愈烈。

解决这一问题的努力超出了立法措施的范围,技术进步和改进的检测方法发挥着至关重要的作用。

包括政府机构、慈善机构和技术专家在内的各利益攸关方之间的持续对话对于制定保护儿童免受网络剥削同时尊重隐私权的全面战略至关重要。

保护儿童免受网络剥削需要采取多方面的战略,将有效的立法、强大的技术解决方案和广泛的教育结合起来,为下一代创造一个更安全的数字环境。

1705550955
2024-01-17 23:32:45

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​