我们正令人担忧地倾向于将偷偷摸摸的大规模监控常态化——爱尔兰时报

随着政府的面部识别技术(FRT)法案草案在政治进程中缓慢推进,全球对这种普遍存在的人口监视工具的严重质疑不断增多。

法案草案——正式而言, 爱尔兰警察部队总体方案草案(录音设备)(修正案) ,这是它的全名——几乎没有回答任何问题。允许 FRT 实施的欧盟主要法案之一,即最近通过的《人工智能法案》,也没有回答任何问题。

FRT 主要通过《人工智能法案》进行管理,这充分说明了为什么 FRT 应该在欧盟令人震惊地倾向于将越来越大、越来越强大和越来越隐蔽的大规模监视方法正常化的方式列表中占据重要地位。

FRT 尝试通过扫描和分析存储的视频或实时摄像机镜头并将面部与潜在嫌疑人的数据库进行匹配来识别潜在嫌疑人或发现犯罪行为。

但该数据库并不是根据合理理由挑选出的可能企图或实施了相关犯罪的嫌疑人。

数据库就是我们所有人。

这种方法曾一度被人们视为过于侵入、过于扩张、过于不合理和过于不民主而被抛弃。但随着这些技术开始被使用,错误逮捕和不寻常监视的案件开始增多(这些案件肯定会增多),这些方法可能仍会被抛弃,因为欧洲法院(ECJ)级别的法律挑战必将到来。

有了 FRT,我们就可以自动获得 FRT 与 AI 数字监控相结合的双重全景威胁。

我们也确实得到了这样的结果,但没有任何强有力的证据表明,扫描人群、存储巨大的人脸数据库并通过搜索这些数据库来尝试识别嫌疑人是特别成功的,也没有证据表明,任何偶然的成功会抵消将我们所有人有效地存储在包含敏感生物特征信息的数字警察阵容中所带来的巨大越权。

爱尔兰住房危机:增加供应无助于降低负担能力

FRT 和我非正式的“监视之夏”系列中其他不可接受的侵入性技术和政策一起探讨了欧盟及其各国如何越来越多地试图引入几年前还被视为令人厌恶的人口监视行为。

其他建议包括数据保留(收集和存储每个人的通信数据)以及在加密应用程序等广泛使用的通信方法中设置弱化数字“后门”的提议。当然,这些方法随后会变成破解加密的应用程序。

关于该技术准确性的说法经常被揭穿,许多准确性数据来自完全不同的用途,即匹配两个相对清晰的图像,而不是真实世界的镜头。

尤其是,大量研究已经证实,FRT 存在严重的性别和种族偏见,这反映了它所训练的数据集存在问题。如果这听起来很熟悉,那是因为同样的问题也普遍存在于人工智能中,而且 FRT 和人工智能是相互交织的。

不幸的是,并非只有研究才表明存在这种偏见。现实生活中也存在这样的人,他们几乎都是有色人种,在被 FRT 错误地与犯罪行为匹配后,他们的生活发生了翻天覆地的变化。

上个月,我主持了爱尔兰公民自由委员会关于 FRT 的一场活动,活动主角是来自底特律的黑人男子罗伯特·威廉姆斯 (Robert Williams),他下班回家后在车道上被错误逮捕,当时他的妻子、两个年幼的女儿和邻居都看到了,而这一切都是因为 FRT 对一桩轻微犯罪进行了错误匹配。

威廉姆斯谈到了他被带走、被警方拘留并反复审问了一天半才被释放的经历,这给他和家人(尤其是他的孩子们)带来了持续的创伤。他的可怕经历被美国公民自由联盟(ACLU)报道。上周五,他赢得了他的 开创性的案例 针对底特律警察局。因此,警察局将实施新的程序和保护措施。

他在访问爱尔兰时敦促爱尔兰不要走上同样的 FRT 道路:“在爱尔兰,你们有机会从一开始就不引入它。我希望你们的政府能听取像我这样的经验,在将 FRT 引入警务工作之前三思而后行。”

他还讽刺地指出,底特律本可以将在有缺陷的 FRT 上花费的数千万美元用于解决常常导致人们犯罪的贫困问题。

今年 2 月,爱尔兰议会司法联合委员会对 FRT 法案草案提出了重大质疑,呼吁爱尔兰警察部队和司法部澄清该技术将如何使用以及将利用哪些图像数据库。但尚未得到任何答案。

唯一已知的爱尔兰生物特征信息数据库是为备受争议的公共服务卡收集的数据库。是的,我们被告知这张卡除了社会服务外不会有任何用途,但后来它有了如此多的额外用途,以至于数据保护专员介入了。它不能被扣押用于 FRT。

现有的爱尔兰法案比欧盟 AI 法案关于 FRT 的规定更为模糊,这也引发了担忧。Williams 的案例就是依赖 FRT 可能出现问题的一个具体例子。我们应该得到政府的明确答复,说明它打算如何使用 FRT——以及为什么需要它。

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​