人工智能能帮助人类做出更好的决策吗?——《哈佛公报》

是否应该使用人工智能来改善法庭的决策?根据 新工作文件,人工智能算法的一个例子不仅未能提高司法判决的准确性,而且该技术本身的表现甚至比人类更差。

“很多研究人员都关注算法是否有偏见,或者人工智能是否有偏见,”合著者指出 今井浩介,政府和统计学教授。“他们并没有真正考虑人工智能的使用如何影响人类的决策。”

虽然包括刑事司法、医学甚至商业在内的多个行业都使用人工智能建议,但人类通常是最终的决策者。研究人员通过将单个法官做出的刑事保释决定与人工智能系统生成的建议进行比较,考虑到了这一点。具体分析了人工智能对是否应实施现金保释的影响。

30%——法官拒绝人工智能建议的案件比例

这项随机对照试验是在威斯康星州丹县进行的,重点研究被捕者是否被保释或被要求支付现金保释。研究人员由 Imai 和 吉姆·格雷纳哈佛法学院公法系 S. William Green 荣誉教授)的研究团队将目光投向了单个法官在 2017 年中至 2019 年底的 30 个月内举行的听证会。同时还分析了此后长达 24 个月的被告逮捕数据。

结果显示,在预测再犯方面,人工智能的表现比法官更差——在本案中,人工智能通过实施更严格的现金保释限制来预测再犯。同时,人类单独决策和人工智能辅助决策的准确性几乎没有差别。在略高于 30% 的案件中,法官违背了人工智能的建议。

“我对此感到很惊讶,”格雷纳说。“鉴于我们引用的证据表明算法有时比人类决策更准确,看起来好像是这个算法被设置得太严厉了。它过度预测被捕者会做出不当行为,预测他们会经常这样做,因此建议的措施过于严厉。”

教授们认为,可以通过重新校准算法来解决此问题。

“理解并修复算法或人工智能比理解人类容易得多,”今井说。“改变人类或理解人类做出决定的原因则困难得多。”

“人工智能或算法的优势在于它可以变得透明。”

今井浩介

这里研究的人工智能并没有专门考虑种族因素,而是关注年龄和与过去犯罪经历相关的九个因素。Imai 是一位利用统计模型来揭露种族划分不公的专家,他将现金保释方面的不公平归咎于各种社会因素,尤其是与犯罪历史有关的因素。

他承认,这项研究的结果可能令人担忧,但他指出,人类同样存在偏见。“人工智能或算法的优势在于它可以变得透明,”他说。关键是要有开源人工智能,以便随时进行实证评估和分析。

格雷纳补充道,应该研究刑事司法系统目前使用人工智能以及无人指导的人类决策的方式,以期做出改进。“我不知道这是否令人欣慰,”他表示,“但对于那些害怕或怀疑人工智能的人来说,我的反应是害怕和怀疑人工智能,但可能更害怕或怀疑无人指导的人类决策。”他补充说,应该研究刑事司法系统目前使用人工智能以及无人指导的人类决策的方式,以做出改进。

该论文的其他合著者包括 伊莱·本-迈克尔,卡内基梅隆大学统计学和数据科学助理教授; Zhichao Jiang,中国中山大学数学教授; 黄美玲沃西基·特罗珀哈佛数据科学研究所博士后研究员, 申秀安,肯尼斯·格里芬文理研究生院政府专业博士生。

1718640743
#人工智能能帮助人类做出更好的决策吗哈佛公报
2024-06-14 15:55:54

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​