担心五角大楼“在地下室建造杀手机器人”带来了更严格的人工智能规则

一位高级官员表示,由于围绕人工智能武器的未来挥之不去的恐惧和困惑,五角大楼最近更新了一项已有十年历史的政策,以向人们保证它不会“在地下室建造杀手机器人”。 这位官员最近表示,相对较新的国防部指令对大多数自主武器的开发和批准增加了更严格的审查程序,这是一项“善治”举措。 但随着人工智能在军事领域的蓬勃发展,不仅在美国,而且在中国和其他地方,国际社会都面临着检查的压力。 该技术的使用和功能正在不断增长。 去年, 国防部更新了指令 关于武器系统自主性的文章最初于 2012 年发表。国防部副部长凯瑟琳·基克斯 (Kathleen Kicks) 博士表示,这一变化归因于“我们周围技术的巨大进步”,反映出人工智能在人工智能领域的巨大而快速的发展。过去十年。 也许国防部关于人工智能的指令最大的变化是纳入了一项高级审查政策,该政策要求“自主武器系统,包括具有自主和半自主操作模式的武器系统”得到许多高级国防官员的批准在开发开始之前以及在任何技术投入使用之前再次进行。 空军军士长。 2023 年 11 月 6 日,多米尼克·加西亚 (Dominic Garcia) 在路易斯安那州巴克斯代尔空军基地观察队友通过远程控制训练操作机器狗 Atom。 空军高级飞行员威廉·皮尤 该指令的修订增加了更严格的规则,符合国防部在武器系统中开发人工智能方面更为谨慎的一些措辞。 据负责部队发展和新兴能力的国防部副助理部长迈克尔·C·霍洛维茨 (Michael C. Horowitz) 博士称,它还有助于澄清围绕五角大楼人工智能和军事应用意图的一些困惑。 在战略与国际研究中心 (CSIS) 瓦德瓦尼人工智能和先进技术中心小组上 国防部人工智能和自治政策的现状 本月早些时候,霍洛维茨表示,修订该指令的目标“坦率地说主要是一项良好的治理举措”。 霍洛维茨解释说:“我们最终陷入了这样的境地:在部门之外,利益团体认为国防部可能正在地下室建造杀手机器人。” “在部门内部,”他继续说道,“对该指令的实际内容存在很多困惑,有些人实际上认为该指令禁止开发具有特定特征甚至一般特征的自主武器。” 因此,新指令明确了国防部关于人工智能武器开发的政策“什么是允许的,什么是不允许的”。 地下室里可能没有杀手机器人,但军方正在积极寻求人工智能的一席之地。 2020 年 10 月 19 日,在夏威夷群岛周围的一次旨在测试和评估美国战略司令部远征后勤的战术、技术和程序并增强战略力量的战备状态。 海军一等士 Devin M. Langer 该指令现在明确表示,任何不属于特定豁免类别的自主武器系统(例如霍洛维茨所说的“保护美国基地免受大量同时导弹袭击”的技术)都必须经过审查高级审查流程高于所有其他测试和评估要求。 根据政策,该流程包括多名副国防部长以及参谋长联席会议副主席。 “这是一个巨大的官僚主义提升,”霍洛维茨说。 此举反映出美国在开发人工智能武器系统方面日益增长的兴趣和进展。 从乌克兰正在进行的战争中我们学到了很多东西,无人机已成为战场上的主导因素,而自主性是关键追求。 […]

“杀手机器人”即将到来,联合国对此感到担忧——哈佛公报

长期以来,由于人工智能的快速发展,被称为“杀手机器人”的自主武器系统有望成为现实。 作为回应,国际组织不断呼吁限制甚至彻底禁止其使用。 联合国大会于 11 月通过了关于这些武器系统的第一项决议,这些武器系统可以在没有人为干预的情况下选择和攻击目标。 为了阐明他们提出的法律和道德问题,《公报》采​​访了 邦妮·多彻蒂,哈佛大学法学院法学讲师 国际人权诊所 (国际人权委员会),参加了一些联合国会议。 多彻蒂还是美国国防部武器部门的高级研究员 人权观察。 为了篇幅和清晰度,本次采访经过精简和编辑。 公报: 杀手机器人到底是什么? 它们在多大程度上是现实? 多彻蒂: 杀手机器人,或者用更专业的术语来说,自主武器系统,是根据传感器输入而不是人类输入选择目标并向其开火的系统。 它们已经开发了一段时间,但正在迅速成为现实。 我们越来越担心它们,因为具有使用武力的显着自主权的武器系统已经在战场上使用。 “将生死攸关的决定委托给机器对许多人来说跨越了红线。 它将使暴力失去人性,并将人类归结为数值。” 公报: 那些是什么? 它们被用在哪里? 多彻蒂: 关于什么算作杀手机器人、什么算不上,这个界限有点微妙。 一些系统曾在利比亚使用过,而另一些则曾在 [the ethnic and territorial conflict between Armenia and Azerbaijan over] 纳戈尔诺-卡拉巴赫表现出极大的自治权,因为他们可以自行行动以确定目标并进行攻击。 他们被称为 徘徊弹药,并且他们越来越多地使用自主权,使他们能够悬停在战场上空并等待攻击,直到感知到目标。 系统是否被视为杀手机器人取决于特定因素,例如人类控制的程度,但这些武器显示了军事技术自主性的危险。 公报: 杀手机器人带来了哪些伦理问题? 多彻蒂: 这 道德问题 非常严重。 对许多人来说,将生死攸关的决定委托给机器跨越了红线。 它将使暴力失去人性,并将人类归结为数值。 还存在算法偏见的严重风险,因为机器可能会有意编程以寻找某些标准,或者可能无意中产生偏见,因此可能会基于种族、性别、残疾等歧视人们。 有充分的证据表明人工智能可能会产生偏见。 我们人权界非常担心这种技术被用于杀人机器。 公报: 有哪些法律问题? 多彻蒂: […]