人工智能合作伙伴关系 算法尚未准备好实现审前保释听证会的自动化
人工智能合作伙伴关系今天发布了第一份研究报告,宣布现在使用的算法不适合自动化预审保释程序或将某些人标记为高风险并扣留他们,同时宣布其他人风险低,适合发布和发送他们回家了。
统计预测中的有效性,数据抽样偏差和偏差被称为当前可用的风险评估工具中的问题。人机界面问题以及高风险和低风险的不明确定义也被认为是这些工具的重要缺陷。
人工智能合作伙伴关系是一个创建于2016年的组织,它试图与亚马逊,谷歌,Facebook和Nvidia以及大赦国际,ACLU,EFF和人权观察一起加入人工智能领域的大腕。
教育,新闻和联合国等跨国组织也是成员组织。由Apple,亚马逊,谷歌和Facebook创建,该集团80个现有成员组织中超过一半是非营利组织。
PAI建议政策制定者要么完全避免将算法用于围绕监禁的决策,要么找到满足报告中规定的最低数据收集和透明度标准的方法。
该报告的动机是国会通过的“第一步法案”的通过,以及去年特朗普总统以及加利福尼亚州的SB 10立法,该法案使用算法来摆脱国家的现金保释制度。2020年的投票。
这两项法案被视为刑事司法改革倡导者更广泛的国家问题的一部分,但人工智能合作伙伴关系表示,此类工具可能对数百万人的生命产生不利的重大影响。
该报告的发布是该伙伴关系成立以来首批公开和声明性行动之一。对于由世界上最大的人工智能公司创建的组织而言,对刑事司法改革的关注似乎是一个转折点。
科技巨头的AI偏见和微软和亚马逊等公司销售的面部识别软件等问题近几个月似乎吸引了更多的头条新闻。然而,人工智能研究员Alice Xiang的合伙人表示,该报告关注法官对审前保释的风险评估算法是一个有意识的决定。
“在各种情况下,已经有很多关于算法偏见的担忧,但刑事司法实际上是这些问题最重要的问题,因为我们实际上是在谈论制定有关个人自由的决定,这可能会带来巨大的影响。他们在接下来的采访中告诉VentureBeat,他们将在余下的生活和社区其他人的生活中受到影响。“我们为这份初步报告选择刑事司法的部分理由是,我们确实认为这是为什么在真正使用人工智能为个人做出重要生活决定的背景下考虑公平非常重要的最好例子,以及特别是当政府做出这些决定时,因为那时透明问题对促进公共话语也很重要。“
Xiang说,风险评估工具是人工智能公平至关重要的最好例子,对人们的生活有很大的潜在影响。
该报告要求在部署此类系统之前满足10个最低要求。这些问题分为三大类:人机界面问题,处理偏见的技术要求,以及用于培训这些工具的数据级别的有效性问题。
报告还建议重新加权方法以减轻数据集中的历史偏差。
她说,报告中的大多数(如果不是全部)广泛的建议也适用于在刑事司法系统内其他环境中使用风险评估工具。
该报告未提及任何公司的名称或评估美国特定司法管辖区的算法使用情况。
Xiang拒绝分享直接参与风险评估研究或算法的特定组织的名称,但表示当前没有可用的工具符合合作伙伴关系的最低要求。
众所周知,在法官决策中使用算法会产生基于种族的不公平结果,更有可能将非裔美国人的囚犯标记为有再犯的风险。
该报告试图平衡那些认为在刑事司法问题上使用算法的成员组织的意见是不可能的,因为你永远不能从数据中消除历史偏见,而那些认为它可以比偏见的法官做得更好的人。
因此,该文件并非旨在100%反映任何单一合作伙伴组织的观点,而是代表30至40个帮助起草和编辑报告的合作伙伴组织的共识。
它还试图承认风险评估工具通常由有意减少大规模监禁的良好意图的人建议。美国以其被监禁的人口规模领先世界。
“我们在报告中试图承认的一件事是,这些工具的使用不是出于敌意,”Xiang说。“目的是试图改造非常破碎的系统,但本报告中提出的问题是,这些工具的部署不一定需要完成所有必须完成的工作,以确保它们不会产生比解决问题更多的问题。从长远来看,特别是考虑到有许多潜在的改革可以超越自动化决策。“
除了审前保释风险评估之外,刑事司法系统还使用算法来做预测累犯率的事情。一个2016 ProPublica分析发现,COMPAS累犯算法是两倍,可能错误分类的非洲裔被告作为呈现暴力累犯比白人被告的高风险。
人工智能在法律中的其他应用包括集体诉讼的预测和发现过程的自动化。
标签: 人工智能