定义人工智能中的道德需要非洲人的投入
人工智能 (AI) 曾经是科幻小说中的东西。但它正在变得普遍。它用于移动电话技术和机动车辆。它为农业和医疗保健工具提供动力。但是,人们开始担心人工智能和机器学习等相关技术的责任。2020 年 12 月,计算机科学家 Timnit Gebru被谷歌的 Ethical AI 团队解雇。她之前曾就人工智能技术中偏见的社会影响发出警告。例如,在2018 年的一篇论文中, Gebru 和另一位研究员 Joy Buolamwini 展示了面部识别软件在识别女性和有色人种方面的准确性不如男性。训练数据中的偏差可能会产生深远和意想不到的影响。
已经有大量关于人工智能伦理的研究。这凸显了确保技术不会简单地加剧偏见甚至引入新的社会危害的原则的重要性。正如联合国教科文组织关于人工智能伦理的建议草案所述:“我们需要国际和国家政策和监管框架,以确保这些新兴技术造福全人类。”
近年来,已经创建了许多框架和指南,以确定道德人工智能的目标和优先事项。
这无疑是朝着正确方向迈出的一步。但在解决偏见或包容性问题时,超越技术解决方案也很重要。偏见可以在谁制定目标和平衡优先级的层面上进入。
在最近的一篇论文中,我们认为包容性和多样性还需要首先在识别价值和定义什么算作道德 AI 的框架的层面上。考虑到整个非洲人工智能研究和机器学习的增长,这一点尤其重要。
语境
非洲国家对人工智能和机器学习技术的研究和开发正在增长。程序如数据科学非洲,数据科学尼日利亚和深度学习INDABA其卫星IndabaX事件,迄今已被27个不同的非洲国家举行,说明在现场的兴趣和人力投资。
人工智能和相关技术在促进非洲增长、发展和民主化机会方面的潜力是这项研究的关键驱动力。
然而,迄今为止,很少有非洲人参与旨在指导研究的国际伦理框架。如果这些框架中的原则和价值观具有普遍适用性,这可能不是问题。但目前尚不清楚他们是否这样做。
例如,欧洲 AI4People 框架提供了其他六个道德框架的综合。它将尊重自主权视为其关键原则之一。这一原则在生物伦理学的应用伦理领域受到了批评。它被视为未能公正对待整个非洲共同的社区价值观。它们较少关注个人而更多地关注社区,甚至要求对坚持这样的原则进行例外处理,以便进行有效的干预。
像这样的挑战——甚至承认可能存在这样的挑战——基本上没有出现在道德人工智能的讨论和框架中。
就像训练数据可以巩固现有的不平等和不公正一样,未能认识到可能会因社会、文化和政治背景而异的不同价值观的可能性。
无法使用的结果
此外,不考虑社会、文化和政治背景可能意味着即使看似完美的道德技术解决方案一旦实施也可能无效或被误导。
为了让机器学习有效地做出有用的预测,任何学习系统都需要访问训练数据。这涉及感兴趣的数据样本:多个特征或测量形式的输入,以及科学家想要预测的标签的输出。在大多数情况下,这些特征和标签都需要人类对问题的了解。但未能正确考虑当地环境可能会导致系统表现不佳。
例如,移动电话记录已被用于估计灾害前后的人口规模。但是,弱势群体不太可能使用移动设备。因此,这种方法可能会产生无用的结果。
同样,用于识别区域内不同类型结构的计算机视觉技术可能会在使用不同建筑材料的情况下表现不佳。在这两种情况下,正如我们和其他同事在最近的另一篇论文中所讨论的那样,不考虑区域差异可能会对从灾难援助的提供到自治系统的性能的任何事情产生深远的影响。
往前走
人工智能技术不能简单地恶化或纳入当前人类社会的问题方面。
敏感并包容不同的环境对于设计有效的技术解决方案至关重要。同样重要的是不要假设价值观是普遍的。那些开发 AI 的人需要开始包括不同背景的人:不仅在设计数据集等的技术方面,而且在定义可用于框架和设定目标和优先级的价值方面。
标签: