Microsoft开源lnterpretML用于解释黑盒AI
微软研究院今天开源了一个旨在解决AI“黑匣子”问题的软件工具包。InterpretML旨在帮助开发人员尝试介绍AI系统输出的解释方法。InterpretML目前处于alpha状态,可在GitHub上获得。
由于人工智能在法律和医疗保健等行业得到更频繁的应用,因此人工智能系统解释预测的能力越来越受到关注。
“如果医生,评委和其他决策者信任支持智能系统的模型,他们就可以做出更好的决策。更广泛地说,通过更全面地了解模型,最终用户可能更容易接受由AI支持的产品和解决方案,同时可能更容易满足不断增长的监管机构需求,“微软数据科学家和工程师今天在一篇博客文章中说。
微软研究人员还认为,可解释性可以帮助开发人员制定关于培训AI模型或衡量方法之间一致性的最佳方法的决策。
此举是在微软在西雅图召开年度Build开发者大会之际,该公司在Web上引入了用于文档创建的Fluid框架,Azure Kubernetes服务的新增功能,以及AI和机器人工具包的第一部分。
在构建之前,微软上周宣布其开放式神经网络交换(ONNX)现在支持Nvidia的TensorRT和英特尔的nGraph,用于Nvidia和英特尔硬件的高速推断。
微软是人工智能合作伙伴关系的成员,这是一个由80多家科技公司和非营利组织组成的团体,他们最近宣称算法不适合自动审前保释程序,部分原因是由于缺乏对原告如何标记为高风险或低风险。
Azure云和人工智能负责人Seth Guthrie上周断言微软参与开源项目的意愿远远超过亚马逊或谷歌。
“我认为你看到一个微软都非常接受开放,无论是作为消费者,还是作为贡献者,我认为这是独一无二的。如果你看一下AWS对开源的贡献,那就不是很多了。有很多消费,但没有很多贡献,我认为即使你相对于我们在Azure上做出的贡献量来看谷歌,我认为人们在添加它时经常会感到惊喜“起来。
VentureBeat已要求提供有关该工具如何在Microsoft内部使用的更多详细信息。