用于理解和可视化NLP模型的语言可解释性工具
语言学、计算机科学和人工智能领域在各个方面都涉及到自然语言处理。特别是,计算机和人类语言之间的相互作用提出了几个前所未有的问题。已经采取了大量的步骤来开发自然语言处理方法,但是它们的实现和相关的处理工作量来执行和传播大量的自然语言数据是一项可怕的任务。
研究人员和工程师通常从不同角度研究任何新开发的模型,旨在确定他们对不同输入的响应方式或生成特定结果的原因。尽管Google开发了What-if工具以通过交互和可视化更好地理解机器学习模型,但仍需要一个单独的工具包,专门用于NLP模型。
为了解决这个问题,谷歌推出了语言可解释性工具(LIT)、一个工具包和一个基于浏览器的用户界面前端。
什么是LIT?
谷歌的人工智能研究人员开发了开源语言可解释性工具(LIT),通过交互式、可视化和可扩展的工具帮助从业者理解NLP模型。它采用易于使用的用户界面开发,只需最少的编码。LIT为各种NLP任务提供了灵活性,包括序列生成、跨度标记、分类和回归,并提供了一种模块化方法,可以集成定制的便携式组件。
LIT支持局部解释、显着图、丰富的模型可视化、注意力参数分析,还支持分析聚合,包括度量、嵌入空间和灵活切片。在本地假设的可视化和测试以及在特定数据集上验证它们之间提供了无缝转换。在任何情况下,都可以添加新数据集,并且可以立即将其效果可视化。可以同时对两个数据点进行可视化以更好地比较两者。
使用LIT探索情感分类器。图片来源:谷歌
可定制性
LIT的可定制性和可扩展性使其能够满足广泛的用户需求。只需编写一个小的Python代码,它就可以轻松地用于任何NLP模型。包含特定任务指标和反事实生成器的自定义组件可以用Python编写并在任何情况下添加到LIT。甚至可以通过在UI中添加新模块来自定义前端。
在LIT上进行的演示
Google的开发人员使用多个预训练模型来创建示例演示,以强调LIT的关键方面。以下是两个主要演示的说明:
–情绪分析
该演示用于遍历基于BERT的二元分类器,这些分类器预测句子是肯定的还是否定的。该预测考虑了斯坦福情绪树库的句子来展示模型行为。完成了对局部解释的探索,并使用反向翻译、单词替换或对抗性攻击技术通过反事实示例研究模型行为。有了这些技术,人们可以清楚地了解模型中出了什么问题,缺陷是否可以概括,以及如何改进模型。
分析基于令牌的错误预测的显着性。“可笑”这个词似乎错误地提高了这个例子的积极情绪分数。图片来源:谷歌
–掩码预测
掩码语言建模可以被认为是一个“填补空白”的过程。在这种情况下,模型预测了可以填入空白的高分词。当我们在LIT上工作时,可以对此进行交互式探索。可以输入句子并进一步单击标记以查看模型在语言或世界中理解的内容。
交互式选择要屏蔽的标记,并查看语言模型的预测。图片来源:谷歌
LIT工具非常新,但已经可以看出,尽管LIT是市场上的新工具,但它清楚地展示了它可以为模型理解增加的价值,这可能对在该领域工作的一系列专家有用。
也许最重要的优势是这个开源平台可以帮助研究人员和从业人员理解和可视化NLP模型。可视化可用于评估模型行为中的模式,例如嵌入空间中的外围集群,或对预测具有极大重要性的单词。LIT可以进一步测试模型中的潜在偏差,并可以促进模型性能的改进。也可以使用LIT为NLP模型创建简单快速的交互式演示。
尽管LIT的工作才刚刚开始,但我们预计在不久的将来,该工具将添加许多新功能和改进,包括来自前沿ML和NLP研究的新可解释性技术。
标签: