模型使计算机更接近理解人类对话
约翰霍普金斯大学语言和语音处理中心的一名工程师开发了一种机器学习模型,该模型可以区分语言理解或LU系统输出的对话记录中的语音功能,这种方法最终可以帮助计算机“理解”口语或语音。以与人类几乎相同的方式书写文本。
由CLSP助理研究科学家PiotrZelasko开发的新模型识别单词背后的意图,并将它们组织成诸如“陈述”、“问题”或“中断”等类别,在最终成绩单中:一项称为“对话行为识别”的任务。”他说,通过为其他模型提供更有条理和分段的文本版本,Zelasko的模型可以成为理解对话的第一步。
“这种新方法意味着LU系统不再需要处理庞大的、非结构化的文本块,它们在尝试对文本的主题、情感或意图等事物进行分类时会遇到困难。相反,他们可以使用Zelasko说,他的研究最近发表在计算语言学协会汇刊上。
在该论文中,Zelasko采用了一些最近引入的语言理解模型,目标是组织和分类单词和短语,并研究不同的变量(例如标点符号)如何影响这些模型的性能。
“我们发现标点符号为模型提供了非常强的线索,而这些线索在文本中似乎并不存在,例如对话的内容,”Zelasko说。
在从事人与人对话分析的行业工作期间,Zelasko注意到许多自然语言处理算法只有在文本具有清晰结构时才能正常运行,例如当一个人用完整的句子说话时。然而,在现实生活中,人们很少说话如此正式,这使得系统很难准确确定句子的开头和结尾。Zelasko想确保他的系统能够理解普通对话。
“这就是‘对话行为’框架的用武之地,”泽拉斯科说。“有了这个,我们至少可以找到对话的‘单元’。这可能有助于完成大量任务,例如总结、意图识别和关键短语的检测。”
Zelasko相信他的模型最终可以帮助使用语音分析的公司,一些企业使用这个过程从分析客户和呼叫中心客户服务代表之间的交互中获得洞察力。语音分析通常涉及对话和关键字搜索的自动转录,Zelasko说这提供了有限的洞察机会。
“使用旧方法,您可能会说对话的重点涉及客户拥有的任何类型的电话、‘技术问题’和‘退款’,但如果有人只是在探索他们的选择而实际上并没有要求退款?”泽拉斯科说。“这就是为什么我们需要真正理解对话而不是简单地扫描关键字。”
Zelasko预测,他的模型有一天也可以被医生使用,从而为他们节省宝贵的时间,他们现在在与患者互动时花在做笔记上。取而代之的是,使用Zelasko模型的设备可以快速浏览对话记录、填写表格并自动写笔记,让医生能够专注于他们的患者。
Zelasko于2020年1月加入约翰霍普金斯大学和CLSP,并将其工作进展归功于创新和协作的研究环境。
Zelasko说:“把这些事情做好,需要有足够的空间来释放你的创造力,还有时间消化你的实验结果,从中学习,并在下次尝试时把它做好。”“但在进行此类研究时,注意实际考虑和局限性也很重要。这就是使CLSP成为理想场所的原因,因为我们在与该行业的合作方面有着良好的记录。”
标签: