Task-Oriented Conversation Generation Using Heterogeneous Memory Networks

来源;ACL2019

链接: https://www.aclweb.org/anthology/P19-1226.pdf

Sih: 端到端对话生成任务中,用不同结构memory进行堆叠, 来处理不同来源的信息,应用context-aware memory和 context-free memory ,且context-aware memory加入了门机制。

Multi-task Learning for Natural Language Generation in Task-Oriented Dialogue

EMNLP 2019 任务型对话整理

创新点:将NLG的响应生成与语言模型结合,共享encoder,作为多任务学习。

Abstract

在面向任务的对话中,自然语言生成(NLG)是生成面向用户系统话语的最后一步。NLG的结果直接关系到对话系统的质量和可用性。尽管大多数现有的系统在给出目标时都能给出正确的响应,但它们很难与人类语言的多样性和流利性相匹配。在本文中提出了一个新的多任务学习框架,NLG-LM,用于自然语言生成。除了生成传递所需信息的高质量响应外,它还通过一个未配置的语言模型明确地针对生成响应的自然相关性。这对提高人类语言的风格和多样性有重要意义。

+
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×