通过 L 层 Transformer 对连接的多个输入话语进行编码,所提出的模型使用重复感知注意力和面向多样化的正则化来生成更多样的句子。解码后生成多个不与原话语重复且互相之间不重复的新话语。
两个关键点是重复感知注意力机制以及多样性正则化,让序列生成器考虑到增强数据应不同于原生数据并互异。相比于 seq2seq DA,Cluster2Cluster DA 的效果如下:
通过 L 层 Transformer 对连接的多个输入话语进行编码,所提出的模型使用重复感知注意力和面向多样化的正则化来生成更多样的句子。解码后生成多个不与原话语重复且互相之间不重复的新话语。
两个关键点是重复感知注意力机制以及多样性正则化,让序列生成器考虑到增强数据应不同于原生数据并互异。相比于 seq2seq DA,Cluster2Cluster DA 的效果如下: