Gavin老师Transformer直播课感悟 - Transformer的Task-oriented对话系统抗干扰能力实验

本文探讨了Transformer在多轮对话系统中的抗干扰能力,与LSTM进行比较。实验表明Transformer的TED策略在无特殊架构设计下,表现与REDP相当,优于LSTM。同时,分析了在end-to-end和模块化训练下的性能,并对比了Transformer与LSTM在对话系统中的效果。
摘要由CSDN通过智能技术生成

一、概述

        本文描述了如何对Transformer的多轮对话系统进行抗干扰能力的实验,实验的目的是在多轮对话环境中对Transformer和LSTM的抗干扰能力进行比较,进一步来说,就是测试TED(Transformer Embedding Dialogue)这种策略基于对话历史信息如何挑选出相关的信息用于做出后续行为或者响应的预测。为此需要建立一个对话数据集,在这个数据集中,多轮对话场景中的系统行为是依赖于对话历史信息,这就要求排除只包含问答信息的数据集,如WikiQA。

        另一方面,系统行为需要被打上标签,以便能评价对话中下一个行为的准确度,所以在实验时需要排除没有打标签的对话语料库,譬如Ubuntu Dialogue Corpus或者Metal-WOZ。实验以REDP(Recurrent Embedding Dialogue Policy)作为测量基准,REDP的核心机制是通过复制(copy)历史对话信息,从而在一个多轮对话环境中,当接收了非预期的用户输入信息后,系统能够根据复制回到原有的对话上下文中。

二、实验过程与结果分析

  1. 包含子对话的实验

        实验中使用的数据集包

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值