Gavin老师Transformer直播课感悟 - 基于Transformer的端到端SimpleTOD实验分析

本文基于SimpleTOD论文,探讨Transformer在对话系统中的应用。SimpleTOD将对话状态管理、系统行为和响应生成融合为序列输入,使用预训练模型如GPT-2进行迁移学习。实验表明,特殊token有助于逻辑控制,预训练权重对模型性能至关重要。尽管在多轮对话和噪声环境下表现良好,但未使用数据增强技术,导致逊色于DAMD。SimpleTOD使用greedy decoding策略,长上下文中的错误可通过对话进程自我纠正。
摘要由CSDN通过智能技术生成

一、概述

        本文围绕SimpleTOD这篇论文从实验的角度来继续分析。

二、实验结论分析

        SimpleTOD在对话系统中采用了一种简单的方式,即把对话状态管理,系统行为和响应生成等三个部分作为模型中的一个输入序列(sequence)来进行训练。SimpleTOD能够直接利用预训练模型如GPT-2来做基于开放领域可用数据的语言理解迁移学习。基于多领域的对话数据集MultiWOZ的实验结果表明,获得预训练的权重信息是必要的,但是为了利用这些权重,需要使用特殊的token来标记用户输入和系统响应,以及在这个序列中与系统的不同子任务相关的部分。在这里谈到的预训练权重,不一定是指大规模预训练的语言模型如BERT所提供的dense embeddings,也可以是word级别的one-hot encoding, 或者基于字符级别n-gram的multi-hot encoding等,可以通过神经网络来集成其它网络或者算法来达到提升性能的目的。特殊token的使用可以把逻辑变成数据,即在序列里的一个token,可以通过特殊token以类似条件表达式的方式来控制逻辑。

       实验也发现了SimpleTOD在多轮对话的长上下文环境里跟踪对话状态的有效性,在有噪声存在(noisy annotations)的情况下,仅使用”greedy decoding”技术就获得了比较好的训练效果。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值