Gavin老师Transformer直播课感悟 - 基于Transformer的Poly-Encoder架构体系解密(一)

一、概述

        本文围绕下面这篇论文来解析基于Transformer采用Poly-Encoder的架构体系如何来平衡模型的速度和质量表现,以及它与其它encoders架构的对比等。

关于速度,譬如在线推理时,如果用户输入后系统需要较长的时间来给出回应,那么在实际运用中是无法接受的,而模型的质量好坏会影响到对话系统的表现,如基于用户输入,系统不能选择正确的回应等。对于需要在两个输入序列(sequence)之间做出成对比较的任务,即使用输入来匹配相应的label(input-response),通常有两种做法:

  1. Cross-encoders,基于input-response pair使用全连接自注意力机制,即input上下文中的tokens和response中的tokens是相互注意,相互作用的。

优点:质量非常好,由于在input和response之间的tokens是完全相互注意的

缺点:速度很慢,因为对于每次的输入都需要重新计算

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值