直播实录 | 非自回归神经机器翻译 + ICLR 2018 论文解读

本文为 3 月 9 日,香港大学博士生——顾佳涛博士在第 24 期 PhD Talk 中的直播分享实录。

在本期 PhD Talk 中,来自香港大学的博士生顾佳涛,向大家介绍了他们在加速神经机器翻译(NMT)方向的一些进展。 


本次 Talk 分为三部分: 


第一部分以 Google Brain 的 Transformer 为基础,嘉宾简要介绍了一些神经机器翻译的基本知识、主要进展和局限


第二部分是这期的主要内容,嘉宾以第一作者身份,为大家详细介绍了他们最近在 ICLR 2018 上发表的文章 Non-autoregressive Neural Machine Translation本文尝试用非自回归的方式改造 Transformer,在性能下降不多的情况下实现 10 倍左右的解码速度。


最后,作为 brainstorming,嘉宾和大家一起探讨了对于非自回归解码几个已经实现或者可能的研究方向和应用


  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值