CS224n笔记10 NMT与Attention

28221400_KPLU.jpg本文由码农场同步,最新版本请查看原文:http://www.hankcs.com/nlp/cs224n-9-nmt-models-with-attention.html
CS224n笔记10 NMT与Attention
从NMT的历史谈到现代,讲解了attention机制的动机、原理及最新的拓展。通过实例展示谷歌翻译的变化,直言不讳指出其过度炒作。Manning今天还换上了新MBP,挺潮的。机器翻译传统衡量机器对语言理解的测试之一同时涉及到语言分析与理解一个每年400亿美金的产业主要在欧洲,亚洲也在兴起机器翻译的需求Google每天翻译1000亿单词Facebook研发了自己的翻译系统,因为通用的机器翻译系统无法适应社交领域eBay用机器翻译来促进跨境交易什么是NMT用一个大型神经网络建模整个翻译过程的系统。架构抽象的架构...

继续阅读码农场 » CS224n笔记10 NMT与Attention

原文链接http://www.hankcs.com/nlp/cs224n-9-nmt-models-with-attention.html


感谢阅读本文,欢迎 查看原文或访问 码农场 获取更多内容

转载于:https://my.oschina.net/hankcs/blog/1058168

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值