NLP学习笔记(9)

目前深度学习的NLP存在一些局限性,比如通过自监督学习学得一个很好的模型真正理解语言的奥义(需要大量的标注信息)
在这里插入图片描述
第一个难题就是没有一个模型可以在所有的任务上取得好效果,之前提到的dynamic memory network就是为了来解决 这个问题的
在这里插入图片描述
第二个难题是没有办法共享多任务之间的参数,也就是说没有办法用一个模型去jointly训练多任务
在这里插入图片描述
下面这篇论文是为了解决上面这个问题的:其中第三部分的dependency parsing是做一个二分类问题,对每一对单词判定是否有依存关系,很简单,但是却有效,虽然可能生成一些不合法的语法树但是这是少数,可以加一些剪枝等机制来处理这些少数。训练的时候要分步训练,训练完上一个任务训练下一个任务的时候要对上一个任务的参数的变化设惩罚项使得一开始不会把训练好的参数又弄乱掉
在这里插入图片描述
在这里插入图片描述
第三个问题:训练时没见过的单词预测不出来。可以用之前讲过的很多方法解决,比如直接复制输入之类的。
在这里插入图片描述
第四个问题:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
解决方法:
在这里插入图片描述
在这里插入图片描述
解决方法:CNN
在这里插入图片描述
在这里插入图片描述
下面讲的这篇论文实现了记忆功能,很有意思,有时间可以找来看看。这里的记忆是指,如果说LSTM的记忆是缓存cach,那么这个记忆应该是内存RAM
在这里插入图片描述
欧耶完结撒花:谢谢雷锋字幕组——优秀的搬运工,虽然翻译做得还不是很好哈哈哈
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值