半监督学习(样本标注有限)条件下的NLP(Elmo,TagLM, ULMfit)

在进行NLP的时候,往往我们的训练集已标注的样本是有限,有大量的样本是没有标注的。这个时候的解决办法是对无标注的样本进行训练。一般采用的是语言模型,这样训练得到的参数是context-sensitive的。语言模型具体说明见前文RNN简介),再将训练的结果用作有监督的训练中,这就是近三年里研究比较多的领域。

TagLM(原文

TagLM的原理如图所示:
在这里插入图片描述
首先将所有样本在右侧,用多层双向的LSTM进行训练。令训练的句子为 ( x 1 , . . . , x n ) (\mathbf x_1,...,\mathbf x_n) (x1,...,xn) x 1 \mathbf x_1 x1是句子开始标记的Embedding, x n \mathbf x_n xn是句子结尾标记的Embedding。
“前向”LSTM是根据 x 1 , . . , x t \mathbf x_1,..,\mathbf x_t x1,..,xt预测 x t + 1 \mathbf x_{t+1} xt+1。令“前向”LSTM的第 l l l层的第 k k k个Cell的输出为 h → k , l L M \overrightarrow{\mathbf h}_{k,l}^{LM} h k,lLM h → k , 0 L M = x k \overrightarrow{\mathbf h}_{k,0}^{LM}=\mathbf x_k h k,0LM=xk。进行预测时,假设是根据最高的 l l l层进行预测,即 h → k L M = [ h → k , L L M ; . . . ; h → k , L − l + 1 L M ] \overrightarrow{\mathbf h}_{k}^{LM}=[\overrightarrow{\mathbf h}_{k,L}^{LM};...;\overrightarrow{\mathbf h}_{k,L-l+1}^{LM}] h kLM=[h k,LLM;...;h k,Ll+1LM

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值