一种强化学习在NLP文本分类上的应用模型

在胳膊骨折修养的这段期间,系统的学习了一下强化学习相关的知识。正好今天看到了黄民烈老师团队2018年在AAAI上发表的paper《Learning Structured Representation for Text Classification via Reinforcement Learning》。

这篇paper以文本分类作为主要的任务,运用强化学习提出了两个模型:ID-LSTM和HS-LSTM,其中ID-LSTM用来自动地把一句话中和目标任务无关的词语删除掉,起到简化句子的作用;HS-LSTM则是用来自动地从句子中抽取phrase,从而更好的帮助模型进行文本分类。

首先这两个模型都由三个部分组成:Policy Network(PNet),structured representation models和Classification Network (CNet)。这里的PNet对应t时刻采用动作 α \alpha α动作的概率为: π ( α t ∣ s t ; θ ) = σ ( W ∗ s t + b ) \pi( \alpha_t |s_t; \theta )=\sigma(W*s_t+b) π(αtst;θ)=σ(Wst+b)。公式中的 W W W b b b都是PNet的网络参数。在训练阶段,采用的动作 α t \alpha_t αt由上述公式根据概率分布采样得到;而在预测阶段,则是直接挑选概率最大的 α t \alpha_t αt所对应的动作。很显然,在该场景下的reward其实就是经过处理之后,该句子被CNet预测为正确label的概率。最终PNet网络的梯度计算公式为: ∇ θ J ( θ ) = ∑ t = 1 L R L ∇ θ l o g π θ ( α t ∣ s t ) \nabla_{\theta}J(\theta)=\sum_{t=1}^LR_L\nabla_{\theta} log \pi_{\theta}(\alpha_t|s_t) θJ(θ)=t=1LRLθlogπθ(αtst).

Information Distilled LSTM (ID-LSTM)
在该模型中,action集合中总共有两个动作:Retain和Delete,使用的基础模型是基于LSTM的,只不过不同时刻针对不同动作LSTM的运作方式和传统的比稍有不同:
if α t = r e t a i n \alpha_t=retain αt=retain then c t , h t = L S T M ( c t − 1 , h t − 1 , x t ) c_t,h_t=LSTM(c_{t-1},h_{t-1},x_t) ct,ht=LSTM(ct1,ht1,xt)
if α t = d e l e t e \alpha_t=delete αt=delete then c t , h t = c t − 1 , h t − 1 c_t,h_t=c_{t-1},h_{t-1} ct,ht=ct1,ht1
具体流程如下图所示:
在这里插入图片描述
而对于state的定义则有 s t = c t − 1 ⨁ h t − 1 ⨁ x t s_t=c_{t-1} \bigoplus h_{t-1} \bigoplus x_t st=ct1ht1xt
那么很简单,CNet对应的分类公式为 P ( y ∣ X ) = s o f t m a x ( W s ∗ h L + b s ) P(y|X)=softmax(W_s*h_L+b_s) P(yX)=softmax(WshL+bs)
最终PNet部分的Reward定义为: R L = l o g P ( c t r u e ∣ X ) + γ L ‘ / L R_L=log P(c_{true} | X)+\gamma L^`/L RL=logP(ctrueX)+γL/L,其中 L ‘ L^` L代表了被删除的word数量(意思是鼓励机器去多删除一些word), γ \gamma γ用来权衡这个力度。

Hierarchically Structured LSTM (HS-LSTM)
在该模型中,action集合中总共有两个动作:Inside和End,使用的模型是2个层次化的LSTM,一个用来将word转化成phrase向量,另一个将生成的phrase向量转化成Sentence 向量。
针对phrase向量生成器来说,其LSTM运作公式如下:
if α t = E n d \alpha_t=End αt=End then c t w , h t w = ϕ w ( 0 , 0 , x t ) c_t^w,h_t^w=\phi^w (0,0,x_t) ctw,htw=ϕw(0,0,xt)
if α t = I n s i d e \alpha_t=Inside αt=Inside then c t w , h t w = ϕ w ( c t − 1 w , h t − 1 w , x t ) c_t^w,h_t^w=\phi^w (c_{t-1}^w,h_{t-1}^w,x_t) ctw,htw=ϕw(ct1w,ht1w,xt)

对于Sentence向量生成器来说,其LSTM运作公式如下:
if α t = E n d \alpha_t=End αt=End then c t p , h t p = ϕ p ( c t − 1 p , h t − 1 p , h t w ) c_t^p,h_t^p=\phi^p(c_{t-1}^p,h_{t-1}^p,h_t^w) ctp,htp=ϕp(ct1p,ht1p,htw)
if α t = I n s i d e \alpha_t=Inside αt=Inside then c t p , h t p = c t p − 1 , h t p − 1 c_t^p,h_t^p=c_t^{p-1},h_t^{p-1} ctp,htp=ctp1,htp1
具体方式如下图所示:
在这里插入图片描述
在该场景下,对于state的定义则有 s t = c t − 1 p ⨁ h t − 1 p ⨁ c t w ⨁ h t w s_t=c_{t-1}^p \bigoplus h_{t-1}^p \bigoplus c_t^w \bigoplus h_t^w st=ct1pht1pctwhtw
CNet对应的分类公式为 P ( y ∣ X ) = s o f t m a x ( W s ∗ h L p + b s ) P(y|X)=softmax(W_s*h_L^p+b_s) P(yX)=softmax(WshLp+bs)
最终PNet部分的Reward定义为: R L = l o g P ( c t r u e ∣ X ) + γ ( L ‘ / L + 0.1 L / L ‘ ) R_L=log P(c_{true} | X)+\gamma (L^`/L +0.1L/L ^`) RL=logP(ctrueX)+γ(L/L+0.1L/L),其中 L ‘ L^` L代表了被删除的word数量,当 L ‘ 取 值 为 0.316 L 时 L ^`取值为0.316L时 L0.316L L ‘ / L + 0.1 L / L ‘ L^`/L +0.1L/L ^` L/L+0.1L/L会取到最大的Reward。作者之所以这样设置参数,是因为他发现在他的语料库中,一个包含了L个word的一句话中,平均的phrase个数为0.316L。

和所有的深度强化学习网络一样,这样的网络是十分难以训练的(即直接训练的话,网络损失函数机会不会收敛)。因此在训练的时候,需要一定的技巧,作者分为以下3个步骤:

1 预训练CNet网络和分类网络参数;对于ID-LSTM直接使用原始的不经过删减的句子进行预训练;对于HD-LSTM则先使用简单的启发式算法对原始句子中的word进行划分phrase处理;
2 固定住CNet部分网络参数,对PNet网络参数进行预训练操作;
3 Jointly 训练整个网络参数。

这篇paper提出的模型其实可以用到任何序列处理的任务中去(比方说对于CTR预估场景下的用户一系列行为的建模),这也是未来值得探索的方向之一。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值