Affect-LM: A Neural Language Model for Customizable Affective Text Generation

原先的LSTM求下一个单词的概率公式:
在这里插入图片描述
其中,f(.)是LSTM的输出结果。现在更改(加入情感能量项)如下:
在这里插入图片描述

β表示情感强度,可以从0(中性,基线模型)到β=∞(生成的句子只由情感色彩的单词组成,没有语法结构)
e t − 1 e_{t-1} et1表示从上文学到的词向量,g( e t − 1 e_{t-1} et1)表示属于哪种情感,例[1,0,1,1,0]
V i T V{^T_i} ViT表示第i个词和g( e t − 1 e_{t-1} et1)的相似度,g( e t − 1 e_{t-1} et1) * V i T V{^T_i} ViT如果大说明第i个词跟g( e t − 1 e_{t-1} et1)情感一致,故p( W t = i ∣ C t − 1 , e t − 1 W_t=i|C_{t-1},e_{t-1} Wt=iCt1,et1)的值大。

e t − 1 e_{t-1} et1怎么学到的?
LIWC而来
which is obtained by binary thresholding of the features extracted from LIWC
The affect category et 1 is
processed by a multi-layer perceptron with a single hidden layer of 100 neurons and sigmoid activation function to yield g(et 1).

g( e t − 1 e_{t-1} et1)函数是什么?
感知机训练而来
g(.) is the output of a network operating on e t − 1 e_{t-1} et1

V i T V{^T_i} ViT怎么得到?
训练而来
V i T V{^T_i} ViT is an embedding learnt by the model for the i-th word in the vocabulary
矩阵Vi的每一行是第i个词在词汇中的情感上有意义的词向量
Vi是由模型学习的词汇中的第i个词的词向量,预期会对有区别的表达每个单词的情感信息。
Affect-LM学习权重矩阵V,其捕获预测词wt与影响类别et-1之间的相关性。

模型(自己画的):
在这里插入图片描述
代码参考:https://github.com/gupett/Re-implementation-of-Affect-LM

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值