【论文笔记】TC-LSTM(Tang D,et al. 2015)

Effective LSTMs for Target-Dependent Sentiment Classification

Introduction

  • 情感分析,也叫做观点挖掘,是NLP和计算语言学中的一个重要任务

  • 这篇文章关注于target-dependent sentiment classfication

    • 给定一个句子和一个目标词,推断对于目标词而言的句子情感极性(正面,负面,中立)

    • I bought a new camera. The picture quality is amazing but the battery life is too short.

    • target string: the picture quality expected sentiment polarity: positive

  • 本文解决的目标:如何有效地对目标词和句子中的上下文进行语义关联性建模

The Approach

  • LSTM-->TD-LSTM(considering the target word)-->TC-LSTM(TD-LSTM with target connection, where the semantic relatedness of target with its context words are incorporated)

  • LSTM
    • 每个词经过word embedding后,输入到LSTM,然后最后一个词的hidden vector经过一个线性层,其输出维度是分类的种类数,然后经过softmax变成分类的概率分布,从而实现预测

72cf269fly1g5c5chhpakj20y909aq3k.jpg

  • TD-LSTM
    • 用两个LSTM,一个从左往右运行,运行关键词为止,然后另一个也是从右往左,最后两个hidden vector加权,用一个线性层,最后加一个softmax
    • 基本思想是对围绕目标字符串的前后上下文建模,这样两个方向的上下文都可以用作情感分类的特征表示

72cf269fly1g5c5k56mzoj20xz09e750.jpg

  • TC-LSTM
    • Select the relevant context words which are helpful to determine the sentiment polarity of a sentence towards the target.
    • 把target words \(\{w_1,w_2,..\}\) 每个词word embedding以后,然后再把vector求平均,形成target vector
    • 然后在每一步输入时,将输入词向量和target vector一起concentrate以后作为输入

72cf269fly1g5c5uc172ij20xg0993z7.jpg

Experiment

  • 实验设置
    • 词向量:100维Glove vectors learned from Twitter
    • 随机初始化:均匀分布 U(−0.003,0.003)
    • softmax layer的梯度裁剪阈值为200
    • learning rate=0.01
    • 训练集:6248句子,测试集:692句子
    • 训练和测试集中各类(正,负,中)句子占比25%, 25%, 50%.
    • 评价指标: accuracy and macro-F1 score over positive, negative and neutral categories
  • 实验结果

72cf269fly1g5c65tj5hyj20gx0dxjsd.jpg

转载于:https://www.cnblogs.com/doragd/p/11246018.html

1. ARIMA 2. SARIMA 3. VAR 4. Auto-ARIMA 5. Auto-SARIMA 6. LSTM 7. GRU 8. RNN 9. CNN 10. MLP 11. DNN 12. MLP-LSTM 13. MLP-GRU 14. MLP-RNN 15. MLP-CNN 16. LSTM-ARIMA 17. LSTM-MLP 18. LSTM-CNN 19. GRU-ARIMA 20. GRU-MLP 21. GRU-CNN 22. RNN-ARIMA 23. RNN-MLP 24. RNN-CNN 25. CNN-ARIMA 26. CNN-MLP 27. CNN-LSTM 28. CNN-GRU 29. ARIMA-SVM 30. SARIMA-SVM 31. VAR-SVM 32. Auto-ARIMA-SVM 33. Auto-SARIMA-SVM 34. LSTM-SVM 35. GRU-SVM 36. RNN-SVM 37. CNN-SVM 38. MLP-SVM 39. LSTM-ARIMA-SVM 40. LSTM-MLP-SVM 41. LSTM-CNN-SVM 42. GRU-ARIMA-SVM 43. GRU-MLP-SVM 44. GRU-CNN-SVM 45. RNN-ARIMA-SVM 46. RNN-MLP-SVM 47. RNN-CNN-SVM 48. CNN-ARIMA-SVM 49. CNN-MLP-SVM 50. CNN-LSTM-SVM 51. CNN-GRU-SVM 52. ARIMA-RF 53. SARIMA-RF 54. VAR-RF 55. Auto-ARIMA-RF 56. Auto-SARIMA-RF 57. LSTM-RF 58. GRU-RF 59. RNN-RF 60. CNN-RF 61. MLP-RF 62. LSTM-ARIMA-RF 63. LSTM-MLP-RF 64. LSTM-CNN-RF 65. GRU-ARIMA-RF 66. GRU-MLP-RF 67. GRU-CNN-RF 68. RNN-ARIMA-RF 69. RNN-MLP-RF 70. RNN-CNN-RF 71. CNN-ARIMA-RF 72. CNN-MLP-RF 73. CNN-LSTM-RF 74. CNN-GRU-RF 75. ARIMA-XGBoost 76. SARIMA-XGBoost 77. VAR-XGBoost 78. Auto-ARIMA-XGBoost 79. Auto-SARIMA-XGBoost 80. LSTM-XGBoost 81. GRU-XGBoost 82. RNN-XGBoost 83. CNN-XGBoost 84. MLP-XGBoost 85. LSTM-ARIMA-XGBoost 86. LSTM-MLP-XGBoost 87. LSTM-CNN-XGBoost 88. GRU-ARIMA-XGBoost 89. GRU-MLP-XGBoost 90. GRU-CNN-XGBoost 91. RNN-ARIMA-XGBoost 92. RNN-MLP-XGBoost 93. RNN-CNN-XGBoost 94. CNN-ARIMA-XGBoost 95. CNN-MLP-XGBoost 96. CNN-LSTM-XGBoost 97. CNN-GRU-XGBoost 98. ARIMA-ANN 99. SARIMA-ANN 100. VAR-ANN 上面这些缩写模型的全称及相关用途功能详细解释
07-15
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值