词嵌入、情感分类任务

目录

1.词嵌入(word embedding)

对单词使用one-hot编码的缺点是难以看出词与词之间的关系。

所以需要使用更加特征化的表示(featurized representation),如下图所示,我们可以得到每个词的向量表达。

 

假设训练集中有这样一条序列:I want a glass of orange juice to go along with my cereal.
在skip-grams模型中,我们要做的就是抽取上下文和目标词配对,来构造一个监督学习任务。
(PS:skip-gram模型是根据中心词预测上下文m个词的算法,m是用户自己定义的预测窗口大小)

在模型中,以上下文作为输入,来预测目标词,conten c("orange")->...->softmax->y。
但是使用softmax计算概率过于费时,p(t|c)=\frac{e^{\theta_{t}^{T}e_{c}}}{\sum_{j=1}^{10000}e^{\theta_{j}^{T}e_{c}}}。(10000表示词汇表的数量,e_{t}是关于输出target的参数)。

解决办法:
①可以使用分级的softmax分类器(hierarchical softmax classifier)。例如,第一个分类器告诉你目标在前5000个单词中,第二个分类器告诉你目标在前2500个单词中...

②负采样(negative sampling)。假设有1个正样本和k个负样本,只需要k+1个二分类logistic回归分类器(binary logistic regression classfiers)即可。


 

2.情感分类任务

例如,对一个餐馆进行评价,需要对评论的情绪进行分类。

 

对于该任务,可以使用普通的分类网络,对每个词嵌入向量求和或取平均,最后输入到softmax层进行分类。但是这样没有考虑词序。比如"Completely lacking in good taste, good service, and good ambience"这样的评论虽然有很多“good”,但其实是负面评论。

 可以考虑使用RNN。

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

漂流の少年

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值