No training required: Exploring random encoders for sentence classification(解析)

原文链接:https://arxiv.org/abs/1901.10444

发表在:ICLR 2019

--------------------------------------------------------------------------------------------------------------------------------------------------------------------

 介绍了3中sentence嵌入的结构(RANDOM SENTENCE ENCODERS),

  1. Bag of random embedding projections
  2. Random LSTMs
  3. Echo State Networks

思路:利用预训练的word embedding作为输入,然后句子的encoder不进行训练(i.e., 预先随机初始化),接着加一层线性层,利用logistic regression classifier即可。

 

 

BAG OF RANDOM EMBEDDING PROJECTIONS (BOREP)

随机初始化bag-of-embeddings的权重W,

 

每个元素随机初始化,

 

 

 

我们可以得到句子的表示

 

 

 

 

 

 fpool 为pooling函数, 可以是max pooling 或者 mean pooling.  然后再接一个非线性函数,比如 Relu(h)=max(0, h).

 

RANDOM LSTMS

同样的,LSTM的权重矩阵随机初始化为,

d为LSTM的hidden size. 所以可以得到句子的表示,

 

 

ECHO STATE NETWORKS

 

ESN可以表示为下面的形式,

 

这里,同样使用了双向的ESN,最后可以得到句子的表示,

 直接看作者的结论

 

转载于:https://www.cnblogs.com/skykill/p/11582750.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值