- 博客(1)
- 资源 (7)
- 收藏
- 关注
原创 自然语言处理中的Attention原理和作用
目前NLP三个大的进展,一个是分布式表示(词向量),第二个是 LSTM(GRU),第三个就是attetion,这些技术在原来的基础上大大提升了nlp各项基础任务。attetion究竟是什么呢。假设循环神经网络,每个时刻的输出h1,h2, . . . ,hnattetion其实就是,循环神经网络hi的在每个时刻的权重αi。因为,原来我们在预测的时候,是把LSTM的最终的预测状态 Hn输出...
2019-06-04 17:12:14 860
smslib-3.5.4-centos可以发短信的程序和检测程序.zip
具体使用步骤参考 http://blog.csdn.net/changdejie/article/details/19968613
2014-02-26
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人