自然语言处理深度学习方向博文整理

《基于神经网络的词和文档语义向量表示方法研究》

来自 <http://licstar.net/archives/tag/%E8%AF%8D%E5%90%91%E9%87%8F>

 

机器学习相关数据集

https://en.wikipedia.org/wiki/List_of_datasets_for_machine_learning_research

 

Deep Learning in NLP(一)词向量和语言模型

来自 <http://licstar.net/archives/328>

 

 

理解 LSTM 网络

来自 <http://www.jianshu.com/p/9dc9f41f0b29/>

 

递归神经网络不可思议的有效性

来自 <http://www.csdn.net/article/2015-08-28/2825569>

 

 

递归神经网络(recursiveNN)结合自编码(Autoencode)实现句子建模

来自 <http://blog.csdn.net/qq_26609915/article/details/52119512>

 

 

最新自然语言处理(NLP)四步流程:Embed->Encode->Attend->Predict

来自 <http://geek.csdn.net/news/detail/116220>

 

注意力机制(Attention Mechanism)在自然语言处理中的应用

来自 <http://www.cnblogs.com/robert-dlut/p/5952032.html>

 

 

THUOCL:清华大学开放中文词库

来自 <https://mp.weixin.qq.com/s/VvS5zZiARjyxuAZsGIxN2Q>

 

 

用深度学习(CNN RNN Attention)解决大规模文本分类问题 - 综述和实践

 

来自 <https://zhuanlan.zhihu.com/p/25928551>

 

知乎“看山杯” 夺冠记

 

来自 <https://zhuanlan.zhihu.com/p/28923961>

 

理解Word2vecSkip-gram,CBOW

http://www.cnblogs.com/DjangoBlog/p/7903683.html

 

理解Fasttext

https://www.cnblogs.com/DjangoBlog/p/7903690.html

 

《How toGenerate a Good Word Embedding?》导读

http://licstar.net/archives/620

来自 <http://licstar.net/archives/category/%e8%87%aa%e7%84%b6%e8%af%ad%e8%a8%80%e5%a4%84%e7%90%86

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值