![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
nlp
文章平均质量分 73
BVL10101111
THU master, interested in ML,DL,DM
github:https://github.com/BenchengY
展开
-
论文笔记之Smart Reply: Automated Response Suggestion for Email
本文是google团队在2016年kdd上发表的一篇论文, 是对gmail中应用的自动回复功能框架进行了介绍,应用的环境就是在gmail中来了一封邮件,系统会自动推荐3个回复语句供用户选择,来方便回复。下面是整个框架的流程图: 面临的挑战:1,个性化推荐2,多样化推荐3,处理能力强4,保护用户隐私对于挑战1, 2 1)加了一项惩罚项使得一些过于简单的,回答的开头类似的response被剔除掉原创 2016-12-11 11:13:25 · 2339 阅读 · 4 评论 -
From RNN To LSTM
最近看了一些rnn和lstm的资料,算是科普性的了解了,在此做一个总结。目录: 1RNN 1)RNN结构 2)RNN(本质) 3) The Problem of Long-Term Dependencies of RNN 2LSTM 1)LSTM结构 2)LSTM结构详解 3)Variants on Long Short Term Me原创 2016-12-26 15:17:41 · 2411 阅读 · 0 评论 -
word2vec 过程理解&词向量的获取
网上有很多这方面的资源,详细各位都能够对于word2vec了解了大概,这里只讲讲个人的理解,目的:通过对于一个神经网络的训练,得到每个词对应的一个向量表达基于: 这个神经网络,是基于语言模型,即给定T个词的字符串s,计算s是自然语言的概率p(w1,w2,…,wt)而构建的,更直白点,就是通过输入wi的上下相邻的n个词(n-gram方法),来就算输出是wi的概率方案:CBOM和skip-gram两种,原创 2016-12-15 10:21:41 · 7746 阅读 · 0 评论