![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
npl
Linda_ak
bat某家任职
展开
-
深度学习的自然语言处理-课程笔记-1
课程链接:https://www.bilibili.com/video/av15892671/?spm_id_from=333.788.b_636f6d6d656e74.29(b站)https://www.youtube.com/watch?v=OQQ-W_63UgQ&list=PL3FW7Lu3i5Jsnh1rnUwq_TcylNr7EkRe6&index=2&t=0...原创 2019-01-10 22:29:45 · 218 阅读 · 0 评论 -
深度学习的自然语言处理-课程笔记-2-word2vec
照例附上大牛的笔记:http://www.hankcs.com/nlp/word-vector-representations-word2vec.html这节课主要是讲word2vec。两种常见的算法是:(1)skip-grams(SG)predict context words given taget(position independent),预测上下文(2)conti...原创 2019-01-13 21:11:25 · 171 阅读 · 0 评论 -
fasttext小试牛刀
解读源码:原始输入其实是one-hot,wi其实就是lookuptable,所有的wordvector加和求平均直接得到隐藏层,隐藏层经过wo矩阵得到输出,再进行softmax。需求一:已经有其他样本训练好的词向量,想直接用,迁移学习如果有预训练好的wordvec,利用参数-pretrainedVectors 指定文件就行,这个是用与训练的文件初始化参数,迭代过程中词向量仍会变。如果...原创 2019-07-10 20:54:03 · 188 阅读 · 0 评论