nlp
文章平均质量分 82
Chance_Chan
计算机爱好者。
展开
-
Word2Vec导学 --- Skip-Gram模型
Word2Vec导学 — Skip-Gram模型这个导学覆盖了基于词转向量(Word2Vec)的skip-gram神经网络结构。我的这篇导学文章的目的是为了能够跳过一些通常的介绍和抽象内容,而能够洞察词转向量(Word2Vec)的本质,翻译 2017-07-27 17:46:50 · 1722 阅读 · 1 评论 -
Word2Vec导学第二部分 - 负采样
Word2Vec导学第二部分 - 负采样在word2vec导学的第二部分,我将介绍一些在基础skip-gram模型上的额外改进,这些改进是非常重要的,他将使得模型变得可以被训练。当你阅读word2vec中的skip-gram模型导学的时候,你会发现那个神经网络实在是太巨大了。在我给的这个例子下面,每个词向量由300个元素组成,并且一个单词表中包含了10000个单词。回想神经网络中有两个权重矩阵——一翻译 2017-08-24 00:26:41 · 31791 阅读 · 8 评论 -
浅谈将Pytorch模型从CPU转换成GPU
最近将Pytorch程序迁移到GPU上去的一些工作和思考 环境:Ubuntu 16.04.3 Python版本:3.5.2 Pytorch版本:0.4.00. 序言大家知道,在深度学习中使用GPU来对模型进行训练是可以通过并行化其计算来提高运行效率,这里就不多谈了。 最近申请到了实验室的服务器来跑程序,成功将我简陋的程序改成了“高大上”GPU版本。 看到网上总体来说少了很原创 2017-12-12 13:42:06 · 39398 阅读 · 2 评论 -
人人都能看懂的LSTM
这是笔者在看了台大李宏毅教授的深度学习视频之后的一点总结和感想。看完介绍的第一部分RNN尤其LSTM的介绍之后,整个人醍醐灌顶。本篇博客就是对视频的一些记录加上了一些个人的思考。0. 从RNN说起循环神经网络(Recurrent Neural Network)或RNN(Rumelhart et al.,1986c)是一种用于处理序列数据的神经网络。由于其能够“记录”先前的数据并且是一种“变长”(长原创 2017-12-16 22:37:09 · 1392 阅读 · 0 评论