对于自然语言处理,word2vec是和切词并列的基本处理手段,对于word2vec,有篇文章讲解的很详细,从背景知识到具体算法,讲的挺透彻的,推荐一下:
https://blog.csdn.net/a819825294/article/details/52438625
但是对于其中的关键点,负采样,我一直看的云里雾里,不知道到底是什么原理,让神经网络的训练变得更加高效,搜了很多文章,终于搞懂了一点。其实和卷积、池化一样,都是为了节省参数更新的开销,让梯度更新的更快。
具体文章:https://cloud.tencent.com/developer/news/163795
看了这个文章,在看算法,就知其所以然了。