word2vec中数学原理详解以及原理思考

             很久没有写博客了,也没有写过相关总结。最近,工作中又开始用到了word2vector,正好就做个相关总结。这方面相关的博客有很多,我看过的讲的最清楚的就是@peghoty的博客。

要理解wordvector的原理,有些知识还是需要提前了解一下。

预备知识:http://blog.csdn.net/itplus/article/details/37969635

背景知识:http://blog.csdn.net/itplus/article/details/37969817 ,这里要着重去理解统计语言模型,n-gram模型和神经概率语言模型。

建议看一下预备知识和背景知识。

本博文前半篇幅主要借助@peghoty的博客讲解数学原理,后半篇幅主要讲一些总结和本人对word2vec的一些思考。

             词向量的训练主要有两个具体的模型——CBOW(Continuous Bag-of-Wods Model)模型和Skip-gram(Conti
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值