![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
猫猫玩机器学习
这个作者很懒,什么都没留下…
展开
-
垃圾邮件分类快速理解机器学习中的朴素贝叶斯(Naive Bayes)
贝叶斯方法是一个历史悠久,有着坚实的理论基础的方法,同时处理很多问题时直接而又高效,很多高级自然语言处理模型也可以从它演化而来。因此,学习贝叶斯方法,是研究自然语言处理问题的一个非常好的切入口。其实朴素贝叶斯=贝叶斯公式+条件独立假设1.贝叶斯公式大学概率学统计就已经学过贝叶斯公式,没学过也没关系,该公式就一行:P(Y|X)=P(X|Y)*P(Y)/P(X)它是由联合概率推导出来的:P...原创 2019-08-23 15:20:33 · 948 阅读 · 1 评论 -
通过实例理解word2vec之Skip-gram
word2vec主要实现方法是Skip-gram和CBOW,CBOW的目标是根据上下文来预测当前词的概率,且上下文所有的词对当前词出现概率的影响的权重是一样的,因此叫做continuous bag-of-words模型。如在袋子中取词,去取出数量足够的词就可以了,与取出词的先后顺序无关。Skip-gram刚好相反,其是根据当前词来预测上下文概率的。在实际应用中算法并无高下之分,主要根据呈现的效果来...原创 2020-02-23 22:46:45 · 1922 阅读 · 2 评论 -
transformer理解
Transformer 是 Google 的团队在 2017 年提出的一种 NLP 经典模型,现在比较火热的 Bert 也是基于 Transformer。Transformer 模型使用了 Self-Attention 机制,不采用 RNN和LSTM 的顺序结构,使得模型可以并行化训练,而且能够拥有全局信息。1.Transformer 结构首先介绍 Transformer 的整体结构,下图是 Transformer 用于中英文翻译的整体结构。...转载 2020-08-31 10:43:03 · 6026 阅读 · 2 评论