![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 82
晋级菜鸟
这个作者很懒,什么都没留下…
展开
-
深入TextCNN(一)详述CNN及TextCNN原理
https://zhuanlan.zhihu.com/p/77634533?from_voters_page=true前言本文是本人所写的NLP基础任务——文本分类的【深入TextCNN】系列文章之一。 【深入TextCNN】系列文章是结合PyTorch对TextCNN从理论到实战的详细教程。本文适合阅读的对象:对深度学习、卷积神经网络和PyTorch有一定的基础 对卷积神经网络用于文本分类有一定实践经验的读者 在拥有上面基础的同时想进一步提高自己、增加对TextCNN的理解的读者...原创 2021-03-26 15:40:05 · 1440 阅读 · 0 评论 -
word2vec skip-gram和cbow
总结来说就是CBOW模型中input是context(周围词)而output是中心词,训练过程中其实是在从output的loss学习周围词的信息也就是embedding,但是在中间层是average的,一共预测V(vocab size)次就够了。skipgram是用中心词预测周围词,预测的时候是一对word pair,等于对每一个中心词都有K个词作为output,对于一个词的预测有K次,所以能够更有效的从context中学习信息,但是总共预测K*V词。因此,skip gram的训练时间更长,但是对.原创 2021-03-24 21:36:56 · 260 阅读 · 0 评论