![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
SCU-JJkinging
加油,leego must be dai
展开
-
GBDT详解
原创 2022-04-30 20:13:29 · 433 阅读 · 2 评论 -
Adaboost详解
原创 2022-04-30 20:10:18 · 342 阅读 · 0 评论 -
损失函数—Dice Loss: Dice Loss for Data-imbalanced NLP Tasks
原创 2022-04-30 11:23:08 · 445 阅读 · 0 评论 -
Word2Vec
1. 前置篇:skip-gram原理详解及数学推导2. 负采样(以skip-gram为例)具体采样方法:为什么负采样开3/4次幂? 在保证高频词容易被抽到的大方向下,通过权重3/4次幂的方式,适当提升低频词、罕见词被抽到的概率。如果不这么做,低频词,罕见词很难被抽到,以至于不被更新到对应的Embedding。参考为什么Word2Vec训练中, 需要对负采样权重开3/4次幂?3. Hierarchica原创 2022-04-28 17:21:20 · 237 阅读 · 0 评论