![](https://img-blog.csdnimg.cn/20201014180756925.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
论文解读
文章平均质量分 96
论文学习
哎呦-_-不错
读书太少而想太多
展开
-
NLP—5.word2vec论文精读
文章目录一、储备知识1. 语言模型的概念2. 语言模型的发展3.语言模型的平滑操作4. 语言模型的评价指标二、研究背景1. 词的表示方式三、研究意义四、论文精读一1. 摘要核心2.Introduction-介绍3. 对比模型3.1 前馈神经网络语言模型(NNLM)3.2 循环神经网络语言模型(RNNLM)4.word2vec模型的两种模型架构4.1 Skip-gram4.2 CBOW4.3 关键技术5.实验结果5.1 与对比模型的直接对比实验5.2不同参数下的实验5.3 不同模型的效率分析 一、储备知识 1原创 2021-08-13 22:53:48 · 535 阅读 · 0 评论 -
论文精读—XGBoost paper
文章目录引言1. XGBoost算法预备知识2. XGBoost算法结构分3. XGBoost算法之贪心算法寻找分裂点4. XGBoost算法之近似算法和加权分桶5. XGBoost算法之缺失值处理6. XGBoost算法之其他优化 引言 Xgboost以CART决策树为子模型,通过Gradient Tree Boosting实现多棵CART树的集成学习,得到最终模型。XGBoost本质上还是一个GBDT,但是力争把速度和效率发挥到极致;XGBoost是一个优化的分布式梯度增强库,旨在实现高效,灵活和便原创 2021-05-10 17:40:43 · 595 阅读 · 0 评论