![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
nlp
文章平均质量分 93
05hBoolShow
海到无边天作岸,山登绝顶我为峰。
展开
-
RocketQAv2阅读笔记(#问答系统 #NLP #检索)
个人博客:05hBoolShow的博客_CSDN博客-SLAM,概率论,线性代数领域博主百度的检索技术厉害的原因:现实中 海量的用户历史数据、强大的中文ERNIE预训练模型、各种创新的模型训练策略。其中RocketQA v2便是其一。先前,自己工作中,也有使用过RocketQA v1模型(策略),并完成相关业务。特此拜读v2论文《RocketQAv2: A Joint Training Method for Dense Passage Retrieval and Passage Re-ra...原创 2022-04-13 23:14:12 · 1287 阅读 · 0 评论 -
《数学之美》读书笔记
看了吴军的《数学之美》,感触颇多。吴军先生能通过简单的故事和诙谐的语言,将晦涩难懂的数学原理解释清楚,让人再次感受到数学的博大精深。读了这本书之后,发现曾经只和成绩挂钩的数学原理还能这么玩,这么接地气。为此,摒弃应试的动机,下一步计划重学一遍概率论、线代、高数等数学,以提高自己。本文是个人读《数学之美》记录下阅读时的最直接的感受,希望后期能适时翻阅,思想上和知识层面上共同指导自己。第二版前言...原创 2019-07-23 15:13:16 · 1741 阅读 · 0 评论 -
信息论基础--熵
熵是信息论的基础理论,掌握和学习它十分重要。这里介绍若干信息论中的相关概念,重点参考宗成庆老师的《统计自然语言处理》书籍和课件。也在这,强烈推荐下宗成庆老师的《统计自然语言处理》书籍和课件。目录熵联合熵(joint entropy)条件熵(conditional entropy)连锁规则---》log运算而来熵率(entropy rate)相对熵(KL距离)交叉熵...原创 2019-09-21 21:57:31 · 1418 阅读 · 0 评论 -
编辑距离
NLP中有个 编辑距离 的概念,常运用到单词纠错中。本博文介绍并代码实现编辑距离。参考并综合以下三篇博文。https://blog.csdn.net/LWHGMAN/article/details/100067314 https://blog.csdn.net/baodream/article/details/80417695 https://www.jianshu.com/p/a6...原创 2019-09-22 13:48:44 · 211 阅读 · 0 评论 -
RNN-循环神经网络-吴恩达读书笔记
参考博文:http://www.ai-start.com/dl2017/html/lesson5-week1.html#header-n1141、为什么选择序列模型?(Why Sequence Models?)什么是序列模型:序列模型也就是处理与时间有关系的数据的模型,这些数据前后是有相互依存的关系的。比如音频片段(歌曲、语言),是一个按照时间播放的序列。序列模型在机器翻译、文本生...原创 2019-09-22 17:16:12 · 428 阅读 · 0 评论