NLP系列
文章平均质量分 94
薛定谔的程序喵
这个作者很懒,什么都没留下…
展开
-
NLP transformer抽取式问答项目详解
详细介绍NLP抽取式问答项目的一些细节,以及对应的代码实现原创 2023-01-02 18:10:37 · 1306 阅读 · 0 评论 -
NLP之一文搞懂word2vec、Elmo、Bert演变
导读自然语言处理本质是解决文本相关的问题,我们可以把它的任务分为大致两部分:预训练产生词向量以及对词向量进行操作(下游NLP具体任务)。在自然语言处理中有词向量模型word2vec、Elmo以及Bert等,也有RNN,LSTM等下游encoding模型,初学者很容易搞混,下面就分别介绍这几个模型之间的区别和联系,以及NLP技术的发展之路。word2vec1.原理word2vec是一种编码方式,于2013年由google实验室提出,它的特点是将所有词表示成低位稠密向量,它解决了one-hot词袋编码的原创 2021-05-28 15:05:13 · 2186 阅读 · 0 评论 -
NLP系列之LSTM网络
导读LSTM是一个非常经典的RNN模型,它在普通的RNN基础上加入了若干个参数,改成了能把很久之前记忆的量都加了进来,本文就以Colah大神的原文谈一下我的个人理解,希望看完之后对你有帮助。本文一共分为4个部分:循环神经网络RNN的由来;传统RNN结构的缺点以及LSTM的引入;LSTM网络的结构特点以及公式推导;LSTM的一些变形;一、循环神经网络RNN的由来人类并不是每时每刻都从一片空白的大脑开始他们的思考。在你阅读这篇文章时候,你都是基于自己已经拥有的对先前所见词的理解来推断当前词的原创 2021-04-18 09:37:38 · 713 阅读 · 0 评论