- 博客(4)
- 收藏
- 关注
原创 Seq2Seq模型结构
Seq2Seq(Sequence to Sequence) 是一个处理序列问题的模型,传统的 RNN 或 LSTM 只能处理 输入及输出是定长即 一对一或多对多的问题,而 Seq2Seq 则能处理一对多的问题,它也是 RNN 最重要的一个变种:N vs M(输入与输出序列长度不同),如:输入(你是谁),输出(我是某某某)。因此 Seq2Seq 在很多方面也得到应用:机器翻译、QA 系统、文档摘要...
2020-03-15 09:48:00 1325
原创 Seq2Swq之LSTM和GRU
在了解 Seq2Seq 的结构前我们必须先要知道什么是 LSTM、GRU,以便我们更好的理解 Encoder、Decoder 的理解LSTM 网络LSTM 的全称是 Long Short Term Memory Network,又叫做长短时记忆网络,必须明确的是它是一种特殊的 RNN 结构,那么它与标准的 RNN结构区别在哪呢?让我们来看一下标准的 RNN 结构:由上图中可以看到,传统的 ...
2020-03-14 14:57:33 474
原创 Seq2Seq的一些概念
Recurrent Neural NetworkRNN 又叫做递归神经网络或者循环神经网络,它擅长对序列数据进行建模处理,如时间序列数据,是指在不同时间点上收集的数据,这类数据反映了某一事物、现象在随时间的变化状态或程度,当然这是时间,也可以是文本或图像序列,总的来说,序列数据存在着一个特点——后面的数据跟前面的数据有关系为什么需要 RNN ?神经网络结构只能单独的处理一个个的输入,前一个输...
2020-03-10 15:44:11 319
原创 Word2vec之Skip-gram理解
此文章参考多位大佬所总结出来的,如涉及侵权,请告之!Word2vec定义将文本语料以无监督的方式来进行语义知识的学习工具, 主要包含 skip-gram,**CBOW(Continuous bag of word)**二种模型, 本质是通过文本学习来用词向量表征词的语义信息,通过嵌入空间使词语义相似的词距离相近, Embedding其实是一种映射,即把词从原有的空间中嵌入到新的维度空间中T...
2020-03-06 09:49:29 709
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人