NLP
lyh_a
拒绝无脑的粘贴复制
展开
-
词向量简单总结
词向量:简而言之,词向量就是将一个词转化为稠密向量,对于相似的词,它们的向量也应该相近,如“高兴”和“快乐”。词的表示有两种表示:(1)离散表示,基于规则的,如:苹果 [0,0,0,1,0,0,0,0,0,……]向量维度为词表的维度,1就表示当前苹果位于词表的位置。(2)分布式表示,即将词转化为词向量表示。然后讨论如何生成词向量:(1)基于统计方法在一个事先指定的窗口大...原创 2018-08-24 10:22:08 · 2507 阅读 · 0 评论 -
NLP基本任务一:基于机器学习的文本分类
本博客参照了复旦大学计算机科学技术学院邱锡鹏教授的文章https://www.zhihu.com/question/324189960题目:实现基于logistic/softmax regression的文本分类 参考 文本分类 《神经网络与深度学习》 第2/3章 数据集:Classify the sentiment of sentences from the Rott...原创 2019-05-22 19:38:31 · 4120 阅读 · 1 评论 -
NLP基本任务二:基于深度学习的文本分类
本博客参照了复旦大学计算机科学技术学院邱锡鹏教授的文章https://www.zhihu.com/question/324189960题目:熟悉Pytorch,用Pytorch重写《任务一》,实现CNN、RNN的文本分类; 参考 https://pytorch.org/ Convolutional Neural Networks for Sentence Classificati...原创 2019-05-23 15:50:20 · 1850 阅读 · 2 评论 -
用例子与代码详解LSTM层的输入输出,以Keras为例
先附上代码:from keras import Sequentialfrom keras.layers import LSTMmodel = Sequential()model.add(LSTM(64)) #64表示input_dim,即每个时间步输入的向量的维度#输入为2个句子,即2个样本,Batchsize=2,3个时间步,每个时间步的输入是64维,如X0,# 注意:每个...原创 2019-06-02 11:15:14 · 7522 阅读 · 3 评论