![](https://img-blog.csdnimg.cn/20201014180756930.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
自然语言处理
CharlesWu123
分享平时积累与学习的内容,研究方向:OCR,图像,深度学习。
展开
-
TensorFlow实战Google深度学习框架(第二版) ---- 学习代码
TensorFlow实战Google深度学习框架(第二版) ---- 学习代码原创 2018-11-24 16:59:17 · 1282 阅读 · 0 评论 -
TensorFlow学习之LSTM --- 预测sin函数
定义一个LSTM结构。在TensorFLow中,LSTM结构可以很简单地实现,只需一个命令。lstm = tf.nn.rnn_cell.LSTMCell(lstm_hidden_size)将LSTM中的状态初始化为全0数组。LSTMCell类提供了 zero_state 函数来生成全零的初始状态。state是一个包含两个张量的 LSTMStateTuple 类,其中 state.c 和...原创 2018-11-30 12:23:12 · 2194 阅读 · 2 评论 -
TensorFlow学习之LSTM ---机器翻译(Seq2Seq + Attention模型)
一、理论知识Seq2Seq模型的基本思想:使用一个循环神经网络读取输入句子,将这个句子的信息压缩到一个固定维度的编码中;再使用另一个循环神经网络读取这个编码,将其“解压”为目标语言的一个句子。这两个循环神经网络分别称为编码器(Encoder)和解码器(Decoder),所以也称为 encoder-decoder 模型。解码器部分的结构与语言模型几乎完全相同:输入为单词的词向量,输出为soft...原创 2018-12-04 19:22:08 · 12881 阅读 · 9 评论 -
TensorFlow学习之LSTM ---语言模型(PTB数据集的处理)
语言模型的任务就是预测每个句子在语言中出现的概率。一、 评价方法语言模型效果好坏的常用评价指标时复杂度(perplexity)。在一个测试集上得到的perplexity越低,说明建模的效果越好。计算perplexity值的公式如下:perplecity(S)=p(w1,w2,w3,...wm)=1p(w1,w2,w3,...wm)m=∏1p(wi∣w1,w3,...wi−1)mperplec...原创 2018-11-30 17:54:52 · 9614 阅读 · 2 评论