![](https://img-blog.csdnimg.cn/20190918140012416.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
keras
keras
Clark_Xu
重新出发,拥抱变化
展开
-
Keras系列之入门
作者:只为自己熟悉和理解技术文档,记录笔记所用Sequential 顺序模型:顺序模型是多个网络层的线性堆叠,1.创建模型:(1)讲网络层实列传递给Sequential的构造器,来创建模型from keras.models import Sequentialfrom keras.layers import Dense, Activationmodel = Sequential(...原创 2019-01-24 21:58:36 · 261 阅读 · 0 评论 -
Keras系列之文本向量化
作者:《python深度学习》学习笔记,用于自己熟悉和理解目录1.实现单词级的one-hot编码:稀疏,高维,硬编码2.使用词嵌入word embeding:密集,低维,学习得到2.1 方法一:利用 Embedding 层学习得来2.2 方法二: 使用预训练的词嵌入参考深度学习模型不会接收原始文本作为输入,它只能处理数值张量。文本向量化(vectorize)是指将文本转...原创 2019-01-25 04:26:11 · 1782 阅读 · 0 评论 -
Keras系列之使用预训练词嵌入
作者:《python深度学习》学习笔记,用于自己熟悉和理解接着上篇的 《Keras系列之文本向量化》使用预训练的词嵌入,在数据集较小的情况下,难以学习到足够好的embedding层,选择一些权威的官方词嵌入数据库能够有效解决数据集的问题。话不多说,例子如下,在书上代码基础上进行改进和添加注释,适合小白。IMDB数据集:http://mng.bz/0tIo,glove词嵌入文件:htt...原创 2019-01-28 21:20:21 · 2946 阅读 · 1 评论 -
Keras系列之LSTM和GRU实践
作者:《python深度学习》学习笔记,用于自己熟悉和理解 目录1. LSTM实践 2.GRU实践3.循环神经网络的高级用法3.1 循环 dropout(recurrent dropout)3.2 堆叠循环层(stacking recurrent layers)3.3 双向循环层(bidirectional recurrent layer)3.4 更多尝试...原创 2019-01-29 23:55:52 · 11388 阅读 · 6 评论 -
Keras系列之卷积神经网络处理序列
作者:《python深度学习》学习笔记,用于自己熟悉和理解目录1.背景2.序列数据的一维卷积3.序列数据的一维池化4.一维卷积神经网络的实现5.结合 CNN 和 RNN 来处理长序列 5.1 一维卷积神经网络的缺点5.2 结合的优点5.3 实现结合一维卷积基和 GRU 层的模型1.背景卷积神经网络在计算机视觉领域表现优异,同样也让它对序列处理特别有效。时...原创 2019-01-30 02:41:13 · 2981 阅读 · 0 评论