深度学习
我是刘刘啊
这个作者很懒,什么都没留下…
展开
-
Tensorflow实战:VGGNet16原理及实现(多注释)
参考《Tensorflow实战》黄文坚,并添加了自己的理解。欢迎提问!!下图为VGG结构: 下表为VGGNet各级别网络结构图: 下图为本文代码组织结构图: ...原创 2018-09-01 13:11:56 · 3858 阅读 · 1 评论 -
Tensorflow实战:Inception_V3原理及实现(多注释)
参考《Tensorflow实战》黄文坚,对Inception_V3进行了实现,增加了自己的理解,欢迎提问!! Inception_V3中使用了称为Inception model的结构,Inception model本身如同大网络中的小网络,其结构可以反复堆叠一起形成大大网络。 Inception_V1结构如下图所示: 人脑神经元的连接...原创 2018-09-03 10:46:33 · 9695 阅读 · 2 评论 -
Tensorflow实战:ResNet原理及实现(多注释)
参考《Tensorflow实战》黄文坚,对Inception_V3进行了实现与改进,增加了自己的理解,欢迎提问!! 残差神经单元:假定某段神经网络的输入是x,期望输出是H(x),如果我们直接将输入x传到输出作为初始结果,那么我们需要学习的目标就是F(x) = H(x) - x,这就是一个残差神经单元,相当于将学习目标改变了,不再是学习一个完整的输出H(x),只是输...原创 2018-09-03 13:58:27 · 13196 阅读 · 6 评论 -
Tensorflow实战:Word2Vec_Skip_Gram原理及实现(多注释)
Word2Vec也称Word Embeddings,中文的叫法为“词向量”或“词嵌入”,是一种非常高效的,可以从原始语料中学习字词空间向量的预测模型。 在Word2Vec出现之前,通常将字词转为One-Hot Encoder ,一个词对应一个向量(一个向量中只有一个1,其余皆为0),通常要将一篇文章中每一个词都转成一个向量,而整篇文章则变为一个稀疏矩阵。这样的方法...原创 2018-09-03 15:23:52 · 1147 阅读 · 0 评论 -
Tensorflow实战:LSTM原理及实现(详解)
LSTM规避了标准RNN中梯度爆炸和梯度消失的问题,所以会显得更好用,学习速度更快下图是最基本的LSTM单元连接起来的样子上图为一层LSTM单元连接起来的样子,在工业上,LSTM是可以像一个很大的方阵的,其中除了输入层和输出层分别对应着Xt和ht的值以外,中间的部分都是一层层的LSTM单元,拓扑结构如下:LSTM内部结构LSTM看上去就是这样一种效果,一个一个首尾相接...原创 2018-09-03 16:45:07 · 99751 阅读 · 20 评论