- 博客(6)
- 收藏
- 关注
原创 Keras实现LSTM
LSTM是优秀的循环神经网络(RNN)结构,而LSTM在结构上也比较复杂,对RNN和LSTM还稍有疑问的朋友可以参考:Recurrent Neural Networks vs LSTM这里我们将要使用Keras搭建LSTM.Keras封装了一些优秀的深度学习框架的底层实现,使用起来相当简洁,甚至不需要深度学习的理论知识,你都可以轻松快速的搭建你的深度学习网络,强烈推荐给刚入门深度学习的同学
2017-09-16 15:31:32 14228
原创 Pytorch实现卷积神经网络CNN
Pytorch是torch的Python版本,对TensorFlow造成很大的冲击,TensorFlow无疑是最流行的,但是Pytorch号称在诸多性能上要优于TensorFlow,比如在RNN的训练上,所以Pytorch也吸引了很多人的关注。之前有一篇关于TensorFlow实现的CNN可以用来做对比。下面我们就开始用Pytorch实现CNN。step 0 导入需要的包1
2017-09-16 15:30:02 2283
原创 Keras实现autoencoder
Keras使我们搭建神经网络变得异常简单,之前我们使用了Sequential来搭建LSTM:keras实现LSTM。我们要使用Keras的functional API搭建更加灵活的网络结构,比如说本文的autoencoder,关于autoencoder的介绍可以在这里找到:deep autoencoder。 现在我们就开始。step 0 导入需要的包1
2017-09-16 15:29:03 3142
原创 TensorFlow实现卷积神经网络CNN
TensorFlow是目前深度学习最流行的框架,很有学习的必要,下面我们就来实际动手,使用TensorFlow搭建一个简单的CNN,来对经典的mnist数据集进行数字识别。如果对CNN还不是很熟悉的朋友,可以参考:Convolutional Neural Network。 下面就开始。step 0 导入TensorFlow 1 import
2017-09-16 15:27:23 457
原创 Recurrent Neural Networks VS LSTM
Recurrent Neural NetworkRNN擅长处理序列问题。下面我们就来看看RNN的原理。可以这样描述:如上图所述,网络的每一个output都会对应一个memory单元用于存储这一时刻网络的输出值,然后这个memory会作为下一时刻输入的一部分传入RNN,如此循环下去。下面来看一个例子。假设所有神经元的weight都为1,没有bi
2017-09-12 10:23:21 477
原创 梯度弥散与梯度爆炸
问题描述先来看看问题描述。当我们使用sigmoid funciton 作为激活函数时,随着神经网络hidden layer层数的增加,训练误差反而加大了,如上图所示。下面以2层隐藏层神经网络为例,进行说明。结点中的柱状图表示每个神经元参数的更新速率(梯度)大小,有图中可以看出,layer2整体速度都要大于layer1.我们又取每层laye
2017-09-05 11:35:01 1473
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人