http://blog.csdn.net/niuwei22007/article/details/49053771原地址可以查看更多文章
下面这些例子是keras前期版本的,现在已经升级到了keras0.3.0,以下代码需要进行修改才可以。如今的代码更简洁,使用更方便,不需要自己计算每一层的输入shape,除了第一层。
下面来看几个例子,来了解一下Keras的便捷之处。不需要具体去研究代码的意思,只需要看一下这个实现过程。用编程的装饰模式把各个组件模块化,然后可以自己随意的拼装。首先介绍一个基于Keras做的手写MNIST识别的代码,剩下的就看一下实现过程即可。
No.0用Keras实现MNIST识别。
from keras.models import Sequential
from keras.layers.core import Dense, Dropout,Activation
from keras.optimizers import SGD
from keras.datasets import mnist
import numpy
model = Sequential()
model.add(Dense(784, 500, init='glorot_uniform')) # 输入层,28*28=784
model.add(Activation('tanh')) # 激活函数是tanh
model.add(Dropout(0.5)) # 采用50%的dropout
model.add(Dense(500, 500, init='glorot_uniform')) # 隐层节点500个
model.add(Activation('tanh'))
model.add(Dropout(0.5))
# 输出结果是10个类别,所以维度是10
model.add(Dense(500, 10, init='glorot_uniform'))
model.add(Activation('softmax')) # 最后一层用softmax
# 设定学习率(lr)等参数
sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9,nesterov=True)
# 使用交叉熵作为loss函数,就是熟知的log损失函数
model.compile(loss='categorical_crossentropy',
optimizer=sgd, class_mode='categorical')
# 使用Keras自带的mnist工具读取数据(第一次需要联网)
(X_train, y_train), (X_test, y_test) = mnis