keras 快速入门


Keras是一个高层神经网络API,Keras由纯Python编写而成并基 TensorflowTheano以及 CNTK后端。Keras 为支持快速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras:

  • 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性)
  • 支持CNN和RNN,或二者的结合
  • 无缝CPU和GPU切换

Keras适用的Python版本是:Python 2.7-3.6

本文面向的对象是对深度学习有一些了解的同学快速入门kears 实现代码开发,能够实现部分神经网络。其中涉及的到的概念如下:

  • 卷积层、池化层、全连接层
  • 各种优化方法
  • 各种损失函数

了解一个简单的 keras 实例

这个应用实现的是图像数字识别,使用的数据是keras中自带的mnist数据集。实例的全部代码如下,简单了解之后我们将分步骤、详细讲解具体涉及到的函数及其参数。

from keras.models import Sequential  
from keras.layers.core import Dense, Dropout, Activation  
from keras.optimizers import SGD  
from keras.datasets import mnist  
import numpy 

# 第一步:选择模型
model = Sequential()

# 第二步:构建网络层
model.add(Dense(500,input_shape=(784,))) # 输入层,28*28=784  
model.add(Activation('tanh')) # 激活函数是tanh  
model.add(Dropout(0.5)) # 采用50%的dropout

model.add(Dense(500)) # 隐藏层节点500个  
model.add(Activation('tanh'))  
model.add(Dropout(0.5))

model.add(Dense(10)) # 输出结果是10个类别,所以维度是10  
model.add(Activation('softmax')) # 最后一层用softmax作为激活函数

# 第三步:编译
sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True) # 优化函数,设定学习率(lr)等参数  
model.compile(loss='categorical_crossentropy', optimizer=sgd) # 使用交叉熵作为loss函数

'''
   第四步:训练
   .fit的一些参数
   batch_size:对总的样本数进行分组,每组包含的样本数量
   epochs :训练次数
   shuffle:是否把数据随机打乱之后再进行训练
   validation_split:拿出百分之多少用来做交叉验证
   verbose:屏显模式 0:不输出  1:输出进度  2:输出每次的训练结果
'''
(X_train, y_train), (X_test, y_test) = mnist.load_data() # 使用Keras自带的mnist工具读取数据(第一次需要联网)
# 由于mist的输入数据维度是(num, 28, 28),这里需要把后面的维度直接拼起来变成784维  
X_train = X_train.reshape(X_train.shape[0], X_train.shape[1] * X_train.shape[2]) 
X_test = X_test.reshape(X_test.shape[0], X_test.shape[1] * X_test.shape[2])  
Y_train = (numpy.arange(10) == y_train[:, None]).astype(int) 
Y_test = (numpy.arange(10) == y_test[:, None]).astype(int)

model.fit(
    X_train, 
    Y_train,
    batch_size=200,
    epochs=50,
    shuffle=True,
    verbose=1,
    validation_split=0.3)
model.evaluate(X_test, Y_test, batch_size=200, verbose=0)

'''
    第五步:输出
'''
print("test set")
scores = model.evaluate(X_test,Y_test,batch_size=200,verbose=0)
print("")
print("The test loss is %f" % scores)
result = model.predict(X_test,batch_size=200,verbose=0)

result_max = numpy.argmax(result, axis = 1)
test_max = numpy.argmax(Y_test, axis = 1)

result_bool = numpy.equal(result_max, test_max)
true_num = numpy.sum(result_bool)
print("")
print("The accuracy of the model is %f" % (true_num/len(result_bool)))

查看数据集

查看图片数据

每张图片的信息都以numpy.ndarray保存,每张图片都是28*28大小的数字矩阵。

plt.imshow(X_train[23])
print(X_train.shape)
print(type(X_train[0]))

输出

(60000, 28, 28)![]()
<class 'numpy.ndarray'>

查看训练集、测试集相关数据

print("训练集数据大小:", X_train.shape)
print("测试集数据大小:", X_test.shape)
print("训练集标签", Y_train.shape)
print("测试集标签", Y_test.shape)

输出

训练集数据大小: (60000, 28, 28)
测试集数据大小: (10000, 28, 28)
训练集标签 (60000, 10)
测试集标签 (10000, 10)

keras编程开始

正如文章最开始的案例中表示,keras编程能够划分为五个步骤:

  1. 选择模型
  2. 构建神经网络结构
  3. 编译
  4. 训练
  5. 预测

选择模型

Keras有两种类型的模型,顺序模型(Sequential)泛型模型(Model),本文选择的是简单的顺序模型。直接实例化对象即可:

model = Sequential()

相对于泛型模型而言,顺序模型简单容易上手,但是缺点也很明显,模型的灵活性不够。相关的泛型模型本文不过多介绍,参考文档keras 泛型模型

构建网络

神经网络中的数据层包括全连接层(Dense)、激活层(Activation)、随机失活层(Dropout)、Flatten层、Reshape层、Permute层、RepeatVector层、Lambda层、ActivityRegularizer层、Masking层。每一层的功能如下:

层名称功能
Dense层Dense就是常用的全连接层,所实现的运算是output = activation(dot(input, kernel)+bias)。其中activation是逐元素计算的激活函数,kernel是本层的权值矩阵,bias为偏置向量,只有当use_bias=True才会添加。
Activation层激活层对一个层的输出施加激活函数
Dropout层为输入数据施加Dropout。Dropout将在训练过程中每次更新参数时按一定概率(rate)随机断开输入神经元,Dropout层用于防止过拟合。
Flatten层Flatten层用来将输入“压平”,即把多维的输入一维化,常用在从卷积层到全连接层的过渡。Flatten不影响batch的大小。
Reshape层Reshape层用来将输入shape转换为特定的shape
Permute层Permute层将输入的维度按照给定模式进行重排,例如,当需要将RNN和CNN网络连接时,可能会用到该层。
RepeatVector层RepeatVector层将输入重复n次
Lambda层本函数用以对上一层的输出施以任何Theano/TensorFlow表达式
ActivityRegularizer层经过本层的数据不会有任何变化,但会基于其激活值更新损失函数值
Masking层使用给定的值对输入的序列信号进行“屏蔽”,用以定位需要跳过的时间步

不同层之间的实例化参数不全相同,具体参考文档keras 常用层 。这里对本文出现的Dense层进行详细说明:

keras.layers.core.Dense(
    units, 
    activation=None, 
    use_bias=True,
    kernel_initializer='glorot_uniform',
    bias_initializer='zeros', 
    kernel_regularizer=None, 
    bias_regularizer=None, 
    activity_regularizer=None,
    kernel_constraint=None, 
    bias_constraint=None)

重要参数如下:

  • units:大于0的整数,代表该层的输出维度。
  • activation:激活函数,为预定义的激活函数名(参考激活函数),或逐元素(element-wise)的Theano函数。如果不指定该参数,将不会使用任何激活函数(即使用线性激活函数:a(x)=x)
  • use_bias: 布尔值,是否使用偏置项

本文的神经网络结构:

model.add(Dense(500,input_shape=(784,))) # 输入层,28*28=784  
model.add(Activation('tanh')) # 激活函数是tanh  
model.add(Dropout(0.5)) # 采用50%的dropout

model.add(Dense(500)) # 隐藏层节点500个  
model.add(Activation('tanh'))  
model.add(Dropout(0.5))

model.add(Dense(10)) # 输出结果是10个类别,所以维度是10  
model.add(Activation('softmax')) # 最后一层用softmax作为激活函数

编译

compile(self, 
        optimizer, 
        loss, 
        metrics=[], 
        loss_weights=**None**,
        sample_weight_mode=**None**)
  • optimizer:优化器,为预定义优化器名或优化器对象,参考优化器
  • loss:目标函数,为预定义损失函数名或一个目标函数,参考目标函数
  • metrics:列表,包含评估模型在训练和测试时的性能的指标,典型用法是metrics=['accuracy']如果要在多输出模型中为不同的输出指定不同的指标,可像该参数传递一个字典,例如metrics={'ouput_a': 'accuracy'}
  • sample_weight_mode:如果你需要按时间步为样本赋权(2D权矩阵),将该值设为“temporal”。默认为“None”,代表按样本赋权(1D权)。如果模型有多个输出,可以向该参数传入指定sample_weight_mode的字典或列表。在下面fit函数的解释中有相关的参考内容。
  • kwargs:使用TensorFlow作为后端请忽略该参数,若使用Theano作为后端,kwargs的值将会传递给 K.function
# 第三步:编译
sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True) # 优化函数,设定学习率(lr)等参数  
model.compile(loss='categorical_crossentropy', optimizer=sgd) # 使用交叉熵作为loss函数

训练

fit(self, x, y, 
    batch_size=32,
    nb_epoch=10, 
    verbose=1, 
    callbacks=[], 
    validation_split=0.0, 
    validation_data=None, 
    shuffle=True, 
    class_weight=None, 
    sample_weight=None)

本函数将模型训练nb_epoch轮,其参数有:

  • x:输入数据。如果模型只有一个输入,那么x的类型是numpy array,如果模型有多个输入,那么x的类型应当为list,list的元素是对应于各个输入的numpy array
  • y:标签,numpy array
  • batch_size:整数,指定进行梯度下降时每个batch包含的样本数。训练时一个batch的样本会被计算一次梯度下降,使目标函数优化一步。
  • nb_epoch:整数,训练的轮数,训练数据将会被遍历nb_epoch次。Keras中nb开头的变量均为"number of"的意思
  • verbose:日志显示,0为不在标准输出流输出日志信息,1为输出进度条记录,2为每个epoch输出一行记录
  • callbacks:list,其中的元素是keras.callbacks.Callback的对象。这个list中的回调函数将会在训练过程中的适当时机被调用,参考回调函数
  • validation_split:0~1之间的浮点数,用来指定训练集的一定比例数据作为验证集。验证集将不参与训练,并在每个epoch结束后测试的模型的指标,如损失函数、精确度等。
  • validation_data:形式为(X,y)的tuple,是指定的验证集。此参数将覆盖validation_spilt。
  • shuffle:布尔值或字符串,一般为布尔值,表示是否在训练过程中随机打乱输入样本的顺序。若为字符串“batch”,则是用来处理HDF5数据的特殊情况,它将在batch内部将数据打乱。
  • class_weight:字典,将不同的类别映射为不同的权值,该参数用来在训练过程中调整损失函数(只能用于训练)
  • sample_weight:权值的numpy array,用于在训练时调整损失函数(仅用于训练)。可以传递一个1D的与样本等长的向量用于对样本进行1对1的加权,或者在面对时序数据时,传递一个的形式为(samples,sequence_length)的矩阵来为每个时间步上的样本赋不同的权。这种情况下请确定在编译模型时添加了sample_weight_mode='temporal'

fit函数返回一个History的对象,其History.history属性记录了损失函数和其他指标的数值随epoch变化的情况,如果有验证集的话,也包含了验证集的这些指标变化情况

(X_train, y_train), (X_test, y_test) = mnist.load_data() # 使用Keras自带的mnist工具读取数据(第一次需要联网)
# 由于mist的输入数据维度是(num, 28, 28),这里需要把后面的维度直接拼起来变成784维  
X_train = X_train.reshape(X_train.shape[0], X_train.shape[1] * X_train.shape[2]) 
X_test = X_test.reshape(X_test.shape[0], X_test.shape[1] * X_test.shape[2])  
Y_train = (numpy.arange(10) == y_train[:, None]).astype(int) 
Y_test = (numpy.arange(10) == y_test[:, None]).astype(int)

model.fit( X_train, Y_train,batch_size=200,
          epochs=50,shuffle=True, verbose=1, validation_split=0.3)
model.evaluate(X_test, Y_test, batch_size=200, verbose=0)

预测

evaluate(self, x, y, batch_size=32, verbose=1, sample_weight=None)

本函数按batch计算在某些输入数据上模型的误差,其参数有:

  • x:输入数据,与fit一样,是numpy array或numpy array的list
  • y:标签,numpy array
  • batch_size:整数,含义同fit的同名参数
  • verbose:含义同fit的同名参数,但只能取0或1
  • sample_weight:numpy array,含义同fit的同名参数
predict(self, x, batch_size=32, verbose=0)
  • 本函数按batch获得输入数据对应的输出,其参数有:

  • 函数的返回值是预测值的numpy array

'''
    第五步:输出
'''
print("test set")
scores = model.evaluate(X_test,Y_test,batch_size=200,verbose=0)
print("The test loss is %f" % scores)
result = model.predict(X_test,batch_size=200,verbose=0)

result_max = numpy.argmax(result, axis = 1)
test_max = numpy.argmax(Y_test, axis = 1)

result_bool = numpy.equal(result_max, test_max)
true_num = numpy.sum(result_bool)
print("The accuracy of the model is %f" % (true_num/len(result_bool)))

总结

经过上面五步之后就能够实现了一个简单是神经网络,顺序模型的实现简单,能够依据提供的模型快速的进行设计以及神经网络的迭代。处理全连接层(Dense)外还有卷积层、池化层等其他的相关层能够进行设计,相关文档参考关于Keras的“层”(Layer),以及相关的层对象及其参数。

参考文献

  1. Kears中文文档

  2. 深度学习:Keras入门(一)之基础篇

Keras:基于Theano和TensorFlow的深度学习库 这就是Keras Keras是一个高层神经网络库,Keras由纯Python编写而成并基Tensorflow或Theano。Keras 为支持快 速实验而生,能够把你的idea迅速转换为结果,如果你有如下需求,请选择Keras: 简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性) 支持CNN和RNN,或二者的结合 支持任意的链接方案(包括多输入和多输出训练) 无缝CPU和GPU切换 Keras适用的Python版本是:Python 2.7-3.5 Keras的设计原则是 模块性:模型可理解为一个独立的序列或图,完全可配置的模块以最少的代价自由组合在一起。具 体而言,网络层、损失函数、优化器、初始化策略、激活函数、正则化方法都是独立的模块,你可 以使用它们来构建自己的模型。 极简主义:每个模块都应该尽量的简洁。每一段代码都应该在初次阅读时都显得直观易懂。没有黑 魔法,因为它将给迭代和创新带来麻烦。 易扩展性:添加新模块超级简单的容易,只需要仿照现有的模块编写新的类或函数即可。创建新模 块的便利性使得Keras更适合于先进的研究工作。 与Python协作:Keras没有单独的模型配置文件类型(作为对比,caffe有),模型由python代码描 述,使其更紧凑和更易debug,并提供了扩展的便利性。 Keras从2015年3月开始启动,经过一年多的开发,目前Keras进入了1.0的时代。Keras 1.0依然遵循相 同的设计原则,但与之前的版本相比有很大的不同。如果你曾经使用过此前的其他版本Keras。你或许 会关心1.0的新特性。 泛型模型:简单和强大的新模块,用于支持复杂深度学习模型的搭建。 更优秀的性能:现在,Keras模型的编译时间得到缩短。所有的RNN现在都可以用两种方式实现, Keras中文文档 以供用户在不同配置任务和配置环境下取得最大性能。现在,基于Theano的RNN也可以被展开, 以获得大概25%的加速计算。 测量指标:现在,你可以提供一系列的测量指标来在Keras的任何监测点观察模型性能。 更优的用户体验:我们面向使用者重新编写了代码,使得函数API更简单易记,同时提供更有效的 出错信息。 新版本的Keras提供了Lambda层,以实现一些简单的计算任务。 ... 如果你已经基于Keras0.3编写了自己的层,那么在升级后,你需要为自己的代码做以下调整,以 在Keras1.0上继续运行。请参考编写自己的层 关于Keras-cn 本文档是Keras文档的中文版,包括keras.io的全部内容,以及更多的例子、解释和建议,目前,文档 的计划是: 1.x版本:现有keras.io文档的中文翻译,保持与官方文档的同步 2.x版本:完善所有【Tips】模块,澄清深度学习中的相关概念和Keras模块的使用方法 3.x版本:增加Keras相关模块的实现原理和部分细节,帮助用户更准确的把握Keras,并添加更多 的示例代码 现在,keras-cn的版本号将简单的跟随最新的keras release版本 由于作者水平和研究方向所限,无法对所有模块都非常精通,因此文档中不可避免的会出现各种错误、 疏漏和不足之处。如果您在使用过程中有任何意见、建议和疑问,欢迎发送邮件 到moyan_work@foxmail.com与我取得联系。 您对文档的任何贡献,包括文档的翻译、查缺补漏、概念解释、发现和修改问题、贡献示例程序等,均 会被记录在致谢,十分感谢您对Keras中文文档的贡献! 同时,也欢迎您撰文向本文档投稿,您的稿件被录用后将以单独的页面显示在网站中,您有权在您的网 页下设置赞助二维码,以获取来自网友的小额赞助。 如果你发现本文档缺失了官方文档的部分内容,请积极联系我补充。 本文档相对于原文档有更多的使用指导和概念澄清,请在使用时关注文档中的Tips,特别的,本文档的 额外模块还有: 一些基本概念:位于快速开始模块的一些基本概念简单介绍了使用Keras前需要知道的一些小知 识,新手在使用前应该先阅读本部分的文档。 Keras安装和配置指南,提供了详细的Linux和Windows下Keras的安装和配置步骤。 深度学习Keras:位于导航栏最下方的该模块翻译了来自Keras作者博客keras.io和其他Keras相关 博客的文章,该栏目的文章提供了对深度学习的理解和大量使用Keras的例子,您也可以向这个栏 目投稿。 所有的文章均在醒目位置标志标明来源与作者,本文档对该栏目文章的原文不具有任何处 置权。如您仍觉不妥,请联系本人(moyan_work@foxmail.com)删除。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值