深度学习入门(一),从Keras开始

版权声明:本文为博主原创文章,欢迎交流分享,未经博主允许不得转载。 https://blog.csdn.net/HHTNAN/article/details/80403146

深度学习:Keras入门(一)之基础篇

安装keras

安装环境:Anaconda(python3.6)
首先安装:tensorflow.(通过navigator,可参见直通车
检验:import tensorflow as tf
Keras在anaconda下没有原装的安装包,只有使用pip安装方式,安装Keras,pip install Keras

检测:

import tensorflow as tf
import keras
print(tf.__version__)
print(keras.__version__)

结果:

Using TensorFlow backend.
1.2.1
2.1.6

**常见错误:**FutureWarning: Conversion of the second argument of issubdtype from float to np.floating is deprecated. In future, it will be treated as np.float64 == np.dtype(float).type.
from ._conv import register_converters as _register_converters
**解决方案:**pip install h5py==2.8.0rc1,安装 h5py,用于模型的保存和载入
**常见错误:**Using TensorFlow backend.

**切换后端**Using TensorFlow backend.
因为windows版本的tensorflow刚刚才推出,所以目前支持性不太好。
但是keras的backend 同时支持tensorflow和theano.
并且默认是tensorflow,
解决方法:这是官网的配置文档:http://keras-cn.readthedocs.io/en/latest/backend/

常见错误:TypeError: softmax() got an unexpected keyword argument ‘axis’
解决方案:Keras与tensorflow版本不相符,尽量更新最新版本我的解决方案是:pip install keras==2.1

1.关于Keras

1)简介

Keras是由纯python编写的基于theano/tensorflow的深度学习框架。Keras是一个高级神经网络API,用Python编写,能够在TensorFlow,CNTK或Theano之上运行。(官网:https://keras.io/)

Keras是一个高层神经网络API,支持快速实验,能够把你的idea迅速转换为结果,如果有如下需求,可以优先选择Keras:

a)简易和快速的原型设计(keras具有高度模块化,极简,和可扩充特性)
b)支持CNN和RNN,或二者的结合

c)无缝CPU和GPU切换

2)设计原则

a)用户友好:Keras是为人类而不是天顶星人设计的API。用户的使用体验始终是我们考虑的首要和中心内容。Keras遵循减少认知困难的最佳实践:Keras提供一致而简洁的API, 能够极大减少一般应用下用户的工作量,同时,Keras提供清晰和具有实践意义的bug反馈。

b)模块性:模型可理解为一个层的序列或数据的运算图,完全可配置的模块可以用最少的代价自由组合在一起。具体而言,网络层、损失函数、优化器、初始化策略、激活函数、正则化方法都是独立的模块,你可以使用它们来构建自己的模型。

c)易扩展性:添加新模块超级容易,只需要仿照现有的模块编写新的类或函数即可。创建新模块的便利性使得Keras更适合于先进的研究工作。

d)与Python协作:Keras没有单独的模型配置文件类型(作为对比,caffe有),模型由python代码描述,使其更紧凑和更易debug,并提供了扩展的便利性。

2.Keras的模块结构

这里写图片描述

3.使用Keras搭建一个神经网络

这里写图片描述

4.基本概念

以下部分可以参考:数据之python深度学习框架与机器学习框架要点与实战整理

1)符号计算

Keras的底层库使用Theano或TensorFlow,这两个库也称为Keras的后端。无论是Theano还是TensorFlow,都是一个“符号式”的库。符号计算首先定义各种变量,然后建立一个“计算图”,计算图规定了各个变量之间的计算关系。

符号计算也叫数据流图,其过程如下(gif图不好打开,所以用了静态图,数据是按图中黑色带箭头的线流动的):
这里写图片描述

2)数据格式(data_format)

    目前主要有两种方式来表示张量:
    a) th模式或channels_first模式,Theano和caffe使用此模式。
    b)tf模式或channels_last模式,TensorFlow使用此模式。


    下面举例说明两种模式的区别:
     对于100张RGB3通道的16×32(高为16宽为32)彩色图,
     th表示方式:(100,3,16,32)
     tf表示方式:(100,16,32,3)
     唯一的区别就是表示通道个数3的位置不一样。

3)模型

      Keras有两种类型的模型,序贯模型(Sequential)和函数式模型(Model),函数式模型应用更为广泛,序贯模型是函数式模型的一种特殊情况。
      a)序贯模型(Sequential):单输入单输出,一条路通到底,层与层之间只有相邻关系,没有跨层连接。这种模型编译速度快,操作也比较简单
      b)函数式模型(Model):多输入多输出,层与层之间任意连接。这种模型编译速度慢。

5.第一个示例

      这里也采用介绍神经网络时常用的一个例子:手写数字的识别。

      在写代码之前,基于这个例子介绍一些概念,方便大家理解。

      PS:可能是版本差异的问题,官网中的参数和示例中的参数是不一样的,官网中给出的参数少,并且有些参数支持,有些不支持。所以此例子去掉了不支持的参数,并且只介绍本例中用到的参数。

1)Dense(500,input_shape=(784,))

a)Dense层属于网络层-->常用层中的一个层

b) 500表示输出的维度,完整的输出表示:(*,500):即输出任意个500维的数据流。但是在参数中只写维度就可以了,比较具体输出多少个是有输入确定的。换个说法,Dense的输出其实是个N×500的矩阵。

c)input_shape(784,) 表示输入维度是784(28×28,后面具体介绍为什么),完整的输入表示:(*,784):即输入N个784维度的数据

2)Activation(‘tanh’)

a)Activation:激活层

b)’tanh’ :激活函数

3)Dropout(0.5)

在训练过程中每次更新参数时随机断开一定百分比(rate)的输入神经元,防止过拟合。
4)数据集
数据集包括60000张28×28的训练集和10000张28×28的测试集及其对应的目标数字。如果完全按照上述数据格式表述,以tensorflow作为后端应该是(60000,28,28,3),因为示例中采用了mnist.load_data()获取数据集,所以已经判断使用了tensorflow作为后端,因此数据集就变成了(60000,28,28),那么input_shape(784,)应该是input_shape(28,28,)才对,但是在这个示例中这么写是不对的,需要转换成(60000,784),才可以。为什么需要转换呢?
这里写图片描述

如上图,训练集(60000,28,28)作为输入,就相当于一个立方体,而输入层从当前角度看就是一个平面,立方体的数据流怎么进入平面的输入层进行计算呢?所以需要进行黄色箭头所示的变换,然后才进入输入层进行后续计算。至于从28*28变换成784之后输入层如何处理,就不需要我们关心了。(喜欢钻研的同学可以去研究下源代码)。

并且,Keras中输入多为(nb_samples, input_dim)的形式:即(样本数量,输入维度)。

操作案例1

完整代码:
#1. 导入相关的Python和Keras的模块(module)
import numpy as np
np.random.seed(1337)
from keras.models import Sequential
from keras.layers import Dense


import matplotlib.pyplot as plt



# 1.Build the trainning data
X=np.linspace(-1,1,200)
np.random.shuffle(X)
np.random.normal()
Y=0.5*X+2+np.random.normal(0,0.05,(200,))
plt.scatter(X,Y)
plt.show()
X_train,Y_train=X[:160],Y[:160]
X_test,Y_test=X[160:],Y[160:]
print(X)
print("*******************************************")
print(Y)
# 2.Build a neural network from the 1st layer to the last layer
model=Sequential()
model.add(Dense(output_dim=1,input_dim=1))

#3. Choose loss function and optimzing method
model.compile(loss='mse',optimizer='sgd')


#4. Trainning
print("Training......")
for step in range(1400):
        cost=model.train_on_batch(X_train,Y_train)
        if step % 100 ==0:
                print('train cost',cost)


#5.Test
print("\n Testing...........")
cost=model.evaluate(X_test,Y_test,batch_size=40)
print("Test cost:",cost)
W,b=model.layers[0].get_weights()
print('Weight=',W,"\nbiases=",b)

#6.Plotting the prediction
Y_pred=model.predict(X_test)
plt.scatter(X_test,Y_test)
plt.plot(X_test,Y_pred)
plt.show()

Output:
这里写图片描述

第四部第五步输出

train cost 4.0281153
train cost 0.080740646
train cost 0.0058854916
train cost 0.0031687208
train cost 0.002764651
train cost 0.0026669714
train cost 0.00264223
train cost 0.0026359423
train cost 0.0026343435
train cost 0.002633939
train cost 0.0026338336
train cost 0.002633807
train cost 0.002633801
train cost 0.0026337993

 Testing...........

40/40 [==============================] - 0s 175us/step
Test cost: 0.0033766974229365587
Weight= [[0.5063296]] 
biases= [2.0042796]

这里写图片描述

案例1代码解读:
# 1.Build the trainning data  
X=np.linspace(-1,1,200)  
np.random.shuffle(X)  
np.random.normal()  
Y=0.5*X+2+np.random.normal(0,0.05,(200,))  
plt.scatter(X,Y)  
plt.show()  
X_train,Y_train=X[:160],Y[:160]  
X_test,Y_test=X[160:],Y[160:]  
print(X)  
print("*******************************************")  
print(Y)  

随机生成200个数字并模拟一个线性函数
随机生成200个范围在-1到1之间一个浮点数。并模拟一个线性函数的公式,0.5*X+2 并加上一些随机的干扰,生成200个函数结果Y,然后从中抽选出160组数据作为训练数据,40组作为测试训练的结果的数据。

# 2.Build a neural network from the 1st layer to the last layer  
model=Sequential()  
model.add(Dense(output_dim=1,input_dim=1))  

#3. Choose loss function and optimzing method  
model.compile(loss='mse',optimizer='sgd')  

用Keras的API建立一个神经网络模型
这个模型是总共有只要一层,1个输入和一个输出,建立好神经网络后,选择损失函数和优化器。从下面的代码来看,其实还是非常的简洁的,如果用TensorFlow或者Theano实现的话,代码会多不少,但是用Keras实现非常的简洁和简单。
损失函数只要有下面的几种:

mean_squared_error
mean_absolute_error
mean_absolute_percentage_error
mean_squared_logarithmic_error
squared_hinge
hinge
logcosh
categorical_crossentropy
sparse_categorical_crossentropy
binary_crossentropy
kullback_leibler_divergence
poisson
cosine_proximity

具体的意思,请参考:https://keras.io/losses/
https://github.com/fchollet/keras/blob/master/keras/losses.py
当前选择的是:sgd,其支持,随机梯度下降法,支持动量参数,支持学习衰减率,支持Nesterov动量。
此外还有优化器:

RMSprop
Adagrad
Adadelta
Adam
Adamax
Nadam
TFOptimizer

不同的优化器有有不同的适用场景,限于篇幅,请读者自己补脑和查找相关资料。

#4. Trainning  
print("Training......")  
for step in range(1400):  
        cost=model.train_on_batch(X_train,Y_train)  
        if step % 100 ==0:  
                print('train cost',cost)  

分批次训练
批次的次数不是越多越好,在当前的例子中,批次的训练次数达到1300次左右基本上已经达到损失函数能够达到的最好的结果了,在增加次数也增加了不了精度。具体请见
日志的输出。

#5.Test  
print("\n Testing...........")  
cost=model.evaluate(X_test,Y_test,batch_size=40)  
print("Test cost:",cost)  
W,b=model.layers[0].get_weights()  
print('Weight=',W,"\nbiases=",b)  

测试数据测试训练结果。
在上面的部分,经过1400次的分批次训练,神经网络已经完全模拟出了上面的线性函数的模型。这个时候代入剩下的40组测试数据进行测试。
我们会发现0.5*X+2 这个线性函数完全被建立起来了。从输出的weight和biases的值其实就是上面的0.5和2; weight和0.5越接近,说明效果越好;biases和2越接近说明效果越好。

#6.Plotting the prediction  
Y_pred=model.predict(X_test)  
plt.scatter(X_test,Y_test)  
plt.plot(X_test,Y_pred)  
plt.show()  

Keras模型结果 VS 原始测试数据结果
把通过神经网络得出的结果与原始的测试结果得出的结果进行比较,并显示其对比图像。

案例2

"""
from keras.models import Sequential
from keras.layers.core import Dense, Dropout, Activation
from keras.optimizers import SGD
from keras.datasets import mnist
import numpy
'''
    第一步:选择模型
'''
model = Sequential()
'''
   第二步:构建网络层
'''
model.add(Dense(500,input_shape=(784,))) # 输入层,28*28=784
model.add(Activation('tanh')) # 激活函数是tanh
model.add(Dropout(0.5)) # 采用50%的dropout

model.add(Dense(500)) # 隐藏层节点500个
model.add(Activation('tanh'))
model.add(Dropout(0.5))

model.add(Dense(10)) # 输出结果是10个类别,所以维度是10
model.add(Activation('softmax')) # 最后一层用softmax作为激活函数

'''
   第三步:编译
'''
sgd = SGD(lr=0.01, decay=1e-6, momentum=0.9, nesterov=True) # 优化函数,设定学习率(lr)等参数
model.compile(loss='categorical_crossentropy', optimizer=sgd, class_mode='categorical') # 使用交叉熵作为loss函数

'''
   第四步:训练
   .fit的一些参数
   batch_size:对总的样本数进行分组,每组包含的样本数量
   epochs :训练次数
   shuffle:是否把数据随机打乱之后再进行训练
   validation_split:拿出百分之多少用来做交叉验证
   verbose:屏显模式 0:不输出  1:输出进度  2:输出每次的训练结果
'''
(X_train, y_train), (X_test, y_test) = mnist.load_data() # 使用Keras自带的mnist工具读取数据(第一次需要联网)
# 由于mist的输入数据维度是(num, 28, 28),这里需要把后面的维度直接拼起来变成784维
X_train = X_train.reshape(X_train.shape[0], X_train.shape[1] * X_train.shape[2])
X_test = X_test.reshape(X_test.shape[0], X_test.shape[1] * X_test.shape[2])
Y_train = (numpy.arange(10) == y_train[:, None]).astype(int)
Y_test = (numpy.arange(10) == y_test[:, None]).astype(int)

model.fit(X_train,Y_train,batch_size=200,epochs=50,shuffle=True,verbose=0,validation_split=0.3)
model.evaluate(X_test, Y_test, batch_size=200, verbose=0)

'''
    第五步:输出
'''
print("test set")
scores = model.evaluate(X_test,Y_test,batch_size=200,verbose=0)
print("")
print("The test loss is %f" % scores)
result = model.predict(X_test,batch_size=200,verbose=0)

result_max = numpy.argmax(result, axis = 1)
test_max = numpy.argmax(Y_test, axis = 1)

result_bool = numpy.equal(result_max, test_max)
true_num = numpy.sum(result_bool)
print("")
print("The accuracy of the model is %f" % (true_num/len(result_bool)))

注意down数据网址需要FQ.
参考连接:http://www.aboutyun.com/thread-21824-1-1.html
关于模型的保存可以参考:
https://blog.csdn.net/zhzhx1204/article/details/77393245
中文官网:https://keras-cn.readthedocs.io/en/latest/models/model/
参考文献:李弘毅http://speech.ee.ntu.edu.tw/~tlkagk/courses_ML17_2.html

展开阅读全文

没有更多推荐了,返回首页