Keras入门+简单实践例题

目录

 

线性回归:

非线性回归:

MNIST数据集分类:

loss---交叉熵

添加隐藏层

使用Dropout后:

正则化:如果模型很适合就不需要正则化和Dropout

7.优化器 Adam

8.CNN手写数字识别

9.RNN应用

​10.模型保存 默认在当前路径

11.载入模型


线性回归:

加噪音后再回归预测

 

import keras
import numpy as np
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense

#使用numpy随机生成100个点
x_data = np.random.rand(100)
noise = np.random.normal(0, 0.02, x_data.shape)
y_data = x_data*0.1 + 0.2 + noise

#打印
plt.scatter(x_data, y_data)
plt.show()

 

import keras
import numpy as np
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense

#使用numpy随机生成100个点
x_data = np.random.rand(100)
noise = np.random.normal(0, 0.02, x_data.shape)
y_data = x_data*0.1 + 0.2 + noise

#打印
# plt.scatter(x_data, y_data)
# plt.show()

#构建顺序模型
model = Sequential()
#在模型中添加一个全连接层
model.add(Dense(units=1, input_dim=1))
model.compile(optimizer='sgd', loss='mse')

#一次在模型中放入一个批次 循环3001次
for step in range(3001):
    #数据量小  全放进去
    cost = model.train_on_batch(x_data, y_data)
    #每500个batch打印一次cost值
    if step % 5 == 0:
        print('cost:', cost)
#打印权值和偏置值
w, b = model.layers[0].get_weights()
print('W:', w, 'b:', b)

#x_data输入网络中,得到预测值y_pred
y_predict = model.predict(x_data)

#打印
plt.scatter(x_data,y_data)
plt.scatter(x_data, y_predict, c='red')

plt.show()

非线性回归:

线性回归不能很好的拟合数据

import keras
import numpy as np
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense

#-0.5  0.5  之间均匀分布的200个点
x_data = np.linspace(-0.5, 0.5, 200)
noise = np.random.normal(0,0.02,x_data.shape)
y_data = np.square(x_data) + noise

#打印
plt.scatter(x_data,y_data)
plt.show()

import keras
import numpy as np
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense

#-0.5  0.5  之间均匀分布的200个点
x_data = np.linspace(-0.5, 0.5, 200)
noise = np.random.normal(0,0.02,x_data.shape)
y_data = np.square(x_data) + noise

#打印
# plt.scatter(x_data,y_data)
# plt.show()

#构建顺序模型
model = Sequential()
#在模型中添加一个全连接层
model.add(Dense(units=1, input_dim=1))
model.compile(optimizer='sgd', loss='mse')

#一次在模型中放入一个批次 循环3001次
for step in range(3001):
    #数据量小  全放进去
    cost = model.train_on_batch(x_data, y_data)
    #每500个batch打印一次cost值
    if step % 500 == 0:
        print('cost:', cost)
#打印权值和偏置值
w, b = model.layers[0].get_weights()
print('W:', w, 'b:', b)

#x_data输入网络中,得到预测值y_pred
y_predict = model.predict(x_data)

#打印
plt.scatter(x_data,y_data)
plt.scatter(x_data, y_predict, c='red')

plt.show()

 

 

import keras
import numpy as np
import matplotlib.pyplot as plt
from keras.models import Sequential
from keras.layers import Dense, Activation
from keras.optimizers import SGD
#-0.5  0.5  之间均匀分布的200个点
x_data = np.linspace(-0.5, 0.5, 200)
noise = np.random.normal(0,0.02,x_data.shape)
y_data = np.square(x_data) + noise

#打印
# plt.scatter(x_data,y_data)
# plt.show()

#构建顺序模型
model = Sequential()
#在模型中添加一个全连接层
#1-10-1
model.add(Dense(units=10, input_dim=1))
model.add(Activation('tanh'))
#不设置默认上一层的输出时这一层的输入维度10
model.add(Dense(units=1))
model.add(Activation('tanh'))

#定义优化算法
sgd = SGD(lr=0.3)
#sed 随机梯度下降
#mse 均方误差
model.compile(optimizer=sgd, loss='mse')

#一次在模型中放入一个批次 循环3001次
for step in range(3001):
    #数据量小  全放进去
    cost = model.train_on_batch(x_data, y_data)
    #每500个batch打印一次cost值
    if step % 500 == 0:
        print('cost:', cost)
#打印权值和偏置值
w, b = model.layers[0].get_weights()
print('W:', w, 'b:', b)

#x_data输入网络中,得到预测值y_pred
y_predict = model.predict(x_data)

#打印
plt.scatter(x_data, y_data)
plt.scatter(x_data, y_predict, c='red')

plt.show()

MNIST数据集分类:

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import SGD

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)

 

 

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import SGD

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)
#(60000,28,28)->(60000,784)
x_train = x_train.reshape(x_train.shape[0], -1)/255.0
x_test = x_test.reshape(x_test.shape[0], -1)/255.0
#换one hot格式
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#创建模型:输入784个神经元  输出10个神经元
model = Sequential([
    Dense(units=10, input_dim=784, bias_initializer='one', activation='softmax')
 ])
#定义优化器 loss function
sgd = SGD(lr=0.2)
model.compile(
    optimizer=sgd,
    loss='mse',
    metrics=['accuracy']
)

#训练模型 60000 每次取32个 为一个epoch 运行10次
model.fit(x_train,  y_train, batch_size=32, epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test, y_test)
print('\ntest loss', loss)
print('accuracy', accuracy)

loss---交叉熵

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import SGD

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)
#(60000,28,28)->(60000,784)
x_train = x_train.reshape(x_train.shape[0], -1)/255.0
x_test = x_test.reshape(x_test.shape[0], -1)/255.0
#换one hot格式
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#创建模型:输入784个神经元  输出10个神经元
model = Sequential([
    Dense(units=10, input_dim=784, bias_initializer='one', activation='softmax')
 ])
#定义优化器 loss function
sgd = SGD(lr=0.2)
model.compile(
    optimizer=sgd,
    #交叉熵分类问题准确率提升  收敛速度快
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

#训练模型 60000 每次取32个 为一个epoch 运行10次
model.fit(x_train,  y_train, batch_size=32, epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test, y_test)
print('\ntest loss', loss)
print('accuracy', accuracy)

添加隐藏层

trian训练集的准确率很高

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense, Dropout
from keras.optimizers import SGD

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)
#(60000,28,28)->(60000,784)
x_train = x_train.reshape(x_train.shape[0], -1)/255.0
x_test = x_test.reshape(x_test.shape[0], -1)/255.0
#换one hot格式
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#创建模型:输入784个神经元  输出10个神经元
model = Sequential([
    Dense(units=200, input_dim=784, bias_initializer='one', activation='tanh'),
    Dense(units=100, bias_initializer='one', activation='tanh'),
    Dense(units=10, bias_initializer='one', activation='softmax')
 ])
#定义优化器 loss function
sgd = SGD(lr=0.2)
model.compile(
    optimizer=sgd,
    #交叉熵分类问题准确率提升  收敛速度快
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

#训练模型 60000 每次取32个 为一个epoch 运行10次
model.fit(x_train,  y_train, batch_size=32, epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test, y_test)
print('\ntest loss', loss)
print('accuracy', accuracy)

loss,accuracy = model.evaluate(x_train, y_train)
print('\ntrain loss', loss)
print('train accuracy', accuracy)

结果:

使用Dropout后:

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense, Dropout
from keras.optimizers import SGD

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)
#(60000,28,28)->(60000,784)
x_train = x_train.reshape(x_train.shape[0], -1)/255.0
x_test = x_test.reshape(x_test.shape[0], -1)/255.0
#换one hot格式
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#创建模型:输入784个神经元  输出10个神经元
model = Sequential([
    Dense(units=200, input_dim=784, bias_initializer='one', activation='tanh'),
    #40%神经元不工作
    Dropout(0.4),
    Dense(units=100, bias_initializer='one', activation='tanh'),
    Dropout(0.4),
    Dense(units=10, bias_initializer='one', activation='softmax')
 ])
#定义优化器 loss function
sgd = SGD(lr=0.2)
model.compile(
    optimizer=sgd,
    #交叉熵分类问题准确率提升  收敛速度快
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

#训练模型 60000 每次取32个 为一个epoch 运行10次
model.fit(x_train,  y_train, batch_size=32, epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test, y_test)
print('\ntest loss', loss)
print('accuracy', accuracy)

loss,accuracy = model.evaluate(x_train, y_train)
print('\ntrain loss', loss)
print('train accuracy', accuracy)

结果:

正则化:如果模型很适合就不需要正则化和Dropout

from keras.regularizers import l2
Dense(units=200, input_dim=784, bias_initializer='one', activation='tanh',kernel_regularizer=l2(0.0003)),
import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import SGD
from keras.regularizers import l2

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)
#(60000,28,28)->(60000,784)
x_train = x_train.reshape(x_train.shape[0], -1)/255.0
x_test = x_test.reshape(x_test.shape[0], -1)/255.0
#换one hot格式
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#创建模型:输入784个神经元  输出10个神经元
model = Sequential([
    Dense(units=200, input_dim=784, bias_initializer='one', activation='tanh',kernel_regularizer=l2(0.0003)),

    Dense(units=100, bias_initializer='one', activation='tanh',kernel_regularizer=l2(0.0003)),

    Dense(units=10, bias_initializer='one', activation='softmax',kernel_regularizer=l2(0.0003))
 ])
#定义优化器 loss function
sgd = SGD(lr=0.2)
model.compile(
    optimizer=sgd,
    #交叉熵分类问题准确率提升  收敛速度快
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

#训练模型 60000 每次取32个 为一个epoch 运行10次
model.fit(x_train,  y_train, batch_size=32, epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test, y_test)
print('\ntest loss', loss)
print('accuracy', accuracy)

loss,accuracy = model.evaluate(x_train, y_train)
print('\ntrain loss', loss)
print('train accuracy', accuracy)

结果:

7.优化器 Adam

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense
from keras.optimizers import SGD,Adam

#载入数据
(x_train, y_train), (x_test, y_test) = mnist.load_data()
#(60000,28,28)
print('x_shape:', x_train.shape)
print('y_shape:', y_train.shape)
#(60000,28,28)->(60000,784)
x_train = x_train.reshape(x_train.shape[0], -1)/255.0
x_test = x_test.reshape(x_test.shape[0], -1)/255.0
#换one hot格式
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#创建模型:输入784个神经元  输出10个神经元
model = Sequential([
    Dense(units=10, input_dim=784, bias_initializer='one', activation='softmax')
 ])
#定义优化器 loss function 训练过程中计算准确率
sgd = SGD(lr=0.2)
#lr学习率
adam = Adam(lr=0.001)
model.compile(
    optimizer=adam,
    #交叉熵分类问题准确率提升  收敛速度快
    loss='categorical_crossentropy',
    metrics=['accuracy']
)

#训练模型 60000 每次取32个 为一个epoch 运行10次
model.fit(x_train,  y_train, batch_size=32, epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test, y_test)
print('\ntest loss', loss)
print('accuracy', accuracy)

结果:

8.CNN手写数字识别

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense,Dropout,Convolution2D,MaxPooling2D,Flatten
from keras.optimizers import SGD,Adam
#py3.8
#载入数据
(x_train,y_train),(x_test,y_test) = mnist.load_data()
#(60000,28,28)--->(60000,28,28,1)  个数  长  宽  深度1黑白  彩色是3
#归一化0-1之间 所以除以255
x_train = x_train.reshape(-1, 28, 28, 1)/255.0
x_test = x_test.reshape(-1, 28, 28, 1)/255.0
#换one hot格式
#将类别向量(从0到nb_classes的整数向量)映射为二值类别矩阵,
# 用于应用到以categorical_crossentropy为目标函数的模型中.
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)
#定义顺序模型
model = Sequential()

#第一个卷积层
#input_shape输入平面
#filters 卷积核/滤波器个数
#kernel_size 卷积窗口大小
#strides步长
#padding 方式
#activation 激活函数
model.add(Convolution2D(
    input_shape=(28, 28, 1),
    filters=32,
    kernel_size=5,
    strides=1,
    padding='same',
    activation='relu'
))
#第一个池化层
model.add(MaxPooling2D(
    pool_size=2,
    strides=2,
    padding='same',

))
#第二个卷积层
model.add(Convolution2D(64, 5, strides=1, padding='same', activation='relu'))
#第二个池化层
model.add(MaxPooling2D(2,2,'same'))
#把第二个池化层输出扁平化为1维
model.add(Flatten())
#第一个全连接层
model.add(Dense(1024,activation='relu'))
#Dropout
model.add(Dropout(0.5))
#第二个全连接层
model.add(Dense(10,activation='softmax'))

#定义优化器
adam = Adam(lr=1e-4)
#定义优化器 loss function 训练过程中计算准确率
model.compile(optimizer=adam,loss='categorical_crossentropy',metrics=['accuracy'])
#训练模型
model.fit(x_train,y_train,batch_size=64,epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test,y_test)

print('test loss',loss)
print('test accuracy',accuracy)


效果:

9.RNN应用

import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense,Dropout,Convolution2D,MaxPooling2D,Flatten
from keras.layers.recurrent import SimpleRNN,LSTM,GRU
from keras.optimizers import SGD,Adam

#数据长度一行有28个像素
input_size = 28
#序列长度一共有28行,所以28*28
time_steps = 28
#隐藏层cell个数
cell_size = 50
#载入数据
(x_train,y_train),(x_test,y_test) = mnist.load_data()
#样本数  time_steps,input_size
#(60000,28,28)
x_train = x_train/255
y_train = y_train/255
#换one hot
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)
#创建模型
model = Sequential()
#循环神经网络
model.add(SimpleRNN(
    units=cell_size,#输出
    input_shape=(time_steps,input_size),#输入

))
#输出层
model.add(Dense(10,activation='softmax'))

#定义优化器
adam=Adam(lr=1e-4)

#定义优化器 loss function 训练总过程中计算准确率
model.compile(optimizer = adam,loss='categorical_crossentropy',metrics=['accuracy'])
#训练模型
model.fit(x_train,y_train,batch_size=64,epochs=10)
#评估模型
loss,accuracy = model.evaluate(x_test,y_test)

print('test loss',loss)
print('test accuracy',accuracy)

效果:。。。。。。过拟合了


10.模型保存 默认在当前路径

#保存模型 添加最后
#HDF5文件 pip install h5py
model.save('model.h5')

11.载入模型

from keras.models import load_model
#载入模型
model = load_model('model.h5')
import numpy as np
from keras.datasets import mnist
from keras.utils import np_utils
from keras.models import Sequential
from keras.layers import Dense,Dropout,Convolution2D,MaxPooling2D,Flatten
from keras.optimizers import SGD,Adam

from keras.models import load_model

#py3.8
#载入数据
(x_train,y_train),(x_test,y_test) = mnist.load_data()
#(60000,28,28)--->(60000,28,28,1)  个数  长  宽  深度1黑白  彩色是3
#归一化0-1之间 所以除以255
x_train = x_train.reshape(-1, 28, 28, 1)/255.0
x_test = x_test.reshape(-1, 28, 28, 1)/255.0
#换one hot格式
#将类别向量(从0到nb_classes的整数向量)映射为二值类别矩阵,
# 用于应用到以categorical_crossentropy为目标函数的模型中.
y_train = np_utils.to_categorical(y_train, num_classes=10)
y_test = np_utils.to_categorical(y_test, num_classes=10)

#载入模型
model = load_model('model.h5')
#评估模型
loss,accuracy = model.evaluate(x_test,y_test)

print('test loss',loss)
print('test accuracy',accuracy)


#保存模型
#HDF5文件 pip install h5py
model.save('model.h5')
#保存参数,载入参数
model.save_weights('my_model_weights.h5')
model.load_weights('my_model_weights.h5')
#保存网络结构,载入网络结构
from keras.models import model_from_json
json_string = model.to_json()
model = model_from_json(json_string)

print(json_string)

 

  • 1
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
addition_rnn.py 执行序列学习以执行两个数字(作为字符串)的添加。 antirectifier.py 演示如何为Keras编写自定义图层。 babi_memnn.py 在bAbI数据集上训练一个内存网络以进行阅读理解。 babi_rnn.py 在bAbI数据集上训练一个双支循环网络,以便阅读理解。 cifar10_cnn.py 在CIFAR10小图像数据集上训练一个简单的深CNN。 conv_filter_visualization.py 通过输入空间中的渐变上升可视化VGG16的过滤器。 conv_lstm.py 演示使用卷积LSTM网络。 deep_dream.py 深深的梦想在克拉斯。 image_ocr.py 训练一个卷积堆叠,后跟一个循环堆栈和一个CTC logloss函数来执行光学字符识别(OCR)。 imdb_bidirectional_lstm.py 在IMDB情绪分类任务上训练双向LSTM。 imdb_cnn.py 演示使用Convolution1D进行文本分类。 imdb_cnn_lstm.py 在IMDB情绪分类任务上训练一个卷积堆栈,后跟一个循环堆栈网络。 imdb_fasttext.py 在IMDB情绪分类任务上训练一个FastText模型。 imdb_lstm.py 在IMDB情绪分类任务上训练一个LSTM。 lstm_benchmark.py 比较IMDB情绪分类任务上不同的LSTM实现。 lstm_text_generation.py 生成尼采文字的文字。 mnist_acgan.py 在MNIST数据集上实现AC-GAN(辅助分类器GAN) mnist_cnn.py 在MNIST数据集上训练一个简单的convnet。 mnist_hierarchical_rnn.py 训练一个分级RNN(HRNN)来分类MNIST数字。 mnist_irnn.py Le等人在“以简单的方式初始化整流线性单元的反复网络”中再现具有逐像素连续MNIST的IRNN实验。 mnist_mlp.py 在MNIST数据集上训练一个简单的深层多层感知器。 mnist_net2net.py 在“Net2Net:通过知识转移加速学习”中再现带有MNIST的Net2Net实验。 mnist_siamese_graph.py 从MNIST数据集中的一对数字上训练暹罗多层感知器。 mnist_sklearn_wrapper.py 演示如何使用sklearn包装器。 mnist_swwae.py 列出了一个堆栈,其中AutoEncoder在MNIST数据集上的剩余块上构建。 mnist_transfer_cnn.py 转移学习玩具的例子。 neural_doodle.py 神经涂鸦。 neural_style_transfer.py 神经样式转移。 pretrained_word_embeddings.py 将预训练的词嵌入(GloVe embeddings)加载到冻结的Keras嵌入层中,并使用它在20个新闻组数据集上训练文本分类模型。 reuters_mlp.py 在路透社newswire主题分类任务上训练并评估一个简单的MLP。 stateful_lstm.py 演示如何使用有状态的RNN有效地建模长序列。 variational_autoencoder.py 演示如何构建变体自动编码器。 variational_autoencoder_deconv.py 演示如何使用反褶积层使用Keras构建变体自动编码器。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值