keras神经网络三个例子

keras构造神经网络,非常之方便!以后就它了。本文给出了三个例子,都是普通的神经网络

例一、离散输出,单标签、多分类

例二、图像识别,单标签、多分类。没有用到卷积神经网络(CNN)

例三、时序预测,单标签、多分类。(LSTM)

说明

keras对于神经网络给出的流程图,非常容易理解。

图片来源:https://www.jianshu.com/p/6c08f4ceab4c

重点】训练神经网络围绕以下对象:
  1. ,用于合并成网络(或模型)
  2. 输入数据相应的目标
  3. 损失函数,  定义了用于学习的反馈信号
  4. 优化器,  这决定了学习如何进行

 

例一

离散输出,单标签、多分类

本例来源:https://www.jianshu.com/p/f1332c58ca86

数据来源:https://blog.csdn.net/weixin_41090915/article/details/79521161

数据是自己构造的,分有三类,如图

图片来源:https://blog.csdn.net/weixin_41090915/article/details/79521161

 

import numpy as np
import pandas as pd

# =====================================================
# 准备数据
N = 100 # number of points per class 
D = 2 # dimensionality 
K = 3 # number of classes 
X = np.zeros((N * K, D)) # data matrix (each row = single example) 
y = np.zeros(N * K, dtype='uint8') # class labels 
for j in range(K): 
    ix = list(range(N*j, N*(j + 1))) 
    r = np.linspace(0.0, 1, N) # radius 
    t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2 # theta 
    X[ix] = np.c_[r*np.sin(t), r*np.cos(t)] 
    y[ix] = j # 打标签

# 将y转化为one-hot编码
#y = (np.arange(K) == y[:,None]).astype(int)
y = np.eye(K)[y]
# =====================================================


from keras import models
from keras import layers

# 使用Sequential类定义两层模型
model = models.Sequential()
model.add(layers.Dense(10, activation='relu', input_shape=(2,)))
model.add(layers.Dense(3, activation='softmax'))

# 编译。指定模型的优化器、损失函数、监控指标。
# 对于一个两类分类问题,您将使用二元交叉熵(binary crossentropy)
# 对于一个多类分类问题使用分类交叉熵(categorical crossentropy)
# 对于回归问题使用均方差(meansquared error)
# 对于序列学习问题使用连接主义时间分类(connectionist temporal classification, CTC)
from keras import optimizers
model.compile(optimizer=optimizers.RMSprop(lr=0.001),
              loss='categorical_crossentropy',
              metrics=['accuracy'])
'''
from keras import optimizers
from keras import losses
from keras import metrics
#from keras import optimizers, losses, metrics
model.compile(optimizer=optimizers.RMSprop(lr=0.001),
              loss=losses.binary_crossentropy,
              metrics=[metrics.binary_accuracy])
'''

# 训练网络
model.fit(X, y, batch_size=50, epochs=1000)


# =====================================================
# 重新生成数据
X = np.zeros((N * K, D)) # data matrix (each row = single example) 
y = np.zeros(N * K, dtype='uint8') # class labels 
for j in range(K): 
    ix = list(range(N*j, N*(j + 1))) 
    r = np.linspace(0.0, 1, N) # radius 
    t = np.linspace(j*4, (j+1)*4, N) + np.random.randn(N)*0.2 # theta 
    X[ix] = np.c_[r*np.sin(t), r*np.cos(t)] 
    y[ix] = j # 打标签

# 将y转化为one-hot编码
#y = (np.arange(K) == y[:,None]).astype(int)
y = np.eye(K)[y]
# =====================================================

#检查模型在测试集上的表现是否良好
test_loss, test_acc = model.evaluate(X, y)
print('test_acc:', test_acc)

 注意:就本例而言,如果标签数据不进行one-hot编码,则损失函数要更改为:loss='sparse_categorical_crossentropy',

 效果图

例二

图像识别,没有用到卷积神经网络(CNN)

本例来源:https://www.jianshu.com/p/ba51e470b736

手写数字的识别,如图

'''
试图解决的问题是对灰度图像进行分类的手写数字(28×28个像素)到他们的10个分类(0到9)。
'''
# 导入数据
from keras.datasets import mnist
(train_images, train_labels), (test_images, test_labels) = mnist.load_data()

# 了解数据情况
#test_images.shape # (10000, 28, 28)
#test_labels # array([7, 2, 1, ..., 4, 5, 6], dtype=uint8)

# 将输入数组形状由(60000,28,28)转换为(60000,28 * 28)
train_images = train_images.reshape((60000, 28 * 28))
test_images = test_images.reshape((10000, 28 * 28))

# 将[0,255]区间的整数转换为[0,1]之间的浮点数
train_images = train_images.astype('float32') / 255
test_images = test_images.astype('float32') / 255

# 对分类标签y进行one-hot编码
from keras.utils import to_categorical
train_labels = to_categorical(train_labels)
test_labels = to_categorical(test_labels)


from keras import models
from keras import layers
network = models.Sequential()

#我们的网络由两个密集层(Dense layers)组成,它们紧密连接(也称为完全连接)神经层。
#第二个(也是最后一个)层是10路softmax层,这意味着它将返回一个包含10个概率分数的数组(总和为1),
#每个分数都将是当前数字图像属于我们的10个分类之一的概率。
network.add(layers.Dense(512, activation='relu', input_shape=(28 * 28,)))
network.add(layers.Dense(10, activation='softmax'))

#为了使网络为训练做好准备,我们需要再选择三样东西,作为编译步骤的一部分:
#损失函数: 网络如何能够测量它在训练数据上的表现,如何能够引导自己走向正确的方向
#优化器:网络根据所接收的数据及其损失函数进行自我更新的机制
#监控指标:这里,我们在训练和测试期间只关心准确性(正确分类的图像的一部分)
network.compile(optimizer='rmsprop',
                loss='categorical_crossentropy',
                metrics=['accuracy'])

#训练这个网络
network.fit(train_images, train_labels, epochs=5, batch_size=128)

#检查模型在测试集上的表现是否良好
test_loss, test_acc = network.evaluate(test_images, test_labels)
print('test_acc:', test_acc)

 

效果图

 

 例三

时间序列预测(LSTM)

本例来源:https://blog.csdn.net/zwqjoy/article/details/80493341

字母表的一个简单的序列预测问题。
也就是说,根据字母表的字母,预测字母表的下一个字母。
['A', 'B', 'C'] -> D
['B', 'C', 'D'] -> E
['C', 'D', 'E'] -> F
['D', 'E', 'F'] -> G
['E', 'F', 'G'] -> H
['F', 'G', 'H'] -> I
['G', 'H', 'I'] -> J
['H', 'I', 'J'] -> K
['I', 'J', 'K'] -> L
['J', 'K', 'L'] -> M
['K', 'L', 'M'] -> N
['L', 'M', 'N'] -> O
['M', 'N', 'O'] -> P
['N', 'O', 'P'] -> Q
['O', 'P', 'Q'] -> R
['P', 'Q', 'R'] -> S
['Q', 'R', 'S'] -> T
['R', 'S', 'T'] -> U
['S', 'T', 'U'] -> V
['T', 'U', 'V'] -> W
['U', 'V', 'W'] -> X
['V', 'W', 'X'] -> Y
['W', 'X', 'Y'] -> Z

注意数据格式

X.shape: [samples, time_step, features]

y.shape: [samples, one_hot_encodes]

代码:

import numpy as np
from keras.models import Sequential
from keras.layers import Dense
from keras.layers import LSTM
from keras.utils import np_utils

'''
字母表的一个简单的序列预测问题。
'''

np.random.seed(7)

# 原生数据
letters = "ABCDEFGHIJKLMNOPQRSTUVWXYZ"

# 转为数字
data_len = 26
time_steps = 3
X = list(range(data_len))
y = X[time_steps:]

# 将数据转化为[样本数, 时间步数, 特征数]的形式
XX = [X[i:i+time_steps] for i in range(data_len-time_steps)] # [samples, time steps * features]
XXX = np.reshape(XX, (data_len - time_steps, time_steps, -1)) # [samples, time steps, features]


# 归一化
# 数值范围变为0~1,这是LSTM网络使用的s形激活函数(sigmoid)的范围。
X = XXX / data_len
# one-hot编码
#y = np_utils.to_categorical(dataY)
y = np.eye(data_len)[y]

# =================================
model = Sequential()
model.add(LSTM(32, input_shape=(X.shape[1], X.shape[2])))
model.add(Dense(y.shape[1], activation='softmax')) # 输出各类的概率(softmax)
model.compile(loss='categorical_crossentropy',     # 单标签,多分类(categorical_crossentropy)
              optimizer='adam', 
              metrics=['accuracy'])

model.fit(X, y, epochs=500, batch_size=1, verbose=2)

#检查模型在测试集上的表现是否良好
test_loss, test_acc = model.evaluate(X, y)
print('test_acc:', test_acc)

 

效果图

 

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值