【深度学习图像识别课程】keras实现CNN系列:(1)MLP实现手写数字MNIST分类

一、MNIST分类:MLP实现

MNIST有60000张训练图片,10000张测试图片。每张图片大小28*28。

 

matplotlib.cm:colormap(具体可参考文章matplotlib使用参考文档

 

3 看一张图的细节

def visualize_input(img, ax):
    ax.imshow(img, cmap='gray')
    width, height = img.shape
    thresh = img.max()/2.5
    for x in range(width):
        for y in range(height):
            ax.annotate(str(round(img[x][y],2)), xy=(y,x),
                        horizontalalignment='center',
                        verticalalignment='center',
                        color='white' if img[x][y]<thresh else 'black')

fig = plt.figure(figsize = (12,12)) 
ax = fig.add_subplot(111)
visualize_input(X_train[0], ax)

astype:类型强制转换 array converted to a specified type

np_utils.to_categorical:本博客文章“keras框架学习和项目实战二”第5部分有解释

 

6 模型定义

from keras.models import Sequential
from keras.layers import Dense, Dropout, Flatten

# define the model
model = Sequential()
model.add(Flatten(input_shape=X_train.shape[1:]))
model.add(Dense(512, activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(512, activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(10, activation='softmax'))

# summarize the model
model.summary()

Flatten(input_shape=X_train.shape[1:]):用来将输入压平,这里是把28*28的图像输入压成1*784。

 

keras.callbacks modelcheckpoint:每次epoch之后,如果validation error减少,则记下模型参数,并覆盖上一次记录。

并保存在filepath中。参考:https://keras.io/callbacks/

 

  • filepath: 保存模型的文件
  • monitor: 监视器
  • verbose: 0 or 1
  • save_best_only: 如果为True,则监视器检测到的最近一次的最优模型将会被覆盖。 
  • mode: one of {auto, min, max}.
  • save_weights_only: 如果为True,则仅保存模型的权重;否则保存这个模型。
  • period: checkpoints之间间隔的epoch数

 

 

model.load_weights:从文件中把模型参数读到内存里,再进行测试。

 

二、MLP项目说明

上面代码的准确率为:隐藏层单元数512,优化器rmsprop,有drop层,激活函数,batch尺寸128

 

loss: 0.0306 - acc: 0.9910 - val_loss: 0.0898 - val_acc: 0.9787 Test accuracy: 98.0200%

通过如下的修改,看损失和正确率的变化情况

1、增加隐藏层面的节点数量为2048:有过拟合的迹象,测试损失0.0433远小于验证损失0.1508

 

loss: 0.0433 - acc: 0.9911 - val_loss: 0.1508 - val_acc: 0.9772 Test accuracy: 97.7000%

2、减少隐藏层面的节点数量128:

 

loss: 0.0636 - acc: 0.9800 - val_loss: 0.0903 - val_acc: 0.9761 Test accuracy: 97.8500%

3、删除网络中的丢弃层

 

loss: 0.0101 - acc: 0.9969 - val_loss: 0.1352 - val_acc: 0.9780 Test accuracy: 97.5700%

4、删除ReLU激活函数:测试正确率下降

 

loss: 0.3193 - acc: 0.9106 - val_loss: 0.3229 - val_acc: 0.9103 Test accuracy: 91.4500%

5、每个像素除以255,删除预处理步骤:测试正确率大大降低

 

loss: 8.3681 - acc: 0.4807 - val_loss: 8.2894 - val_acc: 0.4856 Test accuracy: 49.0200%

6、尝试其他优化器,比如SGD:测试正确率下降

 

loss: 0.2810 - acc: 0.9189 - val_loss: 0.2256 - val_acc: 0.9356 Test accuracy: 93.4900%
7、增加batch尺寸为512:

 

loss: 0.0115 - acc: 0.9960 - val_loss: 0.0971 - val_acc: 0.9801 Test accuracy: 98.2500%

8、减少batch尺寸为32:

 
loss: 0.0659 - acc: 0.9885 - val_loss: 0.1802 - val_acc: 0.9780 Test accuracy: 97.7400%

 

MLP的缺点:

 

1、对于28*28大小的图像,参数已经高达50万

2、输入时将图像压平,丢失了图像的二维信息

 

引入CNN:

1、更稀疏的连接层

所有隐藏层权重共享:比如判断一张图是否有猫咪,则不管猫咪在哪个角落都时满足条件、不应该有任何差异,因此权重共享可以实现这个要求。

 

2、接受矩阵输入

  • 7
    点赞
  • 39
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Keras是一种用户友好的深度学习库,能够简化卷积神经网络(CNN)的实现过程。通过使用Keras库,我们可以非常轻松地实现手写数字识别的模型,并达到99.6%的准确率。 首先,我们需要准备一个适用于手写数字识别的数据集,如MNIST数据集。MNIST数据集包含了大量的手写数字图像,每个图像都有对应的标签(数字)。我们可以使用Keras内置的函数来加载和预处理这个数据集,使其适用于训练模型。 接下来,我们可以定义一个CNN模型。在Keras中,我们可以使用Sequential模型来构建我们的网络。通过添加不同的层,我们可以定义卷积层、池化层和全连接层。这些层可以通过简单的方法来添加到我们的模型中。 然后,我们可以使用compile()方法来编译我们的模型。我们需要指定损失函数、优化器和评估指标。在这种情况下,我们可以选择交叉熵作为损失函数,Adam优化器作为优化器,并选择准确率作为评估指标。 接下来,我们需要使用fit()方法来训练我们的模型。我们可以指定训练数据集、训练的轮数和每批次的大小。Keras会自动计算并更新权重和偏差来最小化损失函数。 最后,我们可以使用evaluate()方法来评估我们的模型在测试数据集上的表现。这将给出模型的准确率,即它正确分类的图像所占的比例。 通过以上步骤,我们可以使用Keras实现一个CNN模型来进行手写数字识别,且其准确率可以达到99.6%。这是一个非常令人满意的结果,表明我们的模型在识别手写数字方面具有很高的准确性。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值