【机器学习】李宏毅机器学习-Keras-Demo-神经网络手写数字识别与调参

参考:

编程环境:

  • 操作系统:win7 - CPU

  • anaconda-Python3-jupyter notebook

  • tersonFlow:1.10.0

  • Keras:2.2.4

背景:

  • 视频里宝可梦大师提供的部分参数设置不能得到好的结果,这里记录一下后续调参

1-载入数据报错的问题:

2-测试程序是否正常

  • 打印一下某个矩阵的形状,没有报错一切正常

    1265453-20190430212158490-1922493739.png

3-运行原始代码

  • 按照李宏毅老师视频里讲的全是坑代码运行看看效果

    1265453-20190430213044434-1780956342.png
    1265453-20190430213704014-1071621832.png

4-对神经网络进行调参

改动地方主要为:

  • 激励函数由sigmoid改为relu

  • loss function由mse改为categorical_crossentropy

  • 增加了Dropout,防止过拟合

  • 改动后的代码为

# 选model
model = Sequential()

# 搭建神经网络
# 改动:4点
# 1-中间层units由633改为700
# 2-激活函数由sigmoid改为relu
# 3-原四个Dense,删去一个中间层,只留三个Dense
# 4-在三个Dense的每两个Dense中间加入Dropout
# batch-epochs=100,20时,三Dense好于四Dense
# batch-epochs=1,2时,三Dense好于四Dense
model.add(Dense(input_dim=28*28, units=700, activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(units=700, activation='relu'))
model.add(Dropout(0.2))
model.add(Dense(units=10, activation='softmax'))

# 自选loss Function等参数
# 改动:1点
# 1-loss function由mse改为categorical_crossentropy
model.compile(loss='mse', optimizer=SGD(lr=0.1), metrics=['accuracy'])

# train模型
# 改动:1点
# 1-参数列表最后加一个validation_split(交叉验证?)
# 2-batch-size=1, epochs=2时,acc变为0.9314(3个Dense),0.9212(4个Dense)
model.fit(x_train, y_train, batch_size=1, epochs=2, validation_split=0.05)

# 测试结果,并打印accuracy
result = model.evaluate(x_test, y_test)
print('\nTest loss:', result[0])
print('\nAccuracy:', result[1])

5-结果分析

  • 貌似相同参数,不同train回合,得到的结果还有细微的差别。。。

    1265453-20190430222838983-23775594.png

总结:

  • 无论如何,总算DL-hello world达成了,好的开始就是成功的一半,再接再厉!

END

转载于:https://www.cnblogs.com/anliux/p/10796101.html

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值