keras神经网络开发知识笔记

     mnist数据集获取60000个训练样本和10000个测试样本,样本为0-9十个数字,用全连接神经网络进行训练,并测试结果。

      例程采用60000个数据样本进行训练,对于一般的电脑来说,这样训练会比较费时间,学习测试较慢

     所以,可以加入以下几行代码:

# mnist has 60000 datas,down to 6000 to accelerate
x_train=x_train[:6000]

y_train=y_train[:6000]

将原始60000个样本只取前6000个样本进行训练

例程的核心代码为(部分数值有修改):

model = Sequential()
model.add(Dense(512, activation='relu', input_shape=(784,)))
model.add(Dropout(0.2))
model.add(Dense(64, activation='relu'))
model.add(Dropout(0.2))

model.add(Dense(num_classes, activation='softmax'))

  依次理解笔记:

   

model.add(Dense(512, activation='relu', input_shape=(784,)))

  

     为model添加Dense层,即全链接层,该层有784维输入,512为输出

   

model.add(Dropout(0.2))

  

    添加Dropout层,训练时概率性丢弃

model.add(Dense(64, activation='relu'))

  

    再次添加Dense层,64维输出(输入为前一层,512维)

model.add(Dense(num_classes, activation='softmax'))

  

  再次添加Dense层,10维输出(num_classes=10,即0-9十个数字)

  所以我们大致能够知道,神经网络是输入784维,第一层512维,第二层64维,输出10维。

   在例程末尾,可以添加两句

model.summary()

print (model.get_weights())

    

转载于:https://www.cnblogs.com/68xi/p/8605812.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值