Keras模型测试准确率震荡大

今天在Keras训练了一个模型,发现模型的训练accuracy和测试accuracy的准确率偏差比较大,如下未加dropout
在问了些大佬后(感谢大佬),我的这个原因很可能是因为过拟合导致的差距比较大,之后在每个层之间都加入了dropout,再重新训练模型得到了下面这样的效果:加了dropout
可以看到,效果还是很明显的,接下来就是调整dropout里面的参数和dropout层数的事情了。
当然,有些模型accuracy震荡比较厉害不光是过拟合的原因,也有可能是数据本身的原因,那就需要实验者自己查看数据哪里出现问题了,这里给出Keras添加dropout的方法。

def self_mlp():
    model=Sequential()
    model.add(Dense(units=200,input_dim=95,activation='relu'))
    model.add(Dropout(0.2))
    model.add(Dense(units=200,activation='relu'))
    model.add(Dense(units=200,activation='relu'))
#     model.add(Dropout(0.2))
    model.add(Dense(units=200,activation='relu'))
    model.add(Dropout(0.2))
    model.add(Dense(units=200,activation='relu'))
    model.add(Dropout(0.2))
    model.add(Dense(units=256,activation='softmax'))
    model.compile(optimizer=rms,loss='categorical_crossentropy',metrics=['accuracy'])
    return model

dropout层越多,里面的参数越大就越有可能导致欠拟合,所以需要自己不断尝试。
本人小白,要是有大佬看见我哪里不正确,希望能提醒下(手动滑稽)

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值