全连接神经网络(FCN)学习笔记(为什么过拟合)

多层神经网络和激活函数前面章节已经讲过了,我觉得有点重复,咨询老师为什么要这样做,老师说很多童鞋并不是能够每天坚持学习,有很多童鞋一开始学习了几天,就放下不学了,等到下次要再学时有可能是一个星期,两个星期,甚至一个月,前面的东东有可能都忘了,而本课程一开始前几章节是基础,是非常重要的尤其是深度学习原理,关系到后续章节你是否能学懂,所以才设置重复的课程。
Mnist多层分类视频学习笔记:
此视频中讲解与Mnist分类不同的就是加入了两个网络层,两个网络层都用RELU激活函数对每层网络所提取的特征值进行激活。损失函数使用tf.nn.softmax_cross_entropy_with_logits,梯度下降优化使用了 tf.train.AdamOptimizer,其它代码都是延用Mnist分类代码,但就是这些改变就明显带来了模型精度提升到了95%比Mnist分类代码提升了12个点。

过拟合学习笔记:

过拟合学习我花了好多时间在学习matplotlib,sklear上,大概花我有1天的时间在这上面,主要是查找导入的plt,shuffle、colorConverter、ListedColormap的用法。
一开始我不明白为什么会过拟合呢,为什么我们训练好的模型在实际中就用不上呢?这个在视频中也没有讲解,咨询老师,老师回复说主要有以下四点吧:

  1. 训练集和测试集的数据特征分布不一样,说白了就是神经网络根本没从训练集上学到测试集上的特征,到实战时自然就出现过拟合。

  2. 训练集的数据

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值