李宏毅深度学习笔记09(Tips for Deep Learning)

本文探讨了深度学习中的一些关键问题,包括训练集与测试集的区分,Dropout技术的适用场景,以及Vanishing Gradient Problem。Dropout在测试数据表现不佳时能改善结果,而在表现良好时可能恶化结果。激活函数ReLU解决了线性网络的梯度消失问题,Maxout则是ReLU的一种扩展。
摘要由CSDN通过智能技术生成

Deep learning

在这里插入图片描述
要分清楚是哪里不行,不能把所有的都归结于欠拟合.
在training set上的no是陷入局部最优的原因.在testing set上的no才是overfitting的原因.

Dropout

**加粗样式**
在testing data结果不好的时候才能使用dropout,在testing data结果好的时候,使用了dropout,结果会越来越差.
通过这个可以知道,处理问题的时候,要对症下药.

Vanishing Gradient Problem

我的理解是:network越深,经过越多的sigmoid变化,前面的参数调整对后面的output的影响越小,所以梯度问题会逐渐消失.
在这里插入图片描述
在这里插入图片描述

激活函数(ReLU)

引入之后,会将out为0的神经元舍掉,这样network就会变成linear network,就不会出现递

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值