机器学习笔记5

机器学习笔记5

Backpropogation

在这里插入图片描述

链式法则:

在这里插入图片描述
在这里插入图片描述
以一个神经元为例:
在这里插入图片描述
Forwardpass:偏微分就等于input
在这里插入图片描述
在这里插入图片描述Backward pass:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
怎么算这两项??
情况一:已经是output
在这里插入图片描述
情况二:不是输出层
递归求解:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Summary:
在这里插入图片描述

Tips for deeplearning

recipe of deep learning
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
Overfitting:training好的情况下testing不好
层数高效果不一定好:
在这里插入图片描述
可能原因:

梯度消失

靠近输入地方参数更新慢(还处于random状态),靠近输出参数更新快(可能已经收敛)
使得参数loss下降很慢
在这里插入图片描述
出现原因:sigmoid function:
Large input——》small output
在这里插入图片描述
解决:换sigmoid为ReLU
在这里插入图片描述
在这里插入图片描述
虽然ReLU是线性的,但是整个网络是非线性的

ReLU-variant

在这里插入图片描述

Maxout

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
会不会出现小的z没有被训练到的情况??
事实上不会:input不一样时候,被train的z是不一样的,所以都会被train
在这里插入图片描述
优化器的Review:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Early Stopping

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

Dropout

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
因为有的nueron被所有网络都没有dropout,因此是用所有网络train的。
在这里插入图片描述
在这里插入图片描述

Why deep?

层数多还是更宽?
在这里插入图片描述
在这里插入图片描述

Modularization

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
deep learning其实就是自动地进行了Modularization:
在这里插入图片描述
所以deep learning 需要更少的data?

用一个隐层就可以表示任意函数,但是:
在这里插入图片描述
两层逻辑闸可以表示任何逻辑
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
端到端的学习:
在这里插入图片描述
非端到端的方法:深度学习只处理一个环节
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
隐层做了什么?
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值