深度学习_1_基础知识整理

①BP神经网络:

参考:李宏毅  slides   DNN backprop.pdf

②优化:

1. mini-batch: 小批量梯度下降

2. 设置 validuation data:调节超参数

3. activation function: Relu, leakly Relu, PRelu,maxout

4. loss function:softmax + 交叉熵代价函数 ——> 分类问题

                            二次代价函数 + 正则项 ——> 回归问题

5. normlization(输入/特征归一化)

6. 规范化:加入正则化项(L1,L2) ——> 寻找小的权重与最小化原始代价函数的折中

7. 权重初始化:W ——> 均值:0,方差:1/更号n

                         b ——> 均值:0,方差:1

8. 梯度优化:learning rate vallina GD

                                             Adagrad 

                      动量Momentum  ,三者见 Deep More (v2).pdf

9. 增加训练数据集(旋转15 °,扭曲,清除背景噪音等)

10. early stopping (提早终止)

11. 权重衰减:w(t+1) <—— (1-tau * lambda) w(t) - tau * ▽C(w)

12. Dropout(训练阶段):如同训练大量不同网络的平均。

                    

转载于:https://www.cnblogs.com/W-Yentl/p/8253596.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值