2020-6-8 吴恩达DL学习-改善深层NN-第三周 超参数调试、Batch正则化和程序框架

274 篇文章 24 订阅
233 篇文章 0 订阅

1.视频网站:mooc慕课https://mooc.study.163.com/university/deeplearning_ai#/c
2.详细笔记网站(中文):http://www.ai-start.com/dl2017/
3.github课件+作业+答案:https://github.com/stormstone/deeplearning.ai

3.1 调试处理(超参) Tuning process

2020-6-8 吴恩达-改善深层NN-w3 超参数调试(3.1 调试处理-指导原则,随机选取点和由粗糙到精细调参)

3.2 为超参数选择合适的范围 Using an appropriate scale to pick hyperparameters

2020-6-9 吴恩达-改善深层NN-w3 超参数调试(3.2 为超参数选择合适的范围–选择合适的标尺)

3.3 超参数训练的实践:Pandas VS Caviar Hyperparameters tuning in practice:Pandas vs. Caviar

2020-6-9 吴恩达-改善深层NN-w3 超参数调试(3.3 超参数训练的实践:Pandas(资源少,一次一个模型) VS Caviar(资源多,一次多个模型))

3.4 归一化(正则化)网络的激活函数 Normalizing activations in a network

2020-6-10 吴恩达-改善深层NN-w3 Batch归一化(3.4 归一化(正则化)网络的激活函数–batch归一化介绍,通过参数γ和β标准化隐藏层单元z值)

3.5 将 Batch Norm 拟合进神经网络 Fitting Batch Norm into a neural network

2020-6-12 吴恩达-改善深层NN-w3 Batch归一化(3.5 将 Batch归一化-简称BN-拟合进NN(梯度下降法中使用BN))

3.6 Batch Norm 为什么奏效?Why does Batch Norm work?

2020-6-15 吴恩达-改善深层NN-w3 Batch归一化(3.6 Batch Norm 为什么奏效?归一化前层输出的均值和方差,减少了对后层的影响,有助于加速NN学习。副作用是正则。)

3.7 测试时的 Batch Norm (Batch Norm at test time)

2020-6-16 吴恩达-改善深层NN-w3 Batch归一化(3.7 测试时的 Batch Norm–mini batch需要使用指数加权平均估算均值μ和方差σ**2)

3.8 Softmax 回归 Softmax regression

2020-6-16 吴恩达-改善深层NN-w3 多种可能分类Multi class classification(3.8 Softmax 回归–Softmax激活函数识别多种分类)

3.9 训练一个 Softmax 分类器 Trying a softmax classifier

2020-6-16 吴恩达-改善深层NN-w3 多种可能分类Multi class classification(3.9 训练一个 Softmax 分类器)

3.10 深度学习框架 Deep Learning frameworks

2020-6-22 吴恩达-改善深层NN-w3 程序框架(3.10 深度学习框架–选择框架的标准)

3.11 TensorFlow

2020-6-22 吴恩达-改善深层NN-w3 程序框架(3.11 TensorFlow)

课后作业

2020-9-7 吴恩达-改善深层NN-w3 超参数调试、Batch正则化和程序框架(课后作业)

课后编程

2020-8-23 吴恩达-改善深层NN-w3 超参调整/批量正则化/编程框架(课后编程-TensorFlow Tutorial-手势辨认)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值