深度学习(Andrew Ng)
一位以泪洗面的同学
这个作者很懒,什么都没留下…
展开
-
第三周:超参数调试、Batch正则化和程序框架
Courese2-第三周:超参数调试、Batch正则化和程序框架3.1调试处理:3.2为超参数选择合适的范围Appropriate scale for hyperparameters**Hyperparameters for exponentially weighted averages3.4归一化网络的激活函数(Normalizing activations in a network)输入归一化...原创 2019-12-30 13:14:58 · 583 阅读 · 3 评论 -
Courese2-第二周:优化算法
Courese2-第二周:优化算法Mini-BatchMini-BatchBatch梯度下降法:同时处理整个训练集。Mini-batch梯度下降法:每次同时处理的单个的mini-batch X(t)和Y(t),而不是同时处理全部的X和Y的训练集。随机梯度下降法:每个样本都是独立的mini-batch。缺点:Batch梯度下降法:一次性处理整个训练集,当训练数量巨大时,单次迭代耗时太长...原创 2019-12-30 13:01:09 · 309 阅读 · 0 评论