DeepLearning.ai
zgx_neo
不错的。2018加油!!!
展开
-
吴恩达-DeepLearning.ai-Course1-Week2-实现逻辑回归算法-编程作业笔记
非常推荐大家去学习一下coursera上的DeepLearning.ai课程,Week2的作业是实现逻辑回归算法,细节不再赘述,主要看1张图(逻辑回归算法识别猫和非猫的图片的架构图)和实现的公式(公式要好好理解,看下到底是怎么通过梯度下降来最小化损失函数的,这可以说是最简单的公式了)用到的公式:以下代码可以很好的帮助理解前向传播、反向传播以及梯度下降来学习参数的原理,做完后,我是从Jupyter的...原创 2018-02-09 11:16:37 · 813 阅读 · 0 评论 -
吴恩达-DeepLearning.ai-Course2-Week1笔记
本周主要学习了如何设置训练、开发、测试集,如何分析高偏差高方差的情况以及面对高偏差或者高方差应该如何做,以及如何运用不同形式的正则化, 比如L2正则化还有对你的神经网络进行随机失活(dropout),即一些加速神经网络训练的技巧,最后是梯度检验的内容,个人觉得本周课程还是蛮重要的,笔记如下方便日后查看1.我们一般把数据集分为训练集,开发集,还有测试集(当然也可以仅仅存在训练集和开发集),如果数据集...原创 2018-02-23 08:52:09 · 400 阅读 · 0 评论 -
吴恩达-DeepLearning.ai-Course3-Week1笔记
自己笔记更新至此不再更新,参看吴恩达所有deeplearning.ai课程笔记网址:http://www.ai-start.com/dl2017/ 感谢作者1. Setting up your goal1.1 single number evaluation metric无论你在选择超参调优或是选择不同的机器学习算法,还是在构建机器学习系统的时候,选择不同的配置项,你都会发现,如果你有...原创 2018-04-17 17:42:11 · 412 阅读 · 0 评论 -
吴恩达-DeepLearning.ai-Course2-Week3笔记
本周课程记录如下:1. Hyperparameter tuning process到目前为止,大家都知道调整神经网络的过程,包含了对很多不同超参数的设置,然而,你该怎样为这些参数找到比较合适的设定值呢?这里会分享一些指导原则以及系统化进行超参数调优的技巧,它们将帮助你更有地获得合适的超参数,面对大量的超参数,包括:学习率α,如果使用动量算法的话,还包含动量超参数β,还有Adam优化算...原创 2018-04-06 21:56:51 · 417 阅读 · 0 评论