DeepLearning.ai 深度学习课程 笔记 V5.61

黄博的针对吴恩达老师深度学习课程(deeplearning.ai) 视频做的笔记
今日学习第二门课第二周,大有收获,再接再厉
记录一下要点:

1. batch gradient descent与mini gradient descent相比,在样本量不超过两千的情况下,可不分批,如分批,数据量可在64-512或者128(2的n次方,更快)左右。

2. mini batch = 1 的时候,为随机梯度下降,到最优点附近徘徊,可缩小学习率

3. 指数加权平均数,对一段时间内的数据进行平均(看起来像是平滑),越往前的权重越低,并且展开后呈指数形式,故得名

4. 偏差修正,因为指数加权平均以0开始,所以前几天(项)可能误差较大,故除以(1-beta_power_t),beta是接近小于1的数,前几项的时候分母较小,可以提高前几项的值,而t很大的时候,分母接近1,近似于无,可参考笔记189页底部。

5. 动量梯度下降:

在这里插入图片描述

6. RMSprop:

在这里插入图片描述

7. 重头戏,Adam,同时应用momentum和RMSprop:

在这里插入图片描述
以上三项,懂即可,不用花时间再看

8. 学习率衰减,方式很多:

在这里插入图片描述在这里插入图片描述

9.最后这个局部最优问题:很重要,其实网络较大,参数维数较多的时候不必考虑极差的局部最优点,因为要求每一维都是最小点的概率远远小于鞍点的可能性,故局部最优不是问题,而鞍点的平稳段会减缓学习速率才是问题, momentum或者Adam算法等可以加快学习走出平稳段。

吴恩达的深度学习笔记翻译,里面的目录已经做好,可以直接作为书去打印,欢迎大家下载。课程概述 这些课程专为已有一定基础(基本的编程知识,熟悉Python、对机器学习有基本了解),想要尝试进入人工智能领域的计算机专业人士准备。介绍显示:“深度学习是科技业最热门的技能之一,本课程将帮你掌握深度学习。” 在这5堂课中,学生将可以学习到深度学习的基础,学会构建神经网络,并用在包括吴恩达本人在内的多位业界顶尖专家指导下创建自己的机器学习项目。Deep Learning Specialization对卷积神经网络 (CNN)、递归神经网络 (RNN)、长短期记忆 (LSTM) 等深度学习常用的网络结构、工具和知识都有涉及。 课程中也会有很多实操项目,帮助学生更好地应用自己学到的深度学习技术,解决真实世界问题。这些项目将涵盖医疗、自动驾驶、和自然语言处理等时髦领域,以及音乐生成等等。Coursera上有一些特定方向和知识的资料,但一直没有比较全面、深入浅出的深度学习课程——《深度学习专业》的推出补上了这一空缺。 课程的语言是Python,使用的框架是Google开源的TensorFlow。最吸引人之处在于,课程导师就是吴恩达本人,两名助教均来自斯坦福计算机系。完成课程所需时间根据不同的学习进度,大约需要3-4个月左右。学生结课后,Coursera将授予他们Deep Learning Specialization结业证书。 “我们将帮助你掌握深度学习,理解如何应用深度学习,在人工智能业界开启你的职业生涯。”吴恩达在课程页面中提到。 本人黄海广博士,以前写过吴恩达老师的机器学习个人笔记。有朋友报名了课程,下载了这次课程的视频给大家分享。Coursera的字幕不全,同学们在学习上感觉非常不方便,因此我找志同道合的朋友翻译和整理字幕,中英文字幕来自于由我和曹骁威同学组织爱好者翻译,希望对大家有所帮助。(备注:自网易公开课翻译深度学习课程后,我们不再翻译)
一直以为机器学习的重点在于设计精巧、神秘的算法来模拟人类解决问题。学了这门课程才明白如何根据实际问题优化、调整模型更为重要。事实上,机器学习所使用的核心算法几十年来都没变过。 什么是机器学习呢?以二类分类监督学习为例,假设我们已经有了一堆训练数据,每个训练样本可以看作n维空间里的一个点,那么机器学习的目标就是利用统计算法算出一个将这个n维空间分成两个部分(也就是把空间切成两半)的分界面,使得相同类别的训练数据在同一个部分里(在分界面的同侧)。而所用的统计算法无非是数学最优化理论的那些算法,梯度下降法等等。 在机器学习的模型中,神经网络是一个比较特殊的模型。因为它比较万能。万能二字可不是随便说说的,有定理为证,万能近似定理说,当神经网络的隐藏单元足够多,它就能逼近任意函数。也就是说,只要提供的训练数据量充足,就一定能用一个隐藏单元够多的神经网络去拟合这些训练数据。然而神经网络也有一个很严重的缺点:收敛速度太慢。这一缺点导致很长时间以来神经网络基本上都只能当作理论的标杆而很少被应用于实际问题。 近年来神经网络的兴起得益于三点:1. 算法进展;2. 大数据;3. 硬件提升。这三点使得神经网络(特别是深层网络)的训练速度大幅度提升。前面有说到,模型优化调整过程对于模型的建立至关重要。使用机器学习解决实际问题是一个持续迭代探索优化的过程,需要不断地试错。就好比在走迷宫,你不可能一开始就知道正确的路线在哪,只能加快步伐,尽可能快,尽可能早地走过每一条死路,并祈祷出口是存在着的。优化调整需要反复地训练模型,观察结果。在以前,一次训练可能耗时几个月甚至几年,这种情况下进行迭代调优的时间成本是不可接受的。而现在一次迭代可能只需要很短的一段时间,同时并发技术也使得同时训练不同参数的模型的方案变得可行。快速迭代,优化调整,使神经网络能够越来越多的应用于各种实际问题。 吴恩达的课程数学上是比较基础的。课程前面部分讲解了神经网络相关的主要算法,后面则侧重于讲工程上如何使用各种策略来调整优化模型使之能够快速地拟合实际问题。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值