Coursera
文章平均质量分 86
Dmoll
这个作者很懒,什么都没留下…
展开
-
学习笔记—神经网络与正则化
神经网络与正则化正则化项能够控制模型的过拟合问题,深层神经网络模型如果不添加正则化项,很容易陷入过拟合。1 L2 Regularization1.1 正则化惩罚到底做了什么?最常见的用于控制过拟合的方法为L2正则化,它所做的只是对损失函数增加了系数惩罚——在原公式基础上增加所有系数的二次方值的和。 原始损失函数: J=−1m∑i=1m(y(i)log(a[L](i))+(1−y(i))log(1原创 2017-11-11 17:50:23 · 3080 阅读 · 1 评论 -
Sequence Models-第一周
前沿距离上次在Coursera平台上课已经有几个月了,当时本以为自己会用不到RNN的东西,所以就没有继续学下去。然而最近参加了一些面试,发现掌握RNN还是非常有必要的,序列模型在生活中的应用还是挺广的,在金融量化投资领域尤其重要,所以趁着最近有点迷茫,又决定好好学一学RNN,达到至少懂一些的程度。1.1 为什么选择序列模型序列模型在生活中的应用非常广泛: 1.2 Nota...原创 2018-07-29 18:00:42 · 494 阅读 · 0 评论 -
CNN-第四周
1. 人脸识别Face recognition可分为:Verification, Recognition。 1.1 One Shot LearningOne shot learning所针对的情况是,在训练集只有一张目标对象的图片时,正确识别目标对象。 显然基于我们之前的知识,在只有目标对象的一个训练样本时,无法构建出一个有效的深度学习模型。因此我们相信构建一个能够学习分辨两个样本相似度的模原创 2018-03-21 20:24:30 · 187 阅读 · 0 评论 -
CNN-第三周:Detection algorithms
1. Object Localization我们之前的学习一直在讨论图片分类;接下来这一章将讲到物体定位,即不仅要判别图片中是否有检测目标,还要标出目标的位置。如下: 要做到object localization,首先需要给训练图片明确地标注出待检测目标的具体位置(x, y, h, w)。 一种典型的标注方法如下: 2. Landmark Detection事实上,只要你对训练集标注得当,原创 2018-03-04 18:04:41 · 583 阅读 · 0 评论 -
Convolutional Neural Networks:第二周
1. Classic Networks第二周的课程首先介绍了几种经典的卷积神经网络模型:LeNet-5AlexNetVGG1.1 LeNet-51.2 AlexNet1.3 VGG-16VGG模型把所有的卷积层和池化层的大小都固定了,因此结构简单,但是参数量巨大。 2. ResNets使用Residual block能够帮助训练非常...原创 2018-02-24 21:45:04 · 471 阅读 · 0 评论 -
初识卷积神经网络(CNN)
卷积神经网络:Convolutional Neural Networks卷积神经网络在计算机视觉领域非常有名,现在我们就来一起学习它。从之前的学习中我们了解到,计算机在识别图片时,学习到的初级特征往往是一些线条,而利用卷积神经网络可以帮助模型更快地发现特征线条。 “卷积”的过程很简单:如上图所示,将原始图像(左)乘以一个筛子(中)后,即可得到处理后的结果。如下图所示,可以利用该筛子找到原图像中原创 2018-02-03 17:49:17 · 364 阅读 · 0 评论 -
学习笔记-batch normalization
这是Deep learning 第二门课的第三周课程的学习笔记。原创 2017-11-26 12:27:01 · 295 阅读 · 0 评论 -
学习笔记-神经网络初级入门
1. 写作背景——刚学到的知识如果不及时记录下来,很快就会被遗忘。从上个月开始我就开始在Coursera平台学习吴恩达老师开设的深度学习课程。今天我已经学完第一门课程,并已经获得证书。这门课程不像之前的机器学习课程提供了完整的授课ppt,因为担心自己学完后会很快就忘记,以后回忆起来太费劲,所以决定在这里写下自己学习这门课程的笔记。当然,我只会记录对我将来回忆有帮助的信息。只希望自己以后回忆起来会容易原创 2017-11-04 15:06:51 · 393 阅读 · 0 评论 -
学习笔记—Optimization algorithms
这是这门课程第二周的内容。 当深度学习遇到大数据(样本量在十万级以上)时,我们之前的常规操作在这时可能会变得很笨重。1. Mini-batch gradient descent之前在模型训练过程时,每一轮迭代都需要遍历整个训练集样本,当样本集非常大时,这样的每一轮都将经历漫长的时间。为了应对这一难题,有人提出了Mini-batch gradient descent,与之对应的是batch grad原创 2017-11-16 21:53:06 · 393 阅读 · 0 评论 -
学习笔记-利用Gradient Checking检查神经网络模型
利用Gradient Checking检查神经网络模型在搭建完神经网络模型后怎样判断中间有没有bug呢?这就要用到Gradient Checking了。 一般前向传播网络的计算不容易出错,而在计算反向传播网络的过程中很容易出错。 学过微积分的都知道,某一点的导数可以用以下公式近似表示: ∂J∂θ=limε→0J(θ+ε)−J(θ−ε)2ε \frac{\partial J}{\partial原创 2017-11-12 16:59:30 · 470 阅读 · 0 评论 -
Sequence Models-第二周
1. Word reperesentation1.1 1-hot reperesentation通过上一周的学习,我们了解到,在自然语言处理过程中,可以采用1-hot reperesentation来表示句子中的每个单词,即用该单词在词库中的位置表示。但这种表示方法有一个显而易见的缺点:即任意两个单词间的距离关系是一样的,这种表示方法无法表示相似词汇之间的相似性。 例如:对于1-ho...原创 2018-08-27 20:55:06 · 237 阅读 · 0 评论