自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(9)
  • 收藏
  • 关注

原创 吴恩达深度学习笔记之结构化机器学习(二)

2.1 清楚标注错误的数据如果我们发现我们的数据有一些标记错误的例子,我们该怎么办?我们首先来考虑训练集,事实证明,深度学习算法,对于训练集中的随机误差是相当鲁棒的,只要我们的标记出错的例子,只要这些错误例子离随机误差不太远,误差足够随机,那么放着这些误差不管可能也没问题,而不需要花太多时间修复他们。 深度学习算法对随机误差很鲁棒,但是对系统性的误差就没那么鲁棒了,我们做标记的人一直把白色的狗标记

2017-12-28 17:17:40 522

原创 吴恩达深度学习笔记之结构化机器学习(一)

1.1 机器学习策略(ML Strategy)我们在训练深度学习网络的时候,有一下一些策略,提高我们的网络性能。如下图所示: 1.2 正交化(Orthogonalization)要弄好一个监督学习系统,我们需要调我们的系统旋钮确保四件事情。如下所示: 第一:确保在训练集上的结果不错,我们可以通过训练更大的网络,或者选择更好的优化算法。 第二:确保在开发集上不错,我们可以通过正则化或者数据扩充来

2017-12-27 22:09:08 1561

原创 吴恩达深度学习笔记之改善神经网络(三)

3.1 调试处理(Tuning process)神经网路的改变会涉及到许多不同的超参数的设置。下面我们介绍一些指导性原则。 关于训练深度最难的事情之一就是,我们要处理的参数的数量,从学习速率α\alpha 到momentum的β\beta ,如果使用momentum或者Adam优化算法的参数即β1{\beta _1},β2{\beta _2}以及ε{\rm{\varepsilon }},也许我们还

2017-12-23 22:09:46 579

原创 吴恩达深度学习笔记之改善神经网络(二)

2.1 mini-batch 梯度下降法(mini-batch gradient descent)我们知道,向量化可以让我们有效的对所有的m个训练样例进行计算,允许我们处理整个训练集,而无需某个明确的公式,所以我们要把训练样本放到巨大的矩阵x当中去。向量化能够让我们相对较快的处理m个样本,但如果是很大的话,处理速度仍然缓慢。mini-batch要做的就是将整个训练集分割为小一点的子训练集。比如,我们

2017-12-23 19:59:07 464

原创 吴恩达深度学习笔记之改善神经网络(一)

1.1 Train/dev/test sets在配置训练,验证,和测试数据集的过程中做出正确决策,会在很大程度上帮助大家创建高效的神经网络。训练神经网络的时候,我们需要做出很多决策。例如:神经网络分多少层,每层包含多少神经元,以及学习速率是多少。 实际上,应用型机器学习是一个高度迭代的过程,下面的示例图可以表示我们训练一个神经网路的过程。![这里写图片描述](http://img.blog.csd

2017-12-21 09:37:52 971

原创 吴恩达深度学习笔记之卷积神经网络(特殊应用)

4.1 人脸识别Verification (1) Input image,name/ID (2) Output whether the input image is that of the claimed personRecognition (1) Has a database of k persons (2) Get an input image (

2017-12-20 17:55:47 1552

原创 吴恩达深度学习笔记之卷积神经网络(目标检测)

3.1 目标定位定位分类问题意味着我们不仅要用算法判断出图片中是否有该物体,还要标记出它的位置,例如图片有一辆汽车,我们需要用边框把汽车圈起来。 图像分类问题已不陌生,例如输入一张图片到多层卷积神经网络,它会输出一个特征向量,并反馈给softmax来预测图片类型。 比如某张图片包括以下几类,人,汽车,摩托车,背景。如果在该张图片中没有检测到对象,则输出结果就会是背景,这些分类就是softmax函

2017-12-19 22:01:50 2778

原创 吴恩达深度学习笔记之卷积神经网络(实例探究)

2.1 为什么要进行实力探究(why look case studies)这周我们来看看卷积神经网络的实例分析。 为什么要看这些案例分析呢?上周我们讲了基本构建,比如卷积层,池化层以及全连接层这些组件,事实上,过去几年,计算机视觉中的大量研究都集中在如何把这些基本构建组合起来,形成有效的卷积神经网络,找感觉最好的方法之一是看一些案例。 实际上,在计算机视觉中表现良好的神经网络框架往往也适用于其他

2017-12-18 21:50:11 6770 1

原创 吴恩达深度学习笔记之卷积神经网络(卷积网络)

1.1 计算机视觉(computer vision) 应用计算机视觉存在一个挑战:就是数据的输入可能会非常大,例如,过去一般的操作是64*64的小图片,实际上它的数据量是64*64*3,因为每张图片还有3个颜色通道,如果计算一下,可以得知数据量是12288,所以我们的特征向量X维度是12288,这其实不算大,但是如果操作更大的图片,比如一张1000*1000的图片,则其特征向量维度X为1000

2017-12-18 16:33:14 1946

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除