自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 吴恩达深度学习 课程四 第三周 对象检测

计算机视觉的应用如今非常丰富,上周已经学习了图片分类问题,在此基础上进行目标定位的学习,甚至应用到目标检测(多物体)。通常图片左上角坐标(0,0),右下角坐标(1,1),红色方框的中心点坐标(bx,by),边框高度bh ,宽度bw。神经网络不仅需要输出标签,还需要输出四个参数值。当检测到图片中存在1,2,3情况时,pc=1 4表示无背景,pc=0,相应的损失函数如上所示。

2024-01-22 19:33:40 338

原创 吴恩达深度学习笔记 课程四 第二周 算法介绍

卷积参数少,一个原因是参数共享,另一个原因是稀疏连接。以便于我们用更小的参数训练它,预防过度拟合。

2024-01-21 17:36:37 368

原创 吴恩达深度学习笔记 课程四 第一周 卷积神经网络

比如图像分类,目标检测,图像风格迁移。面对巨大的数据特征,我们需要运用卷积运算,由此引出卷积神经网络。

2024-01-19 20:05:27 586 2

原创 吴恩达深度学习笔记 课程二 第二周 优化算法

向量法可以加快运行速度,但是当训练样本百万级单位时仍然很慢,可以利用mini batch梯度下降法,每个mini batch有1000样本,如果你的m(训练集)是5百万,可分成5000个mini batch。二者从图像上看损失函数差别如下mini batch size =m 称为batch梯度下降法 缺点是每次迭代时间过长。mini batch size =m1 称为随机梯度下降法 缺点是失去向量化带来的加速,效率过低。实践中最好选择不大不小的尺寸,实际上学习率最快。

2024-01-17 17:21:12 934

原创 吴恩达深度学习笔记 课程2 第一周 提高神经网络速度方法

在设置神经网络时,通常会面对这些问题。即使是深度学习的行家,一开始也不太会得到最优的参数和超参数,所以说深度学习是一个典型的迭代过程。创建高质量的训练,开发,测试集有助于提高循环效率。过去的经验一般是6/2/2比例,随着数据的增加,验证集(验证不同的算法,确定模型)和测试集(正确评估分类器的性能)的比例随之减小。目前流行训练集在网页获取,验证和测试集由用户提供,注意验证和测试要来自同分布的数据,能加快速度。

2024-01-16 18:41:22 870 1

原创 吴恩达深度学习笔记 课程1 第四周 深层神经网络实现

以人脸识别为例神经网络第一层寻找图片中的边缘,被探测的像素组成不同的部分,最后组合在一起形成人脸。

2024-01-14 18:54:11 364 1

原创 吴恩达深度学习笔记 课程1 第三周 单层神经网络实现

上述为双层神经网络第零层 输入特征值第一层 隐含层第二层 输出层计算m个样本的公式,由于出现显式for循环 需要将其进行向量化。

2024-01-14 16:51:54 433 1

原创 吴恩达深度学习笔记 课程1 第二周 基础知识

吴恩达深度学习笔记 第二周

2024-01-12 15:27:03 421

原创 吴恩达深度学习笔记 课程1 第一周 前导

吴恩达深度学习笔记

2024-01-11 17:02:47 503 1

原创 c++实例 超级玛丽(1)

c++项目实战(1)人物移动

2024-01-10 18:23:14 2374 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除