深度学习 吴恩达
文章平均质量分 87
哇哇哇哇池
这个作者很懒,什么都没留下…
展开
-
2021版吴恩达深度学习课程Deeplearning.ai 05序列模型 12.5
1.序列模型常见的应用。原创 2023-12-10 22:14:42 · 86 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day29 10.4
1.输入输出规范模型的输入是模型的输出是一系列的边界框,边界框的表现形式是,c表示边界框表示的类别2.锚框锚框的选择是通过寻找训练数据的特点,我们一共寻找了5个锚框,存储在中,锚框对应的在输出中的维度是。3.YOLO模型的架构,维度4的85对应的是4.ENCODING5.非极大值抑制。原创 2023-10-04 23:13:57 · 40 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day28 10.3
通过从目录中读取文件的时候,目录中文件分为*如果需要区分训练集和测试集,需要,并指定子集subset。*为防止重叠,需要设置seed保持一致。*此时如果,我们会得到shape为。原创 2023-10-03 21:33:43 · 61 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day25 9.30
1.*图片分类:输入一张图片到多层卷积网络,最终输出一个特征向量到softmax层,预测图片分类。比如,我们需要识别汽车、人、摩托车和背景,这四类就是我们可能输出的结果。*定位分类:在图片分类的基础上,多输出几个数据标注物体的位置(此时我们讨论的定位分类问题一般图片中只有一个需要识别的物体)。*对象检测:一般会检测多个物体的定位。2.我们定义目标的位置通过,图片的左上角定义为(0,0),右下角定义为(1,1)。3.定义标签y*标签y的输出包含了pc表示图片中出现检测对象的概率,1表示出现,0。原创 2023-10-01 21:29:03 · 33 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day21 9.26
1.LeNet-52.AlexNet3.VGG-161.*使直接与相连,的输出为。*如图,2层神经网络构成了一个残差块。2.*在理论上,随着我们层数的加深,训练集的误差应该减小,但在实践中,训练集的误差反而变大了;而残差网络可以很好解决这一问题,它使得随着层数的加深,训练集的误差在训练中能够不断的减小。1.*比如当我们使用L2正则化的情况下,可能相对来说会很小,此时,如果,那么就会导致我们的残差块,维持不变。*由此可见,残差块学习恒等函数,其实难度并不大,只需要即可,而且,对于我们的神经网络而言,添加恒等函原创 2023-09-27 17:55:35 · 67 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day18 9.23
1.*目标识别:识别出物体的类型*目标检测:检测物体的位置*图片风格迁移:混合2种图片的风格。原创 2023-09-24 08:35:02 · 32 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day14 9.19
1.*复杂的深度学习,以语音识别为例子,我们往往需要首先提取特征,其次得到音节细节,渐渐组成单词,到识别句子,获得最终输出,中间经历很多步骤。*端到端的深度学习就是我们只需要输入x,就能得到y,省去大量中间步骤,但它需要的数据往往很大。2.*但有时端到端的深度学习并不能很好解决问题,如人脸识别,如果输入时从远处走进的人(人可能会有不同的角度走进),输出是对应的人的身份,这往往很困难,需要大量数据。*但如果分步解决,首先裁剪放大人脸,其次再进行对应,就能得到很好的效果。原创 2023-09-19 20:04:48 · 31 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day10 9.15
今日只有下午有一节操作系统课,别的时间都可以自由安排。我计划早上和晚上学习深度学习,下午操作系统课上完之后去健身房锻炼一下下半身腿部。最近压力有点太大需要释放一下,感觉自己目前只有一个比较拿得出手的全栈作品(网上书城),还是有一些焦虑的。我想要这学期能够在科研方面有一些成果,所以现在要好好学习深度学习的课,尽早完成。别的都不说了,加油吧,大三要跑起来了!原创 2023-09-17 18:20:40 · 24 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day5 9.10
9.9白天去叔叔家休息了一天,9.10中午和哥哥一起聚餐,为我9.11的生日庆祝一下。开学第一天生日,希望能给这个学期带来一些好运吧。原创 2023-09-15 08:38:45 · 25 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day3 9.8
1.*选择tanh函数作为激活函数可以使得它的均值接近0,比sigmoid函数好但如果针对二元分类问题,选择sigmoid函数是不错的选择ReLU函数比tanh和sigmoid函数都要好,因为它有一部分的导数不是0,从而帮助求导速度更快,da/dz!=02.不同激活函数之间的优缺点*sigmoid基本不使用,只用于输出二元分类的输出层*sigmoid基本不使用的原因是tanh的优越ReLU是常用的激活函数。原创 2023-09-10 19:36:28 · 30 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day2 9.7
1.神经网络的计算由前向传播计算神经网络的输出,紧接着由反向传播计算梯度或导数。计算图解释了为什么用这种形式组织计算。如下是一个用于计算输出的计算图。原创 2023-09-08 09:33:16 · 61 阅读 · 0 评论 -
2021版吴恩达深度学习课程Deeplearning.ai Day1 9.6
1.深度学习的术语常用于形容训练神经网络的过程,有时特指大规模的神经网络训练。2.如图所示是一个最简单的神经网络,输入是x=size,输出y=price,中间的神经元是relu函数,,也指修正线性函数单元(因为此时我们规定房价不为负)。3.*如图是一个神经网络,它的架构是输入层、隐藏层、输出层。中间的隐藏层,其实能够获取到来自上一层的每一项特征,但在我们最终的依赖关系中,是否使用它,完全取决于神经网络的训练,我们只需要管输入什么和输出什么即可。原创 2023-09-07 08:52:40 · 32 阅读 · 0 评论