深度学习入门
文章平均质量分 66
一个很菜的小猪
欢迎来到我的博客
展开
-
损失函数L1Loss、L2loss区别
平均绝对误差(Mean Absolute Error,MAE)预测值和真实值之差的绝对值。原创 2024-04-07 19:44:30 · 257 阅读 · 0 评论 -
深度学习第四课
神经网络由浅层到深层,分别可以检测出不同层次的信息,在计算机视觉中我们依托深度卷积神经网络,来依次学习理解图片的边缘特征、局部特征(例如眼睛、鼻子等),直至最后一层综合前面检测的特征来识别整体图像内容。Inception 网络选用不同尺寸的滤波器进行 Same 卷积,并将卷积和池化得到的输出组合拼接起来,最终让网络自己去学习需要的参数和采用的滤波器组合。问题:边缘的次数较少,中间的次数较多,因此忽略了边缘的信息,我们可以在卷积前,先填充一层像素。16是指网络中包含16个卷积层和全连接层,超参数较少。原创 2023-10-24 21:56:49 · 502 阅读 · 0 评论 -
深度学习入门(五):经典网络Alexnet实现
AlexNet是一个深度卷积神经网络架构,于2010年代初在深度学习重新引起人们关注时发挥了重要作用。它因在2012年的ImageNet大规模视觉识别挑战(ILSVRC)中获胜而闻名。原创 2023-08-22 17:40:22 · 193 阅读 · 0 评论 -
深度学习入门(四):经典网络架构(Alexnet、Vgg、Resnet)
在探索深层网络中遇到了问题,20层和56层的 "普通 "网络进行对比,更深的网络却有。感受野是指feature map上某个元素受输入图像上影响的区域,2个3。VGG 最大的特点就是它在之前的网络模型上,通过比较彻底地采用。由下图可知,模型的泛化能力随着层数的增多而逐渐增加。,能够把模型一直堆叠到上百层,而且不出现退化。2014 年ImageNet 竞赛冠军。对网络的最终分类识别效果有很大的作用。8层神经网络、5层卷积层、3层全连接。2012年ImageNet竞赛冠军。3的conv可以代替1个5。原创 2023-08-22 17:08:26 · 201 阅读 · 0 评论 -
深度学习入门(三):卷积神经网络(CNN)
CNN是一块一块进行对比的,“小块”称之为Features特征。对不同的局部数据进行卷积计算。左边数据在变化,每次滤波器都是针对。与此同时,数据窗口滑动,导致输入在变化,但中间滤波器。给定一张图片,计算机需要模型判断图里的东西是什么?每计算完一个数据窗口内的数据后,数据窗口不断。下图包含两次卷积一次池化,共7层神经网络。随着左边数据窗口的平移滑动,滤波器。的,这个权重不变即所谓的CNN中的。这就是所谓的CNN中的。,直到计算完所有数据。进行筛选压缩的过程,取。原创 2023-08-22 16:20:24 · 1953 阅读 · 0 评论 -
深度学习入门(二):神经网络整体架构
DROP-OUT是防止神经网络过于复杂,进行随机杀死神经元的一种方法。查看circle data,可以看出效果不佳,看上去像切了一刀。左图是全连接神经网络,右图在神经网络训练过程中,查看circle data,可以看出效果较好。作用于每一层的输入,通过逐层计算得到输出结果。:数值较大或较小时,梯度约为0,出现。将神经元设置为1,查看效果。将神经元设置为2,查看效果。将神经元设置为3,查看效果。原创 2023-07-28 10:17:30 · 1472 阅读 · 0 评论 -
深度学习入门(一):神经网络基础
通过训练多层网络结构对位置数据进行分类或回归,深度学习解决特征工程问题。原创 2023-07-27 20:55:13 · 2818 阅读 · 1 评论