神经网络
文章平均质量分 56
Xiang_Mamba
Jeene do
展开
-
Xiang神经网络总结(十八)
生成对抗网络GAN生成的分布和你图像本身的分布越接近越好。最大最小函数原创 2021-05-26 21:04:15 · 66 阅读 · 0 评论 -
Xiang神经网络总结(十七)
生成网络首先我们探讨老生常谈的有监督学习和无监督学习。有监督学习,简单来说就是样本有真实类别的标签。无监督学习主要是找寻数据自身内部的关系。PCA降维,可能数据在y维度变化不是很明显,但是在x维度变化特别明显,在x维度投影就能有效区分数据。这里注意这里是特征生成的x’和原本的数据样本x求L2损失,越小越好。并没有标签在内。密度估计:男生女生身高体重样本混合在一起只关心男生的身高体重分布。假设这个样本是男生的情况下,看到这个样本的概率。什么意思呢?我们已经有了训练样本,它有一原创 2021-05-19 21:51:15 · 68 阅读 · 0 评论 -
Xiang神经网络总结(十六)
风格转移最简单的方法,元图片进行平移拼接。对于一些简单重复的图片很有效。如果是规则性不强的图片呢?Gram MatrixC个卷积核每一行描述了卷积组对原始图像的描述。CN2 对应平均,若某个位置值大,则可能说明图像该种“元素反复出现”(权值是对图像的逼近描述)。也就是一种风格。给定一张图片训练噪声图片和原始图片GramMatrix反向更新噪声图片。形成了和原始图片很接近的图片。能否形成梵高式风格图片?简单,一个负责风格,一个负责内容。参考特征逼近。这里内容选择一般原创 2021-05-16 22:04:48 · 62 阅读 · 0 评论 -
Xiang神经网络总结(十五)
必要遮挡证明神经网络学习到了有用的信息。(更关注象脸)我们之前反向传播的时候,计算的是结果关于权值的导数,这里计算结果关于Δx的导数。思考这里这样操作为什么成立?我们知道前向计算是权值×ΔX然后通过反向传播更新权值,更新完有些权值可能不重要设置成0了,那么结果关于Δx的导数可能就不存在了。上图选择RGB三通道中导数最大的通道保留,我们可以通过这个反向可视化来确定神经网络学习性能如何,关注点是否正确。(实际上效果不是太好)。一种反向可视化可应用的场景:图像分割,反向可视化可以理解为对于图片“边界”.原创 2021-05-16 16:27:37 · 79 阅读 · 0 评论 -
Xiang神经网络总结(十四)
卷积神经网络中间层到底在干什么?补充一下RGB三通道卷积。图像与卷积核对应的通道做卷积运算,然后将每个通道的计算结果相加。第一层卷积核直接作用在原本图像上,卷积核是N个M×M×3的,这些卷积核是可以被直接可视化的,如下图所示:我们发现,这一层卷积核学习到的是一些纹理基元信息,但是这些纹理基元没有之前我们自己设计的纹理基元那么规规整整。中间层的一些可视化,我们看不出很有用的信息。4096维空间和某一特征相似的都聚在一坨了。t-SNE降维相似的图片会在一坨。对于某一层特征图的可视化我原创 2021-05-14 17:48:56 · 106 阅读 · 1 评论 -
Xiang神经网络总结(十三)
实例分割相当于区域选择出来卷积一下,然后预测每个像素是什么类别,相当于多加了一个分支。训练紫色框框的不同卷积核,达到像素级别分类的目的。姿态估计:我对感兴趣区域选出来的区域进行卷积,卷积核是什么呢?头部,肘部,肩部等得到特征响应图反向回归更新卷积核值。然后按照顺序连起来openpose...原创 2021-05-14 08:59:15 · 81 阅读 · 0 评论 -
Xiang神经网络总结(一)
(一) 由图像分类引入神经网络图像分类任务定义:图像分类任务是计算机视觉中的核心任务,其目标是根据图像信息中所反映的不同特征,把不同类别的图像区分开来。应用场合:动物识别,植物识别。图像分类任务的难点:语义鸿沟,视角,光照,尺度,遮挡,形变,背景杂波,类内形变,运动模糊,类别繁多等。对于计算机来说只是0-255的灰度图表示!人具有联想功能,而机器并没有,故此机器对于视角敏感。对于遮挡来说,人类可以通过一些基础特征来判断是否是属于某一类,而机器可能是站在高维角度。运动原创 2021-04-24 15:34:38 · 123 阅读 · 2 评论 -
Xiang神经网络总结(二)
线性分类器数据集介绍核心流程图图像类型:二进制图,灰度图,彩色图二进制图像:图像的每一个像素值都是非0及1,非黑即白灰度图像:图像的每一像素值都是0-255之间的值彩色图像:RGB表示图像表示必要性:转换方法:[R1,G1,B1,R2,G2,B2,R3,G3,B3]^T 三元组线性分类器定义每个类的参数w和b初始值是随意设置的,通过反向传播使得参数w和参数b得到更新。Wi的函数等于类别数。线性分类器决策线性分类器示例图像表示成向量计原创 2021-04-24 21:32:16 · 237 阅读 · 2 评论 -
Xiang神经网络总结(三)
全连接神经网络与线性分类器一样,我们仍需牢记如下流程图:像素表示将原始RGB图像展开为列向量[R1,G1,B1,R2,G2,B2…]分类模型回顾线性分类器直接线性映射输入与输出。引入全连接神经网络的目的:解决线性不可分问题,所以输入与输出之间的映射不是线性的这里max 函数 函数值>0,保留函数值,函数值<0,则函数值为0。这样即实现了非线性操作。再谈线性与非线性操作中的权值矩阵W对于线性分类器:因为线性分类器函数直接映射了输入与输出的关系,以CIFAR10为原创 2021-04-25 22:23:45 · 256 阅读 · 2 评论 -
Xiang神经网络总结(四)
卷积与图像去噪图像去噪&卷积对于每一个图像点,用它与它周围的八个点的平均值代替它的值。(此时图像边缘需要补充),这个卷积核也叫平均卷积核。黑色位置即为3*3卷积核。卷积核中心位置与图像点对齐。卷积的性质(知道即可,一些小trick):边界填充:考虑卷积核在边界的情况,发现这里没数据!要么就这样,弊端图像越卷越小一般方法:周围一圈填数卷积核的一些示例:无变化像素点的值由它右边的像素点的值代替,图像向左平移了。向右平移。一个点由它周围的平均.原创 2021-04-27 11:57:27 · 377 阅读 · 0 评论 -
Xiang神经网络总结(七)
ZFnet前面我们学习了AlexNet,现在我们学习ZFNet将第一个卷积层的卷积核改小更关注细粒度的东西,原来AlexNet是11*11,大感受野可能忽略了很多细节,而这些细节在最基础的卷积层我们是不希望忽略的,因为忽略了后面的就再没有了。将第一层原来的卷积步长由4变成2,使得卷积后的特征响应图的大小(分辨率别下降的太快)保留更多信息。增加三四层卷积核个数这样理解:基元信息的卷积核可能没有太多,但是高级的具有语义信息的卷积核可能很多,所以高维的卷积层卷积核个数多了好,有利于提升分类精度。VGG.原创 2021-05-06 20:36:40 · 67 阅读 · 0 评论 -
Xiang神经网络总结(九)
ResNetVGG和GoogleNet证明了一点,你的网络层数越深,你的网络的分类能力就越强,ResNet的研究人员做了如下实验,他们弄了一个56层的神经网络发现测试集上56层网络的错误率比20层网络的错误率高,这个可以理解,你的网络层数多了,深度深了,对样本的分类能力强了,很可能造成过拟合,在实际应用场景没有20层的分类能力强,但是为啥我训练集分类能力还没20层的好了?????拜托,我过拟合了是对训练样本分类很强,我训练集的错误率应该比测试集的要低才对啊!原因:你56层网络虽然看着挺唬人,但是.原创 2021-05-07 21:52:21 · 377 阅读 · 0 评论 -
Xiang神经网络总结(十)
Inception网络家族V1:Inception v1的主要特点:一是挖掘了1 ×1卷积核的作用,减少了参数,提升了效果;二是让模型自己来决定用多大的的卷积核。把不同的卷积核组合在一起,不仅可以增大感受野,而且还可以提高神经网络的鲁棒性。在一层里把不同大小的卷积核叠在一起后,意味着一层里可以产生不同大小的卷积核处理之后的效果,也意味着不用人为的来选择这一层要怎么卷,这个网络自己便会学习用什么样的卷积(或池化)操作最好。V2&&V3增强高维表征(在高层次Incept.原创 2021-05-08 16:49:56 · 64 阅读 · 0 评论 -
Xiang神经网络总结(十一)
视觉识别任务分类:就是识别出你这个图片主体是什么,比如我就仅仅说这个图片是个猫。语义分割:图片上的每一个像素属于什么类别,针对于像素级别。目标检测:给出图片上目标是什么以及目标的位置。实力分割:给出图片上不同目标像素级别的分割。...原创 2021-05-09 21:30:39 · 159 阅读 · 0 评论 -
Xiang神经网络总结(十二)
目标检测对于单目标检测来说,总体上的思路将损失函数分为两部分,一部分损失用来识别目标是什么,另一部分用来识别目标的位置是什么。所以你的样本得表示目标是什么以及目标的位置在哪里。那多目标检测怎么办??图片里的目标个数都不一样,你这个网络根本不知道输出什么维度。...原创 2021-05-12 16:31:14 · 81 阅读 · 0 评论