机器视觉
文章平均质量分 80
机器视觉笔记
Jackie~T
这个作者很懒,什么都没留下…
展开
-
图像分割(下)&目标检测
图像分割(下)&目标检测目标检测实例分割目标检测单分类(分类+定位)多目标:利用CNN 对图像中的区域进行多分类,以确定当前区域是北京还是哪个类别的目标。困境:CNN需要对图像中所有可能的区域(不同位置、尺寸、长宽比)进行分类,计算量巨大!区域建议:找出所有潜在可能包含目标的区域;运行速度需要相对较快;比如:Selective Search在CPU上仅需运行几秒钟就可以产生2000个候选区域。R-CNN问题:计算效率低下!每一张图像大约有2k个分区需要卷积网络进行特征提取,重叠原创 2021-06-11 19:28:20 · 669 阅读 · 1 评论 -
经典网络分析(下)&图像分割
经典网络分析(下)&图像分割ResNet视觉识别ResNet实验:持续向一个“基础”的卷积神经网络上面叠加更深的层数会发生什么?ResNet具有一下贡献:通过堆叠残差模块可以构建任意深度的神经网络,而不会出现“退化”现象。提出了批归一化方法来对抗梯度消失,该方法降低了网络训练过程中对于权重初始化的依赖。提出了一种针对ReLU激活函数的初始化方法。研究者考虑了这样一个问题:浅层网络学习到了有效的分类模式后,如何通过向上堆积新层来建立更深的网络,使其满足即使不能提升浅层网络的性能,深层网原创 2021-06-07 20:08:37 · 257 阅读 · 0 评论 -
经典网络分析(上)
经典网络分析(上)AlexNetAlexNet2021年ImageNet大规模视觉识别挑战赛冠军,精度提升超过10个百分点。计算机视觉领域最具权威的学术竞赛之一ImageNet数据集——有斯坦福大学李飞飞教授主导制作,其包含了超过1400万张全尺寸的有标记图片验证了深度卷积神经网络的高效性提出了一种卷积层加全连接层的卷积神经网络结构首次使用ReLU函数作为神经网络的激活函数首次提出Dropout正则化来控制过拟合使用加入动量的小批量梯度下降算法加速了训练过程的收敛使用数据增强策略极大地原创 2021-06-06 13:32:09 · 250 阅读 · 1 评论 -
纹理表示&卷积神经网络
纹理表示&卷积神经网络纹理表示卷积神经网络1. 全连接神经网络的瓶颈2. 卷积神经网络3. 损失函数&优化算法:纹理表示规则纹理和随机纹理基于卷积核组的纹理表示方法:思路:利用卷积核组提取图像中的纹理基;利用基元的统计信息来表示图像中的纹理。卷积核组设计卷积核组利用卷积核组对图像进行卷积操作获得对应的特征响应图组。利用特征相应图的某种统计信息来表示图像中的纹理。纹理分类任务:忽略基元位置关注出现了哪种基元对应的纹理及基元出现的频率。总结:设计卷积核组;原创 2021-06-05 17:22:44 · 776 阅读 · 0 评论 -
卷积&图像去噪&边缘提取
卷机&图像去噪&边缘提取图像去噪与卷积高斯卷积核图像去噪与卷积图像去噪平均求和卷积核先对模板进行180度翻转,然后再进行卷积卷积的定义通过卷积将H转到R域卷积性质:边界填充:zero padding镜像填充卷积操作后的图像要小于输入时的图像,通过边界填充,我们可以实现卷积前后图像的尺寸不变;一种最常用的边界填充就是常数填充。单位脉冲卷积可以实现平移操作。平移、平滑、锐化高斯卷积核卷积的图像产生了一些水平和竖直方向的条状振铃!根据邻域像素与中原创 2021-06-04 15:21:22 · 3345 阅读 · 2 评论 -
全连接神经网络(下)
全连接神经网络(下)10. 欠拟合、过拟合与Dropout11. 模型正则与超参数调优10. 欠拟合、过拟合与Dropout过拟合现象:出现过拟合,得到的模型在训练集上的准确率很高,但在真实场景中识别率很低。过拟合:是指学习过程中选择的模型和包含的参数过多,以至于出现这一模型对已知数据预测的很好,但对位置数据预测很差的现象。这种情况下模型可能只是记住了训练集数据,而不是学习到了数据特征。欠拟合:模型描述能力太弱,以至于不能很好的学习到数据中的规律。产生欠拟合的原因通常是模型太简单。原创 2021-06-03 13:55:56 · 259 阅读 · 0 评论 -
图像分类任务介绍&线性分类器(上)
文章目录机器视觉(Computer Vision)一、图像分类数据驱动的图像分类方法二、线性分类器三、损失函数机器视觉(Computer Vision)一、图像分类图像分类任务: 计算机视觉中的核心任务,其目标是根据图像信息中所反映的不同特征,把不同类别的图像区分开来。图像分类:从已知的类别标签集合中为给定的输入图片选定一个类别的标签。跨越语义鸿沟,建立像素到语义的映射**常见问题:视角光照尺度遮挡形变背景杂波类内形变运动模糊类别繁多**数据驱动的图像分类方法.原创 2021-05-30 13:51:05 · 659 阅读 · 0 评论 -
线性分类器(下)
线性分类器(下)6. 正则项与超参数正则项超参数7. 什么是优化8. 梯度下降算法9. 数据集划分10. 数据预处理数据预处理-1数据预处理-2总结6. 正则项与超参数正则项数据损失:模型预测需要和训练集相匹配正则损失:防止模型在训练集上学习的太好。(过拟合)R(w)是一个与权值有关,跟图像数据无关的函数。超参数在开始学习过程之前设置值的参数,而不是学习得到的。。超参数一般都会对模型性能有着重要的影响。提示:这里可以添加本文要记录的大概内容:例如:随着人工智能的不断发展,机器学..原创 2021-05-31 14:11:32 · 163 阅读 · 0 评论 -
全连接神经网络分类器(上)
全连接神经网络分类器图像表示1. 多层感知器2. 激活函数小结3. SOFTMAX与交叉熵图像表示直接使用原始像素作为特征,展开为列向量一般分类器均使用此类表示1. 多层感知器线性分类器全连接神经网络:全连接神经网络级联多个变化来实现输入到输出的映射。两层全连接网络三层全连接网络全连接神经网络的权值全连接神经网络与线性不可分:线性可分:线性不可分:全连接神经网络绘制与命名N层全连接神经网络–除输入层之外的其他层的数量为N的网络。N个隐层的全连接神经网络—网络隐层的原创 2021-06-01 17:50:34 · 4860 阅读 · 0 评论 -
全连接神经网络(中)
全连接神经网络(中)6. 再看激活函数7. 动量法与自适应梯度6. 再看激活函数梯度消失梯度消失是神经网络训练中非常致命的一个问题。其本质是由于链式法则的乘法特性导致的梯度爆炸梯度爆炸是由于链式法则的乘法特性导致的断崖处梯度乘以学习率后会是一个非常大的值,从而‘飞‘出了合理区域,最终导致算法不收敛。解决方案:把沿梯度方向前进的步长限制在某个值内就可以避免’飞‘出了,这个方法也叫做梯度裁剪。尽量选择ReLU函数或者Leakly ReLU函数,相对于sigmoid/tanh,ReLU函数原创 2021-06-02 15:48:26 · 166 阅读 · 0 评论