自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(19)
  • 收藏
  • 关注

原创 小田学CV掉头发之路——目标检测算法之SSD

SSD(Single-shot detectors)SSD是一个没有全连接层的网络借鉴了VGG-16的网络模型将VGG-16的第一个和第二个全连接层替换为卷积层去掉了最后一个全连接层加上了4组卷积层(conv8,conv9,conv10,conv11)Conv4的输出特征图用于检测最小的物体Conv11的输出特征图用于检测最大的物体Single-shot V.S. R-CNN家族R-CNN家族基于候选区域做预测,预测分为两步:使用Selective Search 或者 RPN

2020-11-09 12:37:22 488 2

原创 小田学CV掉头发之路——目标检测算法之Faster R-CNN

Faster R-CNN继R-CNN,Fast R-CNN之后,标检测界的领军人物Ross Girshick团队在2015年的又一力作。简单网络目标检测速度达到17fps,在PASCAL VOC上准确率为59.9%;复杂网络达到5fps,准确率78.8%。作者在github上给出了基于python的源码。改进:去掉Selective Search,将候选区域的选择整合到深度学习网络模型中(Region Proposal Network: RPN和fast R-CNN结合)https://arxi

2020-11-08 14:45:33 300

原创 小田学CV掉头发之路——目标检测算法之Fast R-CNN

Fast R-CNN继2014年的R-CNN之后,Ross Girshick在15年推出Fast RCNN,构思精巧,流程更为紧凑,大幅提升了目标检测的速度。在Github上提供了源码。同样使用最大规模的网络,Fast RCNN和RCNN相比,训练时间从84小时减少为9.5小时,测试时间从47秒减少为0.32秒。在PASCAL VOC 2007上的准确率相差无几,约在66%-67%之间.改进:将R-CNN中下面3个独立模块整合在一起,减少计算量:CNN:提取图像特征SVM:目标分类识别Re

2020-11-05 20:42:56 293

原创 小田学CV掉头发之路——目标检测算法之R-CNN

随着AlexNet的出现,各种各样的卷积神经网络出现,如VGG、GoogleNet、ResNet 等等。这些网络的出现让一些大佬开始尝试,将卷积神经网络在ImageNet上的目标识别能力泛化到目标检测中,但想要在目标检测中起到比较好的效果,那就需要考虑两个问题:如何利用深度卷积神经网络去做目标定位如何在一个小规模的数据集上训练出泛化能力比较好的网络模型于是Ross Girshick借鉴HOG的思想,提出了可以利用候选区域与CNN结合做目标定位R-CNNgithub基于Caffe的源码Reg

2020-11-05 20:42:41 333 1

原创 小田学CV掉头发之路——目标检测小技巧 NMS和HNM

Non-Max suppression图像来源:http://lear.inrialpes.fr/~oneata/readinggroup/dpm.pdf我们可能会以不同的大小和长宽比的检测到同一目标,为了避免对同一目标的多次检测而使用Non-Max suppression按照检测到的目标的输出概率排序丢弃概率太低的预测位置重复:选中概率最大的预测位置,如果和另一个预测位置有重叠(例如,重叠率loU大于0.5),保留概率最大的窗口,丢弃另一个IoUHard Negativ

2020-11-05 20:42:18 256

原创 小田学CV掉头发之路——基于滑动窗口HOG(Histogram of Gradient)的目标检测

什么是目标检测给定一张图片可以识别出类别,就是对象类别,但目标检测除了要识别目标外还要找到他们在图像中的位置。显然,目标检测比对象识别更难。传统的机器视觉领域,通常采用特征描述子来应对目标识别任务,这些特征描述子最常见的就是 SIFT 和 HOG。基于滑动窗口HOG(Histogram of Gradient)的目标检测详细内容请看论文,因为这个算法用的不多,所以只做简单介绍http://lear.inrialpes.fr/people/triggs/pubs/Dalal-cvpr05.pdf

2020-11-05 20:42:07 433

原创 小田学CV掉头发之路——调参小技巧

bias/variancebias和variance平衡判断过/欠拟合的一般代码def train(model, image_datagen, x_train, y_train, x_validation, y_validation): # checkpoint filepath = "weights.best.hdf5" checkpoint = ModelCheckpoint(filepath, monitor='val_accuracy', verbose=0, s

2020-11-05 20:41:52 257

原创 小田学CV掉头发之路——经典CNN网络结构

文章目录经典CNN网络经典网络的改进点AlexNetZFNetVGGNetGoogleNet InceptionInception V3ResNet50MobileNetShuffleNetEffcientNet经典CNN网络AlexNetZFNetVGGGoogleNet InceptionInception V3ResNet50MobileNetShuffleNetEffcientNet经典网络的改进点名称改进点VGG161、使用非常多的3*3卷积串联,

2020-11-05 20:41:15 740 2

原创 小田学CV掉头发之路——CNN

CNN卷积神经网络启发想要识别的物体特征会出现在不同图像的不同区域卷积层卷积神经网络是包含卷积层的神经网络一个卷积层包含多个卷积核用于识别多个图像特征卷积层作用​ 卷积是一种局部操作,通过一定大小的卷积核作用于局部图像区域获得图像的局部信息。下面以三种边缘卷积核(也可成为滤波器)来说明卷积神经网络中卷积的作用​ 如图的三种滤波器分别为整体边缘滤波器,横向边缘滤波器和纵向边缘滤波器,试想,若原图像素(x,y)处可能存在物体边缘,则其四周(x-1,y),(x+1,y),(x,y

2020-11-05 20:40:37 133

原创 小田学CV掉头发之路——数字图像处理

图像处理读取和显示数字图像数字图像大小缩放数字图像直方图均衡图像去噪声图像边缘检测图像关键点检测读取和显示数字图像from matplotlib import image as mpingfrom matplotlib import pyplot as pltfrom PIL import Image,ImageOpsimport cv2import numpy as np#使用matplotlib读取图像img1 = mping.imread('cat.jpg')plt

2020-11-05 20:40:24 354

原创 小田学CV掉头发之路——边界检测

Canny边界检测Canny Detector是一种针对快速实时边缘检测而优化的多阶段算法。该算法的基本目标是检测亮度(大梯度)的急剧变化,例如从白色到黑色的转换,并在给定一组阈值的情况下将他们定义为边缘。Canny算法有四个主要阶段:降噪求梯度非最大抑制滞后阈值降噪求梯度非最大抑制滞后阈值霍夫变换检测图像中是否有特定几何形状物体Click to add title][外链图片转存中…(img-KjUHqPt0-1604412555517)

2020-11-05 20:40:03 120

原创 小田学编程小技巧之——GitHub上传项目到仓库

配置git for windowshttps://blog.csdn.net/Aaron_Miller/article/details/90269019主要操纵git clone adress(adress替换成你之前复制的地址)git status 查看上传信息git add . 添加目录下的文件到本地仓库git commit -m “提交信息” (注:“提交信息”里面换成你需要,如“first commit”)git push -u origin master (注:此操作目的是

2020-11-05 20:38:42 182

原创 cv练习:看图说话(Image Captioning)--2

第一部分通过对给定的VGG16网络模型进行裁剪,把图像数据当作VGG16模型输入预测图象特征,不保存为pkl文件,一般在整个模型训练的过程中,这个步骤不会另存为一个文件,会占用较大的硬盘内存,一般特征提取出来会直接放到模型中训练,这样分开做可以更好的理解模型训练的整个过程。图像特征提取完毕,那么接下来是文本特征提取神经网络的输入和输出一般是数字,因此我们需要把英文单词串转换为数字交给神经网络,简单来讲,我们可以把单词串变为一个字典,字典的key是单词,value是数字,我们可以根据训练数据集中图像名,

2020-09-09 17:07:47 901 1

原创 cv练习:看图说话(Image Captioning)--1

用CNN进行图像识别再用LSTM文字处理,再结合DNN实现看图说话涉及到的知识数字图像处理图像读取图像缩放图像数据维度变换自然语言处理文字清洗文字嵌入CNN(卷积神经网络)图像特征提取迁移学习LSTM(递归神经网络)文字串的特征提取DNN(深度神经网络)从图像特征和文字串的特征预测下一个单词目标自动生成英文标题,与人类生成的标题越相似越好。衡量两个句子的相似度(BLEU)。一个句子与其他几个句子的相似度(Corpus BLEU)BL.

2020-07-27 14:11:38 1196 4

原创 使用Keras创建一个鸢尾花分类识别神经网络

使用Keras创建一个鸢尾花分类识别神经网络刚入门,小练习适应一下,哈哈哈第一步使用pandas导入数据,前四列是特征,最后一列是类别,将类别使用LabelEncoder进行训练转换,再将转换后的结果变为onehot(独热编码)df = pd.read_csv('iris.csv')x = df.values[:, 0:4].astype(float)y = df.values[:, 4]encoder = LabelEncoder()y_encoded = encoder.fit_tran

2020-07-25 16:15:39 1368 10

原创 Gradient descent梯度下降优化算法

梯度下降优化算法梯度下降法变体批处理梯度下降随机梯度下降迷你批处理梯度下降批处理梯度下降梯度梯度下降优化算法批处理梯度下降代码实现for i in range(nb_epochs): sum_grad = 0 #应该是向量,梯度和 for x,y in data: #x是训练数据的输入(特征),y是标签 grad = gradient(loss_function, x, y, params) #params连接全连接层之间的

2020-07-25 16:15:18 265 1

原创 深度神经网络面临的问题

深度神经网络面临的挑战梯度消亡训练过程非常慢神经网络靠输入端的网络层的系数增加不再随着训练而变化,或者变化非常缓慢随着网络层数的增加,这个现象越发明显梯度消亡的前提使用基于梯度的训练方法(例如梯度下降法)使用的激活函数具有输出值范围大大小于输入值的范围,例如logistics(逻辑斯函数),tanh(双曲正切)问题分析梯度下降法依靠理解系数的微小变化对输出的影响来学习网络的系数的值如过一个系数的微小变化对网络的输出没有影响或者影响极小,那么就无法知晓如何优化这个系数,或者优化特

2020-07-25 16:14:56 1355

原创 如何证明Logisitic Regression的损失函数具有全局最优解?

如何证明Logisitic Regression的损失函数具有全局最优解?填坑,本人比较懒,所以用手写的方式呈现

2020-07-25 16:14:25 222

原创 Loss function 损失函数

损失函数model.compile(loss='mean_squared_error', optimizer='sgd', metrics=['mae', 'acc'])定义:在深度学习中,损失函数是用来衡量一组参数的质量的函数,衡量的方式是比较网络输出和真实输出的差异损失函数并不适用测试数据来衡量网络的性能。损失函数用来指导训练过程,使得网络的参数向损失降低的方向改变。训练过程通常使用。随机梯度下降法Stochastic gradient desceny试图找到一组参数使得损失函数的值越

2020-07-18 15:25:58 564 3

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除