自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 目标检测中的Anchor

优点这种算法对于不同横纵比的object的检测都有效,这是因为算法对于每个feature map cell都使用多种横纵比的default boxes,这也是本文算法的核心。另外本文的default box做法是很类似Faster RCNN中的anchor的做法的。最后本文也强调了增加数据集的作用,包括随机裁剪,旋转,对比度调整等等。不足文中作者提到该算法对于小的object的detecti...

2019-03-27 20:36:36 1617

翻译 感受野计算

感受野The receptive field is defined as the region in the input space that a particular CNN’s feature is looking at (i.e. be affected by)感受野被定义为,CNN的某个特征查看输入空间中的区域(即受影响的区域)感受野计算(1) nout=⌊nin+2p−k2...

2019-03-25 17:38:37 430 1

原创 目标检测中的一些名词

anchor box第一次出现在 faster R-CNN的论文里,用来解决多尺度问题,以往解决多尺度问题的方法有两种,一是图像金字塔,二是卷积核金字塔,(特征金字塔 FPN feature pyramid network),这两种方式都会引入大量的计算。anchors 机制,引入不同尺寸、不同高宽比的 anchors, 较好地解决了多尺度问题候选框到 feature map 的转换非极...

2019-03-21 22:01:34 1076 1

原创 Learning to Navigate for Fine-grained Classification

创新点整个方法建立在有区分性的局部对更好地特征化目标是有用的,融合有区分性局部信息和整幅图像的信息会得到更好的分类结果,这个假设合情合理。传统的定位有区分性局部的方法,缺少一种能保证模型集中在正确区域的机制直观上,有较高概率是真实类别的局部区域,应该包含更多的对象特征语义,用一个loss函数来保证,分类概率和选择的局部区域有着相同的顺序,来实现上述的保证机制将 FPN引入到细粒度分类问题...

2019-03-18 20:59:46 699 2

原创 vim常用操作备用

复制:单行复制:命名模式下,将光标移动到要复制的行处,按 yy 进行复制多行复制:命令模式下,将光标移动到要复制的首行处,按 nyy 复制n行,n为1、2…粘贴:命令模式下,将光标移动到要粘贴的行处, 按 p 进行粘贴删除也是剪切删除当前行:命令模式下dd, cc删除当前行后进入插入模式删除光标之后剩余的部分:d$删除光标之后剩余的单词:dw删除当前光标下的字符:...

2019-03-12 17:13:30 193

原创 python常用操作备用

对列表中的每个元素执行相同的操作 li = [1, 2, 3] li2 = [] for i in li: li2.append(i+1) print('li2= ', li2) def f(x): return x+2 li3 = list(map(f, li)) print('li3= ',li3) ...

2019-03-12 17:07:11 104

翻译 场景文字识别综述

场景文字检测和识别的关键技术网络架构全卷积网络 FCNFully convolutional network FCN 全卷积网络,没有全连接层的网络FCN可以生成用于有效语义分割的特征层次结构由于多尺寸学习和预测的优点,符合场景文字的本质,许多文字识别方法把FCN作为它们的骨干(backbone)网络。一般来说,首先,使用 FCN 得到像素级文本/非文本 salient map(突...

2019-03-10 21:16:45 3775 2

转载 Yolo

yolo 思想什么是目标检测找出图片中物体的bounding box(边界框),并判定框内物体的类别。边界框可以用左上角坐标(x,y)和矩形的宽高(w,h)来表示。目标检测如何做?一个很自然的想法是,把图片喂给深度模型,让网络吐出 bounding box的 xywh四个值以及边框中物体的类别就好了。这么做貌似可行,但如果,图片中不止一个物体,我们想把它们都框出来,但是我们不知道图片中...

2019-03-10 15:05:20 355

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除