计算机视觉
文章平均质量分 85
计算机视觉
snoopy_21
这个作者很懒,什么都没留下…
展开
-
【随记】g2o使用,解决2d路径回环误差为例
在slam中经常使用g2o来解决优化问题,例如BA和位姿图优化。由于网上教程需要的知识储备较多,大多数和slam问题相关,本文不涉及复杂公式,本文只是通过一个简单任务直观了解g2o在做什么的文章。好了,上图表示从0点出发经过1,2,3点,估计世界坐标分别为X0=(0,0)X_0 = (0,0)X0=(0,0),X1=(1,1)X_1 = (1,1)X1=(1,1),X2=(2,0)X_2 = (2,0)X2=(2,0),X3=(1,−1)X_3 = (1,-1)X3=(1,−1),再回到X0X_.原创 2021-04-03 15:05:50 · 948 阅读 · 0 评论 -
多视图几何:相机内外参数
世界坐标系(word):Xw,Yw,ZwX_w, Y_w, Z_wXw,Yw,Zw摄像机坐标系(camera):Xc,Yc,ZcX_c, Y_c, Z_cXc,Yc,Zc图像坐标系(image):x,yx, yx,y像素坐标系(pixel):u,vu, vu,v光轴(optical axis):ZcZ_cZc为相机的光轴——通过投影中心并且垂直于像平面的直线主点(principal point):光轴与像平面的交点被称为像主点word to camera设某点在world中的坐.原创 2021-01-12 23:45:49 · 404 阅读 · 0 评论 -
论文笔记:AtlantaNet(ECCV 2020)
本文方法基于Atlanta假设,其只要求墙垂直于地面。布局预测和房间高度估计都是基于天花板和地板的2个透视图。预测布局使用RNN,并且利用一个基于专家知识的自定义训练策略。本文重点是支持复杂布局,墙角很多甚至是曲面墙角。Introduction以往方法:LayoutNet、DulaNet、HorizonNet,需要Manhattan假设进行费时的预处理和后处理。Atlanta假设不需要墙与墙互相垂直。布局预测和房间高度估计都是基于天花板和地板的2个透视图。预测布局使用RNN,并且利用一个基于专家.原创 2020-12-27 00:59:13 · 440 阅读 · 2 评论 -
论文笔记:Revisiting Single Image Depth Estimation: Toward Higher Resolution Maps with ...(WACV2019)
以往方法往往深度预测损失了分辨率或者在边界存在扭曲和模糊问题。本文提出2个改进:1. 不同尺度下提取特征的策略 2. 使用3个损失,分别是深度、梯度、法向量c:当前最好模型,存在物体形状扭曲、小物体缺失、马赛克Introduction早期:比如Eigen提出的,直接cnn预测,分辨率很低目前:上投影(up-projection)上采样方法CRF结合CNN,端到端学习联合多任务学习近期:扩张卷积(dilated convolution)本文模型结构:4个模块:E:encoder和.原创 2020-12-20 23:57:02 · 1878 阅读 · 10 评论 -
论文笔记:Joint 3D Layout and Depth Prediction from a Single Indoor Panorama Image(ECCV 2020)
本文利用布局深度图(layout depth map)将深度估计和布局预测相结合。在2个任务上都取得了进步。Introduction布局预测:利用边、角、2D的透视图(比如天花板视图),或者假设房间布局时矩形,或者假设Manhattan布局。深度估计:利用法线、平面???、语义线索。但是,上面方法只考虑了几何假设,而忽略了布局和深度信息的互补特征。本文利用中间层:layout depth map(只包含墙、天花板、地板),移除了房间内物体,上图c。互补性:对于布局预测,深度信息的使用减少杂.原创 2020-12-16 22:34:18 · 588 阅读 · 1 评论 -
论文笔记:SphereNet(ECCV 2018)
SphereNet是适应全景图的卷积方式(学习框架),他通过扭曲卷积核元素的位置来抵消全景图的扭曲。SphereNet可以将透视图训练得到到的模型迁移在全景图上。 核心思想和EquiConvs类似。改进采样方式,使用球面平均采样避免在全景图上靠近极点的地方过采样。Introduction为什么要提出SphereNet?全景图正常是投影在球面的,此时不会扭曲。当时显示设备是2D,所以要把一个球面图像投影2D平面就需要做等距投影(equirectangular projection),此时这个图像称.原创 2020-12-09 23:29:59 · 1497 阅读 · 4 评论 -
论文笔记:Corners for layout: End-to-end layout recovery from 360 images(CFL EquiConvs)(RAL 2020)
本文方法侧重2点改进:1.以往方法依赖假设,比如房间限制是个box或者是manhattan布局,通用性被限制2.实时性,以往方法可能无法满足机器人导航和AR/VR需求使用EquiConvs(本文重点),一种直接应用在球面投影图像上以解决扭曲问题项目地址INTRODUCTION布局估计应用场景:AR/VR、机器人导航、房地产。Manhattan假设或者布局简化box-shaped layouts,不能很好拟合丰富的室内布局。传统相机视野受限,所以要使用FOV=360的全局相机,但是全景图.原创 2020-12-06 14:32:07 · 727 阅读 · 5 评论 -
论文笔记 :Geometric Reasoning for Single Image Structure Recovery David(Orientation Map算法)(CVPR 2009)
恢复室内布局,传统方法主要分为3个步骤:线段检测和估计消失点、生成布局假设、对假设进行打分,方向图可以作为布局打分重要部分。墙角分为3类:凸角convex(+)corners.凹角concave(-)corners.遮挡角occluding(>)corners.所有房间布局可由这3种基本类别进行组合。进一步根据消失点划分3个区域(视角不同),每个区域只有凸角、凹角、遮挡角1、遮挡角2,这4种类型的墙角所以在进行线段检测和消失点估计后,先寻找一对平行线段(在3D空间,在透视图中是交于同原创 2020-12-05 15:39:26 · 420 阅读 · 0 评论 -
论文笔记:GEOMETRIC CONTEXT AND ORIENTATION MAP COMBINATION FOR INDOOR CORRIDOR MODELING USING A SINGLE I
GEOMETRIC CONTEXT AND ORIENTATION MAP COMBINATION FOR INDOOR CORRIDOR MODELING USING A SINGLE IMAGE(International Archives of the Photogrammetry, Remote Sensing & Spatial Information Sciences 2016)传统方法恢复房间布局,本文侧重对走廊图片进行布局恢复,主要分以下步骤:消失点估计,基于消失点的布局生成,布原创 2020-12-02 23:26:12 · 314 阅读 · 0 评论 -
【温故知新】Least Squares、Ransac、Gradient Descent、PCA 拟合直线(附c++代码)
Least Squares对于2维数据点,待求参数为(k,b)(k,b)(k,b)。即求直线y=kx+by=kx+by=kx+b拟合数据点(x1,y1)......(xi,yi)\left(x_{1}, y_{1}\right) .... . .\left(x_{i}, y_{i}\right)(x1,y1)......(xi,yi),截距式不能表示竖直直线。最小二乘法,又称最小平方法。它通过最小化误差的平方和寻找数据的最佳函数匹配求点到直线的误差平方和:f=∑i=1n(yi−k∗xi原创 2020-12-02 00:13:39 · 1021 阅读 · 0 评论 -
数字图像处理:霍夫变换(Hough Transform)
直线检测图像空间的直线可以在霍夫空间中表示为一个点,同样的,图像空间的点可以在霍夫空间表示为一条直线。而图像空间多个点在霍夫空间就表示为多条直线。观察上图发现,如果在图像空间中的点共线,那么在霍夫空间中对应的直线将相交,交点即为图像空间中直线的斜率kkk和截距qqq。当在图像空间中存在多个直线时,那么在霍夫空间就会有多个交点。采用投票方法计算交点得票(处理误差可使用NMS),当得票大于给定阈值,则认为在图像空间中检测到直线。但是使用斜距式表示直线存在缺点:当直线存在xxx轴时,斜率∞\i原创 2020-11-29 00:09:28 · 2520 阅读 · 0 评论 -
论文笔记:DuLa-Net(CVPR 2019)
DuLa-Net: A Dual-Projection Network for Estimating Room Layouts from a Single RGB Panorama (CVPR 2019)pdf下载 项目地址使用等距全景图和透视天花板图,各自一个encode-decoder分支,提出新颖的2分支特征融合方法。对于多角度复杂布局的房间效果较好。主要贡献提出在2个视图上进行2分支端到端学习,最后2分支进行特征融合。NN直接输出二维平面图的概率图。后处理比较少。引入Realt原创 2020-12-09 23:44:19 · 827 阅读 · 1 评论 -
论文笔记:IndoorNet(2020)
IndoorNet: Generating Indoor Layouts from a Single Panorama Image(2020)pdf下载本文以全景图和曼哈顿线共同作为输入,构建一个端到端的模型。输出2个预测,分别是墙角和上下墙线。Related Work从图片恢复布局有以下区分:图片数量透视或全景图房间形状(4个墙角的矩形、多余4个墙角的复杂形状)几何学的使用最近开始使用FCNN取代传统使用几何方法。RoomNet首次实现透视图恢复房间结构功能。PanoCon原创 2020-12-09 23:42:36 · 342 阅读 · 0 评论 -
论文笔记:LayoutNet(CVPR 2018)
LayoutNet: Reconstructing the 3D Room Layout From a Single RGB Image(CVPR 2018)pdf下载 项目地址(原) 项目地址(pytorch)LayoutNet是直接在全景图上预测房间布局具有代表性的模型,模型结构和RoomNet类似,但是基于消失点对齐改进了准确度。将结构和Manhattan布局对齐。LayoutNet能够预测盒形布局和更普通的布局(比如L形)Contributions提出通用的从RGB图像恢复Manha原创 2020-12-09 23:43:55 · 1354 阅读 · 0 评论 -
论文笔记:PanoContext(ECCV 2014)
PanoContext: A Whole-room 3D Context Model for Panoramic Scene Understanding(ECCV 2014)pdf下载 项目地址PanoContext构建了一个模型,输入是全景图,输出是房间的3D bbox,此外它还能输出房间内主要物体的3D bbox,以及它们的语义类别。FOV=360的全景图的上下文特征信息(主要是位置信息)对于物体检测其效果不逊于物体的外观特征信息。然而正常相机拍摄图片FOV<60,导致上下文信息不足。另外,原创 2020-11-17 22:40:02 · 756 阅读 · 0 评论 -
论文笔记:Fast R-CNN
一、基本信息标题:Fast R-CNN时间:2015论文领域:物体检测引用格式:Girshick, Ross. “Fast r-cnn.” Proceedings of the IEEE international conference on computer vision. 2015.二、研究背景三、创新点四、实验结果五、结论与思考作者结论总结思考参考...原创 2020-08-07 00:14:23 · 819 阅读 · 0 评论 -
论文笔记:Rich feature hierarchies for accurate object detection and semantic segmentation(R-CNN)
一、基本信息标题:Rich feature hierarchies for accurate object detection and semantic segmentation时间:2014领域:物体识别引用格式:Girshick R, Donahue J, Darrell T, et al. Rich feature hierarchies for accurate object detection and semantic segmentation[C]//Proceedings of the原创 2020-07-12 19:44:20 · 2408 阅读 · 0 评论 -
论文笔记:动作识别概要
对该问题的理解动作识别一般指从2D序列帧组成的视频中分辨不同动作,并且动作有可能只在一定区间出现。但是动作识别存在以下问题:1、需要巨大的计算耗时:如过时间域信息不可避免就需要多帧运算,其参数比单帧图像分类问题将会多出几倍。2、需要考虑上下文:例如图像模型很容易识别人和泳池,但无法识别该人动作是自由泳还是蛙泳。3、设计网络结构:设计一个能够获取时空信息的网络是非常重要的,而且结构的验证也是非常耗时的。4、没有一个标准的基准: 目前基准数据一直是UCF101和Sports1M,Sports1M数据在原创 2020-07-12 11:33:54 · 1264 阅读 · 0 评论 -
论文笔记(动作识别1):Convolutional Two-Stream Network Fusion for Video Action Recognition
一、基本信息标题:Convolutional Two-Stream Network Fusion for Video Action Recognition时间:2016引用格式:Feichtenhofer C, Pinz A, Zisserman A. Convolutional two-stream network fusion for video action recognition[C]//Proceedings of the IEEE conference on computer vision原创 2020-07-03 00:07:04 · 694 阅读 · 0 评论 -
论文复现:Unsupervised Learning of Depth and Ego-Motion from Video(SfMLearner)
期末作业最后一天,实验总算有点进展,记录下配置过程环境项目地址:https://github.com/tinghuiz/SfMLearnerGPU:GTX 950M系统: Win 10python:3.5建议使用conda 创建虚拟环境tensorflow-gpu:1.2.1pip install tensorflow-gpu==1.2.1 -i https://mirrors.aliyun.com/pypi/simple/项目主页标的1.0,直接安装1.0会报错:ValueError:原创 2020-06-27 10:52:01 · 1321 阅读 · 4 评论 -
论文笔记:Unsupervised Learning of Depth and Ego-Motion from Video(无监督深度预测系列4:PoseCNN方法)
一、基本信息标题:Unsupervised Learning of Depth and Ego-Motion from Video时间:2017论文领域:深度预测、深度学习引用格式:Zhou T, Brown M, Snavely N, et al. Unsupervised learning of depth and ego-motion from video[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern原创 2020-06-25 12:29:18 · 1466 阅读 · 0 评论 -
论文笔记:Semi-Supervised Deep Learning for Monocular Depth Map Prediction(无监督深度预测系列3:半监督方法)
一、基本信息标题:Semi-Supervised Deep Learning for Monocular Depth Map Prediction时间:2017引用格式:Kuznietsov Y, Stuckler J, Leibe B. Semi-supervised deep learning for monocular depth map prediction[C]//Proceedings of the IEEE conference on computer vision and patter原创 2020-06-24 23:35:46 · 975 阅读 · 0 评论 -
论文笔记:UnsupervisedMonocular Depth Estimation with Left-Right Consistency(无监督深度预测系列2: Left-Right 方法)
一、基本信息标题:UnsupervisedMonocular Depth Estimation with Left-Right Consistency时间:2017论文领域:深度预测、深度学习引用格式:Godard C, Mac Aodha O, Brostow G J. Unsupervised monocular depth estimation with left-right consistency[C]//Proceedings of the IEEE Conference on Compu原创 2020-06-24 00:37:47 · 807 阅读 · 0 评论 -
论文笔记:Fully-Convolutional Siamese Networks
一、基本信息标题:Fully-Convolutional Siamese Networks for Object Tracking时间:2016论文领域:目标跟踪、深度学习引用格式:Bertinetto L, Valmadre J, Henriques J F, et al. Fully-convolutional siamese networks for object tracking[C]//European conference on computer vision. Springer, Ch原创 2020-06-22 23:47:12 · 656 阅读 · 0 评论 -
论文笔记:FCOS: Fully Convolutional One-Stage Object Detection
一、基本信息标题:FCOS: Fully Convolutional One-Stage Object Detection时间:2019论文领域:目标检测、深度学习引用格式:Tian Z, Shen C, Chen H, et al. Fcos: Fully convolutional one-stage object detection[C]//Proceedings of the IEEE International Conference on Computer Vision. 2019: 96原创 2020-06-20 00:16:10 · 375 阅读 · 0 评论 -
论文笔记:Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue(无监督深度预测系列1:naive方法)
一、基本信息标题:Unsupervised CNN for Single View Depth Estimation: Geometry to the Rescue时间:2016论文领域:深度预测、深度学习引用格式:Garg R, BG V K, Carneiro G, et al. Unsupervised cnn for single view depth estimation: Geometry to the rescue[C]//European Conference on Computer原创 2020-06-18 22:25:00 · 1012 阅读 · 0 评论 -
论文笔记:Digging into self-supervised monocular depth estimation
一、基本信息标题:Digging into self-supervised monocular depth estimation时间:2019出版源:ICCV论文领域:深度学习、深度预测、三维重建引用格式:Godard C, Mac Aodha O, Firman M, et al. Digging into self-supervised monocular depth estimation[C]//Proceedings of the IEEE International Conference原创 2020-06-13 00:43:25 · 2290 阅读 · 0 评论 -
论文笔记:Deeper Depth Prediction with Fully Convolutional Residual Networks
一、基本信息标题:Deeper Depth Prediction with Fully Convolutional Residual Networks时间:2016引用格式:Laina I, Rupprecht C, Belagiannis V, et al. Deeper depth prediction with fully convolutional residual networks[C]//2016 Fourth international conference on 3D vision (原创 2020-06-10 23:08:25 · 682 阅读 · 0 评论 -
论文笔记:Deep Residual Learning for Image Recognition(ResNet)
一、基本信息标题:Deep Residual Learning for Image Recognition时间:2015第一作者:Kaiming He论文领域:深度学习、计算机视觉、CNN引用格式:He K, Zhang X, Ren S, et al. Deep residual learning for image recognition[C]//Proceedings of the IEEE conference on computer vision and pattern recognit原创 2020-06-09 00:28:57 · 4170 阅读 · 1 评论 -
论文笔记:Going deeper with convolutions(GoogLeNet)
一、基本信息标题:Going deeper with convolutions时间:2014出版源:IEEE论文领域:深度学习,CNN引用格式:Szegedy C, Liu W, Jia Y, et al. Going deeper with convolutions[C]//Proceedings of the IEEE conference on computer vision and pattern recognition. 2015: 1-9.二、研究背景随着移动设备和嵌入式发展,算法原创 2020-06-07 16:15:41 · 3074 阅读 · 0 评论 -
论文笔记:Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale Convolutional
一、基本信息标题:Predicting Depth, Surface Normals and Semantic Labels with a Common Multi-Scale Convolutional Architecture时间:2015出版源:IEEE论文领域:单目深度估计、深度学习、语义分割、CNN引用格式:Eigen D, Fergus R. Predicting depth, surface normals and semantic labels with a common mult原创 2020-06-06 01:07:32 · 860 阅读 · 0 评论 -
论文笔记:Very deep convolutional networks for large-scale image recognition(VGG)
一、基本信息标题:Very deep convolutional networks for large-scale image recognition时间:2014出版源:arXiv论文领域:CNN、深度学习引用格式:Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.二、研究背景在原创 2020-06-05 22:20:49 · 2062 阅读 · 0 评论 -
论文笔记:ImageNet Classification with Deep Convolutional Neural Networks(AlexNet)
一、基本信息标题:ImageNet Classification with Deep Convolutional Neural Networks时间:2012出版源:Neural Information Processing Systems (NIPS)论文领域:深度学习,计算机视觉引用格式:Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C原创 2020-05-31 21:45:52 · 9550 阅读 · 2 评论 -
论文笔记:SIFT Meets CNN: A Decade Survey of Instance Retrieval
一、基本信息标题:SIFT Meets CNN:A Decade Survey of Instance Retrieval时间:2017出版源:论文领域:引用格式:链接:二、研究背景三、创新点四、实验结果五、结论与思考作者结论总结思考参考...原创 2020-05-28 00:01:53 · 1596 阅读 · 0 评论 -
论文笔记:Distinctive Image Features from Scale-Invariant Keypoints
一、基本信息标题:Distinctive Image Features from Scale-Invariant Keypoints时间:2004出版源:International Journal of Computer Vision论文领域:计算机视觉.特征提取引用格式:Lowe, D.G. Distinctive Image Features from Scale-Invariant Keypoints. International Journal of Computer Vision 60,原创 2020-05-28 00:01:30 · 2581 阅读 · 0 评论