单目测距
文章平均质量分 67
计算机视觉的一个方向,我的论文方向
非正经研究生
实际上是正经研究生,小镇青年,IT农民工,不偷井盖的老实人
展开
-
什么是相机标定
参考:https://blog.csdn.net/liulina603/article/details/52953414说说什么是相机标定一句话就是: 世界坐标到像素坐标的映射。当然这个世界坐标是我们人为去定义的,标定就是已知标定控制点的世界坐标和像素坐标我们去解算这个映射关系,一旦这个关系解算出来了我们就可以由点的像素坐标去反推它的世界坐标,当然有了这个世界坐标,我们就可以进行测量等其他后续操作了~上述标定又被称作隐参数标定,因为它没有单独求出相机的内部参数,如相机焦虑,相机畸变系数等~一般来说如原创 2021-11-18 09:42:46 · 1199 阅读 · 0 评论 -
相机外参有什么
外参确定了相机在某个三维空间中的位置和朝向1.外参数矩阵。告诉你现实世界点(世界坐标)是怎样经过旋转和平移,然后落到另一个现实世界点(摄像机坐标)上。所以是一定 包括 相机的俯仰角的参考:https://blog.csdn.net/liulina603/article/details/52953414同时也说说什么是相机标定一句话就是: 世界坐标到像素坐标的映射。当然这个世界坐标是我们人为去定义的,标定就是已知标定控制点的世界坐标和像素坐标我们去解算这个映射关系,一旦这个关系解算出来了我们就可原创 2021-11-18 09:39:52 · 2425 阅读 · 0 评论 -
图像处理,立体视觉,相机成像 的 四种坐标系
图像处理、立体视觉 里面 常说四个坐标系:世界坐标系、相机坐标系、图像坐标系、像素坐标系咱们倒着说:像素坐标系P0 作为原点, UV 所形成的,就是 像素坐标系图像坐标系还是用上图,里面 x y 的就是 图像坐标系,其原心就是 里面 的O1, 就是 (U0, V0)所指的那一点。图像坐标系,是人为规定的,用于测距时候,就会每个 像素有 长度单位,比如几米。像素坐标系与图像坐标系的转换关系相机坐标系图像(物理)坐标系和相机坐标系的转换关系:矩阵形式如下:世界坐标系我已经原创 2021-11-15 22:51:25 · 2477 阅读 · 0 评论 -
深度学习:技术分享:联合学习,几个任务一起端到端的搞,如何让它们互相帮助呢?LSU:侧向共享单元
看这篇论文look deeper into depth: monocular depth estimation with semantic booster and attention-driven loss的时候,碰到个用联合的老哥: jianbo jiao当时,第一遍 读文章 的概要的阅读笔记,请看 这里摘要,从前人的工作 overview 一下jianbo 联合 了 语义 和深度。其实有 一些 先前的工作,2018 年之前,就有人 用联合 和 表征学习;它们是16, 19, 20, 27原创 2021-10-13 15:04:21 · 1581 阅读 · 0 评论 -
视觉的科学
对于我们这些拥有视觉的家伙们来说,想当然就是把这个能力作为自然而然的。每一天,我们醒来的时刻,都是依靠着我们的视觉。但是,究竟我们的视觉系统是如何工作的呢?你有没有想过?我们怎么可能会能看见呢?我们生活在一个三维世界里,这个世界非常复杂,各种比例也非常多。我们生活的星球,可以有阳光的照射,阳光照耀着世界,然后光线从这个世界反射回来,照射到视网膜上,这是眼球后面的一小块组织。我们看到了一个非常微妙的丰富的三维世界,而这一切都来自那一小块光敏细胞。如此微弱的输入是如何产生如此大量的关于世界的信息的视觉是如何原创 2021-10-13 11:09:46 · 353 阅读 · 0 评论 -
读论文Look Deeper into Depth: Monocular Depth Estimation with Semantic Booster and Attention-Driven Los
关键词长尾:有很长的尾巴,这个意思;注意力驱动的损失函数;还是监督的有两个任务:深度预测和语义标注任务,可以相互促进SOTA 性能: state of the art ,牛逼的意思这篇文章针对的问题: 使用朴素损失均等对待所有区域的像素,这会造成小深度值的像素,对损失函数的影响占据主导地位,进而,使得模型无法有效预测远距离物体的深度协同网络中,用信息传播策略,以动态路由的形式,共享了标签信息给深度估计网络。联合表征共享:不同任务之间的表征共享LDA=1N∑i=1N(αD+λD)⋅l(di.原创 2021-10-11 18:08:44 · 767 阅读 · 2 评论 -
读论文 The Edge of Depth Explicit Constraints between Segmentation and Depth
The Edge of Depth: Explicit Constraints between Segmentation and Depth一句话总结明摆着用语义来约束深度估计相关工作10,12 自监督;需要事先知道两个相机的位置,把深度估计问题转化为 差异图 估计。10: Unsupervised cnn for single view depth estimation:Geometry to the rescue. In Proceedings of the EuropeanConf原创 2021-10-11 18:00:15 · 412 阅读 · 0 评论 -
读论文Deep Virtual Stereo Odometry: Leveraging Deep Depth Prediction for Monocular Direct Sparse Odomet
2018年的第一部分,前言这篇文章本身,我看作者,应该不是专心 搞 单目深度测距 MDE 的, 而是在做 VO :visual odemetry, 视觉测程;只是吧 mde 加入 到了他的 vo 任务里面,提出一个新的名词:DVSO: deep virtual stereo odemetry据他说,本文提出的 这个方法,相比 之前的 立体 vo 方法,那些 传统的,可以 克服 一些缺点,比如 scale drift第二部分,半监督的 MDE2.1 网络架构由两部分组成,第一个 叫做 sim原创 2021-10-11 17:22:21 · 437 阅读 · 0 评论 -
深度学习:alex net;简要笔记
上一篇 文章 (读论文 Unsupervised cnn for single view depth estimation Geometry to the rescue)说到 了 alex net,19: alexNet; Krizhevsky, A., Sutskever, I., Hinton, G.E.: Imagenet classification with deep con-volutional neural networks. In: Advances in Neural Informa原创 2021-10-11 10:57:14 · 386 阅读 · 3 评论 -
读论文 Unsupervised cnn for single view depth estimation Geometry to the rescue
它干了啥提出了一种方法,进行 单目深度估计,以后再也不用 大量 提前标注的数据了。因为, 算是 一种 自监督吧。采用了 autoencoder 方法,用两张图,用其中一张 ,预测 深度map, 然后用深度 和 已知的两个相机的位置,这些外部参数,就能算出来 另外一张图,算出来的这个 fake 的图,叫做 重建图。重建图 和 真实 的源图,之间的 差异,就可以通过 重建损失 进行表示。天天对原文的笔记第一部分:介绍说了之前的 训练手法:先在 image net 上进行训练,然后 微调,以适原创 2021-10-09 12:09:57 · 358 阅读 · 0 评论 -
tf.tile()的学习;monodepth源码阅读
tile() 平铺之意,用于在同一维度上的复制示范multiples参数维度与input维度应一致 ;; 来源比如上面 的 【3】, 【3,5】都各自对应自己 input 的 维度原创 2021-09-23 10:48:44 · 72 阅读 · 0 评论 -
tf.expand_dims()的学习;monodepth代码阅读
tf.expand_dims()函数用于给函数增加维度。示范:加一个维度给 t1 的 第一个维度 再 加上 1 维后续 实验函数原型tf.expand_dims( input, axis=None, name=None, dim=None)函数的功能是在给定一个input时,在axis轴处给input增加一个维度。参考这里...原创 2021-09-18 17:53:28 · 81 阅读 · 0 评论 -
monodepth的一些疑问
monodepth的一些疑问通道 和 kernel size 有什么关系呢?原创 2021-09-18 15:38:34 · 95 阅读 · 0 评论 -
slim.conv2d()的理解;monodepth 源码阅读
结论先行第二个参数: num_out_layers 是输出 多少 个 layer 的意思,也就是 你用 多少个 卷积核 (aka filter) 的意思。(备注: 一个 卷积核 / 过滤器 /filter 就是 对应一个 输出 的 layer)参考 here挺有用convolution(inputs, num_outputs, kernel_size, stride=1, padding='SAME', .原创 2021-09-18 15:01:36 · 523 阅读 · 0 评论 -
tf.pad() 的理解; monodepth 源码阅读
结论现行所以 最后看起来: x 是个 4 维度 的 tensor,我在 中间 的 两个 维度(2nd, 3rd 这两个维度) 进行 了 个数 为 p 的 paddings。参考 here她说: t = tf.constant([[1, 2, 3], [4, 5, 6]]) paddings = tf.constant([[1, 1,], [2, 2]]) # 'constant_values' is 0. # rank of 't' is 2. tf.pad(t, paddi.原创 2021-09-18 14:51:54 · 75 阅读 · 0 评论 -
monodepth2 的一些观看准备
meta-info:update@2021-09-18 14:18:10知乎;强大的自监督深度估计monodepth2;郑安坤;南京大学 理论物理硕士monodepth2 github在线看源码原创 2021-09-18 14:18:48 · 150 阅读 · 0 评论 -
Deep Ordinal Regression Network for Monocular Depth Estimation 单目深度估计,论文阅读,DORN;视频笔记
tags: 单目深度估计,论文阅读,DORN文章目录@[toc]我们提出一些方法来针对上述问题方法1: SID我们的模型包含什么特征提取模块全面的图片编码器场景理解模块ASPP有序回归 模块如何完成学习和推断学习阶段推断阶段DORN 的表现很好备注: 指标 解释原始论文是:Deep Ordinal Regression Network for Monocular Depth Estimation Deep Ordinal Regression Network for Monocular Depth E原创 2021-09-03 15:24:20 · 824 阅读 · 0 评论 -
立体 3d 视觉; computerphile 视频笔记
立体 3d 视觉 (如何避免成为狼的晚餐) computerphilesrcYoutbueVid故事 是这样的:我的一个朋友,去了墨西哥 做某种 野生作物 的审查,他使用 laser scanner 在一个 帐篷里面进行扫描;但是一个问题是,到了白天,激光雷达就不好用了,因为阳光对 它有影响??,但是 他也可 使用 相机,但这个时候就遇到 stereo matching 的 问题总之,雷达 和 相机,都有利弊。所以,今天 的建议是: 使用 立体 的相机,你可不被 狼吃掉。正文开始单原创 2021-09-02 10:47:38 · 69 阅读 · 0 评论 -
深度学习:无监督深度测距:《Unsupervised Monocular Depth Estimation With Left-Right Consistency》论文笔记,视频笔记monodepth
2017 年的 CVPRfrom youtubeLink是啥东西然后我们的工作能: 给出 一个 深度 图like this:为啥 depth 有用导航,机器人拿东西,虚拟现实,桌子有多远,多大为啥用 monocular:单目相机?贫穷和普适monocular 能行吗?既然 探测器 和 海盗头子 都能 ,我们也能以前的方法ground truth 值很难获得kitti 数据集 本身 也有误差或者说 遗漏: 见图片:那咱么 可以用 双目 立体 几何 的手段原创 2021-09-01 17:54:22 · 1911 阅读 · 1 评论