PFNet - Pytorch实现

PFNet - Pytorch实现

前言

Rethinking Planar Homography Estimation Using Perspective Fields
Rui Zeng, Simon Denman, Sridha Sridharan, Clinton Fookes
这篇论文的Pytorch实现,代码地址 PFNet-pytorch. 喜欢的朋友给个⭐哦

论文理解

这篇论文的创新之处在于:

  1. 提出perspective field (PF)的概念用来进行单应性估计。之前的方法(DHN\UDHN)都是通过预测四个角的偏移量来计算单应性矩阵,但是四个点是不够鲁棒的,任意一点的扰动都可能造成整张图片估计的精确度的下降。本文通过预测每个像素的位移(PF)来提升鲁棒性。(其实这和光流很相似,只不过这里的光流是通过单应性矩阵计算出来的
  2. 提出了一个全卷积网络来完成PF的预测。
  3. 在预测完成后,通过RANSAC方法来滤除外点,计算出精确的单应性矩阵。

下面来看一下PFNet网络结构,网络结构很清晰,上半部分是编码器,下半部分是解码器。输入是两张堆叠的patch,编码器是ResNet50的前三模块,解码器对应编码器进行相应构造,使用反卷积来上采样,最后输出[H W 2]的PF。
在这里插入图片描述

代码使用说明

一. 准备合成数据集
下载COCO2014数据集
二、训练模型

python train.py --dataset=/path/to/COCO

三、测试模型
下载预训练模型(链接:https://pan.baidu.com/s/1nVo55NGG-iCXy__e08SokQ 提取码:enkv)并存放在根目录文件夹下

python evaluate.py --dataset=/path/to/COCO --model=./pfnet_0200.pth

运行结果:

MACE: 1.21
results
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
©️2022 CSDN 皮肤主题:游动-白 设计师:我叫白小胖 返回首页
评论 2

打赏作者

金渐层猫

你的鼓励将是我创作的最大动力

¥2 ¥4 ¥6 ¥10 ¥20
输入1-500的整数
余额支付 (余额:-- )
扫码支付
扫码支付:¥2
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、C币套餐、付费专栏及课程。

余额充值