PFNet - Pytorch实现

PFNet - Pytorch实现

前言

Rethinking Planar Homography Estimation Using Perspective Fields
Rui Zeng, Simon Denman, Sridha Sridharan, Clinton Fookes
这篇论文的Pytorch实现,代码地址 PFNet-pytorch. 喜欢的朋友给个⭐哦

论文理解

这篇论文的创新之处在于:

  1. 提出perspective field (PF)的概念用来进行单应性估计。之前的方法(DHN\UDHN)都是通过预测四个角的偏移量来计算单应性矩阵,但是四个点是不够鲁棒的,任意一点的扰动都可能造成整张图片估计的精确度的下降。本文通过预测每个像素的位移(PF)来提升鲁棒性。(其实这和光流很相似,只不过这里的光流是通过单应性矩阵计算出来的
  2. 提出了一个全卷积网络来完成PF的预测。
  3. 在预测完成后,通过RANSAC方法来滤除外点,计算出精确的单应性矩阵。

下面来看一下PFNet网络结构,网络结构很清晰,上半部分是编码器,下半部分是解码器。输入是两张堆叠的patch,编码器是ResNet50的前三模块,解码器对应编码器进行相应构造,使用反卷积来上采样,最后输出[H W 2]的PF。
在这里插入图片描述

代码使用说明

一. 准备合成数据集
下载COCO2014数据集
二、训练模型

python train.py --dataset=/path/to/COCO

三、测试模型
下载预训练模型(链接:https://pan.baidu.com/s/1nVo55NGG-iCXy__e08SokQ 提取码:enkv)并存放在根目录文件夹下

python evaluate.py --dataset=/path/to/COCO --model=./pfnet_0200.pth

运行结果:

MACE: 1.21
results
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值