ICCV 2023 | 即插即用!百度提出S3IM:用于NeRF提点的Magic Loss

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【NeRF和Transformer】交流群

作者:Summer Clover(源:知乎,已授权)

https://zhuanlan.zhihu.com/p/659429989

在CVer微信公众号后台回复:S3,可以下载本论文pdf和代码,学起来!

本文介绍一下我组在ICCV2023的论文“S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields”。

S3IM这个工作背后的想法实际上很简洁,从这个idea在脑海里形成到最后提交到ICCV2023不过2个月时间。

9a0260d3d71782127baf4ab124e76da6.png

S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields

论文:arxiv.org/abs/2308.07032

代码:github.com/Madaoer/S3IM-Neural-Fields

用一句话来总结这个工作就是——我们提出了一种即插即用的loss S3IM(随机结构相似性),可以近乎零成本地显著提升现存NeRF类方法的性能指标。在几个场景里,我们甚至可以把TensoRF和DVGO这些经典模型的Test MSE Loss下降99%,同时把NeuS的几何重建指标(比如Chamfer L1 Distance)改善超过60%。

这里我们先看几组RGB和几何重建的可视化结果。

a42792736f8a6f0baa0b668d0f4842c2.png c7e2846bec6d931e884acca6cb4773cb.png

不仅如此,还可以提高对图像噪音的鲁棒性。如下图所示,S3IM的渲染结果明显去掉了图像里灰蒙蒙的噪音。

45efeafc5123eb65facb79fcf08958ee.png

毫无疑问,S3IM极大地增强了现有的NeRF类方法。

S3IM的精髓在于以两个像素集合之间的相似性作为训练损失;像素集合一般包含数千个像素,这些像素一起贡献了互相关联的、全局的结构信息。

而NeRF传统的MSE是一种以两个独立像素之间的point-wise error作为训练损失;所以MSE只包含了像素点孤立的信息、完全没有远距离或者全局的信息。

上面这两段话就是S3IM的motivation。

为什么有结构信息更好?

这是一个很好的问题。

但我们先回答另一个相关的问题,为什么NeRF的性能指标要有3个——PSNR、SSIM和LPIPS?

PSNR就是像素之间point-wise的度量。很早大家就发现,PSNR好不代表真的就好。

SSIM(结构相似性)作为一种和人类视觉感知相关性更高的度量在2004年图像评估领域应运而生。

LPIPS则是一种通过预训练神经网络提取特征计算特征距离的指标(一般叫做感知指标)。

SSIM和LPIPS其实都具备衡量两个像素集合之间相似性的能力,而且与人类视觉感知相关性都比PSNR高。

熟悉NeRF的读者都知道,传统NeRF训练时是用MSE Loss。而PSNR和MSE其实就是一个简单的对数关系。

MSE和PSNR这类point-wise指标都是不够好的。一方面是和人类视觉感知相关性低,另一方面则是无法捕捉多个像素(像素集合)的整体信息。

那么SSIM和LPIPS可不可以直接作为NeRF的loss训练呢?

其实也可以,但仍然不够好。

因为SSIM和LPIPS都是基于卷积核的相似性度量,它们只能捕捉相近像素的局部信息,不能捕捉更远的像素包含的结构信息。

我们的ICCV工作就是把SSIM(Structural SIMilarity)这个经典图像质量评估指标升级,变为S3IM(Stochastic Structural SIMilarity)。

这个升级方式也很简单。SSIM只能在图像local patch用卷积核对吧。

那我们把NeRF训练时每个minibatch的像素随机拼接成一个patch(叫做stochastic patch),然后再用SSIM处理这些stochastic patch就行了。

有时候,真理就是这么朴实无华啊...

知名3D几何重建开源框架SDFStudio也已经把S3IM方法合并进去了。

最后再放一个量化的实验结果。表里Multiplex即是我们的S3IM方法。

dbd333a67127c3a2524954c2b52f1b4c.png

S3IM这个工作是我们Machine Learning for Fields系列工作的一环。我们在从机器学习的角度考虑场的问题。

无论是神经辐射场还是其他什么场,广义来说都是某个coordinate-wise的物理量。NeRF只是把辐射场的物理先验知识(空间中包含发光气体)嵌入了sampling的部分而已。这对3D场景表示不是完美的,但确实非常有用,也掀起了热潮。

对技术细节感兴趣的读者请直接读我们的论文和代码。

在CVer微信公众号后台回复:S3,可以下载本论文pdf和代码,学起来!

点击进入—>【NeRF和Transformer】交流群

ICCV / CVPR 2023论文和代码下载

 
 

后台回复:CVPR2023,即可下载CVPR 2023论文和代码开源的论文合集

后台回复:ICCV2023,即可下载ICCV 2023论文和代码开源的论文合集
NeRF和Transformer交流群成立
扫描下方二维码,或者添加微信:CVer444,即可添加CVer小助手微信,便可申请加入CVer-NeRF或者Transformer 微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF等。
一定要备注:研究方向+地点+学校/公司+昵称(如NeRF或者Transformer+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer444,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉,已汇集数千人!

▲扫码进星球
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值