ICCV 2023 | NeRF提点的Magic Loss,如何实现无痛涨点?

点击下方卡片,关注“自动驾驶之心”公众号

ADAS巨卷干货,即可获取

>>点击进入→自动驾驶之心【NeRF】技术交流群  

论文作者 | Zeke Xie

本文介绍一下我组在ICCV2023的论文“S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields”。

S3IM这个工作背后的想法实际上很简洁,从这个idea在脑海里形成到最后提交到ICCV2023不过2个月时间。

用一句话来总结这个工作就是——我们提出了一种即插即用的loss S3IM(随机结构相似性),可以近乎零成本地显著提升现存NeRF类方法的性能指标。在几个场景里,我们甚至可以把TensoRF和DVGO这些经典模型的Test MSE Loss下降99%,同时把NeuS的几何重建指标(比如Chamfer L1 Distance)改善超过60%。

这里我们先看几组RGB和几何重建的可视化结果。

a102844266349ee0638ad1434a1b4f75.png
00b69fe0d38c4f068bc33d279caa426a.png

不仅如此,还可以提高对图像噪音的鲁棒性。如下图所示,S3IM的渲染结果明显去掉了图像里灰蒙蒙的噪音。

da3990dfb433380bca5603e6a8d6c296.png

毫无疑问,S3IM极大地增强了现有的NeRF类方法。

S3IM的精髓在于以两个像素集合之间的相似性作为训练损失;像素集合一般包含数千个像素,这些像素一起贡献了互相关联的、全局的结构信息。

而NeRF传统的MSE是一种以两个独立像素之间的point-wise error作为训练损失;所以MSE只包含了像素点孤立的信息、完全没有远距离或者全局的信息。

上面这两段话就是S3IM的motivation。

为什么有结构信息更好?

这是一个很好的问题。

但我们先回答另一个相关的问题,为什么NeRF的性能指标要有3个——PSNR、SSIM和LPIPS?

PSNR就是像素之间point-wise的度量。很早大家就发现,PSNR好不代表真的就好。

SSIM(结构相似性)作为一种和人类视觉感知相关性更高的度量在2004年图像评估领域应运而生。

LPIPS则是一种通过预训练神经网络提取特征计算特征距离的指标(一般叫做感知指标)。

SSIM和LPIPS其实都具备衡量两个像素集合之间相似性的能力,而且与人类视觉感知相关性都比PSNR高。

熟悉NeRF的读者都知道,传统NeRF训练时是用MSE Loss。而PSNR和MSE其实就是一个简单的对数关系。

那么SSIM和LPIPS可不可以直接作为NeRF的loss训练呢?

其实也可以,但仍然不够好。

因为SSIM和LPIPS都是基于卷积核的相似性度量,它们只能捕捉相近像素的局部信息,不能捕捉更远的像素包含的结构信息。

我们的ICCV工作就是把SSIM(Structural SIMilarity)这个经典图像质量评估指标升级,变为S3IM(Stochastic Structural SIMilarity)。

这个升级方式也很简单。SSIM只能在图像local patch用卷积核对吧。

那我们把NeRF训练时每个minibatch的像素随机拼接成一个patch(叫做stochastic patch),然后再用SSIM处理这些stochastic patch就行了。

有时候,真理就是这么朴实无华啊...

知名3D几何重建开源框架SDFStudio也已经把S3IM方法合并进去了。

最后再放一个量化的实验结果。表里Multiplex即是我们的S3IM方法。

0a7fabfde2c2a597441344aa5e6c2581.png

S3IM这个工作是我们Machine Learning for Fields系列工作的一环。我们在从机器学习的角度考虑场的问题。

无论是神经辐射场还是其他什么场,广义来说都是某个coordinate-wise的物理量。NeRF只是把辐射场的物理先验知识(空间中包含发光气体)嵌入了sampling的部分而已。这对3D场景表示不是完美的,但确实非常有用,也掀起了热潮。

对技术细节感兴趣的读者请直接读我们的论文和代码。

论文:S3IM: Stochastic Structural SIMilarity and Its Unreasonable Effectiveness for Neural Fields

代码:https://github.com/Madaoer/S3IM

① 全网独家视频课程

BEV感知、毫米波雷达视觉融合多传感器标定多传感器融合多模态3D目标检测点云3D目标检测目标跟踪Occupancy、cuda与TensorRT模型部署协同感知语义分割、自动驾驶仿真、传感器部署、决策规划、轨迹预测等多个方向学习视频(扫码即可学习

dcb88466c89bd324872529d519d5d943.png 视频官网:www.zdjszx.com

② 国内首个自动驾驶学习社区

近2000人的交流社区,涉及30+自动驾驶技术栈学习路线,想要了解更多自动驾驶感知(2D检测、分割、2D/3D车道线、BEV感知、3D目标检测、Occupancy、多传感器融合、多传感器标定、目标跟踪、光流估计)、自动驾驶定位建图(SLAM、高精地图、局部在线地图)、自动驾驶规划控制/轨迹预测等领域技术方案、AI模型部署落地实战、行业动态、岗位发布,欢迎扫描下方二维码,加入自动驾驶之心知识星球,这是一个真正有干货的地方,与领域大佬交流入门、学习、工作、跳槽上的各类难题,日常分享论文+代码+视频,期待交流!

2178dea66f9624fbb162734e69735f40.png

③【自动驾驶之心】技术交流群

自动驾驶之心是首个自动驾驶开发者社区,聚焦目标检测、语义分割、全景分割、实例分割、关键点检测、车道线、目标跟踪、3D目标检测、BEV感知、多模态感知、Occupancy、多传感器融合、transformer、大模型、点云处理、端到端自动驾驶、SLAM、光流估计、深度估计、轨迹预测、高精地图、NeRF、规划控制、模型部署落地、自动驾驶仿真测试、产品经理、硬件配置、AI求职交流等方向。扫码添加汽车人助理微信邀请入群,备注:学校/公司+方向+昵称(快速入群方式)

6eff46e00a6faa4f0253da5755cee5b4.jpeg

④【自动驾驶之心】平台矩阵,欢迎联系我们!

506a06797518f76d3cd1496c5baa9bcb.jpeg

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值