SIREN:使用周期性激活函数的隐式神经表示(论文解释)

这篇论文提出了一种新的神经网络模型,名为SIRENs(Sine-Activated Neural Networks),用于表示图像、声音、点云等信号。与传统的深度学习模型不同,SIRENs 将信号表示为一个函数,该函数将信号的坐标映射到其值。

论文作者首先介绍了SIRENs 的基本概念,即利用正弦函数作为神经网络的非线性激活函数,并通过仔细地初始化网络参数,使其能够很好地捕捉信号。

作者接着从机器学习的角度解释了SIRENs 与传统神经网络之间的区别。传统的深度学习模型通常将数据表示为离散的点,而SIRENs 则将数据表示为连续的函数。这种连续表示方式使得SIRENs 能够更好地学习数据中的复杂结构和关系。

论文最后举例说明了SIRENs 在图像生成方面的应用。作者指出,SIRENs 可以生成连续的图像表示,这与传统的生成对抗网络(GAN)不同,GAN 通常生成离散的像素表示。

总而言之,这篇论文介绍了一种新的神经网络模型SIRENs,该模型可以用于表示各种信号,并具有比传统深度学习模型更强大的能力。

当神经网络被用来将信号表示为函数时,就会创建隐式神经表示。SIRENs 是一种特殊的 INR,可以应用于各种信号,例如图像、声音或 3D 形状。这与传统的机器学习方法大相径庭,迫使我换个角度思考问题。大纲:0:00 - 简介和概述2:15 - 隐式神经表示9:40 - 表示图像14:30 - SIRENs18:05 - 初始化20:15 - SIRENs 的导数23:05 - 泊松图像重建28:20 - 泊松图像编辑31:35 - 带有符号距离函数的形状45:55 - 论文网站48:55 - 其他应用50:45 - SIRENs 上的超网络54:30 - 更广泛的影响论文:https://arxiv.org/abs/2006.09661网站:https://vsitzmann.github.io/siren/
摘要:由神经网络参数化的隐式定义的、连续的、可微分的信号表示已经成为一种强大的范式,与传统的表示方法相比,它提供了许多潜在的优势。然而,当前用于这种隐式神经表示的网络架构无法对具有精细细节的信号进行建模,并且无法表示信号的空间和时间导数,尽管这些导数对于许多被隐式定义为偏微分方程解的物理信号至关重要。我们建议利用周期性激活函数来进行隐式神经表示,并证明这些网络,被称为正弦表示网络或 Sirens,非常适合表示复杂的自然信号及其导数。我们分析了 Siren 激活统计数据,以提出一种有原则的初始化方案,并展示了图像、波场、视频、声音及其导数的表示。此外,我们展示了如何利用 Sirens 来解决具有挑战性的边界值问题,例如特定的 Eikonal 方程(产生符号距离函数)、泊松方程以及亥姆霍兹方程和波动方程。最后,我们将 Sirens 与超网络相结合,以学习 Siren 函数空间上的先验。

  • 6
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

YannicKilcher

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值