论文理解:“Multi-output physics-informed neural networks for forward andinverse PDE problems with uncer“

译:多输出物理信息神经网络用于不确定正、反偏微分方程问题

from:Comput. Methods Appl. Mech. Engrg. - - 2022


目录

一、引言

二、MO-PINN

三、数值实验

3.1、正问题——2维非线性Allen–Cahn方程

3.2、逆问题——二维非线性扩散-反应体系


一、引言

        与传统的深度学习应用不同,深度学习需要大数据集来训练模型,物理信息神经网络(PINN)已经被开发出来,将物理平衡定律嵌入到损失函数中,这样就需要更少的数据来实现准确的测量模型。此外,研究人员一直在尝试扩展PINN的功能,以便它们可以在有噪声测量的场景中用于不确定量化本文作者一种新的PINN结构——多输出物理信息神经网络(MO-PINN),表明神经网络的输出能够反映噪声数据的分布,同时对未知参数作出合理的预测。

二、MO-PINN

        MO-PINN是PINN的直接扩展,但在输出层使用多个神经元,因此任何关于不确定性的知识都可以施加到由输出在每个点形成的分布上。图1显示了MO-PINN的示意图:

因此,可以使用同一点的输出集合来计算统计性质P(u_{NN}),并在损失函数中加入关于数据不确定性的任何先验知识或假设。更具体地说,P(u_{NN})可以是u_{NN}^1, u_{NN}^2, ... , u_{NN}^M的离散值形成的分布。

        这里考虑一个由偏微分方程和约束控制的一般逆问题:

其中u_mf_m是可用的带噪声的训练数据。这个反问题的目标是获得关于PDE、约束和数据的u和f分布的预测。作者采用两个神经网络u_{NN}f_{NN}分别表示方程中的u和f,两个网络的结构都是图1那种。

        测量误差从各自的误差分布\sigma_u\sigma_f中随机抽取,然后直接分配到神经网络u_{NN}f_{NN}的输出,整体损失函数可以写成:

其中M是两个神经网络的输出神经元个数,另外各项表示如下

两个经过训练的网络将在域内的每个点返回u和f的M个值,这样就可以进一步计算整个域内预测分布的均值和标准差。

三、数值实验

3.1、正问题——2维非线性Allen–Cahn方程

方程可以写成

其中λ是0.01,精确解为u = sin(\pi x) sin(\pi y),相应的精确f也可以由上式算出。

现在假设u和f的函数形式未知,还假设u和f的测量都是有噪声的,误差遵循一个给定的分布。在这个例子中,作者研究了误差遵循不同标准差的高斯分布的两种情况:

然后训练数据为:

图11显示了问题的精确解u、源函数f和它们各自的测量值:

对于两种情况(小噪声和大噪声),u和f使用相同的神经网络结构,即3个隐藏层,每个隐藏层有200个神经元,输出层有2000个神经元。

Allen-Cahn问题的二维正解结果如图12和图13所示:

3.2、逆问题——二维非线性扩散-反应体系

        对于二维反问题,本文考虑以下偏微分方程:

 其中λ=0.01,k是未知的,精确解为u = sin(\pi x) sin(\pi y),k的精确值为1,本例的目的是估计k。假设在域中有100个u和f的噪声测量,以及25个u在边界上的等距的可用数据,添加噪声的两种情况和上例一样。

采样数据及真解如下:

结果如下:

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值