Neural Network Technique in Some Inverse Problems of Mathematical Physics_Vladimir

Neural Network Technique in Some Inverse Problems of Mathematical Physics


作者:

  • Vladimir I. Gorbachenko1, Tatiana V. Lazovskaya2, Dmitriy A. Tarkhov2, Alexander N. Vasilyev2(B),and MaximV.Zhukov1
  • 1 Penza State University, 40 Krasnaya Street, 440026 Penza, Russia gorvi@mail.ru, maxim.zh@gmail.com

2 Peter the Great St. Petersburg Polytechnical University
日期:

  • 02 July 2016

会议:
International Symposium on Neural Networks


摘要:

  • 提出了两种方法求PDE逆问题
  • 一种是利用Morozov’s condition求解PDE方程中的参数
  • 一种是结合RProp and the cloud methods

1 方法

本质上是一种内嵌物理的方法

  • 问题:

微分方程
L u ( x ) = f ( x ) , x ∈ Ω L u(\mathbf{x})=f(\mathbf{x}), \mathbf{x} \in \Omega Lu(x)=f(x),xΩ
边界:
B u ( x ) = p ( x ) , x ∈ ∂ Ω B u(\mathbf{x})=p(\mathbf{x}), \mathbf{x} \in \partial \Omega Bu(x)=p(x),xΩ
附加条件:
D u ( z ) = ψ ( z ) , z ∈ Z ⊂ ∂ Ω ∪ Ω D u(\mathbf{z})=\psi(\mathbf{z}), \mathbf{z} \in Z \subset \partial \Omega \cup \Omega Du(z)=ψ(z),zZΩΩ
定义误差函数
J = J 1 + δ b J b + δ d J d J=J_{1}+\delta_{b} J_{b}+\delta_{d} J_{d} J=J1+δbJb+δdJd
其中

J 1 = ∑ i = 1 M 1 ( L u ^ ( x i ) − f ( x i ) ) 2 J b = ∑ i = 1 M 2 ( B u ^ ( t i ) − p ( t i ) ) 2 J d = ∑ i = 1 M 3 ( D u ^ ( z i ) − ψ ( z i ) ) 2 \begin{aligned} J_{1} &=\sum_{i=1}^{M_{1}}\left(L \hat{u}\left(\mathbf{x}_{i}\right)-f\left(\mathbf{x}_{i}\right)\right)^{2} \\ J_{b} &=\sum_{i=1}^{M_{2}}\left(B \hat{u}\left(\mathbf{t}_{i}\right)-p\left(\mathbf{t}_{i}\right)\right)^{2} \\ J_{d} &=\sum_{i=1}^{M_{3}}\left(D \hat{u}\left(\mathbf{z}_{i}\right)-\psi\left(\mathbf{z}_{i}\right)\right)^{2} \end{aligned} J1JbJd=i=1M1(Lu^(xi)f(xi))2=i=1M2(Bu^(ti)p(ti))2=i=1M3(Du^(zi)ψ(zi))2
将求解过程变成优化问题,利用神经网络来计算,将变量形式
u ^ = ∑ i = 1 N c i v ( x , a i ) \hat{u}=\sum_{i=1}^{N} c_{i} v\left(\mathbf{x}, \mathbf{a}_{i}\right) u^=i=1Nciv(x,ai)
其中a,c是神经网络权重,v是函数。

1.1 方法1

使用network of radial basis functions (RBFs) with gaussian basis elements

  • Ω ˉ = Ω ∪ ∂ Ω \bar{\Omega}=\Omega \cup \partial \Omega Ωˉ=ΩΩ中随机采点
  • Ω ˉ = Ω ∪ ∂ Ω \bar{\Omega}=\Omega \cup \partial \Omega Ωˉ=ΩΩ中随机选一些固定的test point

修正信赖域方法去学习RBF-net,原理如下,在每一次迭代中,最小化的函数都用一个二阶多项式在先前近似的足够小的邻域内近似。这个邻域称为信任区域。进一步,在这个区域内寻找多项式的最小值。取相应的最小值点作为对所要求的全局最小值的新的近似,重复迭代过程,直到停止条件实现为止。
在这个问题上迭代方法选择Morozov’s condition,神经网络训练只要
J d > M 3 δ 2 J_{d}>M_{3} \delta^{2} Jd>M3δ2

1.2 方法2

使用combined algorithm(RProp and the cloud method)

  • 假设测试点集合在相应区域内均匀分布。这些测试点在优化算法的若干步骤后被随机地重新生成。这种再生方法可以避免神经网络过拟合
  • 在每个测试点更新后,增加神经元,然后对新的网络权值进行调整,并将得到的误差函数值与之前的误差函数值进行比较。如果错误增加,一个新的求和将被排除在解决方案之外。

2 结论

  • 这算是前期的探索了,虽然损失函数的定义也用到了类似PINN的思路,但是没有用到自动求导来寻找全局最优解
  • 采用了RBF-net,选择Morozov’s condition作为收敛条件
  • 使用增加神经元的方法,看增加了后的损失函数有没有减少,这样的算法也太过简易了吧
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

pinn山里娃

原创不易请多多支持

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值