Neural Network Technique in Some Inverse Problems of Mathematical Physics
作者:
- Vladimir I. Gorbachenko1, Tatiana V. Lazovskaya2, Dmitriy A. Tarkhov2, Alexander N. Vasilyev2(B),and MaximV.Zhukov1
- 1 Penza State University, 40 Krasnaya Street, 440026 Penza, Russia gorvi@mail.ru, maxim.zh@gmail.com
2 Peter the Great St. Petersburg Polytechnical University
日期:
- 02 July 2016
会议:
International Symposium on Neural Networks
摘要:
- 提出了两种方法求PDE逆问题
- 一种是利用Morozov’s condition求解PDE方程中的参数
- 一种是结合RProp and the cloud methods
1 方法
本质上是一种内嵌物理的方法
- 问题:
微分方程
L
u
(
x
)
=
f
(
x
)
,
x
∈
Ω
L u(\mathbf{x})=f(\mathbf{x}), \mathbf{x} \in \Omega
Lu(x)=f(x),x∈Ω
边界:
B
u
(
x
)
=
p
(
x
)
,
x
∈
∂
Ω
B u(\mathbf{x})=p(\mathbf{x}), \mathbf{x} \in \partial \Omega
Bu(x)=p(x),x∈∂Ω
附加条件:
D
u
(
z
)
=
ψ
(
z
)
,
z
∈
Z
⊂
∂
Ω
∪
Ω
D u(\mathbf{z})=\psi(\mathbf{z}), \mathbf{z} \in Z \subset \partial \Omega \cup \Omega
Du(z)=ψ(z),z∈Z⊂∂Ω∪Ω
定义误差函数
J
=
J
1
+
δ
b
J
b
+
δ
d
J
d
J=J_{1}+\delta_{b} J_{b}+\delta_{d} J_{d}
J=J1+δbJb+δdJd
其中
J
1
=
∑
i
=
1
M
1
(
L
u
^
(
x
i
)
−
f
(
x
i
)
)
2
J
b
=
∑
i
=
1
M
2
(
B
u
^
(
t
i
)
−
p
(
t
i
)
)
2
J
d
=
∑
i
=
1
M
3
(
D
u
^
(
z
i
)
−
ψ
(
z
i
)
)
2
\begin{aligned} J_{1} &=\sum_{i=1}^{M_{1}}\left(L \hat{u}\left(\mathbf{x}_{i}\right)-f\left(\mathbf{x}_{i}\right)\right)^{2} \\ J_{b} &=\sum_{i=1}^{M_{2}}\left(B \hat{u}\left(\mathbf{t}_{i}\right)-p\left(\mathbf{t}_{i}\right)\right)^{2} \\ J_{d} &=\sum_{i=1}^{M_{3}}\left(D \hat{u}\left(\mathbf{z}_{i}\right)-\psi\left(\mathbf{z}_{i}\right)\right)^{2} \end{aligned}
J1JbJd=i=1∑M1(Lu^(xi)−f(xi))2=i=1∑M2(Bu^(ti)−p(ti))2=i=1∑M3(Du^(zi)−ψ(zi))2
将求解过程变成优化问题,利用神经网络来计算,将变量形式
u
^
=
∑
i
=
1
N
c
i
v
(
x
,
a
i
)
\hat{u}=\sum_{i=1}^{N} c_{i} v\left(\mathbf{x}, \mathbf{a}_{i}\right)
u^=i=1∑Nciv(x,ai)
其中a,c是神经网络权重,v是函数。
1.1 方法1
使用network of radial basis functions (RBFs) with gaussian basis elements
- 在 Ω ˉ = Ω ∪ ∂ Ω \bar{\Omega}=\Omega \cup \partial \Omega Ωˉ=Ω∪∂Ω中随机采点
- 在 Ω ˉ = Ω ∪ ∂ Ω \bar{\Omega}=\Omega \cup \partial \Omega Ωˉ=Ω∪∂Ω中随机选一些固定的test point
修正信赖域方法去学习RBF-net,原理如下,在每一次迭代中,最小化的函数都用一个二阶多项式在先前近似的足够小的邻域内近似。这个邻域称为信任区域。进一步,在这个区域内寻找多项式的最小值。取相应的最小值点作为对所要求的全局最小值的新的近似,重复迭代过程,直到停止条件实现为止。
在这个问题上迭代方法选择Morozov’s condition,神经网络训练只要
J
d
>
M
3
δ
2
J_{d}>M_{3} \delta^{2}
Jd>M3δ2
1.2 方法2
使用combined algorithm(RProp and the cloud method)
- 假设测试点集合在相应区域内均匀分布。这些测试点在优化算法的若干步骤后被随机地重新生成。这种再生方法可以避免神经网络过拟合
- 在每个测试点更新后,增加神经元,然后对新的网络权值进行调整,并将得到的误差函数值与之前的误差函数值进行比较。如果错误增加,一个新的求和将被排除在解决方案之外。
2 结论
- 这算是前期的探索了,虽然损失函数的定义也用到了类似PINN的思路,但是没有用到自动求导来寻找全局最优解
- 采用了RBF-net,选择Morozov’s condition作为收敛条件
- 使用增加神经元的方法,看增加了后的损失函数有没有减少,这样的算法也太过简易了吧