深度学习求解偏微分方程

1. 稀疏回归解偏微分方程

论文:《Data-driven discovery of partial differential equations》
作者:Samuel H.Rudy, Steven L.Brunton
具体操作:对同一个变量,用遍历算法逐个筛选出来,所筛选出来的和训练数据对上的即为所求的算子。
案例:想求解x,y,w之间的关系,就把这三个数据推带入到PDE-FIND算法中,首先找出他们的关系,比如∂w/∂x=C ∂w/∂y 让迭代的训练误差最小,输出的即为稀疏回归的解,然后去拟合参数,拟合出的结果可能是∂w/∂x=0.8 ∂w/∂y
缺点:想找出训练数据对应的控制方程,就需要先知道原方程的大体样子。通用性不强

2. 离散连续方程解偏微分方程

论文:《Learning data0driben discretization for partial differential equations》
作者:Yohai Bar-Sinai, Stephan Hoyer(Google AI团队)
具体步骤:先利用传统方法对一个特定的方程进行离散获得高精度的数据,通过训练这些数据来学习如何利用这些离散数据来求近似值导数。
案例:大自然的景色好比原方程表述的物理信息,用相机去拍照就是用像素点对自然景色进行离散化和逼近,而在方程中,就是用神经网络学习高精度数值解,可以学到微分导数算子,这就类似通过高分辨照片可以学到自然景色一样。
优点:此方程通过学习离散的数据捕捉到“藏在数据下面”的物理信息,准确度比传统的PDE离散方程高得多,更是省去了传统方法中需要对PDE构造不同的复杂离散格式。

3. 物理神经网络解偏微分方程(PINN:物理激发的神经网络)

论文:《Physics-informed neural networks: A deep learning framework for solving forward and inverse problems involving nonlinear partial differential equations》
作者:M.Raissi, P.Perdikaris
具体操作:所谓的物理神经网络,其实就是把物理方程作为限制加入神经网络中使训练的结果满足物理规律,即通过把物理方程的迭代前后的差值加到神经网络的损失函数里,让物理方程也参与到了训练过程。
案例:博格斯方程∂u/∂t+u ∂u/∂x=0.01/π (∂^2 u)/(∂^2 x),u = neural_net(tf.concat([t,x],1), weights, biases),u_t = tf.gradients(u, t)[0],u_x = tf.gradients(u, x)[0],u_xx = tf.gradients(u_x, x)[0]f = u_t + uu_x - (0.01/tf.pi)u_xx。一直训练网络让f和u的损失函数的和迭代不断减小到一定值后,网络就训练好了,就能“练出来”想要找到的函数关系。

  • 0
    点赞
  • 23
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值