Data driven governing equations approximations using DNN

本文内容源自 DATA DRIVEN GOVERNING EQUATIONS APPROXIMATION USING DEEP NEURAL NETWORKS。他的通讯作者为Ohio State University 的 Prof DONGBIN XIU,印象中好像是 JCP 的 Associate Editor。

我们提供了一个使用观察数据和深度神经网络来近似未知控制方程的数值框架。特别是,我们建议使用残差网络(ResNet)作为方程式逼近的基本构建块。 我们证明,ResNet块可以被视为一种在时间积分中精确的单步方法。 然后,我们提出了两种多步骤的方法,即递归ResNet(RT-ResNet)方法和递归ReNet(RS-ResNet)方法。 RT-ResNet是统一时间步长的多步方法,而RS-ResNet是使用可变时间步长的自适应多步方法。 本文介绍的所有三种方法均基于基础动力系统的整体形式。 结果,它们不需要时间导数数据来进行方程式恢复,并且可以应付相对粗略分布的轨迹数据。.

我们考虑一个自制系统

其中 x\in \mathbb{R}^n 是状态变量, 令 \Phi:\mathbb{R}^n\to \mathbb{R}^n 是流映射,则解可写成下述形式:

 我们假定 f:\mathbb{R}^n\to \mathbb{R}^n 是未知的。我们的目标是使用解轨迹的数据为控制方程创建一个精确的模型。 特别是,我们假设数据是以成对的形式收集的,每个对都对应于在两个不同时间实例沿着一条轨迹的解状态。 也就是说,我们考虑

其中 J 是数据对的总数量,对于每个 j

这里 \epsilon_j^{(1)},\epsilon_j^{(2)} 代表着数据中的噪声, \Delta_j 是两个状态的时间间隔。 

关于 DNN 的结构以及一些基础知识, 我们不做介绍,只强调一点,损失函数为 MSE,简单来说便是

 

单步Resnet逼近

从动力系统的角度来看,ResNet可以被视为Euler向前时间积分器(可参见 Weinan E 的文章), 也就是说

 

故给定 \Delta 我们定义有效增量(effective increment)为

比较上式与Resnet式子,我们可知神经网络的输出为

多步 RT-Resnet逼近

我们组合 Resnet 和 RNN 的想法有

网络结构如下(注意不是N个Resnet块,而是单个Resnet块重复N次,这两者的区别在于其参数不一样

 记 \delta =\Delta /k, 则此模型可以写为

 

多步 RS-Resnet 逼近

与RT-Resnet唯一的不同便是这是 k个Resnet, 也就是说,每步的步长\delta_k 不一定相同. 

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值