基于波特-哈密顿方法的神经网络训练
题目:
Port-Hamiltonian Approach to Neural Network Training
作者:
Stefano Massaroli, Michael Poli, Federico Califano, Angela Faragasso, Jinkyoo Park, Atsushi Yamashita, Hajime Asama
来源:
Neural and Evolutionary Computing (cs.NE); Machine Learning (cs.LG);
Submitted on 6 Sep 2019
To appear in the Proceedings of the 58th IEEE Conference on Decision and Control (CDC 2019).
文档链接:
arXiv:1909.02702
代码链接:
https://github.com/Zymrael/PortHamiltonianNN
摘要
神经网络是离散实体:细分为离散层,通过权值进行参数化,再通过差分方程进行迭代优化。最近的工作提出的网络层输出不再是定量的,而是一个常微分方程(ODE)的解;然而,这些网络仍然是通过离散方法(如梯度下降)优化的。在这篇论文中,我们探索了一个不同的方向:即,我们提出了一个新的学习框架,其中参数本身就是ODE的解。将优化过程看作是一个波特-哈密顿系统的演化过程,可以保证