![e123e8b0ad97c3c57a2f4b968082bddd.png](https://i-blog.csdnimg.cn/blog_migrate/38dd0281703666734f8475d9c2806e31.jpeg)
这篇文章主要想介绍下高斯过程的概念以及它在控制中的应用,并且结合模型预测控制讲一下GP-based MPC的简要内容。
%================================
1、Gaussian Processes:高斯过程
高斯过程是概率论和统计学中的一个重要概念,也是一种很重要的机器学习算法,广泛应用于诸多领域。
首先,其实刚接触高斯过程比较难理解,特别容易跟高斯分布混淆。高斯过程的概念知乎以及B站上有些文章和视频有一些讲解,因为高斯过程比较难理解,所以呢大家可以去看看不同人写的文章结合视频多学习一点。
王桂波:高斯过程 Gaussian Processes 原理、可视化及代码实现zhuanlan.zhihu.com![f635b11269564147bd2c94aed1ffe0ef.png](https://i-blog.csdnimg.cn/blog_migrate/ed4a96c597712893e2c9bf3c04367fc7.jpeg)
这位大佬基本上整合了那个PPT里的内容,并且用测温度的例子来讲,比较有条理容易理解,GP:无限元高斯分布,其实也是函数的分布。
论智:图文详解高斯过程(一)——含代码zhuanlan.zhihu.com![0070e1dac60f0344133db55aea376f73.png](https://i-blog.csdnimg.cn/blog_migrate/5b7089756ab66453e69eb2a716d735bc.jpeg)
论智的文章从熟知的一维、二维到多维采样的角度讲了GP的概念,行文更偏论文一点,同样非常好理解。
##########################
我们使用高斯过程(GP)来描述函数的分布,下面对此进行简要描述:
Definition:
A Gaussian process is a collection of random variables, any finite number of which have a joint Gaussian distribution.
高斯过程完全由其均值函数和协方差函数来表示,我们定义实际过程
因此高斯过程为:
高斯过程回归(Gaussian Processes Regression)
给定回归向量
其中K的取值可以自己去参考,其中均值和协方差函数是由超参数赋值的,这可以通过最大似然方法得到。具体的更详细的内容可以从下面介绍的两本书中获得。
%=================================
2、Gaussian Processes for Machine Learning
这是一本很经典的书,Carl Edward Rasmussen和Chris Williams是GP领域的两位先驱,他们的这本书描述了高斯过程在回归和分类任务中的数学基础和实际应用,并用来解决科学和工程中的广泛问题。
http://www.gaussianprocess.org/gpml/www.gaussianprocess.org书中提供了这里提供了一个非常棒的工具箱:GPML,其中的代码演示了书中的主要算法,后来也不断吸收了GP的许多研究成果,链接如下,其中的安装及使用教程写的很详细,用的话需要去仔细看看。
http://www.gaussianprocess.org/gpml/code/matlab/doc/www.gaussianprocess.org%==================================
3、Gaussian Process for Modelling and Control of Dynamic Systems
这本书主要讲了高斯过程(GP)模型在非线性系统辨识和动态系统控制设计中的应用,这种方法在动态系统建模和工程实践中具有很大的潜力。
https://www.springer.com/series/1412www.springer.com当然,读者可以在网站上下载所提出的一些算法的Matlab实现:Gaussian-Process-Model-based System-Identification Toolbox for Matlab(GPdyn),这些程序都是简短的独立实现,并且都是基于上述GPML包。这个工具箱的设计想法是促进用高斯过程模型进行动态系统辨识,所提供的工具箱正在不断发展。
https://github.com/Dynamic-Systems-and-GP/GPdyngithub.com同样,需要用到GP的可以仔细看看并借助这些代码做自己的工作。
%==================================
4、GPR-based MPC
由于高斯过程回归方法提供了一种灵活的随机非参数方法,因此是基于学习的MPC中比较常用的方法,我们在这里也做一个简要的说明。
将GP这些机器学习算法用于控制的实际挑战是存在的,与其他机器学习方法一样,用于预测的标准机器学习回归与用于控制综合的机器学习有着本质上的不同。在前者中,模型的所有输入(也称为回归变量或特征)都是已知的,而在后者中,一些作为控制变量的输入必须实时优化以达到预期的性能。
数据质量:数据可能不足以解释输入和输出之间的关系。为了在输入中获得更丰富的数据并获得足够的激励,必须通过随机激励输入或通过优化实验设计程序(OED)来实现新的实验条件。
计算效率:一个学习模型的输出是非线性、非凸的,有时是不可微的,使用这样的模型进行控制综合,其中一些输入必须被优化,而这可能导致难以计算的优化。
性能保证:闭环控制的期望特性是提供性能保证,当用黑箱模型代替物理模型时变得困难。
模型自适应:通常情况下模型性质会随着时间而改变,因此学习到的模型也必须在需要时进行更新。重复进行系统识别的传统模式可能会耗费大量的时间和成本。
为了解决这些挑战,基于机器学习方法,我们可以采用两种方式:学习模型不确定性或者子系统动态,以及学习整个动态模型的方法。这里借助高斯过程回归模型来介绍这两种方式,GP用于模型预测控制中也引出了GP-based MPC的研究。
论文 L. Hewing, K. P. Wabersich, M. Menner, and M. N. Zeilinger, “Learning-Based Model Predictive Control: Toward Safe Learning in Control” Annu. Rev. Control. Robot. Auton. Syst., vol. 3, no. 1, pp. 269–296, 2020.中,第一块模型学习部分简要综述了这类研究,同时提出了几个研究难点:
1、预测范围内产生的随机状态分布的传播的问题,这在'Gaussian Process for Modelling and Control of Dynamic Systems'书中有介绍;
2、GP用于MPC中的理论性保证;
3、GP-MPC的计算问题。
更深入的研究可以详看这篇文献的部分引用论文,之前文章提到过这块内容:
没脑子读博的人:基于learning的模型预测控制zhuanlan.zhihu.com![fcc642d661b018d0e6638fd52ac9974b.png](https://i-blog.csdnimg.cn/blog_migrate/3ae4f75c91d2af52fbf9297e5f335cc1.jpeg)