模型预测控制的缺点_基于learning的模型预测控制

5c3a2a7fd57450b678fc0b7b7e84f435.png

这里结合一篇文章来讲述Learning-based MPC的概念和基本内容,这篇文章可以说引用了几乎所有近年来关于Learning MPC的所有文献,而且分类明确,思路也很清晰。当然,私以为这篇文章部分存在点不合理的地方,总之瑕不掩瑜,是一篇非常好的Learning-based MPC综述。

“我们将研究如何将学习与基于优化的概念结合在一起产生高性能的控制器,这些控制器设计简单、时间高效,同时提供约束满足的概念,从而保证安全性。我们将从从数据中推断动力学、目标或约束模型的技术开始,用于基于优化控制的集成,然后讨论安全滤波器作为一种模块化方法,用于增强具有约束满足特性的强化学习。”

#==========

文章:

Hewing, L., Wabersich, K. P., Menner, M., & Zeilinger, M. N. (2020). Learning-Based Model Predictive Control: Toward Safe Learning in Control. Annual Review of Control, Robotics, and Autonomous Systems, 3(1), 1–28.

https://www.annualreviews.org/doi/abs/10.1146/annurev-control-090419-075625​www.
  • 3
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
强化学习(Reinforcement Learning)和模型预测控制(Model Predictive Control)是两种常用的控制策略。 强化学习是一种通过试错学习来优化控制策略的方法。在无模型强化学习中,通过与环境的交互来学习最佳的控制策略,而无需事先建立系统的数学模型。这种方法的优点是在线计算量较小,并且在理论上可以获得最优控制策略。然而,应用无模型强化学习来获得生物过程的最佳进料策略可能会面临一些实际问题,例如需要大量的数据、探索过程可能会损害工艺性能、无法明确施加状态约束、对超参数敏感等。此外,由于成本或报酬的变化,可能需要重新学习控制策略,而且生成的控制策略可能不直观或不符合操作员的直觉标准。[1] 模型预测控制是一种基于系统动力学模型的控制方法。通过建立系统的数学模型,可以预测未来的系统行为,并根据这些预测结果来优化控制策略。在模型预测控制中,通常会选择一个相对不错的控制量作为状态的近似,这样可以得到较好的控制效果。这种方法通常涉及监督学习,即通过专家演示来确定控制量。[2]在生物过程中,虽然建立的模型可能不准确,但仍然可以用于计算近似最优输入,从而提供有意义的数据。为了改进控制策略并减少数据需求,可以将无模型强化学习和模型预测控制相结合,利用系统动力学的先验知识来提供可用的模型,并通过较少的数据来改进控制策略。[3]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值