![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
优化算法
文章平均质量分 64
WanderingSIN
这个作者很懒,什么都没留下…
展开
-
python 调用Matlab
python 调用 matlab原创 2022-03-31 22:21:13 · 1736 阅读 · 0 评论 -
自适应动态规划(五)-初值不为零的值迭代
初值不为零的值迭代稳定性证明定理一问题描述假设初值为任意半正定函数V0(xk)=Ψ(xk)V_0(x_k)=\Psi(x_k)V0(xk)=Ψ(xk)定义变量 γ‾,γ‾,δ‾\underline{\gamma},\overline{\gamma},\underline{\delta}γ,γ,δ 和δ‾\overline{\delta}δ 变量如下:KaTeX parse error: No such environment: equation at position 8: \原创 2020-11-06 15:02:02 · 1289 阅读 · 3 评论 -
自适应动态规划(四)-离散策略迭代证明
策略迭代策略迭代稳定性证明单调不增的证明迭代过程取一个随机容许初始控制律v0(xk)v_0(x_k)v0(xk)V0(xk)=U(xk,v0(xk))+V0(xk+1)V_0(x_k)=U(x_k,v_0(x_k))+V_0(x_{k+1})V0(xk)=U(xk,v0(xk))+V0(xk+1)在更新控制律v1(xk)=argminuk{U(xk,uk)+V0(xk+1)}v_1(x_k)=\arg \min_{u_k}\{{U(x_k,u_k)+V_0(x_{k原创 2020-11-06 14:57:33 · 1663 阅读 · 4 评论 -
自适应动态规划(三)
自适应动态规划(三)值迭代稳定性证明自适应动态规划的核心就是去求解除下面的序列,但是这个序列一定是收敛的吗?论文中给出了证明。V(x(k))=minu(k){U(x(k),u(k))+V(x(k+1))}V(x(k))=\min_{u(k)}\{U(x(k),u(k))+V(x(k+1))\}V(x(k))=u(k)min{U(x(k),u(k))+V(x(k+1))}在这个证明中,首先确定的是 V0(x)=0V_0(x)=0V0(x)=0 的初始条件,HDP的迭代公式如下:u0(x(k原创 2020-10-12 14:29:49 · 2266 阅读 · 1 评论 -
自适应动态规划(二)
自适应动态规划(二)贝尔曼公式和离散LQR一个离散系统x(k+1)=Ax(k)+Bu(k)x(k+1)=Ax(k)+Bu(k)x(k+1)=Ax(k)+Bu(k)性能指标函数J(k)=12∑i=k∞(xT(i)Qx(i)+uT(i)Ru(i))J(k)=\frac{1}{2}\sum_{i=k}^{\infty}(x^T(i)Qx(i)+u^T(i)Ru(i))J(k)=21i=k∑∞(xT(i)Qx(i)+uT(i)Ru(i))由贝尔曼方程可知V(x(k))=12∑i=k∞(xT原创 2020-10-10 08:31:44 · 5162 阅读 · 15 评论 -
分布式优化算法学习(一)
分布式优化算法学习(一)分布式优化简介分布式协同优化与传统集中式优化相比较具有如下特点:与优化问题相关的信息分布存储在每个智能体中, 因此更隐私;每个智能体不需要将数据传输到中心节点, 只需要与邻居智能体进行信息交互, 因此更加节约通信成本;不存在单点故障问题, 极大地提高了系统的鲁棒性;不依赖于中心节点, 增强了网络的可扩展性.分布式协同优化的基本结构,如上图所示,每个智能体(节点)都有一个局部目标函数,全局目标函数是这些局部目标函数的和,每个节点通过与邻居节点进行信息交互,最终协同实现原创 2020-05-16 15:07:10 · 12448 阅读 · 0 评论