迭代学习公式

一、什么是迭代学习

        迭代学习是一种十分适合应用在重复性控制动作的控制方法,其大致原理是使用者通过对系统设计出一个学习率,并利用该学习率在系统的重复控制过程中一次一次迭代,以逐步减小系统误差,不断接近或达到系统的期望值。

        迭代学习的关键主要在于:

  1. 逐步改进:每次迭代基于上一次迭代的结果进行优化。每次更新都会通过某种机制(如梯度下降)调整参数,以减少误差或损失函数。
  2. 反馈机制:模型的输出会提供反馈,指导下一步的学习和调整。反馈的形式通常是误差或损失度量。
  3. 广泛应用:迭代学习在许多机器学习和深度学习算法中都有应用,如线性回归、神经网络训练等,尤其是在优化问题中。
  4. 收敛过程:随着迭代次数的增加,模型的性能应该逐渐提升,直至收敛到某个最优解或达到设定的停止标准。

二、迭代学习具体方法和公式

        下面我们逐步介绍迭代学习的公式。首先介绍什么是迭代学习率,然后介绍开环和闭环的迭代学习方式,并且一步步的如何改进迭代学习方法。

2.1 迭代学习率

        迭代学习率是指每次模型参数更新时的步伐或变化量。它决定了模型在每一轮训练时,权重更新的速率。如果学习率太大,可能导致训练过程不稳定,权重更新过大,错过最优解;如果学习率太小,则可能导致收敛速度过慢,训练效率低下。 迭代学习可根据学习率的不同分为P型迭代学习、D型迭代学。

  • P型迭代学习

        P型迭代学习就是带比例函数的迭代学习,最简单的P型迭代学习如下:

u_{k+1}(t)=u_k(t)+k_pe_k(t)

其中u_{k}(t)是第k次迭代过程中,t时刻的控制输入,k_p是P型学习增益矩阵,e_k(t)t时刻的跟踪误差。上面的公式也可以写成:

u_{k+1}(t)=u_0(t)+k_p\sum_{i=0}^{k-1}e_i(t)

         P型迭代学习的系统框图如下所示:

  • D型迭代学习

        D型迭代学习用到的是跟踪误差的导数,最简单的D迭代学习公式如下:

u_{k+1}(t)=u_k(t)+k_d\dot{e}_k(t)

        其中k_d为D型学习增益矩阵。D型迭代学习的系统框图如下所示:

 2.2 迭代反馈

        控制系统基本都带有反馈,迭代学习作为控制系统的一种也需要反馈参与控制,而根据反馈方式的不同,可分为开环迭代学习和闭环迭代学习两种。

  • PD型开环迭代学习:

        开环迭代学习是指第k+1次迭代的控制序列由第k次迭代产生的误差生成。用数学的方式可表示为:

u_{k+1}(t)=u_k(t)+f_{ILC}(t,e_k(t))

其中f_{ILC}(t,e_k(t))是PD补偿项,具体来说f_{ILC}(t,e_k(t))=K_pe_{k}(t)+K_d\frac{de_{k}(t)}{dt}e_k(t)代表在第k次运行的过程中产生的目标轨迹与被控对象之间产生的跟踪误差,即:

e_k(t)=y_d(t)-y_k(t)

从另一个角度看,上述公式也可以看做是一个前馈控制, f_{ILC}(t,e_k(t))是模型输入的补偿。

        开环迭代学习系统框架图如下:

  • PD型闭环迭代学习

        闭环迭代学习是指第k+1次迭代的控制序列由第k+1次迭代产生的误差生成。用数学的方式可表示为:

u_{k+1}(t)=u_k(t)+f_{ILC}(t,e_{k+1}(t))

具体来说可以写做:

U_{k+1}=U_k+K_pe_{k+1}(t)+K_d\frac{de_{k+1}(t)}{dt}

  •  带低通滤波器的PD型闭环迭代学习:

        为了除去信号中的高频噪声和未建模动态,可以加入低通滤波器。令低通滤波器为Q,则新的迭代学习控制率为:

U_{k+1}=Q\left\{U_k+K_pe_{k+1}(t)+K_d\frac{de_{k+1}(t)}{dt}\right\}

  • 带滤波器和遗忘因子的PD型开闭环高阶迭代学习

        为了改善普通迭代学习的过度迭代问题,可以使用一种兼顾开环迭代学习和闭环迭代学习的高阶迭代学习方法。已知PD型开环迭代学习的控制率为:

U_{k+1}=U_k+K_pe_k(t)+K_d\frac{de_k(t)}{dt}

        我们知道开环迭代学习与闭环迭代学习的主要区别就是对误差的利用方式不同,闭环迭代学习中本次迭代产生的误差运用于本次的控制,属于实时补偿,开环迭代学习中本次迭代产生的误差运用于下一次迭代的控制,属于延时补偿,二者各有优缺点。闭环的收敛速度快,能立刻见效,但迭代过于激进,容易出现过度迭代,开环的收敛速度比闭环慢,但是不容易出现过度迭代。

        如果将开环迭代学习与闭环迭代学习相结合,那么以PD型迭代学习为例,其迭代学习控制率为:

U_{k+1}=U_{k}+K_{p1}e_{k}(t)+K_{d1} \frac{de_{k}(t)}{dt}+K_{p2}e_{k+1}(t)+K_{d2} \frac{de_{k+1}(t)}{dt}

        为了将每一次迭代所产生的的控制序列有效利用起来,又可将上面的式子改进为高阶迭代学习,以二阶为例:

U_{k+1}=\alpha_{1}U_{k}+\alpha_{2}U_{k-1}+K_{p1}e_{k}\left(t\right) +K_{d1} \frac{de_{k}\left(t\right)}{dt}+K_{p2}e_{k+1}\left(t\right)+K_{d2} \frac{de_{k+1}\left(t\right)}{dt}

其中\alpha_1,\alpha_2是分配给两个控制序列的权值,搭配合适可以削弱过度迭代,且不让收敛速度降低。要求满足\alpha_1+\alpha_2=1

        传统迭代学习在迭代的过程中不仅会产生过度迭代,而且如果无人为干预,其迭代的进程也不停止,会一直迭代下去。为了进一步弱化过度迭代带来的影响,并且锁定住迭代的过程中所产生的比较好的一次控制序列,引入遗忘因子对算法做约束:

U_{k+1}=\beta_{1}U_{L}+\beta_{2}(\alpha_{1}U_{k}+\alpha_{2}U_{k-1})+K_{p1}e_{k}(t)+\\K_{d1} \frac{de_{k}(t)}{dt}+K_{p2}e_{k+1}(t)+K_{d2} \frac{de_{k+1}(t)}{dt}

其中U_L为系统迭代中产生的比较好的一次控制序列,\beta_1是遗忘因子,且满足约束\beta_1+\beta_2=1。如果再将滤波器加入其中,那么带滤波器和遗忘因子的PD型开闭环高阶迭代学习的控制率为:

U_{k+1}=Q\begin{Bmatrix}\beta_1U_L+\beta_2(\alpha_1U_k+\alpha_2U_{k-1})+\\K_{p1}e_k(t)+K_{d1}\frac{de_k(t)}{dt}+K_{p2}e_{k+1}(t)+K_{d2}\frac{de_{k+1}(t)}{dt}\end{Bmatrix}

三、迭代学习的应用场景

3.1 梯度下降法(Gradient Descent)

  • 应用场景:常用于监督学习中的模型训练,尤其是线性回归、逻辑回归、神经网络等。

  • 原理:梯度下降是一种迭代优化方法,目标是通过不断更新模型的参数,最小化损失函数(如均方误差)。每次更新时,计算损失函数的梯度,并沿着梯度的反方向更新参数,直到损失函数收敛。

  • 迭代学习过程:每次计算梯度并更新权重。重复此过程直到达到最优解或停止条件(如迭代次数、损失收敛)。

  • 举例:训练神经网络时,通过梯度下降迭代更新每一层的权重,减少误差,优化模型性能。

3.2  神经网络训练

  • 应用场景:深度学习中的神经网络训练(如卷积神经网络CNN、循环神经网络RNN等)。

  • 原理:神经网络的训练通常使用反向传播算法(Backpropagation)和梯度下降法结合,通过迭代学习来调整网络权重。每次迭代中,神经网络会根据当前的预测输出与实际标签之间的误差来更新权重,从而优化网络性能。

  • 迭代学习过程:首先输入训练数据,计算前向传播得到预测输出。然后计算损失函数(如交叉熵损失)并进行反向传播。最后更新参数,重复以上过程直到收敛。

  • 举例:训练一个图像分类模型时,模型通过不断迭代调整权重,学习如何从图像中提取特征并进行准确分类。

3.3 支持向量机(SVM)

  • 应用场景:分类问题,尤其是在高维数据或小样本学习中表现良好。

  • 原理:支持向量机通过寻找最优超平面来将数据分成不同类别。在训练过程中,SVM通过迭代优化目标函数(最大化间隔和最小化分类误差)来更新支持向量的权重。

  • 迭代学习过程:使用迭代的优化算法(如SMO,序列最小优化算法)来调整支持向量的位置和权重。并且每次迭代都在寻找最优的超平面,直到模型收敛。

  • 举例:在情感分析中,通过训练SVM模型,根据输入文本的特征(如词频、TF-IDF等)进行分类,识别文本的情感倾向。

3.4  K-Means 聚类算法

  • 应用场景:无监督学习中的聚类问题,常用于数据挖掘和模式识别。

  • 原理:K-Means算法通过迭代过程将数据分成K个簇。每次迭代中,算法根据数据点的特征重新分配数据点到最近的簇中心,并计算新的簇中心,直到聚类结果稳定。

  • 迭代学习过程:首先随机选择K个初始簇中心。然后将数据点分配给最近的簇中心。之后更新簇中心为该簇内所有数据点的均值。最后重复以上步骤直到簇中心不再变化(收敛)。

  • 举例:在客户细分中,通过K-Means聚类分析客户的购买行为,将客户划分为不同的群体,帮助商家制定更精准的营销策略。

3.5 强化学习(Reinforcement Learning)

  • 应用场景:智能体(agent)与环境进行交互,学习如何在动态环境中采取行动以最大化长期回报。

  • 原理:强化学习通过迭代过程来优化策略。在每一步迭代中,智能体根据当前的状态选择一个动作,环境反馈奖励或惩罚,智能体根据奖励调整其策略,逐步优化其行为。

  • 迭代学习过程:首先智能体与环境交互并根据当前策略做出决策,并收到环境的反馈(奖励或惩罚)。然后更新策略,以便在未来能获得更多的奖励。最后重复这个过程直到智能体学会最佳策略。

  • 举例:在玩游戏时,强化学习通过不断调整决策策略,使得游戏中的智能体能够逐渐掌握如何赢得游戏。

3.6 遗传算法(Genetic Algorithm)

  • 应用场景:优化问题,特别是当问题空间巨大且无法用传统优化方法求解时。

  • 原理:遗传算法模拟自然选择的过程,通过迭代进化产生解。每一代中,算法根据适应度选择优秀的个体进行交叉、变异等操作,产生新的个体,直到找到最佳解。

  • 迭代学习过程:首先初始化种群(随机生成一组候选解)。然后评估每个个体的适应度,适应度较高的个体进行交叉和变异,产生下一代个体。最后重复该过程,直到满足停止条件。

  • 举例:在优化机器设计参数时,使用遗传算法通过迭代的方式,逐步找到最优的设计方案。

本人资源全部来自互联网,仅供学习参考、交流之用,请及时删除,如果喜欢副本内容请购买正版。 迭代学习控制 孙明轩 第一章 迭代学习控制系统 1、1 迭代学习控制系统概论 1、2 迭代学习控制过程的... 1、3 简单实例 第二章 线性系统的迭代学习控制 2、1 D 型学习律 2、2 PID 型学习律 2、3 正则线性系统的迭代... 2、4 非正则线性系统的迭... 2、5 P 型学习律 2、6 最优学习律 2、7 基于脉冲响应的学习律 第三章 非线性系统的迭代学习控制 3、1 高阶学习律 3、2 滤波器型学习律 3、3 模型算法学习律 3、4 模型参考学习律 3、5 非线性时滞系统的迭... 3、6 非正则非线性系统的... 第四章 鲁棒迭代学习控制 4、1 PID 型遗忘因子学习律 4、2 P 型遗忘因子学习律 4、3 选择学习算法 4、4 鲁棒收敛性 4、5 高增益反馈学习律 4、6 反馈-前馈迭代学习控... 4、7 非正则系统的反馈-前... 第五章 任意固定初态下的迭代学习控制 5、1 D 型学习律的极限轨迹 5、2 PD 型学习律的极限轨... 5、3 带有初始误差修正的... 5、4 其它形式的学习律 5、5 非正则系统的迭代学... 5、6 高阶非正则系统的迭... 第六章 迭代学习控制系统的 2-D 分析 6、1 Roesser 模型 6、2 正则线性离散系统的... 6、3 非正则线性离散系统... 6、4 含初始修正的学习律 6、5 线性时滞系统的迭代... 第七章 迭代学习辨识 7、1 迭代学习辨识的表述 7、2 系统初态已知时的迭... 7、3 鲁棒迭代学习辨识 7、4 系统初态未知时的迭... 7、5 外弹道气动系数辨识 第八章 迭代学习控制的回顾与展望 8、1 研究现状 8、2 研究方向 附录 迭代学习控制理论的数学基础 A、1 Bellman-Gronwall 引... A、2 差分不等式 A、3 向量函数的微分中值... A、4 向量与矩阵的范数 A、5 λ范数 参考文献
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

啵啵鱼爱吃小猫咪

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值