增强型PID-自适应-前馈-神经网络控制研究(Matlab代码实现)

💥💥💞💞欢迎来到本博客❤️❤️💥💥

🏆博主优势:🌞🌞🌞博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。

⛳️座右铭:行百里者,半于九十。

📋📋📋本文目录如下:🎁🎁🎁

目录

💥1 概述

📚2 运行结果

2.1 RBFNN_Optimized_hideen_node_20

​ 2.2 RBFNN_Lattice_hideen_node_3_6

 2.3 PID

2.4 效果yyds 

🎉3 参考文献

🌈4 Matlab代码实现


💥1 概述

文献来源:

自适应RBFNN控制学习在目标机器人的结构和参数事先未知时控制机器人机械手。遗憾的是,目前的自适应RBFNN控制器需要一个大规模的神经网络来近似机器人操纵器的动力学,并且无法保证学习性能收敛。本文提出的方法不仅减小了神经网络的规模,大大减轻了计算负担,而且明显实现了更好的学习性能。仿真算例表明,与传统格方案相比,该方法的控制精度提高了35倍以上,神经网络规模缩小了<>倍

隐节点格分布的复合自适应径向基函数神经网络(RBFNN)控制存在三个固有缺点:1)自适应RBFNN的近似域难以确定 先验 ;2)只能保证部分激励(PE)条件的持久性;3)一般来说,RBFNN所需的隐藏节点数量是巨大的。本文提出一种具有优化隐藏节点分布的自适应前馈RBFNN控制器,以适当地解决上述缺点。通过 K 均值算法计算的隐藏节点的分布沿所需状态轨迹最佳分布。自适应RBFNN满足周期性参考轨迹的PE条件。所有隐藏节点的权重将收敛到最佳值。该方法大大减少了隐藏节点的数量,同时实现了更好的逼近能力。拟议的控制方案具有与...

原文摘要:

Impact Statement:

Adaptive RBFNN control learns to control a robot manipulator when both the structures and parameters of the target robot are unknown in advance. Unfortunately, current adaptive RBFNN controllers need a large-scale neural network to approximate the dynamics of the robot manipulator, and the learning performance cannot be guaranteed to converge. The proposed method in this article not only reduces the scale of neural networks to substantially alleviate the computational burden but also evidently achieves better learning performance. Simulation examples show that this method increases the control accuracy by more than nine times and reduces the scale of neural networks by 35 times as compared to the traditional lattice scheme.

Abstract:

Composite adaptive radial basis function neural network (RBFNN) control with a lattice distribution of hidden nodes has three inherent demerits: 1) the approximation domain of adaptive RBFNNs is difficult to be determined a priori ; 2) only a partial persistence of excitation (PE) condition can be guaranteed; 3) in general, the required number of hidden nodes of RBFNNs is enormous. This article proposes an adaptive feedforward RBFNN controller with an optimized distribution of hidden nodes to suitably address the above demerits. The distribution of the hidden nodes calculated by a K-means algorithm is optimally distributed along the desired state trajectory. The adaptive RBFNN satisfies the PE condition for the periodic reference trajectory. The weights of all hidden nodes will converge to the optimal values. This proposed method considerably reduces the number of hidden nodes, while achieving a better approximation ability. The proposed control scheme shares a similar rationality to ...

📚2 运行结果

增强型PID-自适应-前馈-神经网络控制研究(Matlab代码实现)_哔哩哔哩_bilibili

2.1 RBFNN_Optimized_hideen_node_20

 

 

 2.2 RBFNN_Lattice_hideen_node_3_6

 

 

 

 

 2.3 PID

 

 

2.4 效果yyds 

 

 

 

 

 

 

 

 

 

🎉3 参考文献

部分理论来源于网络,如有侵权请联系删除。

🌈4 Matlab代码实现

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是一个简单的基于神经网络自适应控制Matlab代码示例: ```matlab % 数据初始化 x = linspace(0, 10, 1000)'; y = sin(x) + 0.1 * randn(size(x)); u = zeros(size(x)); dt = x(2) - x(1); % 神经网络参数设置 numInputs = 1; numHidden = 20; net = feedforwardnet(numHidden); net.trainParam.showWindow = false; % 隐藏训练窗口 % 控制器参数设置 lambda = 1; % 控制增益 % 循环控制 for k = 2:length(x) % 计算误差 e = y(k) - u(k-1); % 神经网络预测 netInput = [u(k-1); e]; u(k) = net(netInput); % 自适应控制 dnet_du = net.IW{1}'; % 网络输出对输入的导数 du_de = dnet_du(2); % 输入对误差的导数 lambda_hat = lambda / du_de; % 计算自适应增益 % 更新权重 dW = lambda_hat * netInput * e'; net.IW{1} = net.IW{1} + dW; % 训练神经网络 net = train(net, netInput, u(k)); % 在线学习 end % 输出结果 plot(x, y, x, u); legend('目标', '输出'); ``` 在该示例中,首先定义了一些初始化变量,包括输入输出数据和时间步长。然后定义了一个具有20个隐藏层的前馈神经网络,并关闭了训练窗口以避免干扰控制过程。 然后,在循环中,根据当前控制输入和误差,使用神经网络进行预测。接下来,计算自适应增益并使用其更新神经网络权重。最后,使用在线学习方法训练神经网络,并将目标和输出绘制在图表上以便进行比较。 这只是一个简单的示例,实际应用中可能需要更复杂的控制器和神经网络结构,以及更多的参数调整和调试。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值