寻声定位 matlab,一种时延力反馈遥控机器人的自调整控制系统的制作方法

7210dcb179d3f2edb0fecf87248143f9.gif

本发明属于机器人遥操作系统控制技术领域,更为具体地讲,涉及一种时延力反馈遥控机器人的自调整控制系统。

背景技术:

遥操作系统广泛应用于深空、深海探索、微创手术、核辐射物管理、远程康复治疗等各种人类难以直接到达的环境模块。稳定性和透明性是遥操作系统最重要的性能要求,即要求从机器人必须能够准确地跟踪主机器人的位置,与此同时操作者模块可以准确地得到从机器人与环境模块的交互力反馈,并进行有效地控制。

在遥操作系统中主要的难点之一是时延,由于主从机器的物理位置之间通常都有一定距离,因此他们之间的通信通道中不可避免地存在着时延,从而造成有限的数据和信息缺失,这对遥操作系统有很大的负面影响,它会降低系统的位置和力跟踪的准确性,甚至引起系统不稳定。因此需要采用有效的控制方法,对遥操作系统中的时延问题进行处理。

与此同时操作者模块可以准确地环境模块的交互力反馈,并进行有效地控制,是遥操作系统中主要的第二个难点。在实际应用中,仅仅只考虑遥操作系统的位置跟踪或是力跟踪是不足够的,通常从机器人为了完成一些复杂的任务,必须接触一些物体或环境,例如目标获取、在远程手术时接触病人以及太空活动的在轨维护等。

文献[“Transparency in Time-Delayed Systems and the Effect of Local Force Feedback for Transparent Teleoperation”(H.Z.Keyvan and E.S.Septimiu,IEEETransactionon Robotics and Automation,2002,18(1):108-114)]首次对具有时延的遥操作系统的位置和力跟踪性能进行研究,但是针对线性系统且没有考虑与环境的接触力。文献《具有时变时延的非线性遥操作系统位置和力跟踪控制系统》(中国发明专利申请号201410100599.6)中针对具有时变时延的非线性遥操作系统设计了一种控制方法以满足系统的位置和力跟踪性能,但是没有对交互力进行控制。在现实应用中,所设计出的遥操作系统应该能够适用于非线性遥操作系统,能够对通信通道中的时延进行有效处理,与此同时操作者模块可以准确地得到从机器人与环境模块的交互力反馈,并进行有效地控制,从而保证遥操作系统稳定,准确地跟踪。

技术实现要素:

本发明的目的在于克服现有技术的不足,提供一种时延力反馈遥控机器人的自调整控制系统,借助于束子空间和非约束子空间来实施混合控制,提高系统的跟踪性能,确保系统的稳定性。

为实现上述发明目的,本发明一种时延力反馈遥控机器人的自调整控制系统,其特征在于,包括:

—操作模块,主要用于给主机器人的主自适应控制器输入一个主机器人到达期望位置的力信号Fh(t);

一主自适应控制模块,包括主自适应参数估计器和主自适应控制器;主自适应控制模块是可编程模块,主要用于计算作用于主机器人上的力矩信号um(t);

其中,所述的主自适应参数估计器以主机器人输出的位置信号qm(t)和速度信号经过反向通道的从机器人输出的位置信号qs(t-ΔTs)和速度信号以及环境模块的输出信号Fe(t-ΔTs)共同作为输入信号,计算得到主从机器人的位置误差em(t)=qs(t-ΔTs)-qm(t)和主从机器人的速度误差

再通过自适应率的方法估计惯性矩阵Hm的估计值哥氏力矩阵的估计值和重力项的的估计值,其中,为一维未知常数向量θm的估计值,Λ是对角常数矩阵,通过线性变换求得,()T表示转置,Γ=diag(ri),ri>0,i=1,2,...,n,n表示任务空间的自由度;

所述的主自适应控制器以作为输入信号,结合主从机器人的位置误差em(t)和速度误差计算出作用于主机器人上的力矩信号um(t),其中,λ和Km为对角正常数矩阵;

一主机器人,是主端被控对象,其输入信号为力信号Fh(t)和力矩信号um(t),输出信号为位置信号qm(t)和速度信号

一通信信道,包括前向通道和反向通道;其中,前向通道用于传输主机器人的位置信号qm(t)和速度信号给自调整阻抗选择器模块,若通信通道的前向定常时延为ΔTm,则通过通信通道分别变为qm(t-ΔTm)、反向通道用于传输从机器人的位置信号qs(t)和速度信号以及环境模块的输出的接触力信号Fe(t),反馈给主自适应控制器,若通信通道的反向定常时延为ΔTs,则通过通信通道分别变为qs(t-ΔTs)、Fe(t-ΔTs);

一自调整阻抗选择器,包括S和I-S两个子模块;其输入信号为接触力信号Fe(t)、位置信号qm(t-ΔTm)、速度信号位置信号qs(t)和速度信号当Fe(t)=0时,S子模块的输出信号为0;I-S子模块输出信号为位置信号qm(t-ΔTm)、速度信号以及输出位置信号qs(t)和速度信号当Fe(t)≠0时,S和I-S两个子模块输出信号均为位置信号qm(t-ΔTm)、速度信号以及从位置信号qs(t)和速度信号

一从自适应控制模块,包括从自适应参数估计器和从自适应控制器;从自适应控制模块是可编程模块,主要用于计算作用于从机器人上的力矩信号us(t);

其中,所述的从自适应参数估计器以I-S子模块的输出信号作为输入,计算得到主从机器人的位置误差es(t)=qm(t-ΔTm)-qs(t)和主从速度误差

再通过自适应率的方法估计惯性矩阵Hs的估计值哥氏力矩阵的估计值和重力项的的估计值,其中,为一维未知常数向量θs的估计值,Λ是对角常数矩阵,通过线性变换求得,()T表示转置,Γ=diag(ri),ri>0,i=1,2,...,n,n表示任务空间的自由度;

所述的从自适应控制器以以及I-S子模块的输出信号作为输入,结合主从机器人的位置误差es(t)和速度误差计算出作用于从机器人上的力矩信号us(t),其中,λ和Ks为对角正常数矩阵;

一从机器人阻抗控制器,为可编程模块,以接触力信号Fe(t)、S子模块的输出信号共同作为输入信号,由此得到力子空间的误差信号e(t),Bt和kt是正常系数对角矩阵,再结合误差信号e(t),得到最终的输出信号为力矩uf(t),

其中,kf和kint是正常系数对角矩阵;s(t)是滑模面,s(t)=ksle(t),ksl是滑模增益;表示对s(t)在t0到t的积分;

一从机器人,是从端被控对象,其输入信号为力矩信号us(t)和力矩信号uf(t)的叠加信号,以及环境模块的输出接触力信号Fe(t),其输出信号为位置信号qs(t)和速度信号

一环境模块,用于反应从机器人在进行作业时与环境相接触程度,其输入是从机器人的位置信号qs(t)和速度信号其输出信号是从机器人与环境的接触力信号Fe(t)。

本发明的发明目的是这样实现的:

本发明一种时延力反馈遥控机器人的自调整控制系统,通过自调整阻抗选择器来判定约束子空间和非约束子空间,从而实施混合控制方案,即:当没有环境力矩时,即非约束子空间,这个闭环遥操作系统只存在前向通道和反向通道传输信号的时延问题,此时从机器人控制器只需要对信号时延具有鲁棒性;当存在环境力时,即约束子空间,此时闭环遥操作系统不仅存在时延问题,还存在机器臂遇见阻碍时产生的力反馈问题,因此,此时为了实现期望的顺从运动的目的,还需要采用滑模阻抗控制方法。最终达到更加灵活,有效地提高系统的跟踪性能,并确保系统的稳定性的目的。

同时,本发明一种时延力反馈遥控机器人的自调整控制系统还具有以下有益效果:

(1)、通过使用自调整阻抗选择器,实现了灵活选择控制方案,准确应对遥操作系统在约束空间和非约束空间里的问题,从而更加有效地提高系统的跟踪性能。

(2)、当从机器人与环境接触时,从端,采用阻抗控制器和从自适应控制器相结合的混合控制方案,相比只用一个控制器的方案,从机器人能更准确,有效,稳定地服从于接触力,从而确保系统的稳定性和透明性。

附图说明

图1是本发明一种时延力反馈遥控机器人的自调整控制系统原理框图;

图2是本发明控制系统主端的结构示意图;

图3是本发明控制系统从端的结构示意图;

图4是主机器人和从机器人的结构示意图。

具体实施方式

下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。

实施例

图1是本发明一种时延力反馈遥控机器人的自调整控制系统原理框图。

在本实施例中,如图1所示,本发明一种时延力反馈遥控机器人的自调整控制系统,包括:操作模块、主自适应控制模块、主机器人、通信信道、自调整阻抗选择器、从自适应控制模块、从机器人阻抗控制器、从机器人和环境模块。下面结合图1对各个模块的工作流程进行详细描述,具体如下:

操作模块,主要用于给主机器人的主自适应控制模块输入一个主机器人到达期望位置的力信号Fh(t);

主自适应控制模块,包括主自适应参数估计器和主自适应控制器;主自适应控制模块是可编程模块,主要用于计算作用于主机器人上的力矩信号um(t);

其中,如图2所示,主自适应参数估计器以主机器人输出的位置信号qm(t)和速度信号经过反向通道的从机器人输出的位置信号qs(t-ΔTs)和速度信号以及环境模块的输出信号Fe(t-ΔTs)共同作为输入信号,计算得到主从机器人的位置误差em(t)=qs(t-ΔTs)-qm(t)和主从机器人的速度误差

再通过自适应率的方法估计惯性矩阵Hm的估计值哥氏力矩阵的估计值和重力项的的估计值,其中,为一维未知常数向量θm的估计值,Λ是对角常数矩阵,通过线性变换求得,()T表示转置,Γ=diag(ri),ri>0,i=1,2,…,n,n表示任务空间的自由度;在本实施例中,可用选用matlab中的S函数实现自适应率的拟合;如图4所示,若主和从采用两自由度的机器臂,作为被控对象,若忽略重力,即Gm=0则该对象的其中β,ε,η为常数,q1和q2分别是杆1转过的角度,杆2转过的角度,和是对q1和q2求导,从而θm=[α β ε η]T;

主自适应控制器以作为输入信号,结合主从机器人的位置误差em(t)和速度误差计算出作用于主机器人上的力矩信号um(t),其中,λ和Km为对角正常数矩阵;

主机器人,是主端被控对象,其输入信号为操作模块输出的力信号Fh(t)和主自适应控制模块输出的力矩信号um(t),输出信号为位置信号qm(t)和速度信号

通信信道,包括前向通道和反向通道;其中,前向通道用于传输主机器人的位置信号qm(t)和速度信号给自调整阻抗选择器模块,若通信通道的前向定常时延为ΔTm,则通过通信通道分别变为qm(t-ΔTm)、反向通道用于传输从机器人的位置信号qs(t)和速度信号以及环境模块的输出的接触力信号Fe(t),反馈给主自适应控制器,若通信通道的反向定常时延为ΔTs,则通过通信通道分别变为qs(t-ΔTs)、Fe(t-ΔTs);

自调整阻抗选择器,包括S和I-S两个子模块;如图3所示,其输入信号为环境模块输出的接触力信号Fe(t),经过正向通道的主机器人输出的位置信号qm(t-ΔTm)和速度信号以及从机器人输出的位置信号qs(t)和速度信号

自调整阻抗选择器满足:S=diag(si),i=1,2,…,n,其中diag()是对角矩阵,n表示任务空间的自由度;si满足如下关系式:

其中,考虑到实际应用中,不可避免存在测量噪声和误差,所以有必要设置阈值来裁定从机器人是否跟环境有接触,即设置的fth1>0是阀值上边界,可以取值为1,fth2<0是阀值下边界,可以取值为-1,sech(·)是双曲函数,被定义为其中,e是自然数;μ1和μ2是自调整选择器的调整率;

当Fe(t)=0时,S子模块的输出信号为0;I-S子模块输出信号为位置信号qm(t-ΔTm)、速度信号以及输出位置信号qs(t)和速度信号当Fe(t)≠0时,S和I-S两个子模块输出信号均为位置信号qm(t-ΔTm)、速度信号以及从位置信号qs(t)和速度信号

从自适应控制模块,包括从自适应参数估计器和从自适应控制器;从自适应控制模块是可编程模块,主要用于计算作用于从机器人上的力矩信号us(t);

其中,从自适应参数估计器以I-S子模块的输出信号作为输入,计算得到主从机器人的位置误差es(t)=qm(t-ΔTm)-qs(t)和主从速度误差

再通过自适应率的方法估计惯性矩阵Hs的估计值哥氏力矩阵的估计值和重力项的的估计值,其中,为一维未知常数向量θs的估计值,Λ是对角常数矩阵,通过线性变换求得,()T表示转置,Γ=diag(ri),ri>0,i=1,2,...,n,n表示任务空间的自由度;

从自适应控制器以以及I-S子模块的输出信号作为输入,结合主从机器人的位置误差es(t)和速度误差计算出作用于从机器人上的力矩信号us(t),其中,λ和Ks为对角正常数矩阵;

从机器人阻抗控制器,为可编程模块,主要用于当存在环境力时,即约束子空间,对从机器人实现混合控制,达到期望的顺从运动的目的;

从机器人阻抗控制器,为可编程模块,以接触力信号Fe(t)、S子模块的输出信号共同作为输入信号,由此得到力子空间的误差信号e(t),Bt和kt是正常系数对角矩阵,通常分别可以取值20N/s和200N/s,可以根据具体情况变化取值,再结合误差信号e(t),得到最终的输出信号为力矩uf(t),

其中,kf和kint是正常系数对角矩阵;s(t)是滑模面,s(t)=ksle(t),ksl是滑模增益,表示对s(t)在t0到t的积分。

从机器人,是从端被控对象,其输入信号为力矩信号us(t)和力矩信号uf(t)的叠加信号,以及环境模块的输出接触力信号Fe(t),其输出信号为位置信号qs(t)和速度信号

一环境模块,用于反应从机器人在进行作业时与环境相接触程度,其输入是从机器人的位置信号qs(t)和速度信号其输出信号是从机器人与环境的接触力信号Fe(t)。

尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值