【粒子滤波定位】(一)移动机器人系统建模

本文介绍了移动机器人系统建模,重点讨论了运动模型和传感器模型。运动模型通过里程计数据推算机器人位姿变化,考虑了车轮滑动和系统误差。传感器分类包括里程计、视觉传感器和激光测距仪,详细阐述了各类传感器的工作原理和感知模型。噪声模型用于描述传感器测量的不确定性,通常采用高斯模型。
摘要由CSDN通过智能技术生成

1 运动模型

机器人运动模型描述机器人从前一时刻的状态在控制输入和噪声干扰左右下运动到当前时刻的位姿变化。
机器人的两个驱动轮电机上装有光电编码器,里程计在一定时间内根据光电编码器检测车轮转过的弧度,推算出机器人相对位置和转角的变化。
车轮运动的距离或者弧度: Δ d = 2 × ( N / p ) × π r \Delta{d}=2\times{(N/p)}\times{\pi{r}} Δd=2×(N/p)×πr
其中, r r r为车轮半径,光码盘为 p p p线/转, Δ T \Delta{T} ΔT时间内光码盘输出的脉冲数为 N N N

两轮差速驱动机器人轮间距为 a a a k k k时刻机器人位姿 [ x t ( k ) , y r ( k ) , θ r ( k ) ] [x_t(k),y_r(k),\theta_r(k)] [xt(k),yr(k),θr(k)].
k − 1 k-1 k1时刻到· k k k时刻机器人移动距离为: Δ D = ( Δ d L + Δ d R ) / 2 \Delta{D}=(\Delta{d_L}+\Delta{d_R})/2 ΔD=(ΔdL+ΔdR)/2机器人相对角度为: Δ θ = ( Δ d L + Δ d R ) / a \Delta{\theta}=(\Delta{d_L}+\Delta{d_R})/a Δθ=(ΔdL+ΔdR)/a
u ( k ) = [ Δ D ( k ) , Δ θ ( k ) ] u(k)=[\Delta{D(k)},\Delta{\theta{(k)}}] u(k)=[ΔD(k),Δθ(k)]作为里程计模型的输入,机器人的运动半径可以定义为: R ( k ) = Δ D ( k ) Δ θ ( k ) R(k)=\frac{\Delta{D(k)}}{\Delta{\theta{(k)}}} R(k)=Δθ(k)ΔD(k)
移动机器人的运动模型可表述为一个离散差分方程:
X r ( k ) = f [ X r ( k − 1 ) , u ( k ) ] + w ( k ) X_r(k)=f[X_r(k-1),u(k)]+w(k) Xr(k)=f[Xr(k1),u(k)]+w(k)
非线性的函数 f f f是系统的状态转换函数, k k k时刻的状态为 X r ( k ) X_r(k) Xr(k);输入控制指令 u ( k ) u(k) u(k);零均值的高斯白噪声 w ( k ) w(k) w(k),表示在机器人运动过程中轮子的滑动、系统建模的误差和传感器的误差漂移。
在这里插入图片描述

实际应用中,用圆弧模型近似里程计运动:
X r ( k ) = f [ X r ( k − 1 ) , u ( k ) ] + w ( k ) = [ x r ( k − 1 ) + R ( k ) { c o s [ θ r ( k − 1 ) + Δ θ ( k ) ] − c o s [ θ r ( k − 1 ) ] } y r ( k − 1 ) + R ( k ) { s i n [ θ r ( k − 1 ) + Δ θ ( k ) ] − s i n [ θ r ( k − 1 ) ] } θ r ( k − 1 ) + Δ θ ( k ) ] + [ w x w y w θ ] \begin{aligned}X_r(k)&=f[X_r(k-1),u(k)]+w(k)\\&=\begin{bmatrix}x_r(k-1)+R(k)\{cos[\theta_r(k-1)+\Delta{\theta(k)}]-cos[\theta_r(k-1)]\}\\y_r(k-1)+R(k)\{sin[\theta_r(k-1)+\Delta{\theta(k)}]-sin[\theta_r(k-1)]\}\\\theta_r(k-1)+\Delta{\theta(k)}\end{bmatrix}+\begin{bmatrix}w_x\\w_y\\w_{\theta}\end{bmatrix}\\\end{aligned} Xr(k)=f[Xr(k1),u(k)]+w(k)= xr(k1)+R(k){cos[θr(k1)+Δθ(k)]cos[θr(k1)]}yr(k1)+R(k){sin[θr(k1)+Δθ(k)]sin[θr(k1)]}θr(k1)+Δθ(k) + wxwywθ

2 传感器分类与感知模型

2.1 传感器的分类

内部传感器:里程计、陀螺仪、加速度计、GPS和方位传感器;用于相对位姿估计。

外部传感器:超声传感器、红外传感器、PSD传感器、接触传感器、视觉传感器和激光测距传感器;用于环境感知、目标识别与跟踪、安全作业。

1. 里程计

机器人车轮上的光电编码器检测出两个轮子各自转过的圈数,然后应用两个轮子圈数的差值通过航迹推算估计出机器人不同时刻的相对位姿。

2. 视觉传感器

主要使用具有较高精确性和稳定性的电荷耦合器件(Charge Coupled Device,CCD),分为单目视觉(Monocular Vision)和立体视觉两种。
双目视觉(Binocilar Vision)和三目视觉(Trinocular Vision)可以计算物体的景深,属于立体视觉。
立体视觉测距根据同一景物在两个或多个摄像头上成像的视差计算出景深,从而获得景物距离信息。

3. 激光测距仪

由激光二极管对准目标发射激光脉冲,通过测量激光脉冲反射时间长短来确定目标距离。
激光经目标反射后向各个方向散射,光学系统接收到一部分散射光后成像到雪崩光电二极管上。
雪崩光电二极管将检测到的极其微弱的光信号进行放大,根据记录从光脉冲发出到接收返回的时间测定目标的距离。

2.2 视觉传感器感知模型

在这里插入图片描述

2.3 激光测距仪感知模型

感知量 Z Z Z包含环境特征相对于传感器的距离和方向信息,扫描数据的极坐标表示形式 Z = [ ρ , ϕ ] T Z=[\rho,\phi]^T Z=[ρ,ϕ]T
扫描数据的直角坐标表示形式
Z = [ x , y ] T Z=[x,y]^T Z=[x,y]T
感知模型描述了传感器感知量与机器人位姿之间的相互关系
Z ( k ) = h [ X r ( k ) ] + ν ( k ) Z(k)=h[X_r(k)]+\nu(k) Z(k)=h[Xr(k)]+ν(k)
其中, k k k时刻感知量为 Z ( k ) Z(k) Z(k);测量函数为 h h h; υ ( k ) \upsilon(k) υ(k)为描述测量噪声和模型误差的噪声模型。
则激光测距仪的感知模型为
Z ( k ) = [ ρ ( k ) ϕ ( k ) ] = [ [ x i − x s ( k ) ] 2 + [ y i − y s ( k ) ] 2 a r c t a n [ y i − y s ( k ) x i − x s ( k ) ] − θ s ( k ) ] + ν ( k ) Z(k)=\begin{bmatrix}\rho(k)\\\phi(k)\end{bmatrix}=\begin{bmatrix}\sqrt{[x_i-x_s(k)]^2+[y_i-y_s(k)]^2}\\arctan[\frac{y_i-y_s(k)}{x_i-x_s(k)}]-\theta_s(k)\end{bmatrix}+\nu(k) Z(k)=[ρ(k)ϕ(k)]=[[xixs(k)]2+[yiys(k)]2 arctan[xixs(k)yiys(k)]θs(k)]+ν(k)
在这里插入图片描述

2.4 传感器噪声模型

为了提高传感器感知信息的可靠性,有必要建立一个噪声模型来描述感知信息的不确定性、环境模型的不确定性、决策的不确定性。

高斯噪声模型是最常用的噪声模型。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

还重名就过分了啊

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值