机器人传感器及其信息融合技术

本文详细介绍了机器人传感器的基础知识,重点探讨了多传感器信息融合技术,包括信息融合的核心特征、分类(按层次和方式)、定量信息融合的传感器建模和基于参数估计的方法,以及定性信息融合如Bayes方法的应用。特别关注视觉与超声传感器的自适应加权融合算法。
摘要由CSDN通过智能技术生成

机器人传感器及其信息融合技术

第一章 传感器的基础知识

第五章 多传感器信息融合技术概述

信息融合三个核心特征:

  1. 信息融合是在多个层次上完成对多源信息处理的过程,其中每一个层次都表示不同级别的信息抽象。
  2. 信息融合包括探测、互联、相关、估计以及信息组合。
  3. 信息融合的结果包括较低层次上的状态估计,以及较高层次上的整个系统的状态估计。
多传感器信息融合的分类

按信息传递方式分类

  1. 串联型信息融合
  2. 并联型信息融合
  3. 串并混合型信息融合
按处理对象层次不同分类
  1. 像素级融合
  2. 特征层融合
  3. 决策层融合
多传感器融合方法
多传感器融合算法分类

第六章 多传感器的定量信息融合

传感器建模

建立传感器模型考虑的原则:

  1. 传感器模型必须能反映观察中的不确定性。
  2. 传感器模型必须能方便地在同一参照系内表达。
  3. 传感器模型中必须包扩一系列环境特征向量及有关这些特征的先验知识。
基于参数估计的信息融合方法

假设在给定时刻,待测系统的状态向量是 X X X,传感器测量值是 Y Y Y,则该传感器的测量模型为

Y = f ( X ) + V Y=f(X)+V Y=f(X)+V

其中 V V V是符合高斯分布的噪声项。所谓的数据融合就是:由 N N N个传感器得到测量值 Y 1 Y_1 Y1 Y 2 Y_2 Y2、… 、 Y N Y_N YN,并按照某种估计准则从这些测量值中得到特征参数 X X X的最优估计。
首先使用仅由一个传感器的测量值 Y Y Y,来估计状态 X X X的问题。
记状态 X X X的估计值为 X ^ ( Y ) \hat{X}(Y) X^(Y),并定义 L [ X ^ ( Y ) , X ] L[\hat{X}(Y), X] L[X^(Y),X]为损失函数,相应的风险表达式为

R = E L [ X ^ ( Y ) , X ] = ∫ d Y p ( x ) ∫ d X p ( x ∣ y ) L [ X ^ ( Y ) , X ] (4) R=E L[\hat{X}(Y), X]=\int \mathrm{d} Y p(x) \int \mathrm{d} X p(x \mid y) L[\hat{X}(Y), X]\tag{4} R=EL[X^(Y),X]=dYp(x)dXp(xy)L[X^(Y),X](4)

损失函数(loss function)用来预测模型单次预测的好坏,即模型的预测值 f ( X ) f(X) f(X)和真实值 Y Y Y之间的差别,记作 L ( Y , f ( x ) ) L(Y,f(x)) L(Y,f(x)) 。损失函数越小,表示模型预测越准确。

风险函数(risk function)又称期望损失(expected loss),是损失函数的期望,度量平均意义下模型预测的好坏。机器学习的目标就是选择期望风险最小的模型。

其中 p ( x ) p(x) p(x) p ( x ∣ y ) p(x \mid y) p(xy)表示概率分布。取风险最小的作为估计准则,使

∂ R ∂ X ∣ X = X ~ ( Y ) = 0 \left.\frac{\partial R}{\partial X}\right|_{X=\tilde{X}(Y)}=0 XR X=X~(Y)=0

即可取得状态的估计值 X ^ ( Y ) \hat{X}(Y) X^(Y)。对于不同的 L [ X ^ ( Y ) , X ] L[\hat{X}(Y), X] L[X^(Y),X]得到不同的估计结果。常用的有:

L [ X ^ ( Y ) , X ] = ( X − X ^ ) T W ( X − X ^ ) L [ X ^ ( Y ) , X ] = [ ( X − X ^ ) T W ( X − X ^ ) ] 1 / 2 L [ X ^ ( Y ) , X ] = { 1 ∣ X ^ − X ∣ ⩾ ε 2 0 ∣ X ^ − X ∣ < ε 2 \begin{aligned}& L[\hat{X}(Y), X]=(X-\hat{X})^{\mathrm{T}} W(X-\hat{X}) \\& L[\hat{X}(Y), X]=\left[(X-\hat{X})^{\mathrm{T}} W(X-\hat{X})\right]^{1 / 2} \\& L[\hat{X}(Y), X]= \begin{cases}1 & |\hat{X}-X| \geqslant \frac{\varepsilon}{2} \\0 & |\hat{X}-X|<\frac{\varepsilon}{2}\end{cases} \\&\end{aligned} L[X^(Y),X]=(XX^)TW(XX^)L[X^(Y),X]=[(XX^)TW(XX^)]1/2L[X^(Y),X]={10X^X2εX^X<2ε

其中 W W W为正定权矩阵, ε \varepsilon ε为任意小的正数。相应的状态最优估计(最大后验估计)为

X ^ opt  ( Y ) = argmax ⁡ p ( X ∣ Y ) \hat{X}_{\text {opt }}(Y)=\operatorname{argmax} p(X \mid Y) X^opt (Y)=argmaxp(XY)

正定权矩阵通常指在数学和统计学中用于描述线性模型的一种矩阵。它通常被用于表示观测值之间的相关性或协方差。
在统计建模中,当我们对多个变量进行建模时,这些变量之间可能存在相关性。协方差矩阵是一种描述变量之间相关性的方法。如果这个协方差矩阵是正定的,那么它可以被称为正定权矩阵。

在具有 N N N个传感器的系统中,相应的信息融合可以看做是在观测值 Y 1 Y_1 Y1 Y 2 Y_2 Y2、… 、 Y N Y_N YN下,状态 X X X具有最大后验的估计,写作

X ^ ( Y ) = argmax ⁡ p ( X ∣ Y 1 , Y 2 , ⋯   , Y N ) \hat{X}(Y)=\operatorname{argmax} p\left(X \mid Y_1, Y_2, \cdots, Y_N\right) X^(Y)=argmaxp(XY1,Y2,,YN)

第七章 多传感器的定性信息融合

使用Bayes方法用于多传感器信息融合:在系统有m种可能决策的前提下,用Bayes方法判定哪种决策更具有可能性。

P ( A i ∣ B 1 ∧ B 2 ∧ ⋯ ∧ B n ) = ∏ k = 1 n P ( B k ∣ A i ) P ( A i ) ∑ j = 1 m ∏ k = 1 n P ( B k ∣ A j ) P ( A j ) ( i = 1 , ⋯   , n ) P\left(A_i \mid B_1 \wedge B_2 \wedge \cdots \wedge B_n\right)=\frac{\prod_{k=1}^n P\left(B_k \mid A_i\right) P\left(A_i\right)}{\sum_{j=1}^m \prod_{k=1}^n P\left(B_k \mid A_j\right) P\left(A_j\right)} \quad(i=1, \cdots, n) P(AiB1B2Bn)=j=1mk=1nP(BkAj)P(Aj)k=1nP(BkAi)P(Ai)(i=1,,n)

其中 A i A_i Ai表示各决策, B k B_k Bk表示各个传感器的观测结果。如果能够利用系统的先验知识以及传感器的特性得到各先验概率 P ( A i ) P(A_i) P(Ai),以及条件概率 P ( B k ∣ A i ) P\left(B_k \mid A_i\right) P(BkAi),就能判定哪种决策更具有可能性。

Bayes法多传感器信息融合

第十章 多传感器信息融合在移动机器人中的应用

视觉与超声传感器的信息融合
  1. 自适应加权融合算法:不同传感器其加权因子各不相同,根据传感器的测量量,寻找均方误差最小的加权因子,从而以自适应方式求得最优融合解。总均方差 σ 2 \sigma^2 σ2是关于各加权因子的多元二次函数

    σ 2 = E ∣ ( x − Λ x ) 2 ∣ = ∑ i = 1 n w i 2 σ i 2 \sigma^2=E\left|\left(x-\frac{\Lambda}{x}\right)^2\right|=\sum_{i=1}^n w_i^2 \sigma_i^2 σ2=E (xxΛ)2 =i=1nwi2σi2

    总均方误差最小时所对应的加权因子为
    w i ∗ = 1 σ i 2 ∑ j = 1 n 1 σ j 2 ( i = 1 , 2 , ⋯   , n ) w_i^*=\frac{1}{\sigma_i^2 \sum_{j=1}^n \frac{1}{\sigma_j^2}}(i=1,2, \cdots, n) wi=σi2j=1nσj211(i=1,2,,n)

    则均方误差最小值为
    σ min ⁡ 2 = 1 ∑ i = 1 n 1 σ j 2 ( i = 1 , 2 , ⋯   , n ) \sigma_{\min }^2=\frac{1}{\sum_{i=1}^n \frac{1}{\sigma_j^2}} \quad(i=1,2, \cdots, n) σmin2=i=1nσj211(i=1,2,,n)

    融合值可表示为
    x Λ ( k ) = ∑ i = 1 n ω i ( k ) x i ( k ) \stackrel{\Lambda}{x}(k)=\sum_{i=1}^n \omega_i(k) x_i(k) xΛ(k)=i=1nωi(k)xi(k)

    其中 ω i ( k ) \omega_i(k) ωi(k)表示采样时刻 k k k时第 i i i个传感器的加权系数; x i ( k ) x_i(k) xi(k)表示采样时刻 k k k时第 i i i个传感器的测量值; x Λ ( k ) \stackrel{\Lambda}{x}(k) xΛ(k)则为采样时刻 k k k时传感器的加权融合结果。
    因此,自适应加权融合算法的基本步骤为:* 计算方差 σ i 2 \sigma_i^2 σi2

    • 计算加权因子 ω i ( k ) \omega_i(k) ωi(k)
    • 计算融合值 x Λ ( k ) \stackrel{\Lambda}{x}(k) xΛ(k)
  2. 方差的自适应求解方法:传感器的测量方差是一个随影响因素不断变化的量,因此需要根据传感器测量值计算出相应的 σ i 2 \sigma_i^2 σi2
    设存在两个不同传感器 i i i j j j,其测量值分别为 x i x_i xi x j x_j xj,观测误差分别为 v i v_i vi v j v_j vj,即 x i = x + v i x_i=x+v_i xi=x+vi x j = x + v j x_j=x+v_j xj=x+vj,则传感器 i i i j j j方差分别为:

    σ i 2 = E [ v i 2 ] ; σ j 2 = E [ v j 2 ] \sigma_i^2=E\left[v_i^2\right] ; \sigma_j^2=E\left[v_j^2\right] σi2=E[vi2];σj2=E[vj2]

    因为 v i v_i vi v j v_j vj互不相关,且均值为0,与 x x x也不相关,所以 x i x_i xi x j x_j xj的互协方差 R i j R_{i j} Rij
    R i j = E [ x i x j ] = E [ x 2 ] R_{i j}=E\left[x_i x_j\right]=E\left[x^2\right] Rij=E[xixj]=E[x2]

    x i x_i xi的自协方差 R i i R_{i i} Rii
    R i i = E [ x i x i ] = E [ x 2 ] + E [ v i 2 ] R_{i i}=E\left[x_i x_i\right]=E\left[x^2\right]+E\left[v_i^2\right] Rii=E[xixi]=E[x2]+E[vi2]

    设传感器测量数据个数为 k k k R i i R_{i i} Rii估计值为 R i i ( k ) R_{i i}(k) Rii(k) R i j R_{i j} Rij估计值为 R i j ( k ) R_{i j}(k) Rij(k),则
    R i i ( k ) = 1 k ∑ i = 1 k x i ( l ) x i ( l ) = k − 1 k R i i ( k − 1 ) + 1 k x i ( k ) x i ( k ) \begin{aligned}R_{i i}(k) & =\frac{1}{k} \sum_{i=1}^k x_i(l) x_i(l) \\& =\frac{k-1}{k} R_{i i}(k-1)+\frac{1}{k} x_i(k) x_i(k)\end{aligned} Rii(k)=k1i=1kxi(l)xi(l)=kk1Rii(k1)+k1xi(k)xi(k)

    同理,
    R i j ( k ) = k − 1 k R i j ( k − 1 ) + 1 k x i ( k ) x j ( k ) R_{i j}(k)=\frac{k-1}{k} R_{i j}(k-1)+\frac{1}{k} x_i(k) x_j(k) Rij(k)=kk1Rij(k1)+k1xi(k)xj(k)

    如果传感器 j j j与传感器 i i i做相关运算,则可以得到 R i j ( k ) R_{i j}(k) Rij(k)的值。因此对于 R i j R_{i j} Rij可以进一步用 R i j ( k ) R_{i j}(k) Rij(k)的均值 R i ( k ) R_{i}(k) Ri(k)来做它的估计,即:
    R i j ( k ) = R i ( k ) = 1 n − 1 ∑ j = 1 , j ≠ i n R i j ( k ) R_{i j}(k)=R_i(k)=\frac{1}{n-1} \sum_{j=1, j \neq i}^n R_{i j}(k) Rij(k)=Ri(k)=n11j=1,j=inRij(k)

    由此,可以估计出第 k k k时刻各个传感器的方差为:
    σ i 2 ( k ) = R i i ( k ) − R i ( k ) = R i i ( k ) − 1 n − 1 ∑ j = 1 , j ≠ i n R i j ( k ) \sigma_i^2(k)=R_{i i}(k)-R_i(k)=R_{i i}(k)-\frac{1}{n-1} \sum_{j=1, j \neq i}^n R_{i j}(k) σi2(k)=Rii(k)Ri(k)=Rii(k)n11j=1,j=inRij(k)

    写成递推公式为: { σ i 2 ( k ) = k − 1 k σ i 2 ( k − 1 ) + 1 k σ i 2 ( k ) k = 1 , 2 ⋯ σ i 2 ( 0 ) = 0 \left\{\begin{array}{c}\sigma_i^2(k)=\frac{k-1}{k} \sigma_i^2(k-1)+\frac{1}{k} \sigma_i^2(k) \quad k=1,2 \cdots \\\sigma_i^2(0)=0\end{array}\right. {σi2(k)=kk1σi2(k1)+k1σi2(k)k=1,2σi2(0)=0

  • 29
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值