DeepSORT中的卡尔曼滤波

本文是看了DeepSORT方法视频之后,关于其中使用的卡尔曼滤波的理解

DeepSORT视频链接

首先贴几个比较好的,与本文由有关的几个帖子
图说卡尔曼滤波,一份通俗易懂的教程
卡尔曼滤波(Kalman Filter)原理与公式推导
卡尔曼滤波(Kalman Filter)原理与公式推导2
卡尔曼滤波:从入门到精通
particle filtering—粒子滤波(讲的很通俗易懂)
协方差的计算:X,Y是随机变量,A,B是常数矩阵,如何证明cov(AX,BY)=Acov(X,Y)B’?
协方差的计算方法
矩阵求导
两个高斯分布乘积的理论推导
首先是视频中的一张图请添加图片描述

预测阶段

x ^ k − = A x ^ k − 1 \hat{x}_k^-=A\hat{x}_{k-1} x^k=Ax^k1
P k − = A P k − 1 A T + Q , P k − ∈ R 8 , 8 P_k^-=AP_{k-1}A^T+Q, P_k^- \in R^{8,8} Pk=APk1AT+Q,PkR8,8

更新阶段

K k = P k − C T C P k − C T + R , K k ∈ R 8 , 4 K_k=\frac{P_k^-C^T}{CP_k^-C^T+R}, K_k\in R^{8,4} Kk=CPkCT+RPkCT,KkR8,4
x k ^ = x ^ k − + K k ( y k − C x ^ k − ) , C ∈ R 4 , 8 , x ^ k − ∈ R 8 , 1 , y k ∈ R 4 , 1 \hat{x_k}=\hat{x}_k^-+K_k(y_k-C\hat{x}_k^-), C\in R^{4,8}, \hat{x}_k^-\in R^{8,1}, y_k\in R^{4,1} xk^=x^k+Kk(ykCx^k),CR4,8,x^kR8,1,ykR4,1
P k = ( I − K k C ) P k − P_k=(I-K_kC)P_k^- Pk=(IKkC)Pk

整个过程中,矩阵A和矩阵C保持不变,具体如下所示。C是状态观测矩阵,比如,如果我们现在的观测值是速度,而需要的是位置,那么C就是由速度变化到位置的变换矩阵。而在这里,C是由检测框变换到检测框的变换矩阵,因此C里都是1
请添加图片描述详细步骤:

1.获得第一帧输出的检测框参数初始化

x ^ k − \hat{x}_k^- x^k P k − P_k^- Pk首先被初始化
x ^ 0 − = [ x , y , r , h , 0 , 0 , 0 , 0 ] , ∈ R 1 , 8 \hat{x}_0^-=[x,y,r,h,0,0,0,0], \in R^{1,8} x^0=[x,y,r,h,0,0,0,0],R1,8
P k − P_k^- Pk x ^ 0 − , ∈ R 8 , 8 \hat{x}_0^-, \in R^{8,8} x^0R8,8 有关,差了一个系数,代码如下所示

# self._std_weight_position = 0.05
# self._std_weight_velocity = 0.00625
std = [2 * self._std_weight_position * measurement[3],   #
       2 * self._std_weight_position * measurement[3],    
       1e-2,    
       2 * self._std_weight_position * measurement[3],     
      10 * self._std_weight_velocity * measurement[3],    
      10 * self._std_weight_velocity * measurement[3],   
      1e-5,    
      10 * self._std_weight_velocity * measurement[3]] 
covariance = np.diag(np.square(std))

2.预测下一时刻(第二帧中检测框的位置,图中的Prediction过程)

x ^ k − \hat{x}_k^- x^k正常计算,
P k − 中的 Q P_k^-中的 Q Pk中的Q是一个随机噪声,其为

std_pos = [ self._std_weight_position * mean[3],     
            self._std_weight_position * mean[3],   
            1e-2,    
            self._std_weight_position * mean[3]] 
 std_vel = [self._std_weight_velocity * mean[3],    
            self._std_weight_velocity * mean[3],    
            1e-5,    
            self._std_weight_velocity * mean[3]] 
  motion_cov = np.diag(np.square(np.r_[std_pos, std_vel]))  
  mean = np.dot(self._motion_mat, mean)
  covariance = np.linalg.multi_dot(( self._motion_mat, covariance, self._motion_mat.T)) + motion_cov

3.完成配对,给每一个轨迹匹配一个检测框

4.更新过程(Update)

def project(self, mean, covariance):     
	"""Project state distribution to measurement space.      
	Parameters     
	----------     
	mean : ndarray         The state's mean vector (8 dimensional array).     
	covariance : ndarray         The state's covariance matrix (8x8 dimensional).      
	Returns     
	-------     
	(ndarray, ndarray)         Returns the projected mean and covariance matrix of the given state         estimate.      
	"""     
	std = [ self._std_weight_position * mean[3],        
	        self._std_weight_position * mean[3],        
	        1e-1,         
	        self._std_weight_position * mean[3]]    
	innovation_cov = np.diag(np.square(std))      
	mean = np.dot(self._update_mat, mean)     
	covariance = np.linalg.multi_dot((  self._update_mat, covariance, self._update_mat.T))     
	return mean, covariance + innovation_cov

def update(self, mean, covariance, measurement):    
	 """Run Kalman filter correction step.      
	 Parameters     
	 ----------     
	 mean : ndarray         The predicted state's mean vector (8 dimensional).     covariance : ndarray         The state's covariance matrix (8x8 dimensional).     
	 measurement : ndarray         The 4 dimensional measurement vector (x, y, a, h), where (x, y)         is the center position, a the aspect ratio, and h the height of the         bounding box.     
	  Returns    
	   -------     
	   (ndarray, ndarray)         
	   Returns the measurement-corrected state distribution.     
	    """     
	 projected_mean, projected_cov = self.project(mean, covariance)      
	 #求解AX=b中的x
	 chol_factor, lower = scipy.linalg.cho_factor(projected_cov, lower=True, check_finite=False)     
	 kalman_gain = scipy.linalg.cho_solve((chol_factor,lower), np.dot(covariance, self._update_mat.T).T,         check_finite=False).T     
	 innovation = measurement - projected_mean      
	 new_mean = mean + np.dot(innovation, kalman_gain.T)     
	 new_covariance = covariance - np.linalg.multi_dot((         
	 kalman_gain, projected_cov, kalman_gain.T))     
	 return new_mean, new_covariance

本文在卡尔曼滤波:从入门到精通的基础上,又添加了一些个人的理解

导论

卡尔曼滤波本质上是一个数据融合算法,将具有同样测量目的、来自不同传感器、(可能) 具有不同单位 (unit) 的数据融合在一起,得到一个更精确的目的测量值。事实上,卡尔曼滤波是将两个高斯分布相乘而得到的一个新的高斯分布。

简述

首先考虑一个SLAM问题

  • 运动方程: x t = F t ⋅ x t − 1 + B t ⋅ u t + ω t (1) x_t=F_t \cdot x_{t-1}+B_t\cdot u_t+\omega_t \tag{1} xt=Ftxt1+Btut+ωt(1)
  • 观测方程: z t = H t ⋅ x t + v t (2) z_t=H_t \cdot x_t+v_t \tag{2} zt=Htxt+vt(2)

其中:

x t x_t xt t t t 时刻的状态向量,包括了相机位姿、路标坐标等信息,也可能有速度、朝向等信息;
u t u_t ut为运动测量值,如加速度,转向等等;
F t F_t Ft为状态转换方程,将 t − 1 t-1 t1 时刻的状态转换至 t t t 时刻的状态;
B t B_t Bt 是控制输入矩阵,将运动测量值​ 的作用映射到状态向量上;
ω t \omega_t ωt是预测的高斯噪声,其均值为0,协方差矩阵为 Q t Q_t Qt​ 。

z t z_t zt为传感器的测量值;
H t H_t Ht为转换矩阵,它将状态向量映射到测量值所在的空间中,由于估计值和预测值可能不同,单位也不同,因此需要 H t H_t Ht来进行变换。
v t v_t vt为测量的高斯噪声,其均值为0,协方差矩阵为​ R t R_t Rt

一个小例子:
用一个在解释卡尔曼滤波时最常用的一维例子:小车追踪。如下图所示:
请添加图片描述
状态向量 x t x_t xt为小车的位置和速度:

x t = [ s t v t ] (3) x_t= \begin{bmatrix} s_t\\ v_t\\ \end{bmatrix} \tag{3} xt=[stvt](3)
其中, s t s_t st为t时刻的位移, v t v_t vt为t时刻的速度

{ s t = s t − 1 + v t ⋅ △ t + 1 2 ⋅ u t ⋅ △ t 2 v t = v t − 1 + u t ⋅ △ t (4) \begin{cases} s_t& =s_{t-1}+v_t\cdot \vartriangle t+\frac{1}{2}\cdot u_t\cdot \vartriangle t ^2\\ v_t& = v_{t-1} + u_t\cdot \vartriangle t \tag{4} \end{cases} {stvt=st1+vtt+21utt2=vt1+utt(4)

写成矩阵的形式
[ s t v t ] = [ 1 △ t 0 1 ] [ s t − 1 v t − 1 ] + [ △ t 2 2 △ t ] ⋅ u t (5) \begin{bmatrix} s_t\\ v_t\\ \end{bmatrix}= \begin{bmatrix} 1&\vartriangle t\\ 0&1\\ \end{bmatrix} \begin{bmatrix} s_{t-1}\\ v_{t-1}\\ \end{bmatrix}+ \begin{bmatrix} \frac{\vartriangle t ^2}{2}\\ \vartriangle t\\ \end{bmatrix}\cdot u_t \tag{5} [stvt]=[10t1][st1vt1]+[2t2t]ut(5)
跟之前的运动方程对比,就知道
F t = [ 1 △ t 0 1 ] , B t = [ △ t 2 2 △ t ] F_t = \begin{bmatrix} 1&\vartriangle t\\ 0&1\\ \end{bmatrix},B_t= \begin{bmatrix} \frac{\vartriangle t ^2}{2}\\ \vartriangle t\\ \end{bmatrix} Ft=[10t1],Bt=[2t2t]
上式就写为
x ^ t ∣ t − 1 = F t ⋅ x ^ t − 1 + B t ⋅ u t (6) \hat{x}_{t|t-1}=F_t\cdot\hat{x}_{t-1}+B_t\cdot u_t \tag{6} x^tt1=Ftx^t1+Btut(6)
与公式(1)的不同是,公式(1)中的值 x t x_t xt都是真实值,因此其中包含有误差,而公式(6)中的 x ^ t ∣ t − 1 \hat{x}_{t|t-1} x^tt1是由运动学方程计算出来的,因此其中不包含误差。
联立公式(1)和(6)可得:
x t − x ^ t ∣ t − 1 = F ⋅ ( x t − 1 − x ^ t ∣ t − 1 ) + ω t x_t-\hat{x}_{t|t-1}=F\cdot (x_{t-1}-\hat{x}_{t|t-1})+\omega_t xtx^tt1=F(xt1x^tt1)+ωt
接下来计算真实值 x t x_t xt的协方差矩阵,首先明确一点矩阵 x t x_t xt是一个矩阵,它的形式如下所示:
x t = [ x 1 T , x 2 T , ⋯   , x n T ] = [ x 1 , 1 x 1 , 2 ⋯ x 1 , n − 1 x 1 , n x 2 , 1 x 2 , 2 ⋯ x 2 , n − 1 x 2 , n ⋮ ⋮ ⋮ ⋮ ⋮ x m , 1 x m , 2 ⋯ x 1 , m − 1 x 1 , m ] ∈ R m , n x_t=[x_1^T,x_2^T,\cdots,x_n^T]= \begin{bmatrix} x_{1,1}&x_{1,2}&\cdots&x_{1,n-1}&x_{1,n}\\ x_{2,1}&x_{2,2}&\cdots&x_{2,n-1}&x_{2,n}\\ \vdots&\vdots&\vdots&\vdots&\vdots\\ x_{m,1}&x_{m,2}&\cdots&x_{1,m-1}&x_{1,m}\\ \end{bmatrix}\in R^{m,n} xt=[x1T,x2T,,xnT]= x1,1x2,1xm,1x1,2x2,2xm,2x1,n1x2,n1x1,m1x1,nx2,nx1,m Rm,n
也就是说 x t x_t xt中包含了n个状态量,并且每个状态量是一个m维向量,也就是存住了t个时刻的量。
还需要注意一点的是,且
x ^ t ∣ t − 1 \hat{x}_{t|t-1} x^tt1为t时刻的状态矩阵 x t x_t xt 中不同状态量的均值。且
x ^ t ∣ t − 1 = [ m e a n ( x 1 ) m e a n ( x 2 ) ⋮ m e a n ( x n ) ] \hat{x}_{t|t-1}= \begin{bmatrix} mean(x_1)\\ mean(x_2)\\ \vdots\\ mean(x_n)\\ \end{bmatrix} x^tt1= mean(x1)mean(x2)mean(xn)
这也好理解,因为 x t x_t xt中应当是真实值,但是真实值事实上永远不可能知道的。不过呢,真实值的均值可以通过计算 x ^ t ∣ t − 1 \hat{x}_{t|t-1} x^tt1得到,并且在均值的附近有误差,也就是一个在均值附近是一个高斯分布。那么接下来求矩阵 x t x_t xt的协方差矩阵就好理解了。

P t ∣ t − 1 = E [ ( x t − x ^ t ∣ t − 1 ) ( x t − x ^ t ∣ t − 1 ) T ] = E [ ( F ( x t − x ^ t ∣ t − 1 ) + ω t ) ⋅ ( F ( x t − x ^ t ∣ t − 1 ) + ω t ) T ] = F E [ ( x t − x ^ t ∣ t − 1 ) ⋅ ( x t − x ^ t ∣ t − 1 ) T ] F T + E [ F ( x t − x ^ t ∣ t − 1 ) ⋅ ω t T ] + E [ ω t ⋅ ( F ( x t − x ^ t ∣ t − 1 ) ) T ] + E [ ω t ⋅ ω t T ] \begin{equation} \begin{aligned} P_{t|t-1}&=E[(x_t-\hat{x}_{t|t-1})(x_t-\hat{x}_{t|t-1})^T] \\ & = E[(F(x_t-\hat{x}_{t|t-1})+\omega_t)\cdot (F(x_t-\hat{x}_{t|t-1})+\omega_t)^T] \\ & =FE[(x_t-\hat{x}_{t|t-1})\cdot (x_t-\hat{x}_{t|t-1})^T]F^T\\ &+E[F(x_t-\hat{x}_{t|t-1})\cdot \omega_t^T]+E[\omega_t\cdot (F(x_t-\hat{x}_{t|t-1}))^T] \\ &+E[\omega_t \cdot \omega_t^T] \end{aligned} \tag{} \end{equation} Ptt1=E[(xtx^tt1)(xtx^tt1)T]=E[(F(xtx^tt1)+ωt)(F(xtx^tt1)+ωt)T]=FE[(xtx^tt1)(xtx^tt1)T]FT+E[F(xtx^tt1)ωtT]+E[ωt(F(xtx^tt1))T]+E[ωtωtT]()
其中 E [ F ( x t − x ^ t ∣ t − 1 ) ⋅ ω t T ] E[F(x_t-\hat{x}_{t|t-1})\cdot \omega_t^T] E[F(xtx^tt1)ωtT]表示矩阵 F ( x t − x ^ t ∣ t − 1 ) F(x_t-\hat{x}_{t|t-1}) F(xtx^tt1) ω t T \omega_t^T ωtT矩阵的协方差,且由于这两者这件并无关系,所以
E [ F ( x t − x ^ t ∣ t − 1 ) ⋅ ω t T ] = 0 E[F(x_t-\hat{x}_{t|t-1})\cdot \omega_t^T] =0 E[F(xtx^tt1)ωtT]=0同理
E [ ω t ⋅ ( F ( x t − x ^ t ∣ t − 1 ) ) T ] = 0 E[\omega_t\cdot (F(x_t-\hat{x}_{t|t-1}))^T]=0 E[ωt(F(xtx^tt1))T]=0
注意公式中的E表示的是期望,这里是由于协方差的计算方式不同,在matlab中的计算公式课本上的有所不同,这里知道就可以了。
因此就可以得到协方差的预测公式
P t ∣ t − 1 = F E [ ( x t − x ^ t ∣ t − 1 ) ⋅ ( x t − x ^ t ∣ t − 1 ) T ] F + E [ ω t ⋅ ω t T ] = F P t − 1 F T + Q t \begin{equation} \begin{aligned} P_{t|t-1}& =FE[(x_t-\hat{x}_{t|t-1})\cdot (x_t-\hat{x}_{t|t-1})^T]F+E[\omega_t \cdot \omega_t^T]\\ &=FP_{t-1}F^T+Q_t \end{aligned} \tag{} \end{equation} Ptt1=FE[(xtx^tt1)(xtx^tt1)T]F+E[ωtωtT]=FPt1FT+Qt()

由以上的步骤,我们就得到了预测值和预测值的协方差矩阵,接下来就需要将预测值与观测值进行融合了。由于预测值是符合高斯分布,观测值也符合高斯分布,那么融合的本质就是将这个两个高斯分布乘起来,乘起来还是一个高斯分布,那么乘起来之后的高斯分布的均值和方差的公式推导,见帖子两个高斯分布乘积的理论推导

现在我们有n个预测量,假设有k个观测量为
x t − x ^ t ∣ t − 1 = F ⋅ ( x t − 1 − x ^ t ∣ t − 1 ) + ω t x_t-\hat{x}_{t|t-1}=F\cdot (x_{t-1}-\hat{x}_{t|t-1})+\omega_t xtx^tt1=F(xt1x^tt1)+ωt
接下来计算真实值 x t x_t xt的协方差矩阵,首先明确一点矩阵 x t x_t xt是一个矩阵,它的形式如下所示:

z t = [ z 1 z 2 ⋮ z n ] z_t= \begin{bmatrix} z_1\\ z_2\\ \vdots\\ z_n\\ \end{bmatrix} zt= z1z2zn
x t x_t xt z t z_t zt 之间由于单位不同,因此需要使用一个转化矩阵H,即
z t = H ⋅ x t z_t=H\cdot x_t zt=Hxt写成矩阵形式就是
[ z 1 z 2 ⋮ z k ] = H ⋅ [ x 1 x 2 ⋮ x n ] \begin{bmatrix} z_1\\ z_2\\ \vdots\\ z_k\\ \end{bmatrix}= H\cdot \begin{bmatrix} x_{1}\\ x_{2}\\ \vdots\\ x_{n}\\ \end{bmatrix} z1z2zk =H x1x2xn

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值