有时候需要将一个信号与多个参考信号进行比较,以便确定每对信号之间的相似性,从而从相似性中提取出额外的信息。
在雷达应用中,接收到的信号是目标反射回来的信号,该信号是反射信号的延迟形式,通过测量延迟,可以确定目标的位置。
从向量的内积谈起
按照一般教科书的写法,一般会直接给出一个互相关的公式,比如两个能量信号序列的相关性的度量可以定义为
r x y [ l ] = ∑ n = − ∞ ∞ x [ n ] y [ n − l ] r_{xy}[l]=\sum_{n=-\infty}^{\infty}x[n]y[n-l] rxy[l]=n=−∞∑∞x[n]y[n−l]先不解释这个公式的组成以及含义,但是我学习这个的时候一直想,为什么这个公式能够给出两个信号之间的相关性的度量。
所以我打算从向量的内积开始,从向量的内积讲到这个公式,不过由于接下来的都是我的理解,我在数字信号处理的教材中还没有看到相关的介绍(可能是我读书少),所以接下来的数学推导并不是很准确(事实上涉及的数学推导几乎没有),重点是这种思想的理解。
首先考虑两个向量,这两个向量的模长都是固定的,那么怎么描述两个向量之间的相关程度,在我看来,二者之间的夹角大小可以描述这种相关性,如果两个向量相关性高,说明两向量之间的夹角比较小,根据向量的内积
a ⃗ ⋅ b ⃗ = ∣ a ∣ ∣ b ∣ c o s ϕ \vec{a} \cdot \vec{b}=\vert a \vert \vert b \vert cos\phi a⋅b=∣a∣∣b∣cosϕ其中 ϕ \phi ϕ为向量 a ⃗ \vec{a} a与向量 b ⃗ \vec{b} b之间的夹角,如果两个向量相关性越高,那么二者之间的夹角越小,所以 c o s ϕ cos\phi cosϕ越大,由于向量的模长固定,所以相关性越高也就代表着两向量的内积越大。
如果用坐标形式表示,假设两个向量都是二维向量,那么向量的内积可以表示为
a ⃗ ⋅ b ⃗ = x a x b + y a y b \vec{a} \cdot \vec{b}=x_ax_b+y_ay_b a⋅b=xaxb+yayb
虽然我这里用的二维向量,但是明显可以推广到无限维的情况。
那么接下来我们在来看之前在文章开头定义的那个公式
r x y [ l ] = ∑ n = − ∞ ∞ x [ n ] y [ n − l ] r_{xy}[l]=\sum_{n=-\infty}^{\infty}x[n]y[n-l] rxy[l]=n=−∞∑∞x[n]y[n−l]对于序列 x [ n ] x[n] x[n]和序列 y [ n − l ] y[n-l] y[n−l]可以看做是一个无限维的向量,而
x [ − ∞ ] , . . . , x [ 0 ] , . . . , x [ ∞ ] x[-\infty], ..., x[0], ..., x[\infty] x[−∞],...,x[0],...,x[∞]可以看做是"向量" x [ n ] x[n] x[n](这里我把 x [ n ] x[n] x[n]看做是一个向量了)的坐标,相应的
y [ − ∞ ] , . . . , y [ − l ] , . . . y [ ∞ ] y[-\infty], ..., y[-l], ... y[\infty] y[−∞],...,y[−l],...y[∞]可以看做"向量" y [ n − l ] y[n-l] y[n−l]的坐标,所以
∑ n = − ∞ ∞ x [ n ] y [ n − l ] \sum_{n=-\infty}^{\infty}x[n]y[n-l] n=−∞∑∞x[n]y[n−l]可以看做是"向量" x [ n ] x[n] x[n]与"向量" y [ n − l ] y[n-l] y[n−l]的内积,而对于取不同的 l l l, x [ n ] x[n] x[n]的模与 y [ n − l ] y[n-l] y[n−l]的模都是不变的(不论序列 y [ n ] y[n] y[n]是有限长还是无限长),符合我们推导时做的假设,所以在这里我从向量的内积这个方面解释了为什么这个公式可以表示两个信号的相关性程度。
定义
互相关
上面从向量内积的角度理解了互相关公式,接下来将按照教科书上给出严格的定义。
互相关序列 r x y [ l ] r_{xy}[l] rxy[l]表示一对能量序列 x [ n ] x[n] x[n]和 y [ n ] y[n] y[n]之间相似性的度量,其定义为(假设式中的无限求和是收敛的)
r x y [ l ] = ∑ n = − ∞ ∞ x [ n ] y [ n − l ] r_{xy}[l]=\sum_{n=-\infty}^{\infty}x[n]y[n-l]