实现如下:
网络上有大量关于广义时延估计的讲解和实现,其原理很好理解,本人不在赘述,但是在实现过程中我发现虽然大家截图一样,但是代码还是有些差别;本人一一尝试后没有发现鲁棒性很好代码,很多在普通的GCC算法能够正常工作(暂时不考虑噪声),但是使用PHAT加权后计算时延总算是0,但是在论文和其他文章提到PHAT算法应该是一个正交化(白化)过程,效果应该更改好。
在经过一下午查阅资料后,我发现并不是算法本身的问题,而是编写的问题。julia实现如下,首先获取声源:
using DSP, FFTW, Makie
import GLMakie
##生成chirp信号
T = 2^14
e = randn(T)
fs = 44100
c = 340
d = 0.5
t = range(0,step=1/fs, length=T)
chirp_f = LinRange(2000, 2200, T)
yy = sin.(2pi .* chirp_f .* t )
yn = yy .+ e
add_window(yn) #加窗,自己实现一下就可以了
x = yn[1:1000]
y = yn[5:1004]
编写GCC算法如下:
l1, l2 = size(x, 1), size(y, 1)
outsize = l1 + l2 - 1
max_lag = round(Int, d / c * fs) #d为麦克风距离,c为声速,fs采样频率
nffts = nextpow(2, outsize)
vaild_index = (nffts