高通平台GPS工程测试&接收参数解析


前言

由于现阶段终端开发十分迅速,高通平台的GPS链路十分简单,在第一次贴片开机之后,等待软件驱动给SDR以及SDR的GPS接收端口配好之后,再把链路上 LNA的GPIO以及VDD电源配齐之后,即可开始调试GPS通路的性能。
因此本文将针对高通平台的GPS研发阶段工程测试进行讲解,并且对测试过程中出现的几个常见参数进行一个数学解释,以便更好理解整个GPS测试过程的意义:)


一、GPS工程测试

一般来说,高通平台的GNSS测试包括FTM测试和并发测试(Concurrency Test),其中的并发测试特指GNSS与所有制式的并发共存性能测试,若更进一步的细致测试,还有与摄像头、OLED屏幕等外设的共存性能测试。
测试系列也迭代到了第九代(Gen 9),我们常用FTM测试树来验证硬件并且测试GPS性能(GNSS_Gen9_FTM.xtt)
在这里插入图片描述
该测试树包括以下的测试项:宽带、窄带的频谱分析(WB、NB Spectrum Analysis),CN0的校准测试,追踪灵敏度测试(Tracking Sensitivity),误码率测试(BER)。而在进行这些测试前,还需要确认几个前提:测试环境以及仪器的搭建,板子/整机的状态。

1、测试环境&仪器搭建

测试环境应位于实验室,有条件可以在屏蔽房内进行,避免外界信号干扰影响测试结果,特别是在测试灵敏度与BER的时候,应确保测试环境内有没有或者已经关闭GPS放大器;仪器应具备:带有QDART工具的PC,CMW500作为时钟参考以及基站设备,信号发生器(SG)作为加扰信号,GNSS模拟器作为卫星信号模拟发射,其中,PC与CMW、SG、GNSS应通过GPIB相连形成控制,而CMW的clock输出应该与SG、GNSS的clock输入相连形成同步,最后PC与主板/整机通过USB连接形成执行与写入。

2、板子/整机状态

测试前先确认

  • 软件与硬件状态,是否软件与有源器件的驱动与端口配置OK?硬件上的供电电压是否正常?
  • XO是否已经进行校准?可通过NV67300查看,其中的“ft_qual_ind”字段为1,则是未进行XO校准的板子,需进行校准;若该字段为5,则说明板子已经进行了XO校准,但是,由于新平台的XO校准只对占空比(Duty Cycle CAL)和频偏进行粗校准(DC Coarse CAL),没有微调或者细校准(Fine CAL)节点,因此,微调XO这一部分交给了仪器或者现网,需通过信令连接仪器后,以最大功率发射维持几分钟,后查看NV是否变化,或者连接现网,打开板子/整机的GPS,将其置于室内GPS放大器下,维持几分钟后查看NV是否变化;若该字段为6/8/11,则说明XO已经微调,可以进入测试状态。亦可手动更改该字段,目前手动更改该NV项,并没有影响整个测试过程~
    可以参考以下的checklist:
检查项检查标准√/×
校准测试软件QDART和xtt是否与平台一致且为最新版本?
PC的控制GPIB是否与所有仪器连接并且有COM口?
仪器的同步同步信号是否与所有仪器连接并且不报错?
主板的连接PC与主板是否成功启动并且有端口?
软件确认是否合入了最新变更并且能驱动GPS?
硬件确认驱动GPS时的GPIO和VDD是否正常?
XO校准XO是否经过校准并且NV67300为6/8/11?
干扰确认环境是否无GPS干扰?是否有屏蔽盖?
GPS确认GPS是否能在QXDM上打开并且搜到星?
插损确认系统链路损耗SPL是否在接受范围之内?
CN值确认CN值是否≥40dB?
灵敏度确认灵敏度是否在理论值附近?

二、GPS接收机参数解析

1、灵敏度

对于GPS系统,灵敏度指标包括多场景下的指标——跟踪灵敏度、冷启动灵敏度、热启动灵敏度。GPS接收机首先需要完成对卫星信号的捕捉,完成捕捉所需要的最低信号强度为捕捉灵敏度,在捕捉之后能够维持卫星信号跟踪所需要的最低信号强度为跟踪灵敏度(Tracking Sensitivity),目前业界已经可以实现跟踪灵敏度在 -160dBm以下。
从系统观点看,GPS接收机的灵敏度主要由两个方面决定:

  • 接收机前端整个信号通路的增益以及噪声性能
  • 基带部分的算法性能

其中接收机前端决定了接收信号到达基带部分时的信噪比,而基带算法则决定了解调、捕捉、跟踪过程所能够容忍的最小信噪比

2、空间衰减

GPS信号是从距离地面20000km的低轨道卫星上发送到地面上来的,其中L1频段(f=1575.42MHz)的自由空间衰减为:
λ = c f = 3 ∗ 1 0 8 m / s 1575.42 M H z = 0.19 m \lambda = \frac{c}{f}= \frac{3*10^8m/s}{1575.42MHz}=0.19m λ=fc=1575.42MHz3108m/s=0.19m
F = ( λ 4 π R ) 2 = ( 0.19 4 ∗ π ∗ 2 ∗ 1 0 7 ) 2 = 5.73 ∗ 1 0 − 19 = 182.4 d B F=(\frac{\lambda}{4\pi R})^2=(\frac{0.19}{4*\pi *2*10^7})^2=5.73*10^{-19}=182.4dB F=(4πRλ)2=(4π21070.19)2=5.731019=182.4dB
根据GPS系统设计指标,L1频段的C/A码信号的发射EIRP应达到P=26.8dBW,减去衰减值后,再加上5dB余量,则得到卫星信号到达地面的数值为:
P = 26.8 − 182.4 − 5 ≈ − 160 d B W = − 130 d B m P=26.8-182.4-5≈-160dBW=-130dBm P=26.8182.45160dBW=130dBm
因此,在测试中会定义GPS信号到达天线端口的信号功率为-130dBm
我们知道环境热噪声功率谱密度为-174dBm/Hz,因此对带宽为2.046MHz的GPS信号,其频带噪声能量达到了
− 174 d B m / H z + 10 l o g ( 2.046 M H z ) = − 111 d B m -174dBm/Hz+10log(2.046MHz)=-111dBm 174dBm/Hz+10log(2.046MHz)=111dBm
远大于-130dBm的GPS信号,因此GPS是隐藏在噪声之下的。
在这里插入图片描述

3、SNR信噪比

是基带中有用信号与噪声功率之比,这个有用信号是指调制前,或者解调后的信号
S N R = 10 ∗ l o g 10 ( S N ) SNR=10*log_{10}(\frac{S}{N}) SNR=10log10(NS)
在这里插入图片描述

4、C/N载噪比

是指解调前的射频信号载波功率与噪声功率的比值,SNR与CNR对比,前者是反应基带信号质量,后者是反应射频信号质量,一般来说CNR往往大于SNR,因为信号在解调过程中会额外引入噪声,恶化信噪比SNR
在这里插入图片描述

5、C/N0载波噪声密度(Carrier to Noise Density)

环境热噪声功率谱密度为-174dBm/Hz=-204dBW/Hz,GPS信号功率为-130dBm=-160dBW,可以得到:
C N 0 = − 160 d B W − 204 d B W / H z = − 130 d B m − 174 d B m / H z = 44 d B ∗ H z \frac{C}{N_0}=\frac{-160dBW}{-204dBW/Hz}=\frac{-130dBm}{-174dBm/Hz}=44dB*Hz N0C=204dBW/Hz160dBW=174dBm/Hz130dBm=44dBHz
所以CN0的单位为dB*Hz,不同于SNR、CNR的单位为dB。在GPS系统中,常用CN0来表示信号强度与质量,其原因是除了GPS L1之外,还有GPS L2、L5等频段,以及其他的定位系统如BeiDou、Galileo、GLONASS等,每个系统都会有自己的频率、带宽、信号调制的配置,而SNR或者CNR会因为带宽不同,引入的总噪声能量不同,导致最终的计算结果不同,因此无法统一量化。而C/N0则是将带宽变化这一因素消除,直接量化信号质量的同时,不会随带宽的变化而改变
C N = 10 l o g C − 10 l o g N = 10 l o g C − 10 l o g ( N 0 ∗ B W ) = 10 l o g C − 10 l o g N 0 − 10 l o g B W \frac{C}{N}=10logC-10logN=10logC-10log(N_0*BW)=10logC-10logN_0-10logBW NC=10logC10logN=10logC10log(N0BW)=10logC10logN010logBW
C N 0 = 10 l o g C − 10 l o g N 0 = 10 l o g C − 10 l o g N 0 − 10 l o g B W + 10 l o g B W = C N + 10 l o g B W \frac{C}{N_0}=10logC-10logN_0=10logC-10logN_0-10logBW+10logBW=\frac{C}{N}+10logBW N0C=10logC10logN0=10logC10logN010logBW+10logBW=NC+10logBW
由以上公式推导可得:
C N = − 160 d B W 2.046 M H z ∗ − 204 d B W / H z = − 160 d B W − 141 d B W = − 19 d B \frac{C}{N}=\frac{-160dBW}{2.046MHz*-204dBW/Hz}=\frac{-160dBW}{-141dBW}=-19dB NC=2.046MHz204dBW/Hz160dBW=141dBW160dBW=19dB
C N 0 = C N + 10 l o g B W = − 19 d B + 10 l o g ( 2.046 M H z ) = 44 d B ∗ H z \frac{C}{N_0}=\frac{C}{N}+10logBW=-19dB+10log(2.046MHz)=44dB*Hz N0C=NC+10logBW=19dB+10log(2.046MHz)=44dBHz
由此,我们在进行测试时,总是要求搜星时的CN值至少要大于40dB,这就是整个测试参数的由来
在这里插入图片描述

三、GPS测试示例

1、电路元件确认

这里形容一下我们的方案链路:GPS信号被天线接收后,经过一个三合一的滤波器Z1(GPS L1+WiFi 2.4G+WiFi 5G)将L1频段的信号滤出,再经过一个GPS频段的滤波器Z11,GPS LNA D61,最后再经过GPS频段滤波器Z10后,才进入SDR的GNSS L1 port
其中我们关注的就是上面链路器件的参数,特别是滤波器的插入损耗(Insertion Loss)以及LNA的噪声系数(Noise Figure),查看datasheet,参数如下:

器件&位号supplier参数
滤波器Z1MurataIL,617~1605MHz,0.85dB typ.
滤波器Z11,Z10Murata/TaiyoIL,1558~1605.886MHz,1.4dB typ.
LNA D61MXDNF,0.50dB @ 1575.42MHz

得到链路上的损耗大致为:0.8+1.4+0.5+1.4=4.1dB
实际上报的System Processing Loss为2.8dB
在这里插入图片描述

2、测试环境搭建

在这里插入图片描述

  • 带有QDART工具的PC
  • CMW500输出时钟参考
  • 信号发生器(SG)作为加扰信号
  • GNSS模拟器作为卫星信号模拟发射
    其中,PC与CMW、SG、GNSS应通过GPIB相连形成控制,而CMW的clock输出应该与SG、GNSS的clock输入相连形成同步,最后PC与主板/整机通过USB连接形成执行与写入
    设置参数:
  • GNSS信号模拟器,信号强度=-130dBm
  • 信号发生器,加扰信号强度=-120dBm(经过10dB衰减)

3、测试结果

  • 宽带频谱分析

在这里插入图片描述

  • 窄带频谱分析

在这里插入图片描述

  • CN0

在这里插入图片描述

  • 追踪灵敏度

在这里插入图片描述

  • BER

在这里插入图片描述

  • 8
    点赞
  • 72
    收藏
    觉得还不错? 一键收藏
  • 5
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值