“Computer Vision Aided mmWave Beam Alignment in V2X Communications” 《V2X 通信中的计算机视觉辅助毫米波波束对准》
本文仅对该论文进行分析,如有侵权请及时告知
原文链接:https://ieeexplore.ieee.org/document/9923616/
研究目的
进行基于MS端图像的波束对齐(最优波束对的挑选)以及估计波束相干时间beam coherent time (BCT)
研究背景
大规模MIMO波束形成和毫米波技术是5G中关键技术,传统的波束形成技术如根据估计信道矩阵来计算波束形成矩阵或用特定码本扫描波束带来巨大的开销。采用带外信息如图像,定位,雷达等可以有效提升波束赋形能力。采用摄像机拍摄图像进行辅助波束成形时,若在BS端拍摄图像,则需要用户附加信息来识别UE,由此带来额外的通信开销,并且存在用户隐私问题。替代方案则是使用UE端的视觉能力,随着汽车智能化以及无人机能力升级,此资源十分容易获取,依赖用户端视觉波束对准在此论文之前尚未被解决。
研究方法(本文贡献)
- MS位置可获得时,获得MS周围物体的空间分布信息,设计DNN网络根据MS位置信息以及周围车辆分布情况来预测最佳光束对
- MS位置不可获得时,获得MS周围物体的空间分布信息,设计DNN网络仅根据周围车辆分布情况来预测最佳光束对
- 基于视觉的波束相干时间预测(即最优波束对保持不变的持续时间)
- 使用光线追踪软件,交通模拟软件进行进行模拟,与基于激光雷达和BS视觉的方法进行对比。
系统模型
单个BS与单个UE的下行场景,采用OFDM毫米波通信系统。BS端Nb根ULA均匀线性阵列,MS端Nu根ULA线性阵列,均仅一个射频链路。第k个子载波的下行链路信号表示为公式1
使用经典几何信道模型,信道矩阵可以表示为公式2,
α为信道复增益,ar和at分别是接受和发射ULA的复数导向矢量,当天线间距设置为半载波波长,转向矢量表示为
使用波束赋形码本进行模拟波束赋形,最优波束对被选择以达到最大数据传输速率如公式4
基于视觉的波束对齐
分别以MS,摄像机,路边基站RSU(road-side unit)为中心建立三个坐标系MS coordinate(MCS),camera coordinate(CCS) ,
RSU coordinate(RCS)如下图所示:
MS可获得可靠的位置信息
作者提出VBALA(Vision based beam alignment when the MS location is available )分三步
1)将车辆的坐标和角度从CCS(摄像机坐标系)转到RCS(道路坐标系)
2)在RCS坐标系下进行图像网格化并生成车辆分布特征vehicle distribution feature(VDF)
3) 设计深度神经网络并根据VDF和MS位置进行最优波束对的预测
首先
坐标转化如下图矩阵所示:(如图一所示,θ指在各自坐标系中物体方位和y轴之间的夹角,i,j是指第(i,j)th vehicle)
其次
将X-Y平面网格化如下图所示,设计VDF为G行4列的矩阵F,第g行设定为
当该网格不含车辆时,相应行被设置维零向量
最后
依据transformer模型设计VDBAN网络来根据MS位置和VDF来进行学习如下图,输入维VDF和MS location输出为最优波束对的下标
MS不能获得可靠的位置信息
当MS位置信息无法准确获得时,利用图像信息反映MS位置信息,此时由于普通2D图片无法处理远近大小关系,并且色彩信息对于该任务是无用的,故将图像中车辆尺寸信息填充至车辆颜色信息,采用2D图像掩膜的方法来粗糙覆盖车辆,所有车辆可以被含有尺寸信息的2D掩膜覆盖后进行拼接得到SIF(scene image feature) I。然后设计深度神经网络VBALU(Vision based
beam alignment when the MS location is unavailable)进行训练,输入为I 输出为也是和上面相同,为最优波束对。
基于视觉的 BCT(beam coherence time)预测方法
关于波束相干时间的定义仿照信道中相干时间的定义,即保证该时间内仍是当前波束是最佳波束(或能保证一定阈值以上的通信质量),
以下讨论估计波束相干时间准确度的重要性:若估计BCT较长,如第一张图,则从TA到TL一直都不是最优波束对,影响传输速率。若估计BCT较短,如下图3,则导致重复的波束对齐,在粉色时间段内对齐了三次,产生没必要的时间开销。
传输速率受两个因素影响,波束对齐精度和波束对齐时间,现象波束对齐精度和传输速率是正相关,实际考虑时间开销的传输速率可表示为下图红圈内公式,当估计BCT更长时,对齐时间会更短,但是速率会下降由于波束无法对齐;当估计BCT更短时,速率是最优的,但是波束对齐时间会上升从而导致实际传输速率下降,因此需要准确的BCT时间估计。
复杂环境下往往采用固定BCT策略,本文作者认为MS连续感知的环境图像可以反应周围环境特征和运动特征,可以预测准确的BCT,提出VPBCT(vision based method to predict the beam coherent time)算法如下图所示
为减少深度学习的难度,作者定义最小波束相干时间,且BCT均为最小相干时间的整数倍,由此变成一个深度学习中的分类问题。
作者设计一个基于场景图像的BCT预测DNN网络(SIBPN)。此处不过多阐述。
模拟结果
评价指标:
对于VBALA和VBALU使用可达到传输速率比ATRR(achievable transmission rate ratio):
由所选择的波束对实现的平均传输速率与作为性能度量的最佳平均传输速率之间的比率。
对于VPBCT采用BCT预测精准度 BCT prediction accuracy (BCTPA)
结果VBALA和VBALU与BMBA(BS基于视觉的多模态波束对准),LBA(基于激光雷达的波束对准),SABA(基于态势感知的光束对准)
下图为BCT的实验结果
实验结论
在LOS场景下,VBALA、VBALU、BMBA和LBA的性能相似。对于非直瞄场景,与LBA相比,VBALA和VBALU在硬件要求和波束对准精度方面具有明显优势,并且与BMBA相比,可以在不增加通信成本的情况下实现更好的波束对准性能。VPBCT通过从场景图像序列中捕捉通信环境的变化,可以有效地提高传输速率。
个人评价
说到底是根据图像中提取的车辆信息以及是否加上MS位置信息来进行波束选择,评价指标和实验方案给我不小启发,但是这类问题的研究(本篇论文)也可能是我没注意到,并没有解释为何为什么用深度学习来做,只是说深度学习可以挖掘环境信息,但是可以看出老师做的还是很专业的。
PS:最近进行文献分析工作很容易直接copy一部分的翻译,还是需要多加入思考
初编辑于2023-04-17