我们常说的信号调制(Modulation),其实在不同的语境(Context)下有着不同的意思。不过不只是初入行的员工,一些老鸟有时也常常会搞混淆。
传统上的调制,简单说就是把携带信息的信号,”调制“到载波信号上去。所谓的载波信号,通常是高频信号,因为高频信号有易于传播的特质。
而能够被调制的对象则是信号的幅度、频率,相位,或者这三者的混合行为。
如果把经典的调制概念在学术意义上加以分类:可以这么说:
1. 对应于模拟调制:AM/FM/PM.
2. 对应于数字调制:ASK/FSK/PSK.
常常说的码域处理,其实严格来说不是调制,而是在发生在信号调制之前的信号编码处理--以提高信号的抗干扰能力。
如果把信号调制概念放到移动通讯中来看:
在移动通讯里常常有两个地方涉及到调制,但是意义完全不同。我们以发射机为例加以解释(接收机大体上是相反的过程,通常称为解调)。
第一个调制,俗称为基带调制—因为是发生在数字域上的。
在信号被调制之前,典型会经过如下变换:原始的语音或者packet data-> 数字化&信源编码 (只对语音而言,IP data则可以省却) -> 信道编码(比如L2/L3加保护,封包,交织等等),这时候就ready for 基带调制。
信号调制的目的,是把需要传输的原始信息在时域、频域,或者码域上进行处理,以达到用尽量小的带宽传输尽量多的信息。很眼熟是吧:没错,这就是香浓定律专注的地方,也是无数算法工程师,DSP工程师忙碌的地方。
Note: GMSK/QPSK/8PSK/16QAM/64QAM分别表示了不同的调制方法,就是想方设法把原始的信息“简化编码”,以达到用最少的symbol来代表原来的2^N个bit的目的,接下来被传输的是Symbol而不是bit。
GMSK: 1 symbol=1bit => QPSK:1 symbol=2bit …=> 64QAM:1 symbol=6bit
对于CDMA,还会多一道“扩频”,得到的多个Chip (chip的个数=扩频码的长度)来代表1个Symbol。
完成了这些信号映射,从硬件电路实现上来说,基带调制最终输出IQ信号,可以简单的获得:
Ib=Ab(t)sin(ωb t); Qb=Ab(t)cos(ωb t)
Ab(t)=基带信号的幅度;ωb t=基带信号的相位。两者均是时间的函数。
第二个调制,是常说的“射频调制”。也有称为IQ调制的(这名字源于调制的方法)。常常有人把这里的IQ调制和前面的基带IQ信号以及后续要用到的本振IQ信号搞混。
从射频角度来说,这个也可以叫做频谱搬移,其目的是把基带调制的信号搬移到射频频率上,这样信号才能够以无线的方式发射出去。
这里基带信号通常为“零频信号”,即载波为DC,频宽为信号带宽的调制信号;
射频调制可以用纯粹的三角函数来演示: cosa*cosb-sina*sinb =cos(a+b)
如果a=ωc t(载波频率,carrier信号,或者称为为LO,本振信号),b=ωbt代表前述的“基带信号频率”。则我们得到:
Qb*cos(ωc t)-Ib*sin(ωc t)=
Ab(t)cos(ωb t) cos(ωc t)+Ab(t)sin(ωb t) sin(-ωc t)=
Ab(t)cos(ωc+ ωb)t
从这个公式我们可以得到很多有意思的结论:
1).直观的结果:提供cos(ωc t)给Qb(相乘,即混频), 提供sin(-ωc t) 给Ib (相乘,即混频),再把产物相加,最后得到的就是射频调制信号;
2).狡猾的实现: sin(-ωc t)在硬件实现上很简单因为sin(-ωc t)=-cos(ωc t+90),就是说对原始的LO信号提供90度(1/4周期)的相移,再取反就可以得到—这是硬件上很容易实现的。
3).相位同步:基带信号ωbt和本振信号ωc t要零相位差。或者说,基带调制信号送至射频发射机调制之间的硬件delay需要被补偿至2π。
4).幅度变化:注意最后产物上叠加的A(t),为基带信号的幅度信息。从这里可以看出恒包络信号(如GMSK, A(t)基本为常数)和非恒包络信号(如QPSK-nQAM, A(t) 可能在最大和0之间变化)对于最终射频信号的影响—这个影响(用PAR来衡量)对于射频放大器的限制是众所周知的。
关于IQ调制器,找不到很好的图,从wiki上拿来一个近似的图,可以表达基本的意思--大家不要拿上述公式里的symbol对号入座,只是个大概意思。
注意这里已经是理想状况,没有考虑各种非理想状况例如载波泄露,相位不平衡,幅度不平衡等等,都可以代入公式做量化分析。有兴趣的同学可以自行搜索相关文章。
**************************************************************************************************************************
其实如果不计功耗,并且处理器性能足够强大的话,协议栈完全软件实现就可以了,这个时候就没有基带芯片这个说法了,也许是台PC来完成所有的数据处理就OK了。
但实际上是因为有面积(只能是一小块指甲大小的芯片完成所有工作)、功耗(终端是靠电池的,要能在极小的功耗下完成所有任务)的限制,所以就要优化设计了。
一般的基带芯片,ARM处理器承担的是控制,由它来实现各个任务之间的协调和调度。而DSP是用来做完成运算任务的,但并不是所有的运算任务都在DSP里实现。为什么呢?因为DSP(数字信号处理器)虽然已经面向数字信号处理进行了相当的优化,但它毕竟还是处理器,因此要是完全要它来实现的话,功耗和性能也是不可接受的。因此就需要把一些比较常用的算法固化起来做成硬件(比如FFT,当然了LTE的好多算法比FFT规模大很多),这样才能在性能和功耗之间折中。
所以,这是个软硬件划分的问题,也是一个权衡折中的问题,只有解决了这些问题,才能做出满足性能功耗面积要求的基带芯片,因此它并不简单。