参考image sensor Understanding CMOS Image Sensor - 知乎
目录
1. 积分时间 (integration time)或者叫做曝光时间
9.其他-前照式工艺(FSI)-主光线角(CRA)-背照式工艺 (BSI)-Foveon sensor等后续补充
0.前提
0.1CMOS Sensor特性
CMOS sensor的本质是计量光电转换事件的线性传感器,在一定意义上可以说是光子计数器,sensor上每个像素的读值都反映了指定时间内该像素捕获光子的数量。一个理想的sensor 应该具备以下一些特性:
- 输出与输入恒成正比(无sensor噪声,只有信号本身的噪声)
- 输入输出均可以无限大
- 高灵敏度,小的输入激励大的输出
- 高帧率
- 高分辨率
- 低功耗
- 工艺简单
- 低成本
理想 CMOS sensor 的响应特性下图所示
图中直线的斜率决定了单位输入能够激励的响应大小,这个斜率称为增益系数(gain)。sensor 会提供一组接口用于调节实际生效的增益值。(下面这图什么意思不太理解?)
而实际的sensor只能是在一段有限的区间内保持线性响应,对于幅度过小或者过大的输入信号会不能如实地表示。
下图是用示波器实测像素线性度的测试数据。
下图是实验测量的输入输出曲线,横坐标是入射到sensor的光子数,纵坐标是sensor输出的数值(Digital Number, DN)。
以上关系用公式描述就是
S(N, t) = q(λ)·N·t
其中,S(N, t)是sensor的一个像素采集到的电子数, q(λ,)是sensor在波长λ处的光电转换效率,N是单位时间内入射到sensor表面的光子数(波长λ的单色光),t是曝光时间。
sensor 最终输出的像素值是使用ADC对S(N,t)进行采样和AD转换得到的量化值,该值会有PV(Pixel Value),ADU(Analog-Digital Unit),DN(Digital Number),Output Code等多种表述方式,并且
DN=g*S(N, t)
其中符号g代表增益系数gain,意义是多少个光子能够激励出1个比特的DN值。
下图描述了一个CMOS像素发生光电转换和收集光生电子的过程。
以上过程会涉及几个关键性的参数,下面简要给出描述。(第2节到最后)
1. 积分时间 (integration time)或者叫做曝光时间
1.1出现情况
整体倾斜(skew)
如下图车辆的例子
传送带上的电路板图像运动skew
图像摇摆(wobble)
如下图所示
在无人机、车载等应用中,camera本身随载具平台一起运动,平台的高频机械振动会对成像造成较大扰动,图像产生摇摆。即使在安防场景中,如果camera附近存在振动源(如空调电机)也会产生同样的问题。
部分闪光(partial flash)
如下图所示
普通摄影闪光灯的闪光时间 通常只有几个毫秒,显著短于一帧图像的成像时间,因此只有一部分画面能够被闪光照亮。
微软研究院的Simon等人使用光流法追踪摇摆像素的运动矢量,从而对摇摆进行校正。
工频闪烁 (flicker)
工频闪烁,通常发生在室内场景,曝光时间设置如果不是光源能量周期的整数倍,则图像不同位置处积累的信号强度不同,并呈周期性变化,这是单帧图像的情况。在视频序列上,如果满足一定条件,视频会出现条纹模式在垂直方向上缓慢移动。
工频闪烁的形成原因与CMOS sensor rolling shutter的工作原理相关,并且受交流电的频率影响。对于同样的积分时间t,sensor不同位置处的像点开始积分时所处电信号的相位不同,所以同样时间t 内能够积累的光子数也不同。如下图所示。
flicker 的本质是像素曝光起始点相对交流电的相位关系在不断变化。这个问题不仅存在于一帧图像内部,在帧与帧之间也存在同样的问题。
以电频率50Hz为例,如果sensor 工作在25或50fps(frame per second),则帧频率刚好与电频率同步,每帧图像的flicker 表现(明暗位置)与上一帧完全相同,所以明暗条纹在视频上是静止不动的。如果sensor工作在30或60fps,则每帧的flicker与上一帧会产生固定的相移,视频上的明暗条纹图样会在画面垂直方向上缓慢移动。
在室内,为了避免工频闪烁,曝光时间应设置为光源能量周期的整数倍。在中国,光源能量周期为10ms(交流电周期的1/2),在美国则为8.3ms,调整曝光时间时要特别注意这一点。
1.2 积分时间和曝光时间换算关系
用户在使用camera拍摄时需要根据场景特点决定所采用的曝光时间(exposure time),或者让camera 在设定范围内自动选择最合适的曝光时间,这时所涉及的曝光时间概念主要与拍摄场景有关,一般是以毫秒为单位计算的绝对时间,也是用户比较熟悉和容易理解的概念。
而sensor 中用来控制曝光长短的寄存器参数称为积分时间,一般是以行为单位的,这个概念是源于sensor 的技术特性,一般不需要用户去理解。
曝光时间和积分时间存在确定的换算关系。比如说int_t=159,指的是sensor reset 信号和read 信号之间的间隔为159行,而每行所占的绝对时间(line_time)与sensor 主频(pixel clock, PCLK)的和每一行包含多少像素(行长 )有关,具体公式是:
line_time=h_size / pclk
其中h_size 为行长,以PCLK 数为单位,1/pclk 为一个时钟周期,即扫描一个像素需要花费的绝对时间
因此曝光时间与积分时间的换算公式如下:
exposure time = int_t * line_time
举例来说,假设一个1080p sensor PCLK=76MHz,每行配置成2000个PCLK(由有效像素和blanking组成),则有
line_time = 2000 / 76MHz = 26.32 us
如果某个场景需要10ms曝光时间,则sensor 积分时间应如下计算,
int_t = 10000us / 26.32us = 379.9 (行)
显然这个例子可以安全地将sensor 寄存器配置为380行,就能得到10ms的曝光时间。
但是当 int_t < 2 时问题就会变得有些复杂。假设计算出的理想积分时间是1.5行,此时自动曝光算法就很容易产生振荡,不停在1行和2行之间切换而无法稳定在一个固定值。因此有些sensor 会支持分数行,可以帮助解决这个问题。
1.3 改进方式
Interlaced 曝光
为了改善rolling shutter 曝光方式存在的问题,有人提出了Interlaced 曝光和读出方式,如下图所示,新的曝光顺序将一帧拆分成8组,第一组包含行号 {0,8,16,24...},第二组包含行号 {1,9,17,25,...} ,以此类推,第八组包含行号 {7,15,23,31,....} 。这种曝光方式的优点是组与组之间的曝光延时为一帧时间的八分之一,以1080p@30fps 为例,一帧的读出时间大致在28ms左右,在新的曝光方式下像素间的最大曝光延时仅为3.5ms,可以更好地捕捉运动场景。
斩波曝光(chopped)
在智能交通领域常会遇到拍摄交通信号灯的需求。大部分信号灯直接使用220V市电供电,因此会存在10ms的光能量周期(美国是110V,周期8.3ms)。偶尔也会有信号灯厂家偷工减料,使用半波整流器件将电频率的负半周过滤不用,这就导致信号灯每亮10ms之后就会熄灭10ms。虽然人眼看不出来,但sensor看的非常清楚。P.S. 遇到这种偷工减料的信号灯,一般可以要求业主更换信号灯供应商,并拉黑原供应商。
由于信号灯存在10ms的明暗周期,当sensor曝光时间很短时,就会遇到某一帧图像里信号灯碰巧全都不亮的尴尬场景,如下图所示。
一般在晴朗的夏天,sensor曝光时间可能会需要短于1ms才能保证画面不过曝,此时遇到信号灯近似熄灭的概率已接近50%。而在夜晚则曝光时间通常需要大于10ms,所以不会遇到信号熄灭的问题,相反会遇到信号灯光太强以致sensor过饱和,全部信号变成白灯的问题。
除了红绿灯之外,很多汽车上使用的LED大灯或者信号灯也是有频率的,而且平均点亮的时间(占空比,duty cycle)可能更短,如下图所示,这种情况sensor抓拍到LED(信号)灯熄灭的概率会更大。
为了缓解这个问题,有人提出了斩波曝光的工作模式,其原理是把正常曝光所需的曝光时间(比如1ms)分散到11ms的固定时间间隔内执行,通过多次短暂曝光的效果累加实现1ms等效曝光时间,且能保证采样到信号灯最亮的时刻,如下图所示。
这种方法的好处是增大了捕捉到信号灯点亮的概率,但是由于捕捉的时间短,所以画面上信号灯的亮度会比正常的要弱。所以这种方法并没有完美解决问题,只是一种缓解(mitigation)的方法。
2. 量子效率 (Quantum Efficiency)
量子效率是描述光电器件光电转换能力的一个重要参数,它是在某一特定波长下单位时间内产生的平均光电子数与入射光子数之比。
由于sensor存在三种像素,所以量子效率一般针对三种像素分别给出。下图是一个实际sensor的量子效率规格示例。
3. 势阱容量 (Saturation Capacity)
势阱容量又称Full Well Capacity,指一个像素的势阱最多能够容纳多少个光生电子,消费类的sensor一般以2000~4000较为常见,此值越大则sensor的动态性能越好。
下图给出一个包含势阱容量规格的例子。
图中可以看出,不同厂家的像素工艺可以相差很大,较先进的工艺可以在34μm2的面积上容纳超过3万个电子,平均每μm2可以容纳近1000个电子,而普通的工艺每μm2只能容纳不到400个电子。
下图是两款SONY sensor进行比较。
下图是一些单反相机sensor的饱和阱容比较。
4. 噪声
“噪声”的广义定义是:在处理过程中设备自行产生的信号,这些信号与输入信号无关。
由于电子的无规则热运动产生的噪声在所有电子设备中普遍存在,是不可避免的,因此被重点研究,并赋予了很多名字,如本底噪声、固有噪声、背景噪声等,英文中常见noise floor, background noise等提法。如下图所示,器件的温度越高,电子的热运动越剧烈,产生的噪声也就越大。
真实世界中的所有信号都是叠加了噪声的,图像信号也不例外,如下图所示,当有用信号的幅度小于背景噪声时,这个信号就淹没在噪声中而难以分辨,只有当有用信号的幅度大于噪声时这个信号才是可分辨的。
假设照明强度恒定、均匀,相机拍摄图像中的噪声是测量信号中空间和时间振动的总和。下图以传递函数的形式总结了CMOS sensor 光、电转换模型以及几种主要噪声的数学模型。
下图更加细致地描述了CMOS sensor 成像过程中各种噪声的来源和作用位置。
4.1噪声类型
4.1.1暗散粒噪声(σD)
硅片中电子的热运动会导致一些价电子随机激发至导带中形成暗电流(dark current),所以即使完全没有光子入射,sensor也会存在一定的信号输出。在曝光过程中,暗电流的随机变化即形成暗散粒噪声。暗电流变化的主要原因是电子穿过PN结时会遇到PN结的电势屏障(barrier),电子穿越屏障需要经历动能-势能-动能的转换过程,所以需要耗费一些时间。暗散粒噪声在统计上服从泊松分布,与光信号的高低水平无关,但与传感器的温度有关,一般的规律是温度每升高8°C暗电流翻一倍。所以在设计电路时必须注意把容易发热的电子元件尽可能布置在远离sensor的地方。
4.1.2读出噪声 (σR)
该噪声是在产生电子信号时生成的。Sensor中使用AD转换器(ADC)将模拟放大器输出的模拟电压采样为数字电压。由于数字信号的精度总是有限的,通常为10比特至14比特,幅值位于两个相邻数字之间的模拟信号会四舍五入到最接近的数值,所以这个过程会引入量化噪声,这是读出噪声的重要组成部分。该噪声由传感器的设计决定,意义是至少需要多少个电子才能驱动读出电路的ADC变化一个比特。它与信号高低水平和传感器温度无关。
4.1.3光子散粒噪声(σS)
Shot noise, 该噪声是与落于传感器像素上光子相关的统计噪声。在微观尺度下,光子流到达传感器的行为在时间和空间上都是不均匀的,就像统计高速公路上的车流,有时车流比较密集,过一会又变得稀疏。有时左边的车道密集,过一会右边的车道密集,整体上其统计规律符合泊松分布。光子散粒噪声是与被测信号的高低水平有关的,与传感器温度无关。
4.1.4固定模式噪声 (σF)
Fixed-pattern noise(FPN), 该噪声是由像素的空间不均匀性引起的,CMOS sensor 每个像素内都配置一个电荷电压放大器,每行、每列都有一些晶体管用于控制像素的复位和读出,这些器件的工作参数相对理论值的漂移就构成一种固定模式噪声。另外,坏像素、瑕疵像素也可以视为一种固定模式噪声。FPN效果大致上可以用下面的示意图模拟。
下图是一个Pixel FPN的实际例子。
在所有像素中,总会有一些像素相对平均值漂移较大,这些像素称为离群像素(outliers),如下图所示。离群像素的数量能够反映sensor品质的好坏。
下面两图所示的噪声在sensor中比较常见,并且有专用的名字叫做条带噪声(banding noise),它的一种来源与像素参数和ADC参数的飘移有关,此时它是一种FPN噪声,但有时它是由外部电压不稳定造成的,此时它是一种随机噪声(Troubleshooting Image Quality ProblemsTroubleshooting Image Quality Problems - 知乎)。事实上,只有sensor厂家才有条件研究清楚这两种噪声来源的具体比例结构。
固定模式噪声是固定不变的,与信号高低水平和传感器温度无关,因此可以通过标定的方法减除,在计算噪声时可忽略该项。
4.1.5复位噪声 (σr)
卷帘曝光方式需要在先对势阱复位,将势阱中自由积累的电荷全部释放,为后续的读出准备。但是由于暗电流的存在,每次复位后都会残留一些大小随机的噪声信号,即复位噪声,其大小与像素结构、芯片温度、PN结电容有关,因此也称为kTC噪声。
像素的复位是需要一定时间的。定量的研究表明,即使是采用较大的复位电流,一般也需要1ms以上的时间才能将电荷释放干净,如下图所示。
实际的复位控制信号通常会短于1ms,因此下一帧图像多多少少会残存一些上一帧图像的影子,这个残影叫做image lag,也是噪声的一种形式。下图显示了有残影和无残影的图像对比。
4.1.6 1/f噪声 (σf)
1/f 噪声是一种低频噪声,在有些文献中也称flicker noise(闪烁噪声) 或pink noise(粉红噪声),它广泛存在于半导体器件中。在低频的时候1/f噪声一般显著高于电散粒噪声。
一种理论认为,半导体晶格中都会存在一些缺陷,这些缺陷能够捕获一些自由电子并将其束缚一段时间,这可以解释1/f噪声的一种来源。广义的1/f噪声是功率谱密度符合 1/(f^β)公式的噪声形式,其中指数β 的取值范围在0.5~2.0 之间。 研究发现,CMOS sensor 中的1/f 噪声功率谱密度与频率成反比,下图定性地表示了1/f 噪声的频谱特征以及与热噪声的关系。
从上图中可以看到,“pink”与“white”这两种"颜色"的主要区别在于功率谱的分布。白噪声的功率在所有频段上是均匀分布的,而粉红噪声的功率主要集中在低频。
人们不仅在电子装置中观测到1/f噪声,在音乐、生物学乃至经济学中也观察到这种噪声1。关于1/f噪声的来源仍存在很大争议,几乎每届学术会议上都有人想来个“正本清源”,可惜N多年也没争出个一二三四来。每个试图解决问题的人都能提出某个模型,但是这个模型只能在一定条件下或者是一定范围内成立,不具有一般性。最后相关会议主办方干脆出个论文集,也不加评论,直接把所有吵架论文编成一本将近800页的大书。
4.1.7光响应非均匀性 (σp)
英文为PRNU,Photo Response Non-Uniformity。Bayer格式的sensor 通常存在四种像素(R,Gr,Gb,B),这四种像素的光电转换特性(即增益特性)不可能是完全一样的,不同种像素间存在种间差异,同种像素之间也存在个体差异,如下图所示。
PRNU通常占总噪声的1~2%左右,很多时候是可以忽略的。从下图中可以看出当信号较大时光信号本身的散粒噪声远大于像素的非线性响应噪声。
某些科研级的sensor 的线性度指标已经达到了惊人的99.9%。
4.1.8串扰
英文为Crosstalk,在通信领域中指两条信号线之间由于屏蔽不良而发生了的信号耦合,一条线路上的信号通过线缆间存在的互感和互容馈送到了附近的信号线上,在模拟通信时代可能导致听到别人的通话。在sensor领域,串扰指的是入射到一个像素A的光信号没有在这个像素里被捕获,反而被其周围的像素B捕获,导致B产生了不该有的信号。
在下图例子中,粉色表示的是不透光的像素,不应该有任何输出,黄色表示正常像素,应该有输出。实际上,光子是可以在硅片中穿透一定的距离的,从而有机会进入到粉色像素的感光区,从而变成粉色像素的信号,这就是CMOS sensor的串扰机制。
下图显示了串扰的原理,黄色像素周围的多个像素都有可能捕获一些本属于黄色的光子,这也是一种噪声来源。
从下图可以看出,波长越长,串扰越严重,某些像素位置串扰能量可以达到5%。
三星公司研发了ISOCELL技术用于抑制串扰,该技术使用metal grid制造电势屏障阻止电子进入相邻的像素,但是会引入一些新的问题,所以后来又发展出了ISOCELL Plus技术,该技术是在ISOCELL的基础上改进了材料,避免了metal grid 引起的不良反应。
索尼的HAD CCD技术给像素设计了一个特别的盖子,可以防止像素内的光电子逃逸,同时也防止像素外的自由电子进入像素内部。
4.2 噪声模型
下图测量了sensor中4种像素的光响应特性,从图种可以看出4种噪声的表现机理。PRNU体现的是红、绿、蓝三种像素的增益差异。对于任一种像素,光信号越强像素值抖动越大,这体现了光信号本身的散粒噪声(光信号变强,标准差小了,总的电子误差值在增大, 由于已经规定好了多少个电子转化成一个bit数字信号,那么总的误差电子的信号就变大)。光信号为零时,输出幅度最小的像素体现了半导体的暗散粒噪声,而 红、绿、蓝三种像素之间的差异体现了FPN噪声。
尽管像素噪声有多种来源,但每种噪声的贡献程度并不是同等重要的。为了简化计算,实际上经常采用简化的噪声模型,只考虑光散粒噪声、暗散粒噪声、读出噪声、以及ADC器件的量化噪声,如下图所示。
甚至可以进一步将量化噪声吸收到读出噪声中,于是每个像素的总有效噪声是下列所有噪声的总和:
由于暗散粒噪声和sensor工作温度有关,因此降低sensor温度有助于减少图像噪声。在科学、武器等应用中常会使用液氮给sensor制冷以提高图像信噪比。 很多装备了CCD/CMOS camera 的导弹会带一个盛液氮的杜瓦瓶,导弹开机后杜瓦瓶向sensor 吹冷气使sensor 保持在零下几十度低温工作。
下图所示的是某科学级sCMOS sensor,通过气冷或者水冷的方式可以工作在-40~-30度低温下,像素的噪声得到极大的改善。
目前的CMOS工艺水平已经非常先进,对于科学水平的sensor,读出噪声的典型值通常小于10 e-,在极限条件下甚至已经可以做到1e-。下图给出了一些常见单反sensor和仪器sensor的读出噪声水平。
4.3 降噪方式(待补充)
Understanding ISP Pipeline - Noise Reduction - 知乎
4.4 信噪比(SNR)
信噪比是一个电子设备或者电子系统中信号与噪声的比例,如下图所示。这里面的信号指的是来自设备外部需要通过这台设备进行处理的电子信号,而噪声是指该设备自行产生的无规则信号,并且该种信号并不随外部输入信号的变化而变化。
在图像处理领域,信噪比是评价图像质量的主要依据。对于一个小信号总是可以通过增益的方式把它放大到适合观察处理的水平,但是信号中的噪声也必然会得到同样程度的放大,如果该信号的信噪比很低,单纯的放大操作并不增加任何有用的信息,无助于改善图像质量。
下面分析sensor图像的信噪比。如前所述,设S为传感器上每个像素上入射光子通量为N光子/秒情况下产生的“信号”电子的数量,其中量子效率为QE,曝光时间为t秒,那么
通过S,可以将光子散粒噪声表示为:
信噪比(SNR)可以由下式进行估算:
前面已经提到
举个具体的例子。如果我们假设有足够高的光子通量和量子效率,可以让一个像素在5秒曝光时间内积累的信号S高达10,000 e-,那么可以对光子散粒噪声进行估算,约为10,000的开平方值,即100 e-。读出噪声为10 e-(与曝光时间无关)。当曝光时间为5秒,传感器温度为25、0和-25 °C时,有效噪声为:
下图给出了sensor信号(光电子数S)与噪声(σeff)之间的关系和变化规律。
从这张图上我们可以看到,传感器在光子数达到一个阈值后才开始有信号的(图上是在10与100个光子之间),也就是说如果传感器接受的光子数少于某个阈值,就不会有信号输出。这个阈值一般认为是读出噪声。在像素达到饱和前,光电子数随着入射光子数的增加而线性增加,而噪声随入射光子数增加按根号规律增加,噪声增加的速率低于信号增加的速率,因此总的信噪比不断增长。
当S很小时,SNR主要由σR决定,即sensor暗电流和读出噪声是主要来源。当S很大时,SNR主要由σS决定,即光信号本身的统计涨落是噪声的主要来源。如下图所示。
如前所述,光信号的统计噪声符合泊松分布,即 σS=sqrt(S),考虑到光数与光电子存在正比关系,因此sensor的最大信噪比出现在势阱饱和的条件下,即
SNRmax = √N= 20log(√N),其中N代表饱和阱容。
考虑前面提到的SONY sensor 的例子(截图如下),将饱和阱容(32316)带入上式可得
SNR=20log(√32316)=20log(179.766)=45.1
一般认为,SNR=10dB 是可接受(acceptable)的图像质量标准,该值意味着信号幅度是噪声的3.16倍。而SNR=40dB 是优秀(excellent)的图像质量标准,该值意味着信号幅度是噪声的100倍,因此至少需要10000e-饱和阱容。介于中间的是SNR=30dB,该值要求像素提供1000e-以上的饱和阱容,这刚好是很多手机sensor的指标范围。
下图是一些单反相机的典型SNR对比。
下图是Canon 1D3 单反相机在不同ISO下的信噪比曲线,横坐标是曝光量,纵坐标是SNR,都是以"stop"为单位,即以2为底的log-log坐标。
在评估图像质量时,常用以下公式计算噪声和信噪比
回顾前文中的公式 DN=g*S(N, t) 可知,通过图像DN值和sensor增益系数g可以反推光子数S,而通过DN值和光子数S也可以反推sensor的增益系数g。
一个非常有用的问题是,图像上某个小区域的像素噪声与该区域的像素均值符合怎样的函数关系呢?我们可以进行这样的分析:
令s表示像素均值,S表示光信号绝对值,则s=Sg;
令n表示像素噪声均值,N表示噪声绝对值,则n=Ng;
*假设该小区域是均匀的,理想上像素DN值应该完全一样,因此实际得到的起伏就是噪声引起的,以DN值计量的噪声单位是 n=sqrt(MSE),或者MSE=n^2;
光信号本身的噪声符合泊松分布 N=sqrt(S),所以有 n/g = sqrt(s/g),或n=sqrt(sg);
所以能够得到的结论是:
图像中任一像素邻域内,图像噪声(DN值)与像素均值的平方根成正比,比例系数是sqrt(g)。
5. 动态范围
一个信号系统的动态范围被定义成最大不失真电平和噪声电平的比值,在实际应用中经常用以10为底的对数来表示,单位是分贝。对于胶片和感光元件来说,动态范围表示图像中所包含的从“最暗”至“最亮”的取值范围。根据ISO15739的定义,“最亮”指的是能够使输出编码值达到特定“饱和值”的亮度;而“最暗”指的是图像信噪比下降至1.0时的亮度(噪声模型中的暗散粒噪声(相对于读出噪声较小)和读出噪声占据了主要成分,因此控制好这两个噪声能提升动态范围)。
前面已经提到,sensor是由数以百万个甚至更多像素组成的,这些像素在曝光过程中吸收光子转化成电荷。一旦这些像素容量达到饱和,多余的电荷便会溢出导致输出信号不再增加,此时像素的值不能反映光信号的真实强度,如下图所示。
因此sensor能够输出的最大不失真信号就等于sensor像素的势阱容量,而sensor输出的最小值则取决于像素的背景噪声水平,一般起主导作用的是读出噪声。
根据动态范围的定义,sensor动态范围的分贝表示用以下公式计算
当读出噪声为一个电子时,sensor的动态范围即达到理论极限值
根据上面的公式可以简单计算出动态范围与FullWellCapacity之间的关系。
显然,目前较好的工艺水平(SONY)可以做到每个像素容纳10000~30000个电子,可以提供80~90dB的极限动态范围,但是更多就不合理也不经济了,因为更大的势阱容量需要更大的像素面积,而像素大到一定程度之后就会遇到成品率瓶颈,下面有专题说明,因此超过80dB的动态范围往往需要依赖其它技术实现。
下图列举了一些典型单反相机sensor的动态范围指标,纵坐标可以理解为AD转换器的位数。例如12位ADC能够表示的动态范围是2^12=4096,而14位ADC能够表示2^14=16384,以此类推。
P.S. ADC位数的选择必须是和sensor的动态范围相适配的,ADC位数高于sensor是没有任何意义的性能浪费,低于sensor则不能完全发挥出sensor的性能优势,也是一种性能浪费。从图中可以看到,单反相机的主流是采用14位ADC,更高端的则采用16位ADC。
白天的天空可以看作是一个非常明亮的光源,如果sensor动态范围不足,拍摄天空时就很容易出现过曝,蓝天变浅,白云失去层次感,甚至完全变白。
下图列举了一些典型场景的动态范围。
在日常生活中会经常遇到动态范围>100dB的场景,一个sensor如果具备120dB的动态范围即可满足绝大部分场景的拍摄需求。普通人眼可轻易应对80~100dB的场景,然而普通的CMOS sensor 却只能提供50~70dB的动态范围,更高的动态范围一般需要通过多帧合成的办法实现。
在摄影领域经常使用“f-stop”术语描述镜头的通光量,这里stop指曝光档位,镜头光圈旋转到一个f-stop档位的时候会自动锁定,伴随一个轻微的“咔嚓”声。档位的设定依据是非常明确的,即相邻两档的通光量是2倍关系,因此镜头的通光量是按照2的指数倍规律变化的。
在摄影领域经常使用“light stop”术语描述场景的动态范围。举例来说,如果室内最暗处照度是1lux,而室外最亮处照度是3万lux,则场景动态范围是30000(90dB),需要15个light stop。
当一幅画面同中时存在亮部和暗部的时候,往往就是考验sensor 动态范围性能的时候了。动态范围小的sensor 无法同时兼顾亮部和暗部,通常只能牺牲一个保证另一个,或者两者都做出一定的牺牲(下图左)。如果希望暗部和两部能够同时得到较好的还原,则只能使用宽动态性能更好的sensor(下图右)。
5.1 ND滤镜
使用高动态范围的sensor是拍摄高动态场景的主要手段。另一方面,人们也可以使用光学滤镜来调节输入信号的能量分布,从而压缩输入信号的动态范围。在拍摄天际线场景时,由于天空的亮度高,且分界明显,所以可以使用渐变式中性滤镜(Neutral Density Gradient Filter)抑制天空区域的亮度,改善成像效果。
6. 灵敏度
CMOS sensor 对入射光功率的响应能力用灵敏度参数衡量,常用的定义是在1μm2单位像素面积上,标准曝光条件下(1Lux照度,F5.6光圈),在1s时间内积累的光子数能激励出多少mV的输出电压。
在量子效率一定的情况下,sensor 的灵敏度主要取决于电荷/电压转换系数(Charge/Voltage Factor, CVF)。在下图的例子中,CVF =220uV/e,这意味着阱容2000e的像素能够激励出最大440mV的电压信号。
在曝光、增益相同的条件下,灵敏度高的sensor信噪比更高,这意味着至少在两个方面可以获得比较优势,
- 在图像噪声水平接近的情况下,灵敏度高的sensor图像亮度更高、细节更丰富
- 在图像整体亮度接近的情况下,灵敏度高的sensor噪声水平更低,图像画质更细腻
EMVA 1288 定义了评价camera 灵敏度的标准,即多少个光子可以引起camera像素值变化1,即一个DN。根据量子力学的公式,
1个波长为540 nm的绿光光子携带的能量是
Camera 技术手册中会给出像素灵敏度规格,
根据此规格即可计算像素值变化1需要多少个光子。下面的链接给出了一个具体的例子。
下图给出了普通灵敏度和高灵敏度sensor在噪声、亮度方面的效果对比。
Panasonic high sensitivity sensors
7.填充系数 (Fill factor)
一个像素不管实际面积多少,用于控制和读出的三极管和电路连线所占的面积是必须首先保证的,余下的面积才能用于制造感光PN结。假设一个像素小到只能勉强容纳几个必须的三极管,则填充系数降为零,这个像素就失去了意义。反之,像素面积越大,三极管和电路所占面积的比例就越小,像素的填充系数就越高,像素的成像质量也会越好。
下图是一个像素版图的例子,这是一个采用PPD结构设计的像素,尽管面积很大,但实际也只取得了60%的填充系数。
为了大幅度地提高填充系数,人们不得不费心费力地在每个像素上方制造一个微透镜,将较大范围内的入射光会聚到较小的感光面上,这样可以将光能利用率提高到90%以上,也就是通过微透镜提高了等效填充系数,如下图所示。
8.像素尺寸(pixel pitch)
最小的像素通常是出现在手机sensor上,典型尺寸1.1um,这差不多已经到了实用的极限了,安防和机器视觉sensor常用2.2um~4.2um大小的像素,而单反和广播级的sensor则倾向于用更大尺寸的像素。
关于像素尺寸有两个非常经典的问题,假设你有两个桶,一大一小,那么
- 如果外边雨下的特别大,哪个桶先盛满水? OK,很显然是小的桶先满。
- 如果外边的雨是一滴一滴地偶尔掉下来,哪个桶更容易接到水? OK,很显然是大的那个。
其实像素也是一样的道理,大的像素通常可以容纳更多的电子,因此可以表示更大的信号变化范围,这个指标称为sensor的动态范围,是一个特别重要的参数。在极低照度下,大的像素更容易捕获到少量的光子,也就是低照度性能会更好。所以,如果不考虑面积和成本,在相同的工艺下,一般的原则是像素面积越大成像质量就越好。
下图对比了大小像素的实际噪声表现,可以看到在曝光时间很短的条件下,大像素的噪声水平会明显优于小像素。
一个sensor 的尺寸大小主要取决于感光阵列和处理电路所占的面积,而感光阵列的面积等于像素尺寸和像素数量的乘积。sensor 的像素数量有专用的术语叫做分辨率(resolution),可以用总数量描述,如2MP,3MP等(MP=MegaPixel,百万像素),或者写成宽乘以高的形式,如1920x1080,2048x1536 等。sensor 的大小也有专用的术语叫做光学格式(optical format),用sensor 封装后的对角线长度衡量,注意并不是sensor 光敏阵列的对角线长度。光学格式在技术发展的过程中已经完全标准化,形成了一系列固定的尺寸,方便与任何厂家生产的标准规格镜头进行适配。
在进行像素密度计算时,设计人员需要准确地知道所选sensor 光敏阵列的尺寸,这个数据可以根据sensor 分辨率和像素尺寸计算得到,也可以快速地查表得到。下表给出了一些常见光学格式的光敏阵列尺寸。
注意用sensor 封装后的对角线长度一定大于sensor 光敏阵列的对角线长度。比如标称的1/2" 格式,指的是sensor 封装后对角线长12.7mm,而实际的光敏阵列则为6.4mm*4.8mm,对角线长8mm。这个定义方式源于最初的电视技术采用的阴极射线摄像管,如下图所示。考虑到元件替换是最为普遍的需求,普通用户只需要关注这种摄像管的外径尺寸,而并不关心其内部成像面的具体尺寸。
8.1 成品率(yield)
单纯从信噪比的角度考虑,像素的尺寸显然是越大越好。但是为什么手机sensor都是越做越小呢?这主要有两方面的原因,最终都能归结到成本问题。一个很容易理解的原因是,在芯片总面积一定的情况下,单个像素面积越大,芯片的总像素数就会越少,即sensor的分辨率就越低,这与人类追求高像素、高清晰度的目标是不符的。因此手机sensor的发展思路一直是依靠技术进步不断提高像素灵敏度同时缩减像素面积,在保证成像效果基本不损失的前提下,通过提高成品率来降低单个sensor的成本,扩大总收益。
那么是否可以把芯片总面积扩大,既用大像素,也提供高像素数呢?在一定程度上是可以的,事实上单反、广播、武器、科研级的sensor就是这样做的,代价就是一片wafer(硅片)只能制造几十个sensor,单个sensor 的成本是相当感人的。
当然了,如果是用在天文望远镜这种不计成本的场合上,也有人会用一整片wafer制造一个超大的sensor,比如下面这货,是佳能在一个12英寸(直径300mm)wafer 上制造的单个CMOS sensor,面积 202×205mm2, 1600万像素, 帧率100fps,采用0.25μm工艺。
使用这个巨型sensor可以在10~20ms内拍摄一幅高质量的天文图像,而普通的单反拍摄同样质量的图像通常需要使用慢快门拍摄几分钟甚至更久的时间。
但是对于手机sensor这种消费市场,拍摄夜景并不是频繁和主要的需求,相反成本是最重要的考虑,所以sensor厂家会希望一片wafer能够产出2000个以上sensor。
一片wafer能制造出多少个sensor是在设计期就确定了的,但是实际有多少sensor 能正常工作则还有一些运气成分,因为每个wafer都或多或少有些瑕疵(defect),光刻过程也可能会引入瑕疵(如下图),导致电路无法工作。
一个sensor 如果刚好位于瑕疵位置就会变成废品,只有一切顺利没出任何意外才能变成成品。所以wafer的成品率是决定sensor成本的关键因素。对于上面提到的天文望远镜sensor,只要wafer上有一处关键瑕疵位于sensor 面积上,这个wafer的成品率就等于零。如果这片wafer制造的是2000个手机sensor,则损失一个sensor 问题也不很严重。下图说明了成品率和sensor尺寸的关系。
显然sensor面积越大遇到瑕疵的概率也就越大,从数学上看,sensor遇到瑕疵(变成废品)概率与像素尺寸(pixel pitch)是平方关系而不是线性关系。假设wafer上的瑕疵是均匀分布的,当sensor面积大到一定程度的时候,就会出现无论如何也无法避开瑕疵的尴尬境地。
9.其他-前照式工艺(FSI)-主光线角(CRA)-背照式工艺 (BSI)-Foveon sensor等后续补充
9.1BSI
什么是CMOS图像传感器的量子效率光谱?
CMOS图像传感器的量子效率光谱是指在不同波长下,传感器对光的响应效率。物理上,光子的能量与其波长成反比,因此,不同波长的光子对CMOS图像传感器产生的响应效率也不同。量子效率光谱可以反映图像传感器在不同波长下的响应能力,帮助人们理解图像传感器的灵敏度和色彩还原能力等特性。通常,图像传感器的量子效率光谱会在可见光波段范围内呈现出不同的特征,如波峰和波谷,这些特征也直接影响着图像传感器的成像质量。
量子效率光谱可以解析CMOS图像传感器内部的缺陷,常见的有下四种:
● BSI processing design
● Optical Crosstalk inspection
● Color filter quality and performance
● Si wafer THK condition in BSI processing
通过量子效率光谱解析常见的4种工艺缺陷
A. BSI processing design
(1)BSI的运作方式
BSI全名是Back-Side Illumination,是指"背照式"图像传感器的制造工艺,它相对于传统的"前照式"(FSI, Front-Side Illumination)图像传感器,能够提高图像传感器的光学性能,特别是在各波长的感光效率的大幅提升。在BSI工艺中,像素置于硅基板的背面,光通过硅基板进入感光像素,减少了前面的传输层和金属线路的干扰,提高了光的利用率和绕射效应,进而提高了图像传感器的解析度和灵敏度。
图1 BSI的工作方式
(2)传统的"前照式"图像传感器的工作方式
FSI是一种传统的图像传感器工艺技术,光线透过透镜后,从图像传感器的正面照射到图像传感器的感光面,因此需要在感光面(黄色方筐,Silicon)的上方放置一些电路和金属线。这些元件会遮挡一部分光线,降低图像传感器的光量利用率,影响图像的品质。相对地,BSI 技术是在感光面的背面,也就是基板反面制作出感光元件,让光线可以直接进入到感光面,这样就可以最大限度地提高光量利用率,提高图像的品质。并且,不需要额外的电路和金属线的遮挡,因此也可以实现更高的像素密度和更快的图像读取速度。
(3)为什么BSI工艺重要?
BSI工艺是重要的制造技术之一,可以大幅提升CMOS图像传感器的感光度和量子效率,因此对于低光照环境下的图像采集有很大的帮助。
BSI工艺还可以提高图像传感器的分辨率、动态范围和信噪比等性能,使得图像质量更加优良。
由于现今图像应用日益广泛,对图像质量和性能要求也越来越高,因此BSI工艺在现代图像传感器的制造中扮演着重要的角色。目前,BSI技术已成为高端图像传感器的主流工艺技术之一,被广泛应用于各种高阶图像产品中。
(4)量子效率光谱如何评估BSI工艺的好坏
如前述,在CMOS图像传感器芯片的制造过程中,不同波长的光子对于图像芯片的感光能力有所不同。因此,量子效率光谱是一种可以检测图像传感器芯片感光能力的方法。利用量子效率光谱,可以评估BSI工艺的好坏。
案例-1
如图2,台积电(TSMC)使用量子效率光谱分析了前照式FSI和背照式BSI两种工艺对RGB三原色的像素感光表现的差异。结果表明,BSI工艺可以大幅提高像素的感光度,将原本FSI的40%左右提高到将近60%的量子效率。
图2 TSMC利用晶圆级量子效率光谱(Wafer Level Quantum Efficiency Spectrum)分析1.75μm的FSI与BSI两种工艺对RGB三原色的像素在不同波长下的感光表现差异。量子效率光谱的分析可以帮助工程师判断不同工艺对感光能力的影响,并确定BSI工艺的优势。
(5)利用量子效率光谱分析不同BSI工艺对CMOS图像传感器芯片感光能力的影响
案例-2
如图3。某CMOS图像传感器厂商采用晶圆级量子效率光谱分析利用TSMC 65nm工艺进行量产时,不同工艺对CMOS图像传感器芯片感光能力的影响。在1.4um像素尺寸使用BSI-1工艺与BSI-2工艺的量子效率光谱比较下,可以明显判断,BSI-2的量子效率较BSI-1有着将近10%的提升。代表着BSI-2工艺可以使CMOS图像传感器芯片内部绝对感光能力提升10%((a)表)。
图3 某CMOS图像传感器厂商采用晶圆级量子效率光谱,分析TSMC 65nm工艺在量产时,不同工艺对CMOS图像传感器芯片感光能力的影响。
此外,量子效率光谱是优化CMOS图像传感器芯片制造的重要工具。例如,在将BSI-2用于1.1um像素的工艺中,与1.4um像素的比较表明,在蓝光像素方面,BSI-2可以提供更高的感光效率,而在绿光和红光像素的感光能力方面,BSI-2的效果与1.4um像素相似。
这个结果显示,BSI-2工艺可以在保持像素尺寸的前提下提高CMOS图像传感器芯片的感光能力,进而提高图像质量。因此,利用量子效率光谱比较不同工艺对CMOS图像传感器芯片的影响,可以为CMOS图像传感器制造优化提供重要参考。
B. Optical Crosstalk Inspection
(1)什么是Optical Crosstalk?
CMOS图像传感器的光学串扰(Optical Crosstalk)是指光线在图像芯片中行进时,由于折射、反射等原因,导致相邻像素之间的光相互干扰而产生的一种影响。
图4 光学串扰(Optical Crosstalk)
(2)为什么Optical Crosstalk的检测重要?
在CMOS图像传感器芯片中,Optical Crosstalk是一个重要的问题,因为它会影响图像的品质和精度。Optical Crosstalk是由于像素之间的光学相互作用而产生的,导致相邻像素的光信号互相干扰,进而影响到像素之间的区别度和对比度。因此,降低Optical Crosstalk是提高CMOS图像传感器芯片品质的重要目标之一。
(3)如何利用量子效率光谱来检测CMOS图像传感器的Optical Crosstalk?
量子效率光谱可用于检测CMOS图像传感器的串扰问题。当CMOS图像传感器中存在串扰问题时,在某些波长下可能会观察到量子效率异常。在这种情况下,可以采取相应的措施来降低串扰,例如优化CMOS图像传感器设计或改进工艺。
缩小像素尺寸对于高分辨率成像和量子图像传感器是绝对必要的。
如上图4,TSMC利用45nm先进CMOS工艺来制作0.9 um像素堆叠式CMOS图像传感器。而Optical Crosstalk对于信噪比(SNR)和成像品质有着显著的影响。
因此,TSMC采用了一种像素工艺来改善这种Optical Crosstalk。结构如下图5。
图5 像素的横截面示意图 (a) 控制像素;(b)串扰改善像素。
结构(a)是控制像素。光的路径线为ML (Microlens)、CF (Color Filter)、PD(Photodiode,感光层)。而在Optical Crosstalk影响的示意图,如绿色线的轨迹。光子由相邻的像素单元进入后,因为多层结构的折射,入射到中间的PD感光区,造成串扰讯号。TSMC设计了结构(b)“深沟槽隔离(DTI)”技术,是为了在不牺牲并行暗性能的情况下抑制Optical Crosstalk。由(b)图可以发现,DTI所形成的沟槽可以隔离原本会产生Optical Crosstalk的光子入射到中间的感光Photodiode区,抑制了串扰并提高了SNR。
图6 该图展示了0.9um像素的量子效率光谱,其中虚线代表控制的0.9um像素(a),实线代表改进的0.9um像素(b)。由于栅格结构的光学孔径面积略微变小,因此Optical Crosstalk得到了极大的抑制。Optical Crosstalk抑制的直接证据在量子效率光谱上得到体现。图中三个黄色箭头指出了R、G、B通道的串扰抑制证据。蓝光通道和红光通道反应略微下降,但是通过新开发的颜色滤光片材料,绿光通道的量子效率得到了提升。(Reference:tsmc CIS)
利用晶圆级量子效率光谱技术可以直接证明Optical Crosstalk的抑制现象。对于不同的CMOS图像传感器芯片,可以通过量子效率光谱测试来比较它们在不同波长下的量子效率响应,进而分辨Optical Crosstalk是否得到抑制。
C. Color filter quality inspection
(1) 什么是图像传感器的Color filter?
图像传感器的Color filter是一种用于CMOS图像传感器的光学滤光片。它被用于调整图像传感器中各个像素的光谱响应,以便使CMOS图像传感器可以感测和分离不同颜色的光,并将其转换为数字信号。Color filter通常包括红(R)、绿(G)、蓝(B)三种基本的色彩滤光片。而对于各种不同filter排列而成的color filter array (CFA),可以参考下面的资料。最常见的CFA就是Bayer filter的排列,也就是每个单元会有一个B、一个R与两个G的filter排列。
Color filter在CMOS图像传感器中扮演着非常重要的角色,其质量直接影响着图像的色彩再现效果。为了确保Color filter的性能符合设计要求,需要进行精确的光谱分析和质量检测。透过率光谱可以评估不同Color filter的光学性能;量子效率光谱可以检测Color filter与光电二极管的匹配程度。只有通过严格的质量检测,才能保证图像传感器芯片输出优质的图像。
图7 Color filter 如何组合在“Pixel”传感器中。一个像素单位由Micro Lens + CFA + Photodiode等三个主要部件构成。
Color filter的主要作用是将入射的白光分解成不同的色光,并且选择性地遮挡某些色光,从而实现对不同波长光的选择性感光。
(2) 为什么Color filter的检测重要?
在CMOS图像传感器中,每个像素上都会有一个Color filter,用来选择性地感光RGB三种颜色的光线,从而实现对彩色图像的捕捉和处理。如果Color filter 的性能不好,会影响像素的感光度和光谱响应,进而影响图像的品质和精度。因此,优化Color filter的性能对于提高CMOS图像传感器的品质至关重要。
Color filter的检测是十分重要的,因为Color filter的品质和稳定性会直接影响到CMOS图像传感器的色彩精确度和对比度,进而影响整个图像的品质和清晰度。如果Color filter存在缺陷或不均匀的情况,就会导致图像中某些颜色的偏移、失真、色彩不均等问题。因此,对Color filter进行严格的检测,可以帮助制造商确保其性能和品质符合设计要求,从而提高图像传感器芯片的生产效率和产品的可靠性。
(3) 如何利用量子效率光谱来检测图像传感器的Color filter品质?
CMOS图像传感器的Color filter通常是由一种称为“有机色料”(organic dyes or pigments)的物质制成,这些有机色料能够选择性地吸收特定波长的光,以产生所需的颜色滤波效果。这些有机色料通常是透过涂布技术将它们沉积在玻璃或硅基板上形成彩色滤光片。
量子效率光谱可以测量CMOS图像传感器在不同波长下的感光度,从而确定Color filter的品质和性能。正常情况下,Color filter应该能够适当地分离不同波长的光,并且在光学过程中产生较小的串扰。因此,如果在特定波长下的量子效率比预期值低,可能是由于Color filter的品质或性能问题引起的。通过对量子效率光谱的分析,可以确定Color filter的性能是否符合设计要求,并提前进行相应的调整和优化。
图8 TSMC利用晶圆级量子效率光谱(Wafer Level Quantum Efficiency Spectrum)对不同的绿色滤光片材料进行检测,以评估其对CMOS图像传感器的感光能力和光学串扰的影响。
如上图,晶圆级量子效率光谱显示了三种不同Color filter材料(Green_1, Green_2和Green_3)的特性。
通过过比较这三种材料,可以发现:
(1) 主要绿色峰值位置偏移至550nm;
(2) 绿光和蓝光通道的光学串扰现象显著降低;
(3) 绿光和红光通道的光学串扰现象显著增加。
通过对量子效率光谱的分析,可以确定Color filter的性能是否符合设计要求,并提前进行相应的调整和优化。以确保滤光片材料的特性符合设计要求,并且保证图像的品质和精度,提高CMOS图像传感器的可靠性和稳定性。
D. Si晶圆厚度控制
(1) 什么是Si晶圆厚度控制?
当我们在制造BSI CMOS图像传感器时,需要使用一种称为"减薄(thin down)"的工艺来将晶圆变得更薄。减薄后的晶圆厚度会直接影响CMOS图像传感器芯片的感光度,因此晶圆的厚度对芯片的感光性能和质量都有很大的影响。
为了确保CMOS图像传感器芯片能够正常工作,我们需要使用"Si晶圆厚度控制"工艺来精确地控制晶圆的厚度。这样可以确保我们减薄出来的晶圆厚度能够符合设计要求,同时也可以提高CMOS图像传感器芯片的产品良率。
图9 BSI的流程图。采用BSI工艺的CMOS图像传感器,会有一道重要的工艺“减薄”(Thin down), 也就是将晶圆的厚度减少到一定的程度。
(2) Si晶圆厚度控制工艺监控中的量子效率检测非常重要
在制造CMOS图像传感器时,Si晶圆厚度控制工艺的控制对传感器的感光度有着直接的影响。这种影响可以通过量子效率光谱来观察,确保减薄后的CMOS图像传感器拥有最佳的光电转换量子效率。减薄后的晶圆会有一个最佳的厚度值,可以确保CMOS图像传感器拥有最佳的光电转换量子效率。使用450nm、530nm和600nm三种波长,可以测试红色、绿色和蓝色通道的量子效率。实验结果显示了不同减薄厚度的CMOS图像传感器在蓝光、绿光、红光通道的量子效率值的变化。减薄厚度的偏差会对CMOS图像传感器的感光度产生直接的影响,进而影响量子效率的值。因此,量子效率的检测对于Si晶圆厚度控制工艺的监控至关重要,以确保制造的CMOS图像传感器具有稳定和一致的质量。
图9显示了在不同减薄厚度下CMOS图像传感器在蓝、绿、红三个光通道的量子效率值变化。蓝光通道的量子效率值是利用450nm波长测量的,当减薄后的厚度比标准厚度多0.3um时,其量子效率值会由52%下降至49%;当减薄后的厚度比标准厚度少0.3um时,蓝光通道的量子效率只略微低于52%。红光通道的量子效率值是利用600nm波长测量的,发现红光通道的表现在不同厚度下与蓝光通道相反,当减薄后的厚度比标准厚度少0.3um时,红光通道的量子效率显著地由44%下降至41%。在较厚的条件(+0.3um)下,红光通道的量子效率并没有显著的变化。绿光通道的量子效率值是以530nm波长测量的,在三种厚度条件下(STD THK ± 0.3um),绿光通道的量子效率没有显著的变化。
图10 利用不同的Si晶圆厚度对CMOS图像传感器的量子效率进行测试,测试波长分别为600nm、530nm和450nm,并且针对红色、绿色和蓝色通道的量子效率进行评估。
结果显示,在绿光通道方面,Si晶圆厚度的变化在±0.3um范围内,530nm波段的量子效率并未有明显变化。但是,在红光通道方面,随着Si晶圆厚度的下降,量子效率会有显著的下降。而在蓝光通道450nm的情况下,量子效率会随着Si晶圆厚度的下降而有显著的下降。这些结果表明,Si晶圆厚度对于CMOS图像传感器的量子效率有重要的影响,且不同通道的影响程度不同。因此,在制造CMOS图像传感器时需要精确地控制Si晶圆厚度,以确保产品的质量和性能。
10.Sensor fusion(新解决方法)
车载是仅次于手机、安防的第三大sensor应用市场。车载应用的主要挑战是包括强光、高动态、雨雪雾等环境因素会对 sensor 成像造成严重干扰,目前单靠CMOS sensor本身的性能提升还不能很好地解决这些问题,所以人们在探索将可见光sensor、毫米波雷达、激光雷达等成像技术结合在一起,形成更为可靠的车载解决方案,保证在各种气象条件下都能稳定地检测出画面中的目标。索尼将此技术称为sensor fusion。