无论是CCD还是CMOS,它们都采用感光元件作为影像捕获的基本手段,CCD/CMOS感光元件的核心都是一个感光二极管(photodiode),该二极管在接受光线照射之后能够产生输出电流,而电流的强度则与光照的强度对应。
但在周边组成上,CCD的感光元件与CMOS的感光元件并不相同,前者的感光元件除了感光二极管之外,包括一个用于控制相邻电荷的存储单元,感光二极管占据了绝大多数面积,换一种说法就是,CCD感光元件中的有效感光面积较大,在同等条件下可接收到较强的光信号,对应的输出电信号也更明晰。而CMOS感光元件的构成就比较复杂,除处于核心地位的感光二极管之外,它还包括放大器与模数转换电路,每个像点的构成为一个感光二极管和三颗晶体管,而感光二极管占据的面积只是整个元件的一小部分,造成CMOS传感器的开口率远低于CCD(开口率:有效感光区域与整个感光元件的面积比值);
这样在接受同等光照及元件大小相同的情况下,CMOS感光元件所能捕捉到的光信号就明显小于CCD元件,灵敏度较低;体现在输出结果上,就是CMOS传感器捕捉到的图像内容不如CCD传感器来得丰富,图像细节丢失情况严重且噪声明显,这也是早期CMOS传感器只能用于低端场合的一大原因。
CMOS开口率低造成的另一个麻烦在于,它的像素点密度无法做到媲美CCD的地步,因为随着密度的提高,感光元件的比重面积将因此缩小,而CMOS开口率太低,有效感光区域小得可怜,图像细节丢失情况会愈为严重。因此在传感器尺寸相同的前提下,CCD的像素规模总是高于同时期的CMOS传感器,这也是CMOS长期以来都未能进入主流数码相机市场的重要原因之一。
每个感光元件对应图像传感器中的一个像点,由于感光元件只能感应光的强度,无法捕获色彩信息,因此必须在感光元件上方覆盖彩色滤光片。在这方面,不同的传感器厂商有不同的解决方案,最常用的做法是覆盖RGB红绿蓝三色滤光片,以1:2:1的构成由四个像点构成一个彩色像素(即红蓝滤光片分别覆盖一个像点,剩下的两个像点都覆盖绿色滤光片),采取这种比例的原因是人眼对绿色较为敏感。而索尼的四色CCD技术则将其中的一个绿色滤光片换为翡翠绿色(英文Emerald,有些媒体称为E通道),由此组成新的R、G、B、E四色方案。不管是哪一种技术方案,都要四个像点才能够构成一个彩色像素,这一点大家务必要预先明确。
在接受光照之后,感光元件产生对应的电流,电流大小与光强对应,因此感光元件直接输出的电信号是模拟的。
在CCD传感器中,每一个感光元件都不对此作进一步的处理,而是将它直接输出到下一个感光元件的存储单元,结合该元件生成的模拟信号后再输出给第三个感光元件,依次类推,直到结合最后一个感光元件的信号才能形成统一的输出。由于感光元件生成的电信号实在太微弱了,无法直接进行模数转换工作,因此这些输出数据必须做统一的放大处理—这项任务是由CCD传感器中的放大器专门负责,经放大器处理之后,每个像点的电信号强度都获得【同样幅度的增大】;但由于CCD本身无法将模拟信号直接转换为数字信号,因此还需要一个专门的【模数转换芯片】进行处理,最终以二进制数字图像矩阵的形式输出给专门的DSP处理芯片。
而对于CMOS传感器,上述工作流程就完全不适用了。CMOS传感器中每一个感光元件都直接整合了放大器和模数转换逻辑,当感光二极管接受光照、产生模拟的电信号之后,电信号首先被该感光元件中的放大器放大,然后直接转换成对应的数字信号。换句话说,在CMOS传感器中,每一个感光元件都可产生最终的数字输出,所得数字信号合并之后被直接送交DSP芯片处理—问题恰恰是发生在这里,CMOS感光元件中的放大器属于模拟器件,无法保证【每个像点的放大率都保持严格一致】,致使放大后的图像数据无法代表拍摄物体的原貌—体现在最终的输出结果上,就是图像中出现大量的噪声,品质明显低于CCD传感器。
转载于:https://blog.51cto.com/yangxiaoguang/462827