1.为什么camera2用request概念来替换掉之前API1下surface+parameter方式?
camera request里面包含两个概念一个是surface,一个是settings,一个request对应到一帧,这样一旦ap层在设定setting时,会实时的作用到这帧上,而相对于之前parameter的方式来实现就无法做到实时作用到这帧,此时作用的AEorAF可能会因为mw延迟而延迟。
2.关于camera format问题,如果ap层要拿到opaque或者raw10图,拿不到,这个不仅仅和camera sensor是否能出图有关系,更重要的是GPU是否支持让camera去allocate这样的buffer,如果不知道,那就需要找mtk去要patch了.
3.如果客户直接是yuv sensor,那只要在p2这里处理时候不要进行yuv format转换了就好了,毕竟已经是从p1拿到的是yuv 图了
4.关于fps问题,不仅仅是sensor出fps会慢,isp driver出图会慢,3A处理也会慢哎,到p2阶段大概率就是isp driver出图慢了哎.所以看fps要看进入到p1有木有慢,进p2有木有慢,return回去有木有慢,camera大部分cts问题&客户要求都要fps@30,还有要fps@120
5.3dnr,EIS有相交部分,都会去要到GMV数据,这个数据是一个偏移量的数据,用这个给到NR硬件模块去处理图像用的,降噪也比较复杂