自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

一只特立独行的zhu..

isp tuning从业者,力求总结分析自己的所学所思,期望可以和志同道和者共同进步,也能帮助到有需要的人。

  • 博客(113)
  • 资源 (1)
  • 收藏
  • 关注

原创 关于图像亮度相关的调试总结

关于图像亮度的调试,是整个ISP中非常重要的一块,它决定了图像整体的亮度、对比度、细节、以及噪声,对人眼有非常直观的感受,

2024-08-18 22:06:45 931

原创 什么是图像噪声

维基百科的定义:图像噪声(image noise)是图像中一种亮度或颜色信息的随机变化(被拍摄物体本身并没有),通常是电子噪声的表现。它一般是由扫描仪或数字相机的传感器和电路产生的,也可能是受胶片颗粒或者理想光电探测器中不可避免的散粒噪声影响产生的。图像噪声是图像拍摄过程中不希望存在的副产品,给图像带来了错误和额外的信息。ISO的定义: unwanted variations in the response of an imaging system(成像系统中不需要的信号响应的变化).

2024-08-02 22:48:34 652

原创 关于图像对比度的概念和计算

对比度就是画面中明暗部分的亮度比,对比度越高,则图像中明暗部分的差异就越大。但要注意,衡量一幅图像中的对比度,需要分为全局对比度和局部对比度;如下图两幅图所示,它的全局对比度是一样的,也就是图像中最暗和最亮部分亮度比相同。但很明显右图看着要通透明亮许多,这里就是局部对比度差异导致的。

2024-07-14 17:44:39 919

原创 关于摄像头模组中滤光片的介绍

夜晚/光线很暗时,自动切换为白玻璃片,400-1100nm波长的光线透过率大于90,此时一般会开启红外灯进行补光,且图像呈现黑白模式,所以红外补光灯可以进入到 sensor上成像,另外也不用在意画面颜色。另外用于机器视觉的上摄像头,采集到的画面是给到机器去识别、检测,可能需要只允许特定波段的光通过,通带以外的光截止( 在光谱曲线中,光线实际通过的区域叫做通带)。负责人脸检测的摄影头,用的就是常见的bayer格式的sensor, 但这是红外光成像的,所以也没有颜色。在具体项目上又是如何应用的呢?

2024-06-27 22:15:08 966

原创 如何使用照相机

经过同样的时间,运动物体从左至右横穿过画面比朝向或远离我们时,对于在胶片上成像而已,其位移量是要大的,所以其运动速度也是要大的 ,所以拍出来的画面就更容易模糊。但当想使用f/16这样的小光圈进行拍摄时,因为光圈小,进入的光线是微弱的,所以取景器中看到的影像也是暗淡的,甚至根本无法正确对焦,要如何解决此问题呢?所以在取景和实际拍照过程中,所使用的光圈大小是不一样的,取景时的用的是最大光圈,景深范围会很小,实际拍照时的景深范围肯定是要大于等于取景时的景深范围。当对看到的一切感到满意时,就可以准备拍摄了。

2024-06-10 09:45:53 554

原创 引发焦虑的一些问题,以及应对焦虑的一些思考

但现实生活中做事情,不太可能事事都能准备的十分完美,有时准备个7、8分,也就够了,或者边学边做也是可以的,缺什么就学什么,怎么经营亲密关系、怎么教育培养小孩,这些都是需要一直学习的,且谁都不是生来就会的,所以怕没有用,想办法解决问题才是正经的。现在网络信息那么发达,相关信息肯定是可以找到的,毕竟在这个行业积累了这么多年,重新换行业,换赛道还是需谨慎些的,要基于事实,逻辑的判断后再去做决策,另外对感兴趣,想进入的新行业,新赛道的分析也同样适用。3)如果是不打工了,用卖房的钱,在老家做生意什么的,这是可行的。

2024-06-06 23:40:25 487

原创 关于在逆光场景下,AE调试的相关总结

待ae target确定完以后,再去调整isp pipeline后面的亮度模块,注意也是先bypass后面的模块,比如调试LTM时,要先bypass DCE和LC,另外调试时也要注意先整体再局部。另外在目前的ae 参数中,也包含有其他的一些功能,如测光模式、曝光策略(室内/室外)、曝光权重的设置,这些设置即使有效,但因为设备的使用场景不是固定的,所以也没办法实际使用。类似下图中的场景,左图室内比较暗,看不清植物的细节,而右图要稍好一点,可以看清楚植物的细节,但右图室外其实是过曝的。

2024-06-06 23:32:08 851 2

原创 关于flicker问题的调试总结

1)在曝光时间大于10ms/8.333ms的场景下,可通过补偿曝光时间到10ms/8.333ms的整数倍去解决flicker的问题。2)曝光时间小于10ms/8.333ms的场景下,通过修改帧率为25fps,来规避50Hz工频下的flicker,修改帧率为30fps,来规避在60Hz工频下的flicker。3)修改sensor VTS调整帧率时,要注意避免计算误差;及确认默认的setting真实帧率是多少。进技术交流群,扫码添加我的微信:mudong_771。

2024-06-06 23:28:33 775

原创 关于照相机和镜头的问题总结

和上题类似,这里是比较f/2.8和f/11光圈的进光量差异是多少,根据上面完整的光圈值序列可知,f/11到f/2.8是增大了4级,也就是通光量增加了16倍,所以这题的描述是正确的。1:1比率意味着成像平面上的影像跟实物大小一样,不同的生产厂商使用不同的标准对他们的微距镜头进行命名,造成了某些混乱,一般来说,我们认为下面的术语比较恰当。28mm的镜头是一个广角镜头,它更容易产生透视畸变,而为了使肖像充满画面,拍摄时往往还需要更靠近被摄物体,所以也会加剧透视的效果,所以此题描述是错误的。

2024-06-06 23:24:33 782

原创 关于图像过曝问题的排查思路

3)若不是AE的问题,可以再接着排查是否是ISP当中其他亮度模块导致,要根据 isp pipeline 从后往前依次 bypass 去看, 以我司 isp pipeline 为例,其中亮度相关模块处理的顺序是,ltm --> gamma --> lc(local contrast),4)如上确认是哪个模块导致后,再去针对该模块做进一步确认,确认具体是哪个参数导致的,确认当前的参数是否可以优化。因为室外高亮场景一般曝光行走的都比较小,有可能是最小曝光行限制的有问题,没走到最小导致的;

2024-06-06 23:18:46 303

原创 同样分辨率的图像, 怎么评判清晰度

因为对于 sensor 而言,决定清晰度的就是像素数,经过降低像素输出后的 sensor,和原生200万 sensor 的像素数相同,只是 pixel size 存在差异,但pixel size 对清晰度不会有影响,它只是决定感光度。所以如果 downscaler 处理的好,他就能从 sensor 输出的数据上保留更多的细节信息,清晰度肯定是优与原生的 200万的。也就是 sensor 原始输出的像素数就是 200万了,和原生 200万像素的 sensor 像素数相同,所以清晰度应该是差不多的,

2024-03-16 20:43:04 552 1

原创 关于Camera出图,有竖线问题的排查步骤

我这里的 raw 是在进入 ISP 后 dump 的,那就可以排除是 ISP core 的问题了,所以也就没必要去一个一个 bypass isp core 中的模块去看了,所以有可能就是 ISP 最前面这个做 raw 数据转换的模块出的问题。但就现在此问题来说,第一步做交换模组的排查时,就已经排除了是 sensor 的问题,所以要搞清楚在出流的 pipeline 中,raw 图是从哪里 dump 出来的;1)首先要从客户那边收集一些关于此问题的基本信息,由此来判断问题的严重程度,才好做下一步的计划和安排;

2024-03-16 20:38:34 1234

原创 关于图像做 mirror 和 flip 的问题总结

1)做 mirror/flip 前先确定摄像头模组的具体物理位置;2)要保证sensor 输出是正的,可以通过sensor 去做 mirror/flip,保证输出要和24色卡色块顺序保持一致;3)有 mirror/flip 的功能需求时,必须要通过isp、或者其他后处理模块去做,否则会影响tuning的效果。

2024-03-03 15:22:41 851

原创 打开 Camera app 出图,前几帧图像偏暗、偏色该怎样去避免?

启流做初始化时,直接写到相应的 sensor、isp 寄存器中,这样用初始化参数输出的图像给到算法时,因为本身就是曝光正常,白平衡准确的,所以 ae, awb 几乎不存在收敛的时间。但对一些机器识别的应用,他是需要逐帧分析的,对稳定出图的速度是有要求的,如果是25fps内才能收敛完成,那对于识别的性能就要差很多了,也是不可接受的。1)最直接的就是优化 ae、awb 的算法性能,即使场景再突变,也可以在2-3帧内就能收敛完成,而不带来任何的副作用,比如震荡,闪烁等等。

2024-02-24 17:26:11 901

原创 图像从暗到亮收敛完成后,会闪烁一下的问题分析

之前的想法是,肯定是和AE算法有关的,当帧率发生变化时,曝光时间和增益都会发生变化,AE会重新计算、重新收敛,所以图像出现闪烁。切换帧率导致的亮度闪烁,算法那边回复应该是曝光和增益写给 sensor 的时间不同步导致的,和AE没有关系,是驱动要保证的。有发现是和开启了降帧有关系,当关闭降帧后,就看不到闪烁了,这里主要分析一下开启降帧后,导致图像闪一下的原因是什么。整个过程是手捂住画面,图像先变暗(会达到降帧阈值,开启降帧),然后手放开,画面亮度恢复,AE收敛完成(降帧恢复)。

2024-02-05 14:46:22 640

原创 关于镜头选型时的一些注意事项

假如镜头的靶面范围无法涵盖整个 sensor,则成像圈会被看见,实际成像的图像四周会伴随严重的边缘暗角,在这个状态下,视角会被成像范围所限制(如下图左边的情况)。一般我们是先根据产品具体的应用场景,去定义一个合适的景深范围,然后再去对应的景深表上,找到满足景深范围的对焦距离,以此距离来对焦,然后点胶即可。GC4653上,中心:220线清晰,为什么4M 的镜头比2M 的镜头解析力还要小?景深范围是指摄像头在纵向距离上,能看清楚的最远点,和能看清楚的最近点之间的范围,它是可变的,由点胶距离决定。

2024-01-13 15:03:44 1486

原创 关于日夜不共焦的问题

有咨询镜头厂,需要告诉镜头厂镜头型号和用的 IR_CUT型号, 如果 IR_CUT是等厚的,可以用不等厚的去做补偿,也就是使 IR_CUT的白片与黑片补偿后达到焦距一致。不然调试过程当中遇到许多乱七八糟的问题,如果是镜头,IRCUT,Sensor 不匹配导致的,那就很麻烦。之前觉得是和镜头,及光的波长没有关系,是因为滤光片的折射导致,这两天调试时发现一个问题,改变了这种看法, 当我调试黑白夜视模式时,此时是透光片,无可见光,对焦是清晰的。不能在调试一款 Sensor时,随便在网上买一个镜头调试就可以了。

2024-01-13 14:59:51 601

原创 sensor 点亮出图后,画面全黑是为什么?

关键是应该先提供模组的 spec ,或者先了解一下他这个产品的应用,或者拍个产品的图片看看,也就大概有个了解了,这是欠考虑的地方。对于这种补红外的摄像头来说,主要是滤光片的差异,他是把可见光给过滤掉了,所以在可见光下面看,出图肯定就是黑了。这里要注意,如果是红外补光,那就没必要需要颜色了,要在效果参数中将饱和度,色彩相关的参数都置 0 才是。后面他突然反馈,问是不是出图就是这样的,他是带红外补光的,这是我没有考虑到的。后面让他试了下,打个红外灯看下,画面就亮了,但出图是紫的,

2024-01-06 20:56:02 591

原创 关于 bringup sensor 时,曝光时间异常的问题排查

见下图是 sensor datasheet 中关于曝光寄存器的说明,所以我读出的 3e00, 3e01, 3e02的寄存器的值,正常的应该是在 1-2390 之间,下图定义了最小曝光行是1,最大曝光行是 2*vts-10 = 2390。后面检查看到,这颗 sensor 是半行曝光,但我配置给算法的 vts(帧长)的值,是默认的1200,实际应该乘以2,配置2400行才对,所以导致曝光时间增加了1倍。因为同样的环境我用接其他sensor 是没问题的,那应该就还是我驱动中返回给算法的曝光参数的配置有问题。

2024-01-01 21:18:02 1009

原创 关于镜头景深的计算

比如之前调试的一款化妆镜的设备,客户反馈了一个运动模糊的问题,后面才知道,他搭配模组的景深范围只要10cm,3)弥散圆直径,是 pixel size x 2,我的理解是这就是容许弥散圆直径,根据奈奎斯特采样定理,弥散圆,在焦点前后,光线开始聚集和扩散,点的影像变成模糊的,形成一个扩大的圆,这个圆就叫做弥散圆。4)入瞳直径,是 f / Fno,就是有效通光孔径 D,光圈的计算公式是,Fno = f /D。容许弥散圆,如果弥散圆的直径大于人眼的鉴别能力,在一定范围内实际影像产生的模糊是不能辨认的,

2024-01-01 21:10:10 739

原创 exposure_line 是如何曝光的 ?

实际调试过程中,在室外高亮的场景下我们看当前曝光行可能就几行,但暗环境下曝光行会走满,曝光不够了,还会接着走 sensor gain。第一行先reset,接着就开始曝光,当一直曝光11行后(看示意图可以理解成曝光11次,每次1行),不知道怎么理解,是曝光到1500行,然后继续在1501,继续曝光,一直循环,是这样理解的嘛?曝光行是一个相对时间,他就是一个时间单位,和秒,毫秒一样的,都是用来表示曝光时间的单位。1帧图像用积分时间11行完成了10ms的曝光,这里假设1行的曝光时间是0.91ms。

2024-01-01 21:05:34 555

原创 关于图像清晰度、通透度的描述

分辨率(Resolution)描述的是对空间细节分辨的能力,又称分辨力、鉴别率、鉴别力、分析力、解像力和分辨本领,下面是一组通透度的场景对比,这个场景是在相同照度下,相同镜头,使用 IMX334 抓取的图像。造成不通透的原因虽然多种多样,但是表现的形式是一样的,表现为:照片发灰、发朦。比较显而易见的就是图像的清晰度和通透度,他们决定了评判者对画质的第一印象。清晰度是分辨率和锐度的综合表现,也就是,清晰度 = 锐度+分辨率。这是本文要描述的内容。左边的图像发灰、发朦,右边的图像相比就要通透许多。

2023-12-10 21:30:59 802

原创 关于 raw 图像的理解

但遇到过有些 raw, 用工具打不开或者出图不对的情况,那可能是因为 raw 的存储格式不同导致,本文主要对 raw 的格式做下介绍说明。这个主要看平台厂商对数据处理有什么要求,我司用的是高位对齐的数据,所以读取时,要有相应的移位操作才行。raw 一般分为 plain raw 和 mipi raw,主要是存储方式上的区别,如下图所示是 Plain raw10 的示意图。那就会空出 6位用不到,因为有空余,这里就涉及到一个高位/低位对齐的问题,也就是存储数据时,右移6位低位对齐(如下图1所示),

2023-11-26 21:27:45 1111 1

原创 拍照打闪光灯,图片出现亮度分层的原因分析

所以当限制了最小曝光行后,sensor 曝光一帧完成的时间就变短了,这时应该就小于打闪光灯闪的时间了,此时 sensor 在闪光灯闪的这个时间段内就可以完成一帧图像的曝光,所以出图就正常了。所以第一次1-2s的常亮状态,这个时间段就可以计算出正确的3a信息,到第二次闪时,直接把保存的正确的3a信息写入就好了,所以这样就不会存在曝光没完成的情况了。而拍照打闪光灯时,如果闪光灯闪的时间太短了,小于了 sensor 曝光一帧完成的时间,那就会导致图片上曝光完成的部分是亮的,未曝光的部分则是暗的。

2023-11-11 13:20:40 395 1

原创 Sensor 点亮出图后,颜色偏红或者偏绿是为什么?

而不同 sensor 的 balck level 的值是不一样的,所以导致图像偏红是因为 balck level 扣的少了,偏绿则是 black level 扣的多了。这是因为 sensor balck level 的值配置的不正确导致,black level 的值一般在效果参数的 calibration 参数里面。对应的 balck level 十进制的值是50,12bit 输出时,对应的 balck level 十进制的值是200。

2023-11-11 13:12:31 750

原创 镜头边缘的解析力通常比中心差很多的原因是什么?

就是实际像与理想像之间的差异。对于理想的成像系统,是点物成点像,从物体的一点发出的光,通过透镜后,在一点汇聚而成像。但实际对于普通的透镜而言,光是不能汇聚于一点的,这种现象叫做像差。

2023-10-21 11:53:18 545

原创 使用不同尺寸的传感器拍照时,怎么保证拍出同样视场范围的照片?

这是本文要分析的问题。胶片时代,我们使用最多的是编号为135型胶卷底片(感光区域范围36*24mm),摄影厂商就以此为规范设计镜头和机身,数码相机的感光元器件,面积的大小成本差异很大,和135胶卷面积相同的ccd或者cmos为全画幅。如下图所示,物高实际分轴上和轴下,所以上式要乘以2,得到:Y = x * D/f(基于实际应用,物体在无限远处,焦距的长度忽略不计,光心到传感器的距离就是焦距),Y就是最大像高,也就是视场范围。这时焦距决定了拍照时的视场范围,焦距越大,视场范围越小,焦距越小,视场范围越大。

2023-09-29 09:43:01 865

原创 关于 Resolution(分辨率、解析力)各单位的意义及相互之间的换算

比如一个 sensor 是10 * 20mm的画幅, 如果纵向可以填进去1000根线, 横向可以填进去2000线,垂直分辨率就是:2000线,也就是 2000lw/ph, 水平分辨率就是1000线,也就是 1000lw/ph(由于 lw/ph 在不同方向上不能保证线条数目一样, 所以测试要分横向和纵向)。最近在调试的项目,有关于对解析力的要求,用 imatest 软件测试 MTF50 的值,如下图所示,可以看到他有不同的单位表示,LW/PH、Cycles/pixel。这是本文要说清楚的主要内容。

2023-09-14 08:07:38 2094

原创 关于 Camera 预览和录像画质不一样的问题分析

我这里的验证方式是用我们自己的开发板+Camera 模组来分析问题的,通过HDMI接到1080P 的显示器上出图,通过截屏比较预览的效果和录制的效果;对于这个问题,我花了太多时间,去验证我们自己开发板上 4K UI导致的预览清晰度差的问题,而客户明明反馈的是预览正常,播放录像时锐化高。,而录像是直接1080P显示的,所以视觉上看起来预览的清晰度度是要差一点的,是正常的。但客户那边的设备用的是mipi 屏,UI的分辨率是1920x1200,所以并不是4K UI的预览导致的差异。

2023-08-27 17:33:00 1389

原创 使用zoom预览出图和系统相机预览出图,画质不一样的问题分析

对于基于Android 平台调试 Camera 来说,客户通常会使用到很多第三方的Camera app, 对于不同app 出图效果不一致的问题,可以参考上述过程来做相应排查。

2023-08-20 22:17:25 291

原创 关于坏点问题的调试总结

关于项目调试过程中遇到的坏点问题,一般按如下步骤去进行排查:a. 先判断遇到的是不是坏点,通过抓取raw图去看,及利用相应raw图工具去做分析。b. 从模组厂或 sensor 厂了解坏点的管控标准,确认是否满足坏点的管控标准,排查生产品质问题。c. 通过查 sensor datasheet 及咨询该 sensor 厂的fae来了解该 sensor 是否有 dpc 处理的控制。d. 通过后端isp中的dpc模块去做处理,但调试时要注意可以通过dpc模块后的降噪及锐化的各个模块去平衡清晰度的效果。

2023-07-23 17:46:06 598

原创 关于 Camera 产品的功能分析

关于4:3、16:9 尺寸的 crop,需注意的是,从4:3到16:9会保证左右的 fov, 而去 crop 上下的部分,因为平常人们会更关注的是水平方向的 fov。比如13M的 sensor ,拍照的最大尺寸就是13M,也有拍照的小尺寸可供用户选择,这一般都是从全尺寸 crop 出来的,常见的一般有4:3和16:9两种尺寸。要注意的是,如果要烧录 OTP 的话,就要提前确认好尺寸的问题,关于小尺寸的分辨率建议一般是后端的模块去做 crop 的处理,而不是通过 sensor 来处理,

2023-07-02 20:03:01 508 1

原创 关于运动模糊问题的分析及处理方法

因为当曝光时间走到最大,还达不到ae target值时,AE 就会通过增加 sensor 增益来达到目标亮度,一方面增益增加了,会带来更多噪声,另一方面 ISP 是根据不同增益等级去做去噪的,所以增益变大了,去噪强度就会增加,导致清晰度损失。调试一款产品前,我们要考虑其实际的应用场景,10cm的景深范围肯定是不满足实际使用要求的,根据我们平常照镜子的需求近焦端距离10cm(像平常我们挤痘痘是需要的靠这么近的),远焦端距离100cm,所以建议景深范围10-100cm,也就是90cm内为好。

2023-06-23 15:13:17 1506

原创 关于镜头畸变问题的总结

用画图工具打开后,就可以得到每个点的像素位置,如下图的坐标所示,先算出左侧的像素差(2944-176=2768),右侧的像素差(2937-169=2768),中间的像素差为3120,可以计算出畸变值为:((2768+2768)/2 - 3120)/3120 = -11.2%),结果有点误差,但也不大,实际测试一般都是用 imatest 软件去计算,能了解一下具体是怎么计算的就可以了。畸变是对应所拍摄出的图片而言的,体现图像的变形程度,我们平常用 imatest 软件所测试的就是TV畸变的值。

2023-04-09 20:18:02 5184 3

原创 什么是星光级 Sensor ?

当光电二极管的材质为硅(Si)时,蓝色等波长较短的光线将在光电二极管的表面附近被吸收,而绿色、红色等波长较长的光线,则在光电二极管的深处被吸收。如下是索尼部分 statvis sensor 的信息,我们可以通过SNR1s 的值来判断其低照度下的性能,另外我上面提到的思特威的 SC880SL SNR1s 的值是0.18lux,对比下表来看,效果也是相当好的。星光级 sensor 是有的,也是各家 sensor 的一个卖点,它最主要的优势就是低照度场景下性能好,即星光下可见。

2023-03-18 11:14:35 1889 1

原创 宽动态场景下,暗处偏黄/偏绿的问题排查

在调试 sc301IoT 这款 sensor 时,有遇到在宽动态场景下,图像暗部偏黄/偏绿色/偏蓝色,画面再挪一下还会整个偏绿。如下图所示,是开着一个立式灯箱,灯箱左边很亮,右边的暗部有明显的偏色现象,本文主要记录下关于此问题的排查过程。

2023-03-05 18:51:41 884

原创 关于 ISP Tuning的学习,分享几点看法

这么说可能会有点谬误,我的理解是学习是需要方式方法,但也必须要有死磕下去的决心,比如学英语要背单词,学编程要多敲代码,道理很简单谁也都懂,但能一直执行下去的有多少呢,说这么多,其实我自己做到的也有限,大家共勉。可以把 ISP Tuning 的学习分成三个阶段,对于刚入行的同学,建议可以先了解下整个 isp pipeline,知道有哪些模块,每个模块的作用是什么,基于这些就可以修改参数,调试效果了(当然每个平台开放的参数都不一样,需要对着调试指南有个熟悉的过程)。3、有总结性的,输出式学习。

2023-02-19 13:34:08 2461

原创 相机出图画面一半清晰,一半模糊的原因是什么?

理想情况下模组的成像状态如下示意图,成像的结果是图像中心最清晰,四周的清晰度稍差一点(这是正常现象,因为相机用的是凸透镜,越往边缘光的折射率就会越大,会使光线的传播轨迹变化越大, 因此光线不再准确地投影到图像传感器上,从而导致图像边缘的解析力变差 )。出现这种问题的原因,主要是在摄像头封装过程中,涉及到图像传感器、镜座、马达、镜头、线路板等零件的多次组装,因此零配件的叠加公差越来越大,最终表现在摄像头上的效果是拍照画面最清晰位置可能偏离画面中心、四角的清晰度不均匀等。如下是导致这种问题的,两种现象示意图。

2023-02-12 19:09:03 2756

原创 Sensor setting 用的是30fps ,但最后输出是15fps,是怎么回事儿 ?

在 sensor 驱动中注释掉所有关于 sensor 寄存器的修改,直接用默认的 setting 出图,判断是否是 sensor 厂给的 setting 就是15fps的,这么试了,sensor 输出的打印是30fps, 录制的视频流也是30fps了,画面也流畅了,那就不是 sensor setting 问题。但后面配置 0x320e,0x320f 时(也就是设置帧长的函数里面),我是直接用前面得到的帧长来计算的,没有除以2,所有实际写入寄存器的值就增大了1倍,导致帧率就从30fps 降到了15fps。

2023-02-05 13:10:23 1127 1

原创 关于入职 ISP Tuning 岗位的几个问题及解答

对于没这方面相关工作经验的同学,我的建议是了解一下 Camera 的工作原理、镜头相关的一些基本知识、sensor 的基本工作原理、ISP当中有哪些模块,具体每个模块的工作原理/功能,我觉得这些基本就可以了。上面只是列了几家有代表性的企业,具体去哪家公司哪个行业,我也给不出具体的答案,这个要看你自身的情况,以及对自己的规划来做选择了,这里就不多说了。另外要有所提高,isp 中的算法代码也是要研究的,这样可以更好的理解每个模块的处理原理、流程,做到更有效的去调试相关参数。对于入职以后该怎么学习,学什么?

2023-01-27 15:41:42 2057

图像质量客观测试标准.docx

用imatest工具测试摄像机图像效果的客观测试标准,包含色彩还原,自动白平衡,信噪比,亮度均匀性,解析度等指标的测试标准

2019-12-08

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除