FPGA图像处理的一些基础知识,FPGA是如何实现最高实时性的?相比于GPU的优势在哪?

本文介绍了FPGA在工业图像处理中的应用,特别是线阵相机的使用和实时性需求。针对线阵传感器无限长图像的问题,提出了如何在FPGA中处理的思考。此外,探讨了FPGA与GPU在实时处理速度、确定性延迟和低功耗方面的区别,强调了FPGA在高吞吐量、低延迟任务中的优势。
摘要由CSDN通过智能技术生成

先来说一下工业上用到的图像传感器种类和部分我知道的厂家。如上图所示,工业上除了会用到手机和相机中常见的面阵传感器之外,还会用到线阵传感器。线阵传感器的分辨率是几k乘1,也就是它只扫描一行图像,主要用于扫描仪里,和一些需要扫描传送带上的物料的工业应用场合。上图的“长光辰芯”就是国内这两种传感器都做的公司。做面阵图像传感器的还有索尼,安森美等厂家,线阵的有东芝和一些我也不太了解的厂家。

上图就是这一种典型的线阵相机在工业领域应用的示意图。物料传送、机器视觉、执行机构三个部分构成了一个物料检测分选系统。相机采样并识别物料,有缺陷的物料会被执行机构筛选掉。由于物料在皮带上是匀速运动的,所以在这种场景下用线阵相机固定在皮带上方横向扫描一行图像就可以了。随着物料从相机下走过,相机就能扫描到完整的物料图片并进行识别,如果被判定为要选掉的物料,则会控制机械臂或喷嘴等执行机构把物料抓走、或是用压缩空气吹掉。

线阵传感器输出的图像没有帧的概念,就是一行接着一行。如上图所示,面阵传感器输出的是矩形图像,线阵传感器输出的图像可以认为是无限长的,因为只要机器在运行就会不断有图像输出。讲到这有两个问题想问大家。第一个问题是:现在神经网络技术也应用到了工业视觉检测领域,而要做目标检测Yolo系列则是最常用的。但现在不论Yolo的哪个版本,输入图像都是某个固定宽高的一帧图像,那要在线阵相机输出的无限长图像上用Yolo做目标检测该怎么弄呢?把它拆成一帧一帧的图像再送给Yolo处理?那要是有个目标正好跨在被拆分的两帧之间呢?能不能改一下Yolo的代码,让它适应这种应用场景呢?我不是神经网络方面的高手,也不知道这个该咋改,大家有兴趣的可以思考一下,如果有高手知道还请不吝赐教!

第二个问题是一个简单的新手思考题:假如线阵传感器的分辨率是4096,拍摄的皮带宽度是50cm,皮带的运动速度是3米每秒,请问如果要让线阵传感器扫描到的

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值