早期的视频监控只是简单的通过摄像机对画面进行记录。然后通过记录的画面服务我们的生产和生活。随着人工智能技术的兴起,人们更多地希望利用计算机的运算能力和算法,以AI的方式对视频监控画面进行分析,然后将分析的结果进行反馈,来提高视频监控的功能和利用效率。
比如我们目前可以使用AI的技术进行火焰识别,安全帽识别,高空抛物识别,工服识别,离港识别等等,可以实现的识别算法非常丰富。
但是这些AI视频算法需要大量的算力。我们简单讲一下AI是如何进行分析的。分析服务器需要将拍摄到的视频全部进行解码,解码后变成一张张的图片,然后根据图片上的内容进行计算对比,才能获得计算分析后的结果。这就需要大量的算力,一般CPU也是无法完成这一工作的,就需要GPU进行工作,大量的运算也带来了成本的提高,也面临一个问题,如果部署这些算力的问题。
目前大约有三种算力部署的方式。一种是将AI分析部署在云端,一种是把AI分析部署在边缘,另外一种是把AI分析部署在摄像头。也就是我们常说的云,边,端。
这三种部署各有优势,但是现在越来越多的摄像头就集成了AI分析能力,为什么会有这样的趋势呢?主要有以下几点。
云,边部署复杂,网络环境要求高
AI算法的云边部署相对来讲要复杂一些,算法和摄像头分离,首先要解决的就是如何把监控的视频接入到算法分析服务器。而大多数算法公司的能力在算法,在流媒体接入处理方面并不擅长,一般提供的接入能力比较简单,导致很多项目场景接入时配置复杂,取流不成功等问题。
另外一些边缘计算设备都是采用摄像头直接取流的方法。这在早年间没什么问题。因为早期的视频监控业务输出少,应用很单纯,所以取个一两路视频,没什么大的影响。现在情况已经今非昔比,基于视频监控的业务太多了,而AI分析这种应用是24小时实时取流,对摄像头的压力很大。所以经常会发生取流不成功,甚至摄像头瘫痪,黑屏,不稳定的现象,都是取流方法不正确导致的。目前正确的做法可以通过视频接入网关,统一取流,根据业务应用输出各种视频流给其它业务平台,包括AI分析服务器的视频流应用。
另外云,边缘部署需要占用大量的带宽资源,特别是有限算法,部署在云端几乎是不可能的,大量的视频实时上传进行分析,很多项目的上行带宽根本达不到,导致分析效果差强人意。
而算法部署在摄像头内,利用摄像头自身的算力,在摄像头内完成计算,只将运算结果返回,这些问题都不会存在。
另外,我们也说过,AI分析需要很强的运算能力。早期的摄像头没有AI需求,因此配置较低。只满足基本的视频编码能力。不具备分析能力。其主要原因是成本原因,如果在摄像头内增加算力,就要更好的硬件,这会导致成本的上升。
很多边缘计算的AI盒子也正是看到了这一点,只利用摄像头的摄像能力,将视频流引入边缘计算的算力服务器进行分析计算,再将结果返回给用户。
传感器的集成度更高
AI的视频分析目前都存在一个很大的问题,就是准确率低问题。而提高准确率需要不断的学习和优化算法,这是成本极高的。但是很多时候,单纯依赖视频的分析,也很难达到分析的效果。毕竟视频画面的分析来源过于单一。但是如果结合传感器的应用,分析的成功率就会极大的提高。
比如我们分析火焰,单纯用视频画面分析,很容易造成误检,但是如果我们把温度传感器,烟雾传感器等数据进行结合分析,那么准确率会极大的提高。
将这些传感器集成到摄像头内,在结合AI分析,这就让摄像头在行业的应用领域发挥了巨大的优势。而这一功能边缘计算,云计算要集成起来会非常困难。首先需要单独部署传感器,需要物联网网关汇总数据,需要将两个系统打通后返回综合结果。