检测移动的目标
1、差分图法
1、对图像进行去噪处理:因为每个输入的视频都会因为自然振动,光照变化或者摄像头本身的原因而产生噪声,对噪声进行平滑是为了避免在运动和跟踪时将其检测出来,
2、以第一帧为背景,计算帧与帧之间的差异,(差分图)。cv2.absdiff()
3、对差分图进行二值化处理,转化为黑白图像,cv2.threshold()
4、膨胀处理,对有孔和缺陷的图像进行归一化处理
5、找出轮廓(白色斑点),并在原图中画出轮廓对应的位置
代码如下:
import cv2
import numpy as np
camera = cv2.VideoCapture("../images/camera3.flv")
es = cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(9,4))
kernel = np.ones((5,5),np.uint8)
background = None
while True:
ret,frame = camera.read()
# 将第一针画面设为背景
if background is None:
background = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
background = cv2.GaussianBlur(background,(21,21),0)
continue
gray_frame = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
gray_frame = cv2.GaussianBlur(gray_frame,(21,21),0)
# 计算背景和帧之间的差异
diff = cv2.absdiff(background,gray_frame)
diff = cv2.threshold(diff,25,255,cv2.THRESH_BINARY)[1]
diff = cv2.dilate(diff,es,iterations=5)
img,cnts,hie = cv2.findContours(diff.copy(),
cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
for c in cnts:
if cv2.contourArea(c) < 1500:
continue
x,y,w,h = cv2.boundingRect(c)
cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),2)
cv2.imshow("contours",frame)
cv2.imshow("diff",diff)
if cv2.waitKey(1) != -1:
break
cv2.destroyAllWindows()
camera.release()
2、MOG2背景分割器
opencv提供一个称为BackgroundSubtractor的类,非常便于分割前景和背景。他是一个功能齐全的类,该类不仅执行背景分割,而且能够通过机器学习的方法提高背景检测的效果,并且提供分类结果保存到文件的功能。包括KNN,MOG2,GMG。
BackgroundSubtractor类是专门用于视频分析的,该类会对视频的每一帧进行学习,可以按时间推移的方法提高运动分析的结果。
另一个基本特征是可以计算阴影,这对于精确读取视频是非常重要的,通过检测阴影,可以排除图像的阴影区域,从而关注实际特征,这就很少出现合并不需要对象的情况。阴影检测并非绝对完美,但是有助于将目标轮廓按原始形状进行还原。
import cv2
import numpy as np
cap = cv2.VideoCapture("../images/camera3.flv")
mog = cv2.createBackgroundSubtractorKNN(detectShadows=True)
while True:
ret,frame = cap.read()
# 可以理解为差分图
fgmask = mog.apply(frame)
cv2.imshow("frame",fgmask)
if cv2.waitKey(1) != -1:
break
cap.release()
cv2.destroyAllWindows()
3、KNN实现运动检测(与mog2类似)
knn ---》 二值化处理 ---》 膨胀(改善缺陷) ---》 画出轮廓
代码如下:
import cv2
import numpy as np
knn = cv2.createBackgroundSubtractorKNN(detectShadows=True)
cap = cv2.VideoCapture("../images/camera1.avi")
while True:
ret,frame = cap.read()
fgmask= knn.apply(frame)
th = cv2.threshold(fgmask.copy(), 0, 255, cv2.THRESH_BINARY)[1]
dilated = cv2.dilate(fgmask,
cv2.getStructuringElement(cv2.MORPH_ELLIPSE,(3,3)),
iterations= 2)
img,cnts,hie = cv2.findContours(dilated.copy(),cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE)
for c in cnts:
if cv2.contourArea(c) < 1500:
continue
x,y,w,h = cv2.boundingRect(c)
cv2.rectangle(frame,(x,y),(x+w,y+h),(0,255,0),2)
cv2.imshow("knn-detect",frame)
cv2.imshow("mask",fgmask)
cv2.imshow("thresh",th)
if cv2.waitKey(1) != -1:
break
cap.release()
cv2.destroyAllWindows()