主要思路 :在一个运动物体视频中,我们随机抽取一部分视频帧 ,由于每个物体可能在不同的位置,那么对于视频帧上的某一指定位置的点,比如位置(10,10)处的点,在抽取的多张帧中,该点沿时间轴看的话,该位置没有物体的时候,那么该点像素值我们认为是背景,某一时刻,有目标物体像素值修改此处像素值,但画面较少,修改此处的像素值的帧在提取的样本帧中占比较少,背景颜色占的比重较大 , 我们认为是背景颜色 ,因为计算出来的多张图片平均值会与比重较大的像素颜色接近,基于该思路,我们提取视频背景。这对于那种目标物体少,运动速度快,该程序提取的背景效果较好。如果物体运动慢,或者目标物体较多,那么物体通常会被认为是背景 效果不是很好。供初学者参考。
import numpy as np import cv2 # 读取视频 cap = cv2.VideoCapture('video.mp4') # 随机读取25帧图片帧号 frameIds = cap.get(cv2.CAP_PROP_FRAME_COUNT) * np.random.uniform(size=25) # 保存图片到一个数组中 frames = [] for frameId in frameIds: # 设置要获取的帧号 cap.set(cv2.CAP_PROP_POS_FRAMES, frameId) #读取指定帧号的画面 ret, frame = cap.read() frames.append(frame) # 沿着时间轴计算这些帧的平均值 由于每个点的背景几乎占比较高 所以计算出的平均值和占比较高的背景值接近 所以几乎算是背景 medianFrame = np.median(frames, axis=0).astype(dtype=np.uint8) #显示平均值图片效果效果 cv2.imshow('frame', medianFrame) cv2.waitKey(0) # 把视频指针指向第一帧画面 cap.set(cv2.CAP_PROP_POS_FRAMES, 0) # 把背景转为灰度图片 grayMedianFrame = cv2.cvtColor(medianFrame, cv2.COLOR_BGR2GRAY) #循环读取视频 ret = True while(ret): # 读取帧 ret, frame = cap.read() originImage=frame.copy() # 把当前读取的帧转换为灰度 frame = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) # 计算当前读取的帧与平均帧的绝对差值 相当于提取前景图片 dframe = cv2.absdiff(frame, grayMedianFrame) #二值化 th, dframe = cv2.threshold(dframe, 30, 255, cv2.THRESH_BINARY) # 显示 resultImg1 = cv2.bitwise_and(originImage,originImage, mask=dframe) cv2.imshow('frame', dframe) cv2.imshow("ori",resultImg1) cv2.imshow("original",originImage) cv2.waitKey(20) # 释放对象 cap.release() # 销毁窗口 cv2.destroyAllWindows()
下面是效果
从视频提取的背景