【opencv】(12) 光流估计,行人轨迹跟踪,附python完整代码

1. 光流估计

1.1 方法介绍

光流:空间运动物体在观测成像平面上的像素运动的瞬时速度。根据各个像素点的速度矢量特征,可以对图像进行动态分析,例如目标跟踪。

如果下面这辆车正向我们缓缓开来,右图是车辆的光流,它代表车辆在行驶过程中,每一帧图像的瞬时速度和方向箭头的大小表示移动的瞬时速度,箭头的方向代表前进的目标方向。可以获取车辆每一帧的位置,对它进行跟踪。

相关定理:

(1)亮度恒定同一点随着时间的变化,其亮度不发生变化。帧和帧之间的变化很快,亮度基本不变。

(2)小运动随着时间的变化,不会引起位置的剧烈变化,只有小运动情况下才能用前后帧之间单位位置变化引起的灰度变化去近似灰度对位置的偏导数。

(3)空间一致一个场景上临近的点投影到图像上也是临近点,且临近点速度一致。因为光流法基本方程约束只有一个,而要求x、y方向的速度,有两个未知变量,所以需要n多个方程去求解。


1.2 Lucas-Kanade 算法

用于求方向和实际大小。约束方程中,I(x,y,t) 代表图像上的像素点,(x,y) 代表像素点坐标,t 代表某一帧图像。I(x+dx,y+dy,t+dt) 代表后一帧图像的像素点。根据亮度恒定定理,同一点随着时间的变化,其亮度不发生变化。前一帧图像像素点等于后一帧图像像素点亮度。对I(x+dx,y+dy,t+dt) 一介泰勒展开,忽略无穷小项。其中 \frac{\partial I}{\partial x} 和 \frac{\partial I}{\partial y} 可以计算出来。\frac{\partial I}{\partial t}dt

用于描述前一帧和后一帧的变化,由于是一帧一帧的间隔,相当于后一帧减去前一帧。现在只剩x方向和y方向的速度u,v未知。

根据空间一致性定理,临近点速度一致,假如我再设一个方程组来求解u和v。设A点和B点临近,则有 I_{xA}*u+I_{xA}*v = -I_{t} 和 I_{xB}*u+I_{xB}*v = -I_{t},现在就是两个未知数两个方程。

通常用一个窗口来求解方程,如果使用一个5*5的窗口,就有25对 I_{x},I_{y},2个未知数,使用最小二乘法。

在做光流估计时,输入数据应该是角点,一般图像上只有角点的数据是可逆的


2. 步行轨迹跟踪

角点检测方法:  cv.goodFeaturesToTrack()

参数:

image:输入图像,是八位的或者32位浮点型,单通道图像,所以有时候用灰度图

maxCorners:返回最大的角点数,是最有可能的角点数。如果这个参数不大于0,那么表示没有角点数的限制。按照角点强度降序排序,超过maxCorners的角点将被舍弃。

qualityLevel:品质因子。筛选角点,品质因子越大,特征值越大的越好,得到的角点越少。检测出的角点强度值小于品质因子的会被抛弃。

minDistance:返回的角点之间最小的欧式距离。在这个距离范围内判断哪个品质因子最好,只要这一个角点。

mask:检测区域。如果图像不是空的(它需要具有CV_8UC1类型和与图像相同的大小),它指定检测角的区域。

blockSize:是协方差矩阵滤波的窗口大小。

gradientSize:为sobel算子求微分的窗口的大小

useHarrisDetector:选择是否采用Harris角点检测,默认是false.

k:Harris检测的自由参数。

返回值:

corners:输出的角点坐标


Lucas-Kanade方法进行光流估计:cv2.calcOpticalFlowPyrLK()

参数:

prevlmage:前一帧图像

nextlmage:当前帧图像

prevPts:待跟踪的特征点向量

winSize:搜索窗口的大小

maxLevel:最大的金字塔层数

返回值:

nextPts:输出跟踪特征点向量 

status:特征点是否找到,找到为1,没找到为0

其他参数:Opencv学习(4)——CalcOpticalFlowPyrLK()函数解析


import cv2
import numpy as np
#(1)获取数据
filepath = 'C:\\Users\\admin\\.spyder-py3\\test\\opencv\\img\\class'
video = cv2.VideoCapture(filepath + '\\test.avi')
# 获取第一帧图像
ret,frame_one = video.read() 
gray_one = cv2.cvtColor(frame_one,cv2.COLOR_BGR2GRAY) #变成灰度图
# 角点检测,参数:输入图像,角点最大数量,品质因子,距离
p0 = cv2.goodFeaturesToTrack(gray_one, mask=None, maxCorners=100, qualityLevel=0.3, minDistance=7)

# 创建一个mask
mask = np.zeros_like(frame_one) # 全0的画板,size和第一帧图像一样大
# 轨迹线条颜色随机,[0,255)之间,输出size为(100,3),三列对应颜色BGR
color = np.random.randint(0,255,(100,3))

#(3)视频处理
while True:
    ret,frame = video.read() # 返回是否打开和每一帧的结果
    frame_gray = cv2.cvtColor(frame,cv2.COLOR_BGR2GRAY)
    # 光流估计,需要传入前一帧和当前图像以及前一帧检测到的角点
    # gray_one代表前一帧,frame_gray当前帧图像,p0前一帧的角点,winSize窗口大小,maxLevel金字塔层数
    p1,st,err = cv2.calcOpticalFlowPyrLK(gray_one, frame_gray, p0, None,winSize=(15,15),maxLevel=2)
    # p1返回角点,st有些角点找到了有些没找到,err错误状态,用不上
    
    # st==1  角点找到了
    best_new = p1[st==1] # 当前帧,所有找到的角点
    best_old = p0[st==1] # 前一帧的角点
    
    # 绘制轨迹
    for i,(new,old) in enumerate(zip(best_new,best_old)): # 返回角点的下标和值
        a,b = new.ravel()  # 拉成一维,a等于x列,b等于y列
        c,d = old.ravel()
        a,b,c,d = np.array([a,b,c,d]).astype('int32') #输入的数据类型是整型
        # 背景图mask,起点坐标(a,b),终点坐标(c,d),变成列表列格式tolist(),线宽为2
        mask = cv2.line(mask, (a,b), (c,d), (color[i].tolist()), 2)
        # 画板frame,圆心位置(a,b),圆半径5,'-1'代表实心圆
        frame = cv2.circle(frame,(a,b),5,color[i].tolist(),-1)
    # 图像叠加
    img = cv2.add(frame,mask)
    
    # 图像展示
    cv2.imshow('img',img)
    k = cv2.waitKey(150) & 0xff # 每张图停留150毫秒后消失
    if k == 27:  # ESC键退出
        break
    
    # 更新
    gray_one = frame_gray.copy() # 使下一次循环的前一帧变成当前帧图像
    p0 = best_new.reshape(-1,1,2) # -1的作用在于自动计算
# 释放资源
cv2.destroyAllWindows()
video.release()

使用该方法的一些缺陷:第一帧的角点被第二帧利用,也被后续的所有帧运用,如果在第一帧没有出现A同学,那么在后续的帧中A同学出现了,那么也不会跟踪,因为使用的是前几帧的角点。一旦经过障碍物,跟丢了。

  • 12
    点赞
  • 73
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 4
    评论
使用PythonOpenCV实现行人轨迹跟踪可以通过以下步骤实现: 1. 使用OpenCV读取视频文件或摄像头视频流,获取每一帧图像。 2. 对每一帧图像进行行人检测,可以使用Haar Cascades或者HOG+SVM等方法。 3. 对于每个检测到的行人,使用一种目标跟踪算法(如Kalman滤波、Meanshift、Camshift等)来跟踪行人的运动轨迹。 4. 绘制行人轨迹线条,可以使用cv2.line()函数实现。 5. 可以将跟踪结果输出为视频或图片序列。 下面是一个基于OpenCV行人轨迹跟踪的示例代码: ```python import cv2 # 行人检测模型 hog = cv2.HOGDescriptor() hog.setSVMDetector(cv2.HOGDescriptor_getDefaultPeopleDetector()) # 目标跟踪器 tracker = cv2.TrackerKCF_create() # 读取视频 cap = cv2.VideoCapture('test.mp4') # 轨迹绘制颜色 color = (0, 255, 0) # 轨迹记录字典,key为目标ID,value为轨迹列表 tracks = {} # 目标ID计数器 id_counter = 0 while True: ret, frame = cap.read() if not ret: break # 行人检测 rects, weights = hog.detectMultiScale(frame, winStride=(8, 8), padding=(32, 32), scale=1.05) # 目标跟踪 for i, rect in enumerate(rects): # 检测到的行人作为新目标 tracker.init(frame, tuple(rect)) id_counter += 1 tracks[id_counter] = [tuple(rect)] # 已有目标进行跟踪 for track_id, track in tracks.items(): ok, bbox = tracker.update(frame) if ok: # 更新轨迹 tracks[track_id].append(tuple(bbox)) # 绘制轨迹 for i in range(1, len(track)): cv2.line(frame, track[i-1], track[i], color, 2) else: # 目标丢失,删除轨迹 del tracks[track_id] # 显示结果 cv2.imshow('frame', frame) if cv2.waitKey(1) == 27: break cap.release() cv2.destroyAllWindows() ``` 运行该代码可以打开摄像头或读取视频文件,进行行人轨迹跟踪并实时显示跟踪结果。可以根据需要调整检测和跟踪参数,以适应不同的应用场景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

立Sir

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值