OPENCV运动追踪研究和PYTHON及JAVA实现

opencv运动追踪可以用来捕捉到运行物体或者活物,在被动摄像头上应用,可以在运行时录相,节省宝贵的存储空间。

一个外国老哥借助树霉派的摄像头使用PYTHON做一个简单的运行捕捉摄像头,用于捕捉工作时间偷喝他冰箱里啤酒的同事。代码有一些转义字符的乱码,使用3.0API后有些问题,由于findContours不同版本返回值不同,我小修改了一下,可以完美运行于PC机带的摄像头,由于没有红外和辅助设备测距,所以需要离摄像头一段距离才能完美展示和处理。

运行检测的核心算法有很多,有些复杂,有些简单,有些准确,有些粗糙。同时也一行业和机器学习,机器视觉结合后,每一天都在发生新变化,不停的有牛B的数学家,物理学家,程序员加入。这个算法的核心是,更详细的算法可以去参考http://python.jobbole.com/81593/,他们禁止转载,原理如下:

我们视频流中的背景在连续的视频帧内,多数时候应该是静止不变的,因此如果我们可以建立背景模型,我们的就可以监视到显著的变化。如果发生了显著的变化,我们就可以检测到它——通常这些变化和我们视频中的运动有关。


上修改后的PYTHON代码,如果2.0的API,需要修改这一行代码,2.0返回两个值,把前面的下划线和逗号去掉,3.0不需要修改

(_, cnts, _) = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL,
                             cv2.CHAIN_APPROX_SIMPLE)

# 导入必要的软件包
import argparse
import datetime
import imutils
import time
import cv2

# 创建参数解析器并解析参数
ap = argparse.ArgumentParser()
ap.add_argument("-v", "--video", help="path to the video file")
ap.add_argument("-a", "--min-area", type=int, default=500, help="minimum area size")
args = vars(ap.parse_args())

# 如果video参数为None,那么我们从摄像头读取数据
if args.get("video", None) is None:
    camera = cv2.VideoCapture(0)
    time.sleep(0.25)

# 否则我们读取一个视频文件
else:
    camera = cv2.VideoCapture(args["video"])

# 初始化视频流的第一帧
firstFrame = None
# 遍历视频的每一帧
while True:
    # 获取当前帧并初始化occupied/unoccupied文本
    (grabbed, frame) = camera.read()
    text = "Unoccupied"

    # 如果不能抓取到一帧,说明我们到了视频的结尾
    if not grabbed:
        break

    # 调整该帧的大小,转换为灰阶图像并且对其进行高斯模糊
    frame = imutils.resize(frame, width=500)
    gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
    gray = cv2.GaussianBlur(gray, (21, 21), 0)

    # 如果第一帧是None,对其进行初始化
    if firstFrame is None:
        firstFrame = gray
        continue
    # 计算当前帧和第一帧的不同
    frameDelta = cv2.absdiff(firstFrame, gray)
    thresh = cv2.threshold(frameDelta, 25, 255, cv2.THRESH_BINARY)[1]

    # 扩展阀值图像填充孔洞,然后找到阀值图像上的轮廓
    thresh = cv2.dilate(thresh, None, iterations=2)
    (_, cnts, _) = cv2.findContours(thresh.copy(), cv2.RETR_EXTERNAL,
                                 cv2.CHAIN_APPROX_SIMPLE)

    # 遍历轮廓
    for c in cnts:
        # if the contour is too small, ignore it
        if cv2.contourArea(c) < args["min_area"]:
            continue

        # compute the bounding box for the contour, draw it on the frame,
        # and update the text
        # 计算轮廓的边界框,在当前帧中画出该框
        (x, y, w, h) = cv2.boundingRect(c)
        cv2.rectangle(frame, (x, y), (x + w, y + h), (0, 255, 0), 2)
        text = "Occupied"
    # draw the text and timestamp on the frame
    # 在当前帧上写文字以及时间戳
    cv2.putText(frame, "Room Status: {}".format(text), (10, 20),
                cv2.FONT_HERSHEY_SIMPLEX, 0.5, (0, 0, 255), 2)
    cv2.putText(frame, datetime.datetime.now().strftime("%A %d %B %Y %I:%M:%S%p"),
                (10, frame.shape[0] - 10), cv2.FONT_HERSHEY_SIMPLEX, 0.35, (0, 0, 255), 1)

    # 显示当前帧并记录用户是否按下按键
    cv2.imshow("Security Feed", frame)
    cv2.imshow("Thresh", thresh)
    cv2.imshow("Frame Delta", frameDelta)
    key = cv2.waitKey(1) & 0xFF

    # 如果q键被按下,跳出循环
    if key == ord("q"):
        break
# 清理摄像机资源并关闭打开的窗口
camera.release()
cv2.destroyAllWindows()
下面上类似算法的JAVA代码,算法大体上相当于翻译python :

import java.awt.EventQueue;
import java.awt.event.MouseAdapter;
import java.awt.event.MouseEvent;
import java.awt.image.BufferedImage;
import java.awt.image.DataBufferByte;
import java.awt.image.WritableRaster;
import java.util.ArrayList;
import java.util.List;

import javax.swing.ImageIcon;
import javax.swing.JButton;
import javax.swing.JFrame;
import javax.swing.JLabel;

import org.opencv.core.Core;
import org.opencv.core.Mat;
import org.opencv.core.MatOfPoint;
import org.opencv.core.Point;
import org.opencv.core.Rect;
import org.opencv.core.Scalar;
import org.opencv.core.Size;
import org.opencv.imgproc.Imgproc;
import org.opencv.videoio.VideoCapture;

public class CameraBasic {

	static {
		System.loadLibrary(Core.NATIVE_LIBRARY_NAME);
	}

	private JFrame frame;
	static JLabel label;
	static int flag = 0;

	/**
	 * Launch the application.
	 */
	public static void main(String[] args) {
		EventQueue.invokeLater(new Runnable() {
			public void run() {
				try {
					CameraBasic window = new CameraBasic();
					window.frame.setVisible(true);

				} catch (Exception e) {
					e.printStackTrace();
				}
			}
		});

		VideoCapture camera = new VideoCapture();
		camera.open(0);
		if (!camera.isOpened()) {
			System.out.println("Camera Error");
		} else {
			Mat frame = new Mat();
			Mat firstFrame = null;
			
			while (flag == 0) {
				camera.read(frame);

				// 捕捉动态
				Imgproc.resize(frame, frame, new Size(500, 500));
				Mat gray = new Mat();
				Imgproc.cvtColor(frame, gray, Imgproc.COLOR_BGR2GRAY);
				Imgproc.GaussianBlur(gray, gray, new Size(21, 21), 0);

				if (firstFrame == null) {
					firstFrame = gray;
					continue;
				}

				Mat frameDelta = new Mat();
				Core.absdiff(firstFrame, gray, frameDelta);
				Mat thresh = new Mat();
				Imgproc.threshold(frameDelta, thresh, 25, 255, Imgproc.THRESH_BINARY);

				List<MatOfPoint> contours = new ArrayList<>();
				Mat hierarchy = new Mat();

				Imgproc.findContours(thresh, contours, hierarchy, Imgproc.RETR_EXTERNAL, Imgproc.CHAIN_APPROX_SIMPLE);
				Imgproc.dilate(thresh, thresh, new Mat(), new Point(-1, -1), 2);

				for (MatOfPoint mf : contours) {

					if (Imgproc.contourArea(mf) < 2000) {
						continue;
					}
					Imgproc.drawContours(frame, contours, contours.indexOf(mf), new Scalar(0, 255, 255));
					Imgproc.fillConvexPoly(frame, mf, new Scalar(0, 255, 255));
					Rect r = Imgproc.boundingRect(mf);
					Imgproc.rectangle(frame, r.tl(), r.br(), new Scalar(0, 255, 0), 2);
				}
				firstFrame = gray;
				
				label.setIcon(new ImageIcon(matToBufferedImage(frame)));
				try {
					Thread.sleep(40);
				} catch (InterruptedException e) {
					// TODO Auto-generated catch block
					e.printStackTrace();
				}
			}
		}
	}

	/**
	 * Create the application.
	 */
	public CameraBasic() {
		initialize();
	}

	/**
	 * Initialize the contents of the frame.
	 */
	private void initialize() {
		frame = new JFrame();
		frame.setBounds(100, 100, 800, 450);
		frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE);
		frame.getContentPane().setLayout(null);

		JButton btnNewButton = new JButton("\u62CD\u7167");
		btnNewButton.addMouseListener(new MouseAdapter() {
			@Override
			public void mouseClicked(MouseEvent arg0) {
				flag = 1;
			}
		});
		btnNewButton.setBounds(33, 13, 113, 27);
		frame.getContentPane().add(btnNewButton);

		label = new JLabel("");
		label.setBounds(0, 0, 800, 450);
		frame.getContentPane().add(label);
	}

	public static BufferedImage matToBufferedImage(Mat mat) {
		if (mat.height() > 0 && mat.width() > 0) {
			BufferedImage image = new BufferedImage(mat.width(), mat.height(), BufferedImage.TYPE_3BYTE_BGR);
			WritableRaster raster = image.getRaster();
			DataBufferByte dataBuffer = (DataBufferByte) raster.getDataBuffer();
			byte[] data = dataBuffer.getData();
			mat.get(0, 0, data);
			return image;
		}

		return null;
	}
}

其实在OPENCV里有很多运行追踪的算法,使用起来更准确,也更简单,下面是一个使用JAVA写的调用BackgroundSubtractorMOG2运行追踪算法实现,十分简单,把加一个特效,给捕捉到人染色。

package javaCv;

import java.awt.EventQueue;
import java.awt.event.MouseAdapter;
import java.awt.event.MouseEvent;
import java.awt.image.BufferedImage;
import java.awt.image.DataBufferByte;
import java.awt.image.WritableRaster;
import java.util.ArrayList;
import java.util.List;

import javax.swing.ImageIcon;
import javax.swing.JButton;
import javax.swing.JFrame;
import javax.swing.JLabel;

import org.opencv.core.Core;
import org.opencv.core.Mat;
import org.opencv.core.MatOfPoint;
import org.opencv.core.Point;
import org.opencv.core.Rect;
import org.opencv.core.Scalar;
import org.opencv.imgcodecs.Imgcodecs;
import org.opencv.imgproc.Imgproc;
import org.opencv.video.BackgroundSubtractorMOG2;
import org.opencv.video.Video;
import org.opencv.videoio.VideoCapture;

public class CameraBasic2 {

	static {
		System.loadLibrary(Core.NATIVE_LIBRARY_NAME);
	}

	private JFrame frame;
	static JLabel label;
	static int flag = 0;

	/**
	 * Launch the application.
	 */
	public static void main(String[] args) {
		EventQueue.invokeLater(new Runnable() {
			public void run() {
				try {
					CameraBasic2 window = new CameraBasic2();
					window.frame.setVisible(true);

				} catch (Exception e) {
					e.printStackTrace();
				}
			}
		});

		VideoCapture camera = new VideoCapture();
		camera.open(0);
		if (!camera.isOpened()) {
			System.out.println("Camera Error");
		} else {
			Mat frame = new Mat();
			BackgroundSubtractorMOG2 bs = Video.createBackgroundSubtractorMOG2();
			bs.setHistory(100);
			Mat tmp = new Mat();

			while (flag == 0) {
				camera.read(frame);
				// 捕捉
				bs.apply(frame, tmp, 0.1f);

				List<MatOfPoint> contours = new ArrayList<>();
				Mat hierarchy = new Mat();
				Imgproc.findContours(tmp, contours, hierarchy, Imgproc.RETR_EXTERNAL, Imgproc.CHAIN_APPROX_SIMPLE);
				Imgproc.dilate(tmp, tmp, new Mat(), new Point(-1, -1), 2);

				for (MatOfPoint mf : contours) {
					if (Imgproc.contourArea(mf) < 1000) {
						continue;
					}
					// Imgproc.drawContours(frame, contours,
					// contours.indexOf(mf), new Scalar(0, 255, 255));
					Imgproc.fillConvexPoly(frame, mf, new Scalar(0, 255, 255));
					Rect r = Imgproc.boundingRect(mf);
					Imgproc.rectangle(frame, r.tl(), r.br(), new Scalar(0, 255, 0), 2);
					//Imgcodecs.imwrite("E:\\work\\qqq\\camera2\\" + "img" + System.currentTimeMillis() + ".jpg", frame);
				}

				label.setIcon(new ImageIcon(matToBufferedImage(frame)));
				try {
					Thread.sleep(40);
				} catch (InterruptedException e) {
					// TODO Auto-generated catch block
					e.printStackTrace();
				}
			}
		}
	}

	/**
	 * Create the application.
	 */
	public CameraBasic2() {
		initialize();
	}

	/**
	 * Initialize the contents of the frame.
	 */
	private void initialize() {
		frame = new JFrame();
		frame.setBounds(100, 100, 800, 450);
		frame.setDefaultCloseOperation(JFrame.EXIT_ON_CLOSE);
		frame.getContentPane().setLayout(null);

		JButton btnNewButton = new JButton("\u62CD\u7167");
		btnNewButton.addMouseListener(new MouseAdapter() {
			@Override
			public void mouseClicked(MouseEvent arg0) {
				flag = 1;
			}
		});
		btnNewButton.setBounds(33, 13, 113, 27);
		frame.getContentPane().add(btnNewButton);

		label = new JLabel("");
		label.setBounds(0, 0, 800, 450);
		frame.getContentPane().add(label);
	}

	public static BufferedImage matToBufferedImage(Mat mat) {
		if (mat.height() > 0 && mat.width() > 0) {
			BufferedImage image = new BufferedImage(mat.width(), mat.height(), BufferedImage.TYPE_3BYTE_BGR);
			WritableRaster raster = image.getRaster();
			DataBufferByte dataBuffer = (DataBufferByte) raster.getDataBuffer();
			byte[] data = dataBuffer.getData();
			mat.get(0, 0, data);
			return image;
		}

		return null;
	}
}

运行追踪十分有用,可以用在家里的摄像头上,既节省空间,也节省观看的时间,其实这个开发是比较有意思的,在捕捉动态对象的前提下,可以主动报警,有人入侵,也可以加入人脸识别,把好哥们都加进去,这样如果不在家时,谁到了家里都能知道,遇到不喜欢的人可以选择性避开,遇到想见的人可以去见。也可以在摄像头里加入动作识别,来开启空调电视之类,从而实现摄像头的充分利用。

效果图如下,我对人添加了染色效果:



参考:

http://python.jobbole.com/81593/

http://blog.csdn.net/jjddss/article/details/72674704

  • 2
    点赞
  • 38
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
### 回答1: Python对于图像处理和计算机视觉任务来说是一种非常流行和强大的编程语言。OpenCV是一个开源的计算机视觉库,它能够提供许多可用于图像和视频处理的算法和工具。PythonOpenCV的结合使用,为运动目标追踪提供了一种创新的方法。 在PythonOpenCV中,有许多运动目标追踪算法可供选择。这些算法可以用于跟踪物体,例如汽车、人、船、球等。常用的算法包括光流法、背景减法和卡尔曼滤波。这些算法可用于检测和跟踪运动对象的位置、速度和加速度,并可根据需要进行控制。 为了实现PythonOpenCV运动目标追踪,你需要学习Python语言的基础知识和OpenCV的相关模块,例如cv2和numpy。你还需要了解图像处理算法和计算机的基本知识,以便使用PythonOpenCV来进行高效的运动目标追踪。 总之,PythonOpenCV的结合使用提供了一种强大的方法,可以用于许多计算机视觉和图像处理任务,包括运动目标追踪。通过学习相关的PythonOpenCV知识,你可以开始探索这个令人兴奋的领域,并利用这些技能来开发新的应用程序和解决现实中的问题。 ### 回答2: PythonOpenCV是机器学习和计算机视觉领域中非常流行和广泛使用的两种工具。运动目标追踪是图像处理和计算机视觉领域的一个常见问题,可以用PythonOpenCV来解决。 传统的运动目标追踪方法是通过计算连续帧之间运动目标的差异,然后使用一些算法来识别物体并跟踪它。然而,这种方法会受到光线变化、背景杂乱和物体融合的影响,导致追踪失败。因此,现代的运动目标追踪方法更多地依赖于深度学习,能够更好地处理这些复杂的情况。 PythonOpenCV运动目标追踪方面的功能非常强大。它们提供了一整套机器学习算法和计算机视觉技术,包括特征提取、背景建模、目标检测和对象跟踪等。此外,PythonOpenCV还支持CUDA加速,能够在GPU上快速运行模型,提高追踪的性能和准确性。 总之,运动目标追踪是一个非常有趣和具有挑战性的问题,PythonOpenCV为解决这个问题提供了强大的工具和技术。如果你对计算机视觉和机器学习感兴趣,这是一个值得尝试的领域。 ### 回答3: Python是一种通用编程语言,而OpenCV是一个用于实时计算机视觉的库。运动目标追踪是指通过计算机视觉技术对运动物体进行跟踪。 PythonOpenCV的结合对于运动目标追踪非常有用。Python是一种易于使用的编程语言,可以轻松地编写运动目标追踪的代码。而OpenCV提供了许多实用的函数和算法,可以帮助我们完成高效的图像和视频处理。 对于运动目标追踪的具体实现,我们需要首先获取视频或摄像头的图像并将其转换为灰度图像。接着,我们可以使用OpenCV的背景减除算法(background subtraction)来去除图像中的背景,只保留运动物体的轮廓。然后,我们可以使用运动物体的轮廓来进行跟踪和定位,以及计算运动物体的速度和方向等信息。 另外,OpenCV还提供了一些高级的跟踪算法,比如MOSSE、KCF和TLD等,可以帮助我们更加准确地进行运动目标追踪。 总之,PythonOpenCV的结合是非常强大的,可以帮助我们完成各种计算机视觉任务,包括运动目标追踪。无论是在学术研究中还是实际应用中,这些技术都具有广泛的应用前景。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值