视频的抽帧和模糊简单生成方法

1.给一段视频,抽取出视频的每一帧

import cv2
import os

# 指定视频文件
video_path = '510.mp4'

# 创建一个VideoCapture对象
cap = cv2.VideoCapture(video_path)

# 检查是否成功打开视频
if not cap.isOpened():
    print("Error opening video file")
    exit()

frame_count = int(cap.get(cv2.CAP_PROP_FRAME_COUNT))  # 获取视频总帧数
frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))  # 获取视频帧宽度
frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))  # 获取视频帧高度

# 创建输出目录,如果不存在
output_dir = 'frames'
if not os.path.exists(output_dir):
    os.makedirs(output_dir)

# 循环遍历视频的每一帧
for i in range(frame_count):
    ret, frame = cap.read()  # 读取一帧

    # 检查帧是否成功读取
    if not ret:
        print("Frame could not be read")
        break

    # 构建输出文件名
    output_file = f"{output_dir}/frame_{i:05d}.jpg"

    # 保存帧为图片
    cv2.imwrite(output_file, frame)

    # 打印进度信息
    print(f"Frame {i+1} of {frame_count} saved.")

# 释放VideoCapture对象
cap.release()

print("Video processing completed.")

2.根据帧间关系模糊的合成(相邻两帧取平均)

import cv2
import os


# 指定视频文件
video_path = '510.mp4'

# 创建一个VideoCapture对象
cap = cv2.VideoCapture(video_path)

# 检查是否成功打开视频
if not cap.isOpened():
    print("Error opening video file")
    exit()

frame_count = int(cap.get(cv2.CAP_PROP_FRAME_COUNT))  # 获取视频总帧数
frame_width = int(cap.get(cv2.CAP_PROP_FRAME_WIDTH))  # 获取视频帧宽度
frame_height = int(cap.get(cv2.CAP_PROP_FRAME_HEIGHT))  # 获取视频帧高度

# 创建输出目录,如果不存在
output_dir = 'frames'
if not os.path.exists(output_dir):
    os.makedirs(output_dir)

# 初始化第一帧
prev_frame = None

# 循环遍历视频的每一帧
for i in range(frame_count):
    ret, frame = cap.read()  # 读取一帧

    # 检查帧是否成功读取
    if not ret:
        print("Frame could not be read")
        break

    # 对于第一帧,直接保存
    if prev_frame is None:
        prev_frame = frame
        output_file = f"{output_dir}/frame_{i:05d}.jpg"
        cv2.imwrite(output_file, frame)
        continue

    # 计算平均帧
    avg_frame = (prev_frame + frame) / 2

    # 保存平均帧为图片
    output_file = f"{output_dir}/frame_{i:05d}.jpg"
    cv2.imwrite(output_file, avg_frame)

    # 更新前一帧
    prev_frame = frame

    # 打印进度信息
    print(f"Frame {i+1} of {frame_count} saved.")

# 释放VideoCapture对象
cap.release()

print("Video processing completed.")

3.运动模糊和高斯模糊的生成,根据模糊核改变模糊的程度

# coding=utf-8
import numpy as np
import cv2
def motion_blur(image, degree=20, angle=45):
  image = np.array(image)
  #这里生成任意角度的运动模糊kernel的矩阵, degree越大,模糊程度越高
  M = cv2.getRotationMatrix2D((degree / 2, degree / 2), angle, 1)
  motion_blur_kernel = np.diag(np.ones(degree))
  motion_blur_kernel = cv2.warpAffine(motion_blur_kernel, M, (degree, degree))
  motion_blur_kernel = motion_blur_kernel / degree
  blurred = cv2.filter2D(image, -1, motion_blur_kernel)
  #convert to uint8
  cv2.normalize(blurred, blurred, 0, 255, cv2.NORM_MINMAX)
  blurred = np.array(blurred, dtype=np.uint8)
  return blurred
img = cv2.imread('./1.jpg')
#运动模糊
img_motion = motion_blur(img)
#高斯模糊
img_gauss = cv2.GaussianBlur(img, ksize=(9, 9), sigmaX=0, sigmaY=0)
cv2.imwrite("motion_blur" + ".jpg",img_motion )
cv2.imwrite("GaussianBlur" + ".jpg",img_gauss )
  • 3
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
360度非鱼眼视频抽帧生成全景图拼接是一个比较复杂的问题,需要涉及到视频处理、图像处理、几何变换、全景图拼接等多个领域。这里我简单介绍一下大致的思路以及实现方法。 1. 首先需要从360度非鱼眼视频取一些关键,一般可以采用视频关键提取算法来实现。关键提取算法可以根据间差异、运动模糊等因素来确定哪些是比较重要的,可以参考一些经典的算法如 SIFT、SURF、ORB 等。 2. 对于每一视频,需要做一些预处理操作,包括去除镜头畸变、对齐、裁剪等。针对去除镜头畸变,可以采用基于一些几何变换的方法,比如将原始视频图像投影到球面上,再将球面图像展开为平面图像,这样就可以去除鱼眼畸变。对于对齐和裁剪,可以采用图像特征匹配算法,找出每一图像中重要的特征点,并将这些特征点对齐,然后再进行裁剪。 3. 将每一图像拼接成全景图。这里可以采用一些拼接算法,比如基于图像特征匹配的拼接算法、基于光流的拼接算法、基于直接图像拼接的算法等。其中最常用的是基于图像特征匹配的拼接算法,具体流程包括:首先找出每张图像中的关键点,并计算出每个关键点的特征描述子;然后对每两张相邻的图像进行特征匹配,找出匹配的关键点对;接着通过计算每个关键点对的变换矩阵,将相邻的图像进行对齐;最后将对齐后的图像进行融合即可。 这里给出一个基于 OpenCVPython 的代码示例,实现了从一段 360 度非鱼眼视频取关键、去除镜头畸变、对齐、裁剪和拼接的全流程。 ```python import cv2 import numpy as np from itertools import tee, izip # 视频文件路径 video_path = 'input_video.mp4' # 一些参数设置 keyframe_interval = 30 # 取的关键间隔 crop_width = 1280 # 裁剪后的图像宽度 crop_height = 720 # 裁剪后的图像度 # 定义一个函数,用于将图像投影到球面上 def equirectangular_projection(frame, fov=90): h, w = frame.shape[:2] f = w / (2 * np.tan(fov * np.pi / 360)) K = np.array([[f, 0, w / 2], [0, f, h / 2], [0, 0, 1]]) theta = np.arccos((np.arange(h) - h / 2) / f) phi = np.arange(w) * 2 * np.pi / w phi, theta = np.meshgrid(phi, theta) x = np.sin(theta) * np.cos(phi) * f y = np.sin(theta) * np.sin(phi) * f z = np.cos(theta) * f X = np.stack([x, y, z], axis=-1) X = np.reshape(X, [-1, 3]).T X = np.vstack([X, np.ones([1, X.shape[1]])]) X = np.dot(np.linalg.inv(K), X) X = np.reshape(X[:-1, :], [h, w, 3]) X = cv2.remap(frame, X[..., 0].astype(np.float32), X[..., 1].astype(np.float32), cv2.INTER_LINEAR) return X # 定义一个函数,用于取关键 def keyframe_extraction(cap, interval): frames = [] count = 0 while True: ret, frame = cap.read() if not ret: break if count % interval == 0: frames.append(frame) count += 1 return frames # 定义一个函数,用于去除镜头畸变、对齐和裁剪 def preprocess_frame(frame): # 去除镜头畸变 frame = equirectangular_projection(frame) # 对齐 # TODO: 实现图像特征匹配算法对齐图像 # 裁剪 h, w = frame.shape[:2] x = int((w - crop_width) / 2) y = int((h - crop_height) / 2) frame = frame[y:y+crop_height, x:x+crop_width] return frame # 定义一个函数,用于将一组图像拼接成全景图 def stitch_images(images): # TODO: 实现基于图像特征匹配的图像拼接算法 # 将图像拼接成全景图 panorama = np.concatenate(images, axis=1) return panorama # 打开视频文件 cap = cv2.VideoCapture(video_path) # 取关键 frames = keyframe_extraction(cap, keyframe_interval) # 预处理每一图像 frames = [preprocess_frame(frame) for frame in frames] # 将一组图像拼接成全景图 panorama = stitch_images(frames) # 显示全景图 cv2.imshow('Panorama', panorama) cv2.waitKey(0) # 释放资源 cap.release() cv2.destroyAllWindows() ``` 需要注意的是,这段代码中的关键提取、图像对齐、图像拼接等部分都需要根据具体场景进行改进和调整,只能作为一个大体的参考。另外,这段代码中的图像拼接算法采用的是简单图像拼接方法,对于一些特殊场景可能会出现拼接不完整、拼接出错等问题,需要根据具体情况进行改进。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值