【pytorch】制作自己的数据集—基于VQA视频数据集

本文介绍了如何使用PyTorch创建自定义数据集,以处理ODV-VQA全景视频数据集。数据集包括10组视频,每组由参考和受损视频组成,涉及不同投影方式和质量参数。作者删除了主观评价打分的参考视频,专注于无参考视频评价。步骤包括读取视频和标签文件夹,定义读取函数,并构建数据集。
摘要由CSDN通过智能技术生成

之前我有写过一篇处理视频数据集的文章,那时候做的工作是把视频帧提取处理出来再排序。现在对之前的方法做个改进。按照之前的做法,首先,电脑内存可能没有那么大的空间,占用资源;其次,有了视频帧之后,标签不好处理,怎么输给神经网络也是个问题。

于是,我在了解到pytorch可以自己做自己的数据集后,就迫不及待地动起手来了。

在开始之前,先来了解一下今天的处理的数据集。ODV-VQA数据集里面全部都是全景视频。他把这些全景视频分成10组,如下图:
在这里插入图片描述
每组里面数据共有54个受损视频和6个参考视频,每个参考视频对应9个受损视频,然后这9个受损视频呢,包含三种投影方式(全景视频投影到平面),分别是ERP、RCMP和TSP,每个投影方式里又包含3个qp。以group01中的两组视频为例:
在这里插入图片描述
每个视频的命名方式为:视频名称_投影方式_每帧大小_fps_qp_视频大小。关于视频的标签,采用的是主观评价打分的形式。在Group_ScoreData的压缩包里,存放的就是每个视频的分数。

这里由于我想做的是无参考视频评价,所以我把每个group的参考视频和参考视频的标签都给删了。(数据集在这篇文章里有:ODV-VQA数据集,翻不了墙的小伙伴在评论区call我哦)

下面就开始吧

首先我想的是读取视频和标签所在的文件夹,把他们放在列表里:

scorelist = glob.glob('./score/Group*')  # 视频和标签所在的文件夹
videolist = glob.glob('./data/Group*')   # 即,group1-10

第二步:从videolist和scorelist中读取视频和标签。这个过程靠定义两个函数,get_video_list(),get_score_file来完成。

def get_video_list(grouplist):
    video = [
  • 5
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 13
    评论
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值