分割分类数据集

31 篇文章 3 订阅
11 篇文章 0 订阅

分割分类数据集

# -*-coding: utf-8 -*-
import os
import random
import shutil

# 定义各个文件夹的路径
parent_folder = "./"
a_folder = os.path.join(parent_folder, "angry")
b_folder = os.path.join(parent_folder, "happy")
c_folder = os.path.join(parent_folder, "relaxed")
d_folder = os.path.join(parent_folder, "sad")

# 计算每个文件夹中要划分为验证集的图片数量
val_ratio = 0.1
a_val_size = int(val_ratio * len(os.listdir(a_folder)))
b_val_size = int(val_ratio * len(os.listdir(b_folder)))
c_val_size = int(val_ratio * len(os.listdir(c_folder))) 
d_val_size = int(val_ratio * len(os.listdir(d_folder)))

# 分别对每个文件夹进行处理,将图片移动到 train/ 和 val/ 目录中
train_folder = os.path.join(parent_folder, "train")
val_folder = os.path.join(parent_folder, "val")
os.makedirs(train_folder, exist_ok=True)
os.makedirs(val_folder, exist_ok=True)
for folder in [a_folder, b_folder, c_folder, d_folder]:
    filenames = os.listdir(folder)
    random.shuffle(filenames)  # 打乱文件顺序
    val_filenames = set(filenames[:a_val_size])
    train_filenames = set(filenames[a_val_size:])

    # 移动文件到 train/ 或 val/ 目录中的子文件夹中
    for filename in train_filenames:
        src_path = os.path.join(folder, filename)
        print(train_folder)
        os.makedirs(os.path.join(train_folder, os.path.basename(folder)), exist_ok = True)
        dst_path = os.path.join(train_folder, os.path.basename(folder), filename)
        shutil.copy(src_path, dst_path)
    for filename in val_filenames:
        src_path = os.path.join(folder, filename)
        os.makedirs(os.path.join(train_folder, os.path.basename(folder)), exist_ok = True)
        dst_path = os.path.join(val_folder, os.path.basename(folder), filename)
        shutil.copy(src_path, dst_path)


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
语义分割是一种计算机视觉任务,旨在将图像中的每个像素分类到不同的语义类别。语义分割txt数据集是用于训练和评估语义分割模型的数据集,其通常包含图像文件和对应的标签文件。 语义分割txt数据集可以包含以下内容:每张图像的文件名、图像的宽度和高度信息,以及语义分割的标签信息。标签信息通常以txt文件的形式给出,每个像素点对应一个标签,并以矩阵的形式表示整张图像。 在语义分割txt数据集中,每个像素点的标签可以表示为不同的类别编码。例如,对于一个城市街景的语义分割任务,可能会有类别编码分别代表道路、车辆、行人等不同的类别。标签信息文件将图像中每个像素点的类别编码以矩阵的形式呈现,方便模型训练和评估时进行像素级别的分类。 语义分割txt数据集的构建过程通常需要手工标注或利用自动标注算法进行。标注的过程需要专业知识和耐心,标注人员需要根据图像内容将每个像素点进行分类标注。标注的准确性对于训练出高质量的语义分割模型至关重要。 借助语义分割txt数据集,可以使用各种深度学习模型进行训练。这些模型可以通过学习图像的语义信息,像素级别地对图像进行分类。语义分割模型广泛应用于各种计算机视觉任务,如自动驾驶、图像分割与合成等领域。 总而言之,语义分割txt数据集是用于训练和评估语义分割模型的数据集,它提供了图像和对应像素级别标签的信息,方便计算机视觉领域的研究者和工程师进行语义分割任务的模型训练和评估。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

东哥爱编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值