用FCN训练自己数据集(Tensorflow)

版权声明:本文为博主原创文章,转载请注明作者和出处。https://blog.csdn.net/xq920831/article/details/86704710

参考地址:https://blog.csdn.net/qq_40994943/article/details/85041493#commentsedit

针对原文不能正常运行的问题,进行说明。

本人的label图片和原图片都是jpg格式

主要问题:原文写的TensorFlowUtils里面就没有maybe_download_and_extract函数

修改方式是更改

read_MITSceneParsingData.py

这个py脚本的内容,如下:



# coding=utf-8
import numpy as np
import os
import random
from six.moves import cPickle as pickle
from tensorflow.python.platform import gfile
import glob

import TensorflowUtils as utils

# DATA_URL = 'http://sceneparsing.csail.mit.edu/data/ADEChallengeData2016.zip'
DATA_URL = 'http://data.csail.mit.edu/places/ADEchallenge/ADEChallengeData2016.zip'


def read_dataset(data_dir, data_name):
    pickle_filename = "MITSceneParsing.pickle"
    pickle_filepath = os.path.join(data_dir, pickle_filename)
    #
    # if not os.path.exists(pickle_filepath):  # 不存在文件
    #     utils.maybe_download_and_extract(data_dir, DATA_URL, is_zipfile=True)  # 不存在文件 则下载
    #     SceneParsing_folder = os.path.splitext(DATA_URL.split("/")[-1])[0]  # ADEChallengeData2016
    result = create_image_lists(os.path.join(data_dir, data_name))
    print("Pickling ...")
    with open(pickle_filepath, 'wb') as f:
        pickle.dump(result, f, pickle.HIGHEST_PROTOCOL)
    # else:
    #     print("Found pickle file!")

    with open(pickle_filepath, 'rb') as f:  # 打开pickle文件
        result = pickle.load(f)
        training_records = result['training']
        validation_records = result['validation']
        del result

    return training_records, validation_records


'''
  返回一个字典:
  image_list{ 
           "training":[{'image': image_full_name, 'annotation': annotation_file, 'image_filename': },......],
           "validation":[{'image': image_full_name, 'annotation': annotation_file, 'filename': filename},......]
           }
'''


def create_image_lists(image_dir):
    if not gfile.Exists(image_dir):
        print("Image directory '" + image_dir + "' not found.")
        return None
    directories = ['training', 'validation']
    image_list = {}

    for directory in directories:  # 训练集和验证集 分别制作
        file_list = []
        image_list[directory] = []

        # 获取images目录下所有的图片名
        file_glob = os.path.join(image_dir, "images", directory, '*.' + 'png')
        file_list.extend(glob.glob(file_glob))  # 加入文件列表  包含所有图片文件全路径+文件名字  如 Data_zoo/MIT_SceneParsing/ADEChallengeData2016/images/training/hi.jpg

        if not file_list:
            print('No files found')
        else:
            for f in file_list:  # 扫描文件列表   这里f对应文件全路径
                # 注意注意,下面的分割符号,在window上为:\\,在Linux撒花姑娘为 : /
                filename = os.path.splitext(f.split("\\")[-1])[0]  # 图片名前缀
                annotation_file = os.path.join(image_dir, "annotations", directory, filename + '.png')
                if os.path.exists(annotation_file):
                    record = {'image': f, 'annotation': annotation_file, 'filename': filename}#  image:图片全路径, annotation:标签全路径, filename:图片名字
                    image_list[directory].append(record)
                else:
                    print("Annotation file not found for %s - Skipping" % filename)

        random.shuffle(image_list[directory])  # 对图片列表进行洗牌
        no_of_images = len(image_list[directory])  # 包含图片文件的个数
        print('No. of %s files: %d' % (directory, no_of_images))

    return image_list


即可。

训练自己的数据集,你可以按照以下步骤进行操作: 1. 首先,你可以使用提供的数据集进行训练。这个数据集包含了39张图片,你可以先使用这个数据集进行训练,确保没有问题之后再制作自己的数据集。你可以从生活中收集数据,不一定非要从网上下载。\[1\] 2. 其次,你需要了解fcn(全卷积网络)的算法。你可以在mxnet框架下使用自己的数据来进行模型的训练和测试。确保你已经安装好了相关的Mxnet环境,并找到了`example/fcn-xs`文件夹下的相关文件。你还需要运行`image_segmentation.py`来确保你的环境设置正确。\[2\] 3. 接下来,你可以开始训练自己的数据集。你可以在我的GitHub地址中找到相关的代码,如果你觉得不错的话,请给个star哈。首先,你需要下载VGG网络的权重参数,并将其放在`./Model_zoo/imagenet-vgg-verydeep-19.mat`路径下。然后,将你自己的数据集放入`./Data_zoo/MIT_SceneParsing/ADEChallengeData2016`文件夹中。在训练时,你需要将`FCN.py`中的全局变量`mode`改为"train",然后运行该文件。在测试时,你需要修改测试函数中的图片地址,并将`mode`改为"test",然后运行即可。\[3\] 希望这些步骤对你有帮助!如果你有任何其他问题,请随时提问。 #### 引用[.reference_title] - *1* [FCN中制作自己的数据集并进行训练](https://blog.csdn.net/Keep_Trying_Go/article/details/126075642)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [Mxnet(4)-fcn训练自己的数据](https://blog.csdn.net/yiweibian/article/details/70230737)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *3* [【精!!!!】用FCN训练自己数据集Tensorflow)](https://blog.csdn.net/qq_40994943/article/details/85041493)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值