语义分割之SegNet训练预测自己的数据集

具体可参见博客PyQt5实现深度学习平台Demo(三)- Anaconda3配置tensorflow2.3.1及如何转化tensorflow1.x系列代码_jiugeshao的专栏-CSDN博客

深度学习(十九)——FCN, SegNet, DeconvNet, DeepLab, ENet, GCN_antkillerfarm的专栏-CSDN博客

图像分割:SegNet&DeconvNet和代码用例 - 知乎

深度学习(十九)——FCN, SegNet, DeconvNet, DeepLab, ENet, GCN_antkillerfarm的专栏-CSDN博客

下面说明Segnet的代码实现

本博客是在keras-segmentation/utils.py at master · lsh1994/keras-segmentation · GitHub基础上进行的代码实验,做了部分修改

pycharm所构造的项目中的文件结构如下:

data中所用数据集为我之前博客语义分割之FCN_jiugeshao的专栏-CSDN博客中所用的数据集

代码下载下来后,更改下utils.py中的class MaxUpooling2D类为如下:

class MaxUnpooling2D(Layer):
    def __init__(self, size=(2, 2), **kwargs):
        super(MaxUnpooling2D, self).__init__(**kwargs)
        self.size = size

    def call(self, inputs, output_shape=None):
        updates, mask = inputs[0], inputs[1]
        print(updates.shape)
        print(mask.shape)

        with tf.compat.v1.variable_scope(self.name):
            mask = K.cast(mask, 'int32')
            input_shape = tf.shape(updates, out_type='int32')

            if output_shape is None:
                output_shape = (
                    input_shape[0],
                    input_shape[1] * self.size[0],
                    input_shape[2] * self.size[1],
                    input_shape[3])

            print(output_shape)
            ret = tf.scatter_nd(K.expand_dims(K.flatten(mask)),
                                  K.flatten(updates),
                                  [K.prod(output_shape)])
            print(ret.shape)

            input_shape = updates.shape
            out_shape = [-1,
                         input_shape[1] * self.size[0],
                         input_shape[2] * self.size[1],
                         input_shape[3]]
            print((K.reshape(ret, out_shape)).shape)
            print(output_shape)
        return K.reshape(ret, out_shape)


    def get_config(self):
        config = super().get_config().copy()
        config.update({
            'size': self.size
        })
        return config

    def compute_output_shape(self, input_shape):
        mask_shape = input_shape[1]
        return (
                mask_shape[0],
                mask_shape[1]*self.size[0],
                mask_shape[2]*self.size[1],
                mask_shape[3]
                )

按照前面博客数据集,生成的标注图像的名称中含有_gt字符(对比原图名),可以用如下脚本批量去除

#!/usr/bin/env python
# -*- coding: utf-8 -*-
# author:Icecream.Shao

import os
import sys

filepath= r'data/valannot'
fileList = os.listdir(filepath)
currentpath = os.getcwd()
os.chdir(filepath)

for fileName in fileList:
    result = "_gt.png" in fileName
    if(result):
      os.rename(fileName,fileName.replace("_gt.png",".png"))

os.chdir(currentpath)

针对自己构造的数据集,train.py中修改后的代码如下:

from tensorflow.keras.callbacks import ModelCheckpoint, TensorBoard

import LoadBatches
from Models import FCN8, FCN32, SegNet, UNet
from tensorflow.keras import optimizers
import math
from tensorflow.compat.v1 import ConfigProto
from tensorflow.compat.v1 import InteractiveSession
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
from tensorflow.keras.optimizers import Adam
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)
tf.compat.v1.keras.backend.set_session(sess)
import random
import cv2
import numpy as np
from skimage import io,data,color

#############################################################################
train_images_path = "data/train/"
train_segs_path = "data/trainannot/"
train_batch_size = 2
n_classes = 2

epochs = 60

input_height = 288
input_width = 512


val_images_path = "data/val/"
val_segs_path = "data/valannot/"
val_batch_size = 2

key = "segnet"


##################################

method = {
    "fcn32": FCN32.FCN32,
    "fcn8": FCN8.FCN8,
    'segnet': SegNet.SegNet,
    'unet': UNet.UNet}

m = method[key](n_classes, input_height=input_height, input_width=input_width)
m.compile(
    loss='categorical_crossentropy',
    optimizer=Adam(lr=0.001),
    metrics=['acc'])


G = LoadBatches.imageSegmentationGenerator(train_images_path,
                                           train_segs_path, train_batch_size, n_classes=n_classes, input_height=input_height, input_width=input_width)

G_test = LoadBatches.imageSegmentationGenerator(val_images_path,
                                                val_segs_path, val_batch_size, n_classes=n_classes, input_height=input_height, input_width=input_width)
checkpoint = ModelCheckpoint(
    filepath="output/%s_model.h5" %
    key,
    monitor='acc',
    mode='auto',
    save_best_only='True')
tensorboard = TensorBoard(log_dir='output/log_%s_model' % key)

m.fit_generator(generator=G,
                steps_per_epoch=100,
                epochs=epochs, callbacks=[checkpoint, tensorboard],
                verbose=2,
                validation_data=G_test,
                validation_steps=10,
                shuffle=True)

predict.py中的代码为:

import LoadBatches
from tensorflow.keras.models import load_model
from Models import FCN32, FCN8, SegNet, UNet
import glob
import cv2
import numpy as np
import random
import random
import cv2
import numpy as np
from skimage import io,data,color
import tensorflow.compat.v1 as tf
tf.disable_v2_behavior()
from tensorflow.keras.optimizers import Adam
config = tf.ConfigProto()
config.gpu_options.allow_growth=True
sess = tf.Session(config=config)
tf.compat.v1.keras.backend.set_session(sess)

n_classes = 2

key = "segnet"

method = {
    "fcn32": FCN32.FCN32,
    "fcn8": FCN8.FCN8,
    "segnet": SegNet.SegNet,
    'unet': UNet.UNet}

images_path = "data/val/"
segs_path = "data/valannot/"

input_height = 288
input_width = 512

colors = [
    (random.randint(
        0, 255), random.randint(
            0, 255), random.randint(
                0, 255)) for _ in range(n_classes)]

##########################################################################


def label2color(colors, n_classes, seg):
    seg_color = np.zeros((seg.shape[0], seg.shape[1], 3))
    for c in range(n_classes):
        seg_color[:, :, 0] += ((seg == c) *
                               (colors[c][0])).astype('uint8')
        seg_color[:, :, 1] += ((seg == c) *
                               (colors[c][1])).astype('uint8')
        seg_color[:, :, 2] += ((seg == c) *
                               (colors[c][2])).astype('uint8')
    seg_color = seg_color.astype(np.uint8)
    return seg_color


def getcenteroffset(shape, input_height, input_width):
    short_edge = min(shape[:2])
    xx = int((shape[0] - short_edge) / 2)
    yy = int((shape[1] - short_edge) / 2)
    return xx, yy


images = sorted(
    glob.glob(
        images_path +
        "*.bmp") +
    glob.glob(
        images_path +
        "*.png") +
    glob.glob(
        images_path +
        "*.jpeg"))
segmentations = sorted(glob.glob(segs_path + "*.bmp") +
                       glob.glob(segs_path + "*.png") + glob.glob(segs_path + "*.jpeg"))


# m = load_model("output/%s_model.h5" % key)
m = method[key](2, 288, 512)  # 有自定义层时,不能直接加载模型

m.compile(
    loss='categorical_crossentropy',
    optimizer=Adam(lr=0.001),
    metrics=['acc'])


m.load_weights("output/%s_model.h5" % key)

# colors = [
#     (random.randint(
#         0, 255), random.randint(
#         0, 255), random.randint(
#         0, 255)) for _ in range(n_classes)]
#
# im1 = cv2.imread("data/35.jpg")
# im = cv2.resize(im1,(512,512))
# # xx, yy = getcenteroffset(im.shape, input_height, input_width)
# # im = im[xx:xx + input_height, yy:yy + input_width, :]
# im = im[np.newaxis, ...]
# pr = m.predict(im)[0]
# # pr = (pr*255).astype(np.float)
# # pr = pr[:,1].reshape((input_height, input_width))
# # pr[0,0] = 1.0;
# # pr[0,1] = 1.0;
# # pr[1, 0] = 1.0;
# # pr[1, 1] = 1.0;
# pr = pr.astype('float64')
# ptr = pr[:, 1].reshape(512, 512)
# ptr = cv2.resize(ptr,(1280,720))
# io.imshow(ptr)
# io.show()
#
for i, (imgName, segName) in enumerate(zip(images, segmentations)):

    print("%d/%d %s" % (i + 1, len(images), imgName))

    im = cv2.imread(imgName, 1)
    # im=cv2.resize(im,(input_height,input_width))
   # xx, yy = getcenteroffset(im.shape, input_height, input_width)
    #im = im[xx:xx + input_height, yy:yy + input_width, :]

    seg = cv2.imread(segName, 0)
    #seg= cv2.resize(seg,interpolation=cv2.INTER_NEAREST)
   # seg = seg[xx:xx + input_height, yy:yy + input_width]

    pr = m.predict(np.expand_dims(LoadBatches.getImageArr(im), 0))[0]
    pr = pr.reshape((input_height, input_width, n_classes)).argmax(axis=2)

    cv2.imshow("img", im)
    cv2.imshow("seg_predict_res", label2color(colors, n_classes, pr))
    cv2.imshow("seg", label2color(colors, n_classes, seg))

    cv2.waitKey()

检测效果如下:

原图为:

检测效果图:

当时的标注图为:

相关代码及数据集见如下链接:

链接:https://pan.baidu.com/s/1NKYY7IoDCkorxN3T47RWoA 
提取码:ojmg 
复制这段内容后打开百度网盘手机App,操作更方便哦--来自百度网盘超级会员V5的分享

更新:

最近博主又重新部署环境跑了下,报如下错误:

cannot import name '_validate_lengths'

解决办法是,做下如下升级即可

pip install -U scikit-image

  • 3
    点赞
  • 33
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 3
    评论
【优质项目推荐】 1、品质保证:项目代码均经过严格测试,确保功能稳定且运行ok。您可以放心下载并立即投入使用,若遇到任何问题,随时欢迎您的反馈与交流。 2、适用广泛:无论您是计算机相关专业(如计算机科学、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业老师,还是企业员工,都适用。 3、多用途价值:该项目不仅具有很高的学习借鉴价值,对于初学者来说,是入门进阶的绝佳选择;当然也可以直接用于 毕业设计、课程设计、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,那该项目代码更是您发挥创意、实现新功能的起点。可以基于此代码进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源,欢迎交流学习,欢迎借鉴引用,共同探索编程的无穷魅力! 分别基于深度学习算法(Segnet、Unet)实现遥感图像语义分割项目源码+项目说明+数据集+模型(可做毕设).zip 我的环境 - windows10 - Anaconda 3 - pytorch 1.0 - tensorflow tensorboard tensorboardX (用于可视化) ## 如何运行 所有的相对路径均在代码中配置 - 打开终端,输入 ``` python train_Seg.py ``` - 调用Segnet - 或者 ``` python train_U.py ``` - 调用Unet - 或者 ``` python predict.py ``` - 进行推断inference(需要有已经训练好的模型才可以推断) ## 包含文件 [train_Seg.py](train_Seg.py) * 调用Segnet进行训练网络 * 主函数 [train_Unet.py](train_Unet.py) * 调用Unet进行训练网络 * 主函数 [predict.py](predict.py) * 对模型进行inference预测 [models/seg_net.py](seg_net.py) * Segnet网络定义 [models/u_net.py](u_net.py) * Unet网络定义 [utils/DataArgument.py](DataArgument.py) * 数据预处理文件,对数据切割,旋转加噪顺便做数据增强 ## 数据集 数据集下载 [https://www.cs.toronto.edu/~vmnih/data/](https://www.cs.toronto.edu/~vmnih/data/) 数据集处理 进入utils文件夹,使用下面语句(相对路径要提前配置好) ``` python DataArgument.py ``` **DataArgument.py**实现了对大图进行切割(成256 x 256),切割后旋转,加噪声等操作来生成训练数据。 已处理好的数据集下载 [百度网盘](https://pan.baidu.com/s/1540_oghPEZKArQRl0VAsnA) 提取码:见资源项目说明
要使用SegNet训练自己的数据集,你需要按照以下步骤进行操作: 1. 收集和准备数据集:收集一组带有标记的图像和对应的标签,用于训练SegNet模型。确保图像和标签以相同的命名方式进行配对,并且标签图像与原图像的尺寸一致。 2. 数据预处理:对数据集进行预处理,包括调整图像大小、归一化、裁剪等操作。确保图像和标签的预处理方式一致,以便正确地进行训练。 3. 构建网络模型:使用SegNet的架构来构建模型。SegNet是一个基于编码器-解码器结构的语义分割模型,它可以用于像素级别的图像分割任务。你可以使用深度学习框架(如TensorFlow、PyTorch)来实现该模型。 4. 定义损失函数:为了训练SegNet模型,你需要定义一个适当的损失函数。常用的损失函数包括交叉熵损失函数和Dice损失函数,用于衡量预测结果与真实标签之间的差异。 5. 训练模型:将数据集划分为训练集和验证集,并利用训练集对SegNet模型进行训练。在训练过程中,使用优化算法(如随机梯度下降)来最小化损失函数。通过多次迭代训练,优化模型的参数。 6. 评估和调优:使用验证集评估训练好的模型的性能。你可以计算模型在验证集上的准确率、精确率、召回率等指标,以了解模型的效果。如果需要改进模型性能,你可以进行调整超参数、增加数据集大小或进行数据增强等操作。 7. 测试模型:最后,使用测试集对已训练好的SegNet模型进行测试。将模型应用于新的图像,并观察其分割结果的质量。 以上是训练SegNet模型使用自定义数据集的一般步骤,你可以根据具体情况进行调整和优化。请注意,这只是一个简单的指南,实际操作可能因数据集和问题而有所不同。
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

竹叶青lvye

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值