【图像分割算法】

图像分割算法

一、opencv 图像分割

在OpenCV中,图像分割有多种方法,下面列举几种常见的并给出代码示例、原理说明及使用场景:

1. 阈值分割(Global Thresholding)

原理:基于像素强度设置一个阈值,将图像的每个像素点根据其灰度值与阈值比较,将其划分为前景或背景。适用于具有明显二值特征的图像。

import cv2

# 加载灰度图像
img_gray = cv2.imread('input.jpg', cv2.IMREAD_GRAYSCALE)

# 设定阈值
threshold_value = 127

# 使用全局阈值进行分割
_, binary_img = cv2.threshold(img_gray, threshold_value, 255, cv2.THRESH_BINARY)

# 显示结果
cv2.imshow('Binary Image', binary_img)
cv2.waitKey(0)
cv2.destroyAllWindows()

使用场景:文档扫描识别、简单的物体边缘提取等。

2. Otsu’s Binarization

原理:自动选择最佳阈值以最大化前景和背景之间的类间方差。适用于光照不均匀但对象与背景对比明显的图像。

# 使用Otsu's方法自动计算阈值
_, binary_img = cv2.threshold(img_gray, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)

# 显示结果
cv2.imshow('Otsu Thresholded Image', binary_img)
cv2.waitKey(0)
cv2.destroyAllWindows()

使用场景:细胞学分析、医学影像处理等需要自适应阈值的情况。

3. 颜色空间分割

原理:通过颜色模型(如HSV、Lab等)对特定颜色范围内的区域进行分割。

# 加载彩色图像并转换到HSV色彩空间
img_color = cv2.imread('input.jpg')
hsv = cv2.cvtColor(img_color, cv2.COLOR_BGR2HSV)

# 定义感兴趣的颜色范围
lower_red = (0, 50, 50)
upper_red = (10, 255, 255)

# 应用inRange函数进行分割
mask = cv2.inRange(hsv, lower_red, upper_red)

# 进行位运算得到目标区域
red_only = cv2.bitwise_and(img_color, img_color, mask=mask)

# 显示结果
cv2.imshow('Red Pixels', red_only)
cv2.waitKey(0)
cv2.destroyAllWindows()

使用场景:从复杂背景下分离特定颜色的物体,如交通标志检测、水果采摘机器人视觉系统等。

4. 分水岭算法(Watershed Algorithm)

原理:模拟地形分水岭过程,将图像视为地形,最低点标记为已知类别,然后通过扩展边界来达到分割不同区域的目的。适用于重叠且连通性复杂的物体分割。

# 预处理:加载图像、转为灰度图、高斯滤波、边缘保持二值化等
gray = cv2.cvtColor(img_color, cv2.COLOR_BGR2GRAY)
gray = cv2.GaussianBlur(gray, (3, 3), 0)
_, thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)

# 寻找轮廓并创建距离变换图
contours, _ = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
markers = np.zeros(gray.shape, dtype=np.int32)
for i, contour in enumerate(contours):
    cv2.drawContours(markers, [contour], -1, i+1, -1)

# 创建并填充水域
distance = cv2.distanceTransform(thresh, cv2.DIST_L2, 5)
distance[mask==0] = 0
markers[mask!=0] = -1

# 执行分水岭算法
markers = cv2.watershed(img_color, markers)

# 在原图像上标注分割结果
for i in range(1, np.max(markers)+1):
    img_color[markers == i] = [int(i*255/np.max(markers)), 0, 0]

# 显示结果
cv2.imshow('Watershed Segmentation', img_color)
cv2.waitKey(0)
cv2.destroyAllWindows()

使用场景:生物组织切片分析、粒子群分割等需要精确分割多个互相接触物体的场景。

5. 区域生长(Region Growing)

原理:从种子点开始,逐步将邻近像素纳入同一区域,直到满足终止条件为止。终止条件通常包括颜色、纹理、灰度等相似性准则。

# 假设seed_point是已知的一个初始像素点
seed_point = (x, y)

# 初始化邻域大小与阈值
neighborhood_size = 5
threshold = 10

# 获取该点的颜色作为参考颜色
reference_color = img[seed_point]

# 区域生长的基本逻辑(实际实现时可能更复杂)
grow_region = [seed_point]
while grow_region:
    new_points = []
    for point in grow_region:
        # 检查相邻像素是否满足阈值条件
        for neighbor in get_neighbors(point, neighborhood_size):
            if color_difference(img[neighbor], reference_color) < threshold:
                new_points.append(neighbor)
    grow_region = new_points

# 根据生长区域更新分割结果
# ...

# 显示最终分割结果
cv2.imshow('Region Growing Result', result_img)
cv2.waitKey(0)
cv2.destroyAllWindows()

使用场景:医学图像分割、遥感图像分析等,在清晰边界附近的区域相似性高的情况。

二、基于深度学习的图像分割

基于深度学习的图像分割方法包括但不限于以下几种:

1. 语义分割

  • FCN(Fully Convolutional Networks) :通过将卷积网络应用于全图像,输出与输入相同尺寸的标签图。它引入了反卷积层(或上采样层)来恢复空间分辨率。
# 使用PyTorch实现一个基础的FCN模型
import torch.nn as nn

class FCN(nn.Module):
    def __init__(self, num_classes=21):
        super(FCN, self).__init__()
        # VGG16作为预训练特征提取器
        self.vgg = torchvision.models.vgg16(pretrained=True)
        # 去除分类层
        del self.vgg.classifier[:4]
  
        # 用于上采样的反卷积层
        self.deconv1 = nn.ConvTranspose2d(512, 512, kernel_size=3, stride=2, padding=1, output_padding=1)
        self.deconv2 = nn.ConvTranspose2d(512, 256, kernel_size=3, stride=2, padding=1, output_padding=1)
        self.deconv3 = nn.ConvTranspose2d(256, 128, kernel_size=3, stride=2, padding=1, output_padding=1)
        self.final = nn.Conv2d(128, num_classes, kernel_size=1)

    def forward(self, x):
        features = self.vgg.features(x)
        x = self.deconv1(features[-1])
        x = F.relu(x)
        x = self.deconv2(x)
        x = F.relu(x)
        x = self.deconv3(x)
        x = F.relu(x)
        out = self.final(x)
        return out

# 初始化模型
model = FCN(num_classes=num_classes)

# 加载数据、定义损失函数和优化器等步骤...

2. U-Net

  • U-Net是一种非常流行的用于医学图像分割和其他精细分割任务的网络结构,其特点是编码器-解码器架构结合跳过连接。
import torch.nn as nn
from torch.nn import functional as F

class UNet(nn.Module):
    def __init__(self, in_channels=3, n_classes=1, depth=5, wf=6, padding=False, batch_norm=False):
        super(UNet, self).__init__()
        assert (depth - 2) % 2 == 0, 'Depth should be even'
        self.depth = depth
        prev_channels = in_channels
        self.down_path = nn.ModuleList()
        for i in range(depth):
            self.down_path.append(UNetConvBlock(prev_channels, 2 ** (i + 1) * wf, padding, batch_norm))
            prev_channels = 2 ** (i + 1) * wf

        self.up_path = nn.ModuleList()
        for i in reversed(range(depth - 2)):
            self.up_path.append(UNetUpBlock(prev_channels, 2 ** (i + 1) * wf, padding, batch_norm))
            prev_channels += 2 ** (i + 1) * wf

        self.last = nn.Conv2d(prev_channels, n_classes, kernel_size=1)

    def forward(self, x):
        blocks = []
        for i, down in enumerate(self.down_path):
            x = down(x)
            if i != len(self.down_path) - 1:
                blocks.append(x)
                x = F.avg_pool2d(x, 2)

        for i, up in enumerate(self.up_path):
            x = up(x, blocks[-(i + 1)])

        x = self.last(x)
        return x

# 定义UNet中的卷积块和上采样模块...

3. DeepLabv3+

  • DeepLab系列是Google提出的语义分割框架,DeepLabv3+结合了ASPP(空洞空间金字塔池化)模块和自底向上的路径以捕获多尺度信息。
# PyTorch Lightning版DeepLabv3+
class DeepLabV3Plus(pl.LightningModule):
    def __init__(self, backbone='resnet', output_stride=16, num_classes=21, **kwargs):
        super().__init__()
        self.backbone = get_backbone(backbone, output_stride)
        self.aspp = ASPP(output_stride=output_stride, in_channels=2048)
        self.decoder = Decoder(num_classes, in_channels=256)
  
    def forward(self, x):
        x, low_level_features = self.backbone(x)
        x = self.aspp(x)
        x = self.decoder(x, low_level_features)
        return x

# 定义ASPP和Decoder模块...

4. Mask R-CNN

  • 实例分割方法,可以同时进行对象检测和每个对象的像素级分割。
# 使用detectron2库实现Mask R-CNN
from detectron2.modeling import build_model

config_file = "COCO-InstanceSegmentation/mask_rcnn_R_50_FPN_3x.yaml"
cfg = get_cfg()
cfg.merge_from_file(config_file)
cfg.MODEL.WEIGHTS = model_zoo.get_checkpoint_url(config_file)  # Let the model use pre-trained weights
cfg.DATASETS.TRAIN = ("your_dataset_train",)
cfg.DATASETS.TEST = ("your_dataset_test",)
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 2
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 512
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 8  # Your number of classes

# 创建并初始化模型
model = build_model(cfg)
  • 10
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

stsdddd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值