【理论+实践】史上最全-论文中常用的图像分割评价指标-附完整代码_分割指标hd95 aorta

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

A

B

A

B

=

T

P

T

P

F

P

F

N

IoU = \frac{|A \bigcap B|}{|A \bigcup B|} = \frac{TP}{TP + FP + FN}

IoU=∣A⋃B∣∣A⋂B∣​=TP+FP+FNTP​
在这里插入图片描述
还是上面那个3 * 3 的例子,我们来计算一下它的IoU

I

o

U

=

=

3

=

5

=

T

P

=

3

T

P

F

P

F

N

=

5

=

60

%

IoU=\frac{交集=3}{并集=5} = \frac{TP=3}{TP+FP+FN=5} = 60%

IoU=并集=5交集=3​=TP+FP+FN=5TP=3​=60%

2.2. 代码中如何表达

# IOU evaluation
def binary\_iou(s, g):
    assert (len(s.shape) == len(g.shape))
    # 两者相乘值为1的部分为交集
    intersecion = np.multiply(s, g)
    # 两者相加,值大于0的部分为交集
    union = np.asarray(s + g > 0, np.float32)
    iou = intersecion.sum() / (union.sum() + 1e-10)
    return iou
g = np.array([1, 1, 1, 1, 1, 0, 0, 0, 0])
s = np.array([0, 1, 0, 1, 1, 0, 0, 0, 0])
iou = binary_iou(s, g)
print(iou)

如果理解了原理,代码依然很简单。

tips: 分母中加了一项1e-10, 是为了防止分母为0的情况出错。

3 骰子系数Dice

3.1 原理

定义: Dice系数定义为两倍的交集除以像素和,也叫F1 score。Dice 系数与 IoU 非常相似,它们是正相关的。这意味着如果一个人说模型 A 在分割图像方面比模型 B 更好,那么另一个人也会这么说。

与 IoU 一样,它们的范围都从 0 到 1,其中 1 表示预测和真实之间的最大相似度。

在这里插入图片描述

其公式为:

D

i

c

e

=

2

A

B

A

B

=

2

T

P

2

T

P

F

P

F

N

Dice = \frac{2 |A \bigcap B|}{|A| + |B|} = \frac{2 TP}{2TP + FP + FN}

Dice=∣A∣+∣B∣2∣A⋂B∣​=2TP+FP+FN2TP​

可以看到Dice系数对应于IoU,分子分母中的TP都取了两倍

还是上面那个3 * 3 的例子,我们来计算一下它的Dice:

D

i

c

e

=

2

3

5

3

=

2

T

P

=

6

2

T

P

F

P

F

N

=

8

=

75

%

Dice=\frac{2 * 3 }{5+ 3} = \frac{2TP=6}{2TP+FP+FN=8} = 75%

Dice=5+32∗3​=2TP+FP+FN=82TP=6​=75%

3.2 代码中如何实现

def binary\_dice(s, g):
    """
 calculate the Dice score of two N-d volumes.
 s: the segmentation volume of numpy array
 g: the ground truth volume of numpy array
 """
    assert (len(s.shape) == len(g.shape))
    prod = np.multiply(s, g)
    s0 = prod.sum()
    dice = (2.0 \* s0 + 1e-10) / (s.sum() + g.sum() + 1e-10)
    return dice
g = np.array([1, 1, 1, 1, 1, 0, 0, 0, 0])
s = np.array([0, 1, 0, 1, 1, 0, 0, 0, 0])
dice = binary_dice(s, g)
print(dice)

以上的指标意义可以重点掌握,以下有点难度,看不懂直接拉到最后,抄作业就好~~

4 表面距离计算

当我们评价图像分割的质量和模型表现时,经常会用到各类表面距离的计算。
比如

  • Average surface distance 平均表面距离
  • Hausdorff distance 豪斯多夫距离
  • Surface overlap 表面重叠度
  • Surface dice 表面dice值
  • Volumetric dice 三维dice值

4.1 Hausdorff distance 豪斯多夫距离

将Hausdorff distance, HD 用于分割指标,主要是用来度量边界的分割准确度

HD 是描述两组点集之间相似程度的一种量度,它是两个点集之间距离的一种定义形式:假设有两组集合A={a1,…,ap},B={b1,…,bq},则这两个点集合之间的HD定义为:

H

(

A

,

B

)

=

m

a

x

(

h

(

A

,

B

)

,

h

(

B

,

A

)

)

.

.

.

.

.

.

(

1

)

H(A, B) = max(h(A, B), h(B,A)) … (1)

H(A,B)=max(h(A,B),h(B,A))…(1)
在这里插入图片描述

  • 式(1)称为双向Hausdorff distance,是Hausdorff distance的最基本形式;
  • 式(2)中的h(A,B)和h(B,A)分别称为从A集合到B集合和从B集合到A集合的单向Hausdorff距离。即h(A,B)实际上首先对点集A中的每个点ai到距离此点ai最近的B集合中点bj之间的距离‖ai-bj‖进行排序,然后取该距离中的最大值作为h(A,B)的值;h(B,A)同理可得。
  • 由式(1)知,双向Hausdorff距离H(A,B)是单向距离h(A,B)和h(B,A)两者中的较大者,它度量了两个点集间的最大不匹配程度。

刚说了那么多,是不是也不是很清楚,只看公式确实是一件不好玩的事情,那我用网上常用的图来说明一下,还有一个比较简单清晰的计算流程。给定两个点集合A{ a0, a1, … }和B{ b0, b1, b2, …}

  • 取A集合中的一点a0,计算a0到B集合中所有点的距离,保留最短的距离d0
  • 遍历A集合中所有点,图中一共两点a0和a1,计算出d0和d1
  • 比较所有的距离{ d0, d1 },选出最长的距离d1
  • 这个最长的距离就是h,它是A→B的单向豪斯多夫距离,记为h( A, B
  • 对于A集合中任意一点a,我们可以确定,以点a为圆心,h为半径的圆内部必有B集合中的
  • 交换A集合和B集合的角色,计算B→A的单向豪斯多夫距离h( B, A ),选出h( A, B )和h( B, A )中最长的距离,就是A,B集合的双向豪斯多夫距离

在这里插入图片描述

此部分参考链接

在实际计算中,我们并不是选取的不是最大距离,而是将距离从大到小排列后,取排名为5%的距离。这么做的目的是为了排除一些离群点所造成的不合理的距离,保持整体数值的稳定性。所以也叫==

H

D

95

HD_{95}

HD95​.==

4.2 代码如何实现

H

D

95

HD_{95}

HD95​和ASD

# Hausdorff and ASSD evaluation
def get\_edge\_points(img):
    """
 get edge points of a binary segmentation result
 """
    dim = len(img.shape)
    if (dim == 2):
        strt = ndimage.generate_binary_structure(2, 1)
    else:
        strt = ndimage.generate_binary_structure(3, 1)  # 三维结构元素,与中心点相距1个像素点的都是邻域
    ero = ndimage.morphology.binary_erosion(img, strt)
    edge = np.asarray(img, np.uint8) - np.asarray(ero, np.uint8)
    return edge

def binary\_hausdorff95(s, g, spacing=None):
    """
 get the hausdorff distance between a binary segmentation and the ground truth
 inputs:
 s: a 3D or 2D binary image for segmentation
 g: a 2D or 2D binary image for ground truth
 spacing: a list for image spacing, length should be 3 or 2
 """
    s_edge = get_edge_points(s)
    g_edge = get_edge_points(g)
    image_dim = len(s.shape)
    assert (image_dim == len(g.shape))
    if (spacing == None):
        spacing = [1.0] \* image_dim
    else:
        assert (image_dim == len(spacing))
    img = np.zeros_like(s)
    if (image_dim == 2):
        s_dis = GeodisTK.geodesic2d_raster_scan(img, s_edge, 0.0, 2)
        g_dis = GeodisTK.geodesic2d_raster_scan(img, g_edge, 0.0, 2)
    elif (image_dim == 3):
        s_dis = GeodisTK.geodesic3d_raster_scan(img, s_edge, spacing, 0.0, 2)
        g_dis = GeodisTK.geodesic3d_raster_scan(img, g_edge, spacing, 0.0, 2)

    dist_list1 = s_dis[g_edge > 0]
    dist_list1 = sorted(dist_list1)
    dist1 = dist_list1[int(len(dist_list1) \* 0.95)]
    dist_list2 = g_dis[s_edge > 0]
    dist_list2 = sorted(dist_list2)
    dist2 = dist_list2[int(len(dist_list2) \* 0.95)]
    return max(dist1, dist2)


# 平均表面距离
def binary\_assd(s, g, spacing=None):
    """
 get the average symetric surface distance between a binary segmentation and the ground truth
 inputs:
 s: a 3D or 2D binary image for segmentation
 g: a 2D or 2D binary image for ground truth
 spacing: a list for image spacing, length should be 3 or 2
 """
    s_edge = get_edge_points(s)
    g_edge = get_edge_points(g)
    image_dim = len(s.shape)
    assert (image_dim == len(g.shape))
    if (spacing == None):
        spacing = [1.0] \* image_dim
    else:
        assert (image_dim == len(spacing))
    img = np.zeros_like(s)
    if (image_dim == 2):
        s_dis = GeodisTK.geodesic2d_raster_scan(img, s_edge, 0.0, 2)
        g_dis = GeodisTK.geodesic2d_raster_scan(img, g_edge, 0.0, 2)
    elif (image_dim == 3):
        s_dis = GeodisTK.geodesic3d_raster_scan(img, s_edge, spacing, 0.0, 2)
        g_dis = GeodisTK.geodesic3d_raster_scan(img, g_edge, spacing, 0.0, 2)

    ns = s_edge.sum()
    ng = g_edge.sum()
    s_dis_g_edge = s_dis \* g_edge
    g_dis_s_edge = g_dis \* s_edge
    assd = (s_dis_g_edge.sum() + g_dis_s_edge.sum()) / (ns + ng)
    return assd

这部分的计算相对有难度,另外,对于表面距离的计算还有公开库可用,如表面距离计算库, 可以实现上述距离算法。

5 相关体积误差 RVE

relative volume error, RVE, 暂时没找到很好的解释,可以参考:rve参考链接

公式为:

R

V

E

(

R

a

,

R

b

)

=

a

b

s

(

R

a

R

b

)

R

b

RVE(R_a, R_b) = \frac{abs(|R_a|-|R_b|)}{|R_b|}

RVE(Ra​,Rb​)=∣Rb​∣abs(∣Ra​∣−∣Rb​∣)​

  • R_a: segmentation results
  • R_b: ground truth

在代码中的实现为:

def binary\_relative\_volume\_error(s_volume, g_volume):
    s_v = float(s_volume.sum())
    g_v = float(g_volume.sum())
    assert (g_v > 0)
    rve = abs(s_v - g_v) / g_v
    return rve

6 为懒癌星人进行打包服务

在这里插入图片描述
是不是想一键get同款,复制下面代码,只需改名字就可以拿到所有的指标结果。适用于三维数据,数据格式为nii.gz…如果是二维数据,需要给一下数据读取方式。

# 计算三维下各种指标
from __future__ import absolute_import, print_function

import pandas as pd
import GeodisTK
import numpy as np
from scipy import ndimage


# pixel accuracy
def binary\_pa(s, g):
    """
 calculate the pixel accuracy of two N-d volumes.
 s: the segmentation volume of numpy array
 g: the ground truth volume of numpy array
 """
    pa = ((s == g).sum()) / g.size
    return pa


# Dice evaluation
def binary\_dice(s, g):
    """
 calculate the Dice score of two N-d volumes.
 s: the segmentation volume of numpy array
 g: the ground truth volume of numpy array
 """
    assert (len(s.shape) == len(g.shape))
    prod = np.multiply(s, g)
    s0 = prod.sum()
    dice = (2.0 \* s0 + 1e-10) / (s.sum() + g.sum() + 1e-10)
    return dice


# IOU evaluation
def binary\_iou(s, g):
    assert (len(s.shape) == len(g.shape))
    # 两者相乘值为1的部分为交集
    intersecion = np.multiply(s, g)
    # 两者相加,值大于0的部分为交集
    union = np.asarray(s + g > 0, np.float32)
    iou = intersecion.sum() / (union.sum() + 1e-10)
    return iou


# Hausdorff and ASSD evaluation
def get\_edge\_points(img):
    """
 get edge points of a binary segmentation result
 """
    dim = len(img.shape)
    if (dim == 2):
        strt = ndimage.generate_binary_structure(2, 1)
    else:
        strt = ndimage.generate_binary_structure(3, 1)  # 三维结构元素,与中心点相距1个像素点的都是邻域
    ero = ndimage.morphology.binary_erosion(img, strt)
    edge = np.asarray(img, np.uint8) - np.asarray(ero, np.uint8)
    return edge


def binary\_hausdorff95(s, g, spacing=None):
    """
 get the hausdorff distance between a binary segmentation and the ground truth
 inputs:
 s: a 3D or 2D binary image for segmentation
 g: a 2D or 2D binary image for ground truth
 spacing: a list for image spacing, length should be 3 or 2
 """
    s_edge = get_edge_points(s)
    g_edge = get_edge_points(g)
    image_dim = len(s.shape)
    assert (image_dim == len(g.shape))
    if (spacing == None):
        spacing = [1.0] \* image_dim
    else:
        assert (image_dim == len(spacing))
    img = np.zeros_like(s)
    if (image_dim == 2):
        s_dis = GeodisTK.geodesic2d_raster_scan(img, s_edge, 0.0, 2)
        g_dis = GeodisTK.geodesic2d_raster_scan(img, g_edge, 0.0, 2)
    elif (image_dim == 3):
        s_dis = GeodisTK.geodesic3d_raster_scan(img, s_edge, spacing, 0.0, 2)


![img](https://img-blog.csdnimg.cn/img_convert/e1b8bf54e1c5cfedbfbc05355e545026.png)
![img](https://img-blog.csdnimg.cn/img_convert/39f0594da11700b4aba33769b887e2b4.png)

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**


 inputs:
 s: a 3D or 2D binary image for segmentation
 g: a 2D or 2D binary image for ground truth
 spacing: a list for image spacing, length should be 3 or 2
 """
    s_edge = get_edge_points(s)
    g_edge = get_edge_points(g)
    image_dim = len(s.shape)
    assert (image_dim == len(g.shape))
    if (spacing == None):
        spacing = [1.0] \* image_dim
    else:
        assert (image_dim == len(spacing))
    img = np.zeros_like(s)
    if (image_dim == 2):
        s_dis = GeodisTK.geodesic2d_raster_scan(img, s_edge, 0.0, 2)
        g_dis = GeodisTK.geodesic2d_raster_scan(img, g_edge, 0.0, 2)
    elif (image_dim == 3):
        s_dis = GeodisTK.geodesic3d_raster_scan(img, s_edge, spacing, 0.0, 2)


[外链图片转存中...(img-WC57tCYI-1715717613763)]
[外链图片转存中...(img-VKvJBjgn-1715717613764)]

**网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。**

**[需要这份系统化资料的朋友,可以戳这里获取](https://bbs.csdn.net/topics/618545628)**


**一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!**

  • 14
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
PCL(Point Cloud Library)是一个开源的点云处理库用于处理和分析三维点云数据。在点云分割任务评价指标用于衡量算法的性能和准确度。以下是几个常用的PCL点云分割评价指标: 1. 点云分割准确率(Segmentation Accuracy):该指标用于评估算法对点云数据进行正确分割的能力。准确率可以通过计算正确分割的点数与总点数之比来得到。 2. 点云分割召回率(Segmentation Recall):该指标用于评估算法对点云数据进行完整分割的能力。召回率可以通过计算正确分割的点数与真实分割点数之比来得到。 3. 平均分割误差(Under-segmentation Error):该指标用于评估算法对点云数据进行过度分割的程度。欠分割误差可以通过计算未正确分割的点数与总点数之比来得到。 4. 平均分割误差(Over-segmentation Error):该指标用于评估算法对点云数据进行不足分割的程度。过分割误差可以通过计算错误分割的点数与总点数之比来得到。 5. 边界正确率(Boundary Precision):该指标用于评估算法对点云数据物体边界的准确度。边界正确率可以通过计算正确分割的边界点数与总边界点数之比来得到。 6. 边界召回率(Boundary Recall):该指标用于评估算法对点云数据物体边界的完整性。边界召回率可以通过计算正确分割的边界点数与真实边界点数之比来得到。 以上是一些常见的PCL点云分割评价指标,可以根据具体任务和需求选择适合的指标进行评估。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值