cv2.findContours()返回函数详解, findContours()

对于cv2.findContours() 函数,相信很多人都在使用,利用其进行轮廓的寻找,之后利用cnt[num],对第num个轮廓进行操作,但是该函数返回的三个参数具体表示的是什么呢?

下面就进行详细介绍,为了能够使读者更加深入的理解,利用下面的例程进行具体分析。

准备材料:图片一张(作者手动画图软件绘制的)


Python程序如下:

improve cv2
improve numpy as np
img=cv2.imread('test.jpg')
imgray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
ret,thresh=cv2.thrshold(imgray,127,255,0)
image,cnts,hierarchy=cv2.findContours(thresh,cv2.RETR_TREE,cv2.CHAIN_APPROX_SIMPLE)
cv2.imshow('imageshow',image)  # 显示返回值image,其实与输入参数的thresh原图没啥区别
cv2.waitKey()
print(np.size(cnts))  #   得到该图中总的轮廓数量
print(cnts[0])   #  打印出第一个轮廓的所有点的坐标, 更改此处的0,为0--(总轮廓数-1),可打印出相应轮廓所有点的坐标
print(hierarchy) #打印出相应轮廓之间的关系
img=cv2.drawCountours(img,[cnts[0]],-1,(0,255,0),10)  #标记处编号为0的轮廓
cv2.imshow('drawimg',img)
cv2.waitKey()
 

输出结果为:

5  ###说明总轮廓是为5
[[[272 421]]  #编号为0的轮廓的一系列坐标值
 [[270 423]]
......
......
 [[274 421]]
###各轮廓间关系
[[[ 1 -1 -1 -1] #轮廓0
[ 4 0 2 -1] #轮廓1
 [-1 -1 3 1] #轮廓2
[-1 -1 -1 2] #轮廓3
[-1 1 -1 -1]]] #轮廓4




下面具体解释下hierarchy输出的矩阵参数的意义

其输出矩矩阵大小为NXM, 其中N为轮廓的个数,M恒等于4,也就是说每一行的4个数,能够表示出轮廓间的相互关系,那么具体是怎样表示的呢

第一个数:表示同一级轮廓的下个轮廓的编号,如果这一级轮廓没有下一个轮廓,一般是这一级轮廓的最后一个的时候,则为-1

第二个数:表示同一级轮廓的上个轮廓的编号,如果这一级轮廓没有上一个轮廓,一般是这一级轮廓的第一个的时候,则为-1

第三个数:表示该轮廓包含的下一级轮廓的第一个的编号,假如没有,则为-1

第四个数: 表示该轮廓的上一级轮廓的编号,假如没有上一级,则为-1

废话不多说,直接上图,标记处各轮廓间层次关系及编号


具体分析证明:

[[[ 1 -1 -1 -1]   #轮廓0   
  [ 4  0  2 -1]   #轮廓1
 [-1 -1  3  1]   #轮廓2
  [-1 -1 -1  2]   #轮廓3
  [-1  1 -1 -1]]] #轮廓4
轮廓0,它的同级下一个的编号为1,第一个参数为1; 因为这一级别的第一个,第二个参数-1;因为不包含子轮廓,所以第三个参数-1;因为处于第一级,其不属于任何别的级别,所以第四个参数为-1

轮廓1,它的同级下一个的编号为4,第一个参数为4; 因为这一级别的上一个的编号为0,第二个参数0;因为包含子轮廓,且子轮廓的第一个编号(当然只包含一个,多个也是同样的道理)为2,所以第三个参数2;因为处于第一级,其不属于任何别的级别,所以第四个参数为-1

轮廓2,它是第二级的最后一个(因为只有一个),所以第一个参数为-1; 它也是第二级的第一个,所以第二个参数为-1;因为包含子轮廓,且子轮廓的第一个编号(当然只包含一个,多个也是同样的道理)为3,所以第三个参数3; 因为处于第二级,其属于上一级的轮廓1,所以第四个参数为1

依次类推 。。。。。轮廓3

轮廓4  它是同一级(第一级)的最后一个,因此第一个参数为-1;因为这一级别的上一个的编号为1,第二个参数1;因为不包含子轮廓,所以第三个参数-1;因为处于第一级,其不属于任何别的级别,所以第四个参数为-1


用最通俗的方法,详细大家一定能理解吧! 点击


  • 90
    点赞
  • 149
    收藏
    觉得还不错? 一键收藏
  • 14
    评论
### 回答1: 用 sklearn 库中的 KMeans 算法进行聚类分析后,可以使用 Matplotlib 库进行可视化。可以使用 scatter 方法绘制数据点,并使用不同颜色表示不同类别。代码示例如下: ``` from sklearn.cluster import KMeans from matplotlib import pyplot as plt # 进行 KMeans 聚类 kmeans = KMeans(n_clusters=3) kmeans.fit(X) # 绘制聚类结果 plt.scatter(X[:, 0], X[:, 1], c=kmeans.labels_) plt.show() ``` 其中 X 是待聚类数据,n_clusters 是聚类数量。 ### 回答2: k-means是一种常见的聚类算法,在机器学习中应用广泛。sklearn库中提供了k-means算法的实现,同时也支持对聚类结果进行可视化展示,方便用户观察聚类结果并进一步分析。 在sklearn中,通过导入sklearn.cluster中的KMeans类来使用k-means算法。在使用KMeans类前,需要指定算法参数,如簇类数量、初始质心位置等。具体参数配置可参照官方文档进行设置。 针对聚类结果的可视化展示,sklearn提供了多种方法。以下介绍两种常见的可视化方法: 1. 绘制散点图 将聚类结果用散点图进行可视化是一种常见方法。在绘制散点图时,通常根据聚类簇别,对不同数据点进行颜色编码,以便用户能够更清晰地区分不同类别的数据点。代码示例: ``` import matplotlib.pyplot as plt # 聚类簇别结果保存在labels中 # 聚类中心位置保存在cluster_centers_中 # X为原始数据 for i in range(n_clusters): plt.scatter(X[labels == i, 0], X[labels == i, 1], s=30, label='Cluster %d' % (i+1)) plt.scatter(cluster_centers_[:, 0], cluster_centers_[:, 1], marker='*', s=200, label='Centroids') plt.legend() plt.show() ``` 2. 绘制决策边界 决策边界用于划分不同聚类簇别的区域,相邻区域的簇别不同。通过绘制决策边界,可以更清晰地展示不同聚类簇别的分布情况。代码示例: ``` from sklearn.metrics import pairwise_distances_argmin # 聚类簇别结果保存在labels中 # X为原始数据 def plot_kmeans(kmeans, X, n_clusters=3, rseed=0, ax=None): labels = kmeans.fit_predict(X) # 绘制决策边界 ax = ax or plt.gca() ax.axis('equal') ax.scatter(X[:, 0], X[:, 1], c=labels, s=40, cmap='viridis', zorder=2) # 绘制聚类中心 centers = kmeans.cluster_centers_ radii = [cdist(X[labels == i], [center]).max() for i, center in enumerate(centers)] for c, r in zip(centers, radii): ax.add_patch(plt.Circle(c, r, fc='#CCCCCC', lw=3, alpha=0.5, zorder=1)) kmeans = KMeans(n_clusters=3, random_state=0) plot_kmeans(kmeans, X) plt.show() ``` 无论是绘制散点图还是绘制决策边界,k-means聚类的可视化展示都能够为用户提供全局性的聚类结果,方便用户进一步分析和探索数据。 ### 回答3: 机器学习中的K均值聚类算法是一种无监督学习方法,可用于将数据点分成不同的类别。在scikit-learn(sklearn)包中,我们可以使用KMeans类来实现K均值聚类算法,同时通过可视化的方式更直观地了解到该算法的结果。 首先,我们需要生成一些数据。在这里,可以通过使用make_blobs函数生成随机的数据点,并将其分成不同的类别。然后,我们可以使用KMeans类对这些数据点进行聚类分析。在KMeans类中,我们可以设置聚类的数量(也称为k值)和迭代次数(max_iter)。例如,我们可以设置k值为3,迭代次数为100,并使用fit_predict函数进行聚类,将每个数据点分配到其所属的簇中。 接下来,我们可以使用matplotlib库来可视化聚类结果。对于二维数据,我们可以使用散点图来显示每个数据点所属的簇。我们还可以使用不同的颜色来区分不同的簇,使得结果更加直观。在二维数据的情况下,可以使用plt.scatter函数来绘制散点图,使用不同的颜色为不同的簇分配不同的值。我们还可以使用KMeans类的cluster_centers_属性来显示每个簇的中心点,用不同的标记区分每个簇的中心点。 总之,通过使用sklearn kmeans聚类可视化,我们可以更好地了解K均值聚类算法的工作原理,并更好地理解每个数据点所属的不同簇。此外,该过程也可以帮助我们选择最佳的k值和max_iter值,以便获得更好的聚类结果。
评论 14
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值