第九章.聚类算法
9.2 聚类算法-DBSCAN
1.概念
DBSCAN (Density-Based Spatial Clustering of Applications with Noise),算法将具有足够高密度的区域划分为簇,并可以发现任何形状的聚类
2.数理概念
1).𝛆邻域
给定对象半径𝜀内的区域称为该对象的𝜀邻域。
2).核心对象
如果给定 𝜀 邻域内的样本点数大于等于Minpoints, 则该对象为核心对象。
3).直接密度可达
给定一个对象集合D,如果p在q的𝜀邻域内, 且q是一个核心对象,则我们说对象p从q出发是直接密度可达 的(directly density-reachable)。
4).密度可达
集合D,存在一个对象链 p1,p2…pn,p1=q,pn=p,pi+1是从pi关于𝜀和Minpoints直接 密度可达,则称点p是从q关于𝜀和Minpoints密度可达的。
5).密度相连
集合D存在点o,使得点p、q是从o关于𝜀和 Minpoints密度可达的,那么点p、q是关于𝜀和Minpoints密度相连的。
3.算法思想
1).指定合适的𝜀和Minpoints
2).计算所有的样本点,如果点p的𝜀邻域里有超过Minpoints个 点,则创建一个以p为核心点的新族。
3).反复寻找这些核心点直接密度可达(之后可能是密度可达) 的点,将其加入到相应的簇,对于核心点发生“密度相连” 状况的簇,给予合并 。
4).当没有新的点可以被添加到任何簇时,算法结束。
4.DBSCAN缺点
1).当数据量增大时,要求较大的内存支持,以及I/O消耗也很大。
2).当空间聚类的密度不均匀、聚类间距差相差很大时,聚类质量较差。
5.DBSCAN和K-MEANS差异
1).DBSCAN不需要输入聚类个数。
2).聚类簇的形状没有要求。
3).可以在需要时输入过滤噪声的参数。(参数:𝜀和Minpoints)
6.示例
1).示例1
①.测试数据链接: kmeans.txt
②.代码实现
import numpy as np
import matplotlib.pyplot as plt
from sklearn.cluster import DBSCAN
# 加载数据
data = np.genfromtxt('F:\\kmeans.txt', delimiter=' ')
# 训练模型
model = DBSCAN(eps=1.5, min_samples=4)
model.fit(data)
# 预测结果
result = model.fit_predict(data)
# 绘制数据点
mark = ['or', 'og', 'ob', 'ok', 'oy', 'om']
for i, d in enumerate(data):
plt.plot(d[0], d[1], mark[result[i]])
plt.show()
③.结果展示
2).示例2
①.代码实现
import numpy as np
import matplotlib.pyplot as plt
from sklearn.datasets import make_circles
from sklearn.datasets import make_blobs
from sklearn.cluster import KMeans, DBSCAN
# 载入数据
x1, y1 = make_circles(n_samples=2000, factor=0.5, noise=0.05)
x2, y2 = make_blobs(n_samples=1000, centers=[[1.2, 1.2]], cluster_std=[[.1]])
# 数据拼接
x = np.concatenate((x1, x2))
# KMeans
plt.figure(figsize=(6, 3))
plt.subplot(121)
model_kmeans = KMeans(n_clusters=3, n_init=4)
predict = model_kmeans.fit_predict(x)
plt.scatter(x[:, 0], x[:, 1], c=predict)
plt.title('KMeans')
# DBSCAN
plt.subplot(122)
model_DBSCAN = DBSCAN(eps=0.2, min_samples=50)
predict = model_DBSCAN.fit_predict(x)
plt.scatter(x[:, 0], x[:, 1], c=predict)
plt.title('DBSCAN')
plt.show()
②.结果展示