DBSCAN介绍及sklearn库中的使用

DBSCAN

定义

DBSCAN的英文全程是Density-based spatial clustering of applications with noise,是一种以密度为本的聚类算法,在一个空间中,将距离近的点分为一类,将低密度的点抛弃。

算法

  • 一个点 p p 如果在他的半径r范围内有 n n 个点,则称他为核心点,那些点称为由p直接可达.
  • 如果点 q q p可达的,则存在一条路径 p1,p2,p3,pn p 1 , p 2 , p 3 , … … , p n ,其中 pn=q p n = q ,并且其余的点都是核心点。
  • 所有不可达的点就被抛弃。

    DBSCAN 需要两个参数:ε (eps) 和形成高密度区域所需要的最少点数 (minPts),它由一个任意未被访问的点开始,然后探索这个点的 ε-邻域,如果 ε-邻域里有足够的点,则建立一个新的聚类,否则这个点被标签为杂音。注意这个点之后可能被发现在其它点的 ε-邻域里,而该 ε-邻域可能有足够的点,届时这个点会被加入该聚类中。

#DBSCAN的伪代码
DBSCAN(D, eps, MinPts) {
   C = 0
   for each point P in dataset D {
      if P is visited
         continue next point
      mark P as visited
      NeighborPts = regionQuery(P, eps)
      if sizeof(NeighborPts) < MinPts
         mark P as NOISE
      else {
         C = next cluster
         expandCluster(P, NeighborPts, C, eps, MinPts)
      }
   }
}
#将集合扩张,加入新的点,如果该点已经有属于的集合,则将那个集合都加入
expandCluster(P, NeighborPts, C, eps, MinPts) {
   add P to cluster C
   for each point P' in NeighborPts { 
      if P' is not visited {
         mark P' as visited
         NeighborPts' = regionQuery(P', eps)
         if sizeof(NeighborPts') >= MinPts
            NeighborPts = NeighborPts joined with NeighborPts'
      }
      if P' is not yet member of any cluster
         add P' to cluster C
   }
}
#查询一个点,设定半径内有多少的点
regionQuery(P, eps)
   return all points within P's eps-neighborhood (including P)

对该算法影响最大的是regionQuery(P, eps),可以通过空间复杂度来替换时间复杂度。最差情况的时间复杂度是 O(n2) O ( n 2 ) ,平均情况下是 O(nlogn) O ( n l o g n )

python sklearn库中的使用

在DBSCAN是一个非常有用的算法,而python,作为一个啥轮子都有的语言,自然也有包含DBSCAN的库了,那就是我们的sklearn

第一步,引入我们的库:

from sklearn.cluster import DBSCAN

他的调用方式及参数含义如下:

class sklearn.cluster.DBSCAN(eps=0.5, min_samples=5, metric=’euclidean’, metric_params=None, algorithm=’auto’, leaf_size=30, p=None, n_jobs=1)
参数名意义
epsThe maximum distance between two samples for them to be considered as in the same neighborhood. 就是先前设置的那个半径
min_samples半径中要有的样本数
metric采用怎样的距离计算方式,默认是欧式距离 i=1n(xiyi)2 ∑ i = 1 n ( x i − y i ) 2 当然也有其他的距离,曼哈顿,切比雪夫等
metric_paramsAdditional keyword arguments for the metric function,计算距离的方式可能还有其他的参数需求,欧氏距离没有那就是none
algorithm{‘auto’, ‘ball_tree’, ‘kd_tree’, ‘brute’}在DBSCAN中我们要找一个点他的近邻,这有三种算法,而auto会自动挑一个最好的给你,稀疏数据的话,一般就brute了
leaf_size这和树有关,Leaf size passed to BallTree or cKDTree.主要影响的是内存使用查询时间等
pThe power of the Minkowski metric to be used to calculate distance between points.
n_jobsThe number of parallel jobs to run. If -1, then the number of jobs is set to the number of CPU cores.默认是1

现在大家也应该可以看出,其实最最重要的参数是前面两个,eps和min_samples,而我们主要的调参也就是这些,其他的,保持默认就好。

  • 4
    点赞
  • 30
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值