spark如何进行聚类可视化_Spark MLlib KMeans聚类算法

本文介绍了KMeans聚类算法的基本思想和实战应用。KMeans通过计算点到聚类中心的距离进行分类,并不断更新中心点,直至收敛。实战部分提供了数据集下载链接,数据分为2类,便于理解聚类过程。
摘要由CSDN通过智能技术生成

3863698ee249945afe193b09310957c0.png

一、KMeans聚类算法原理

KMeans算法的基本思想是物以类聚,人以群分。做法比较简单,初始化随机给定的

个簇中心,按照最邻近原则把样本分到各个簇中,然后计算每个簇的质心作为新的簇中心点,一直迭代,达到稳定的分类效果。

这里只需要计算每一个点,到每个聚类中心的距离,把这个点划分到最小距离的那个簇类中,很容易就完成了第一轮计算;然后,计算每个簇类所有点的坐标平均值,作为新的中心点。好,这就是完整的一轮,剩下的就是迭代计算了~

看了原理,就感觉KMeans真的很简单啊。从图中可以看到,这个

的取值,真的很灵性啊,如果没有选好,那么分类的效果就不准确了。比如分成2类,那么中间的黄色节点和蓝色节,可能一半划分到左边,一半划分到右边,所以,这种AI算法调参也是一个谜啊~

a73cd8119fe06de14861355344d2bfd0.png

二、KMeans聚类算法实战

  • 下载地址:github机器学习数据集
  • 里面就6行,我扩充一下

20d4948596f29ea77e8ce1684b4babf4.png

数据分成2类,前三个是一类,后三个是一类~

afa2d19d56d1ab8f378114c6167a4e1e.png
import org.apache.log4j.{Level, Logger}
import org.apache.spark.SparkContext._
import org.apache.spark.SparkContext
import org.apache.spark.SparkConf
import org.apache.spark.mllib.classification.{LogisticRegressionWithLBFGS, NaiveBayes, NaiveBayesModel, SVMWithSGD}
import org.apache.spark.mllib.clustering.KMeans
import org.apache.spark.mllib.evaluation.MulticlassMetrics
import org.apache.spark.mllib.util.{KMeansDataGenerator, LinearDataGenerator, LogisticRegressionDataGenerator, MLUtils}
import org.apache.spark.mllib.regression.{LabeledPoint, LinearRegressionWithSGD}
import org.apache.spark.mllib.tree.DecisionTree

//向量
import org.apache.spark.mllib.linalg.Vector
//向量集
import org.apache.spark.mllib.linalg.Vectors
//稀疏向量
import org.apache.spark.mllib.linalg.SparseVector
//稠密向量
import org.apache.spark.mllib.linalg.DenseVector
//实例
import org.apache.spark.mllib.stat.{MultivariateStatisticalSummary, Statistics}
//矩阵
import org.apache.spark.mllib.linalg.{Matrix, Matrices}
//索引矩阵
import org.apache.spark.mllib.linalg.distributed.RowMatrix
//RDD
import org.apache.spark.rdd.RDD

object WordCount {

  def main(args: Array[String]) {
    // 构建Spark 对象
    Logger.getLogger("org.apache.spark").setLevel(Level.ERROR)
    val conf = new SparkConf().setAppName("HACK-AILX10").setMaster("local")
    val sc = new SparkContext(conf)
    // 读取样本数据
    val datapath = "C:studysparkkmeans_data.txt"
    val data = sc.textFile(datapath)
    val parsedData = data.map(s=>Vectors.dense(s.split(" ").map(_.toDouble))).cache()

    //KMeans,并设置训练参数
    val model = new KMeans()
      .setInitializationMode("k-means||")
      .setK(2)
      .setMaxIterations(20)
      .run(parsedData)

    //对样本进行测试
//    model.clusterCenters.foreach(println(_))
    model.predict(parsedData).collect().foreach(println(_))

    //计算测试误差
    val wssse = model.computeCost(parsedData)
    println("平均误差:"+wssse)


    // 模型保存
    val modelpath = "C:studysparkkmeans"
    model.save(sc,modelpath)
    println("模型保存 ok")

  }
}

本篇完~

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值