Weka学习二(聚类算法)

http://liouwei20051000285.blog.163.com/blog/static/25236742009101610445275/

上次我介绍了分类器的使用方法,这次我来介绍一下聚类算法。聚类算法在数据挖掘里面被称之为无监督学习(unsupervised learning),这是与分类算法(supervised learning)相对的。在它们两者之间还一种叫做半监督学习(semi-supervised learning)这个我会在后面的文章中重点介绍。所谓无监督学习就是在预先不知道样本类别的情况下,由聚类算法来判别样本的类别的一种学习方法。

聚类算法的一般过程分为:

1.       读入需预测样本

2.       初始化聚类算法(并设置参数)

3.       使用聚类算法对样本进行聚类

4.       打印聚类结果

我们来看下面的一个实例:

package com.csdn;

 

import java.io.File;

 

import weka.clusterers.SimpleKMeans;

import weka.core.DistanceFunction;

import weka.core.EuclideanDistance;

import weka.core.Instances;

import weka.core.converters.ArffLoader;

 

/*

 * Date: 2009.4.2

 * by: Wang Yi

 * Email: wangyi19840906@yahoo.com.cn

 * QQ: 270135367

 *

 */

public class SimpleCluster {

 

    /**

     * @param args

     */

    public static void main(String[] args) {

       // TODO Auto-generated method stub

       Instances ins = null;

       Instances tempIns = null;

      

       SimpleKMeans KM = null;

       DistanceFunction disFun = null;

       try{

           /*

            * 1.读入样本

            */

           File file= new File("C://Program Files//Weka-3-6//data//contact-lenses.arff");

           ArffLoader loader = new ArffLoader();

           loader.setFile(file);

           ins = loader.getDataSet();

          

           /*

            * 2.初始化聚类器

            * 3.6版本可以通过setDistanceFunction(DistanceFunction df)

            * 函数设置聚类算法内部的距离计算方式

            * 而在3.5版本里面默认的采用了欧几里得距离

            */

           KM = new SimpleKMeans();       

           //设置聚类要得到的类别数量

           KM.setNumClusters(2);

          

           /*

            * 3.使用聚类算法对样本进行聚类

            */

           KM.buildClusterer(ins);

          

           /*

            * 4.打印聚类结果

            */

           tempIns = KM.getClusterCentroids();

           System.out.println("CentroIds: " + tempIns);

          

          

       }catch(Exception e){

           e.printStackTrace();

       }

    }

}

我们可以看到读入样本的过程是与上一节的一样的方法。在构建聚类器时也是通过现有的类来实现的。现在weka的聚类算法有11种之多,我所了解的也就是一两种算法而已。SimpleKMean是最简单的KMeans算法,因为聚类算法的核心是通过距离来得到类别(类间相异,类内相似),所以需要有一个计算距离的公式常见的就是欧几里得距离了。在3.5版本中weka没有考虑其它距离公式的情况,将SimpleKMean计算距离的方法默认为欧几里得距离。在3.6中就weka提供了setDistanceFunction(DistanceFunction df)的接口可以方便我们设置自己的距离计算方法。

有一点要注意,在上面的聚类过程中,我们将样本的类别属性也放在里面了,这样做是不符合常识的,因为样本类别属性包含了大量的类别信息,可以诱导聚类算法得到很好的效果。但是这与我们的初衷是相背离的,所以在聚类之前我们要记住删除掉类别属性。

在第四步打印聚类结果是一个很简单的信息,里面包括了聚类的几个中心点。在我们写程序时,可以使用ClusterEvaluation类来打印更多的信息。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值