无人境域

自动化偏北,智能化偏南

基于命令行的mahout软件0.8版本Canopy算法分析的数据处理流程

mahout软件0.8版本Canopy算法分析的数据处理分为以下三个步骤:

  1. 从数据库提炼你需要处理的数据的字段
  2. 依据提炼的数据处理为vectors
  3. 将处理后的vectors数据读取

一、从数据库提炼数据

这是一个sqoop-->>hive-->>hdfs转储为vectors的过程

原理:首先通过sqoop将数据库数据保证表结构不变全部导入到hive中,然后使用下面的语句创建准备用于mahout数据的hive表使用如下语句

create table 表名 (字段声明) row format delimited fields terminated by ' '

需要注意,必须使用空格作为hive表中字段的分隔符才能够被以命令行方式调用的mahout数据处理工具识别。

二、将hive表的数据处理为vectors

mahout自带的org.apache.mahout.clustering.conversion.InputDriver类可以将全部数值的文件转换为vector的,如果是字符的文本转换则要使用seqdirectory seq2sparse
这两个工具,详细参数可以使用如下的方式从命令行获得

bin/mahout 类名 --help
需要注意,如果是以命令行方式处理数据,字符数据和数值数据不要混合在一个文件里,无论在数据库中字段是否在同一个表中,一个要分离为不同文件,或者将字符替代为数字。否则处理过程中会出现java虚拟机内存溢出或者内存不足的错误。

而被处理的数据也最好分为多个小的文件。

三、读取处理后的数据

Canopy算法处理后的数据是需要使用ClusterDump工具处理为非二进制格式,而不是VectorDump工具,同时,0.8版本的VectorDump工具参数已经发生重大变化和0.7以及0.6有了很大的不同

ClusterDump工具的输出路径需要是本地路径而不能hdfs的路径,否则会报出无法创建导出数据文件的错误。

阅读更多
版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/xqj198404/article/details/17076323
文章标签: mahout 算法 hdfs
个人分类: 实践手册
所属专栏: 大数据笔记
上一篇日本研制出考试机器人 或可参加日本高考
下一篇Twitter开源Summingbird:近原生编码下整合批处理与流处理
想对作者说点什么? 我来说一句

mahout canopy算法仿造代码源码

2013年07月23日 4KB 下载

没有更多推荐了,返回首页

关闭
关闭