hadoop解析序列文件并可视化输出

hadoop版本:1.0.4,jdk:1.7.0_25 64bit。

在进行mahout算法分析的时候有时会遇到算法最后的输出文件是序列文件的情况下,这样就不能直接通过HDFS文件系统看到最终的结果了(乱码,因为是序列文件)。以前编写过一个可以直接把序列文件<key,value>读入到一个map变量中的java文件,叫做ReadArbiKV ,可以在http://download.csdn.net/detail/fansy1990/6453527看到。

但是上面的有个问题,就是当数据很大的时候,如果读不到一个map变量里面怎么办?

所以就可以使用下面的思路:一边读一边写。怎么个意思?直接读取序列文件的<key,value>,然后对key和value分别进行解析,最后直接进行输出。即每读取一行记录,解析一行,然后再输出一行。这样就不会有上面的问题了。

主程序是ReadAndWritePatterns,其中需要实现IKVRegex接口,这个接口是解析key和value的标准。给出的代码中的AKVRegex、ImplAKVRegex是这个接口的两个实现,可以参考,其中AKVRegex是什么都不做的,只是把原始的类.toString()而已,ImplAKVRegex是有一些操作的,原来是针对fpg算法的最后输出的解析的,但是好像有点不是很对。

下面给出一个调用demo:

package mahout.fansy.fpg;

import java.io.IOException;

import junit.framework.TestCase;

import mahout.fansy.utils.fpg.AKVRegex;
import mahout.fansy.utils.fpg.ImplAKVRegex;
import mahout.fansy.utils.fpg.ReadAndWritePatterns ;


public class TestReadAndWritePatterns extends TestCase {

	public void testReadAndWrite() throws IOException{
		String input="hdfs://ubuntu:9000/user/mahout/fp/output/frequentpatterns/part-r-00000";
		String output="hdfs://ubuntu:9000/user/mahout/fp/output_/01.txt";
		String jobtracker="ubuntu:9001";
	//	AKVRegex regex=; 
		ReadAndWritePatterns.readAndWritePatterns(input, output, jobtracker, new AKVRegex());	
	}
}


分享,成长,快乐

转载请注明blog地址:http://blog.csdn.net/fansy1990



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值