Ubuntu环境下eclipse的hadoop开发

在安装好hadoop伪分布式后,开始搭建eclipse的hadoop开发环境

我的版本信息如下:

Ubuntu 版本 12.10

Hadoop版本 1.2.1

Java版本  1.6.0_31(命令java -version)

于2014年8月1日安装成功

1.安装Eclipse 

调用我写的这篇博客 点击打开链接

2.复制eclipse_hadoop插件

在网上下载hadoop-1.2.1-eclipse-plugin.jar插件(插件版本一定要与hadoop的版本匹配,否则无法成功启动)后复制到eclipse/plugins目录下,重启eclipse

3.安装成功的表现

第一在open perspective >other里


有mapreduce


第二 windows -> preferences里面会多一个hadoop map/reduce的选项,


4.在终端(terminal)启动hadoop

先切换用户

naomi@ubuntu:~$ su hadoop

输入密码

Password:

转到hadoop目录下

hadoop@ubuntu:/home/naomi$ cd /usr/local/hadoop

启动所有东东

hadoop@ubuntu:/usr/local/hadoop$bin/start-all.sh

这一步不做就无法连接到hadoop

5.配置参数


点击这个蓝大象就会new hadoop location


可以发现很多都是默认填好的,不需要去改,更不需要去查安装时的配置文件,在这个设置页面中,你只需要填两项

1.location name 随便取名字

2.确认user name一定是hadoop(安装hadoop时的用户),如果不是hadoop,而是root或其他用户,必须退出以hadoop用户的身份启动eclipse(若此时启动eclipse出错参见我的另一篇博客 http://blog.csdn.net/unflynaomi/article/details/38340383 ),否则出错

然后选择上面的advanced parameter选项卡


改这两项即可,其他不动这两个参数在“hadoop/conf/core-site.xml”进行了配置,可以查看

点击ok

6.加载hdfs文件系统

配置完后,就在左面有了hdfs文件系统了


如果没有出来那么一定参数配置错误选择


edit hadoop location即可重新编辑

7.创建工程

 File -> New -> Project 选择“Map/Reduce Project”,然后输入项目名称,创建项目。插件会自动把hadoop根目录和lib目录下的所有jar包导入。

8.添加wordcount class

在工程上右键,new class即可,class名字为wordcount


9.运行mapreduce

源代码为:

package com.baison.action;  
import org.apache.hadoop.fs.Path;  
import org.apache.hadoop.io.Text;  
import org.apache.hadoop.io.LongWritable;  
import org.apache.hadoop.mapred.FileInputFormat;  
import org.apache.hadoop.mapred.FileOutputFormat;  
import org.apache.hadoop.mapred.JobClient;  
import org.apache.hadoop.mapred.JobConf;  
import org.apache.hadoop.mapred.lib.TokenCountMapper;  
import org.apache.hadoop.mapred.lib.LongSumReducer;  
public class WordCount {  
    public static void main(String[] args) {  
        JobClient client = new JobClient();  
        JobConf conf = new JobConf(WordCount.class);  
        String[] arg = { "hdfs://localhost:9000/user/hadoop/input",  
                "hdfs://localhost:9000/user/hadoop/output3" };  //这句指明了输入输出文件,input文件夹下所有文件都是输入文件,输出目录不可重复
        FileInputFormat.addInputPath(conf, new Path(arg[0]));  
        FileOutputFormat.setOutputPath(conf, new Path(arg[1]));  
        conf.setOutputKeyClass(Text.class);  
        conf.setOutputValueClass(LongWritable.class);  
        conf.setMapperClass(TokenCountMapper.class);  
        conf.setCombinerClass(LongSumReducer.class);  
        conf.setReducerClass(LongSumReducer.class);  
        client.setConf(conf);  
        try {  
            JobClient.runJob(conf);  
        } catch (Exception e) {  
            e.printStackTrace();  
        }  
    }  
}  

Run As -> Run on Hadoop

部分运行过程如下


14/08/01 10:36:27 INFO mapred.JobClient:     Total committed heap usage (bytes)=3001692160
14/08/01 10:36:27 INFO mapred.JobClient:     CPU time spent (ms)=0
14/08/01 10:36:27 INFO mapred.JobClient:     Map input bytes=34768
14/08/01 10:36:27 INFO mapred.JobClient:     SPLIT_RAW_BYTES=2074
14/08/01 10:36:27 INFO mapred.JobClient:     Combine input records=3452
14/08/01 10:36:27 INFO mapred.JobClient:     Reduce input records=1654
14/08/01 10:36:27 INFO mapred.JobClient:     Reduce input groups=871
14/08/01 10:36:27 INFO mapred.JobClient:     Combine output records=1654
14/08/01 10:36:27 INFO mapred.JobClient:     Physical memory (bytes) snapshot=0
14/08/01 10:36:27 INFO mapred.JobClient:     Reduce output records=871
14/08/01 10:36:27 INFO mapred.JobClient:     Virtual memory (bytes) snapshot=0
14/08/01 10:36:27 INFO mapred.JobClient:     Map output records=3452

部分运行结果如下:(可以直接在eclipse中查看)

"". 4
"*" 10
"AS 6
"License"); 6
"alice,bob 10
"console" 2
"hadoop.root.logger". 2
"jks". 4

圆满成功大笑大笑大笑

本文部分参考http://blog.csdn.net/xiaotom5/article/details/8080595# 

转载于:https://www.cnblogs.com/unflynaomi/p/4476868.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值