Linux上Eclipse集成hadoop文档详解

本文档详细介绍了如何在Linux环境下使用Eclipse运行Hadoop wordcount程序。首先,从官方网站下载Eclipse、Ant和hadoop2x-eclipse-plugin。然后,配置ANT_HOME,编译hadoop2x-eclipse-plugin的源码,并将生成的jar文件放入Eclipse的plugins目录。接着,启动HDFS服务,启动Eclipse,并配置Hadoop安装目录及Map/Reduce视图。最后,在Eclipse中设置Map/Reduce位置,查看HDFS文件系统。
摘要由CSDN通过智能技术生成

Eclipse运行wordcount文档

 

1.需要下载Eclipse

a)  官方网址https://www.eclipse.org/downloads/

2.下载ant

a)   官方网址https://ant.apache.org

3.下载 hadoop2x-eclipse-plugin

a)   官方网址https://github.com/winghc/hadoop2x-eclipse-plugin

4.解压eclipse 、ant 、hadoop2x-eclipse-plugin到合适的位置

 

5.配置ANT_HOME

a)   vi /etc/profile

b)   #ANT_HOME

export ANT_HOME=/opt/modules/apache-ant-1.9.9

export PATH=$PATH:$ANT_HOME/bin

c)   source /etc/profile  立即生效配置文件

d)   ant -version  查看是否配置正确

 

6.到hadoop2x-eclipse-plugin编译源码

a)   本处过于繁复,另开一份文档详述

 

7.将编译好的jar文件copy到Eclipse

a)   /opt/tools/eclipse/plugins

 

8.启动HDFS服务

a)   $ sbin/start-dfs.sh

 


9.进入Ecliose目录 启动eclipse

a)   命令启动方式:./eclipse

b)   图形启动方式:直接点击eclipse

10.进入后配置Hadoop安装目录

a)   window-》preference-》hadoop Map/Reduce-》Hadoop installation directory

 

11.配置Map/Reduce视图

a)   windows -》 Open Perspective -》other -》Map/Reduce -》点击“OK”

 

b)   windows -》 show view -》 other -》Map/Reduce Locations -》点击“OK”

 

 

12.在“Map/Reduce Locations”Tab页点击图片<大象> 进行相应配置

 

14.打开Project Explorer 查看HDFS文件系统。

 

 


  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值