实验目的
1、了解Eclipse开发环境的使用
2、了解Hadoop的Eclipse插件的安装部署
实验环境
1、Linux Ubuntu 14.04
2、安装eclipse,版本为eclipse-java-juno-SR2-linux-gtk-x86_64.tar.gz
3、安装hadoop,版本为hadoop-2.6.0-cdh5.4.5.tar.gz
4、准备hadoop插件,版本为hadoop-eclipse-2.6.0.jar
实验内容
1、在eclipse中,安装hadoop插件,并对插件进行配置。
实验步骤
1、Eclipse开发工具以及hadoop默认已经安装完毕,安装在目录/apps/目录下
2、将hadoop的eclipse插件hadoop-eclipse-plugin-2.6.0.jar上传并放到/apps/toolbox目录下。
3、将插件hadoop-eclipse-plugin-2.6.0.jar,从/apps/toolbox目录下,拷贝到/apps/eclipse/plugins的插件目录 下
- cp /apps/toolbox/hadoop-eclipse-plugin-2.6.0.jar /apps/eclipse/plugins/
4、进入ubuntu图形界面,双击eclipse图标,启动eclipse
5、在eclipse窗口界面,依次点击Window => Open Perspective => Other
弹出一个窗口
选择Map/Reduce,并点击OK,可以看到窗口中,有三个变化。(左侧项目浏览器、右上角操作布局切换、面板窗口
如果在windows下,则需要手动调出面板窗口Map/Reduce Locations面板。操作为,点击window => show view => Other
在弹出的窗口中,选择Map/Reduce Location选项,并点击OK
这样便可以调出视图窗口Map/Reduce Location
6、添加Hadoop配置,连接Hadoop集群
7、在这里添加Hadoop相关配置
Location name,是为此配置起的一个名字
DFS Master,是连接HDFS的主机名和端口号
Map/Reduce(v2) Master,这里暂时不用修改
点击Finish保存配置
8、展开左侧项目浏览视图,可以看到HDFS目录结构。
9、下面来创建一个目录,检测插件是否可用。
右键myhadoop下的文件夹,在弹出的菜单中,点击Create new directory
输入目录名称,点击OK则创建目录成功。
点击DFS Locations选项,可用刷新HDFS目录。