一、安装简介
此平台搭建需要安装两个东西
1.本地的hadoop运行环境
2.安装eclipse中的插件(hadoop-eclipse-plugin-2.7.3版本号跟hadoop安装版本号不同不会影响连接,但是可能对其他方面有一定影响,本人暂未发现,因为之前用的都是IDEA,因为作业需要才用eclipse,研究不深)
两个文件的安装地址,需要的小伙伴可以自取
百度网盘:
https://pan.baidu.com/s/1qRrITN_5Ay9RYAVKTwaIdQ
提取码:1234
二、安装步骤
(1)将hadoop与eclipse插件下载下来
hadoop存放目录自定义
配置好hadoop的环境变量(并将bin目录的路径加到path路径下)
在hadoop安装目录中点击winutils.exe,看到屏幕黑了一下就可以
然后将eclipse插件安装到eclipse的plugins目录下面(最好)
(2)(集群开启过程这里就不赘述了)开启eclipse进行连接过程
创建hadoop连接
在这里面输入hadoop的家目录(bin目录的前一个)
然后打开链接视图
在打开页面中创建链接对象
这里解释一下:
Location name随便填
host为你配置了namenode节点的虚拟机ip地址
DFS master中的port是你core-site.xml文件中配置的namenode节点的访问地址
User name就是你访问的用户名。
然后开启了链接即可
这里如果没有进行mapreduce框架计算的话是会出现
An internal error occurred during: "Map/Reduce location status updater".
org/apache/hadoop/mapred/JobConf报错信息的,但不影响连接
然后我们新建一个map/reduce项目
在这边的DFS Location下面的文件内容就是你HDFS上的所有文件内容,可以在本地进行上传与下载操作,可以通过插件直接进行操作,但是好像不能进行文件内容的修改。