配置ant编译环境
我下载的时候最新下载失败。。。下载了上一个版本。直接点击xxxx.zip
- 增加环境变量
(环境变量在当前用户根目录下的.bash_profile里,如果之前没有设置过默认是没有.bash_profile文件的,可以手工创建一个。)
export ANT_HOME=/Users/apple/Documents/work/apache-ant-1.9.4
export PATH= PATH: P A T H : {ANT_HOME}/bin
mac 下更新 .bash_profile 文件
1、打开terminal(终端)
2、cd ~ ( 进入当前用户的home目录)
3、open .bash_profile (打开.bash_profile文件,如果文件不存在就 创建文件:touch .bash_profile 编辑文件:open -e bash_profile)
4、直接更改弹出的.bash_profile文件内容
5、command + s 保存文件,然后关闭
6、在terminal(终端)中输入 source .bash_profile (使用刚才更新之后的内容)
制作hadoop-eclispe插件
插件名称:hadoop2x-eclipse-plugin
插件地址:<https://github.com/winghc/hadoop2x-eclipse-plugin>
- 下载并解压hadoop2.x,下载地址http://hadoop.apache.org/releases.html#Download
- eclispe 、或者myeclipse
- 下载
hadoop2x-eclipse-plugin
解压到自己喜欢的目录。为了方便表达,我暂时叫他”H2EP_HOME”。 - 进入终端,cd至
hadoop2x-eclipse-plugin
解压的目录。也就是”H2EP_HOME”。 - 执行ant jar -Dversion=2.x.x -Dhadoop.version=2.x.x -Declipse.home=/opt/
eclipse -Dhadoop.home=/usr/share/hadoop
eclipse.home配置成eclipse安装目录
hadoop.home配置成hadoop的解压目录
将2.x.x修改成对应的hadoop的版本号
- 执行报错:
~/hadoop2x-eclipse-plugin-master/src/contrib/eclipse-plugin/build.xml:76: /Applications/MyEclipse 2017 CI/plugins does not exist.
原因是因为它需要 eclipse.home 索引到eclipse或者myeclispe安装目录中 /plugins 上一层文件夹。
(在macos中 更换成 如下所示)
ant jar -Dversion=2.6.5 -Dhadoop.version=2.6.5 -Declipse.home=/Applications/MyEclipse\ 2017\ CI/MyEclipse\ 2017\ CI.app/Contents/Profile
- 命令行在ivy-resolve-common处卡了
原因是找不到几个依赖包,那几个依赖包可能是换路径了,其实不需要这几个依赖包也可以
解决方案:
修改”H2EP_HOME”\src\contrib\eclipse-plugin\build.xml
找到:
去掉depends修改为
再次执行第6步的编译命令,会提示copy不到相关jar包的错误,
解决方案:
修改”H2EP_HOME”\ivy\libraries.properties文件,
将报错的jar包版本号跟换成与”HADOOP_HOME”\share\hadoop\common\lib下面jar对应的版本号
此步可能会有多个jar包版本不匹配,需要多次修改生成成功了之后,生成的jar包
在”H2EP_HOME”\build\contrib\eclipse-plugin下可以看到hadoop-eclipse-plugin-2.x.x.jar插件
如图所示:
![如图所示](/Users/liujun/Desktop/Screen Shot 2018-06-27 at 09.26.16.png
)将hadoop-eclipse-plugin-2.x.x.jar放到eclipse/myeclipse的plugins目录下,启动
- 打开window===>prefernces,找到Hadoop Map/Reduce选项卡
- 配置hadoop installation directory目录,指向hadoop的安装目录
- 打开window====>show view====>other,找到Map/Reduce Locations,使其显示
- 在Map/Reduce Locations中右键=====>new hadoop locations
jdk版本不能太高。。1.8就可以了10.0会有问题的。