Hadoop-Eclipse插件编译
1.下载hadoop 1.2.1 (http://hadoop.apache.org/releases.html#Download),解压在自定义的一个目录中(最好全英文路径,试过中文路径除了问题)。
2.Eclipse导入..\hadoop-1.2.1\src\contrib\eclipse-plugin项目,默认项目是MapReduceTools。
3.在项目MapReduceTools中新建lib目录,并把hadoop 的hadoop-core(由hadoop根目录的hadoop-*.jar改名获得)、commons-cli-1.2.jar、commons-lang-2.4.jar、commons-configuration-1.6.jar、jackson-mapper-asl-1.8.8.jar、jackson-core-asl-1.8.8.jar、commons-httpclient-3.0.1.jar拷贝到该目录。
注意:一定要把这几个jar-》add to build path
4.修改上级目录中的build-contrib.xml:
找到<property name="hadoop.root" location="${root}/../../../"/>
修改location为hadoop1.2.1实际解压目录,在其下添加
5.修改项目目录下的build.xml:
找到<import file="../build-contrib.xml"/>,改为<importfile="build-contrib.xml"/>
添加hadoop-core的jar包
复制以下内容
注:修改该包META-INF目录下的MANIFEST.MF,将classpath修改为一下内容:
Bundle-ClassPath: classes/,lib/hadoop-core.jar,lib/commons-cli-1.2.jar,lib/commons-httpclient-3.0.1.jar,lib/jackson-core-asl-1.8.8.jar,lib/jackson-mapper-asl-1.8.8.jar,lib/commons-configuration-1.6.jar,lib/commons-lang-2.4.jar
6.右键eclipse里的build.xml选择run as - ant build。
如果出现:“软件包org.apache.hadoop.fs 不存在”的错误则修改build.xml:
<path>
<filesetdir="${hadoop.root}/">
<include name="hadoop-*.jar"/>
</fileset>
</path>
如果出现这样的问题
(1)/src/contrib/eclipse-plugin/build.xml:62: warning:'includeantruntime' was not set, defaulting to build.sysclasspath=last; set tofalse for repeatable builds,则是ant版本有点高,1.8以上需要设置一下includeantruntime
具体设置
在build.xml
<target name="compile" 。。。。
<javac.....includeantruntime=false>在其中加上这一项即可
7.ant jar命令运行成功后,在%HADOOP_HOME%\build\contrib\eclipse-plugins目录下生成hadoop-eclipse-plugins-1.2.1.jar。