windows10下编译hadoop-2.7.3

~~删除线~~

.1.下载maven,http://maven.apache.org/download.cgi,解压并配置环境变量

 

2.下载JDK,我这里是1.8的,下载并配置环境变量

3.下载并解压hadoop-2.7.3源码,

http://archive.apache.org/dist/hadoop/common/hadoop-2.7.3/hadoop-2.7.3-src.tar.gz

 

4.下载protobuf2.5,链接:https://pan.baidu.com/s/1JuQDK6r-0al4vsGDyzb-FA 密码:tgoy,解压出两个压缩包,分别是protoc-2.5.0-win32.zip和 protobuf-2.5.0.tar.gz。解压protobuf-2.5.0.tar.gz,得到protobuf-2.5.0文件夹,然后解压protoc-2.5.0-win32.zip,得到protoc.exe,将protoc.exe分别放入C:\Windows\System32中和protobuf-2.5.0/src中。

 

验证

进入protobuf-2.5.0/java,执行mvn package命令,生成protobuf-java-2.5.0.jar文件,在target中.

5.开始编译

进入hadoop-2.7.3-src/hadoop-maven-plugins,运行mvn install

稍等片刻,输出

然后进入hadoop-2.7.3-src中,运行mvn eclipse:eclipse -DskipTests,生成eclipse目录结构的源码,-DskipTests说明跳过测试,这个要等待很久,视网速和机器性能而定。

编译成功

导入后会有一些错误,主要是三个:

 

 

序号DescriptionResourcePathLocationType
(1)AvroRecord cannot be resolved to a typeTestAvroSerialization.java/hadoop-common/src/test/java/org/apache/hadoop/io/serializer/avroline 32Java Problem
(2)EchoRequestProto cannot be resolvedRPCCallBenchmark.java/hadoop-common/src/test/java/org/apache/hadoop/ipcline 397Java Problem
(3)Project 'hadoop-streaming' is missing required source folder: '<你的源代码根目录>/hadoop-yarn-project/hadoop-yarn/hadoop-yarn-server/hadoop-yarn-server-resourcemanager/conf'hadoop-streaming Build pathBuild Path Problem

 

解决第一个错误:

 

  • 需要下载avro-tools-x.x.x.jar文件,这里我下载的是1.7.7版本的,下载过1,8,1的,可是生成的代码报错,就把版本降低了下。
  • 进入源码根目录下的“hadoop-common-project\hadoop-common\src\test\avro”执行命令,java -jar <所在目录>\avro-tools-1.7.7.jar compile schema avroRecord.avsc ..\java 。其中avsc文件是avro的模式文件,上面命令是要通过模式文件生成相应的.java文件。

         操作命令:进入 /hadoop-2.7.3-src/hadoop-common-project/hadoop-common/src/test/avro

         java -jar avro-tools-1.7.7.jar compile schema avroRecord.avsc ../java

  • 右键单击eclipse中的hadoop-common项目,然后refresh。【如果refresh不成功,直接refresh出错源码文件所在的包】

 

解决第二个错误,也是要生成一些.java文件:

  • 进入源码根目录下的“hadoop-common-project\hadoop-common\src\test\proto”,执行protoc --java_out=..\java *.proto 命令(protoc就是在上面第三步下载的protoc程序)。

进入 hadoop-2.7.3-src/hadoop-common-project/hadoop-common/src/test/proto

protoc --java_out=../java *.proto ,会生成两个java文件,已经自动建好包关系

  • 右键单击eclipse中的hadoop-common,然后refresh。【如果refresh不成功,直接refresh出错源码文件所在的包】

解决第三个错误:

  • 在eclipse中,右键单击hadoop-streaming项目,选择“Properties”,左侧栏选择Java Build Path,然后右边选择Source标签页,注意出错的那个路径(先不要删除)。
  • 点击“Link Source按钮”,选择被链接的目录为“<你的源代码根目录>/hadoop-yarn-project/hadoop-yarn/hadoop-yarn-server/hadoop-yarn-server-resourcemanager/conf”,链接名可以使用显示的(也可以随便取);
  • inclusion patterns中添加capacity-scheduler.xml,exclusion patters中添加**/*.java,这个信息与出错的那项一样;完毕后将出错的项删除。刷新hadoop-streaming项目。

     【补充:好像直接将出错的Source标签页中的项删去,也可以】

 

下载和安装Hadoop 2.7.3版本需要几个步骤: 1. **下载文件**: - 从Apache Hadoop官网(https://hadoop.apache.org/releases.html)下载hadoop-2.7.3.tar.gz,这是Hadoop的二进制包,包含了Hadoop的核心组件。 - 也下载hadoop-eclipse-plugin-2.7.3.jar,这是一个Eclipse插件,用于Eclipse集成开发环境的支持。 - 同时还需要hadop-common-bin-master.zip,这可能是Hadoop的一部分,但通常Hadoop的发行版不会提供单独的common-bin包。 2. **解压二进制包**: 使用tar命令解压hadoop-2.7.3.tar.gz,通常在你的服务器或机器的一个目录下创建一个名为`hadoop-2.7.3`的新目录,并将压缩包解压到其中。 ``` tar -xvf hadoop-2.7.3.tar.gz -C /path/to/your/directory ``` 3. **配置**: 进入解压后的目录,编辑`conf/hadoop-env.sh`等配置文件,设置环境变量如JAVA_HOME、HADOOP_HOME等。如果需要,还需编辑核心配置文件如`core-site.xml`, `hdfs-site.xml`等。 4. **安装Eclipse插件**: 将hadoop-eclipse-plugin-2.7.3.jar放入Eclipse的plugins目录下,然后重启Eclipse以便加载插件。在Eclipse里,你可以通过Help > Install New Software...找到并安装它。 5. **获取common-bin部分**: 如果你需要的是hadoop-common-bin-master.zip,确认它的来源是否可靠。一般情况下,Hadoop发行版已经包含所有必要的binaries。如果确实需要,解压后放到Hadoop的bin目录下即可。 6. **启动服务**: 在Hadoop安装目录下的sbin目录下运行启动脚本(如`start-all.sh`),启动Hadoop的服务。 记得根据你的系统需求进行适当的调整,例如权限设置和网络配置等。安装完成后,检查日志文件以确保一切正常运行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值