hadoop3.0 alpha1 安装配置

1. 官网下载

 

 wget  http://apache.fayea.com/hadoop/common/hadoop-3.0.0-alpha1/hadoop-3.0.0-alpha1.tar.gz

 

2. 解压

tar -zxvf hadoop-3.0.0-alpha1.tar.gz

ln -s hadoop-3.0.0-alpha1 hadoop3

 

3. 环境变量

vi /etc/profile

#Hadoop 3.0
export HADOOP_HOME=/usr/local/hadoop3
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

source /etc/profile

注意:/usr/local/hadoop3为解压路径

 

4. 配置文件(hadoop3/etc/hadoop)

1) hadoop-env.sh

注意: /usr/java/jdk1.8为jdk安装路径

2)core-site.xml

注意:hdfs://ha01:9000 中ha01是主机名

/opt/data/hadoop/tmp在格式化namenode的时候会自动创建

3) hdfs-site.xml

4) yarn-site.xml

注意:ha01是主机名

5) mapred-site.xml

注意:如果不配置mapreduce.admin.user.env 和 yarn.app.mapreduce.am.env这两个参数mapreduce运行时有可能报错。

6)workers

这里跟以前的slaves配置文件类似,写上从节点的主机名

 

5. 复制到其他节点

scp -r hadoop-3.0.0-alpha1 root@ha02:/usr/local

scp -r hadoop-3.0.0-alpha1 root@ha03:/usr/local

 

6. 格式化

hdfs namenode -format

 

7. 启动

start-dfs.sh

start-yarn.sh

 

hdfs dfs -ls /

 

8. 运行wordcount

 hdfs dfs -cat /logs/wordcount.log

hadoop jar /usr/local/hadoop3/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.0-alpha1.jar wordcount /logs/wordcount.log /output/wordcount

注意: /usr/local/hadoop3是解压路径,/logs/wordcount.log是输入文件路径,/output/wordcount运行结果路径

查看运行结果: hdfs dfs -text /output/wordcount/part-r-00000

 

9. Web界面

http://ha01:9870/

http://ha01:8088/

转载于:https://www.cnblogs.com/anlei/p/5972659.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值