hadoop linux单机,Hadoop 详细单机安装与配置(Linux)

dafa6da835d8ec6e004d75d99d90f8ee.png

1.在lunix系统下解压hadoop压缩包到指定文件夹:#tar -zxvf hadoop-2.6.5.tar.gz -C /usr/Hadoop/

2.配置hadoop的配置文件:

(1)配置Hadoop的环境变量#vim hadoop-env.sh

修改环境变量JAVA_HOME为具体路径:export JAVA_HOME=${JAVA_HOME}

修改为JDK的路径export JAVA_HOME=/usr/java/jdk1.8.0_121

(2)修改#vim core-site.xml

fs.defaultFS

hdfs://21.10.156.1:9000

hadoop.tmp.dir 

/usr/Hadoop/hadoop-2.6.5/tmp

(3)配置hdfs-site.xml

dfs.replication

1

(4)重命名mapred-site.xml.template#mv mapred-site.xml.template mapred-site.xml

(5)编辑该文件# vim mapred-site.xml

mapreduce.framework.name

yarn

(6)编辑该文件# vim yarn-site.xml

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.resourcemanager.hostname

izuf6hjthe58i89mrrz8vnz

3.    将hadoop添加到环境变量,使得任何目录下都可以运行hadoop

(1)进入lunix系统的配置路径的文件中# vim /etc/profile

(2)修改路径:export HADOOP_HOME=/usr/hadoop/hadoop-2.6.5

export PATH=$PASH:$JAVA_HOME/bin:$HADOOP_HOE/bin:$HADOOP_HOE/sbin

(3)保存修改并重置刷新配置# source /etc/profile

4.初始化HDFS(格式化hadoop的文件系统)

(1)先格式化HDFS#hdfs namenode -format

当看到successfully formatted.

表示格式化成功

5.启动所有的:在Hadoop的安装包里的sbin文件夹中启动:#./start-all.sh

或者可以用以下两个脚本分别启动hdfs和yarn:#./start-dfs.sh

#./start-yarn.sh

6.查看hadoop是否成功#jps

如下显示表示已经成功[root@localhost sbin]#jps

41522 SecondaryNameNode

43023 NodeManager

43234 NameNode

43203 ResourceManager

43829 Jps

41929 DataNode

YUKX优科学习网

本文内容及图片来源于网上摘录或读者投稿

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值