大数据环境部署3:Hadoop环境部署

本文详细介绍了如何在Linux环境下安装配置Hadoop 2.6.0,包括下载安装包、创建目录、配置相关文件如hadoop-env.sh、yarn-env.sh、core-site.xml等,以及启动、停止HDFS和YARN,并验证集群状态。重点讲述了各个配置文件的修改,如设置JAVA_HOME、配置 slaves、namenode、datanode等参数。
摘要由CSDN通过智能技术生成


一、安装Hadoop

0、下载安装包

Wget http://mirror.bit.edu.cn/apache/hadoop/common/hadoop-2.6.0/hadoop-2.6.0.tar.gz

1、解压tar-xzvf hadoop-2.6.0.tar.gz 

2move到指定目录下:[spark@LOCALHOST]$mv hadoop-2.6.0 ~/opt/ 

3、进入hadoop目前  [spark@LOCALHOSTopt]$ cd hadoop-2.6.0/
[spark@LOCALHOST hadoop-2.6.0]$ ls
bin  dfs etc  include  input  lib  libexec  LICENSE.txt logs  NOTICE.txt  README.txt  sbin  share  tmp

 配置之前,先在本地文件系统创建以下文件夹:~/hadoop/tmp~/dfs/data~/dfs/name主要涉及的配置文件有7个:都在/hadoop/etc/hadoop文件夹下,可以用gedit命令对其进行编辑。

~/hadoop/etc/hadoop/hadoop-env.sh
~/hadoop/etc/hadoop/yarn-env.sh
~/hadoop/etc/hadoop/slaves
~/hadoop/etc/hadoop/core-site.xml
~/hadoop/etc/hadoop/hdfs-site.xml
~/hadoop/etc/hadoop/mapred-site.xml
~/hadoop/etc/hadoop/yarn-site.xml

4、进入hadoop配置文件目录

[spark@LOCALHOST hadoop-2.6.0]$ cd etc/hadoop/
[spark@LOCALHOST hadoop]$
ls
capacity-scheduler.xml  hadoop-env.sh              httpfs-env.sh            kms-env.sh           mapred-env.sh              ssl-cl

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值