Hadoop搭建

Hadoop搭建

用到的文件

所有操作在root用户下进行
1.Centos7 X64位系统
2.Jdk8 x64位
3.Hadoop2.6.0 X64位
(版本位数尽量相同,不然后期会有较多报错,虽然不影响运行,但是看着不舒服)
Jdk8和hadooop2.6.0提取地址链接:https://pan.baidu.com/s/1J0B9cF_8-fNGJVF1ehzrOw 提取码:g56b

1.修改每个节点的主机名

vim /etc/hostname

2.在三个节点修改配置hosts文件
在hosts文件中分别配置三个节点的主机名ip地址映射

 vim /etc/hosts

在文件中添加

X.X.X.X	master
X.X.X.X	slave1
X.X.X.X	slave2
在master与slave之间配置ssh互信

1.在所有节点创建

ssh-keygen  -t  rsa

2.认证授权

cat  ~/.ssh/id_rsa.pub  >>  ~/.ssh/authorized_keys

3.文件赋权

 chmod  600  ~/.ssh/authorized_keys

4.分发到所有slave

scp  ~/.ssh/authorized_keys  root@slave1:~/.ssh 
scp  ~/.ssh/authorized_keys  root@slave2:~/.ssh 

5.关闭防火墙及防火墙自启

systemctl stop firewalld.service
systemctl disable firewalld.service
配置JDK

(先只配置master后续配置完hadoop再分发至slave)

解压jdk-8u191-linux-x64.tar.gz,指定到/usr/local/src

tar -zxf jdk-8u191-linux-x64.tar.gz -C /usr/local/src

为解压后的文件夹重命名

mv jdk1.8.0_191 jdk

修改环境变量

vim ~/.bash_profile

在文件末尾添加

export JAVA_HOME=/usr/local/src/jdk
export PATH=$JAVA_HOME/bin:$PATH

文件生效

source ~/.bash_profile

检查jdk版本

 java -version 
配置Hadoop

解压hadoop-2.6.0-cdh5.9.0.tar.gz,指定到/usr/local/src

tar -zxf hadoop-2.6.0.tar.gz -C /usr/local/src

为解压后的文件夹重命名

mv hadoop-2.6.0 hadoop

在master上配置环境变量

vim ~/.bash_profile

在文件末尾添加

export HADOOP_HOME=/usr/local/src/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib

文件生效

source ~/.bash_profile

在hadoop/etc/hadoop/中修改以下文件

修改配置文件 hadoop-env.sh
在文件末尾添加

export JAVA_HOME=/usr/local/src/jdk
export HADOOP_HOME=/usr/local/src/hadoop
export HADOOP_COMMON_LTB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS=-Djava.library.path=$HADOOP_HOME/lib

修改配置文件 core-site.xml
在 中添加

<property>
       <name>fs.defaultFS</name>
       <value>hdfs://master:9000</value>
   </property>
   <property>
       <name>hadoop.tmp.dir</name>
       <value>file:/usr/local/src/hadoop/tmp</value>
</property>

修改配置文件 hdfs-site.xml
在 中添加

<property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/src/hadoop/tmp/dfs/name</value>
  </property>
 <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/src/hadoop/tmp/dfs/data</value>
 </property>
<property>
                <name>dfs.replication</name>
                <value>2</value>
 </property>

修改配置文件mapred-site.xml
将mapred-site.xml.template复制为mapred-site.xml

cp mapred-site.xml.template mapred-site.xml

在 中添加

<property>
        <name>mapreduce.farmework.name</name>
        <value>yarn</value>
</property>

修改配置文件yarn-site.xml
在 中添加

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<property>
        <name>yarn.resourcemanager.hostname</name>
        <value>master</value>
</property>

配置slaves

vim slaves

将文件中东西全部删掉,并添加以下信息(一行一个)

master
slave1
slave2

分发到slave

scp  /usr/local/src  root@slave1:/usr/local/ 
scp  /usr/local/src  root@slave2:/usr/local/

———————至此配置完成,仔细检查配置确保无问题可启动

格式化HDFS
hdfs namenode -format 

启动

start-all.sh
 stop-all.sh

jps查看进程 master上存在 NameNode、ResourceManager、SecondaryNameNode进程
slave1和slave2上存在 DataNode、NodeManager进程

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值