Hadoop2.9.2集群安装详细教程

一、网络及主机名配置
192.168.1.2    master.hadoop
192.168.1.3    slave1.hadoop
192.168.1.4    slave2.hadoop
1.修改主机名
[root@master /]# vi /etc/hostname 
#主机名
 master.hadoop
[root@master ~]# hostname master.hadoop
[root@master ~]# hostname
master.hadoop
其余结点一样的操作
[root@master ~]# cd /etc/hosts
 
192.168.1.2 master.hadoop
192.168.1.3 slave1.hadoop
192.168.1.4 slave2.hadoop
 
[root@master ~]# scp /etc/hosts 192.168.1.3:/etc
[root@master ~]# scp /etc/hosts 192.168.1.4:/etc

二、安装JDK
1、下载linux版本的jdk
jdk1.8下载地址

2、解压配置并环境变量
[root@master apps]# tar -zxvf jdk-8u171-linux-x64.tar.gz
[root@master apps]# vi /etc/profile
在其中添加一下内容:
export JAVA_HOME=/apps/jdk1.8.0_171
export JRE_HOME=/apps/jdk1.8.0_171/jre
export CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
然后更新配置文件
[root@master apps]# source /etc/profile
3、测试安装
[root@master apps]# java -version
java version "1.8.0_171"
Java(TM) SE Runtime Environment (build 1.8.0_171-b11)
Java HotSpot(TM) 64-Bit Server VM (build 25.171-b11, mixed mode)
三、配置SSH免密登录
1、每台机器生成自己的私钥和公钥
[root@master apps]# cd /root/.ssh/
[root@master .ssh]# ssh-keygen -t rsa
 
然后一直回车什么也不输入,直到结束。
 
[root@master .ssh]# touch authorized_keys
[root@master .ssh]# ll
总用量 16
-rw-r--r--. 1 root root 2000 7月   4 20:48 authorized_keys
-rw-------. 1 root root 1679 6月  19 15:17 id_rsa
-rw-r--r--. 1 root root  400 6月  19 15:17 id_rsa.pub
-rw-r--r--. 1 root root  935 7月   4 20:54 known_hosts
[root@master .ssh]# cat id_rsa.pub >> authorized_keys
2、将每个节点的公钥都追加到一个名为(authorized_keys)的文件中
在另外两台机器同样的执行以下操作:
[root@slave apps]# cd /root/.ssh/
[root@salve .ssh]# ssh-keygen -t rsa
[root@slave .ssh]# ll
-rw-------. 1 root root 1679 6月  19 15:17 id_rsa
-rw-r--r--. 1 root root  400 6月  19 15:17 id_rsa.pub
-rw-r--r--. 1 root root  935 7月   4 20:54 known_hosts
 
将自己机器上的id_rsa.pub追加到主节点的authorized_keys文件中。
[root@slave .ssh]# scp id_rsa.pub 192.168.1.2:/
去主节点追加
[root@master .ssh]# cd /
[root@master .ssh]# cat id_rsa.pub >> /root/.ssh/authorized_keys
3、将主节点上的authorized_keys分发给每一个从节点,测试登录
[root@master .ssh]# scp authorized_keys 192.168.1.3:$PWD
[root@master .ssh]# scp authorized_keys 192.168.1.4:$PWD
[root@master .ssh]# ssh 192.168.1.3
Last login: Fri Jul  6 16:02:23 2018
[root@slave1 ~]# 

4、将三台机器上的authorized_keys授权

[root@master .ssh]# chmod 600 authorized_keys 

[root@slave1 .ssh]# chmod 600 authorized_keys 

[root@slave2 .ssh]# chmod 600 authorized_keys 


四、hadoop分布式集群安装
1、下载hadoop安装包
hadoop下载地址

2、解压安装包,并修改配置文件
[root@master apps]# tar -zxvf hadoop-2.9.2.tar.gz
[root@master apps]# mkdir hdptmp
在两台从节点上建立相同的目录(hdfs初始化的时候会用到)
1)配置hadoop-env.sh 

# set java environment(添加jdk环境变量)
export JAVA_HOME=/apps/jdk1.8.0_171
2)配置core-site.xml文件 

修改Hadoop核心配置文件core-site.xml,这里配置的是HDFS的地址和端口号。

<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/apps/hdptmp</value>
     <!-- 请先在 /apps 目录下建立 hdptmp 文件夹-->  
    </property>
    <!-- file system properties -->
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://master.hadoop:9000</value>
    </property>
</configuration>
3)配置hdfs-site.xml文件 

修改Hadoop中HDFS的配置,配置的备份方式默认为3。

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    <!-- replication 是数据副本数量,默认为3-->
    </property>
<configuration>
4)配置mapred-site.xml文件  

修改Hadoop中MapReduce的配置文件,配置的是JobTracker的地址和端口。

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
5) 配置yran-site.xml文件
<configuration>
    <!--制定yarn的老大resourcemanager的地址-->
    <property>
        <name>yarn.resouremanager.hostname</name>
        <value>master.hadoop</value>
   </property>
   <!--mapreduce执行shuffle(洗牌的意思)获取数据的方式-->
   <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
   </property>
</configuration>
6)配置slaves文件

[root@master /]# vi slaves
master.hadoop
slave1.hadoop
slave2.hadoop
7) 配置hadoop环境变量

[root@master /]# vi /etc/profile
#set hadoop enviroment
export HADOOP_HOME=/apps/hadoop-2.9.2/
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
#生效
[root@master /]# source /etc/profile
3、将主节点上的文件复制到从节点上
[root@master /]# scp -r /apps/hadoop-2.9.2/  slave1.hadoop:/apps
[root@master /]# scp -r /apps/hadoop-2.9.2/  slave2.hadoop:/apps
[root@master /]# scp /etc/hosts slave1.hadoop:/etc
[root@master /]# scp /etc/hosts slave2.hadoop:/etc
[root@master /]# scp /etc/profile slave1.hadoop:/etc
[root@master /]# scp /etc/profile slave2.hadoop:/etc
4、初始化HDFS
[root@master /]# hdfs  namenode -format
5、初始化完毕,启动测试

1)启动HDFS
[root@master /]# start-dfs.sh 
Starting namenodes on [master.hadoop slave1.hadoop]
master.hadoop: starting namenode, logging to /apps/hadoop-2.8.0/logs/hadoop-root-namenode-master.hadoop.out
slave1.hadoop: starting namenode, logging to /apps/hadoop-2.8.0/logs/hadoop-root-namenode-slave1.hadoop.out
slave1.hadoop: starting datanode, logging to /apps/hadoop-2.8.0/logs/hadoop-root-datanode-slave1.hadoop.out
master.hadoop: starting datanode, logging to /apps/hadoop-2.8.0/logs/hadoop-root-datanode-master.hadoop.out
slave2.hadoop: starting datanode, logging to /apps/hadoop-2.8.0/logs/hadoop-root-datanode-slave2.hadoop.out
[root@master /]# jps
37984 DataNode
38470 Jps
37871 NameNode
2)启动YARN
[root@master /]# start-yarn.sh 
starting yarn daemons
starting resourcemanager, logging to /apps/hadoop-2.8.0/logs/yarn-root-resourcemanager-master.hadoop.out
slave2.hadoop: starting nodemanager, logging to /apps/hadoop-2.8.0/logs/yarn-root-nodemanager-slave2.hadoop.out
slave1.hadoop: starting nodemanager, logging to /apps/hadoop-2.8.0/logs/yarn-root-nodemanager-slave1.hadoop.out
master.hadoop: starting nodemanager, logging to /apps/hadoop-2.8.0/logs/yarn-root-nodemanager-master.hadoop.out
[root@master /]# jps
37984 DataNode
38832 Jps
38625 ResourceManager
38748 NodeManager

 

6、测试Hadoop

http://192.168.1.2:50070/

--------------------- 
作者:nuc2015 
来源:CSDN 
原文:https://blog.csdn.net/nuc2015/article/details/80939547 
版权声明:本文为博主原创文章,转载请附上博文链接!

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值