Hadoop搭建完全分布式集群

最近公司事情不是很多,趁此机会,学习一下大数据的内容,正好公司之后也要使用大数据方面的技术进行数据分析,所以提前学习一下,也好做个准备.以防忘记,写下博客来记录一下学习过程.

搭建准备

首先我们需要建三台新的虚拟机:

  1. 使用VMware搭建新建一台虚拟机,我这里使用的是centos系统.(说起这个,比较吐血,我最开始一直是使用的Ubuntu,然后再学习es,rocketmq…之类的时候,去网上找的教程全是centos的,每次折腾虚拟机都要耗费不少时间,很是蛋疼.决定学习hadoop之后,毕竟是一个新的领域,所以准备重新开始,所以改用centos.结果,现在网上找点教程,全变成Ubuntu了,心累,感觉受到了针对,朋友);
  2. 将虚拟机配置一下静态ip(必须的啊,不然鬼找得到你主机在哪);
// 修改静态ip(每个机器的网卡文件名称不一样,)
vim /etc/sysconfig/network-scripts/ifcfg-ens33

修改如下:

TYPE="Ethernet"
PROXY_METHOD="none"
BROWSER_ONLY="no"
BOOTPROTO="static"
DEFROUTE="yes"
IPV4_FAILURE_FATAL="no"
IPV6INIT="yes"
IPV6_AUTOCONF="yes"
IPV6_DEFROUTE="yes"
IPV6_FAILURE_FATAL="no"
IPV6_ADDR_GEN_MODE="stable-privacy"
NAME="ens33"
UUID="a7239cff-3e26-4d23-bab6-176ba0b88895"
DEVICE="ens33"
ONBOOT="yes"
IPADDR="192.168.50.103"
GATEWAY="192.168.50.1"
NETMASK="255.255.255.0"
DNS1="8.8.8.8"

主要是修改几个 BOOTPROTO改为static,ONBOOT改为yes ,IPADDR,GATEWAY,NETMASK,DNS1(可选)
三台机器都要改,并且修改的ip要在同一网段内.在这里插入图片描述

  1. 修改一下主机名,方便区分和联合 ;
//hostnamectl 永久主机名    是对/etc/hostname文件的内容进行修改
hostnamectl hadoop103
//或者 vim /etc/hostname 性质是一样的

修改完后可以再次使用hostnamectl查看一下是否修改成功.
5. 然后还要修改一下主机(),要把其他机器的主机名和ip映射关联起来?;

vim /etc/hosts

增加几行

192.168.50.101 hadoop101
192.168.50.102 hadoop102
192.168.50.103 hadoop103
192.168.50.104 hadoop104
192.168.50.105 hadoop105

这个呢,根据我的理解,应该算是给同网段下的ip和主机名进行一个映射,这样就可以通过主机名对ip所在主机进行访问了吧?有大佬看到可以帮忙指点一下吗.

其他虚拟机也做相同配置.这边想偷个懒的话 就先配置一台机器,然后用VMware克隆n台出来.这样可以减少一点工作量.

配置ssh和编写一个分发shell脚本

1. 编写一个shell脚本用于分发文件
  这个是因为我们要搭建集群,所以对于hadoop的配置需要每台机器都做相同配置,目前我们只做三台机器的配置,还可以做到手动分发,但是实际使用时,不一定是三台,如果有100台机器集群,手动分发肯定是不现实的.所以接下来就编写一个shell脚本,用于文件分发.
远程分发,linux中有两个命令,rsync和scp.都可以做到远程复制.那么两者的区别是什么呢.
  1. scp的效率比rsync的效率会高.因为scp非常不占用资源,rsync比scp快一点,但是如果小文件众多的话,占用I/O非常多,影响系统使用.
  2. rsync会对比文件差异,只传输差异部分,适合做增量或全量备份,而scp只能做全量备份
  3. rsync是非加密传输,scp是加密传输.
  4. rsync复制可以附带软/硬链接.
在这里插入图片描述
我们这里选择使用rsync来进行分发,下来来编写一个xsync.sh

 vim xsync.sh

 内容如下:

#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if ((pcount==0)); then
echo no args;
exit;
fi

#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

#4 获取当前用户名称
user=`whoami`

#5 循环
for((host=103; host<106; host++)); do
        echo ------------------- hadoop$host --------------
        rsync -av $pdir/$fname $user@hadoop$host:$pdir
done

为了方便使用,我们把脚本放到 /bin, 这样就可以在任意目录调用此脚本了.

    chmod +x xsync    
    sudo cp xsync /bin    
    sudo xsync /bin/xsync

2. 配置ssh无密登录

一般虚拟机会自带ssh,如果没有的话,就用apt-get install .呸  用 yum 安装一下.
进入.ssh    cd ~/.ssh/
使用 
    ssh-keygen -t rsa
生成密钥对.
然后使用我们的分发脚本,将整个.ssh发送到各台机器上.
xsync ~/atguigu/.ssh

试一下配置是否成功,
ssh hadoop104 //第一次需要输入密码. exit退出登录,再重新登录一次.不需要密码则成功配置了ssh无密登录
  至此,虚拟机的准备算是弄好了.

java和hadoop

1. 安装java和hadoop以及环境变量配置
  将准备好的java的tar包和hadoop的tar包copy到一台主机上. 并且解压. tar -zxvf
  然后配置环境变量

sudo vim /etc/profile

 在该文件末尾追加几行

#JAVA_HOME
#java解压后的tar包位置
export JAVA_HOME=/opt/module/jdk1.8.0_231 
export PATH=$PATH:$JAVA_HOME/bin
#HADOOP_HOME
#hadoop解压后的tar包位置
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

然后执行命令使环境变量立即生效

source /etc/profile

然后使用 java -version, hadoop version 查看是否配置成功

2. 配置hadoop运行的xx-env.sh
  先配置几个env,进入解压后的hadoop文件夹下.然后

//这里是进入hadoop文件夹下的etc,而不是linux的.之前碰到这个问题,
//怎么也找不到文件.
cd etc/hadoop/ 

使用vim命令将 hadoop-env.sh,yarn-env.sh,mapred-env.sh这几个文件,进行追加一下依赖jdk环境.
export JAVA_HOME=/opt/module/jdk1.8.0_231

3. 配置core-site.xml
将下面这段xml配置直接复制到hadoop-2.7.2/etc/hadoop/core-site.xml的

<configuration>
<!-- 指定HDFS中NameNode的地址 -->
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://hadoop103:9000</value>
        </property>

        <!-- 指定Hadoop运行时产生文件的存储目录 -->
        <property>
            <name>hadoop.tmp.dir</name>
            <value>/opt/module/hadoop-2.7.2/data/tmp</value>
        </property>
</configuration>

4. 配置hdfs-site.xml

<configuration>
<!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
         <name>
	 dfs.namenode.secondary.http-address	
	 </name>
         <value>hadoop103:50090 </value>
    </property>
</configuration>

5. 配置yarn-site.xml

<configuration>
<!-- 指定HDFS副本的数量 -->
    <property>
        <name>dfs.replication</name>
        <value>3</value>
    </property>
    <property>
         <name>
	 dfs.namenode.secondary.http-address	
	 </name>
         <value>hadoop103:50090 </value>
    </property>
</configuration>

6. 配置mapred-site.xml

<configuration>
<!--指定MR运行的地方 -->
	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>	
	</property>
<!-- 历史服务器端地址 -->
        <property>
                <name>mapreduce.jobhistory.address</name>
		<value>hadoop105:10020</value>
        </property>
        <!-- 历史服务器web端地址 -->
        <property>
		<name>mapreduce.jobhistory.webapp.address</name>
		<value>hadoop105:19888</value>
	</property>
</configuration>

7. 配置slaves

vim etc/hadoop/slaves

追加以下内容

hadoop103
hadoop104
hadoop105

保存退出.
8. 分发配置
使用之前编写的分发脚本 xsync 将配置分发到其他几台虚拟机上.

xsync /opt/module/hadoop-2.7.2/etc

然后格式化namenode,在hadoop103上进行格式化

hdfs namenode -format

至此,hadoop完全分布式集群搭建完毕.

运行测试

在hadoop103上运行

hadoop-daemon.sh start namenode/datanode/secondarynamenode

在hadoop104上运行

yarn-daemon.sh start resourcemanager/nodemanager

然后使用jps命令查看进程是否启动.
如果未启动,在使用脚本启动时,会产生一个路径进行日志输出, 查看启动日志 log.
至此 hadoop完全分布式集群搭建成功!并且顺利运行.

评论 10
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值