记一次 Centos7.x 安装部署 Hadoop 3.x HDFS基础环境(非高可用集群)

一、基础信息

官网  http://hadoop.apache.org/

快速入门  http://hadoop.apache.org/docs/r1.0.4/cn/quickstart.html

在线文档  http://tool.oschina.net/apidocs/apidoc?api=hadoop

易百教程  https://www.yiibai.com/hadoop/

W3Cschool教程 https://www.w3cschool.cn/hadoop/?

二、环境、工具说明

1、操作系统  CentOS-7-x86_64-Minimal-2003.iso

下载地址

https://vault.centos.org/

虚拟机安装过程参考:

https://blog.csdn.net/llwy1428/article/details/89328381

安装4台虚拟机

Master:1台  2G内存  1核CPU

Slave   :3台  2G内存  1核CPU

2、JDK版本:jdk1.8

安装配置过程

https://blog.csdn.net/llwy1428/article/details/111144659

3、工具:xshell5

4、VMware 版本:VMware Workstation Pro15

5、Hadoop:3.3.0

下载地址

https://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
https://mirrors.bfsu.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz
https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz

三、基础环境配置

IP主机名内存CPU磁盘
192.168.11.21master2G2核50G
192.168.11.22slave12G2核50G
192.168.11.23slave22G2核50G
192.168.11.24slave32G2核50G

1、虚拟机安装(安装4台虚拟机)

参考 https://blog.csdn.net/llwy1428/article/details/89328381

2、每台虚拟机均接入互联网(4个节点均要配置好网卡)

网卡配置可参考:

https://blog.csdn.net/llwy1428/article/details/85058028

3、修改主机名(4个节点均要修改主机名)

编辑集群中的各个节点主机名(以第一个节点 master 为例,slave1、slave2、slave3 略)

[root@localhost ~]# hostnamectl set-hostname master

4、JDK8环境安装配置(4个节点均要搭建)

安装配置过程

https://blog.csdn.net/llwy1428/article/details/111144659

5、配置防火墙(4个节点均要操作)

关闭防火墙,并设置开机禁止启动

关闭防火墙    : systemctl stop firewalld
查看状态      : systemctl status firewalld
开机禁用      : systemctl disable firewalld

6、配置静态IP

此处以 master 节点为例(其他节点 略):

[root@master ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

说明:红框内为修改、增加的部分

可参考:https://blog.csdn.net/llwy1428/article/details/85058028

7、配置 hosts 文件

此处以 master 节点为例:

[root@master ~]# vim /etc/hosts

8、安装基本工具

[root@master ~]# yum install -y vim lrzsz ntp zip unzip wget zip unzip net-tools tree java-1.8.0-openjdk-devel

(根据自身的网络情况,可能需要等待几分钟)

9、配置节点间免密登录

具体步骤参照: 

https://blog.csdn.net/llwy1428/article/details/85911160

https://blog.csdn.net/llwy1428/article/details/85641999

10、集群各节点修改系统文件打开数

此处以 master 节点为例:

[root@master ~]# vim /etc/security/limits.conf

参考

https://blog.csdn.net/llwy1428/article/details/89389191

11、集群各节点配置时间同步

本文以阿里时间服务器为准,阿里云时间服务器地址:ntp6.aliyun.com

说明:如有专用时间服务器,请更改时间服务器的主机名或者IP地址,主机名需要在etc/hosts文件中做好映射。

以 master 节点为例:

设置系统时区为东八区(上海时区)

[root@master ~]# timedatectl set-timezone Asia/Shanghai

关闭ntpd服务

[root@master ~]# systemctl stop ntpd.service

设置ntpd服务禁止开机启动

[root@master ~]# systemctl disable ntpd

设置定时任务

[root@master ~]# crontab -e

写入以下内容(每10分钟同步一下阿里云时间服务器):

0-59/10 * * * * /usr/sbin/ntpdate ntp6.aliyun.com

重启定时任务服务

[root@master ~]# /bin/systemctl restart crond.service

设置定时任务开机启动

[root@master ~]# /bin/systemctl enable crond.service

集群中其他各个节点同 master 节点。

参考  https://blog.csdn.net/llwy1428/article/details/89330330

12、集群各节点禁用SELinux

以 master 节点为例:

[root@master ~]# vim /etc/selinux/config

修改如下内容后,保存并退出    :wq

集群中其他各个节点同 master 节点。

13、集群各节点禁用Transparent HugePages

参考  https://blog.csdn.net/llwy1428/article/details/89387744

14、配置系统环境为UTF8

以 master 节点为例:


[root@master ~]# echo "export LANG=zh_CN.UTF-8 " >> ~/.bashrc
[root@master ~]# source ~/.bashrc

集群中其他各个节点同 master 节点。

四、Hadoop HDFS 部署

1、在每个节点上创建目录(slave1、slave2、slave3 均创建)

[root@master ~]# mkdir -p /usr/bigdata

2、下载 hadoop 安装文件

[root@master bigdata]# wget https://mirror.bit.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz

3、解压文件 

[root@master bigdata]# tar zxvf hadoop-3.3.0.tar.gz

4、查看目录

5、配置 HADOOP_HOME

[root@master ~]# vi /etc/profile
export HADOOP_HOME="/usr/bigdata/hadoop-3.3.0"
PATH=$PATH:$HADOOP_HOME/bin

6、使配置生效并查看

[root@master ~]# source /etc/profile
[root@master ~]# echo $HADOOP_HOME
/usr/bigdata/hadoop-3.3.0

7、修改 HDFS 的配置文件

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/etc/hadoop/hadoop-env.sh

修改配置

export JAVA_HOME=/usr/lib/jvm/java-1.8.0
export HADOOP_HOME=/usr/bigdata/hadoop-3.3.0

8、创建目录

[root@master ~]# mkdir /usr/bigdata/hadoop-3.3.0/tmp
[root@master ~]# mkdir /usr/bigdata/hadoop-3.3.0/logs

9、指定 HDFS 主节点

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/etc/hadoop/core-site.xml

编辑内容

<configuration>
        <!--说明:hadoop2.x端口默认9000;hadoop3.x端口默认9820-->
        <property>
                <name>dfs.defaultFS</name>
                <value>hdfs://master:9820</value>
        </property>
        <!--注意:临时目录自己创建下-->
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/bigdata/hadoop-3.3.0/tmp</value>
        </property>
</configuration>

10、配置 hdfs-site.xml

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/etc/hadoop/hdfs-site.xml 
<configuration>
        <!--说明:不配置副本的情况下默认是3 -->
        <property>
                <name>dfs.replication</name>
                <value>2</value>
        </property>
        <property>
            <!--设置 secondaryNameNode 为 master节点的虚拟机; hadoop2.x 端口为50090-->
            <name>dfs.namenode.secondary.http-address</name>
            <value>master:9821</value>
        </property>
        <!--关闭 hdfs 读取权限,即不检查权限-->
        <property>
            <name>dfs.permissions.enabled</name>
            <value>false</value>
        </property>
</configuration>

11、编辑 workers 文件

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/etc/hadoop/workers
slave1
slave2
slave3

12、修改启动脚本 start-dfs.sh

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/sbin/start-dfs.sh

在开始位置加入(因为我的环境是基于 root 用户搭建的开发、测试环境,如果不配置 HDFS 相关的 root 启动权限,HDFS会默认使用 hdfs 用户启动,在 root 用户下会启动失败,提示权限不足 )

HDFS_DATANODE_USE=root
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
HDFS_DATANODE_SECURE_USER=root

13、修改停止脚本 stop-dfs.sh

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/sbin/stop-dfs.sh

在开始加入如下内容,原因同上

HDFS_DATANODE_USE=root
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
HDFS_DATANODE_SECURE_USER=root

14、修改脚本 hdfs

[root@master ~]# vim /usr/bigdata/hadoop-3.3.0/bin/hdfs

在最前面加上

HADOOP_SHELL_EXECNAME="root"

15、把 master 上配置好的 hadoop 文件发售到其它各个节点

[root@master ~]# scp -r /usr/bigdata/hadoop-3.3.0 root@slave1:/usr/bigdata/
[root@master ~]# scp -r /usr/bigdata/hadoop-3.3.0 root@slave2:/usr/bigdata/
[root@master ~]# scp -r /usr/bigdata/hadoop-3.3.0 root@slave3:/usr/bigdata/

16、在其他各个节点上配置  HADOOP_HOME

17、在 master 节点上格式化

[root@master ~]# hdfs namenode -format

18、启动 HDFS  服务

[root@master ~]# /usr/bigdata/hadoop-3.3.0/sbin/start-dfs.sh

查看启动状态

19、停止 HDFS 服务

[root@master ~]# /usr/bigdata/hadoop-3.3.0/sbin/stop-dfs.sh

四、Hadoop HDFS 基本操作

# 查看目录
hdfs dfs -ls /
# 创建目录
hdfs dfs -mkdir /hadoop
# 上传文件
hdfs dfs -put /opt/text.txt /hadoop
# 删除目录
hdfs dfs -rm -r /hadoop

1:创建目录;2:创建文件并上传 hdfs

查看启动状态

[root@master ~]# netstat -lntp

浏览器查看 HDFS 

浏览器 地址栏 录入 http://192.168.11.21:9870/    说明:192.168.11.21  是我 master 节点的IP地址

至此,Centos7.x  安装部署 Hadoop 3.x HDFS基础环境(非高可用集群)操作完毕,希望能够对您有所帮助!

 

 

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值