VMware虚拟机集群上部署HDFS集群


一.HDFS介绍

1.什么是HDFS

  • HDFS全称:Hadoop Distributed File System

  • 是Hadoop三大组件(HDFS、MapReduce、YARN)之一

  • 可在多台服务器上构建集群,提供分布式数据存储能力

2.HDFS中的架构角色有哪些

  • NameNode:主角色,管理HDFS集群和DataNode角色

  • DataNode:从角色,负责数据的存储

  • SecondaryNameNode:辅助角色,协助NameNode整理元数据

3.HDFS的基础架构

在这里插入图片描述


二.VMware虚拟机集群上部署HDFS集群

1.集群规划

在这里插入图片描述

2.上传&解压

  1. 上传Hadoop安装包到node1节点中
  2. 解压缩安装包到/export/server/中
    tar -zxvf hadoop-3.3.4.tar.gz -C /export/server
    
  3. 构建软链接
    ln -s /export/server/hadoop-3.3.4 hadoop
    
  4. 进入hadoop安装包内
    cd hadoop
    
  5. Hadoop安装包目录结构
    在这里插入图片描述

3.修改配置文件,应用自定义设置

配置HDFS集群,我们主要涉及到如下文件的修改:

  • workers: 配置从节点(DataNode)有哪些

  • hadoop-env.sh: 配置Hadoop的相关环境变量

  • core-site.xml: Hadoop核心配置文件

  • hdfs-site.xml: HDFS核心配置文件

这些文件均存在与$HADOOP_HOME/etc/hadoop文件夹中。

ps:$HADOOP_HOME是后续我们要设置的环境变量,其指代Hadoop安装文件夹即/export/server/hadoop

(1).配置workers文件

# 进入配置文件目录
cd etc/hadoop

# 编辑workers文件
vim workers

# 填入如下内容
node1
node2
node3

填入的node1、node2、node3

表明集群记录了三个从节点(DataNode)

(2).配置hadoop-env.sh文件

# 填入如下内容
export JAVA_HOME=/export/server/jdk
export HADOOP_HOME=/export/server/hadoop
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_LOG_DIR=$HADOOP_HOME/logs
  • JAVA_HOME,指明JDK环境的位置在哪

  • HADOOP_HOME,指明Hadoop安装位置

  • HADOOP_CONF_DIR,指明Hadoop配置文件目录位置

  • HADOOP_LOG_DIR,指明Hadoop运行日志目录位置

通过记录这些环境变量, 来指明上述运行时的重要信息

(3).配置core-site.xml文件

<configuration>
 <property>
  <name>fs.defaultFS</name>
  <value>hdfs://node1:8020</value>
 </property>
 
 <property>
  <name>io.file.buffer.size</name>
  <value>131072</value>
 </property>
</configuration>
    • key:fs.defaultFS

    • 含义:HDFS文件系统的网络通讯路径

    • 值:hdfs://node1:8020

    • 协议为hdfs://

    • namenode为node1

    • namenode通讯端口为8020

    • key:io.file.buffer.size

    • 含义:io操作文件缓冲区大小

    • 值:131072 bit

  • hdfs://node1:8020为整个HDFS内部的通讯地址,应用协议为hdfs://(Hadoop内置协议)

  • 表明DataNode将和node1的8020端口通讯,node1是NameNode所在机器

  • 此配置固定了node1必须启动NameNode进程

(4).配置hdfs-site.xml文件

<configuration>
 <property>
  <name>dfs.datanode.data.dir.perm</name>
  <value>700</value>
 </property>

 <property>
  <name>dfs.namenode.name.dir</name>
  <value>/data/nn</value>
 </property>

 <property>
  <name>dfs.namenode.hosts</name>
  <value>node1,node2,node3</value>
 </property>

<property>
  <name>dfs.blocksize</name>
  <value>268435456</value>
 </property>

 <property>
  <name>dfs.namenode.handler.count</name
  <value>100</value>
 </property>

 <property>
  <name>dfs.datanode.data.dir</name>
  <value>/data/dn</value>
 </property>
</configuration>

在这里插入图片描述
在这里插入图片描述


4.准备数据目录

根据下述两个配置项:
在这里插入图片描述

  • namenode数据存放node1的/data/nn

  • datanode数据存放node1、node2、node3的/data/dn

所以应该

  • 在node1节点:
  • mkdir -p /data/nn
  • mkdir /data/dn
  • 在node2和node3节点:
  • mkdir -p /data/dn

5.分发Hadoop文件夹

目前,已经基本完成Hadoop的配置操作,可以从node1将hadoop安装文件夹远程复制到node2、node3

  • 分发
  #在node1执行如下命令
  cd /export/server
  scp -r hadoop-3.3.4 node2:`pwd`/
  scp -r hadoop-3.3.4 node3:`pwd`
  • 在node2执行,为hadoop配置软链接
  #在node2执行如下命令
  ln -s /export/server/hadoop-3.3.4 /export/server/hadoop
  • 在node3执行,为hadoop配置软链接
# 在node3执行如下命令
ln -s /export/server/hadoop-3.3.4 /export/server/hadoop

5.配置环境变量

为了方便我们操作Hadoop,可以将Hadoop的一些脚本、程序配置到PATH中,方便后续使用。
在Hadoop文件夹中的bin、sbin两个文件夹内有许多的脚本和程序,现在来配置一下环境变量

  1. vim /etc/profile
# 在/etc/profile文件底部追加如下内容
export HADOOP_HOME=/export/server/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
  1. 在node2和node3配置同样的环境变量

6.授权为Hadoop用户

hadoop部署的准备工作基本完成

为了确保安全,hadoop系统不以root用户启动,我们以普通用户hadoop来启动整个Hadoop服务

所以,现在需要对文件权限进行授权。

ps:请确保已经提前创建好了hadoop用户(前置准备章节中有讲述),并配置好了hadoop用户之间的免密登录

•以root****身份,在node1、node2、node3三台服务器上均执行如下命令:

chown -R hadoop:hadoop /data
chown -R hadoop:hadoop /export

7.格式化整个文件系统

前期准备全部完成,现在对整个文件系统执行初始化

•格式化namenode

# 确保以hadoop用户执行
su - hadoop

# 格式化namenode
hadoop namenode -format

•启动

# 一键启动hdfs集群
start-dfs.sh

# 一键关闭hdfs集群
stop-dfs.sh

# 如果遇到命令未找到的错误,表明环境变量未配置好,可以以绝对路径执行
/export/server/hadoop/sbin/start-dfs.sh
/export/server/hadoop/sbin/stop-dfs.sh

8.查看HDFS WEBUI

启动完成后,可以在浏览器打开:
http://node1:9870,即可查看到hdfs文件系统的管理网页。
在这里插入图片描述

总结

以上就是今天要讲的内容,本文主要介绍了HDFS的部署,可以帮助我们VMware虚拟机集群上部署HDFS集群。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值