HDFS搭建详细步骤说明


前言

目前公司需要搭建一个存储大文件的文件系统,经过一系列调研最后决定采用HDFS。

一、服务器准备

1、服务器列表

IP角色
192.168.50.100NameNode
192.168.50.22DataNode
192.168.50.241DataNode
192.168.50.124DataNode
192.168.50.143DataNode
192.168.50.146DataNode

二、安装包准备

jdk1.8.0_271下载地址
Hadoop: hadoop-3.1.4下载地址

三、安装步骤

第一步:上传解压

在这里插入图片描述

tar -zxvf hadoop-3.1.4.tar.gz
tar -zxvf jdk-8u271-linux-x64.tar.gz

2 配置java环境

第二步:vim hadoop-env.sh

在这里插入图片描述

cd /hadoop-2.7.3/etc/hadoop/etc目录就有hadoop-env.sh文件

第三步:在 Linux 中配置 Hadoop 环境变量

vim /etc/profile

在文本末尾追加


JAVA_HOME=/XXX/XXX/jdk1.8.0_271
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH
export JAVA_HOME
export CLASSPTH

export PATH=$PATH:/XXX/XXX/hadoop-3.1.4/bin:/home/hurui/hadoop-3.1.4/sbin


source /etc/profile

第四步:验证

hadoop

如果显示如下内容说明成功了。
在这里插入图片描述

第五步:修改hosts

vim /etc/hosts

在这里插入图片描述

第六步:设置 SSH 免密码登录

在master主机上执行:

ssh-keygen -t rsa

执行命令后,出现提示可以不予理会,直接按几次回车键就可以了。

接下来,我们把生成的公钥id发送到slave1、slave2、slave3和slave4和slave5这 5 台机器。

ssh-copy-id slave1
ssh-copy-id slave2
ssh-copy-id slave3
ssh-copy-id slave4
ssh-copy-id slave5

然后用:ssh slave1
验证是否登录成功。

第七步:配置HDFS

mkdir /xxx/xxx/hadoopData

主要修改修改core-site.xml和hdfs-site.xml文件。

  • 修改core-site.xml
<configuration>
<property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
  <description>HDFS 的 URI,文件系统://namenode标识:端口</description>
</property>

<property>
  <name>hadoop.tmp.dir</name>
  <value>/XXX/XXX/hadoopData</value>
  <description>namenode 上传到 hadoop 的临时文件夹</description>
</property>

<property>
    <name>fs.trash.interval</name>
    <value>4</value>
    <description>检查点被删除的时间间隔,单位分钟,如果服务器禁用则看客户端的,如果服务端启用了,忽略客户端</description>
</property>
</configuration>

  • 修改hdfs-site.xml
<configuration>
 <property>
   <name>dfs.namenode.name.dir</name>
   <value>/xxx/xxx/hadoopData/dfs/name</value>
   <description>datanode 上存储 hdfs 名字空间元数据</description>
 </property>

 <property>
   <name>dfs.datanode.data.dir</name>
   <value>/xxx/xxx/hadoopData/dfs/data</value>
   <description>datanode 上数据块的物理存储位置</description>
 </property>

 <property>
   <name>dfs.replication</name>
   <value>3</value>
   <description>副本个数,默认配置是 3,应小于 datanode 机器数量</description>
 </property>

 <property>
   <name>dfs.webhdfs.enabled</name>
   <value>true</value>
 </property>

 <property>
   <name>dfs.permissions.superusergroup</name>
   <value>staff</value>
 </property>

 <property>
   <name>dfs.permissions.enabled</name>
   <value>false</value>
 </property>
 <property>
   <name>dfs.namenode.datanode.registration.ip-hostname-check</name>
   <value>false</value>
 </property>
  <property>
   <name>dfs.datanode.use.datanode.hostname</name>
   <value>true</value>
 </property>
 <property>
   <name>dfs.client.use.datanode.hostname</name>
   <value>true</value>
 </property>
</configuration>

第八步:配置NameNode节点

vim works

在这里插入图片描述

第九步:修改hostName

  1. centos7直接修改vim /etc/hostname里面的内容,然后重启即可

第十步:格式化 NameNode 以及启动 HDFS 系统

1、格式化:hdfs namenode -format
2、启动:start-dfs.sh

如果启动失败:
在这里插入图片描述
解决办法如下:
在Hadoop安装目录下找到sbin文件夹

在里面修改四个文件

1、对于start-dfs.sh和stop-dfs.sh文件,添加下列参数:

#!/usr/bin/env bash
HDFS_DATANODE_USER=root
HADOOP_SECURE_DN_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

2、对于start-yarn.sh和stop-yarn.sh文件,添加下列参数:

#!/usr/bin/env bash
YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

重新开始start…就可以。

第十一步:网页访问

打开网页:192.168.50.100:9870
在这里插入图片描述

  • 0
    点赞
  • 35
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,下面是Hadoop伪分布式搭建详细步骤: 1. 安装Java环境:Hadoop运行需要Java环境,因此首先需要安装Java。可以使用以下命令安装OpenJDK: ``` sudo apt-get update sudo apt-get install openjdk-8-jdk ``` 2. 下载Hadoop压缩包:从Hadoop官网下载所需版本的Hadoop压缩包。可以使用以下命令下载Hadoop 3.2.2版本: ``` wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.2/hadoop-3.2.2.tar.gz ``` 3. 解压Hadoop压缩包:使用tar命令解压下载下来的Hadoop压缩包。可以使用以下命令解压: ``` tar -xzvf hadoop-3.2.2.tar.gz ``` 4. 配置Hadoop环境变量:在.bashrc文件中添加Hadoop环境变量。可以使用以下命令进行编辑: ``` nano ~/.bashrc ``` 在文件末尾添加以下内容: ``` export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin ``` 然后使用以下命令使修改生效: ``` source ~/.bashrc ``` 5. 修改Hadoop配置文件:主要包括core-site.xml、hdfs-site.xml、mapred-site.xml和yarn-site.xml。这些文件位于Hadoop的conf目录下。 - core-site.xml 在core-site.xml文件中添加以下配置: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` - hdfs-site.xml 在hdfs-site.xml文件中添加以下配置: ``` <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` - mapred-site.xml 复制mapred-site.xml.template文件并重命名为mapred-site.xml,然后在mapred-site.xml文件中添加以下配置: ``` <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` - yarn-site.xml 在yarn-site.xml文件中添加以下配置: ``` <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.env-whitelist</name> <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value> </property> </configuration> ``` 6. 初始化HDFS:使用hadoop namenode -format命令初始化HDFS。 ``` hadoop namenode -format ``` 7. 启动Hadoop服务:使用start-dfs.sh和start-yarn.sh命令启动Hadoop服务。 ``` start-dfs.sh start-yarn.sh ``` 运行以上命令后,可以使用jps命令查看Hadoop服务是否已经启动。 8. 验证Hadoop是否正常运行:在浏览器中访问http://localhost:9870/,可以看到Hadoop的Web界面。在界面中可以查看HDFS的状态、节点信息等。 以上就是Hadoop伪分布式搭建详细步骤,希望对你有所帮助。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值