Hadoop3.3伪分布式安装部署

目录

引言

实验目的及准备

实验步骤


引言

Hadoop生态的搭建有本地模式、伪分布模式、集群模式(3台机器)三种安装模式,本篇文章将详细介绍Hadoop3.3的伪分布安装模式。

实验目的及准备

一、完成Hadoop3.3伪分布安装

二、在Linux中配置jdk1.8环境变量

三、配置主机的免密钥登录

准备:MobaXterm、Centos7系统、jdk-8u112-linux-x64.tar.gz、Hadoop3.3

实验步骤

一、启动虚拟机master节点,连接至mobaXterm的远程终端:

二、上传Hadoop3.3.2以及jdk安装包至主节点的/home路径下(该安装包在CSDN中都可以搜寻到,作者无法重复上传):

三、解压缩Hadoop以及jdk的安装包至/opt目录下:

cd /home

tar -zxvf jdk-8u112-linux-x64.tar.gz -C /opt/

tar -zxvf hadoop-3.3.2.tar -C /opt/

四、解压完成后,配置JDK环境变量并进行测试:

vi /etc/profile



#添加以下内容后保存退出:
export JAVA_HOME=/opt/jdk1.8.0_112 export JRE_HOME=/opt/jdk1.8.0_112/jre
export PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar 


#生效:
source /etc/profile

输入以下命令进行jdk安装成功的测试,出现1.8.0的jdk版本号即为安装成功:

java -version

五、配置master节点并完成伪分布安装(共配置六个文件):

1.配置Hadoop-env.sh

cd /opt/hadoop-3.3.2/etc/hadoop
vi hadoop-env.sh

修改 JAVA_HOME 后保存退出:

2.配置core-site.xml

配置该文件,指定HDFS的namenode地址,value值是主机名加端口号,该实验中主机使用master节点的ip地址,请注意修改:

cd /opt/hadoop-3.3.2/etc/hadoop/

vi core-site.xml

<property>
<name>fs.default.name</name>
<value>hdfs://10.244.1.3:9000</value>
</property>
<property>
<name>fs.defaultFS</name>
<value>hdfs://10.244.1.3:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadooptmp</value>
</property>

截图如下:

3.配置hdfs-site.xml:

配置该文件,指定HDFS保存数据的副本数量,伪分布模式下只有一个节点,所以此处为:1

cd /opt/hadoop-3.3.2/etc/hadoop/

vi hdfs-site.xml

<property>
<name>dfs.replication</name>
<value>1</value>
</property>
<property>
<name>dfs.name.dir</name>
<value>/home/hadoopname</value>
</property>
<property>
<name>dfs.data.dir</name>
<value>/home/hadoopdata</value>
</property>

截图如下:

4.配置mapred-site.xml

cd /opt/hadoop-3.3.2/etc/hadoop/

vi mapred-site.xml 

<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>

截图如下:

5.配置yarn-site.xml文件:

添加两个属性,第一个告诉nodemanager获取数据的方式为:shuffle;第二个告诉resourcemanager安装的主机(hostname)。

cd /opt/hadoop-3.3.2/etc/hadoop/

vi yarn-site.xml

<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.hostname</name>
<value>master</value>
</property>

截图如下:

6.配置etc/profile文件:

cd /opt/hadoop-3.3.2/etc/hadoop/

vi /etc/profile

export HADOOP_HOME=/opt/hadoop-3.3.2
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH


source /etc/profile

截图如下:

六、配置主机的免密钥登录

配置本地免密钥登录:

cd /root

#如果本机没有登录过其他机器时,本地是没有/root/.ssh 文件夹的,只需要:ssh master 登录一次,就会自动创建了。

cd .ssh

ssh-keygen -t rsa

cat id_rsa.pub >> authorized_keys 

#测试免输入密码:

ssh master

截图如下:

七、初始化Hadoop

初始化之前,cd /opt/hadoop-3.3.2/sbin/,进入 sbin 目录,在 start-dfs.sh,stop-dfs.sh, start-yarn.sh,stop-yarn.sh 四个文件顶部添加参数,之后就可以使用 root 账号登陆 hdfs 和 yarn 了。

vim start-dfs.sh 和 vim stop-dfs.sh

#添加以下内容
HDFS_DATANODE_USER=root 
HADOOP_SECURE_DN_USER=hdfs 
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root

在start-dfs.sh以及stop-dfs.sh两个文件顶部添加如下参数:

同理,在start-yarn.sh以及stop-yarn.sh两个文件顶部添加如下参数:

vim start-yarn.sh 和 vim stop-yarn.sh

#添加以下内容

YARN_RESOURCEMANAGER_USER=root
HADOOP_SECURE_DN_USER=yarn
YARN_NODEMANAGER_USER=root

截图如下:

接下来开始初始化:

先格式化:在/opt/hadoop-3.3.2/etc/hadoop/ 路径下输入命令

cd /opt/hadoop-3.3.2/etc/hadoop/ hadoop namenode -format

输入后截图如下:

八、启动Hadoop并进行测试

start-dfs.sh

start-yarn.sh

启动成功截图如下:

测试相关HDFS命令:

列出HDFS目录下所有的文件

hadoop fs -ls /

在HDFS目录上新建一个test文件夹:

hadoop fs -mkdir /test

再次列出HDFS目录下所有文件

hadoop fs -ls /

截图如下:

登录namenode的HTTP前端web网页UI(port:9870),查看该网页前,请关闭防火墙(systemctl stop firewalld)

以上就是Hadoop3.3的伪分布安装搭建以及测试流程。

  • 20
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
分布式安装是在单台机器上模拟分布式安装方式,适用于学习和测试Hadoop的初学者。以下是分布式安装的步骤: 1. 首先,需要下载Hadoop安装包,并解压到本地的某个目录中。 2. 修改Hadoop的配置文件,主要包括以下几个文件: - core-site.xml:配置Hadoop的核心参数,如HDFS的名称节点地址、RPC端口等。 - hdfs-site.xml:配置HDFS的相关参数,如数据块大小、副本数量等。 - mapred-site.xml:配置MapReduce的相关参数,如JobTracker地址、TaskTracker数量等。 - yarn-site.xml:配置YARN的相关参数,如NodeManager地址、ResourceManager地址等。 3. 接着,需要创建Hadoop的数据目录和日志目录,并修改它们的权限: - mkdir -p /home/hadoop/data/hdfs/namenode - mkdir -p /home/hadoop/data/hdfs/datanode - mkdir -p /home/hadoop/logs/hdfs - chmod -R 777 /home/hadoop/data /home/hadoop/logs 4. 启动Hadoop的服务: - 启动HDFS:hadoop namenode -format && start-all.sh - 启动YARN:start-yarn.sh 5. 确认Hadoop的服务已经启动成功: - 使用jps命令查看Hadoop的进程:jps - 访问Hadoop的Web界面:http://localhost:50070/(HDFS)、http://localhost:8088/(YARN) 以上就是Hadoop分布式安装的步骤。需要注意的是,分布式安装只是为了模拟分布式环境,不能支持真正的分布式计算。如果需要在多台机器上运行Hadoop集群,需要进行完整的分布式安装

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值