Hadoop单机伪分布式安装(完整版)

在学习Hadoop时,我发现网上的各种安装的资料要不不全,要不前后不匹配(比如有的是伪分布式,有的是完全分布式)。此篇文章,我总结了身边的同学在安装Hadoop时遇到的毛病,在前面安装配置环节,尽可能使用最优化的处理方式,以便于我们后续hbase的安装和使用。

前言:我所使用的Hadoop版本为Hadoop 2.10.1,jdk版本为jdk1.8.0_112, hbase版本为hbase2.3.3。在版本选择时,你们可以选择与我不同的版本,但记得一定要考虑版本的兼容性。说不多说,我们开始进行Hadoop单机伪分布安装吧!

一、创建Hadoop用户并设置密码

[用户名@localhost ~] $ su root
[root@localhost 用户名] # useradd  –m  hadoop  –s  /bin/bash
[root@localhost 用户名] # passwd  hadoop

在这里插入图片描述

二、安装jdk

(1) 查看jdk版本

[root@localhost 用户名] # rpm –qa | grep  jdk

在这里插入图片描述

(2)删除原先自带的jdk

[root@localhost 用户名] # rpm  –qa | grep  –i  java | xargs  -n1  rpm  -e  --nodeps
[root@localhost 用户名] # rpm  –qa | grep  –i  java
[root@localhost 用户名] # reboot

在这里插入图片描述

(3)在/opt目录下分别新建modules和software目录。

建两个文件夹的原因是:software文件夹存放要解压的文件,modules文件夹存放解压之后的文件。

[root@localhost 用户名] # cd  /opt
[root@localhost opt] # mkdir  modules
[root@localhost opt] # mkdir  software

在这里插入图片描述

(4)将要用到的压缩包移到/opt/software文件夹下,解压缩jdk,并移动到modules目录下

[root@localhost software] # tar  –zxvf  jdk-8u112-linux –x64.tar.gz 

在这里插入图片描述在这里插入图片描述
查看一下jdk解压之后的版本,并将其移动到/opt/modules文件夹里

[root@localhost software] # mv  jdk1.8.0_112   /opt/modules

在这里插入图片描述

(5)配置Java环境变量

[root@localhost modules] # vi  /etc/profile
#要增加的内容:
export  JAVA_HOME=/opt/modules/jdk1.8.0_112
export  PATH=$JAVA_HOME/bin:$PATH

在这里插入图片描述

[root@localhost modules] # cat  /etc/profile

#添加了JAVA_HOME和PATH路径,用cat命令查看文件内容修改成功。

在这里插入图片描述在这里插入图片描述

用source命令在当前bash环境下读取并执行/etc/profille中的命令,用java-version检查环境变量配置成功。

[root@localhost modules] # source  /etc/profile
[root@localhost modules] # java  -version

在这里插入图片描述

三、安装配置SSH

(1) 检查SSH是否安装

[root@localhost ~] # rpm  -qa| grep ssh

在这里插入图片描述

(2) 修改sshd配置文件

[root@localhost ~] # vim  /etc/ssh/sshd_config

在这里插入图片描述

以下图片是需要修改的地方

在这里插入图片描述

(3) 重启sshd服务

[root@localhost ~] # service sshd restart

在这里插入图片描述

(4) 生成公钥和私钥

[root@localhost ~] # ssh-keygen  -t rsa
[root@localhost ~] # cd .ssh
[root@localhost .ssh] # ls

在这里插入图片描述生成authorized_keys并查看

[root@localhost .ssh]# cat id_rsa.pub >> authorized_keys

修改密钥文件的相应权限

[root@localhost .ssh]# chmod 600 ./ authorized_keys

在这里插入图片描述

(5) 使用ssh localhost登录,测试是否可以免密登录

[root@localhost .ssh]# ssh localhost  (第一次免密登录,看是否成功)
[root@localhost .ssh]# ssh localhost  (第二次免密登录,测试是否稳定)
[root@localhost .ssh]# exit   (退出)

在这里插入图片描述

四、安装hadoop

(1)在software里解压Hadoop

[root@localhost ~]# cd /opt/software
[root@localhost software]# ls
[root@localhost software]# tar zxvf hadoop-2.10.1.tar.gz

在这里插入图片描述

解压之后的文件重命名为hadoop,以便于后续使用

[root@localhost software]# ls      (查看解压之后的结果)
[root@localhost software]# mv hadoop 2.10.1 hadoop      (解压包重命名为hadoop)
[root@localhost software]# mv hadoop /opt/modules      (将hadoop移动到modules文件夹内)

在这里插入图片描述

(2)为Hadoop用户赋予hadoop文件夹的权限

[root@localhost modules]# chown –R  hadoop  ./hadoop

(3)查看hadoop版本信息

[root@localhost modules]# ./hadoop/bin/hadoop version

在这里插入图片描述

五、Hadoop的伪分布式安装

(1)切换用户到hadoop用户,编辑~/.bashrc文件

[root@localhost modules]#  su hadoop
[hadoop@localhost modules]$ vim ~/.bashrc

在这里插入图片描述

#要增加的内容:
export HADOOP_HOME=/opt/modules/hadoop
export HADOO_INSTALL=$HADOOP_HOME
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export JAVA_HOME=/opt/modules/jdk1.8.0_112

在这里插入图片描述
Source命令使文件配置生效。

[hadoop@localhost modules]$ source ~/.bashrc

在这里插入图片描述

(2)修改core-site.xml和hdfs-site.xml配置文件

在这里插入图片描述

[hadoop@localhost hadoop]$ vim ./etc/hadoop/core-site.xml
#要增加的内容:
<configuration>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/opt/modules/hadoop/tmp</value>
                <description>Abase for other temporary directories.</description>
        </property>
        <property>
                <name>fs.default.name</name>
                <value>hdfs://localhost:9000</value>
        </property>
</configuration>

在这里插入图片描述

[hadoop@localhost hadoop]$ vim ./etc/hadoop/hdfs-site.xml
#要增加的内容:
<configuration>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>/opt/modules/hadoop/tmp/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>/opt/modules/hadoop/tmp/dfs/data</value>
        </property>
        <property>
                <name>dfs.permissions.enabled</name>
                <value>false</value>
        </property>
</configuration>

在这里插入图片描述

(3)格式化namenode

[hadoop@localhost hadoop]$ ./bin/hdfs namenode -format

在这里插入图片描述在这里插入图片描述

(4) 配置hadoop用户下的免密登录

1、 在Hadoop用户下重启sshd服务

[hadoop@localhost hadoop]$ service sshd restart

在这里插入图片描述

2、 生成公钥和私钥

[hadoop@localhost hadoop]$ ssh –keygen  -t rsa 

在这里插入图片描述

3、生成authorized_keys并查看

[hadoop@localhost hadoop]$ cat id_rsa.pub >> authorized_keys

在这里插入图片描述

4、修改密钥文件的相应权限

[hadoop@localhost hadoop]$ chmod 600 ./ authorized_keys

在这里插入图片描述

此时Hadoop用户就可以实现免密登录了

六、启动hadoop

[hadoop@localhost hadoop]$ ./sbin/start-dfs.sh

在这里插入图片描述

七、关闭Hadoop

[hadoop@localhost hadoop]$ ./sbin/stop-dfs.sh

在这里插入图片描述

Hadoop单机伪分布式安装就这样完成了,安装成功的你是不是成就满满呢。如果这篇文章对你有帮助的话,欢迎一键三连,我们一起进步。

  • 4
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
分布式安装是在单台机器上模拟分布式安装方式,适用于学习和测试Hadoop的初学者。以下是分布式安装的步骤: 1. 首先,需要下载Hadoop安装包,并解压到本地的某个目录中。 2. 修改Hadoop的配置文件,主要包括以下几个文件: - core-site.xml:配置Hadoop的核心参数,如HDFS的名称节点地址、RPC端口等。 - hdfs-site.xml:配置HDFS的相关参数,如数据块大小、副本数量等。 - mapred-site.xml:配置MapReduce的相关参数,如JobTracker地址、TaskTracker数量等。 - yarn-site.xml:配置YARN的相关参数,如NodeManager地址、ResourceManager地址等。 3. 接着,需要创建Hadoop的数据目录和日志目录,并修改它们的权限: - mkdir -p /home/hadoop/data/hdfs/namenode - mkdir -p /home/hadoop/data/hdfs/datanode - mkdir -p /home/hadoop/logs/hdfs - chmod -R 777 /home/hadoop/data /home/hadoop/logs 4. 启动Hadoop的服务: - 启动HDFShadoop namenode -format && start-all.sh - 启动YARN:start-yarn.sh 5. 确认Hadoop的服务已经启动成功: - 使用jps命令查看Hadoop的进程:jps - 访问Hadoop的Web界面:http://localhost:50070/(HDFS)、http://localhost:8088/(YARN) 以上就是Hadoop分布式安装的步骤。需要注意的是,分布式安装只是为了模拟分布式环境,不能支持真正的分布式计算。如果需要在多台机器上运行Hadoop集群,需要进行完整的分布式安装

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值