Hadoop伪分布式搭建(hadoop2.x通用)

先说下我的环境 centos7.6(64位)

安装包准备:

jdk-8u231-linux-x64.tar.gz

hadoop-2.6.5.tar.gz

如果读者使用的是 ubuntu 或者其他 linux 版本,思路和本文一样,只不过命令略有出入。

1. 先关闭防火墙(建议)

执行 systemctl stop firewalld.service

# 查看是否防火墙是否关闭
[root@lft soft]# systemctl status firewalld
● firewalld.service - firewalld - dynamic firewall daemon
   Loaded: loaded (/usr/lib/systemd/system/firewalld.service; disabled; vendor preset: enabled)
   Active: inactive (dead)
     Docs: man:firewalld(1)

2. 配置免密钥

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

在这里插入图片描述

3. 解压安装jdk和hadoop并配置环境变量

(1)解压jdk并配置环境变量
tar -xf jdk-8u231-linux-x64.tar.gz

[root@lft jdk1.8.0_231]# pwd
/root/soft/jdk1.8.0_231
[root@lft jdk1.8.0_231]# vim /etc/profile
# 在文件末尾追加
export JAVA_HOME=/root/soft/jdk1.8.0_231
export CLASSPATH=$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:. 
PATH=$PATH:$JAVA_HOME
# 使配置生效
[root@lft jdk1.8.0_231]# source /etc/profile
# 查看成功没有
[root@lft jdk1.8.0_231]# java -version
openjdk version "1.8.0_262"
OpenJDK Runtime Environment (build 1.8.0_262-b10)
OpenJDK 64-Bit Server VM (build 25.262-b10, mixed mode)

(2)解压hadoop并配置环境变量
tar -xf hadoop-2.6.5.tar.gz

export HADOOP_HOME=/root/soft/hadoop-2.6.5
PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

(3)二次配置 JAVA_HOME 环境变量

../xx/hadoop-2.6.5/etc/hadoop/下面的这三个文件里的 JAVA_HOME 的值改成刚刚配置的:export JAVA_HOME=/root/soft/jdk1.8.0_231

vi hadoop-env.sh
vi mapred-env.sh
vi yarn-env.sh

4. 配置core-site.xml

修改../xx/hadoop-2.6.5/etc/hadoop/下的 core-site.xml文件
vi core-site.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://lft:9000</value>
        <!-- 以上ip地址或主机名要按实际情况修改 -->
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/var/lft/hadoop/local</value>
    </property>
</configuration>

5. 配置hdfs-site.xml

修改../xx/hadoop-2.6.5/etc/hadoop/下的 hdfs-site.xml文件
vi hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>lft:50090</value>
        <!-- 以上ip地址或主机名要按实际情况修改 -->
    </property>
</configuration>

6. 配置mapred-site.xml

修改../xx/hadoop-2.6.5/etc/hadoop/下的 mapred-site.xml.template文件
先更名,后配置
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml

<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

7. 配置yarn-site.xml

修改../xx/hadoop-2.6.5/etc/hadoop/下的 yarn-site.xml文件
vi yarn-site.xml

    <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>lft</value>
        <!-- 以上主机名或IP地址按实际情况修改 -->
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

8. 配置slaves文件

修改../xx/hadoop-2.6.5/etc/hadoop/下的 slaves文件

vi slaves

该文件只编辑一行内容即可:lft(localhost也行,我这个改为自己配的主机名)

9. 格式化hdfs

hdfs namenode -format (只能格式化一次,再次启动集群不要执行)

10. 启动集群并验证环境是否成功搭建

10.1 启动hdfs

start-dfs.sh

(1)角色进程查看:jps

在这里插入图片描述

帮助: hdfs 
      hdfs dfs 	

(2)浏览器查看web UI: http://你的IP:50070

在这里插入图片描述

10.2 启动yarn

start-yarn.sh
在这里插入图片描述
WEB UI 输入 http://你的ip:8088
在这里插入图片描述

Over…

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值