Hadoop完全分布式搭建过程(详细)

本文详述了在 CentOS 系统中搭建 Hadoop 完全分布式环境的步骤,包括静态 IP 设置、主机名修改、防火墙关闭、时间同步、SSH 免密登录配置、JDK 安装、Hadoop 安装及配置、文件分发、环境变量设置,最后通过启动 HDFS 和 YARN 成功启动 Hadoop 集群,并可通过 50070 端口访问。
摘要由CSDN通过智能技术生成

准备工作

  • 1.VMware 15.1
  • 2.jdk(我这里是32位的,大家根据自己的虚拟机情况进行选择,后边会说)
  • 3.hadoop

1 静态ip设置

静态网络详细过程

2 修改主机名称

vim /etc/sysconfig/network

在这里插入图片描述

3 添加映射关系

三台虚拟机均需要执行下面的操作

vim /etc/hosts

在这里插入图片描述

通过ping hadoop02/1/3查看能否ping通
在这里插入图片描述
注意:映射关系配置完成后三台虚拟机是可以相互ping通的

4 关闭防火墙

永久关闭(三台电脑都要执行此操作)

chkconfig iptables off

在这里插入图片描述
关闭selinux

vim /etc/selinux/config

在这里插入图片描述

重启电脑查看防火墙是否关闭
centos7及以上版本的chkconfig指令改为systemctl

5 同步时间

(1)安装ntpdate工具(三台都需要)
在这里插入图片描述
(2)设置与网络事件同步
在这里插入图片描述

(3)系统时间写入硬件时间
在这里插入图片描述

6 设置ssh免密登录

在root用户下输入ssh-keygen -t rsa 一路回车
在这里插入图片描述
秘钥生成后在~/.ssh/目录下,有两个文件id_rsa(私钥)和id_rsa.pub(公钥),将公钥复制到authorized_keys在这里插入图片描述
赋予authorized_keys600权限
在这里插入图片描述
同理在hadoop02和hadoop03节点上进行相同的操作,然后将公钥复制到master节点上的hadoop01的authorized_keys中
在这里插入图片描述
将hadoop01节点上的authoized_keys远程传输到hadoop02和hadoop03的~/.ssh/目录下

scp ~/.ssh/authorized_keys root@hadoop02:~/.ssh/

检查是否免密登录(第一次可能需要密码)
在这里插入图片描述

7 安装jdk

注意:安装前一定要看看自己的虚拟机到底是32位还是64位的,不要装错了
在这里插入图片描述出现x86_64说明是64位的,像我这样没有出现说明是32位的
三个节点安装java并配置java环境变量
在这里插入图片描述
解压压缩包
在这里插入图片描述
在/etc/profile文件里添加jdk路径
在这里插入图片描述

  • 17
    点赞
  • 138
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是 Hadoop 完全分布式搭建详细流程: 1. 准备工作 在开始搭建之前,需要准备好以下工作: - 安装好 Java 环境,并配置好 JAVA_HOME 环境变量。 - 下载 Hadoop 的稳定版本,并解压缩到指定目录。 2. 配置 Hadoop 进入 Hadoop 的解压目录,找到 conf 目录下的 hadoop-env.sh 文件,编辑此文件,将 JAVA_HOME 设置为你的 Java 安装目录。 接着,编辑 core-site.xml 文件,添加以下配置: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 其中,fs.defaultFS 指定 Hadoop 的默认文件系统,此处设置为 HDFS 的服务地址为 localhost:9000。 接着,编辑 hdfs-site.xml 文件,添加以下配置: ``` <configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/path/to/hadoop-data/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/path/to/hadoop-data/datanode</value> </property> </configuration> ``` 其中,dfs.replication 指定了数据块的副本数量,此处设置为 2;dfs.namenode.name.dir 指定了 NameNode 存储数据的目录;dfs.datanode.data.dir 指定了 DataNode 存储数据的目录。 3. 配置 SSH Hadoop分布式环境下需要使用 SSH 远程连接节点,因此需要配置 SSH。 首先,检查本机是否已经安装了 SSH,如果没有安装,则需要安装 SSH。 接着,生成 SSH 公钥和私钥: ``` ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa ``` 这个命令会在 ~/.ssh 目录下生成 id_rsa 和 id_rsa.pub 两个文件,其中 id_rsa 为私钥,id_rsa.pub 为公钥。 将公钥拷贝到所有节点上,并将其添加到 authorized_keys 文件中: ``` ssh-copy-id user@node1 ssh-copy-id user@node2 ... ``` 4. 启动 Hadoop 启动 Hadoop 集群前,需要先格式化 NameNode,该操作会清空 NameNode 存储的所有数据: ``` bin/hdfs namenode -format ``` 接着,启动 Hadoop: ``` sbin/start-all.sh ``` 此时,Hadoop 集群就启动成功了。你可以通过以下命令查看 Hadoop 运行状态: ``` jps ``` 其中,NameNode 和 DataNode 分别代表 NameNode 和 DataNode 的进程。 5. 测试 Hadoop 最后,可以通过以下命令测试 Hadoop: ``` bin/hadoop fs -mkdir /test bin/hadoop fs -put /path/to/local/file /test/file bin/hadoop fs -cat /test/file ``` 其中,第一条命令是在 HDFS 中创建一个 test 目录,第二条命令是将本地文件上传到 HDFS 中,第三条命令是查看 HDFS 中的文件内容。 至此,Hadoop 完全分布式搭建的流程就结束了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值