Hadoop集群启动HDFS

本文详细介绍了在Linux环境下,如何启动Hadoop HDFS集群。首先,需要关闭防火墙,设置三台不同IP的虚拟机,安装JDK1.7以上版本,以及Zookeeper单机和集群。接着,确保SSH服务可以免密登录,创建并解压Hadoop文件,配置相关环境变量和配置文件。完成这些准备工作后,进行namenode、datanode和secondarynamenode的格式化与启动。最后,通过两种命令验证HDFS运行状态。
摘要由CSDN通过智能技术生成

压缩包下载地址:https://archive.apache.org/dist/hadoop/common/

准备工作:

(一)关闭防火墙
(二)三台IP不同的虚拟机:

详情见:Linux修改IP地址

(三)java环境(JDK1.7以上版本):

详情见:Linux下安装JDK

(四)Zookeeper单机和集群:

详情见:手把手带你搭建Zookeeper单机和集群

(五)有ssh服务并且可以免密登录:

详情见:Linux设置ssh免密登录

 
注:准备就绪后开始,分别在三台虚拟机上操作

创建文件夹:
mkdir /usr/local/hadoop
解压:
tar -zxvf hadoop-2.9.2.tar.gz -C /usr/local/hadoop
修改hadoop配置文件:
cd /usr/local/hadoop/hadoop-2.9.2/etc/hadoop/

                
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值