hadoop中HDFS 配置

本文详细介绍了如何解压、配置并部署Hadoop 2.5.0,包括删除多余文件、设置JAVA_HOME、配置核心和HDFS站点,格式化文件系统,启动namenode和datanode,以及创建伪分布集群的过程。
摘要由CSDN通过智能技术生成

1、解压hadoop包

tar -zxv hadoop.tar.gz -C /opt/moudle

2、删除不必要的文件

进入:/opt/modules/hadoop-2.5.0/share

删除 rm -rf ./doc/

进入:/opt/modules/hadoop-2.5.0/etc/hadoop

删除:rm -rf ./*.cmd (cmd文件是windows下的)

3、配置HDFS中JAVA_HOME

查看JAVA_HOME环境变量的路径

echo $JAVA_HOME

修改配置文件中的JAVA_HOME路径

hadoop-env.sh

mapred-env.sh

yarn-env.sh

4、配置核心网站的文件(core-site.xml、hdfs-site.xml)

查看(官网:https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/SingleCluster.html#Pseudo-Distributed_Operation)

/opt/modules/hadoop-2.5.0/etc/hadoop/core-site.xml

<configuration> <property> <name> fs.defaultFS </ name> <value> hdfs://主机名:9000 </ value> </ property> </ configuration>

/opt/modules/hadoop-2.5.0/etc/hadoop/hdfs-site.xml

<configuration> <property> <name> dfs.replication </ name> <value> 1 </ value> //显示的副本数 </ property> </ configuration>

5、格式化文件系统

bin/hdfs namenode -format

6、启动namenode和datanode

在/opt/modules/hadoop-2.5.0目录下执行

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

或者

sbin /start-dfs.sh

7、浏览Web界面以查找NameNode;

http://bigdata-pro01.kfk.com:50070

如页面没加载成功,查看防火墙是否关闭

输入service  iptables stop(暂时关闭防火墙命令)  || 也可永久关闭:chkconfig iptables off

8、伪分布集群

scp -r hadoop-2.5.0/ kfk@bigdata-pro02.kfk.com:/opt/modules/

启动namenode和datanode

sbin/hadoop-daemon.sh start namenode

sbin/hadoop-daemon.sh start datanode

scp -r hadoop-2.5.0/ kfk@bigdata-pro03.kfk.com:/opt/modules/

启动datanode

sbin/hadoop-daemon.sh start datanode

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值