Hadoop Hdfs配置过程全程报道

在学习Hadoop的过程中,你可能会遇到Hadoop Hdfs配置问题,本节就接着上节和大家继续分享一下Hadoop Hdfs配置方法,相信通过本节的学习你一定会对Hadoop的配置有新的认识。下面是具体步骤接介绍。

1、配置slaves,修改conf/slaves
data-dfs
复制hadoop-2.20.1目录以及所有文件到DataNode和Client
scp-rp/data/soft/hadoop-2.20.1192.168.1.12:/data/soft
scp-rp/data/soft/hadoop-2.20.1192.168.1.13:/data/soft

2、格式化Hdfs文件系统namenode,进入hadoop目录

[master@hadoop]$bin/hadoopnamenode-format输入Y,(注意区分大小写.这里一定要输入大写的Y,否刚不会成功format文件系统)
不出意外,应该会提示格式化成功。如果不成功,就去hadoop/logs/目录下去查看日志文件。

3、启动Hdfs分布式文件系统
Hadoop Hdfs配置时还要启动Hdfs分布式文件系统。进入hadoop目录,在bin/下面有很多启动脚本,可以根据自己的需要来启动。
*start-all.sh启动所有的Hadoop守护。包括namenode,datanode,jobtracker,tasktrack
*stop-all.sh停止所有的Hadoop
*start-mapred.sh启动Map/Reduce守护。包括Jobtracker和Tasktrack
*stop-mapred.sh停止Map/Reduce守护
*start-dfs.sh启动HadoopDFS守护.Namenode和Datanode
*stop-dfs.sh停止DFS守护

启动所有守护
[master@hadoop]bin/start-all.sh//会自动找到conf/slaves文件里的IP或者机器名,启动相应的slaves服务端
同样,如果要停止hadoop,则[master@hadoop]$bin/stop-all.sh

4、HDFS操作
再来看一下Hadoop Hdfs配置过程中对HDFS进行的操作。进入Hadoop目录,运行bin/目录的hadoop命令,可以查看Haoop所有支持的操作及其用法,这里以几个简单的操作为例。

建立目录
[master@hadoop]$bin/hadoopdfs-mkdirtestdir
在HDFS中建立一个名为testdir的目录

复制文件
[master@hadoop]$bin/hadoopdfs-put
/home/dbrg/large.ziptestfile.zip
把本地文件large.zip拷贝到HDFS的根目录/user/dbrg/下,文件名为testfile.zip

查看现有文件
[master@hadoop]$bin/hadoopdfs-ls
行hadoop程序时,中途我把它终止了,然后再向hdfs加文件或删除文件时,出现Namenodeisinsafemode错误:
rmr:org.apache.hadoop.dfs.SafeModeException:Cannotdelete/user/hadoop/input.Namenodeisinsafemode
解决的命令:
bin/hadoopdfsadmin-safemodeleave#关闭safemode。本就关于Hadoop Hdfs配置方面的内容就介绍到这里

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值