hadoop常用命令

http://localhost:50070

(localhost

也可是

master

ip)

jps//OS

级查看

hadoop

进程

二、文件操作

Hadoopfs

选项

(

应用较广,包括本地文件系统

)

,推荐

hdfs

对应命令

dfs

bin/hdfsdfsadmin

report//

查看节点运行状态

bin/hdfsdfs-mkdir/t2//

hdfs

根目录创建子目录

t2

bin/hdfsdfs-ls///

列出目录

bin/hdfsdfs

-put/hadoop/hadoop/test4178.txt/t2//

上传本地文件到

HDFS

T2

bin/hdfsdfs-get

/t3/test2/

下载

test2

到本地根目录

位置相反

bin/hdfsdfs-cat/t2/test2//

显示文件内容

bin/hadoopfs

-put/hadoop/hadoop/test4178.txt

/t2

//cp

本地文件到

HDFS

T2

bin/hdfsdfs-rmdir/t2//

删除非空目录

bin/hdfsdfs-rm/t2/test2//

删除文件,

bin/hdfsdfs

rm-r/t2//

删除目录及其下所有文件,

bin/hadoopdfs-cat/ctom4178/test4178.txt

1

、列出所有

HadoopShell

支持的命令

$bin/hadoopfs-help

2

、显示关于某个命令的详细信息

$bin/hadoopfs-helpcommand-name

3

、用户可使用以下命令在指定路径下查看历史日志汇总

$bin/hadoopjob-historyoutput-dir

这条命令会显示作业的细节信息,失败和终止的任务细节。

4

、关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下

面的命令查看

$bin/hadoopjob-historyalloutput-dir

5

、格式化一个新的分布式文件系统:

$bin/hadoopnamenode-format

6

、在分配的

NameNode

上,运行下面的命令启动

HDFS

$bin/start-dfs.sh

bin/start-dfs.sh

脚本会参照

NameNode

${HADOOP_CONF_DIR}/slaves

文件的内容,在所

有列出的

slave

上启动

DataNode

守护进程。

7

、在分配的

JobTracker

上,运行下面的命令启动

Map/Reduce

$bin/start-mapred.sh

bin/start-mapred.sh

脚本会参照

JobTracker

${HADOOP_CONF_DIR}/slaves

文件的内容,

所有列出的

slave

上启动

TaskTracker

守护进程。

8

、在分配的

NameNode

上,执行下面的命令停止

HDFS

$bin/stop-dfs.sh

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值