hadoop之hdfs shell操作

       为什么突然回头写这些基本的语法及使用操作呢。我觉得有一些细节还有待提高,希望通过我写的博客能带动更多的人,熟悉了解hadoop,熟悉了解大数据,让操作更流畅和便捷。对我而言也是一次回炉重塑的过程。哈哈... 

      安装部署,翻下我以前的帖子,伪分布式和分布式环境搭建,以及虚拟机的构建都已经写过了,在此就不多bb了。也可以参考官网的环境搭建过程:http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html

hdfs 后面跟一些参数的这种写法,我之前也很少看到,无意中翻官网的时候发下的,试了一下,确实有点。哈哈。。。

官网链接:http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/CommandsManual.html

由于hadoop版本的不同,可能有略微的差别,如何使用这些命令呢?

下面我举两个例子,截图说明一下

上面两个截图便是例子,其实大数据中的各种组件,开发者已经写了很清楚的文档和说明解释了。在此我强烈建议英语一定要写好,要知道常见单词的含义,那样的话,学习计算机就会方便多了哦!不过话又说回来了,不会也不是说不能学的,因为我也不会英语。每一个命令和参数后面都有参数用例及解释,所以可以参考这些进行尝试哦!

授之以渔,不如授之以渔... 你学会了么?

 

常见的hdfs shell命令如下:

hadoop1.x以后,命令是 hadoop 开头的,hadoop fs,hadoop fs -ls / 等操作

hadoop2.x以后,命令有一些操作hdfs的,就变成了hdfs dfs ,hdfs dfs -ls /

但是hadoop2是兼容hadoop1的,并且进程,资源管理也做了一定的优化。

我们经常使用的就是hdfs dfs 后续跟一些操作hdfs文件系统的命令参数,使用手法如下:

这些语法都是简单的操作hdfs 文件系统的一些参数哦,有一部分你会发现和linux命令是雷同的哦,只是多加了一个 “-” 而已。

不要眼高手低哦,这些命令尽可能的都试一下,避免以后用的时候忘记,就算忘记,你也要知道,可以查看帮组哦,不知道输入什么参数的时候,回车一下,会有惊喜哦...

我们都知道,大数据hadoop分为两块,多副本文件存储hdfs和批处理MapReduce,那么我怎样用shell提交任务呢?hadoop一下回车,你就会发现,run a jar file 是什么意思呢?就是启动一个任务呗... 至此你已经学会了hdfs的shell操作...

想了解更多shell操作,怎么办呢?

看一下安装目录的sbin下面,不仅仅有启动关闭脚本,也可以有一些其他的脚本哦。比如说对集群的一些操作,比如说把操作分布进行....

 

你学会了吗?

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

MrZhangBaby

请博主喝杯奶茶

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值