为什么突然回头写这些基本的语法及使用操作呢。我觉得有一些细节还有待提高,希望通过我写的博客能带动更多的人,熟悉了解hadoop,熟悉了解大数据,让操作更流畅和便捷。对我而言也是一次回炉重塑的过程。哈哈...
安装部署,翻下我以前的帖子,伪分布式和分布式环境搭建,以及虚拟机的构建都已经写过了,在此就不多bb了。也可以参考官网的环境搭建过程:http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/ClusterSetup.html
hdfs 后面跟一些参数的这种写法,我之前也很少看到,无意中翻官网的时候发下的,试了一下,确实有点。哈哈。。。
官网链接:http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/CommandsManual.html
由于hadoop版本的不同,可能有略微的差别,如何使用这些命令呢?
下面我举两个例子,截图说明一下
上面两个截图便是例子,其实大数据中的各种组件,开发者已经写了很清楚的文档和说明解释了。在此我强烈建议英语一定要写好,要知道常见单词的含义,那样的话,学习计算机就会方便多了哦!不过话又说回来了,不会也不是说不能学的,因为我也不会英语。每一个命令和参数后面都有参数用例及解释,所以可以参考这些进行尝试哦!
授之以渔,不如授之以渔... 你学会了么?
常见的hdfs shell命令如下:
hadoop1.x以后,命令是 hadoop 开头的,hadoop fs,hadoop fs -ls / 等操作
hadoop2.x以后,命令有一些操作hdfs的,就变成了hdfs dfs ,hdfs dfs -ls /
但是hadoop2是兼容hadoop1的,并且进程,资源管理也做了一定的优化。
我们经常使用的就是hdfs dfs 后续跟一些操作hdfs文件系统的命令参数,使用手法如下:
这些语法都是简单的操作hdfs 文件系统的一些参数哦,有一部分你会发现和linux命令是雷同的哦,只是多加了一个 “-” 而已。
不要眼高手低哦,这些命令尽可能的都试一下,避免以后用的时候忘记,就算忘记,你也要知道,可以查看帮组哦,不知道输入什么参数的时候,回车一下,会有惊喜哦...
我们都知道,大数据hadoop分为两块,多副本文件存储hdfs和批处理MapReduce,那么我怎样用shell提交任务呢?hadoop一下回车,你就会发现,run a jar file 是什么意思呢?就是启动一个任务呗... 至此你已经学会了hdfs的shell操作...
想了解更多shell操作,怎么办呢?
看一下安装目录的sbin下面,不仅仅有启动关闭脚本,也可以有一些其他的脚本哦。比如说对集群的一些操作,比如说把操作分布进行....
你学会了吗?