Hadoop帮助命令一

[hadoop@hadoop001 /]$ hadoop
Usage: hadoop [--config confdir] [COMMAND | CLASSNAME]
  CLASSNAME            run the class named CLASSNAME
 or
  where COMMAND is one of:
  fs                   run a generic filesystem user client
   -- 打印的版本
  version              print the version
  -- 运行jar包
  jar <jar>            run a jar file note: please use "yarn jar" to launch
                        
 YARN applications, not this command.
   -- 检查本机hadoop和压缩库可用性。 

  checknative [-a|-h]  check native hadoop and compression libraries availability
  distcp <srcurl> <desturl> copy file or directories recursively
  archive -archiveName NAME -p <parent path> <src>* <dest> create a hadoop archive
 -- Hadoop jar加载的库
  classpath            prints the class path needed to get the
                       Hadoop jar and the required libraries
  credential           interact with credential providers
  daemonlog            get/set the log level for each daemon
  trace                view and modify Hadoop tracing settings


hadoop添加jar包
[hadoop@hadoop001 hadoop]$ vim  hadoop-env.sh
# Extra Java CLASSPATH elements.  Automatically insert capacity-scheduler.
for f in $HADOOP_HOME/contrib/capacity-scheduler/*.jar; do
  if [ "$HADOOP_CLASSPATH" ]; then
    export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$f
  else
    export HADOOP_CLASSPATH=$f
  fi
done

1、直接在 $HADOOP_HOME/contrib/capacity-scheduler/ 目录下添加jar
2、重新付给HADOOP_CLASSPATH变量,每台机器计算都要添加
     export HADOOP_CLASSPATH=/xxx/xx.jar:$HADOOP_CLASSPATH

------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------
[hadoop@hadoop001 hadoop]$ hdfs
Usage: hdfs [--config confdir] [--loglevel loglevel] COMMAND
       where COMMAND is one of:
  dfs                  run a filesystem command on the file systems supported in Hadoop.
  classpath            prints the classpath
  namenode -format     format the DFS filesystem
  secondarynamenode    run the DFS secondary namenode
  namenode             run the DFS namenode
  journalnode          run the DFS journalnode
  zkfc                 run the ZK Failover Controller daemon
  datanode             run a DFS datanode
  debug                run a Debug Admin to execute HDFS debug commands
  dfsadmin             run a DFS admin client
  haadmin              run a DFS HA admin client
   -- 检查文件损坏的块

  fsck                 run a DFS filesystem checking utility
  balancer             run a cluster balancing utility
  jmxget               get JMX exported values from NameNode or DataNode.
  mover                run a utility to move block replicas across
                       storage types
  oiv                  apply the offline fsimage viewer to an fsimage
  oiv_legacy           apply the offline fsimage viewer to an legacy fsimage
  oev                  apply the offline edits viewer to an edits file
  fetchdt              fetch a delegation token from the NameNode
  getconf              get config values from configuration
  groups               get the groups which users belong to
  snapshotDiff         diff two snapshots of a directory or diff the
                       current directory contents with a snapshot
  lsSnapshottableDir   list all snapshottable dirs owned by the current user
                                                Use -help to see options
  portmap              run a portmap service
  nfs3                 run an NFS version 3 gateway
  cacheadmin           configure the HDFS cache
  crypto               configure HDFS encryption zones
  storagepolicies      list/get/set block storage policies
  version              print the version

------------------------------------------------------------------------------------------------------
------------------------------------------------------------------------------------------------------

[hadoop@hadoop001 /]$ hdfs dfs
Usage: hadoop fs [generic options]
        [-appendToFile <localsrc> ... <dst>]
        [-cat [-ignoreCrc] <src> ...]
        [-checksum <src> ...]
        [-chgrp [-R] GROUP PATH...]
        [-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...]
        [-chown [-R] [OWNER][:[GROUP]] PATH...]
        [-copyFromLocal [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
        [-copyToLocal [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-count [-q] [-h] [-v] [-t [<storage type>]] [-u] [-x] <path> ...]
        [-cp [-f] [-p | -p[topax]] [-d] <src> ... <dst>]
        [-createSnapshot <snapshotDir> [<snapshotName>]]
        [-deleteSnapshot <snapshotDir> <snapshotName>]
        [-df [-h] [<path> ...]]
        [-du [-s] [-h] [-x] <path> ...]
        [-expunge]
        [-find <path> ... <expression> ...]
        -- 下载
        [-get [-f] [-p] [-ignoreCrc] [-crc] <src> ... <localdst>]
        [-getfacl [-R] <path>]
        [-getfattr [-R] {-n name | -d} [-e en] <path>]
        [-getmerge [-nl] [-skip-empty-file] <src> <localdst>]
        [-help [cmd ...]]
        [-ls [-C] [-d] [-h] [-q] [-R] [-t] [-S] [-r] [-u] [<path> ...]]
        [-mkdir [-p] <path> ...]
        [-moveFromLocal <localsrc> ... <dst>]
        [-moveToLocal <src> <localdst>]
        [-mv <src> ... <dst>]
        -- 上传
        [-put [-f] [-p] [-l] [-d] <localsrc> ... <dst>]
        [-renameSnapshot <snapshotDir> <oldName> <newName>]
        [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
        [-rmdir [--ignore-fail-on-non-empty] <dir> ...]
        [-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]]
        [-setfattr {-n name [-v value] | -x name} <path>]
        [-setrep [-R] [-w] <rep> <path> ...]
        [-stat [format] <path> ...]
        [-tail [-f] <file>]
        [-test -[defsz] <path>]
        [-text [-ignoreCrc] <src> ...]
        [-touchz <path> ...]
        [-truncate [-w] <length> <path> ...]
        [-usage [cmd ...]]

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/31441024/viewspace-2154934/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/31441024/viewspace-2154934/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 以下是Hadoop Shell命令大全: 1. hadoop fs -ls:列出HDFS上的文件和目录 2. hadoop fs -mkdir:创建一个新目录 3. hadoop fs -put:将本地文件上传到HDFS 4. hadoop fs -get:从HDFS下载文件到本地 5. hadoop fs -rm:删除HDFS上的文件或目录 6. hadoop fs -cat:查看HDFS上的文件内容 7. hadoop fs -tail:查看HDFS上文件的末尾内容 8. hadoop fs -du:查看HDFS上文件或目录的大小 9. hadoop fs -chmod:更改HDFS上文件或目录的权限 10. hadoop fs -chown:更改HDFS上文件或目录的所有者 11. hadoop fs -chgrp:更改HDFS上文件或目录的所属组 12. hadoop fs -touchz:在HDFS上创建一个空文件 13. hadoop fs -count:统计HDFS上文件或目录的数量和大小 14. hadoop fs -mv:移动HDFS上的文件或目录 15. hadoop fs -cp:复制HDFS上的文件或目录 16. hadoop fs -setrep:更改HDFS上文件或目录的副本数 17. hadoop fs -test:检查HDFS上文件或目录的存在性 18. hadoop fs -expunge:清空HDFS上的回收站 19. hadoop fs -lsr:递归列出HDFS上的文件和目录 20. hadoop fs -checksum:计算HDFS上文件的校验和 希望这些命令能够帮助您更好地使用Hadoop Shell。 ### 回答2: Hadoop是一个开源的分布式处理框架,主要用于处理大规模数据的存储和计算。Hadoop Shell是操作Hadoop集群的命令行工具,它提供了一系列的命令,可以用于管理Hadoop集群、查看HDFS文件系统等操作。下面是Hadoop Shell命令的详细介绍。 1. hdfs命令 hdfs命令可以用于管理HDFS文件系统,包括查看文件、创建文件、删除文件等操作。常用的hdfs命令有: - ls:查看HDFS文件系统的文件列表。 - mkdir:创建HDFS文件系统的目录。 - copyFromLocal:将本地文件复制到HDFS文件系统中。 - copyToLocal:将HDFS文件系统的文件复制到本地。 - rm:删除HDFS文件系统中的文件。 - chmod:修改HDFS文件系统中文件的权限。 - chown:修改HDFS文件系统中文件的所有者。 - cat:查看HDFS文件系统中文件的内容。 2. mapred命令 mapred命令可以用于管理MapReduce作业,包括提交作业、查看作业状态等操作。常用的mapred命令有: - job:查看MapReduce作业的状态。 - jobqueue:查看作业队列的状态。 - jobhistory:查看作业历史记录。 - jobkill:终止运行中的MapReduce作业。 3. dfsadmin命令 dfsadmin命令用于管理HDFS的集群,包括查看HDFS集群的状态、添加或删除节点、重新加载配置等操作。常用的dfsadmin命令有: - report:查看HDFS集群的状态。 - safemode:进入或退出安全模式。 - setSafeMode:设置安全模式阈值。 - refreshNodes:刷新HDFS集群的节点列表。 4. fsck命令 fsck命令可以用于检查HDFS文件系统的完整性和一致性。常用的fsck命令有: - fsck:检查HDFS文件系统的状态。 - list-corruptfileblocks:列出不完整的文件块。 以上就是Hadoop Shell命令的简要介绍,这些命令可以帮助用户管理Hadoop集群、操作HDFS文件系统、管理MapReduce作业等。在实际应用中,还可以结合其他工具,如Pig、Hive、Hadoop Streaming等,来处理大规模数据。 ### 回答3: Hadoopshell是Hadoop命令行工具,可以与Hadoop进行交互。 Hadoopshell命令大全包括以下内容: 1. hdfs dfs -ls : 显示HDFS中指定路径的文件和目录列表。 2. hdfs dfs -mkdir:在HDFS中创建一个新目录。 3. hdfs dfs -put:将本地文件或目录复制到HDFS中。 4. hdfs dfs -get:将HDFS中的文件或目录复制到本地。 5. hdfs dfs -copyFromLocal:将本地文件/目录复制到HDFS中。 6. hdfs dfs -copyToLocal:将HDFS文件/目录复制到本地。 7. hdfs dfs -cp:在HDFS之间复制文件。 8. hdfs dfs -mv:在HDFS中移动文件或目录。 9. hdfs dfs -rm:从HDFS中删除指定的文件或目录。 10. hdfs dfs -du:列出指定目录或文件的大小。 11. hdfs dfs -touchz:在HDFS中创建一个空文件。 12. hdfs dfs -tail:显示HDFS中指定文件的最后几行。 13. hdfs dfs -stat:显示HDFS中指定文件/目录的详细信息。 14. hdfs dfs -chmod:改变HDFS文件/目录的权限。 15. hdfs dfs -chgrp:改变HDFS文件/目录的所属组。 16. hdfs dfs -chown:改变HDFS文件/目录的所属用户。 17. hdfs dfs -count:显示HDFS中指定目录的文件和目录的数量。 18. hdfs dfs -checksum:计算HDFS中指定文件的校验和。 19. hdfs dfs -lsr:递归显示HDFS中指定目录中的所有文件和目录。 20. hdfs dfs -expunge:清除HDFS回收站。 21. hdfs dfs -moveFromLocal:将本地文件移动到HDFS中。 22. hdfs dfs -moveToLocal:将HDFS文件移动到本地。 23. hdfs dfs -tail:显示指定文件的最后几行。 以上是Hadoopshell命令大全,这些命令可以帮助用户管理Hadoop分布式文件系统,并允许他们在Hadoop中进行基本的文件和目录操作。对于Hadoop管理员和Hadoop开发人员来说,Hadoopshell命令是非常有用的工具,在日常工作中可以帮助他们更好地管理和维护Hadoop集群。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值