HDFS的Shell操作及客户端配置方法

本文介绍了HadoopHDFS组件的启停脚本,包括`start-dfs.sh`和`stop-dfs.sh`,以及如何单独控制NameNode、SecondaryNameNode和DataNode进程。此外,还详细讲解了HDFS的基本命令,如文件操作、数据删除和BigDataTools插件的安装与配置。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

HDFS进程启停命令

Hadoop HDFS组件内置了HDFS集群的一键启停脚本。

  • $HADOOP_HOME/sbin/start-dfs.sh,一键启动HDFS集群
  • $HADOOP_HOME/sbin/stop-dfs.sh,一键关闭HDFS集群
    执行原理:
  1. 在执行此脚本的机器上,启动(关闭)SecondaryNameNode
  2. 读取core-site.xml内容(fs.defaultFS项),确认NameNode所在机器,启动(关闭)NameNode
  3. 读取workers内容,确认DataNode所在机器,启动(关闭)全部DataNode

除了一键启停外,也可以单独控制进程的启停

  • $HADOOP_HOME/sbin/hadoop-daemon.sh,此脚本可以单独控制所在机器的进程的启停
    用法:hadoop-daemon.sh (start|status|stop) (namenode|secondarynamenode|datanode)
  • $HADOOP_HOME/bin/hdfs,此程序也可以用以单独控制所在机器的进程的启停
    用法:hdfs --daemon (start|status|stop) (namenode|secondarynamenode|datanode)

HDFS文件系统基本命令(跟Linux命令基本一样)

  • hadoop命令(老版本用法),用法:hadoop fs [generic options]
  • hdfs命令(新版本用法),用法:hdfs dfs [generic options]
  1. 创建文件夹 (mkdir)
    hadoop fs -mkdir [-p] <path>
    hdfs dfs -mkdir [-p] <path>
hadoop fs -mkdir -p /itest
hdfs dfs -mkdir -p /itest
  1. 上传文件到HDFS指定目录下(上传put,下载 get)
    hadoop fs -put [-f] [-p] <localsrc> ... <dst>
    hdfs dfs -put [-f] [-p] <localsrc> ... <dst>
hadoop fs -put test.txt /itest
hdfs dfs -put test.txt /itest
  1. 追加数据到HDFS文件中(appendToFile)
    hadoop fs -appendToFile <localsrc> ... <dst>
    hdfs dfs -appendToFile <localsrc> ... <dst>
hadoop fs -appendToFile 2.txt 3.txt /itest/1.txt
hdfs dfs -appendToFile 2.txt 3.txt /itest/1.txt
  1. HDFS数据删除操作(rm,skipTrash跳过回收站)
    hadoop fs -rm -r [-skipTrash] URI [URI ...]
    hdfs dfs -rm -r [-skipTrash] URI [URI ...]
hadoop fs -rm  -r -skipTrash /itest
hdfs dfs -rm  -r -skipTrash /itest
  1. HDFS shell其它命令(点此参照官方文档
    在这里插入图片描述
  2. HDFS WEB浏览
    在这里插入图片描述
    使用WEB浏览操作文件系统,一般会遇到权限问题
    在这里插入图片描述
    这是因为WEB浏览器中是以匿名用户(dr.who)登陆的,其只有只读权限,多数操作是做不了的。
    如果需要以特权用户在浏览器中进行操作,需要配置如下内容到core-site.xml并重启集群
  <property>
    <name>hadoop.http.staticuser.user</name>
    <value>hadoop</value>
  </property>

== 注意:不推荐这样做 ==
HDFS WEBUI,只读权限挺好的,简单浏览即可
如果给与高权限,会有很大的安全问题,造成数据泄露或丢失

Big Data Tools插件

1、插件安装

在Jetbrains的产品中,均可以安装插件,其中:Big Data Tools插件可以帮助我们方便的操作HDFS,以下均支持Bigdata Tool插件,如

  • IntelliJ IDEA(Java IDE)
  • PyCharm(Python IDE)
  • DataGrip(SQL IDE)
    如图,在设置->Plugins(插件)-> Marketplace(市场),搜索Big Data Tools,点击Install安装即可
    在这里插入图片描述
    在这里插入图片描述

2、配置Windows

需要对Windows系统做一些基础设置,配合插件使用

  • 解压Hadoop安装包到Windows系统,如解压到:E:\hadoop-3.3.4
  • 设置$HADOOP_HOME环境变量指向:E:\hadoop-3.3.4
  • 下载 hadoop.dll 点此官网下载 和 winutils.exe 点此官网下载
    将hadoop.dll和winutils.exe放入$HADOOP_HOME/bin中
  • 然后打开插件,如下图
    在这里插入图片描述
    在这里插入图片描述
    至此,HDFS的Shell操作及客户端配置方法结束!!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

java刘先生

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值