BigData6:Hadoop之图解HDFS上传下载文件相关流程

HDFS架构图

在这里插入图片描述
1)namnode,名字节点,最主要管理HDFS的元数据信息
2)datanode,数据节点,存储文件块
3)replication,文件块的副本,目的是确保数据存储的可靠性
4)rack 机器
5)Client 客户端。凡是通过指令或代码操作的一端都是客户端
6)Client 的Read(从HDFS下载文件到本地)
7)Client的Write(上传文件到HDFS上)

从HDFS下载文件过程

在这里插入图片描述
1.客户端向namenode发起Open File。目的是获取要下载的文件的输入流。
namenode收到请求之后,会检查路径的合法性,以及客户端的权限。
2.客户端在发起Open File的同时,还会调用 GetBlockLoaction。当第一步的检测都通过之后,namenode会将文件的块信息(元数据信息)封装到输入流,交给客户端。
3.4 客户端用输入流,根据元数据信息,去指定的datanode读取文件块(按blockid的顺序读取)
5.文件下载完成后关闭。

上传文件到HDFS

在这里插入图片描述
1.客户端发起Create File,目的是获取HDFS文件的输出流。namenode收到请求后会检测路径的合法性,以及权限。原生Hadoop的权限管理不是很完善,工作中的用的是CDH(商业版Hadoop)
如果检测都通过,namenode会为这个文件生成块的元数据信息(比如:①为文件切块②分配块id ③分配每个块存在哪个dataonde上),然后将元数据信息封装到输出流中,返回给客户端。
2.3 Client拿出输出流之后,采用PipeLine(数据流管道)机制做数据的上传(发送),这样设计的目的在于利用每台服务的带宽,最小化推送数据的延时。
packet是一个64kb大小的数据包。即客户端在发送文件块时,会文件块变成一个一个的数据包发送。
在这里插入图片描述
4.5 每台datanode收到packet收,会向上游datanode做ack确认,如果接受失败,会进行重发
6.当一个文件上传完后,关流。

从HDFS删除文件的流程

1.当客户端发起一个删除指令: hadoop fs -rm /park01/1.txt,这个指令会传给namenode
2.当namenode收到指令后,做路径和权限检测,如果检测都通过,会将对应的文件信息从内存里删除。此时,文件数据并不是马上就从集群上被删除
3.datanode向namenode发送心跳时(默认是3s周期),会领取删除指令,然后从磁盘上将文件删除。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: 这个错误提示表示 Hadoop 找不到正确的 HDFS 安装路径。你需要检查 Hadoop 配置文件中的 hadoop_hdfs_home 参数是否正确设置,或者确认 HDFS 是否已经正确安装并设置了环境变量。 ### 回答2: Hadoop 是一款大数据处理框架,需要依赖 Hadoop HDFS 存储系统。在配置 Hadoop 环境时,需要设置环境变量 HADOOP_HDFS_HOME,以指定 Hadoop HDFS 的安装路径。当出现 "error: invalid hadoop_hdfs_home" 错误时,意味着系统无法识别该环境变量,即 Hadoop HDFS 安装路径无效。 解决该问题的方法是检查环境变量的设置是否正确。首先在命令行界面输入 echo $HADOOP_HDFS_HOME 命令,以检查系统是否能识别该环境变量。如果该命令无法输出正确的路径,则需要修改环境变量的设置。 可以在 ~/.bashrc 或 ~/.bash_profile 文件中添加以下环境变量设置语句: export HADOOP_HDFS_HOME=/path/to/hadoop-hdfs 其中,/path/to/hadoop-hdfsHadoop HDFS 的安装路径。设置好这个环境变量之后,可以输入 source ~/.bashrc 或 source ~/.bash_profile 命令,以使环境变量的改动生效。 另外,还可通过设置 Hadoop 的配置文件来修改 Hadoop HDFS 的安装路径。可以在 Hadoop 配置文件 core-site.xml 中添加以下配置: <property> <name>hadoop.hdfs.home</name> <value>/path/to/hadoop-hdfs</value> </property> 在以上配置中,/path/to/hadoop-hdfsHadoop HDFS 的安装路径。保存好配置文件后,重新启动 Hadoop,即可解决 "error: invalid hadoop_hdfs_home" 错误。 ### 回答3: 这个错误信息意味着在运行hadoop相关命令时,系统无法找到指定的hadoop_hdfs_home环境变量。hadoop_hdfs_home是一个关键的环境变量,用于指定hadoop分布式文件系统(HDFS)的安装目录。如果系统无法找到或者无法识别该环境变量,就会出现invalid错误提示。 要解决这个问题,可以尝试以下步骤: 1.检查hadoop_hdfs_home环境变量是否正确设置,可以通过运行echo $hadoop_hdfs_home命令来确认该环境变量的值是否正确。 2.如果hadoop_hdfs_home环境变量未设置,可以通过手动设置该变量或者运行hadoop-env.sh脚本来设置该变量。 3.如果hadoop_hdfs_home环境变量设置正确,但仍然无法正常运行hadoop相关命令,可以尝试重新安装hadoop,并确保正确配置了环境变量。 4.最后,如果你还是无法解决这个问题,可以查看系统日志文件或运行hadoop日志命令来查找更详细的信息和错误提示,以帮助你进一步解决该问题。 总之,如果出现invalid hadoop_hdfs_home错误提示,需要确认hadoop_hdfs_home环境变量设置是否正确,并根据具体情况采取适当措施,以解决此问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值