大数据平台技术之HDFS文件系统操作与编程

本文详细介绍了在Hadoop伪分布式环境下操作HDFS的步骤,包括创建用户目录、复制文件到HDFS、运行MapReduce作业、查看结果、删除文件及目录。此外,还讲解了HDFS的目录管理和文件操作,如创建、列出、移动和删除文件及目录。
摘要由CSDN通过智能技术生成

HDFS文件系统操作与编程


实验目的:
(1)HDFS基本目录操作;
(2)HDFS文件操作。
前提:系统已经进行了hadoop伪分布式配置!!!!
执行 ./sbin/start-dfs.sh 启动 Hadoop
可以通过命令 jps判断是否启动成功
若成功启动则会列出如下进程: “NameNode”、”DataNode” 和 “SecondaryNameNode”

在这里插入图片描述

运行hadoop伪分布式实例

grep 例子读取的是本地数据,伪分布式读取的则是 HDFS 上的数据。要使用 HDFS,首先需要在 HDFS 中创建用户目录:

./bin/hdfs dfs -mkdir -p /user/hadoop

接着将 ./etc/hadoop 中的 xml 文件作为输入文件复制到分布式文件系统中,即将 /usr/local/hadoop/etc/hadoop 复制到分布式文件系统中的 /user/hadoop/input 中。我们使用的是 hadoop 用户,并且已创建相应的用户目录 /user/hadoop ,因此在命令中就可以使用相对路径如 input,其对应的绝对路径就是 /user/hadoop/input:

./bin/hdfs dfs -mkdir input
./bin/hdfs dfs -put ./etc/hadoop/*.xml input

复制完成后,可以通过如下命令查看文件列表:

./bin/hdfs dfs -ls input

在这里插入图片描述
伪分布式运行 MapReduce 作业的方式跟单机模式相同,区别在于伪分布式读取的是HDFS中的文件(可以将单机步骤中创建的本地 input 文件夹,输出结果 output 文件夹都删掉来验证这一点)。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值