hdfs的shell基本操作

1、创建目录

(1)创建单层目录

        执行命令:hadoop fs -mkdir /ied

利用WebUI查看创建的目录

2)创建多层目录
执行命令:hdfs dfs -mkdir -p /luzhou/lzy

利用WebUI查看创建的多层目录

2、查看目录

        执行命令:hdfs dfs -ls /,查看根目录

 

执行命令:hdfs dfs -ls /luzhou

执行命令:hdfs dfs -ls -R /tmp,递归查看/tmp目录 

3、上传本地文件到HDFS

  • 创建test.txt文件,执行命令:echo "hello hadoop world" > test.txt

 上传test.txt文件到HDFS的/ied目录,执行命令:hdfs dfs -put test.txt /ied

查看是否上传成功

利用Hadoop WebUI界面查看
 

 

4、查看文件内容

               执行命令:hdfs dfs -cat /ied/test.txt

5、下载HDFS文件到本地

        先删除本地的test.txt文件

下载HDFS文件系统的test.txt到本地当前目录,执行命令:hdfs dfs -get /ied/test.txt

 

检查是否下载成功 

 

6、删除HDFS文件

        执行命令:hadoop fs -rm /ied/test.txt

 

7、删除HDFS目录

        执行命令:hdfs dfs -rmdir /luzhou

        提示-rmdir命令删除不了非空目录。

        要递归删除才能删除非空目录:hdfs dfs -rm -r /luzhou

 

8、移动目录或文件

  • /ied目录更名为/ied01,执行命令:hdfs dfs -mv /ied /ied01

利用Hadoop WebUI查看是否更名成功

test.txt文件上传到/ied01目录,

 将/ied01/test.txt更名为/ied/exam.txt,执行命令:hdfs dfs -mv /ied01/test.txt /ied01/exam.txt

 9、文件合并下载
现在/ied01里有一个exam.txt,创建sport.txt和music.txt并上传

 合并/ied01目录的文件下载到本地当前目录的merger.txt,执行命令:hdfs dfs -getmerge /ied01/* merger.txt

 下面,查看本地的merger.txt,看是不是三个文件合并后的内容

由此可见,merger.txt是exam.txt、music.txt与sport.txt合并后的结果

10、检查文件信息
检查exam.txt文件,执行命令:hdfs fsck /ied01/exam.txt -files -blocks -locations -racks

我们知道HDFS里一个文件块是128MB,上传一个大于128MB的文件,hadoop-3.3.4.tar.gz有600多MB

  

 执行命令:hdfs dfs -put /opt/hadoop-3.3.4.tar.gz /ied01,将hadoop压缩包上传到HDFS的/ied01目录

查看HDFS上hadoop-3.3.4.tar.gz文件信息,执行命令:hdfs fsck /ied01/hadoop-3.3.4.tar.gz -files -locations -racks

利用Hadoop WebUI来查看文件块信息更加方便,总共有6个文件块:Block0、Block1、Block2、Block3、Block4、Block5 

 

第1个文件块信息

 第2个文件块信息

11、创建时间戳文件

  • /ied01目录里创建一个文件sunshine.txt,执行命令:hdfs dfs -touchz /ied01/sunshine.txt

 创建的是一个空文件,大小为0字节

 这种空文件,一般用作标识文件,也可叫做时间戳文件,再次在/ied01目录下创建sunshine.txt同名文件

  • 说明:如果touchz命令的路径指定的文件不存在,那就创建一个空文件;如果指定的文件存在,那就改变该文件的时间戳。

12、复制文件或目录

  • 准备工作:创建/ied02目录

(1)同名复制文件

  • /ied01/musck.txt复制到/ied02里,执行命令:hdfs dfs -cp /ied01/music.txt /ied02

 

(2)改名复制文件

  • /ied01/exam.txt复制到/ied02目录,改名为hello.txt,执行命令:hdfs dfs -cp /ied01/exam.txt /ied02/hello.txt

(3)复制目录

  • /ied01目录复制到/ied03目录,执行命令:hdfs dfs -cp /ied01 /ied03

13、查看文件大小

  • 执行命令:hdfs dfs -du /ied01/exam.txt

  • 可以看到文件/ied01/exam.txt大小是19个字节,包含一个看不见的结束符

14、上传文件

  • -copyFromLocal类似于-put,执行命令:查看是否上传成功

 查看是否上传成功

15、下载文件

  • -copyToLocal类似于-get,执行命令:hdfs dfs -copyToLocal /ied01/sunshine.txt sunlight.txt

查看是否下载成功

16、查看某目录下文件个数

  • 执行命令:hdfs dfs -count /ied01

17、检查hadoop本地库

-执行命令:hdfs checknative -a

 

18、进入和退出安全模式
问题:哪些情况下HDFS会进入安全模式(只能读不能写)?
(1)名称起点启动时,进入安全模式,直到fsimage用edits更新完毕才退出安全模式
(2)当文件块的副本数量少于设置的副本数量,会进入安全模式,直到生成符合要求的副本数,才会退出安全模式。其实,也可以通过命令方式进入或退出安全模式。
(1)进入安全模式
执行命令:hdfs dfsadmin -safemode enter, 注意:进入安全模式之后,只能读不能写

此时,如果要创建目录,就会报错 

 

(2)退出安全模式

  • 执行命令:hdfs dfsadmin -safemode leave

此时,创建目录/ied04就没有任何问题 

 

四)案例- Shell定时采集数据到HDFS
服务器每天会产生大量日志数据,并且日志文件可能存在于每个应用程序指定的data目录中,在不使用其它工具的情况下,将服务器中的日志文件规范的存放在HDFS中。通过编写简单的Shell脚本,用于每天自动采集服务器上的日志文件,并将海量的日志上传至HDFS中。
创建日志文件存放的目录/export/data/logs/log/,执行命令:mkdir -p /export/data/logs/log/

创建待上传文件存放的目录/export/data/logs/toupload/,执行命令:mkdir -p /export/data/logs/toupload/ 

1、编程思路与步骤
(1)配置环境变量
首先在/export/data/logs目录下(如果目录不存在,则需要提前创建)使用vim命令创建upload2HDFS.sh脚本文件,在编写Shell脚本时,需要设置Java环境变量和Hadoop环境变量,这样做是用来提高系统的可靠性,保障运行程序的机器在没有配置环境变量的情况下依然能够运行脚本。
(2)准备日志存放目录和待上传文件
为了让开发者便于控制上传文件的流程,可以在脚本中设置一个日志存放目录和待上传文件目录,若上传过程中发生错误只需要查看该目录就能知道文件的上传进度。
(3)设置日志文件上传的路径
设置上传的HDFS目标路径,命名格式以时间结尾,并且输出打印信息。
(4)实现文件上传
上传文件的过程就是遍历文件目录的过程,将文件首先移动到待上传目录,再从待上传目录中上传到HDFS中。若是在每天12点凌晨执行一次,我们可以使用Linux Crontab表达式执行定时任务。
2、编写脚本,实现功能
进入/export/data/logs目录

执行命令:vim upload2HDFS.sh

#!/bin/bash

JAVA_HOME=/usr/local/jdk1.8.0_162
export JRE_HOME=${JAVA_HOME}/jre
export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
export PATH=${JAVA_HOME}/bin:$PATH
export HADOOP_HOME=/usr/local/hadoop-3.3.4/
export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH
#日志文件存放的目录,需手动创建
log_src_dir=/export/data/logs/log/
#待上传文件存放的目录,需手动创建
log_toupload_dir=/export/data/logs/toupload/
#设置日期
date1=`date -d last-day +%Y_%m_%d`
#日志文件上传到hdfs的根路径
hdfs_root_dir=/data/clickLog/$date1/
#打印环境变量信息
echo "envs: hadoop_home: $HADOOP_HOME"
#读取日志文件的目录,判断是否有需要上传的文件
echo "log_src_dir: $log_src_dir"
ls $log_src_dir | while read fileName
do
        if [[ "$fileName" == access.log.* ]]; then
                date=`date +%Y_%m_%d_%H_%M_%S`
                #将文件移动到待上传目录并重命名
                echo "moving $log_src_dir$fileName to $log_toupload_dir"lzy_click_log_$fileName"$date"
                mv $log_src_dir$fileName $log_toupload_dir"lzy_click_log_$fileName"$date
                #将待上传的文件path写入一个列表文件willDoing,
                echo $log_toupload_dir"lzy_click_log_$fileName"$date >> $log_toupload_dir"willDoing."$date
        fi
done
#找到列表文件willDoing
ls $log_toupload_dir | grep will | grep -v "_COPY_" | grep -v "_DONE_" | while read line
do
        #打印信息
        echo "toupload is in file: $line"
        #将待上传文件列表willDoing改名为willDoing_COPY_
        mv $log_toupload_dir$line $log_toupload_dir$line"_COPY_"
        #读列表文件willDoing_COPY_的内容(一个一个的待上传文件名)
        #此处的line 就是列表中的一个待上传文件的path
        cat $log_toupload_dir$line"_COPY_" | while read line
        do
                 #打印信息
                echo "puting...$line to hdfs path...$hdfs_root_dir"
                hdfs dfs -mkdir -p $hdfs_root_dir
                hdfs dfs -put $line $hdfs_root_dir
        done
        mv $log_toupload_dir$line"_COPY_"  $log_toupload_dir$line"_DONE_"
done
编辑权限,执行命令:chmod u+x upload2HDFS.sh

3、运行脚本,查看结果
为了模拟生产环境,在日志存放目录/export/data/logs/log/中,手动创建日志文件,access.log表示正在源源不断的产生日志的文件,access.log.1、access.log.2等表示已经滚动完毕的日志文件,即为待上传日志文件。

在upload2HDFS.sh文件路径下运行脚本,先将日志存放目录log中的日志文件移到待上传toupload目录下,并根据业务需求重命名;然后脚本执行“hdfs dfs -put”上传命令,将待上传目录下的所有日志文件上传至HDFS;最后通过HDFS Web界面可看到需要采集的日志文件已按照日期分类,上传至HDFS中。

创建四个日志文件

执行命令:./upload2HDFS.sh

打开HDFS集群WebUI查看上传的日志文件 

 

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,您可以使用Hadoop的Java API来实现打印hdfs集群下一目录中的文件内容。具体实现步骤如下: 1. 首先,需要引入hadoop-client依赖,可以在pom.xml文件中添加以下代码: ```xml <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>3.3.1</version> </dependency> ``` 2. 接着,可以使用以下代码来实现打印hdfs集群下一目录中的文件内容: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.FSDataInputStream; import java.io.IOException; public class HdfsFileReader { public static void main(String[] args) throws IOException { // 创建Configuration对象 Configuration conf = new Configuration(); // 设置HDFS文件系统的URI conf.set("fs.defaultFS", "hdfs://<hdfs_host>:<hdfs_port>"); // 创建FileSystem对象 FileSystem fs = FileSystem.get(conf); // 设置要读取的文件路径 Path path = new Path("/path/to/file"); // 判断文件是否存在 if (fs.exists(path)) { // 打开文件并获取文件内容 FSDataInputStream inStream = fs.open(path); byte[] buffer = new byte[1024]; int length; while ((length = inStream.read(buffer)) != -1) { System.out.write(buffer, 0, length); } // 关闭输入流 inStream.close(); } else { System.out.println("文件不存在!"); } // 关闭FileSystem对象 fs.close(); } } ``` 其中,`<hdfs_host>`和`<hdfs_port>`需要替换为实际的HDFS集群的IP地址和端口号,`/path/to/file`需要替换为实际的要读取的文件路径。代码中,使用`FileSystem.open()`方法打开文件,并使用`FSDataInputStream.read()`方法读取文件内容,并通过`System.out.write()`方法打印文件内容。 希望这个代码可以帮助到您!

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值