客户端操作HDFS

客户端操作HDFS

1、使用shell命令

-help
功能:输出这个命令参数手册

-ls
功能:显示目录信息
示例: hadoop fs -ls hdfs://hadoop-server01:9000/
备注:这些参数中,所有的hdfs路径都可以简写
–>hadoop fs -ls / 等同于上一条命令的效果

-mkdir
功能:在hdfs上创建目录
示例:hadoop fs -mkdir -p /aaa/bbb/cc/dd
-moveFromLocal

功能:从本地剪切粘贴到hdfs
示例:hadoop fs - moveFromLocal /home/hadoop/a.txt /aaa/bbb/cc/dd

-moveToLocal(不支持)
功能:从hdfs剪切粘贴到本地
示例:hadoop fs - moveToLocal /aaa/bbb/cc/dd /home/hadoop/a.txt

–appendToFile
功能:追加一个文件到已经存在的文件末尾
示例:hadoop fs -appendToFile ./hello.txt hdfs://hadoop-server01:9000/hello.txt
可以简写为:
Hadoop fs -appendToFile ./hello.txt /hello.txt

-cat
功能:显示文件内容
示例:hadoop fs -cat /hello.txt

-tail
功能:显示一个文件的末尾
示例:hadoop fs -tail /weblog/access_log.1

-text
功能:以字符形式打印一个文件的内容
示例:hadoop fs -text /weblog/access_log.1

-chgrp
-chmod
-chown
功能:linux文件系统中的用法一样,对文件所属权限
示例:
hadoop fs -chmod 666 /hello.txt
hadoop fs -chown someuser:somegrp /hello.txt

-copyFromLocal
功能:从本地文件系统中拷贝文件到hdfs路径去
示例:hadoop fs -copyFromLocal ./jdk.tar.gz /aaa/
-copyToLocal
功能:从hdfs拷贝到本地
示例:hadoop fs -copyToLocal /aaa/jdk.tar.gz

-cp
功能:从hdfs的一个路径拷贝hdfs的另一个路径
示例: hadoop fs -cp /aaa/jdk.tar.gz /bbb/jdk.tar.gz.2

-mv
功能:在hdfs目录中移动文件
示例: hadoop fs -mv /aaa/jdk.tar.gz /

-get
功能:等同于copyToLocal,就是从hdfs下载文件到本地
示例:hadoop fs -get /aaa/jdk.tar.gz

  •     功能:合并下载多个文件
        示例:比getmerge    如hdfs的目录 /aaa/下有多个文件:log.1, log.2,log.3,...
        hadoop fs -getmerge /aaa/log.* ./log.sum
        -put                
        功能:等同于copyFromLocal
        示例:hadoop  fs  -put  /aaa/jdk.tar.gz  /bbb/jdk.tar.gz.2
    

-rm
功能:删除文件或文件夹
示例:hadoop fs -rm -r /aaa/bbb/

-rmdir
功能:删除空目录
示例:hadoop fs -rmdir /aaa/bbb/ccc
-df
功能:统计文件系统的可用空间信息
示例:hadoop fs -df -h /

-du
功能:统计文件夹的大小信息
示例:
hadoop fs -du -s -h /aaa/*

-count
功能:统计一个指定目录下的文件节点数量
示例:hadoop fs -count /aaa/

-setrep
功能:设置hdfs中文件的副本数量
示例:hadoop fs -setrep 3 /aaa/jdk.tar.gz

2、使用java编程

在window上的IDE工具中运行java代码,会报错,但还是可以得到最终结果,

避免报错方法:

1、解压编译后的hadoop.tar文件,

2、设置环境变量 HADOOP_HOME

3、加入path中 %HADOOP_HOME%\bin

先获取文件系统,然后进行操作

package com.gec;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.*;
import org.apache.hadoop.io.IOUtils;
import org.junit.Test;

import java.io.File;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.net.URI;

/**
 * 在hdfs中创建新目录
 *
 */
public class App 
{
   
    public static void main( String[] args ) throws Exception {
   
        //1、获取文件系统
        Configuration configuration = new Configuration();
        //配置在集群上运行
        configuration.set("fs.defaultFS", "hdfs://hadoop0:9000");
        FileSystem fileSystem = FileSystem.get(configuration);
        //2、在hdfs中创建新目录
        fileSystem.mkdirs(new Path("/new"));
        //3、关闭资源
        fileSystem.close();
        System.out.println( "Hello World!" );
    }

    /**
     * 上传文件到hdfs
     * @throws Exception
     */
    @Test
    public void test1() throws Exception {
   
        //1、获取文件系统
        Configuration configuration = new Configuration();
        //配置在集群上运行
        configuration.set("fs.defaultFS", "hdfs://hadoop0:9000")
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值