HDFS常用java api整理及使用示例

主要是一些文件系统的常用操作,包括增删文件及文件夹,读写操作,查看操作等。

一:几个常用类介绍

    (1):configuration类:此类封装了客户端或服务器的配置,通过配置文件来读取类路径实现(一般是core-site.xml)。
(2):FileSystem类:一个通用的文件系统api,用该对象的一些方法来对文件进行操作。
FileSystem fs = FileSystem.get(conf);通过FileSystem的静态方法get获得该对象。
(3):FSDataInputStream:HDFS的文件输入流,FileSystem.open()方法返回的即是此类。
(4):FSDataOutputStream:HDFS的文件输入出流,FileSystem.create()方法返回的即是此类。

  1. //读取配置文件  
  2.         Configuration conf = new Configuration();  
  3.         //获取文件系统  
  4.         FileSystem fs = FileSystem.get(URI.create("hdfs://hadoop1:9000"),conf); 


1. 创建文件夹

  1. Path srcPath =  new Path(path);  
  2.         //调用mkdir()创建目录,(可以一次性创建,以及不存在的父目录)  
  3.         boolean flag = fs.mkdirs(srcPath);

2. 创建文件并写入数据

  1. Path dstPath = new Path(dst);    
  2.         //打开一个输出流  
  3.         FSDataOutputStream outputStream = fs.create(dstPath);  
  4.         outputStream.write(contents);

3. 追加写

  1. InputStream in = new BufferedInputStream(new FileInputStream(src));  
  2.               
  3.             //文件输出流写入  
  4.             FSDataOutputStream out = fs.append(dstPath);  
  5.             IOUtils.copyBytes(in, out, 4096,true);

4. 列出目录下所有文件

  1. FileStatus[] listStatus = fs.listStatus(new Path("/"));  
  2.         for(FileStatus f:listStatus){  
  3.             String type="-";  
  4.             if(f.isDirectory()) type="d";  
  5.             System.out.println(type+"\t"+f.getPath().getName());  
  6.         }  
  7.         fs.close();

5. 修改目录及文件权限

6. 查看目录及文件权限

7. 删除文件/目录

  1. Path path = new Path(filePath);  
  2.           
  3.         //调用deleteOnExit()  
  4.         boolean flag = fs.deleteOnExit(path); 

8. 上传本地文件

  1. Path srcPath = new Path(src); //原路径  
  2.     Path dstPath = new Path(dst); //目标路径  
  3.     //调用文件系统的文件复制函数,前面参数是指是否删除原文件,true为删除,默认为false  
  4.     fs.copyFromLocalFile(false,srcPath, dstPath);

9. 下载文件到本地

  1. fs.copyToLocalFile(falsenew Path("/jdk-7u65-linux-i586.tar.gz"), new Path("C:/"), true);  
  2.         fs.close(); 

10. 文件重命名

  1. Path oldPath = new Path(oldName);  
  2.         Path newPath = new Path(newName);  
  3.           
  4.         boolean flag = fs.rename(oldPath, newPath);

11. 判断目录/文件是否存在

boolean exist=fs.exists(path)

12. 文件输入流

  1. InputStream in = null;  
  2.         try {  
  3.             in = fs.open(new Path(uri));  
  4.             //复制到标准输出流  
  5.             IOUtils.copyBytes(in, System.out, 4096,false);  
  6.         } catch (Exception e) {  
  7.             e.printStackTrace();  
  8.         }finally{  
  9.             IOUtils.closeStream(in);  
  10.         }

14. 修改文件副本数量

fs.setReplication(new Path("/jdk-7u65-linux-i586.tgz"), (short)2);

15. 获取文件block信息

  1. RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"), true);  
  2.         while(listFiles.hasNext()){  
  3.             LocatedFileStatus fileStatus = listFiles.next();  
  4.             System.out.println(fileStatus.getPath().getName());  
  5.         } 

16. 获取block位置信息

17. 获取block偏移量信息

  1. BlockLocation[] fileBlockLocations = fs.getFileBlockLocations(new Path("/jdk-7u65-linux-i586.tar.gz"), 0143588167);  
  2.         for(BlockLocation location : fileBlockLocations){  
  3.             System.out.println(location.getOffset());  
  4.             System.out.println(location.getNames()[0]);  
  5.         } 

18. 从指定偏移量读取数据

  1. FSDataInputStream in = fs.open(new Path("/test.txt"));  
  2.         in.seek(6);//定位,设置起始偏移量  
  3.         FileOutputStream out=new FileOutputStream("c:/test.seg.txt");  
  4.         IOUtils.copyBytes(in, out, new Configuration());  
  5.         IOUtils.closeStream(in);  
  6.         IOUtils.closeStream(out);  
  7.         fs.close(); 

19. 判断是否为目录

fs.isDirectory(path)

  • 0
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
HDFS(Hadoop分布式文件系统)是Hadoop生态系统中的核心组件,用于在分布式环境下存储和处理大规模数据。HDFS支持多种编程语言的API,其中Java是最常用的。 HDFSJava API提供了一系列类和方法,可以方便地对HDFS进行读写操作。下面是一些常用HDFS Java API及其应用实例: 1. Configuration类:用于加载Hadoop配置文件,创建和管理配置对象。可以通过Configuration类的方法设置HDFS的各种参数,比如文件块大小、副本数等。 2. FileSystem类:用于操作HDFS中的文件和目录。可以通过FileSystem类创建、删除和重命名文件,也可以读写文件中的内容。以下是一个示例代码: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; public class HdfsExample { public static void main(String[] args) { try { // 加载Hadoop配置文件 Configuration conf = new Configuration(); // 创建FileSystem对象 FileSystem fs = FileSystem.get(conf); // 在HDFS创建一个新文件 Path filePath = new Path("/user/hadoop/test.txt"); fs.create(filePath); // 写入文件内容 String content = "Hello, HDFS!"; byte[] bytes = content.getBytes(); fs.writeFile(filePath, bytes); // 读取文件内容 byte[] buffer = new byte[1024]; int bytesRead = fs.open(filePath).read(buffer); String fileContent = new String(buffer, 0, bytesRead); System.out.println("文件内容:" + fileContent); // 删除文件 fs.delete(filePath); // 关闭FileSystem对象 fs.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 以上示例代码演示了如何使用HDFS Java API创建、写入、读取和删除文件。 除了以上的常用APIHDFSJava API还提供了许多其他的类和方法,用于实现更复杂的操作,比如文件复制、权限管理、检查点等。开发者可以根据自己的需求选择适合的API进行使用

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值