HDFS 使用Java api实现上传/下载/删除文件

  1. package Hadoop;  
  2.   
  3.   
  4. import java.io.IOException;  
  5.   
  6.   
  7. import org.apache.hadoop.conf.Configuration;  
  8. import org.apache.hadoop.fs.FileSystem;  
  9. import org.apache.hadoop.fs.Path;  
  10.   
  11.   
  12. public class HDFSTest01 {  
  13.       
  14.     /** 
  15.      * 文件上传 
  16.      * @param src  
  17.      * @param dst 
  18.      * @param conf 
  19.      * @return 
  20.      */  
  21.     public static boolean put2HSFS(String src , String dst , Configuration conf){  
  22.         Path dstPath = new Path(dst) ;  
  23.         try{  
  24.             FileSystem hdfs = dstPath.getFileSystem(conf) ;  
  25. //          FileSystem hdfs = FileSystem.get( URI.create(dst), conf) ;   
  26.             hdfs.copyFromLocalFile(falsenew Path(src), dstPath) ;  
  27.         }catch(IOException ie){  
  28.             ie.printStackTrace() ;  
  29.             return false ;  
  30.         }  
  31.         return true ;  
  32.     }  
  33.       
  34.     /** 
  35.      * 文件下载 
  36.      * @param src 
  37.      * @param dst 
  38.      * @param conf 
  39.      * @return 
  40.      */  
  41.     public static boolean getFromHDFS(String src , String dst , Configuration conf){  
  42.         Path dstPath = new Path(dst) ;  
  43.         try{  
  44.             FileSystem dhfs = dstPath.getFileSystem(conf) ;  
  45.             dhfs.copyToLocalFile(falsenew Path(src), dstPath) ;  
  46.         }catch(IOException ie){  
  47.             ie.printStackTrace() ;  
  48.             return false ;  
  49.         }  
  50.         return true ;  
  51.     }  
  52.       
  53.     /** 
  54.      * 文件检测并删除 
  55.      * @param path 
  56.      * @param conf 
  57.      * @return 
  58.      */  
  59.     public static boolean checkAndDel(final String path , Configuration conf){  
  60.         Path dstPath = new Path(path) ;  
  61.         try{  
  62.             FileSystem dhfs = dstPath.getFileSystem(conf) ;  
  63.             if(dhfs.exists(dstPath)){  
  64.                 dhfs.delete(dstPath, true) ;  
  65.             }else{  
  66.                 return false ;  
  67.             }  
  68.         }catch(IOException ie ){  
  69.             ie.printStackTrace() ;  
  70.             return false ;  
  71.         }  
  72.         return true ;  
  73.     }  
  74.   
  75.   
  76.     /** 
  77.      * @param args 
  78.      */  
  79.     public static void main(String[] args) {  
  80. //      String src = "hdfs://xcloud:9000/user/xcloud/input/core-site.xml" ;   
  81.         String dst = "hdfs://xcloud:9000/user/xcloud/out" ;  
  82.         String src = "/home/xcloud/cdh3/hbase-0.90.4-cdh3u2/bin/loadtable.rb" ;  
  83.         boolean status = false ;  
  84.           
  85.           
  86.         Configuration conf = new Configuration() ;  
  87.         status = put2HSFS( src ,  dst ,  conf) ;  
  88.         System.out.println("status="+status) ;  
  89.           
  90.         src = "hdfs://xcloud:9000/user/xcloud/out/loadtable.rb" ;  
  91.         dst = "/tmp/output" ;  
  92.         status = getFromHDFS( src ,  dst ,  conf) ;  
  93.         System.out.println("status="+status) ;  
  94.           
  95.         src = "hdfs://xcloud:9000/user/xcloud/out/loadtable.rb" ;  
  96.         dst = "/tmp/output/loadtable.rb" ;  
  97.         status = checkAndDel( dst ,  conf) ;  
  98.         System.out.println("status="+status) ;  
  99.     }  
  100.   
  101.   
  102. }  


参考:

hadoop-0.20_程式设计.pdf  见 http://www.linuxidc.com/Linux/2012-01/50878.htm

好的,根据您的要求,我可以为您编写一个简易的基于HDFSJava API文件云盘系统。该系统需要实现以下功能: 1. 用户登录和注册 2. 文件上传下载删除 3. 文件夹创建、删除、移动 4. 文件权限控制 5. 文件搜索 首先,我会使用Java中的HDFS API来连接和操作HDFS。然后,使用JavaWeb或SpringMVC框架搭建网站,并使用JSP或HTML实现网页的展示和交互。 在用户登录和注册方面,我们可以使用数据库存储用户信息,比如MySQL或Oracle。当用户注册时,需要对其输入的用户名和密码进行验证和加密处理,然后将用户信息存储到数据库中。当用户登录时,需要验证用户名和密码是否正确,并从数据库中读取用户信息并保存在Session中。 文件上传下载删除功能需要使用HDFS API实现。用户上传文件时,我们可以让用户选择本地文件上传HDFS上。用户下载文件时,需要从HDFS下载文件到本地。当用户删除文件时,也需要在HDFS上进行文件删除操作。 文件夹创建、删除、移动功能也需要使用HDFS API实现。用户可以创建文件夹,并在其中存储文件。用户可以移动文件夹或文件到其他文件夹中。当用户删除文件夹时,需要连带其内部的文件一起删除文件权限控制功能需要检查当前用户是否具有文件操作权限。我们可以在数据库中存储用户和文件的权限信息,并在操作文件时进行权限验证,以保证用户只能访问其有权限访问的文件。 最后,我们还需要实现文件搜索功能,这需要根据用户输入的关键字在HDFS中进行全文搜索,并将搜索结果展示在网页上。 以上就是基于HDFSJava API实现的简易文件云盘系统的实现方案。感谢您的提问,如果您还有其他问题,可以继续咨询我。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值