hadoop 文件目录操作

可以用bin/Hadoop fs -ls 来读取HDFS上的文件属性信息。

也可以采用HDFS的API来读取。如下:

import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.FileStatus;
public class FileInfo
{
 public static void main(String[] args) throws Exception
 {
  if(args.length != 1){
  System.out.println("Usage FileInfo <target>");
  System.exit(1);
  }
  Configuration conf = new Configuration();
  FileSystem hdfs = FileSystem.get(URI.create(args[0]),conf);
  FileStatus fs = hdfs.getFileStatus(new Path(args[0]));
  System.out.println("path: "+fs.getPath());
  System.out.println("length: "+fs.getLen());
  System.out.println("modify time: "+fs.getModificationTime());
  System.out.println("owner: "+fs.getOwner());
  System.out.println("replication: "+fs.getReplication());
  System.out.println("blockSize: "+fs.getBlockSize());
  System.out.println("group: "+fs.getGroup());
  System.out.println("permission: "+fs.getPermission().toString());
 }

}




/**
 * @see 读取path下的所有文件
 * @param path
 * @return
 * @throws IOException
*/
 public static String[] getFileList(String path) throws IOException{

Configuration conf = new Configuration();
 FileSystem fs = FileSystem.get(conf);
 List<String> files = new ArrayList<String>();
 Path s_path = new Path(path);
if(fs.exists(s_path)){

for(FileStatus status:fs.listStatus(s_path)){


files.add(status.getPath().toString());

}
}
fs.close();

return files.toArray(new String[]{});
}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值