需要注意的:
第一个程序只会获取文件,不获取文件夹。
第二个会获取文件以及文件夹
package hadoop.hdfs;
import java.io.FileInputStream;
import java.io.FileOutputStream;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;
import org.apache.commons.io.IOUtils;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.LocatedFileStatus;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.fs.RemoteIterator;
import org.junit.jupiter.api.Test;
public class HDFSUtil {
/*
* 列出文件
* */
@Test
public void listfile() throws IOException {
Configuration conf = new Configuration();//加载配置文件,将配置文件放在src下
FileSystem fs=FileSystem.get(conf);//获取文件系统实例
RemoteIterator<LocatedFileStatus> listFiles = fs.listFiles(new Path("/"),