package com.hkj.hadoop.testhdfs;
import java.io.FileInputStream;
import java.io.IOException;
import java.io.InputStream;
import java.net.URI;
import java.net.URISyntaxException;
import java.net.URL;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;
/**
*
* @author 汪本成
*
*/
public class app1 {
private static final String hdfs = "hdfs://master:9000/user/spark/hdfs/data.txt";
private static final String path = "hdfs://master:9000";
private static final String dir_path = "hdfs://master:9000/user/spark/hdfs/demo";
private static final String file_path = "/user/spark/hdfs/demo";
public static void main(String[] args) throws IOException, URISy
java操作hdfs实例,自己封装好的
最新推荐文章于 2022-03-13 20:01:41 发布
该博客提供了一个Java应用实例,演示了如何连接到HDFS并执行基本操作,包括创建目录、上传文件、下载文件、读取文件内容以及删除文件。代码中使用了Apache Hadoop的相关API,如FileSystem和FSDataInputStream等,通过`loadFs()`方法初始化HDFS连接,并提供了清晰的操作方法。
摘要由CSDN通过智能技术生成