Java---实现连接HDFS

34 篇文章 1 订阅

【前提:开启hadoop】

1、pom文件添加依赖

    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-common</artifactId>
      <version>2.6.0</version>
    </dependency>
    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-client</artifactId>
      <version>2.6.0</version>
    </dependency>
    <dependency>
      <groupId>org.apache.hadoop</groupId>
      <artifactId>hadoop-hdfs</artifactId>
      <version>2.6.0</version>
    </dependency>

2、程序代码

public class TestHDFS {
    public static void main(String[] args) {
    	//1.创建Configuration
        Configuration conf = new Configuration();
        
        try {
        //2.创建FS->分布式文件系统(URI:IP:9000,configuration,用户名)
            FileSystem fs = FileSystem.get(new URI("hdfs://192.168.XXX.100:9000"),conf,"root");  
            
        //3.中间写hdfs命令
        fs.mkdirs(new Path("/testHDFS/java/hello"));                       			          //递归创建文件夹
        fs.copyFromLocalFile(new Path("D:\\a.txt"),new Path("/testHDFS/java/hello/"));	      //上传文件至HDFS
        fs.copyToLocalFile(false,new Path("/testHDFS/java/hello/a.txt"),new Path("./"),true); //从HDFS上下载文件
        RemoteIterator<LocatedFileStatus> ri = fs.listFiles(new Path("/testHDFS"), false);    //只打印文件, recursice的参数:是否递归
        while (ri.hasNext()){
            System.out.println(ri.next());				//查询结果返回一个迭代器,利用迭代器的遍历方式,输出所有文件名
        }
        
        fs.deleteOnExit(new Path("/testHDFS/java/hello/a.txt"));      //删除文件或文件夹
        fs.delete(new Path("/a"),true);     						  //是否递归删除文件目录
        
 		//4.关闭
        fs.close();    
        } catch (IOException e) {
            e.printStackTrace();
        } catch (InterruptedException e) {
            e.printStackTrace();
        } catch (URISyntaxException e) {
            e.printStackTrace();
        }
    }
}
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要用Java实现写入HDFS,需要使用HadoopJava API。以下是实现写入HDFSJava代码示例: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.IOException; import java.io.InputStream; import java.net.URI; import java.net.URISyntaxException; public class HDFSWriter { private Configuration conf; private FileSystem fs; public HDFSWriter() throws IOException { conf = new Configuration(); // 设置HDFS的URI conf.set("fs.defaultFS", "hdfs://localhost:9000"); fs = FileSystem.get(conf); } public void write(String sourcePath, String destPath) throws IOException, URISyntaxException { // 获取输入流 InputStream in = getClass().getResourceAsStream(sourcePath); // 创建输出路径 Path outputPath = new Path(destPath); // 打开输出流 org.apache.hadoop.fs.FSDataOutputStream out = fs.create(outputPath); // 写入数据 byte[] buffer = new byte[4096]; int bytesRead; while ((bytesRead = in.read(buffer)) > 0) { out.write(buffer, 0, bytesRead); } // 关闭流 in.close(); out.close(); } public void close() throws IOException { fs.close(); } public static void main(String[] args) throws IOException, URISyntaxException { HDFSWriter writer = new HDFSWriter(); writer.write("/data/sample.txt", "/output/sample.txt"); writer.close(); } } ``` 在上面的示例中,我们使用了HadoopJava API来连接HDFS,并通过`InputStream`读取本地文件,然后通过`FSDataOutputStream`写入到HDFS中指定的路径。在实际应用中,需要根据自己的需求修改代码。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值