Wordcount代码**

本文介绍了如何使用Java编程与HDFS进行交互,包括检查文件/目录是否存在、创建文件、读取文件内容和删除文件。接着展示了MapReduce的WordCount应用,以及如何进行二次排序和自定义分区,以优化数据处理流程。
摘要由CSDN通过智能技术生成

编辑Name为IsFile,用于创建名为IsFile的Java类。该文件的目的就是判断HDFS文件中是否存在一个文件或者路径。

package com.huawei.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.IOException; public class IsFile { public static void main(String[] args) throws IOException { Configuration conf = new Configuration(); //conf.set("fs.defaultFS", "hdfs:// master:9000"); FileSystem fs = FileSystem.get(conf); Path path1 = new Path("/user/test/hdfs"); Path path2 = new Path("/user/test/hdfs/file10.txt"); //判断目录是否存在 if (fs.exists(path1)) { System.out.println(path1+"目录已经存在"); }else{ System.out.println(path1+"目录不存在"); } //判断文件是否存在 if (fs.exists(path2)) { System.out.println(path2+"文件已经存在"); }else{ System.out.println(path2+"文件不存在"); } fs.close(); } }

用同样的方法,在com.huawei.hdfs包下面创建名为CreateFile1的Java Class文件,用于在HDFS上创建一个空白文件。

package com.huawei.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataOutputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.IOException; /** * 创建空白文件 */ public class CreateFile1 { public static void main(String[] args) throws IOException { Configuration conf = new Configuration(); //conf.set("fs.defaultFS", "hdfs:// master:9000"); FileSystem fs = FileSystem.get(conf); boolean create = fs.createNewFile(new Path("/user/test/hdfs/file10.txt")); System.out.println(create ? "创建成功":"创建失败,文件已经存在"); fs.close(); } }

在com.huawei.hdfs包下面创建名为CreateFile2的Java Class来实现这一目标。

package com.huawei.hdfs;

import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FSDataOutputStream;import org.apache.hadoop.fs.FileSystem;import org.apache.hadoop.fs.Path;

import java.io.BufferedWriter;import java.io.IOException;import java.io.OutputStreamWriter;

/**

 * 创建文件的同时向文件里面写入数据

 */public class CreateFile2 {

    public static void main(String[] args) throws IOException {

        Configuration conf = new Configuration();

        //conf.set("fs.defaultFS", "hdfs:// master:9000");

        FileSystem fs = FileSystem.get(conf);

        Path path = new Path("/user/test/hdfs/file11.txt");

        FSDataOutputStream dos = fs.create(path);

        System.out.println(path+"文件创建成功");

        BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(dos));

        bw.write("huawei");

        bw.newLine();

        bw.write("bigdata");

        bw.newLine();

        bw.write("java");

        bw.newLine();

        bw.close();

        dos.close();

        fs.close();

    }

}

在com.huawei.hdfs包下面创建名为ScanFile的Java Class来实现查看HDFS文件系统中某个文件的内容。

package com.huawei.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FSDataInputStream; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.BufferedReader; import java.io.IOException; import java.io.InputStreamReader; public class ScanFile { public static void main(String[] args) throws IOException { Configuration conf = new Configuration(); //conf.set("fs.defaultFS", "hdfs://master:9000"); FileSystem fs = FileSystem.get(conf); Path path = new Path(args[0]); FSDataInputStream red = fs.open(path); BufferedReader bf = new BufferedReader(new InputStreamReader(red)); String line = null; while ((line = bf.readLine()) != null){ System.out.println(line); } bf.close(); red.close(); fs.close(); } }

在com.huawei.hdfs包下面创建名为D

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值