java实时写入hdfs

用append 但是注意只有outputstream.close 才能读取hdfs上的文件内容。因此实时写入必须不断创建流,关闭流。

System.out.println("开始写入");
FSDataOutputStream  fsDataOutputStream=fileSystem.append(path);
fsDataOutputStream.write(content.getBytes());
fsDataOutputStream.flush();
fsDataOutputStream.close();
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要用Java实现写入HDFS,需要使用Hadoop的Java API。以下是实现写入HDFSJava代码示例: ```java import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import java.io.IOException; import java.io.InputStream; import java.net.URI; import java.net.URISyntaxException; public class HDFSWriter { private Configuration conf; private FileSystem fs; public HDFSWriter() throws IOException { conf = new Configuration(); // 设置HDFS的URI conf.set("fs.defaultFS", "hdfs://localhost:9000"); fs = FileSystem.get(conf); } public void write(String sourcePath, String destPath) throws IOException, URISyntaxException { // 获取输入流 InputStream in = getClass().getResourceAsStream(sourcePath); // 创建输出路径 Path outputPath = new Path(destPath); // 打开输出流 org.apache.hadoop.fs.FSDataOutputStream out = fs.create(outputPath); // 写入数据 byte[] buffer = new byte[4096]; int bytesRead; while ((bytesRead = in.read(buffer)) > 0) { out.write(buffer, 0, bytesRead); } // 关闭流 in.close(); out.close(); } public void close() throws IOException { fs.close(); } public static void main(String[] args) throws IOException, URISyntaxException { HDFSWriter writer = new HDFSWriter(); writer.write("/data/sample.txt", "/output/sample.txt"); writer.close(); } } ``` 在上面的示例中,我们使用了Hadoop的Java API来连接HDFS,并通过`InputStream`读取本地文件,然后通过`FSDataOutputStream`写入HDFS中指定的路径。在实际应用中,需要根据自己的需求修改代码。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值