Filesystem closed

在执行Hadoop MapReduce任务时遇到'Filesystem closed'异常,原因是方法内关闭了FileSystem,而默认配置fs.hdfs.impl.disable.cache为false,导致FileSystem缓存被关闭。解决方案是将该配置设置为true,避免在后续操作中使用到已关闭的FileSystem。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

java.io.IOException: Filesystem closed
	at org.apache.hadoop.hdfs.DFSClient.checkOpen(DFSClient.java:232)
	at org.apache.hadoop.hdfs.DFSClient.access$600(DFSClient.java:70)
	at org.apache.hadoop.hdfs.DFSClient$DFSInputStream.read(DFSClient.java:1937)
	at org.apache.hadoop.hdfs.DFSClient$DFSInputStream.read(DFSClient.java:1876)
	at java.io.DataInputStream.readInt(DataInputStream.java:370)
	at org.apache.hadoop.hive.ql.io.RCFile$Reader.readRecordLength(RCFile.java:1397)
	at org.apache.hadoop.hive.ql.io.RCFile$Reader.nextKeyBuffer(RCFile.java:1436)
	at org.apache.hadoop.hive.ql.io.RCFile$Reader.next(RCFile.java:1602)
	at com.sohu.adrd.targeting.hadoop.mapreduce.RCFileRecordReader.nextKeyValue(RCFileRecordReader.java:82)
	at org.apache.hadoop.mapreduce.lib.input.DelegatingRecordReader.nextKeyValue(DelegatingRecordReader.java:85)
	at org.apache.hadoop.mapred.MapTask$NewTrackingRecordReader.nextKeyValue(MapTask.java:456)
	at org.apache.hadoop.ma
### 使用 FSDataInputStream 读取 HDFS 文件内容 以下是基于用户需求编写的解决方案,用于从 HDFS 上读取文件 `hdfs://localhost:9000/user/hadoop/task.txt` 的内容并正确输出。 #### 1. 配置 Hadoop 环境 首先需要设置正确的 Hadoop 配置环境。通过 `Configuration` 对象加载必要的配置文件(如 `core-site.xml` 和 `hdfs-site.xml`),从而确保程序能够识别 HDFS 文件系统[^2]。 ```java package com.example.hdfs; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.FileSystem; import org.apache.hadoop.fs.Path; import org.apache.hadoop.fs.FSDataInputStream; import java.io.BufferedReader; import java.io.InputStreamReader; import java.net.URI; public class ReadHDFSFile { public static void main(String[] args) { String uri = "hdfs://localhost:9000"; String filePath = "/user/hadoop/task.txt"; try { // 创建 Configuration 实例,并指定 HDFS URI Configuration conf = new Configuration(); conf.set("fs.defaultFS", uri); // 获取 FileSystem 实例 FileSystem fs = FileSystem.get(new URI(uri), conf); // 打开目标文件的输入流 Path path = new Path(filePath); FSDataInputStream inputStream = fs.open(path); // 将输入流转为可读形式 BufferedReader reader = new BufferedReader(new InputStreamReader(inputStream)); String line; while ((line = reader.readLine()) != null) { System.out.println(line); // 输出每一行的内容 } // 关闭资源 reader.close(); inputStream.close(); fs.close(); } catch (Exception e) { e.printStackTrace(); // 处理异常情况 } } } ``` 此代码片段实现了以下功能: - 加载 Hadoop 默认配置并通过 `set` 方法显式指定了 `fs.defaultFS` 参数以匹配所需的 HDFS 地址[^2]。 - 使用 `FileSystem.get()` 方法获取与给定 URI 相关联的文件系统实例。 - 借助 `FSDataInputStream` 打开了指定路径下的文件,并逐行打印其内容至标准输出设备。 #### 2. 解决可能遇到的问题 在某些情况下,可能会出现类似于 “Wrong FS” 或者 “Filesystem closed” 的错误提示。针对这些问题有如下建议: ##### 错误:`Wrong FS` 原因可能是当前使用的 `Path` 不属于所期望的文件系统类型。例如,尝试用本地文件系统的上下文中操作 HDFS 路径就会触发此类警告消息[^1]。 解决办法已在前面展示过——即明确告知应用程序应该采用哪个文件系统作为默认选项。 ##### 错误:`Filesystem closed` 这种状况通常是由于未能妥善管理生命周期内的各种 I/O 流造成的。一旦某个流被提前关闭,后续再试图对其进行任何进一步的操作都会抛出该类型的例外事件[^3]。 预防措施包括始终遵循良好的实践习惯,比如及时释放不再需要的对象以及合理安排嵌套结构内部各组件之间的依赖关系等。 --- ### 注意事项 - 确保运行时具备访问 HDFS 的必要权限; - 如果涉及跨域通信,则需验证防火墙规则允许相应的端口号通行无阻; - 在生产环境中考虑增加日志记录以便于调试和维护工作开展顺利进行。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值