JAVA:IO流 之 节点流和处理流以及流的关闭顺序(5)

原文出处:http://www.cnblogs.com/byrhuangqiang/p/3924985.html?utm_source=tuicool&utm_medium=referral

  • 代码:
 FSDataInputStream fsin = fs.open(new Path(filein));
 FSDataOutputStream fsout = fs.append(new Path(fileout));
 BufferedReader br = new BufferedReader(new InputStreamReader(fsin));
 BufferedWriter bw = new BufferedWriter(new OutputStreamWriter(fsout));
 br.close();
 fsin.close();
 bw.close();
 fsout.close();
  • 异常:
[root@bigdata004 bigdata]# ./bigdataTimer.sh 
INFO [main] com.sinosoft.bigdata.BigDataTimer.main(227) | -----Timer begin-----
INFO [main] com.sinosoft.bigdata.BigDataInit.<clinit>(70) | bigdata init ...
WARN [main] org.apache.hadoop.util.NativeCodeLoader.<clinit>(62) | Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
INFO [main] com.sinosoft.bigdata.BigDataTimer.mergeFile(66) | Finished appending file.
INFO [main] com.sinosoft.bigdata.BigDataTimer.mergeFile(68) | deleted the input data path.
INFO [main] com.sinosoft.bigdata.BigDataTimer.mergeFile(70) | create the input data path.
ERROR [main] org.apache.hadoop.hdfs.DFSClient.closeAllFilesBeingWritten(776) | Failed to close file /user/root/dayfileInput/dayfileIn
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.hdfs.server.namenode.LeaseExpiredException): No lease on /user/root/dayfileInput/dayfileIn: File does not exist. Holder DFSClient_NONMAPREDUCE_-221972347_1 does not have any open files.
  • 原因:关闭处理流br.close();之后,紧接着关闭了与之相关的fsin.close();的节点流。事实上,br.close();会调用fsin.close(); 因此重复关闭了2次fsin.close();最后抛出了异常。

  • 回顾了一下流的知识:

(1)按照流是否直接与特定的地方(如磁盘、内存、设备等)相连,分为节点流和处理流两类。  
节点流:可以从或向一个特定的地方(节点)读写数据。如FileReader.
处理流:是对一个已存在的流的连接和封装,通过所封装的流的功能调用实现数据读写。如BufferedReader.处理流的构造方法总是要带一个其他的流对象做参数。一个流对象经过其他流的多次包装,称为流的链接。

(2)JAVA常用的节点流:  
文 件 FileInputStream FileOutputStrean FileReader FileWriter 文件进行处理的节点流。
字符串 StringReader StringWriter 对字符串进行处理的节点流。
数 组 ByteArrayInputStream ByteArrayOutputStreamCharArrayReader CharArrayWriter 对数组进行处理的节点流(对应的不再是文件,而是内存中的一个数组)。
管 道 PipedInputStream PipedOutputStream PipedReaderPipedWriter对管道进行处理的节点流。

(3)常用处理流(关闭处理流使用关闭里面的节点流)
缓冲流:BufferedInputStrean BufferedOutputStream BufferedReader BufferedWriter —增加缓冲功能,避免频繁读写硬盘。
转换流:InputStreamReader OutputStreamReader实现字节流和字符流之间的转换。
数据流 DataInputStream DataOutputStream 等-提供将基础数据类型写入到文件中,或者读取出来.

  • 流的关闭顺序
    -一般情况下是:先打开的后关闭,后打开的先关闭。
    -另一种情况:看依赖关系,如果流a依赖流b,应该先关闭流a,再关闭流b。例如,处理流a依赖节点流b,应该先关闭处理流a,再关闭节点流b。
  • 可以只关闭处理流,不用关闭节点流。处理流关闭的时候,会调用其处理的节点流的关闭方法。

  • 注意
    -如果将节点流关闭以后再关闭处理流,会抛出IO异常。
    -如果关闭了处理流,在关闭与之相关的节点流,也可能出现IO异常。(hadoop编程文件流操作中遇到了。)

  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值