对于几百M或上G的大文件可使用java nio进行读写 , 根据个人的需求 可能需要将一个超大文件读写形成很多较小的文件进行分析,这也不是什么难事,在读完一个缓冲区后 更换写入的对象即可,本文就不做详细介绍了,有需要的可以联系本人。
直接上程序吧
package cn.gzu.readfile;
import java.io.File;
import java.io.IOException;
import java.io.RandomAccessFile;
import java.nio.ByteBuffer;
import java.nio.channels.FileChannel;
public class ReadWriteNio {
public static void main(String args[]) throws Exception{
int bufSize = 100;
File fin = new File("E:\\jiahui\\2014-09-01.dat");
File fout = new File("E:\\jiahui\\res.txt");
System.out.print("开始读取并重写文件,请等待...");
FileChannel fcin = new RandomAccessFile(fin, "r").getChannel();
ByteBuffer rBuffer = ByteBuffer.allocate(bufSize);
FileChannel fcout = new RandomAccessFile(fout, "rws&#