java读写

java1.0中使用InputStream和OutputStream,面向字节的,8位

java1.1中使用Reader和Writer,基于字符,16位


static String read(String filename){

BufferedReader bf = new BufferedReader(new FileReader(filename))

StringBuilder  sb = new StringBuilder();

        while((s = bf.readLine()) != null){

                sb.append(s+"\n");               

       }

       in.close();

       return sb.String();

}



static void writeToFile(String content, String outName){

    // String

  PrintWriter out = new PrintWriter(outName);

  out.write(content.getbytes());

  out.close();

  

}


DataInputStream和DataOutputStream

DataOutputStream out = new DataOutputStream(new BufferedOutputStream(new FileOutputStream("data.txt")));

out.writeUTF("hello world");

out.writeDouble(5.3);

out.writeInt(1);

out.close();


DataInputStream in = new DataInputStream(new BufferedInputStream(new FileInputStream("data.txt")));

System.out.println(in.readUTF()+" " + in.readDouble()+"," + in.readInt());


写字符串时,out.writeUTF(str)是因为

UTF-8将ASCII编码成单一字节,而非ASCII字符编码成两到三个字节。

java中的writeUTF使用的是UTF8的变体


对象读写:

ObjectOutputStream out = new ObjectOutputStream(new FileOutputStream("a.txt"));

Date data = new Date();

out.writeObject(date);

out.close();


ObjectInputStream in = new ObjectInputStream(new FileInputStream("a.txt"));

Date d = (Date)in.readObject();


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Java读写Parquet文件可以使用Apache Parquet库。下面是一个简单的示例代码,演示了如何使用Java读取和写入Parquet文件: 1. 首先,确保你已经添加了Apache Parquet库的依赖。可以在Maven项目中添加以下依赖项: ```xml <dependency> <groupId>org.apache.parquet</groupId> <artifactId>parquet-avro</artifactId> <version>1.12.0</version> </dependency> ``` 2. 读取Parquet文件: ```java import org.apache.avro.generic.GenericRecord; import org.apache.hadoop.fs.Path; import org.apache.parquet.avro.AvroParquetReader; import org.apache.parquet.hadoop.ParquetReader; public class ParquetReaderExample { public static void main(String[] args) { try { Path path = new Path("path/to/parquet/file.parquet"); ParquetReader<GenericRecord> reader = AvroParquetReader.<GenericRecord>builder(path).build(); GenericRecord record; while ((record = reader.read()) != null) { // 处理每一行数据 System.out.println(record); } reader.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 3. 写入Parquet文件: ```java import org.apache.avro.Schema; import org.apache.avro.generic.GenericData; import org.apache.avro.generic.GenericRecord; import org.apache.hadoop.fs.Path; import org.apache.parquet.avro.AvroParquetWriter; import org.apache.parquet.hadoop.ParquetWriter; import org.apache.parquet.hadoop.metadata.CompressionCodecName; public class ParquetWriterExample { public static void main(String[] args) { try { Path path = new Path("path/to/output/file.parquet"); Schema schema = new Schema.Parser().parse(new File("path/to/schema.avsc")); ParquetWriter<GenericRecord> writer = AvroParquetWriter.<GenericRecord>builder(path) .withSchema(schema) .withCompressionCodec(CompressionCodecName.SNAPPY) .build(); GenericRecord record = new GenericData.Record(schema); // 设置record的字段值 record.put("field1", "value1"); record.put("field2", 123); writer.write(record); writer.close(); } catch (Exception e) { e.printStackTrace(); } } } ``` 请注意,上述示例中的路径需要根据实际情况进行替换。另外,读取Parquet文件时,你可能需要根据实际的Avro模式对读取的记录进行处理。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值