大量数据写入的方案

场景1:3-4g的excel文件的写入操作
一次大批量的数据写入操作的话,使用传统的文件读取的inputStream显然是不合适的。推荐使用fastjson的stream读取的方式的。需要使用到相关的stream api的方式来实现操作管理的。具体的可以参考这个来处理实现
https://blog.csdn.net/elvishehai/article/details/107604498
或者是使用jackson的streaming api的方式实现操作即可的。大量的数据的对哦操作推荐使用stream的api方式来实现的。
下面是典型的几个使用场景的:
1)大规模的文本处理操作,比如,大规模的json文件的读取和转换操作。
2)大规模的excel文件的读取和写入等操作的
场景2:kakfa需要一次处理几个g的消息;
kafka一次处理大量的数据的话,推荐使用的方案是使用kakfa的bucket的分区操作实现的。其核心类似于es或者是mongodb的bucket操作实现的。
bucket的原理可以解决一次写入大量数据的操作和实现的。下面是使用示例代码和实现的逻辑的。是可以根据对应的分区来实现相关的offset的数据提交的。
ListenableFuture<SendResult<K, V>> send(String topic, Integer partition, Long timestamp, K key, V data);
使用kafka的话,很多的高级的功能实现需要借助于分区的操作来实现的,比如分区提交以及分区的相关的协作等的,这个是kafka的高级的功能的实现思路的。
场景3:es或者是mogodb的一次大批量数据的写入操作实现
es或者是mongodb对应的都是存在bucket分桶的操作的,还包括其他的比如华为的obs等的,分布式文件系统的话,阿里的oss等对应的都是

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值