Linux 大文件文本处理

前言:

   最近项目在做数据分析,需要接入大量的客户数据;理论上如果我直接访问对方数据库不会慢的,但是对方不允许我们直接访问,要他们推送给我们,一个mysql数据库做中转,这中间写入mysql,我从mysql 读取,速度慢太多了。因此考虑历史数据通过文件发送给我们。综合考虑采用方案为实时数据采用推送,历史数据采用文件一次性给我们。这就带来了一个问题,历史数据有100G。直接读取,内存受不了。按行读取处理太慢。


问题描述:

     由于我的要进行数据处理,我想通过pandas 做一个数据的筛选和预处理,所以我的文件想写入的是pandas,使用pandas模块来读取文件。直接读取会卡死机器。文件有70G大小。



解决方案:

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值