关于大文本文件分割的问题

        今天在公司要处理日志文件,一个文件解压下来8G多,在本地用UE打开,由于要查找错误,必须通过关键字查找,UE承受不了,或者说我的电脑承受不了,找不了那么大的文件,卡死了,只能把UE关了,重来还是不行。后来在unix系统下查看,说那个unix系统配置比较高,用more查看,搜索关键字,间隔100多行的还好,间隔个几千几万行的也不行,卡死了,一直说在计算行数。

       没办法,今天一定要把错误查清楚,只能用unix下的split命令把这个文件按1G划分,然后再查看,果然效果很好。不过如果没有unix系统可以用,或者电脑配置没那么高怎么办。

       貌似文本分割器要分割一个8g的文件是不是要很长时间,而且还不知道会不会对电脑伤害很大,希望能寻找一个能快速并且高效的分割大文本文件的软件。

       而且日志文件里的内容太多,我只需要其中的一小部分,能不能快速的把这一小部分分割出来呢,我希望能用一个软件来实现。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值