python读取.csv 大文件的解决办法(iterator=true)

import pandas as pd
import datetime
import warnings
warnings.filterwarnings('ignore')
#数据导入
#调查日期
today = datetime.date.today()  
searchdate = datetime.datetime.strftime(today, "%Y-%m-%d") 
path = r'C:\Users\wuxian\Desktop\\\'
#读取共有多少行数据
with open(r"20200301之前采购数据.csv", encoding="utf-8") as f:
    size = len(f.readlines())
    print("CSV line number: %d" % (size))  

#导入部分数据进行测试,并删除无用字段
reader0 = pd.read_csv(path+'20200301之前采购数据.csv',nrows=1000)
reader0
columns = reader0.dropna(axis=1).columns.tolist()#指定参数iterator = True返回一个可迭代对象TextFileReader :
reader = pd.read_csv(path+'20200301之前采购数据.csv',iterator=True,chunksize = 100000,usecols = columns)
#法一    
loop = True
chunksize = 10000000
chunks = []
while loop:
    try:
        chunk = reader.get_chunk(chunksize)
        chunks.append(chunk)
    except StopIteration:
        loop = False
        print('Iteration is stopped')
        
        
df = pd.concat(chunks,ignore_index=True)
df.shape
df.tail()

#法二
mylist = []
for i in reader:
    mylist.append(i)
    print(i.shape)
    
finaldf = pd.DataFrame(mylist)
finaldf.shape
      
  • 4
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
在看代码之前,首先需要明确一下需求和问题,这段代码的主要目的是读取大型CSV文件并使用多线程对每个数据块进行处理,最终将结果合并为一个DataFrame,同时还包括一个打开文件对话框。 优化建议如下: 1. 对于打开文件对话框,可以将其封装成一个函数,而不是放在类中,这样代码更加简洁,可读性更高。 2. 可以将MyThread类中的to_csv方法移除,因为该方法不符合类的定义,应该在主函数中调用。 3. 可以将读取CSV文件和创建线程的操作移动到一个函数中,这样代码结构更清晰。 4. 在处理每个DataFrame块的时候,可以使用apply方法来代替for循环,这样可以提高处理效率。 5. 可以使用ThreadPoolExecutor来管理线程池,这样可以更好地控制线程数目。 6. 可以在主函数中添加异常处理,以处理可能出现的错误情况。 修改后的代码如下: ```python import pandas as pd from tkinter import filedialog from tkinter import * from concurrent.futures import ThreadPoolExecutor class MyThread(threading.Thread): def __init__(self, df): threading.Thread.__init__(self) self.df = df def run(self): # 在这里对每个DataFrame块进行处理 result = self.df.apply(lambda x: x * 2) # 示例操作,可以根据实际需求进行修改 return result def open_file_dialog(): root = Tk() filename = filedialog.askopenfilename(filetypes=[("CSV Files", "*.csv")]) return filename def process_csv_file(filename): try: # 读取文件,并使用mmap和chunksize进行处理 chunksize = 1000000 df_iterator = pd.read_csv(filename, chunksize=chunksize, mmap=True) # 创建线程池,并将每个DataFrame块分配给不同的线程进行处理 with ThreadPoolExecutor(max_workers=4) as executor: threads = [executor.submit(MyThread(df).run) for df in df_iterator] # 获取所有线程的处理结果 results = [thread.result() for thread in threads] # 将所有处理结果合并为一个DataFrame result = pd.concat(results) print(result) except Exception as e: print("Error:", e) if __name__ == "__main__": filename = open_file_dialog() if filename: process_csv_file(filename) ``` 需要注意的是,在上面的代码中,使用了apply方法来处理每个DataFrame块,这样可以避免使用for循环来遍历每行数据,提高处理效率。同时,使用了ThreadPoolExecutor来管理线程池,可以更好地控制线程数目,避免线程过多导致系统资源浪费。最后,在主函数中添加异常处理语句,以处理可能出现的错误情况,提高代码健壮性。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值