利用pandas的chunksize分块处理大型csv文件
当读取超大的csv文件时,可能一次性不能全部放入内存中,从而无法加载,所以需要分块处理。
在read_csv中有个参数chunksize,通过指定一个chunksize分块大小来读取文件,返回的是一个可迭代的对象TextFileReader
import pandas as pd
''' chunksize:每一块有100行数据 iterator:可迭代对象 '''
reader = pd.read_csv('all_test.csv',chunksize=100,iterator=True)
count