django orm插入一条_使用Django的ORM加速批量插入?

我在Django 1.10/Postgresql 9.4/Pandas 0.19.0上运行了一些测试,得到了以下时间:

分别插入3000行并使用Django ORM从填充的对象获取id:

3200毫秒

插入3000行熊猫

DataFrame.to_sql()

而且不要得到身份证:

774毫秒

使用Django管理器插入3000行

.bulk_create(Model(**df.to_records()))

而且不要得到身份证:

574毫秒

插入3000行

to_csv

StringIO

缓冲区和

COPY

(

cur.copy_from()

)而且不要得到身份证:

118毫秒

插入3000行

到csv

复制

通过简单的

SELECT WHERE ID > [max ID before insert]

(可能不是线程安全的,除非

复制

把锁放在桌子上防止同时插入?):

201毫秒

def bulk_to_sql(df, columns, model_cls):

""" Inserting 3000 takes 774ms avg """

engine = ExcelImportProcessor._get_sqlalchemy_engine()

df[columns].to_sql(model_cls._meta.db_table, con=engine, if_exists='append', index=False)

def bulk_via_csv(df, columns, model_cls):

""" Inserting 3000 takes 118ms avg """

engine = ExcelImportProcessor._get_sqlalchemy_engine()

connection = engine.raw_connection()

cursor = connection.cursor()

output = StringIO()

df[columns].to_csv(output, sep='\t', header=False, index=False)

output.seek(0)

contents = output.getvalue()

cur = connection.cursor()

cur.copy_from(output, model_cls._meta.db_table, null="", columns=columns)

connection.commit()

cur.close()

性能统计数据都是在一个已经包含3000行在OSX(i7ssd16GB)上运行的表上获得的,使用

timeit

.

我通过分配导入批处理id和按主键排序来获取插入的主键,尽管我并不是100%确定的主键将始终按行的序列化顺序分配给

复制

指挥部-无论哪种意见都会很感激。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值