mysql 导入性能_在将数据导入MySQL时提高性能?

我使用Django构建一个带有MySQL(MyISAM)后端的网站。

数据库数据是从外部脚本处理并输出为JSON文件的许多XML文件中导入的。每当新的JSON文件与旧的JSON文件不同时,我需要擦除旧的MySQL db并使用manage.pyloaddata(至少这是一种简单的方法,我想我可以检查JSON文件之间的差异并将它们应用到数据库中,但是我还没有找到一个很好的解决方案(我既不是一个非常好的编码器,也不是一个web显影剂))。

无论如何,JSON文件大约是10MB,最终大约有21000行SQL(预计不会显著增长)。有7张桌子,它们看起来都是这样的:class Subnetwork(models.Model):

SubNetwork = models.CharField(max_length=50)

NetworkElement = models.CharField(max_length=50)

subNetworkId = models.IntegerField()

longName = models.CharField(max_length=50)

shortName = models.CharField(max_length=50)

suffix = models.CharField(max_length=50)

将它导入MySQL需要一分钟(有时只有30秒)。我不知道这是否应该来自这样大小的文件?我能做什么来改善自己的表现?

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值