php 如何将100w级的数据入库。

场景:生成100w用户的测试数据。

首先是生成用户数据。将100w用户数据插入数据库。

这里一般有两种做法:
一是:批量插入。但是这种会有问题,写程序测试的时候,发现不了。因为5k数据好像都可以批量插入的。但是当数据量非常大,比如10w,100w时,就会发现。内存不够用了。

二是:分批插入(比如,2k条一次,因为单条插入速度太慢了),一般phper 在测试时,都是通过浏览器访问方法,从而执行程序。但是如果插入时间过长,浏览器接收不到服务器的回馈信息,他就直接报504错误(超时),同时程序停止运行。

在这种情况下,可以用CLI的方式用脚本执行php,即可完美解决。

下面是CI 框架的运行方式,相信其他框架也应该可以。
图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
要实现Java百万数据入库,我们可以使用以下方法: 1. 数据库优化:首先,我们需要确保数据库的结构和索引设计得优化且合理,以提高数据入库的速度。可以使用合适的数据库引擎、分区表或者分布式数据库来处理大量的数据。 2. 批量插入:使用JDBC或者ORM框架如Hibernate,批量插入数据是提高入库速度的重要手段。通过将多条数据封装为一个批次,减少了与数据库的交互次数,提高了性能。 3. 多线程并发入库:使用多线程并发来进行数据入库,可以充分利用多核处理器,加快入库速度。可以将数据分组,每个线程负责处理一组数据,通过线程池来管理和调度线程。 4. 延迟提交事务:对于大批量数据入库操作,可以进行延迟提交事务,即将事务的提交操作放置在批量插入的结束后,而不是在每次插入之后立即提交。这样可以减少了频繁的事务开销,提高了性能。 5. 使用批处理工具:可以使用一些批处理工具如Spring Batch来处理大规模数据入库任务。这些工具提供了可靠的任务调度和管理机制,能够有效地处理大量的数据。 6. 数据分片:对于特别庞大的数据集,可以考虑将数据进行分片处理,拆分为多个小的数据集进行并发入库。可以根据数据的某些特征,如年份或者地理位置,进行数据分片。 最后,为了保证数据的安全性,我们可以实现数据备份和容灾机制,以避免可能的数据丢失或损坏。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值