mysql数据量大断开_mysql update数据过大,连接断开

有一个2万条的数据源,现在逐条输出 update 另外一个数据表(远程API)的值,由于数据量过大,经常被远程服务器断开或本网页显示 500内部错误,请教一下大师,有什么办法可以优化一下,是否可以分批次更新,请求给一个指导,谢谢

回复讨论(解决方案)

我现在的办法是用for 循环 limit分批 mysql_query() 还是不行,请求指导

经过测试不是数据访问慢,是对方API 响应慢,服务器 直接给断开链接了,直接显示 请问有什么办法可以处理响应超时的

set_time_limit(0);

是你生成sql,然后提交到api,然后api执行的提交的sql?

如果这样,建议你把要执行的sql写在一个文件中,然后提交时把文件提交过去。

API那边接受到文件后,依此执行文件内sql语句即可。

如果结构不能修改,那只能一条条提交,成功返回再提交下一条。因为有可能是API那边连接数有限制了。

是你生成sql,然后提交到api,然后api执行的提交的sql?

如果这样,建议你把要执行的sql写在一个文件中,然后提交时把文件提交过去。

API那边接受到文件后,依此执行文件内sql语句即可。

如果结构不能修改,那只能一条条提交,成功返回再提交下一条。因为有可能是API那边连接数有限制了。

我现在就是把调用 API 这个给放到单独的文件里,一步步调用

我的数据有2万来条,我算过,调用 API 100条需要 30秒 正常反应时间是6000秒,这样主程序早把我给踢出了,提错,有什么办法处理这个问题吗,谢谢版主

为什么调用100条需要30秒呢?你的sql不能优化么?

是你生成sql,然后提交到api,然后api执行的提交的sql?

如果这样,建议你把要执行的sql写在一个文件中,然后提交时把文件提交过去。

API那边接受到文件后,依此执行文件内sql语句即可。

如果结构不能修改,那只能一条条提交,成功返回再提交下一条。因为有可能是API那边连接数有限制了。

我现在就是把调用 API 这个给放到单独的文件里,一步步调用

我的数据有2万来条,我算过,调用 API 100条需要 30秒 正常反应时间是6000秒,这样主程序早把我给踢出了,提错,有什么办法处理这个问题吗,谢谢版主

写错了,是1000条 我还不包括对方网络延迟等因素

按1000条100秒,运行2万条也需要的时间不断,这么久的运行,万网那边就会报错,有什么办法可以分开,一批批的执行吗

开启多个进程处理

我的数据有2万来条,我算过,调用 API 100条需要 30秒 正常反应时间是6000秒,这样主程序早把我给踢出了

因为你执行的是 update,所以你在 SQL 上没有优化的可能(何况还是调用 API 进行)

但 2万条数据是不应通过网站传送的(update 一次只能一条),你可以通过 CLI 方式的程序来操作

用命令行执行

我的数据有2万来条,我算过,调用 API 100条需要 30秒 正常反应时间是6000秒,这样主程序早把我给踢出了

因为你执行的是 update,所以你在 SQL 上没有优化的可能(何况还是调用 API 进行)

但 2万条数据是不应通过网站传送的(update 一次只能一条),你可以通过 CLI 方式的程序来操作

CLI 是什么意思,我查查资料,菜鸟,请见谅

我的是阿里的虚拟主机,这个是运行环境PHP5.5

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值