文件锁阻止PHP脚本并发执行

本文探讨了如何防止PHP脚本并发执行导致的数据重复处理问题。首先介绍了使用文件锁的实现方式,包括遇到的死锁问题及解决方案。然后提到了使用flock()函数和Redis的setnx命令作为更优的并发控制手段,分析了它们的工作原理和可能的死锁场景。最后,讨论了如何通过设置过期时间和注册shutdown函数来确保资源的正确释放,以避免死锁。
摘要由CSDN通过智能技术生成

这个标题不知取的是否恰当。

前段时间在工作中,需要做两个定时任务,每隔5分钟执行一次,触发不同的业务逻辑。如果不考虑定时,任务可以当作普通的业务脚本执行即可,但是一考虑了定时任务,就要注意,如果任务已经触发,如何避免当前任务未执行完成,下一个定时器又触发,导致部分数据被重复操作。

例如当前需处理十条数据,处理前先对数据库进行查找操作取出存储在数组内轮询,在执行到第五条时,脚本又被定时器触发了,查询数据库会取得余下五条数据。两个任务类似并发执行,导致相同的数据,被重复处理。

 

最先考虑到的是使用文件锁,用的方法好像有点野路子。每次脚本执行业务逻辑前,先判断某个文件是否存在,若文件存在说明有脚本正在执行,当前任务结束。若判断不存在,则生成一个文件,在任务执行完成后,将文件删除。通过对文件的生成、删除操作,来达到最多只有一个任务在执行的目的。

例子程序:

<?php
class Schedule
{
    public function task1()
    {
        $lockFile = './lock.lock';
        if (file_exists($lockFile)) exit('任务正在执行');
        file_put_contents($lockFile, '1');
        /// ++++++++++++++++++++++++++++++++++++++++++++++++
        /// 执行业务逻辑
        /// ++++++++++++++++++++++++++++++++++++++++++++++++
        echo 123;
        sleep(2);
        unlink($lockFile);
    }
}
$obj = new Schedule();
$obj->task1();

启用20个线程,10个并发。查看结果,

部分任务输出“任务正在执行”

部分任务输出“123”

确实达到了任务不并发执行的效果。

 

思考一会儿时间后,感觉不太保险,如果业务执行发生异常,可能会导致文件死锁。

修改代码如下:

<?php
class Schedule
{
    public function task1()
    {
        $lockFile = './lock.lock';
        if (file_exists($lockFile)) exit('任务正在执行');
        try {
            file_put_contents($lockFile, date('Y-m-d H:i:s'));
            /// ++++++++++++++++++++++++++++++++++++++++++++++++
            /// 执行业务逻辑
            /// +++++++++++++++++++++++++++++++++++++++++++
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值