脚本防止重复执行

http://blog.sina.com.cn/s/blog_6f37b64d0100vez8.html


#!/bin/bash

 

## 获取当前的进程号
pid=$$

 

## 获取当前的脚本文件名
name=`basename $0`

 

## 检测进程内是否有此进程号,并且此进程号的运行程序为当前脚本名,如果有则kill此进程
ps -ef|awk -v p=$pid -v n=$name '$2!=p && $NF~n{system("kill "p)}'


sleep 10

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
使用Redis的分布式锁可以有效地防止重复提交。下面是一个更完整的示例代码: ```python import redis import time # 创建Redis连接 redis_client = redis.Redis(host='localhost', port=6379, db=0) def acquire_lock(lock_name, acquire_timeout=10, lock_timeout=10): # 生成唯一的锁标识符 identifier = str(time.time()) end_time = time.time() + acquire_timeout while time.time() < end_time: # 尝试获取锁 if redis_client.set(lock_name, identifier, ex=lock_timeout, nx=True): return identifier time.sleep(0.001) # 等待一段时间后重试 return None def release_lock(lock_name, identifier): # 使用Lua脚本确保原子性操作 release_lock_script = """ if redis.call("get", KEYS[1]) == ARGV[1] then return redis.call("del", KEYS[1]) else return 0 end """ redis_client.eval(release_lock_script, 1, lock_name, identifier) # 使用锁来执行防止重复提交的逻辑 def process_submission(submission_id): lock_name = f"lock:submission:{submission_id}" # 尝试获取锁 identifier = acquire_lock(lock_name) if identifier: try: # 执行提交逻辑 print(f"Processing submission ID {submission_id}") time.sleep(5) # 模拟处理过程 print(f"Submission ID {submission_id} processed successfully") finally: # 释放锁 release_lock(lock_name, identifier) else: print(f"Failed to acquire lock for submission ID {submission_id}") ``` 在这个示例中,`acquire_lock`函数尝试获取一个带有指定名称的锁。它使用`set`命令来设置一个带有超时时间的键,只有在键不存在的情况下才会成功。`set`命令的`nx`选项确保只有一个线程能够成功获取锁。如果获取锁成功,函数将返回一个唯一的标识符,如果超时仍未获取到锁,则返回None。 `release_
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值