这段时间做了一个课题,其中涉及到了这样一个问题,需要定时采样数据,比如说每隔10s采集一次数据,然后将数据存储到数据库中。思路大概是这样的,先计算采集数据和存储数据一共花了多少时间(假设小于10s),那么剩余的时间都用来sleep。思路很清晰,关键问题是计算采集数据和存储数据的时间。
网上搜了一下,大概是在采集数据前记录一下当前的时间戳,然后存储数据之后又记录一下当前时间戳,两个时间戳相减就得到了采集数据和存储数据所花费的时间,代码整理如下:
import time
#记录当前时间戳,赋值给start
start = time.time()
#采集数据
#......
#存储数据
#......
#记录当前时间戳,赋值给end
end = time.time()
if (end - start) < 10:
sleep(10-(end - start))
代码看起来没问题,但是我们可能忽视了这样一种情形,就是当代码执行到存储数据时(或者说在start到end这之间的任意一行代码时),有人不小心在终端执行了一下date -s ...
指令,我们知道,该执行会重置时间,那么此时time.time()的值就会改变,也即end会改变,这个时候用(end - start)
所计算出来的值就不是那段程序运行的实际时间了。所以上面那段代码在绝大多时候都是可靠的,但也有不可靠的时候。
而下面的这段代码可以完美解决上面的那个问题,代码如下:
import ctypes, os
__all__ = ["monotonic_time"]
CLOCK_MONOTONIC_RAW = 4 # see <linux/time.h>
class timespec(ctypes.Structure):
_fields_ = [
('tv_sec', ctypes.c_long),
('tv_nsec', ctypes.c_long)
]
librt = ctypes.CDLL('librt.so.1', use_errno=True)
clock_gettime = librt.clock_gettime
clock_gettime.argtypes = [ctypes.c_int, ctypes.POINTER(timespec)]
def monotonic_time():
t = timespec()
if clock_gettime(CLOCK_MONOTONIC_RAW , ctypes.pointer(t)) != 0:
errno_ = ctypes.get_errno()
raise OSError(errno_, os.strerror(errno_))
return t.tv_sec + t.tv_nsec * 1e-9
将time.time替换成monotonic_time就可以了,完整代码如下:
import ctypes, os
import time
__all__ = ["monotonic_time"]
CLOCK_MONOTONIC_RAW = 4 # see <linux/time.h>
class timespec(ctypes.Structure):
_fields_ = [
('tv_sec', ctypes.c_long),
('tv_nsec', ctypes.c_long)
]
librt = ctypes.CDLL('librt.so.1', use_errno=True)
clock_gettime = librt.clock_gettime
clock_gettime.argtypes = [ctypes.c_int, ctypes.POINTER(timespec)]
def monotonic_time():
t = timespec()
if clock_gettime(CLOCK_MONOTONIC_RAW , ctypes.pointer(t)) != 0:
errno_ = ctypes.get_errno()
raise OSError(errno_, os.strerror(errno_))
return t.tv_sec + t.tv_nsec * 1e-9
#记录当前时间戳,赋值给start
start = monotonic_time()
#采集数据
#......
#存储数据
#......
#记录当前时间戳,赋值给end
end = monotonic_time()
if (end - start) < 10:
sleep(10-(end - start))
总的思路一样,只是取当前时间的方式改变了。这里总结一下,time.time()会受到date指令的影响,而monotonic_time却不受影响。有兴趣的人可以去探究一下第二种方法的原理。