**********************原创编辑**********************
我正在使用不同类型的时钟来获得LINUX系统的时间:
rdtsc,gettimeofday,clock_gettime
并且已经读过这样的各种线程:
但我有点困惑:
粒度,分辨率,精度,准确度有什么区别?
粒度(或分辨率或精度)和准确度不一样(如果我是对的……)
例如,在使用“clock_gettime”时,精度为10ms,因为我得到:
struct timespec res;
clock_getres( CLOCK_REALTIME, &res):
并且粒度(定义为每秒滴答数)是100Hz(或10ms),正如我在执行时获得的:
long ticks_per_sec = sysconf(_SC_CLK_TCK);
准确度为纳秒,如上面的代码所示:
struct timespec gettime_now;
clock_gettime(CLOCK_REALTIME, &gettime_now); time_difference =
gettime_now.tv_nsec – start_time;
在下面的链接中,我看到这是Linux全局粒度定义,最好不要更改它:
所以我的问题是如果上面的评论是正确的,还有:
a)我们可以看到rdtsc和gettimeofday的粒度是什么(使用命令)?
b)我们可以改变它们(以任何方式)吗?
提前致谢
**********************编辑2号**********************
大家好,我测试了一些新的时钟,我想分享信息:
a)在下面的页面中,David Terei做了一个精美的程序,比较各种时钟和他们的表现:
b)我也测试过ox_get_wtime,就像Raxman所建议的那样,我在nsec中找到了一个精度,但并不比“clock_gettime(就像他们在这个网站上做的那样)更好”:
我认为这是一个面向窗口的时间函数
使用CLOCK_MONOTONIC时clock_gettime比使用CLOCK_REALTIME时给出了更好的结果.这是正常的,因为第一次分别计算处理时间和另一个实时
c)我还发现了英特尔功能ippGetCpuClocks,但我没有测试它,因为它必须首先注册:
…或者您可以使用试用版
感谢大家的回复!