关闭

怎么取系统时间取到微秒级啊?

标签: integertimerwindowsperformance图形mfc
3273人阅读 评论(2) 收藏 举报
分类:

问?
问题点数:20、 回复次数:6

一种制作微秒级精度定时器的方法(转贴)  
   
  当使用定时器时,在很多情况下只用到毫秒级的时间间隔,所以只需用到下面的两种常用方式就满足要求了。一是用SetTimer函数建立一个定时器后,在程 序中通过处理由定时器发送到线程消息队列中的WM_TIMER消息,而得到定时的效果(退出程序时别忘了调用和SetTimer配对使用的 KillTimer函数)。二是利用GetTickCount函数可以返回自计算机启动后的时间,通过两次调用GetTickCount函数,然后控制它 们的差值来取得定时效果,此方式跟第一种方式一样,精度也是毫秒级的。    
     
  用这两种方式取得的定时效果虽然在许多场合已经满足实际的要求,但由于它们的精度只有毫秒级的,而且在要求定时时间间隔小时,实际定时误差大。下面介绍一种能取得高精度定时的方法。    
     
  在一些计算机硬件系统中,包含有高精度运行计数器(high-resolution   performance   counter),利用它可以获得高精度定时间隔,其精度与CPU的时钟频率有关。采用这种方法的步骤如下:    
     
  1、首先调用QueryPerformanceFrequency函数取得高精度运行计数器的频率f。单位是每秒多少次(n/s),此数一般很大。    
  2、在需要定时的代码的两端分别调用QueryPerformanceCounter以取得高精度运行计数器的数值n1,n2。两次数值的差值通过f换算成时间间隔,t=(n2-n1)/f。    
     
  下面举一个例子来演示这种方法的使用及它的精确度。    
     
  在VC   6.0   下用MFC建立一个对话框工程,取名为HightTimer.在对话框面板中控件的布局如下图:    
       
     
  其中包含两个静态文本框,两个编辑框和两个按纽。上面和下面位置的编辑框的ID分别为IDC_E_TEST和IDC_E_ACTUAL,通过MFC   ClassWizard添加的成员变量也分别对应为DWORD   m_dwTest和DWORD   m_dwAct.   “退出”按纽的ID为IDOK,“开始测试”按纽ID为IDC_B_TEST,用MFC   ClassWizard添加此按纽的单击消息处理函数如下:    
     
  void   CHightTimerDlg::OnBTest()      
  {    
  //   TODO:   Add   your   control   notification   handler   code   here    
  UpdateData(TRUE);   //取输入的测试时间值到与编辑框相关联的成员变量m_dwTest中    
     
  LARGE_INTEGER   frequence;    
  if(!QueryPerformanceFrequency(   &frequence))   //取高精度运行计数器的频率,若硬件不支持则返回FALSE    
  MessageBox("Your   computer   hardware   doesn't   support   the   high-resolution   performance   counter",    
  "Not   Support",   MB_ICONEXCLAMATION   |   MB_OK);      
     
  LARGE_INTEGER   test,   ret;    
  test.QuadPart   =   frequence.QuadPart   *   m_dwTest   /   1000000;   //通过频率换算微秒数到对应的数量(与CPU时钟有关),1秒=1000000微秒    
  ret   =   MySleep(   test   );   //调用此函数开始延时,返回实际花销的数量    
     
  m_dwAct   =   (DWORD)(1000000   *   ret.QuadPart   /   frequence.QuadPart   );   //换算到微秒数    
     
  UpdateData(FALSE);   //显示到对话框面板    
  }    
     
  其中上面调用的MySleep函数如下:    
     
  LARGE_INTEGER   CHightTimerDlg::MySleep(LARGE_INTEGER   Interval)    
  /////////////////////////////////////////////////////////////////////////////////////////////////////////////    
  //   功能:执行实际的延时功能    
  //   参数:Interval   参数为需要执行的延时与时间有关的数量    
  //   返回值:返回此函数执行后实际所用的时间有关的数量    
  ///////////////////////////////////////////////////////////////////////////////////////////////////////////    
  {    
  LARGE_INTEGER   privious,   current,   Elapse;    
     
  QueryPerformanceCounter(   &privious   );    
  current   =   privious;    
     
  while(   current.QuadPart   -   privious.QuadPart   <   Interval.QuadPart   )    
  QueryPerformanceCounter(   ¤t   );    
     
  Elapse.QuadPart   =   current.QuadPart   -   privious.QuadPart;    
     
  return   Elapse;    
  }    
  注:别忘了在头文件中为此函数添加函数声明。    
     
  至此,可以编译和执行此工程了,结果如上图所示。在本人所用的机上(奔腾366,   64M内存)测试,当测试时间超过3微秒时,准确度已经非常高了,此时机器执行本身延时函数代码的时间对需要延时的时间影响很小了。    
     
  上面的函数由于演示测试的需要,没有在函数级封装,下面给出的函数基本上可以以全局函数的形式照搬到别的程序中。    
     
  BOOL   MySleep(DWORD   dwInterval)    
  /////////////////////////////////////////////////////////////////////////////////////////////////////////////    
  //   功能:执行微秒级的延时功能    
  //   参数:Interval   参数为需要的延时数(单位:微秒)    
  //   返回值:若计算机硬件不支持此功能,返回FALSE,若函数执行成功,返回TRUE    
  ///////////////////////////////////////////////////////////////////////////////////////////////////////////    
  {    
  BOOL   bNormal   =   TRUE;    
  LARGE_INTEGER   frequence,   privious,   current,   interval;    
     
  if(!QueryPerformanceFrequency(   &frequence))    
  {    
  ::MessageBox(NULL,   "Your   computer   hardware   doesn't   support   the   high-resolution   performance   counter",    
  "Not   Support",   MB_ICONEXCLAMATION   |   MB_OK);   //或其它的提示信息    
  return   FALSE;    
  }    
     
  interval.QuadPart   =   frequence.QuadPart   *   dwInterval   /   1000000;    
     
  bNormal   =   bNormal   &&   QueryPerformanceCounter(   &privious   );    
  current   =   privious;    
     
  while(   current.QuadPart   -   privious.QuadPart   <   interval.QuadPart   )    
  bNormal   =   bNormal   &&   QueryPerformanceCounter(   ¤t   );    
     
  return   bNormal;    
  }    
     
  需要指出的是,由于在此函数中的代码很多,机器在执行这些代码所花费的时间也很长,所以在需要几个微秒的延时时,会影响精度。实际上,读者在熟悉这种方法 后,只要使用QueryPerformanceFrequency和QueryPerformanceCounter这两个函数就能按实际需要写出自己的 延时代码了。    
 

再贴一个  
  使用CPU时间戳进行高精度计时  
     
  2003-3-27   13:14:11       GAMERES       zhangyan_qd       阅读次数:   764    
    对关注性能的程序开发人员而言,一个好的计时部件既是益友,也是良师。计时器既可以作为程序组件帮助程序员精确的控制程序进程,又是一件有力的调试武器,在有经验的程序员手里可以尽快的确定程序的性能瓶颈,或者对不同的算法作出有说服力的性能比较。  
   
    在Windows平台下,常用的计时器有两种,一种是timeGetTime多媒体计时器,它可以提供毫秒级的计时。但这个精度对很多应用场合而言还 是太粗糙了。另一种是QueryPerformanceCount计数器,随系统的不同可以提供微秒级的计数。对于实时图形处理、多媒体数据流处理、或者 实时系统构造的程序员,善用QueryPerformanceCount/QueryPerformanceFrequency是一项基本功。  
   
    本文要介绍的,是另一种直接利用Pentium   CPU内部时间戳进行计时的高精度计时手段。以下讨论主要得益于《Windows图形编程》一书,第15页-17页,有兴趣的读者可以直接参考该书。关于 RDTSC指令的详细讨论,可以参考Intel产品手册。本文仅仅作抛砖之用。  
    在Intel   Pentium以上级别的CPU中,有一个称为“时间戳(Time   Stamp)”的部件,它以64位无符号整型数的格式,记录了自CPU上电以来所经过的时钟周期数。由于目前的CPU主频都非常高,因此这个部件可以达到 纳秒级的计时精度。这个精确性是上述两种方法所无法比拟的。  
   
    在Pentium以上的CPU中,提供了一条机器指令RDTSC(Read   Time   Stamp   Counter)来读取这个时间戳的数字,并将其保存在EDX:EAX寄存器对中。由于EDX:EAX寄存器对恰好是Win32平台下C++语言保存函数 返回值的寄存器,所以我们可以把这条指令看成是一个普通的函数调用。像这样:  
   
  inline   unsigned   __int64   GetCycleCount()  
  {  
    __asm   RDTSC  
  }  
   
  但是不行,因为RDTSC不被C++的内嵌汇编器直接支持,所以我们要用_emit伪指令直接嵌入该指令的机器码形式0X0F、0X31,如下:  
   
  inline   unsigned   __int64   GetCycleCount()  
  {  
    __asm   _emit   0x0F  
    __asm   _emit   0x31  
  }  
   
  以后在需要计数器的场合,可以像使用普通的Win32   API一样,调用两次GetCycleCount函数,比较两个返回值的差,像这样:  
   
  unsigned   long   t;  
  t   =   (unsigned   long)GetCycleCount();  
  //Do   Something   time-intensive   ...  
  t   -=   (unsigned   long)GetCycleCount();  
   
    《Windows图形编程》第15页编写了一个类,把这个计数器封装起来。有兴趣的读者可以去参考那个类的代码。作者为了更精确的定时,做了一点小小 的改进,把执行RDTSC指令的时间,通过连续两次调用GetCycleCount函数计算出来并保存了起来,以后每次计时结束后,都从实际得到的计数中 减掉这一小段时间,以得到更准确的计时数字。但我个人觉得这一点点改进意义不大。在我的机器上实测,这条指令大概花掉了几十到100多个周期,在 Celeron   800MHz的机器上,这不过是十分之一微秒的时间。对大多数应用来说,这点时间完全可以忽略不计;而对那些确实要精确到纳秒数量级的应用来说,这个补偿 也过于粗糙了。  
   
  这个方法的优点是:  
   
  1.高精度。可以直接达到纳秒级的计时精度(在1GHz的CPU上每个时钟周期就是一纳秒),这是其他计时方法所难以企及的。  
   
  2.成本低。timeGetTime   函数需要链接多媒体库winmm.lib,QueryPerformance*   函数根据MSDN的说明,需要硬件的支持(虽然我还没有见过不支持的机器)和KERNEL库的支持,所以二者都只能在Windows平台下使用(关于 DOS平台下的高精度计时问题,可以参考《图形程序开发人员指南》,里面有关于控制定时器8253的详细说明)。但RDTSC指令是一条CPU指令,凡是 i386平台下Pentium以上的机器均支持,甚至没有平台的限制(我相信i386版本UNIX和Linux下这个方法同样适用,但没有条件试验),而 且函数调用的开销是最小的。  
   
  3.具有和CPU主频直接对应的速率关系。一个计数相当于1/(CPU主频Hz数)秒,这样只要知道了CPU的主频,可以直接计算出时间。这和 QueryPerformanceCount不同,后者需要通过QueryPerformanceFrequency获取当前计数器每秒的计数次数才能换 算成时间。  
   
  这个方法的缺点是:  
   
  1.现有的C/C++编译器多数不直接支持使用RDTSC指令,需要用直接嵌入机器码的方式编程,比较麻烦。  
   
  2.数据抖动比较厉害。其实对任何计量手段而言,精度和稳定性永远是一对矛盾。如果用低精度的timeGetTime来计时,基本上每次计时的结果都是相同的;而RDTSC指令每次结果都不一样,经常有几百甚至上千的差距。这是这种方法高精度本身固有的矛盾。  
   
  关于这个方法计时的最大长度,我们可以简单的用下列公式计算:  
   
  自CPU上电以来的秒数   =   RDTSC读出的周期数   /   CPU主频速率(Hz)  
   
  64位无符号整数所能表达的最大数字是1.8×10^19,在我的Celeron   800上可以计时大约700年(书中说可以在200MHz的Pentium上计时117年,这个数字不知道是怎么得出来的,与我的计算有出入)。无论如 何,我们大可不必关心溢出的问题。  
   
  下面是几个小例子,简要比较了三种计时方法的用法与精度  
   
  //Timer1.cpp   使用了RDTSC指令的Timer类//KTimer类的定义可以参见《Windows图形编程》P15  
  //编译行:CL   Timer1.cpp   /link   USER32.lib  
  #include   <stdio.h>  
  #include   "KTimer.h"  
  main()  
  {  
    unsigned   t;  
    KTimer   timer;  
    timer.Start();  
    Sleep(1000);  
    t   =   timer.Stop();  
    printf("Lasting   Time:   %d/n",t);  
  }  
   
  //Timer2.cpp   使用了timeGetTime函数  
  //需包含<mmsys.h>,但由于Windows头文件错综复杂的关系  
  //简单包含<windows.h>比较偷懒:)  
  //编译行:CL   timer2.cpp   /link   winmm.lib    
  #include   <windows.h>  
  #include   <stdio.h>  
   
  main()  
  {  
    DWORD   t1,   t2;  
    t1   =   timeGetTime();  
    Sleep(1000);  
    t2   =   timeGetTime();  
    printf("Begin   Time:   %u/n",   t1);  
    printf("End   Time:   %u/n",   t2);  
    printf("Lasting   Time:   %u/n",(t2-t1));  
  }  
   
  //Timer3.cpp   使用了QueryPerformanceCounter函数  
  //编译行:CL   timer3.cpp   /link   KERNEl32.lib  
  #include   <windows.h>  
  #include   <stdio.h>  
   
  main()  
  {  
    LARGE_INTEGER   t1,   t2,   tc;  
    QueryPerformanceFrequency(&tc);  
    printf("Frequency:   %u/n",   tc.QuadPart);  
    QueryPerformanceCounter(&t1);  
    Sleep(1000);  
    QueryPerformanceCounter(&t2);  
    printf("Begin   Time:   %u/n",   t1.QuadPart);  
    printf("End   Time:   %u/n",   t2.QuadPart);  
    printf("Lasting   Time:   %u/n",(   t2.QuadPart-   t1.QuadPart));  
  }  
   
  ////////////////////////////////////////////////  
  //以上三个示例程序都是测试1秒钟休眠所耗费的时间  
  file://测/试环境:Celeron   800MHz   /   256M   SDRAM      
  //                     Windows   2000   Professional   SP2  
  //                     Microsoft   Visual   C++   6.0   SP5  
  ////////////////////////////////////////////////  
   
  以下是Timer1的运行结果,使用的是高精度的RDTSC指令  
  Lasting   Time:   804586872  
   
  以下是Timer2的运行结果,使用的是最粗糙的timeGetTime   API  
  Begin   Time:   20254254  
  End   Time:   20255255  
  Lasting   Time:   1001  
   
  以下是Timer3的运行结果,使用的是QueryPerformanceCount   API  
  Frequency:   3579545  
  Begin   Time:   3804729124  
  End   Time:   3808298836  
  Lasting   Time:   3569712  
   
    古人说,触类旁通。从一本介绍图形编程的书上得到一个如此有用的实时处理知识,我感到非常高兴。有美不敢自专,希望大家和我一样喜欢这个轻便有效的计时器。  
     
 

0
0

查看评论
* 以上用户言论只代表其个人观点,不代表CSDN网站的观点或立场
    个人资料
    • 访问:167800次
    • 积分:2135
    • 等级:
    • 排名:第18475名
    • 原创:32篇
    • 转载:43篇
    • 译文:0篇
    • 评论:78条
    最新评论