如何计算一段程序的执行时间

      在编程时,在一些对时间要求比较高的情况,我们希望知道程序的运行需要用多长时间。如何才能获得程序的运行时间呢,下面我们就介绍一种方法。

     这种方法基于gettimeofday()函数来实现,我们先来看一下代码:

#include<stdio.h>
#include<sys/time.h>

void delay()
{
	for(unsigned long i=0;i<0x0fffffff;i++);
}

int main()
{
	struct timeval time_a;
	struct timeval time_b;
	unsigned long time_delay;

	gettimeofday(&time_a, NULL);
	delay();
	gettimeofday(&time_b, NULL);
	
	time_delay = 1000000 * (time_b.tv_sec - time_a.tv_sec) + time_b.tv_usec - time_a.tv_usec;
	printf("Run time = %ld us\n", time_delay);
	return 0;
}

这段代码的作用是计算delay()函数的执行时间,执行的结果为:

Run time = 479461 us

下面我们就来分析这段代码,首先我们来看一下struct timeval这个结构体的定义,如下

struct timeval

{

    __time_t tv_sec;        

    __suseconds_t tv_usec;  

};

这个结构体中有两个元素,分别为代表时间的秒tv_sec和微妙tv_usec。这个结构体采用“秒+微秒”的格式来表示时间。

另外需要分析的是gettimeofday()函数,它的完整定义为:

int gettimeofday(struct  timeval*tv,struct  timezone *tz )

这个函数的第一个形参是指向timeval结构体的指针,实际上是通过这个指针返回一个timeval格式的时间。这个时间是从1970年0点0分0秒开始计时,经过的秒数和微秒数,并存储到tv指向的结构体。函数的第二个形参用来返回时区信息,由于这个信息我们没有用,所以程序里直接用NULL。函数的返回值为函数执行的结果,成功返回0,失败返回-1。

      通过gettimeofday()函数分别获取delay()函数运行前和运行后的时间,计算两个时间点的差就可以计算出delay()函数的执行时间。

 

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值