解决方法:头文件<time.h>中的clock()函数可以获得程序运行的时间。clock()的返回值单位是毫秒,而<time.h>中的CLOCKS_PER_SEC被定义为常数1000,故经常用clock()/CLOCKS_PER_SEC(返回值的单位为秒)作为时间的返回值。
输入一个整数n(1<=n<=10000)求1+2+.....+n 的值
示例1:
#include<stdio.h>
#include<time.h>
int main()
{
int n,i,sum;
scanf("%d",&n);
for(sum=0,i=1;i<=n;i++)
sum+=i;
printf("sum=%d\ntime=%lf\n",sum,(double)clock()/CLOCKS_PER_SEC);
return 0;
}
任意输入一个n,程序一闪而过但输出的time值却大于1s呢,此程序的时间复杂度为O(n),如果时间控制在1s内则n可以高达2000000000,那为什么时间会这么长呢,原因是clock()计算的是从程序开始运行到结束的总时间其中包括手动输入数据的时间,而并不是程序真正运行的时间这个问题问题解决的办法就是采用上篇博客讲的
输入输出重定向用文件读写数据。
示例2:
#include<stdio.h>
#include<time.h>
int main()
{
freopen("input.in","r",stdin);
freopen("output.out","w",stdout);
int n,i,sum;
scanf("%d",&n);
for(sum=0,i=1;i<=n;i++)
sum+=i;
printf("sum=%d\ntime=%lf\n",sum,(double)clock()/CLOCKS_PER_SEC);
return 0;
}
任意输入一个n,再看看输出的time值是不是很小了,这才是程序运行的真实时间。