定义:与问题的大小无关(n的多少),执行时间恒定的算法,我们称之为具有O(1)的时间复杂度,又叫常数阶。
下面这个算法,也就是高斯算法,为什么时间复杂度不是O(3),而是O(1)。
int sum = 0,n = 100; /* 执行一次 */
sum = (1 + n) * n / 2; /* 执行一次 *
/printf("%d", sum); /* 执行一次 */
这个算法的运行次数函数是f(n)=3。
根据我们推导大O阶的方法,第一步就是把常数项3改为1。
在保留最高阶项时发现,它根本没有最高阶项,所以这个算法的时间复杂度为O(1)。
注意:不管这个常数是多少,我们都记作O(1),而不能是O(3)、O(12)等其他任何数字,这是初学者常常犯的错误。
对于分支结构而言,无论是真,还是假,执行的次数都是恒定的,不会随着n的变大而发生变化,
所以单纯的分支结构(不包含在循环结构中),其时间复杂度也是O(1)。