曾经一直很困惑linux是如何实现udelay的,因为如果使用CPU中断,每一微秒就中断加1,那么CPU就会一直不停的处理中断,这样对于CPU的负荷是很大的。那么肯定不能这么去设计。
那么回忆一下曾经是如何做8051单片机的延时的,那时计算一个指令周期,然后让一个指令循环多次,然后做出延迟的效果。其实Linux内核也是使用了这样的一种方式,但是对于现在的CPU要精确的说出指令周期还是比较麻烦,因为有单周期指令或者多周期指令。而且linux要做出自己的跨平台特性,当然也不能假定使用某种CPU。于是出现了bogomips。
关于bogomips,其实这篇文章已经说得很好了。
http://www.linuxdiyf.com/viewarticle.php?id=67777
其实这个算法同时使用到了中断的定时器,这就是jiffies,它是每1/HZ秒更新一次的。
还有那个折半,经过我的计算发现,这个算法的确很巧妙,如果那个loops_per_sec不是2的n次方,那么计算会发生一些错误。
今天先记到这里。