关于算法优化过程中遇到的一些问题
算法描述:输入一个double值作为底数,一个int值n作为指数,求该底数n次方的结果
我在尝试执行代码时尝试了三种方法,最简单粗暴的是第一种方法,进行累乘,而第二种则是运用2的指数次方进行计算,第三种方法则是采用类似于字典的思想,运用2的指数次方并通过中间量进行计算(由于中间量即时丢弃所以空间复杂度并不高)
现在问题出现了,三种算法在分别执行约10万次时的结果如下,附带gc日志,可以看到在执行过程中均未发生gc(单位:毫秒)
而当执行次数达到100万次时,结果如下
500万次
1亿次
换句话说,随着执行次数的显著增加,优化过后的代码反而造成了负优化?
百思不得其解,直到最后猜测可能是编译器以及jvm在多线程方面的优化,
笔者打开了电脑的资源监视器重新运行了一次(图中峰值即为第一种算法执行期间CPU的占用率)
换句话说,第一种算法的执行效率其实还是远低于第二种与第三种的,只是因为编译器和jvm对CPU使用的优化所以造成了(负优化的错觉),限于笔者能力有限,这里无法给出可行的解决方案。
最后附上源码:(运行环境intellij IDEAx64 ultimate 2018.1,jdk1.8)
源码可能涉及到的理论知识:IEEE754浮点数格式,位运算,算法的字典思想,通过中间量计算快速进行收敛