前言:
-
预期读者:
非程序科班出身,或对浮点精度只有少量了解的同学.
-
写作目的:
网上的教程很少有循序渐进的,作此文以弥补之。
现象:
先看一个现象吧:
System.out.println(0.05 + 0.01);
System.out.println(1.0 - 0.42);
System.out.println(4.015 * 100);
System.out.println(123.3 / 100);
打印结果:
0.060000000000000005
0.5800000000000001
401.49999999999994
1.2329999999999999
OK,出现了问题。不是我们想的那样。
结论是:
浮点型的加减都出现了问题。
有浮点参与的乘除运算也出现了问题。
这里要说明一点,这只是我们举例出现了问题,这个例子不代表全部,
在编程中,我们碰到的大部分的浮点计算都是准确的,小部分的浮点计算是失真的。注意,是小部分,而不是某个或者某几个,所以碰到浮点误差也是很正常的事情。
但实际上,在计算机中,在无限的浮点实数运算中,如果说准确的概率是撒哈拉沙漠,那么有误差的计算大概如浩瀚星空。