在Javascript中,有个很著名的“bug”.
例如,
<script type="text/css">
var a=0.1,b=0.2,c=a+b;
alert(c);
</script>
按照常理,c=a+b=0.1+0.2=03,但结果却不是这样,在dreamweaver里运行,结果却显示0.30000000000000004。
为什么会出现这个结果呢?
这是由于十进制到二进制的转换导致的精度问题!因为计算机执行的是二进制算术,当一个十进制数不能准确的转化着二进制数时,这种精度误差就无法避免。
学过js的同学都知道,js中的数字都是用浮点数表示的,并规定使用IEEE754标准的双精度浮点数表示。
有关IEEE754,它规定了两种基本浮点格式:单精度和双精度。
单精度格式具有24 位有效数字精度(包含符号号),并总共占用32 位。
双精度格式具有53 位有效数字精度(包含符号号),并总共占用64 位。
基本浮点格式是固定格式,相对应的十进制有效数字分别为7位和17位。基本浮点格式对应的C/C++类型为float和double。
对于十进制状态下的0.1,对应的二进制状态是0.00011001100110011…(循环0011)
因为尾数最多52位,所以实际存储的值为0.00011001100110011001100110011001100110011001100110011001
而对于十进制的0.2,对应的二进制是0.0011001100110011…(循环0011)
因为尾数最多52位,所以实际存储的值为0.00110011001100110011001100110011001100110011001100110011
0.00011001100110011001100110011001100110011001100110011001
+
0.00110011001100110011001100110011001100110011001100110011
=0.01001100110011001100110011001100110011001100110011001100
转换成10进制之后得到:0.30000000000000004
从整个演算过程,我们的最初的疑问肯定迎刃而解了。因此这这并不能认为是js的bug,这几乎出现在很多的编程语言中:C/C++,Java中,准确的说:“使用了IEEE754浮点数格式”来存储浮点类型(float 32,double64)的任何编程语言都有这个问题!