【Python基础】为何0.1+0.2≠0.3,使用Python程序深入理解计算机浮点数的运算
用过Python这门编程语言的应该都会发现,当我们输入0.1+0.2时,打印出来的却不是0.3,而是0.30000000000000004。
那么这是为什么呢?其实不仅是Python,很多编程语言例如C、Java、JavaScript等等都有这种特性
Java:
原理很简单,所有数的运算在计算机中都是进行二进制计算的,十进制小数也是一样,十进制小数在进行运算时首先将十进制数转换成二进制数之后再进行运算,运算结果又转换成十进制并显示出来。
1、IEEE 754规范
所有浮点数在进行运算时都需要遵循IEEE 754
规范,IEEE 754
浮点数表示方法规定浮点数的两种转化方式:
- 单精度浮点数(
float
):1
位符号位+8
位指数位+23
位尾数位 - 双精度浮点数(
double
):1
位符号位+11
位符号位+52
位尾数位
其中符号位用来表示正负,指数位限制数的范围,尾数位限制数的精度。这也就是说,当采用float
类型表示浮点数时,能表示二进制的范围是+(8位指数).(23位小数)~-(8位指数).(23位小数),所以在把十进制小数0.1转化成二进制小数时得到的是一个超出能表示二进制小数最大尾数的小数并且是无限小数,但因为表示的范围有限,仅保留前23位小数,