编程语言计算0.1+0.2精度误差的问题

在计算机科学中,由于二进制表示浮点数的限制,0.1和0.2相加的结果可能会出现精度误差。在Python等编程语言中,这种误差表现为0.1+0.2不等于0.3。这是由于二进制无法精确表示某些十进制小数,导致存储和计算时的舍入误差。
摘要由CSDN通过智能技术生成

 在平时如果有人问你0.1+0.2=?的问题,你可能会鄙视他,但在计算机中这却是一个比较头疼的问题,先看一个例子:

    

 

   

结果是多少?

答案是:

    

 

    

在python中:

    

 

 

  

为什么呢?

  我们知道,计算机中存储的都是二进制的0和1,而我们现实中的数存入计算机中转换为二进制时有可能不能整除,也就是不能正好整除,所以用二进制表示现实中的数并计算就产生了误差。

  把十进制的0.1和0.2转换为二进制:

0.1 => 0.0001 1001 1001 1001…(1001无限循环)
0.2 => 0.0011 0011 0011 0011…(0011无限循环)

但是我们计算机的硬件存储的位数是有限制的不可能无限循环下去,一般双精度浮点数总共占用64位,其中最多5

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值