单精度数

单精度存储格式

符号位S (sign) - 1bit
0代表正号,1代表负号。(+0、 -0视为相同?(欢迎补充资料)) +0是0000 0000
-0是1111 1111 用-128代替 它没有 反码补码
指数位E(exponent) - 8bit
E的 取值范围为0-255(无符号整数),双精度为11位,扩张型大于等于15位,实际数值e=E-127。
有时E也称为“ 移码”,或称为“ 阶码
尾数位M(mantissa) - 23bit
M也叫有效数字位(significant)、系数位(coefficient),甚至被称作“小数”。
在一般情况下,m=(1.M)2,使得实际起作用范围为1≤尾数<2。
为了对溢出进行处理,以及扩展对接近0的极小数值的处理能力,IEEE 754对M做了一些额外规定,参见后文介绍。

单精度浮点数实例

对于内部存储数据(00111111 01100110 01100110 01100110)2:
符号位
(最左侧)S=0。这表示是个正数
指数
(左侧第2-9位)E=(01111110)2=(126)10,所以e=E-127=-1。
尾数
(最后的23位)M=(1100110 01100110 01100110)2,m=(1.M)2=(1.7999999523162841796875)10
该二进制小数转为10进制的计算方式为1 + (1/2+1/4) + (1/32+1/64) + (1/512+1/1024)……
实际值
N=1.7999999523162841796875*2^-1=0.89999997615814208984375
(其实,这个数据是0.9的 单精度浮点数的实际内部存储,可以看到有一定的误差)
这里继续给出另外几个数字的实例:
使用竖线|将各个段位分隔显示
实际值 | 符号位 | ;指数 | ;尾数
1 | 0 | 01111111 | 00000000000000000000000
2 | 0 | 10000000 | 00000000000000000000000
⒍5 | 0 | 10000001 | 10100000000000000000000
-6.5 | 1 | 10000001 | 10100000000000000000000

单精度浮点数的表示范围及说明

表示范围

最大表示范围: 单精度浮点数可以表示的范围为±3.40282 * 10^38(
单精度

  单精度

1.1111...1×2^127)
接近于0的最小值: 单精度浮点数可以表示1.175 * 10-38(1.00...0×2^-126)的数据而不损失精度。
当数值比以上值小的时候,将会由于尾数的有效位数减少而逐步丧失精度(IEEE 754的规定),或者有的系统则直接采用0值来简化处理过程。
精度
单精度浮点数的实际有效精度为24位 二进制,这相当于 24*log102≈7.2 位10进制的精度,所以平时我们说“单精度浮点数具有7位精度”。(精度的理解:当从1.000...02变化为1.000...12时,变动范围为2^23,考虑到因为四舍五入而得到的1倍精度提高,所以 单精度浮点数可以反映2^24的数值变化,即24位二进制精度)
误差
浮点数以有限的32bit长度来反映无限的实数集合,因此大多数情况下都是一个近似值。同时,对于 浮点数的运算还同时伴有误差 扩散现象
特定精度下看似相等的两个浮点数可能并不相等,因为它们的最小 有效位数不同。
由于 浮点数可能无法精确近似于 十进制数,如果使用十进制数,则使用浮点数的数学或比较运算可能不会产生相同的结果。
如果涉及浮点数,值可能不往返。值的往返是指,某个运算将原始浮点数转换为另一种格式,而反向运算又将转换后的格式转换回浮点数,且最终浮点数与原始浮点数相等。由于一个或多个最低有效位可能在转换中丢失或更改,往返可能会失败。

不同实现中的单精度存储变形

单精度浮点数应用广泛,而一些低成本的单片机系统中不具备数学运算的协处理器硬件,因而在在不同系统中,根据硬件特性对浮点数的 软件实现进行了相应调整和简化。
单精度浮点数存储格式

  单精度浮点数存储格式

存在如下一些IEEE 754常见变形:
高低位的字节顺序不同
即高字节在先的big endian和低字节在先的little endian。后者在Intel、Motorola等的CPU中大量使用。
指数部分被单独存为一字节
独立字节比较便于处理。此类系统会把符号位与 尾数结合起来存放。
此外,不同系统中对于下列特性可能有细微差异:
无穷大、NaN的规定和处理
这可能会影响到溢出特性
非归一化数据的处理
有可能为了简单,而将无法归一化的小数值直接以0来处理;有的则直接采用(0.M)2方案表示全域尾数,以牺牲1位二进制精度的代价换取算法的同意。
以上两部分的改变,对大多数的应用情形影响不大。

单双精度浮点数的IEEE标准格式

目前大多数高级语言(包括C)都按照IEEE-754标准来规定浮点数的存储格式,IEEE754规定, 单精度浮点数用4字节存储, 双精度浮点数用8字节存储,分为三个部分:符号位、阶和尾数。阶即指数,尾数即有效 小数位数。单精度格式阶占8位,尾数占24位,符号位1位,双精度则为11为阶,53位尾数和1位符号位。
细心的人会发现,单双精度各部分所占字节数量比实际存储格式都了一位,的确是这样,事实是, 尾数部分包括了一位隐藏位,允许只存储23位就可以表示24位尾数,默认的1位是 规格化浮点数的第一位,当规格化一个 浮点数时,总是调整它使其值大于等于1而小于2,亦即个位总是为1。例如1100B,对其 规格化的结果为1.1乘以2的三次方,但个位1并不存储在23位尾数部分内,这个1是默认位。
阶以 移码的形式存储。对于 单精度浮点数,偏移量为127(7FH),而双精度的偏移量为1023(3FFH)。存储浮点数的 阶码之前,偏移量要先加到阶码上。前面例子中,阶为2的三次方,在 单精度浮点数中, 移码后的结果为127+3即130(82H),双精度为1026(402H)。
浮点数有两个例外。数0.0存储为全零。无限大数的 阶码存储为全1,尾数部分全零。符号位指示 正无穷或者 负无穷
下面举几个例子:
单精度浮点数
十进制 ;规格化 ;符号 ;移阶码 尾数
-12 -1.1x2^3 1 10000010 1000000 00000000 00000000
0.25 1.0x2^-2 0 01111101 0000000 00000000 00000000
所有字节在内存中的排列顺序,intel的cpu按little endian顺序,motorola的cpu按big endian顺序排列。

单精度和双精度的区别

简介

单精度和双精度数值类型最早出现在C语言中(比较通用的语言里面),在C语言中单精度类型称为 浮点类型(Float),顾名思义是通过浮动 小数点来实现数据的存储。这两个数据类型最早是为了 科学计算而产生的,他能够给科学计算提供足够高的精度来存储对于精度要求比较高的数值。
但是与此同时,他也完全符合 科学计算中对于数值的观念:
当我们比较两个棍子的长度的时候,一种方法是并排放着比较一下,一种方法是分别量出长度。但是事实上世界上并不存在两根完全一样长的棍子,我们测量的长度精度受到人类目测能力和测量工具精度的限制。从这个意义上来说,判断两根棍子是否一样长丝毫没有意义,因为结果一定是False,但是我们可以比较他们两个哪个更长或者更短。这个例子很好地概括了单精度/双精度数值类型的设计初衷和存在意义。
基于上述认识,单精度/双精度数值类型从一开始设计的时候,就不是一个准确的数值类型,他只保证在他这个数值类型的精度之内是准确的,精度之外则不保证,比方说,一个数值5.1,很可能存储在单精度/双精度数值中的实际值是5.100000000001或者5.09999999999999。导致这个现象的原因我们可以通过两种方式来解释:

简单的解释方法

你可以尝试在任何一个控件的属性面板中,设定他的宽度为:3.2CM,当你输入完毕后,你会发现值自动变成了3.199cm,无论你怎么改,你都无法输入3.200CM,因为实际上在电脑中存储的并不是CM为单位的数值,而是“缇”为单位的数值,而“缇”和CM之间的比值,是个很难被除尽的数,因此你输入完毕后,电脑自动转换成了最接近的“缇”值,然后再转换成厘米显示到属性面板上,这一乘一除,两次四舍五入,误差就出来了。单精度/双精度也是类似的原理,其实在 二进制存储的时候,单精度/双精度都采用了类似相近分数的方法,而这样的存储是不可能做到准确的。

深入的解释方法

让我们来看看我们存储到数字介质中的单精度/双精度值到底是怎么样的,我们使用如下代码对单精度类型进行一个解剖:
Public Declare Sub CopyMemory Lib "kernel32" Alias "RtlMoveMemory" (Destination As Any,Source As Any,ByVal Length As Long)
Public Sub floatTest()
Dim dblVar As Single
dblVar = 5.731 / 8
dblOutput dblVar
dblVar = dblVar * 2
dblOutput dblVar
dblVar = dblVar * 2
dblOutput dblVar
dblVar = dblVar * 2
dblOutput dblVar
dblVar = dblVar * 2
dblOutput dblVar
dblVar = dblVar * 2
dblOutput dblVar
End Sub
Public Sub dblOutput(ByVal dblVar As Single)
Dim bytVar⑶As Byte
Dim i As Integer,j As Integer
Dim strVar As String
CopyMemory ByVal VarPtr(bytVar(0)),ByVal VarPtr(dblVar),4
strVar = dblVar & ": "
For i = 3 To 0 Step -1
For j = 7 To 0 Step -1
strVar = strVar & (bytVar(i) And 2 ^ j) / 2 ^ j
Next j
strVar = strVar & " "
Next i
Debug.Print strVar
End Sub
运行后我们得到输出结果(输出格式为高位左,低位右):
.716375: 00111111 00110111 01100100 01011010
⒈43275: 00111111 10110111 01100100 01011010
⒉8655: 01000000 00110111 01100100 01011010
⒌731: 01000000 10110111 01100100 01011010
⒒462: 01000001 00110111 01100100 01011010
22.924: 01000001 10110111 01100100 01011010
这里,我们把单精度类型转化成了 二进制数据输出,这里我们看到,虽然这六个数字完全不同,但是它们的二进制存储惊人地相似,我们看到红色标记部分,每次都是加1,事实上,单精度数据类型使用从高位开始第1位作为正负标记位(绿色),第2位到第9位,是一个跨字节的有符号字节类型数据,这个数值决定了 小数点移动的方向和位数(红色),第10位到32位保存一个 整数(蓝色)在存储过程中,电脑首先把输入的值不断移位(乘除2)直到这个数的 整数部分占用了全部24位的整数位,然后把移动的位数写入 浮点部分(红色),而移位后的结果写入整数部分(蓝色和绿色),小数部分则舍弃。求值的时候则是反向过程,先根据正负位和 整数位求值,然后根据红色部分的整数来进行移位(乘除2的次方),最终才是我们得到的单精度数值。双精度数值也是同样原理,只是位数更多而已。

评价


通过解剖单精度数值的二进制存储格式,我们可以清楚看到,实际上单精度/双精度的存储,都要通过乘法和 除法,其中必有舍入,如果恰好你的数值在除法中被舍入了,那么你赋的初值就很可能与你最终存储的值不完全相同,其中的微小差异,并不与单精度/双精度的设计目标相违背。
当我们在数据库中或者VBA代码中使用一个单精度/双精度数值的时候,也许你从界面上看不到区别,但是在实际的存储中,这个差别却真真切切地就在那里,当你对其进行相等比较的时候,系统只是简单地作 二进制的比较,界面上无法体现的微小差异,在二进制比较面前却无处遁形,于是,你的等于比较返回了一个意料之外的False。

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值