(buffer[1] & 0xFF) << 8解释
buffer[0]->>>buffer[3]按顺序存放的是一个4个字节长度的数,
buffer[0]>>>>buffer[3] 存放的是从低位内到高位的顺序,比如有一个4字节的数0x12345678,
存放到内存地址中按照little-Endian的顺序,也就是低地址放低位,高地址放高位的顺序,
这样 buffer[0] = 0x78,buffer[1]=0x56,buffer[2] = 0x34,buffer[3] = 0x12。
这样想从内存地址中回复数据,需要将高位的值移动到对应容的高位,低位移动到低位,buffer[3]要移动3个字节,依次类推
一位十六进制代表四位二进制,0x12345678转换成二进制就是0001-0010-0011-0100-0101-0110-0111- 1000,
而每八位二进制占一个字节,所以0x12345678的8位十六进制数占4字节。
big-Endian和little-Endian区别:
在大端模式的排列:0x01(低地址),0x23,0x45,0x67,0x89(高地址)。
在小端模式的排列:0x89(低地址),0x67,0x45,0x23,0x01(高地址)。
buffer[1]&0xff的目的只是为了保存补码的一致性:
举个简单的例子:
byte[] b = new byte[5];
b[0] = -12;
byte 8位二进制 = 1个字节 char 2个字节 short (2个字节) int(4个字节) long(8个字节) float (4个字节) double(8个字节)
计算机存储数据机制:
正数存储的二进制原码,负数存储的是二进制的补码。 补码是负数的绝对值反码加1。
比如-12,-12 的绝对值原码是:0000 1100 取反: 1111 0011 加1: 1111 0100
byte --> int 就是由8位变32位,高24位全部补1:1111 1111 1111 1111 1111 1111 1111 0100 ;
0xFF 是计算机十六进制的表示:0x就是代表十六进制,A B C D E F 分别代表10 11 12 13 14 15 F就是15 一个F 代表4位二进制:可以看做 是 8 4 2 1。
0xFF的二进制表示就是:1111 1111。高24位补0:0000 0000 0000 0000 0000 0000 1111 1111;
-12的补码与0xFF 进行与(&)操作,最后就是0000 0000 0000 0000 0000 0000 1111 0100,转换为十进制就是 244。
byte类型的数字要&0xff再赋值给int类型,其本质原因就是想保持二进制补码的一致性。
当byte要转化为int的时候,高的24位必然会补1,这样,其二进制补码其实已经不一致了,&0xff可以将高的24位置为0,低8位保持原样。这样做的目的就是为了保证二进制数据的一致性。
有人问为什么上面的式子中b[0]不是8位而是32位,因为当系统检测到byte可能会转化成int或者说byte与int类型进行运算的时候,就会将byte的内存空间高位补1(也就是按符号位补位)扩充到32位,再参与运算。