程序:
typedef union{
unsigned short value;
struct {
unsigned short a : 4;
unsigned short b : 4;
unsigned short c : 4;
unsigned short d : 4;
} field;
}u;
typedef union{
unsigned short value;
struct {
unsigned short a : 8;
unsigned short b : 8;
} field;
}b;
void main(void)
{
u test1;
test1.value = 0x1234;
printf (" %#X, %#X, %#X, %#X, %#X\n", test1.value, test1.field.a, test1.field.b, test1.field.c, test1.field.d);
printf ("ADDR: %#X, VALUE:%#X,\nADDR: %#X, VALUE:%#X\n", (char*)(&test1.value), *(char*)(&test1.value),((char*)(&test1.value) +1 ),*((char*)(&test1.value) +1 ) );
}
此程序在大小端的运行结果:
大端:
root@lc1:~# test1
0X1234, 0X1, 0X2, 0X3, 0X4
ADDR: 0XBFBAE738, VALUE:0X12,
ADDR: 0XBFBAE739, VALUE:0X34
小端:
bash-4.1$ ./test
0X1234, 0X4, 0X3, 0X2, 0X1
ADDR: 0XD2DC2810, VALUE:0X34,
ADDR: 0XD2DC2811, VALUE:0X12
结论:
1. 大小端存储都是按字节来划分,不是按bit;
2.位域是按位域定义整体翻转;如果每一个bit都是一个域,则整体按bit来翻转。
例如..u 定义如下:
typedef union{
unsigned short value;
struct {
unsigned short a : 1;
unsigned short b : 1;
unsigned short c : 1;
unsigned short d : 1;
unsigned short e : 1;
unsigned short f : 1;
unsigned short g : 1;
unsigned short h : 1;
} field;
}u;
test1.value = 0b00010011;
test1.field.a ~ h 的值,在小端机器里就是: 1 1 0 0 1 0 0 0 ,
test1.field.a ~ h 的值,在大端机器里就是: 0 0 0 1 0 0 1 1 .
由于不同的计算机系统可能存在不同的大小端模式,所以不同的体系系统间通信就需要进行大小端转换。任何在不同系统间的通信信息都经过网络字节(大端)序进行传输,也就是说不管本机是什么模式,都要保证发送端传输的数据转换为网络序,接受端都要把网络序的数据转换为本地序。
16bit和32bit的大小端转换很常见,一般也不会存在什么问题。但如果定义的数据结构中包含bit位域,该如何转换呢?
1)低字节都存放在低地址
2)大端模式首先为字段的高bit位分配空间,小端模式首先为字段的低bit位分配空间
3)大端模式首先存放在地址的高bit位,小端模式首先存放在地址的低bit位
一个例子
struct
{
short bit1:4
short bit2:9
short bit3:3
};
大端模式下在内存中存放的形式如下:
Bit1 |
Bit2(h4) |
Bit2(l5) |
Bit3 |
7 0 7 0
图1
小端模式下在内存中存放的形式如下:
Bit2(l4) |
Bit1 |
Bit3 |
Bit2(h5) |
7 0 7 0
图2
如果我们在小端机器上,数据流按照图2的格式发送到目标端是大端的机器上,明显不能直接通过图1的结构来解码。
如果为大小端分别定义两套结构呢?定义如下:
struct
{
#ifdef __LITTLE_ENDIAN__
short bit1:4
short bit2:9
short bit3:3
#else
short bit3:3
short bit2:9
short bit1:4
#endif
};
在大端的机器上我们按照下面的格式进行解析:
Bit3 |
Bit2(h5) |
Bit2(l4) |
Bit1 |
7 0 7 0
图3
可是解码的数据还是不对,但观察一下不难发现,如果我们把小端的的数据(图2)前后两个字节颠倒,就和大端机器上的结构(图3)完全一致了。
综上所述,bit位域的大小端转换如下:
1: 在机器上定义大小端两套数据结构分别针对大小端
2:传输的bit域数据需要进行本机序->网络序->本机序的转换过程(bit域数据可以映射为对应长度的short或int类型进行转换)
struct
{
short bitData;
};
3:定义不超过一个字节的bit位域,只需要定义两套数据结构,不再需要进行本机序->网络序->本机序的转换过程