谈谈 UTF-8 标准和解码的实现

字符集编码的历史

ASCII码

ASCII 码诞生于上世纪 60 年代的美国,它将英文字符和二进制位之间的关系做了统一规定:将 128 个英文的字符映射到一个字节的后 7 位,最前面的一位统一规定为 0。因此 ASCII 码正好使用一个字节存储一个字符,又被称为原始 8 位值,由于最高位始终为 0 ,也被称为 7 位 ASCII 编码。在 ASCII 编码中,将数字 0 映射到 48,将大写字母 A 映射到 65,将小写字母 a 映射到 97 等等。
ASCII 编码简单好用,只占用一个字节,但它只能表示 128 个字符。

非 ASCII 编码

  • 有一些编码会允许使用一个字节的所有 bit 位都用来表示字符,这样一个字节最多就能表示 256 个字符了,比如 Latin-1 编码。
  • 简体中文常见的编码方式是 GB2312,使用两个字节表示一个汉字,所以可以表示 65536(256 x 256)个常用的汉字符号。

Unicode 编码

Unicode 将世界上所有的符号都纳入其中,对世界上所有的符号都赋予一个独一无二的编码,那么,满足了在同一个文本信息中混合使用不同的语言文字的需求。2023 年 9 月 12 日发布的 Unicode 15.1.0 版本已经收录了 149,813 个字符,其中还包含了很多 emoji 符号。每个字符都被映射至一个整数编码,编码范围为 0~0x10FFFF 。注意,这里仅仅用了三个字节而已。

Unicode 编码创建时面临的几个问题:

  • 兼容性的问题:如何才能区别 Unicode 和 ASCII ?计算机怎么知道 3 个字节表示一个符号,而不是分别表示三个符号呢?
  • 存储效率的问题:英文字母只用一个字节表示就够了,如果 Unicode 统一规定,每个符号用 3 或 4 个字节表示,那么每个英文字母前都必然有 2 到 3 个字节是 0,这对于存储来说是极大的浪费,文本文件的大小会因此大出 2~3 倍,这是无法接受的。

Unicode 编码采用了变长存储方式解决了存储效率的问题,采用了特殊标志位解决了兼容性的问题。为此,Unicode 规定了几种储存编码的方式,这些方式被称为 Unicode 转换格式 UTF。经常听到的Unicode 为表现形式,UTF-8 为存储形式。即 UTF-8 解码之后为 Unicode ,Unicode 可以编码成 UTF-8 。同样,存储形式也可以是UTF-32,但是存储的内容解码后依然表现为Unicode。存储形式不唯一,但是内容的表现形式是唯一的。

UTF-8 编码标准

每种 Unicode 转换格式都会把一个编码存储为一到多个编码单元,如 UTF-8 的编码单元为 8 位的字节;UTF-16 的编码单元为 16 位,即 2 个字节;UTF-32 的编码单元为 32 位,即 4 个字节。这里单字节作为一个存储单元,是不存在字节的大端和小段的问题的。但是如果使用 2 字节和 4 字节作为一个存储单元,在存储时会涉及到大小端的问题。大端模式和小端模式的多字节数据在内存中的排列方式有所不同。比如0x0001 在大端模式下被存储为 \x00\x01,而在小端模式下被存储为\x01\x00,与我们的阅读顺序刚好相反 。
所以,为了简单,大家一般使用的是UTF-8 编码标准。
前面提到,Unicode 编码采用了变长存储方式解决了存储效率的问题,采用了特殊标志位解决了兼容性的问题。具体体现如下:

  • 对于单字节符号,字节的第一位设为 0 ,后 7 位为这个符号的 Unicode 码,以兼容 7 位的 ASCII 编码。
  • 对于使用 X 个字节存储的符号,第一个字节的前 X 位设置为 1 ,第 X+1 位设置为 0 。后面字节的前 2 位一律设置为 10 ,剩下的位置依次填充这个符号的 Unicode 码。

当前UTF-8 编码标准一共支持到了4字节的编码,原则上可以支持8字节的,不过万国文字加起来也没有那么多的。编码规则的表格如下,字母 x 表示可用于编码的位,即 Unicode 码分布的位置:

Unicode 码范围(十六进制)UTF-8 编码方式 (二进制)
0x00 ~ 0x7F0xxxxxxx
0x80 ~ 0x7FF110xxxxx 10xxxxxx
0x800 ~ 0xFFFF1110xxxx 10xxxxxx 10xxxxxx
0x10000 ~ 0x10FFFF11110xxx 10xxxxxx 10xxxxxx 10xxxxxx

总结:

  • 如果一个字节的第一位是 0 ,则这个字节单独就是一个ASCII字符
  • 如果第一位是 1 ,则连续有多少个 1 ,就表示当前字符占用多少个字节。所以原则上支持8个字节也就不难理解了。这些都是协议头信息,不是协议数据
  • 后面每个字节的前两位都是10,相当于协议头,不是协议数据
  • 第一个字节的前5位中1的个数(0前面的)表示了该变长编码的实际字节长度(1-4字节),也就是协议长度。

C++解码实现

解码规则

对于 UTF-8 编码的字符,其长度信息并不仅仅由首字节的高 5 位决定。实际上,UTF-8 编码规则中使用了多字节编码来表示较大的 Unicode 字符。

在 UTF-8 编码中,根据首字节的高位,可以确定字符的长度范围:

  • 如果首字节的高位是 0xxxxxxx,则表示该字符是单字节字符,长度为 1。
  • 如果首字节的高位是 110xxxxx,则表示该字符是双字节字符,长度为 2。
  • 如果首字节的高位是 1110xxxx,则表示该字符是三字节字符,长度为 3。
  • 如果首字节的高位是 11110xxx,则表示该字符是四字节字符,长度为 4。
  • 其他首字节的高位模式是无效的,不符合 UTF-8 编码规则。

对于长度超过 4 的字符,UTF-8 编码规则使用了更多的字节来表示。

长度为 5 的字符采用 5 字节编码,首字节的高位是 111110xx
长度为 6 的字符采用 6 字节编码,首字节的高位是 1111110x

然而,需要注意的是,UTF-8 编码规范中规定了 Unicode 字符的范围,而且并不是所有的 Unicode 字符都可以用 UTF-8 编码表示。UTF-8 编码只能表示 Unicode 字符集中的一部分。

在处理 UTF-8 编码时,我们需要根据首字节的高位来确定字符的长度,并根据长度信息来解码后续的字节。对于长度超过 4 的字符,可能需要使用更多的逻辑来处理。这包括检查后续字节的格式和范围,以确保正确解码字符。

加速后的解码规则

我们可以按照上述规则一个一个条件判断去完成解析,但是这会带来较大的性能损失,因为这会让CPU中的分支预测器疲于奔命,每次预测错误都会带来一定的性能损失。所以, Christopher Wellons 想出来了一种a branchless decoder,即无分支的解码器,主要根据前5位组成数字的所有可能性进行查表,完成解码。

再看一下上面的表格,我们来梳理一下首字节的数字规律。

长度通配符最小值最大值
10****00000(0)01111(15)
2110**11000(24)11011(27)
31110*11100(28)11101(29)
41111011110(30)11110(30)

ok,前5位规律如下,其他的数值都是非法的UTF-8 编码,返回长度0就行了。

那么,输入前五位对应的数值,返回长度的映射表如下:

"\1\1\1\1\1\1\1\1\1\1\1\1\1\1\1\1\0\0\0\0\0\0\0\0\2\2\2\2\3\3\4"
11111 5
11111 10
11111 15
10000 20
00002 25
22233 30
4 31

通过这个预定义表,我们可以根据 UTF-8 字符的首字节的高 5 位来快速确定字符的长度。例如,如果首字节的高 5 位是 110**,我们就可以根据预定义表得知对应的字符长度为 2。这种查表的方式非常高效,并且避免了显式的分支判断逻辑,避免了因分支预测带来的cpu流水线排空引发的性能损失。

需要注意的是,这个预定义表是根据 UTF-8 编码规则来设计的,并且假设输入的字符串是合法的 UTF-8 字符串。对于非法的或损坏的 UTF-8 字符串,这个预定义表可能无法正确解析字符的长度。因此,在使用这个预定义表时,需要确保输入的字符串是有效的 UTF-8 编码。

额外吐槽一下,查表法真的是最常见的优化手法了,比如前两天我刚刚看到了这个东西,把数字转换为ASCII码,并且不做任何加法运算。。。。在下目瞪狗呆。

// Converts value in the range [0, 100) to a string.
const char* digits2(size_t value) {
  // GCC generates slightly better code when value is pointer-size.
  return &"0001020304050607080910111213141516171819"
         "2021222324252627282930313233343536373839"
         "4041424344454647484950515253545556575859"
         "6061626364656667686970717273747576777879"
         "8081828384858687888990919293949596979899"[value * 2];
}

首字节中的实际数据

我们仍然按照长度1-4来列举所有可能性进行查表,完成解码,这里的通配符和前面协议头的通配符刚刚好相反,首字节一共8位,协议头长度越长,真实数据长度越短。

长度通配符有效长度真实数据的掩码
1X111 111170111 1111 (0x7f)
2XXX1 111150001 1111 (0x1f)
3XXXX 111140000 1111 (0x0f)
4XXXX X11130000 0111 (0x07)

除了首字节,其他字节都是有效长度6位,掩码 0011 1111 (0x3f)

解码数据的拼接

除了首字节实际数据是不定长的,其他字节都是6位,即
|首字节长度| 6 | 6 | 6 |
这里先一次计算完毕4字节的内容,然后根据字节长度再进行右移,扔掉冗余内容。当然,出发点还是为了分支预测的性能。

解码具体实现

//input: raw str s
//output:decoded str c
//output:error flag e
//return:next char* after utf-8 decode 
inline auto utf8_decode(const char* s, uint32_t* c, int* e)
    -> const char* {
  constexpr const int masks[] = {0x00, 0x7f, 0x1f, 0x0f, 0x07};
  constexpr const uint32_t mins[] = {4194304, 0, 128, 2048, 65536};
  constexpr const int shiftc[] = {0, 18, 12, 6, 0};
  constexpr const int shifte[] = {0, 6, 4, 2, 0};

  int len = "\1\1\1\1\1\1\1\1\1\1\1\1\1\1\1\1\0\0\0\0\0\0\0\0\2\2\2\2\3\3\4"
      [static_cast<unsigned char>(*s) >> 3];
  // Compute the pointer to the next character early so that the next
  // iteration can start working on the next character. Neither Clang
  // nor GCC figure out this reordering on their own.
  const char* next = s + len + !len;

  using uchar = unsigned char;

  // Assume a four-byte character and load four bytes. Unused bits are
  // shifted out.
  *c = uint32_t(uchar(s[0]) & masks[len]) << 18;
  *c |= uint32_t(uchar(s[1]) & 0x3f) << 12;
  *c |= uint32_t(uchar(s[2]) & 0x3f) << 6;
  *c |= uint32_t(uchar(s[3]) & 0x3f) << 0;
  *c >>= shiftc[len];

  // Accumulate the various error conditions.
  *e = (*c < mins[len]) << 6;       // non-canonical encoding
  *e |= ((*c >> 11) == 0x1b) << 7;  // surrogate half?
  *e |= (*c > 0x10FFFF) << 8;       // out of range?
  *e |= (uchar(s[1]) & 0xc0) >> 2;
  *e |= (uchar(s[2]) & 0xc0) >> 4;
  *e |= uchar(s[3]) >> 6;
  *e ^= 0x2a;  // top two bits of each tail byte correct?
  *e >>= shifte[len];

  return next;
}

codepoint(代码点、码点)

普及一个词——代码点(code point)是指 Unicode 字符集中的字符的唯一标识符。Unicode 使用整数值来表示每个字符,这些整数值被称为代码点。

写作不易,给点个赞吧。。。。。。

  • 17
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 4
    评论
### 回答1: 如果你在使用 UTF-8 解码某些中文时遇到了问题,有以下几种解决方法: 1. 检查文件的编码格式:确保文件是使用 UTF-8 编码保存的,如果不是,请将其转换为 UTF-8。 2. 检查文件是否损坏:如果文件有损坏,可能导致解码错误。请尝试使用其他工具打开文件并检查其完整性。 3. 尝试使用其他编码:如果文件不是 UTF-8 编码,请尝试使用其他编码(如 GB2312)进行解码。 4. 在代码中指定编码:在代码的顶部指定文件的编码格式,以确保 Python 正确识别文件的编码。例如: ``` # -*- coding: utf-8 -*- ``` 如果以上方法都不起作用,请尝试联系 Python 社区或技术支持,以获得更多帮助。 ### 回答2: 如果python无法正确解码某些中文字符,可能是因为缺少对应的字符编码支持或者在解码过程中产生了错误。以下是一些可能的解决方案: 1. 检查源代码文件头部是否声明了正确的编码方式。在python文件的开头添加`# coding=utf-8`可以确保文件以UTF-8编码读取。 2. 尝试手动指定其他编码方式进行解码。使用`decode()`函数时,可以尝试其它编码方式参数,如`gbk`或`utf-16`。例如:`data.decode('gbk')`。 3. 使用`errors='ignore'`参数捕捉解码错误时不抛出异常,并忽略无法解码的字符。例如:`data.decode('utf-8', errors='ignore')`。 4. 确保所使用的python版本支持需要的字符编码。Python 3.x相对于Python 2.x有更好的中文编码支持。如果可能的话,升级到较新的版本。 5. 检查可能使用到的第三方库是否支持当前字符编码。有些库可能需要进行配置或者额外的设置来支持特定的编码。 6. 如果问题涉及到从外部来源获取数据,例如从网络请求或者文件读取中文字符,请确保数据本身就是以正确的编码存储的。 如果以上的方案都无法解决问题,那可能是由于特殊字符或编码错误导致的问题,这种情况下需要进一步调查和排查具体的错误原因,可能需要更多的代码和数据细节来定位并解决问题。 ### 回答3: 当遇到Python无法解码某些中文字符时,我们可以尝试以下几种解决方法: 1. 指定正确的编码格式:Python默认使用UTF-8编码,但如果遇到特定编码的中文字符导致解码错误,可以尝试指定其他常见的编码格式,如gbk、gb2312等。例如,使用`decode('gbk')`来解码gbk编码的中文字符。 2. 使用错误处理参数:在进行解码操作时,可以添加`errors='ignore'`参数来忽略解码错误的字符,这样可以在解码时略过无法解码的中文字符,继续处理其他能够解码的内容。 3. 使用chardet库检测编码:如果无法确定特定中文字符的编码方式,可以使用chardet库来检测字符串的编码格式。从而得到正确的编码方式进行解码操作。 4. 更新Python版本:有时,问题可能是由于Python版本较旧导致的。考虑升级Python到最新版本,以获取更好的编码支持。 5. 检查源数据:如果解码问题发生在从外部数据源读取中文文本时,请确保源数据本身没有损坏或使用了非标准编码。 总的来说,根据具体情况,我们可以尝试调整编码格式、添加错误处理参数、使用工具库或升级Python版本等方法来解决Python无法解码某些中文字符的问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值