Unicode字符编码标准
1. 编码知识
1.1 文本和字符
在计算机程序中或者数据文件里,文本(text)是作为数字序列存储的。序列中的数字是具有不同大小、取值和解释的整数。如何解释这些整数是由字符集(character set)、编码(encoding)决定的。
文本主要是由字符(character)组成。在格式文本(fancy text, or rich text)中包括显示属性,如颜色、斜体字、上标等,但仍然是以字符组成的纯文本(plain text)为基础的。有时,格式文本与纯文本之间的区别很复杂,依赖于具体的应用。
什么是字符?典型地,是字母。也可以是数字、句点、连字号、标点符号和数学符号,对于中文,也可以是汉字。还包括定义行尾和段落等的控制字符(一般不可见)。
有了字符,就可以为它们分配数字编码。为字符分配什么数字值,依赖于具体情况。一个简单的字符,如字母"a",在不同的程序或者数据文件中可能具有不同的整数值。
1.2 字符集:具有数字编码的字符
在信息处理中,所使用的整数总有上限,依赖于存储整数的位的数目。这也决定了可以同时区分的字符的数量。
在设计字符集时,首先要决定所需字符的数目,并确定所需字符的清单。根据字符的数目,可以设定整数值的上限,这个整数范围称为编码空间(code space),其中的一个特定整数称为一个码点(code point)。
然后,为字符清单中的每个字符指定一个整数值,也就是一个码点。这样就得到一个字符集,称作编码字符集(Coded Character Set)。
1.3 编码单元、字节和编码
在计算机系统的实现中,整数以特定大小的单元表示,通常为8位(1字节),16位,或32位。在字符编码中,这样的单元称为编码单元(code unit)。根据编码空间的大小和具体要求,来选择合适的编码单元。通常,所选择编码单元对应的整数范围要大于编码空间的整数范围,这样每个码点就只需一个编码单元表示,并且在字符码点与编码单元间的转换非常简便,因为字符码点对应的整数值与相应编码单元的整数值相同。如果编码单元对应的整数范围小于编码空间的整数范围,就需要多个编码单元表示一个码点。
字节是计算机系统中最基本的表示单元,无论是存储在内存中,还是将文本写入文件或通过网络发送,总是要读写若干字节。因此,在实际应用中,还需要将编码单元进一步表示为字节序列。
将字符表示为字节序列的过程就称为编码(encoding),更重要的是,还包括如何对字节序列进行解释以取得字符。
1.4 不同的字符集
在一些常用的编码中,每个字符只使用一个字节表示,称单字节字符集(single-byte character set, SBCS)。这些字符集都仅限于256个字符。
在ASCII之后,目前应用最广泛的单字节字符集是ISO-8859-1。它是ASCII的一个8位超集,并且提供西欧语言所需的大多数字符。它的一个改进的版本,ISO-8859-15,还包括新的欧元符号和更多的一些法语和芬兰语字母。
双字节字符集(double-byte character set, DBCS)用于为东亚书写系统中所使用成千上万个表意字符提供足够空间。这里的编码仍是基于字节的,不过是两个字节一起表示一个单一的字符。
即使在东亚,文本中也会包含小字母表中的字母,如拉丁字母表。这些字母使用单字节表示的效率会更高。因此,提出了多字节字符集(multi-byte character set, MBDC),使用可变数目的字节来表示字符。多字节字符集通常与ASCII兼容,也就是说,在这种编码中,拉丁字母使用与ASCII中相同的字节来表示。一些不常用的字符可能会使用三个甚至四个字节编码。
1.4 常见字符集
1.4.1 ASCII: The American Standard Code form Information Interchange
ASCII是一个使用7位单元的字符集,及针对7位字节的简单编码方式。尽管局限于很少的一些字符,ASCII是最重要的一种字符集,因为它是目前大多数字符集的基础。
ASCII只提供了128个数字值(也可称作码点,code point),其中33个被保留用作特殊功能。只有95个码点用作"真正的"文本字符。这些图形字符大多时大写和小写拉丁字母,数字和标点符号,外加一些特殊的括号、下划线和重音符号。
1.4.2 EBCDIC: The Extended Binary-Coded Decimal Interchange Code
EBCDIC是由IBM设计的编码格式,使用8位字节,被一些字符集用于大型机。EBCDIC在与ASCII相近的时期开发的,具有一些相似的特性。
1.4.3 Unicode
Unicode标准定义了一个字符集和几种编码。
Unicode最有吸引力的特点是它涵盖了几乎世界上的所有字符,可以只通过一个唯一的数字(Unicode码点)来访问和操作字符。
2. Unicode介绍
2.1 为什么使用Unicode?
在创造Unicode之前,有数百种编码系统。但是,没有任何一个编码可以包含足够的字符。例如,仅欧州共同体就需要好几种不同的编码来包括所有的语言。即使是单一的一种语言,如英语,也没有哪一个编码可以适用于所有的字母,标点符号,和常用的技术符号。
这些编码系统也会互相冲突。也就是说,两种编码可能使用相同的数字代表两个不同的字符,或使用不同的数字代表相同的字符。任何一台特定的计算机(特别是服务器)都需要支持许多不同的编码,但是,不论什么时候数据通过不同的编码或平台之间,那些数据总会有损坏的危险。
而Unicode正在改变所有这一切!
在Unicode标准中,提供了1,114,112个码点,不仅可以包含当今世界使用的所有语言文字和其他符号,也足够容纳绝大多数具有历史意义的古文字和符号。并且,Unicode给每个字符提供了一个唯一的数字,不论是什么平台,不论是什么程序,不论什么语言。
Unicode 标准已经被工业界的领导们所采用,例如:Apple, HP, IBM, JustSystem, Microsoft, Oracle, SAP, Sun, Sybase, Unisys等等。最新的标准都需要Unicode,例如XML, Java, ECMAScript , LDAP, CORBA 3.0, WML等等,并且,Unicode是实现ISO/IEC 10646的正规方式。许多操作系统,所有最新的浏览器和许多其他产品都支持它。Unicode标准的出现和支持它工具的存在,是近来全球软件技术最重要的发展趋势。
2.2 Unicode与国际化
直到最近,国际化的常用方法是,假定任何给定的可执行程序同时只和一种语言工作。如果在英文环境下安装,它就只处理英文文本;如果在中文环境下安装,就只处理中文文本。
在这种模型下,针对不同的书写系统和语言,使用的字符集和字符编码不同。在Windows和大型机环境下,术语"代码页"(Code Page)用于描述如何将二进制值映射到人类可读得字符(字形)。一个运行的程序处在单一的代码页,该代码页确定二进制值如和与字形关联。
简便的国际化是Unicode的另一项优势。在内部使用Unicode的应用程序,能够同时存储和处理世界上所有的字符,这消除了传统的国际化方法所面临的一些困难。
当然,成功的国际化不仅仅是在应用程序中采用Unicode,还需要谨慎的屏幕布局设计(不同的语言具有不同的书写习惯)、翻译和文化理解。
2.3 设计原则
Unicode的设计反映了十大基本原则,但这些原则并不是可以同时满足。整个设计是在保证简便高效和保持与已有编码标准兼容之间的平衡。
(1)广泛性(Universality)
Unicode标准对一个单一的大字符集进行编码,包括满足世界范围需求的所有字符。
(2)高效(Efficiency)
在Unicode的字符编码模型中没有换码符(escape character),每个字符编码与其它字符编码具有相同的状态。使高效率的实现成为可能。
所有Unicode编码方式都是自同步的,并且相互不重叠。使在字符流中随机访问和查找操作高效。
同一书写字母体系中的字符被放置在一起,不仅方便字符的查找,并且使实现更紧凑压缩方法更高效。
(3)针对字符编码,而不是字形(Character, Not Glyph)
字符是书写语言中具有语义的最小组件的抽象表示。字符是以驻留在内存中的码点表示。
字形是字符被显示时具有的形状。与字符相比,字形出现在屏幕或纸张上作为一个或多个字符的特定表示。字形的集合构成一种字体。
字符和字形间存在多种关系:一个字形可以对应一个字符;一个字形也可以对应几个字符;多个字形也可能出自一个字符。
(4)语义(Semantic)
在Unicode中,字符都有明确定义的语义。字符属性表可用于解析、排序等需要有关码点语义知识的算法中。Unicode中定义的属性包括数字、间隔、组合和方向属性。
(5)纯文本(Plain Text)
纯文本或无格式文本,仅仅是字符编码的序列。纯Unicode文本就是Unicode编码的序列。而格式文本(styled text, or rich text)是由纯文本添加一些附加信息(如语言标识、字体大小、颜色等)组成的文本表示。
Unicode标准针对的是纯文本。
(6)逻辑顺序(Logical Order)
Unicode文本在内存表示中以逻辑顺序存储,大致对应于借助键盘输入文本的顺序。在一些情况下,当显示或打印文本时,字符顺序与逻辑顺序不同。
(7)统一(Unification)
Unicode标准为避免对字符重复编码,对不同语言书写方式中的字符进行统一,相同的字符分配唯一的一个编码。普通字母、标点符号、标记,和变音符都只分配一个编码,而不管语言;同样的还有中日韩使用的表意字符。
(8)动态组合(Dynamic Composition)
Unicode标准允许加重音符好的形式和Hangul音节的动态组合。
(9)等价序列(Equivalent Sequences)
一些文本元素即可以使用静态的预先组合好的形式,也可使用动态组合的形式。Unicode字符的不同表示序列被认为是等价的。
如果两个或多个序列被认为是等价的,Unicode标准不规定哪一种特定的序列是正确的,而认为每一个序列只不过与其它序列等价。
如果需要一种单一的单一的表示方式,可以使用一种规范化的Unicode文本形式来减少不想要区别。Unicode标准定义了四种规范化形式: Normalization Form D (NFD),Normalization Form KD (NFKD),Normalization Form C (NFC),和Normalization Form KC (NFKC)。大约来说,NFD和NFKD将可能的字符进行分解,而NFC和NFKC将可能的字符进行组合。
(10)可转换性(Convertibility)
在Unicode 标准和其他字符集标准之间可以实现准确的转换。一般说,在其他标准中的一个码点对应于Unicode标准中一个单一的码点。然而,有时在其他标准中的一个码点对应于Unicode标准中一个码点的序列。在Unicode文本和其他字符编码文本间的转换一般是通过明确的表映射过程完成的。
2.4 Unicode的码点、编码格式、编码方案
2.4.1 Unicode编码空间和码点
在Unicode标准中,编码空间的整数范围是从0到10FFFF(16进制),共1,114,112个可用的码点。
为了与已有的编码标准兼容,一些抽象字符可能会与多个分别编码的字符关联。而在其他一些情况下,一个抽象字符可能会用两个(或更多)编码字符序列来表示,如带重音符的字母。
2.4.2 Unicode编码格式
在Unicode字符编码模型中,编码格式(encoding form)指定如何将每个码点表示为一个或多个编码单元序列。Unicode标准提供了三种不同的编码格式,使用8位、16位和32位编码单元,分别为UTF-8、UTF-16、UTF-32。
(1)UTF-32
UTF-32是一种最简单的Unicode编码格式。每个Unicode码点被直接表示为一个32位的编码单元。UTF-32是一种固定宽度的字符编码格式。
每个UTF-32编码单元的值与Unicode码点的值完全相同。
(2)UTF-16
在UTF-16中,在范围U+0000到U+FFFF间的码点使用一个单一的16位编码单元表示;而,在范围U+10000到U+10FFFF间的码点则使用一对16位编码单元表示,称作代理对(surrogate pair)。
UTF -16优化了基本多语言平面(Basic Multilingual Plane)中字符的表示,即位于U+0000到U+FFFF范围内的字符。该范围包含了目前世界上所使用的书写系统中的绝大多数字符,每个字符只需要一个16位的编码单元。对于基本多语言平面,UTF-16可作为固定宽度的编码格式来有效使用。
但对于增补字符,UTF-16需要两个16位的编码单元,意味着正式的UTF-16是一个变宽的编码格式。
UTF-16是早期Unicode遗留下的历史产物,原本被设计成具有固定宽度的16位编码格式。为支持超过U+FFFF的增补字符,设立了代理机制。
(3)UTF-8
为满足基于ASCII,面向字节的系统的需要,Unicode标准中定义了第三种编码格式UTF-8。它是一种使用8位编码单元的变宽的编码格式。
在UTF-8的编码单元种,一些高位用于指示当前字节在编码单元序列中的那一部分。8位编码单元的取值的一部分范围保留给UTF-8的编码单元序列的首字节;另一部分完全奋力的范围保留给序列中的后续字节,以保证UTF-8不重叠。
UTF -8编码格式对所有ASCII码点具有透明性。在U+0000到U+007F范围内的Unicode码点,被转换为UTF-8中单一的字节0x00到 0x7F,与ASCII码没有区别。并且,从0x00到0x7F不会出现在其他Unicode码点的UTF-8表示中的任一字节中,保证了不存在歧义。
Unicode中超出ASCII范围的其他一些非表意字母,每个都在UTF-8种使用量各字节表示;位于U+0800到U+FFFF范围内的非代理码点使用三字节表示;超出U+FFFF的增补码点则需要四字节表示。
UTF-8是Internet中HTML和类似协议偏好的编码格式。
UTF-8同其他的多字节编码方式相比具有以下特点:
a) UTF-8的编码单元序列的第一个字节指明了后面所跟的字节的数目。对前向解析非常有效。
b) 从UTF-8字节流的任意位置开始可以有效的找到一个字符的其实位置。
c) UTF-8中不存在字节取值的重叠。
2.4.3 Unicode编码方案
在Unicode标准中,用于Unicode数据字节串行化的各种不同类型的规范被称为Unicode编码方案(encoding scheme)。
在计算机系统中,大数值类型(如整型)使用多个字节表示,不同体系结构采用的字节排列顺序不同。其中,部分采用由高字节到低字节的排列顺序,称为big-endian;其他则采用由低字节到高字节的排列顺序,称little-endian。
对于UTF-16和UTF-32,字节串行化规范必须考虑当前表示数据的系统采用的是big-endian还是little-endian结构。
一个字符编码方案包括指定的字符编码格式,以及如何将编码单元串行化为字节的规范。在Unicode标准中,还规定了初始的字节顺序标志(byte order mark, BOM)的使用,用于显示区分big-endian和little-endian数据。
对于UTF-8,在序列中只包括UTF-8的编码单元(1字节),因此,UTF-8中的数据表示不存在字节顺序的问题。但对于16位和32位的编码方案,字节串行化过程必须将编码单元分解为两个或四个字节,并且必须清楚的定义这些字节的顺序。
因此,Unicode标准中定义的三种编码格式,导致总共七种Unicode编码方案,分别为:UTF-8、UTF-16、UTF-16BE、UTF-16LE、UTF-32、UTF-32BE、UTF-32LE。
必须明确,字符编码格式(character encoding form)指在内存或API中的整数数据单元,与字节顺序不相关;字符编码方案(character encoding scheme)指字节串行化的数据,如I/O流或者文件,必须制定字节顺序。
2.4.4 Unicode编码空间分配
根据在语言学上和功能上的类别,Unicode标准中的编码字符被分成组。
Unicode 编码空间的范围为0到10FFFF,可以被划分为字符平面(planes of characters),每个平面包含64K各码点。因此,最底层的平面为基本多语言平面(Basic Multilingual Plane),包括范围从0000到FFFF;下一个平面为增补多语言平面(Supplementary Multilingual Plane),也被称为第一平面(Plane 1),包括范围10000到1FFFF;以及,第二平面(Plane 2),增补表意字符平面(Supplementary Ideographic Plane),包括范围20000到2FFFF;等等。基本多语言平面有时也被称为Plane 0。
基本多语言平面(BMP, or Plane 0)包含目前世界上使用的所有书写系统中的全部常用字符,以及一些历史上的不常用字符。
增补多语言平面(SMP, or Plane 1)用于一些较少使用的历史上的书写系统,针对特殊目的创建的书写系统,和特殊的标记系统,它们要么无法放入基本多语言平面中,要么特别不常用。
增补表意字符平面(SIP, or Plane 2)用于无法放入基本语言平面众所分配区域中/日/韩字符(CJK character)。尽管在SIP中包含少量的常用CJK字符(例如,用于粤语),其中绝大多数字符是仅具有历史意义的不常用字符。
增补专用平面(Supplementary Special-purpose Plane, SSP, or Plane 14)用于无法放入基本多语言平面众所分配区域的格式控制字符。
3. 一致性
符合Unicode一致性要求的实现必须满足本部分定义的标准,以便与其他规范的实现进行交互。
3.1 一致性要求
3.1.1 未分配的码点(Unassigned Code Points)
C4 处理过程不应该把高代理码点(high-surrogate code point)或者低代理码点(low-surrogate code point)解释为抽象字符。
C5 处理过程不应该把非字符码点解释为抽象字符。
C6 处理过程不应该将未分配的码点解释为抽象字符。
3.1.2解释(Interpretation)
C7 如果处理过程要解释编码字符的表示,就必须根据标准中确立的字符语义进行解释。
C8 不要求处理过程对任何特定的编码字符都作解释。
允许处理过程只解释Unicode字符中的一个子集;不需要解释所有Unicode字符。
标准中不涉及任何指定字符子集的方法。
标准中不涉及自定义区中码点的语义。
C9 处理过程不应认为对两个具有规范等价性字符序列(canonical-equivalent character sequence)的解释会不同。
该条款包含两层意义:(一)处理过程不应该对两个不同但又具有规范等价性的字符序列由不同的解释;(二)任何处理过程不应假设其他处理过程会对两个不同但具有规范等价性的字符序列进行不同的解释。
3.1.3 修改(Modification)
C10 如果一个处理过程声称不会修改对一个正确的编码字符表示的解释,则它不能对编码字符的表示进行任何修改,除非是用具有规范等价性的字符序列进行替换,或者是删除非字符的码点。
用具有规范等价性的字符序列替换原有字符序列不会修改对文本的解释。
替换或者删除处理过程不能会不进行解释的字符序列,不修改对文本的解释。
当在不同计算机体系结构间转换字符序列时,对字符序列位或者字节顺序的改变,不修改对文本的解释。
将一个正确的编码字符的表示从一种Unicode字符编码格式转换为另一种编码格式时,不修改对文本的解释。
将编码单元序列的字节串行化从一种Unicode字符编码方案转换为另一种编码方案时,不修改对文本的解释。
如果在处理过程中意外遇到一个没有明确内部用途的非字符,在实现中可以发出错误,或者删除或忽略该非字符。如果没有采取这些选择,这个非字符应该被作为一个为分配的码点。
3.1.4 字符编码格式(Character Encoding Forms)
C11 当处理过程对一个声称以某种Unicode字符编码格式存在的编码单元序列进行解释时,必须按照相应的码点序列进行解释。
C12 当处理过程以某种Unicode字符编码格式生成编码单元序列时,不应生成形式错误(ill-formed)的编码单元序列。
C12a 当处理过程对一个声称以某种Unicode字符编码格式存在的编码单元序列进行解释时,应该将形式错误的编码单元序列看作错误条件,而不能将序列解释为字符。
3.1.5 字符编码方案(Character Encoding Schemes)
C12b 当处理过程对一个具有某种Unicode字符编码方案的字节序列进行处理时,应该根据字节顺序和标准中针对字符编码方案设立的字节顺序标记(byte order mark)使用规范,进行解释。
3.1.6 双向文本(Bidirectional Text)
C13 用于显示包含从右到左的字符文本的处理过程,当没有高层协议时,必须以对文本应用双向算法后同样的顺序显示所有具有可见表示的字符(不包括格式字符)。
3.1.7 正规化形式(Normalization Forms)
C14 以某种正规化形式生成Unicode文本的处理过程,必须与Unicode Standard Annex #15 "Unicode Normalization Forms"中定义的规范相符合。
C15 测试Unicode文本是否具有某种正规化形式的处理过程,必须与必须与Unicode Standard Annex #15中定义的规范相符合。
C16 将文本转换为某种正规化形式的处理过程必须生成Unicode Standard Annex #15中规定的结果。
3.1.8 标准的引用(Normative References)
C17 对标准、属性别名、属性值别名或者Unicode算法的标准引用,必须依照Unicode标准种指定的格式。
C18 高层协议不能对临时属性进行标准引用。
3.1.9 Unicode算法(Unicode Algorithms)
C19 如果处理过程声称实现某个Unicode算法,则必须符合标准中定义的算法规范,除非被高层协议改变。
3.2 术语定义
以下是对一致性条款中所使用术语的准确定义。
3.2.1 字符的身份和语义(Character Identity and Semantics)
D1 标准的行为(normative behavior):Unicode标准中的标准行为包括以下列表,以及在一致性条款种指定的其他行为。
1. 字符组合;
2. 规范化的分解;
3. 兼容的分解;
4. 规范的排序行为;
5. 双向行为;
6. 联合jamo行为(conjoining jamo behavior);
7. 变化选择;
8. 正规化。
D2a 字符身份(character identity):一个字符的身份是由它的字符名称、表示的字形确定的。
D2b 字符语义(character semantics):一个字符的语义是由它的身份、标准的属性和行为决定的。
3.2.2 字符与编码(Characters and Encoding)
D3 抽象字符(abstract character):信息的单元,用于文本数据的组织、控制或表示。
抽象字符没有具体的形状,不应与字形混淆。
Unicode标准中没有直接编码的抽象字符经常可以使用组合字符序列表示。
D4 抽象字符序列:抽象字符的有序序列。
D4a Unicode编码空间(Unicode codespace):从0到10FFFF的整数空间(十六进制)。
D4b 码点(code point):Unicode编码空间中的任何一个整数值。
一个码点也称为一个编码位置。
D5 编码字符(encoded character):在一个抽象字符和一个码点间的关联。
在Unicode中,为了与其它标准兼容,一个单个的抽象字符可能与多个码点对应。
一个单个的抽象字符也可能使用一个码点序列表示。
D6 编码字符表示(coded character representation):一个码点序列。通常,是由编码字符的序列组成,但也可能包含非字符或保留的码点。
编码字符表示也称为编码字符序列(coded character sequence)。
在内部,处理过程可能会在编码字符表示中使用非字符码点。但是,这些非字符码点可能不会被解释成抽象字符;并且,如果这些非字符码点被具有一致性的处理过程删除,不构成对编码字符表示解释的修改。
D7a 不赞成使用的字符(deprecated character):强烈不鼓励使用的编码字符。
在标准中保留不赞成使用的字符,以便使以前相容的数据仍然与今后的Unicode标准保持一致性。
D7b 非字符(noncharacter):被永久保留做内部使用的码点,不应用于交换。非字符包括值U+nFFFE和U+nFFFF(n表示十六进制整数从0到10),以及值从U+FDD0到U+FDEF。
D7c 保留的码点(reserved code point):Unicode标准中保留的,用于今后分配的码点。也称为位分配码点(unassigned code point)。
代理码点和非字符码点是已分配的码点,但不是分配给字符。
D8 高层协议(higher-level protocol):任何超出Unicode标准范围,对Unicode字符进行解释协议。
D8a Unicode算法(Unicode Algorithm):对处理过程的逻辑描述,用于获得涉及Unicode字符的指定结果。
3.2.3 属性(Properties)
(1)标准的和指示性属性(Normative and Informative Properties)
Unicode字符属性可以分为标准的和指示性的。
D9 标准属性(normative property):Unicode字符属性,它的取值必须为与标准相一致。
D9a 指示性属性(Informative property):Unicode字符属性,它的取值仅仅是为了提供更多信息。
D9b 临时的属性(provisional property):Unicode字符属性,它的取值未被批准、试验性的,也可能是不完全的。
(2)简单的和衍生出的属性(Simple and Derived Properties)
D9c 简单属性(simple property):Unicode字符属性,它的取值在UCD,the Unicode Character Database(或标准中的其他地方)直接指定,并且它的取值无法从其他简单属性中衍生出来。
D9d 衍生属性(derived property):Unicode字符属性,它的取值可通过算法从一些简单属性的组合中衍生出来。
(3)属性别名(Property Aliases)
D10 属性别名(property alias):特定Unicode字符属性的一个唯一标示名。
用于属性别名的标示名中仅包含ASCII中的字母、数字和下划线。
为每个属性别名分别定义了长、短两种形式的名称。短的形式一般只有两个或三个字符长,便于在标记语言中用于标记属性。
D10a 属性值别名(property value alias):为Unicode字符属性的特定取值定义的唯一标示名。
用于属性值别名的标示名中仅包含ASCII中的字母、数字和下划线,或者是特殊的值"n/a"。
为每个属性值别名分别定义了长、短两种形式的名称。
属性值别名仅在相关联的特定属性环境中唯一。
(4)却省属性值(Default Property Value)
D11 却省属性值(default property value):针对一个给定的Unicode属性,用于指派给未分配的码点或没有明确指定其他属性值的属性值。
(5)私用(Private Use)
D12 私用码点(private-use code point):在范围U+E000到U+F8FF、U+F0000到U+FFFFD和U+100000到U+10FFFD内的码点。
私用码点被认为已分配给字符,但标准中没有指定对私用码点相关联的抽象字符的解释。
私用码点可能会被赋予却省的属性值,但这些却省值可以被对私用码点进行解释的高层协议替换。
3.2.4 组合(Combination)
D13 基字符(base character):在书写上,不与前面的字符进行组合的字符,它既不是控制字符也不是格式字符。
D14 组合字符(combining character):在书写上,与前面的基字符进行组合的字符。称组合字符应用于基字符。
组合字符不单独使用。它们包括重音符、变音符、希伯莱文中的点、阿拉伯文元音符号等。
尽管组合字符用来与基字符组合显示的,但可能出现两种情况(1)在组合字符前没有基字符;(2)处理过程无法执行组合操作。在这两种情况下,处理过程可能会不进行书写上的合并而显示组合字符。
在编码表中,组合字符的表示使用虚线圆圈描绘。当与前面的基字符组合显示时,基字符要出现在虚线圆圈的位置上。
组合字符一般具有它们的基字符的属性,同时保留它们的组合属性。
控制字符和格式字符,如tab和right-left mark不是基字符。
D15 非间距标记(nonspacing mark):在显示时,位置取决于基字符的组合字符。这些字符一般在可视基线上不占用空间。
这些字符可能会很大,影响它们的基字符相对于前后基字符的放置。
D16 间距标记(spacing mark):不是非间距标记的组合字符。
一般来说,间距标记的行为与基字符没有太大区别。
D17 组合字符序列(combining character sequence):一个字符序列,由一个基字符后跟了一个或多个组合字符组成,或者是一个或多个组合字符的组成的序列。
D17a 不良的组合字符序列(defective combining character sequence):一个不是以基字符开始的组合字符序列。
当组合字符序列出现在串的开始位置,或者跟在控制字符或格式字符后出现时,产生不良的组合字符序列。
3.2.5 分解(Decomposition)
D18 可分解字符(decomposable character):根据分解映像表,与一个或多个字符组成的序列等价的字符。也被称作预组合字符(precomposed character)或复合字符(composite character)。
D19 分解(decomposition):与一个可分解字符等价的一个或多个字符组成的序列。一个字符序列的完全分解,是对序列中每个字符进行分解直到没有字符可以进一步分解。
(1)兼容的分解(Compatibility Decomposition)
D20 兼容的分解(compatibility decomposition):递归应用Character Names List中的兼容映像表和规范映像表,以及Conjoining Jamo Behavior中的定义,对字符进行分解,直到没有任何字符可以进一步分解,并根据Canonical Ordering Behavior中的定义对非间距标记进行重新排序。
D21 兼容的可分解字符(compatibility decomposable character):兼容分解的结果与规范分解结果不相同的字符。
(2)规范的分解(Canonical Decomposition)
D23 规范的分解(canonical decomposition):递归应用Character Names List中的规范映像表,以及Conjoining Jamo Behavior中的定义,对字符进行分解,直到没有任何字符可以进一步分解,并根据Canonical Ordering Behavior中的定义对非间距标记进行重新排序。
D21 规范的可分解字符(compatibility decomposable character):与规范分解结果不相同的字符。
D24 规范等价性(canonical equivalent):如果两个字符序列的完全规范分解结果相同,称它们具有规范的等价性。
3.2.6 代理(Surrogates)
D25 高代理码点(high-surrogate code point):位于范围U+D800到U+DBFF内的Unicode码点。
D25a 高代理编码单元(high-surrogate code unit):在范围D800到DBFF内的16位编码单元,作为UTF-16中代理对的起始编码单元。
D26 低代理码点(low-surrogate code point):位于范围U+DC00到U+DFFF内的Unicode码点。
D26a 低代理编码单元(low-surrogate code unit):在范围DC00到DFFF内的16位编码单元,作为UTF-16中代理对的结尾编码单元。
D27 代理对(surrogate pair):由两个16位编码单元组成的序列来表示单个的抽象字符,其中,代理对的第一部分为高代理编码单元,第二部分为低代理编码单元。
代理对仅用于UTF-16。
孤立的代理编码单元自身没有解释。
3.2.7 Unicode编码格式(Unicode Encoding Forms)
D28 Unicode标量值(Unicode scalar value):除了高代理和低代理码点外的其他所有Unicode码点。
D28a 编码单元(code unit):为了处理和交换,表示编码文本单元的最小的位组合。
编码单元是计算机存储中的特定单元。Unicode标准在UTF-8中使用8位编码单元,在UTF-16中使用16位编码单元,在UTF-32中使用32位编码单元。
在Unicode标准中,一些编码单元的特定值不能单独用于表示编码字符。该限制条件应用于UTF-16中孤立的代理码点,以及UTF-8中的字节80-FF。
D28b 编码单元序列(code unit sequence):一个或多个编码单元的有序序列。
当编码单元是8位时,编码单元序列也可被称作字节序列。
一个编码单元序列可能只有一个单个的编码单元。
在程序设计语言中,字符串类型的值基本由编码单元序列组成。
依赖字符编码标准的结构,可能要使用编码单元序列(包含多个编码单元)来表示一个单个的编码字符。
D29 Unicode编码格式将每个Unicode标量值分配给一个唯一的编码单元序列。
由于历史原因,Unicode编码格式也被称作Unicode(or UCS) transformation formats(UTF)。
在Unicode标量值集合与针对Unicode编码格式的编码序列集合间的映射是一对一的。
对给定的编码格式,存在编码单元序列没有相关联的Unicode标量值。
D29a Unicode串(Unicode string):由Unicode编码格式中编码单元组成的编码单元序列。
D29b 8位Unicode串(Unicode 8-bit string):只包含UTF-8编码单元的Unicode串。
D29c 16位Unicode串(Unicode 16-bit string):只包含UTF-16编码单元的Unicode串。
D29d 32位Unicode串(Unicode 32-bit string):只包含UTF-32编码单元的Unicode串。
D30 形式不良的(ill-formed):如果具有Unicode编码格式的Unicode编码单元序列没有遵照Unicode编码格式规范,就称为形式不良的。
如果编码单元序列对应的码点位与Unicode标量范围之外,就是形式不良的。
UTF-8对起始字节和后续字节的字节范围有严格的约束。违反这些约束,将使生成的编码单元序列无法映射到Unicode标量值上,产生一个形式不良的编码单元序列。
D30a 形式良好的(well-formed):遵照Unicode编码格式规范的Unicode编码单元序列,就成为形式良好的。
D30b 形式良好的UTF-8编码单元序列(well-formed UTF-8 code unit sequence)
D30c 形式良好的UTF-16编码单元序列(well-formed UTF-16 code unit sequence)
D30d 形式良好的UTF-32编码单元序列(well-formed UTF-32 code unit sequence)
D30e 具有Unicode编码格式(in a Unicode encoding form):如果一个Unicode串是由某个特定的Unicode编码格式的形式良好的编码单元序列组成,称该Unicode字符串具有Unicode编码格式。
UTF-32
D31 UTF-32编码格式(UTF-32 encoding form):一种Unicode编码格式,为每个Unicode标量值分配一个单一的无符号的32位编码单元,编码单元的数字值与Unicode标量值相同。
因为代理码点没有包括在Unicode标量值集合中,所以位与范围0000D800到0000DFFF间的UTF-32编码单元使形式不良的。
任何大于0010FFFF的UTF-32编码单元是形式不良的。
UTF-16
D35 UTF-16编码格式(UTF-16 encoding form):一种Unicode编码格式,为处在范围U_0000到U+D7FF和U+E000到U+FFFF内的每个Unicode标量值分配一个单一的无符号的16位编码单元,编码单元的数字值与Unicode标量值相同;位处在范围U+10000到U+10FFFF内的每个Unicode标量值分配一个代理对。
因为代理码点不是Unicode标量值,位于范围D800到DFFF间单独的UTF-16编码单元是形式不良的。
UTF-16 Bit Distribution
Scalar Value UTF-16
xxxxxxxxxxxxxxxx xxxxxxxxxxxxxxxx
000uuuuuxxxxxxxxxxxxxxxx 110110wwwwxxxxxx110111xxxxxxxxxx
wwww=uuuuu-1
UTF-8
D36 UTF-8编码格式(UTF-8 encoding form):一种Unicode编码格式,位每个Unicode标量值分配一个由一到四个无符号字节组成的序列。
UTF-8 Bit Distribution
Scalar Value 1st Byte 2nd Byte 3rd Byte 4th Byte
00000000 0xxxxxxx 0xxxxxxx
00000yyy yyxxxxxx 110yyyyy 10xxxxxx
zzzzyyyy yyxxxxxx 1110zzzz 10yyyyyy 10xxxxxx
000uuuuu zzzzyyyy yyxxxxxx 11110uuu 10uuzzzz 10yyyyyy 10xxxxxx
编码格式转换(Encoding Form Conversion)
D37 编码格式转换:在一种Unicode编码格式的编码单元序列与另一种Unicode编码格式的编码单元序列间,直接定义的转换。
* 在Unicode标准实现中,一个典型的API在逻辑上,将输入的编码单元序列转化为Unicode标量值(码点),然后将标量值转化为输出的编码单元序列。然而,可以直接在不同编码格式间进行转换,以获取更高的效率。
* 具有一致性的编码格式转换过程应将任何形式不良的编码单元序列作为一个错误条件。
3.2.8 Unicode编码方案(Unicode Encoding Schemes)
D38 Unicode编码方案:针对Unicode编码格式的一种指定的字节串行换,也可包括处理字节顺序标记(byte order mark, BOM)的规范。
D39 UTF-8编码方案(UTF-8 encoding scheme):对UTF-8编码单元序列进行串行化的Unicode编码方案,字节序列与编码单元序列本身完全一致。
D40 UTF-16BE编码方案(UTF-16BE encoding scheme):将UTF-16编码单元序列串行化为big-endian格式字节序列的Unicode编码方案。
D41 UTF-16LE编码方案(UTF-16LE encoding scheme):将UTF-16编码单元序列串行化为little-endian格式字节序列的Unicode编码方案。
D42 UTF-16编码方案(UTF-16 encoding scheme):将UTF-16编码单元序列串行化为big-endian或者little-endian格式字节序列的Unicode编码方案。
在UTF-16编码方案中,与U+FEFF对应的初始字节序列,被解释为字节顺序标记(BOM),用于区分两种字节顺序。初始字节顺序<FE FF>表明是big-endian顺序,<FF FE>表明是little-endian顺序。BOM不是文本内容的一部分。
UTF-16编码方案可能以BOM开始,也可能没有。然而,如果没有BOM,也没有高层协议指示,UTF-16编码方案的字节顺序为big-endian。
D43 UTF-32BE编码方案(UTF-32BE encoding scheme):将UTF-32编码单元序列串行化为big-endian格式字节序列的Unicode编码方案。
D44 UTF-32LE编码方案(UTF-16LE encoding scheme):将UTF-32编码单元序列串行化为little-endian格式字节序列的Unicode编码方案。
D45 UTF-32编码方案(UTF-32 encoding scheme):将UTF-32编码单元序列串行化为big-endian或者little-endian格式字节序列的Unicode编码方案。
在UTF-32编码方案中,与U+FEFF对应的初始字节序列,被解释为字节顺序标记(BOM),用于区分两种字节顺序。初始字节顺序<00 00 FE FF>表明是big-endian顺序,<FF FE 00 00>表明是little-endian顺序。BOM不是文本内容的一部分。
UTF-32编码方案可能以BOM开始,也可能没有。然而,如果没有BOM,也没有高层协议指示,UTF-16编码方案的字节顺序为big-endian。
3.2.9规范排序行为(Canonical Ordering Behavior)
用于对组合字符序列提供无歧义的解释,以便能按照可预知的方式创建和交换包含组合字符的序列。正规化是规范排序行为的另一个重要应用。
在Unicode标准中,组合字符序列中字符的顺序按照以下原则解释:
所有组合字符必须跟在所应用的基字符后面。
封闭的标记(enclosing mark)将包围基字符以及标记之前的所有组合字符。也包围它之前的其他封闭标记。
double diacritic的结合程度比其他非间距标记(nonspacing mark)要松。当显示时,double diacritic的位置在其他变音符之上,不包括封闭的变音符。
具有相同组合类别(combining class)的组合标记在书写上的位置一般是由所修饰的基字符向外排列。一些特定的非间距标记将改变却省的排列行为,与相邻的非间距标记并行排列。当并行排列时,编码的顺序与书写中占支配的顺序有关。
如果组合字符的组合类别不同,将不会有显示形式或语义上的差别。
(1)组合类别(Combining Class)
D46 组合类别:分配给每个Unicode组合字符的数字值,用于确定与那些组合字符在排字上相互作用。
如果组合字符间在排字上相互作用,则具有相同的组合类别;否则,具有不同类别。
封闭字符和间距组合字符的组合类别与它们的基字符相同。
组合类别具有的特定数字没有特别的重要性,只是用来比较是否相等,区分不同的组合类别。
(2)规范排序(Canonical Ordering)
对一个被分解的字符序列的规范排序,是根据组合类别对每个组合字符序列进行排序来完成的。字符序列的规范排序不反映任何语言正确性或偏好。
对被分解的字符序列D进行规范排序的算法为:
R1 对D中的任意字符x,定义p(x)为字符x的组合类别。
R2 如果在D中存在想的字符对(A,B),并且p(B)不为零,p(A)>p(B),则交换两个字符。
R3 重复执行R2,直到在D中没有发生任何交换。
(3)Conjoining Jamo Behavior
在Unicode标准中包含了一套预组合的Hangual音节,以及一套用于表示古老的韩文音节和现代韩文音节的jamo。
4. 实现指南
4.1 编码转换(Transcoding to Other Standards)
一般,在Unicode标准和其他编码标准间的映射需要通过表(table)来完成,而不是算法转换。使用表查找常常具有比简单算法转换更高的效率。
(1)多级表(Multistage Tables)
转换表需要空间。即使是很小的字符集也经常会映射到Unicode标准中几个不同的区块中,因此,至少在一个转换方向上(从Unicode标准到其他编码标准或相反),可能会包含多至64K个项(针对BMP)或1,088K个项(针对全部编码空间)。有多个方法用于减少映射表的内存空间需求,这些方法不仅可用于转换表,也可用于其他实现Unicode标准的表结构,包括字符属性数据、case映射等等。
(2)Flat Tables
如果磁盘空间不是问题,虚拟内存体系可以为flat table安排可接受大小的工作集,因为各字符的使用频率有很大不同,即使是小字符集也包含一些不常使用的字符。并且,需要转换为给定字符集的数据中的字符一般不会来自Unicode标准中的所有区块。
(3)Ranges
提供一个精心创建的嵌套范围判断对表进行优化,可能比较吸引人。但由于分支损失,这种方法会对现代的高度流水线式的处理器体系造成不必要的性能耗费。一种快速的解决方案是采用优化的两级表,可以在编码中不包含任何测试或分支指令。尽管哈希表的速度不如多级表,但也可用于空间优化。
(4)两级表(Two-Stage Tables)
两级表示常用的一种减少表的大小的机制。两级表使用一个指针和却省值的数组。如果指针为空NULL,查找返回却省值。否则,指针指向用于第二级查找的数值块。对于BMP字符,按照高字节和低字节值来组织这样的两级表非常有效,第一级是由256个指针组成数组,每个第二集区块中包含256个值。对于增补字符,应采取不同的方法构造指针和二级数组,以便充分考虑增补字符在剩余编码空间中稀疏的散布。
(5)优化的两级表(Optimized Two-Stage Table)
当任何区块相同时,对应的指针只需其中一个区块。对编码转换表而言,这种情况一般出现在当区块中的字符仅仅映射到"却省"或"无法匹配"的字符时。不是使用空指针NULL和一个却省值,而是创建了一个却省项的"共享"块。由于避免使用测试和分支,这种策略可以提供接近于简单数租访问的速度,却大大节省了存储空间。
(6)多级表调节(Multistage Table Tuning)
给定一个具有任意大小和内容的表,可以较容易的创建一个小的应用程序,来计算多级表的最佳级数和它们的宽度。通过调节级数和它们的索引指针数组的宽度,可以在表大小和平均访问时间之间进行折衷。
4.2 ANSI/ISO C wchar_t
在ANSI/ISO C中,为固定宽度的宽字符定义了类型wchar_t,ANSI/ISO C将宽字符集语义的定义留给了特定的实现。
wchar_t的宽度是由编译器指明的,可以只有8位大小。因此,需要在不同C或C++编译器间可移植的程序不应该使用wchar_t存储Unicode文本。
对于UTF-16的实现,可以使用宏macro或者类型定义typedef(如UNICHAR),编译为unsigned short或者wchar_t(依赖于目标编译器和平台)。对UTF-32的实现可以使用编译为unsigned int或wchar_t的宏或者是类型定义。这样的选择使在不同的系统平台和编译其中可以正确编译。
4.3 未知和缺少的字符(Unknown and Missing Characters)
4.3.1 保留的和私用的字符编码(Reserved and Private-Use Character Codes)
有两类码点,即使是完全的Unicode标准实现也无法正确解释:
被保留的码点;
在私用区中的码点。
一个实现不应试图去解释这样的码点。然而,在实际中,应用程序必须处理为分配的码点或私用字符。例如,当应用程序所处理的文本是由一个实现更新版本的Unicode标准的系统创建的,其中包含更多的分配字符。
对未知字符显示的选择包括将码点显示为四到六位十六进制数字,显示一个黑得或白的方块,针对保留字符和私用字符分别显示适合的字形,或者什么都不显示。一个实现不能删除这样的字符,也不能无目的地转换为其他字符。
4.3.2可解释但无法显示的字符(Interpretable but Unrenderable Character)
一个实现可能接收一个分配给Unicode字符的码点,但无法显示它,因为没有字体或者无法正确显示。
在这种情况下,实现可能会对用户的询问提供进一步有限的反馈,如对数据进行适当的排序,显示它的书写系统,或者以却省放时显示码点。对无法显示的(但是已分配的)码点和未分配的码点,实现可以通过为无法显示的码点使用指示类别的不同字形表示。
4.3.3却省的属性值(Default Property Value)
要使实现可以正常工作,需要把未分配的码点看作字符分配却省的属性值,因为各种算法都需要分配给每个码点的属性值来运作。这些却省值不是对所有未分配的码点都相同,因为码点中的某些范围需要不同的属性值以便与将来期望的分配做到最大兼容。
除非被特指,却省属性值不是标准的,具有一致性的实现可以使用其他值。例如,取代却省值,实现可能使用以下规则,为一块未分配字符插入相邻已分配字符的属性值。
注意在两个方向上最接近的已分配字符,如果它们处在相同的块中具有相同的属性值,则使用这些值。
从任一区块的边界开始,一直扩展到块内最近的已分配字符处为止,使用区块中字符对应的属性值。
如果所有的码点完全位于空的或未分配的块中,使用对应属性的却省值。
4.3.4却省的可忽略的码点(Default Ignorable Code Points)
一般,在可支持字符集外的码点使用一个应变的字形显示,如一个黑方块。然而,格式和控制字符不应该由可见的字形(尽管它们对其他字符的显示有影响)。除非对于一些特定的处理,这些字符也被忽略,例如,字符ZERO WIDTH NON-JOINER在对照(collation)中忽略。为在不同版本的标准间保证最大程度的兼容性,范围U+2060到U+206F,U+FFF0到 U+FFFB,和U+E0000到U+E0FFF保留给格式和控制字符。在这些范围中的位分配码点应该在处理和显示中被忽略。
4.4 处理UTF-16中的代理对(Handling Surrogate Pairs in UTF-16)
在形式良好的UTF-16中,在一个低代理码点之前只能是一个高代理码点,而不能是另一个低代理码点、一个非代理码点或者是文本的开头。一个高代理码点的后面也只能跟一个低代理码点,而不能是另一个高代理码点、一个非代理码点或者是文本的结尾。
高代理码点和低代理码点被分配了不相交的编码单元,非代理的码点也不会使用这些范围内的编码单元值表示。因此,在形式良好的UTF-16中的每个编码单元必须只满足下面三个可能的条件之一:
一个单一的非代理编码单元表示的码点范围是0到D7FF或E000到FFFF;
一个高代理码点表示代理对的第一部分;
一个低代理码点表示代理对的第二部分。
最多访问两个编码单元,使用UTF-16编码格式的处理过程就可以解释任何Unicode字符。确定字符边界最多只需要扫描前一个或后一个编码单元,而不需考虑其他部分。
只要实现不去除代理对中的任一编码单元,或者在代理对中两个编码单元间错误的插入另一个字符,就可以保证数据的完整性。而且,即便数据被破坏了,错误也是局部的。
UTF-16具有非常有利的频率分布,在所有文本数据中的大多数部分中,代理对非常罕见,非代理码点将非常普遍。这不仅有利于减少由于处理变长编码而带来的性能损失,也允许一些处理过程可以不对代理对采取特别的操作,或者使用已有处理字符序列的机制来处理代理对。
实现必须在处理UTF-16文本时完全支持代理对。但是,实现中的单独的组件可以具有对代理对不同程度的支持,只要这些组件之间可以正确的组合和交流。对代理对不同程度的支持由两个主要方面决定:
实现是否解释增补的字符?
实现是否保证代理对的完整性?
Surrogate Support Levels
Support Level Interpretation Interity of Pairs
None No supplementary characters Does not guarantee
Transparent No supplementary characters Guarantees
Weak Some supplementary characters Does not guarantee
Strong Some supplementary characters Guarantees
不支持代理对,实现就不会对任何增补字符进行解释,也不保证代理对的完整性。
透明的代理对支持(transparent surrogate support),用于这样的组件,如编码格式转换,它可能完全保证对代理对的正确处理,但不解释任何增补字符。也适用于低层串处理操作的组件,一个 Unicode串只是简单地作为编码单元的数组而不顾它们的代理状态,不对串进行解释。
不充分的代理支持(weak surrogate support)只正确地处理那些对应可解释字符的代理对,可能调用的组件被保证不会传递无法解释的字符。
支持代理对的策略(Strategies for Surrogate Pair Support)
处理Unicode标准中高级特性的一些实现可以很容易地被改进,来支持UTF-16的代理对。例如:
在文本对照(text collation)中可以把代理对作为"组合字符"来处理。
文本的输入可以使用一次按键产生两个Unicode码点的键盘来完成,就如一次ENTRE键可以生成CRLF或者在阿拉伯键盘上的"lam-alef"可以生成两个字符lam和alef的序列。
文本截断(truncation)可以使用与保证组合标记紧跟基字符相同的机制。
如果文本编辑器可以保证插入点(insertion point)位于字符边界,就可以阻止用户破坏文本。只要使用文本元素边界,低层的串处理程序(如wcschr)就不用进行修改。实际上,只有某些高层的处理需要注意代理对;底层的例程可以继续使用对16位编码单元操作,而不需特别对待代理对。
4.5 处理数字(Handling Number)
在Unicode 中,有一些字符集合用于表示不同书写系统中的十进制数字。在数字上,解释这些字符的系统必须提供正确的数字值。比如,在数字上,对序列<U+ 0968 DEVANAGARI DIGIT TWO, U+0966 DEVANAGARI DIGIT ZERO>解释,具有值20。
当从二进制的数字值转换为可视的形式时,可以从不同的书写系统中选择数字。
ASCII数字的全角变形(fullwidth)仅是通常数字的兼容变形,应作为一般的西文数字对待。
罗马数字和东亚的表意字符数字也是十进制的数字书写体系,但它们在形式上不是以10为基数的数字系统。因此,不可能采用一对一的方式转换成像123456.789的形式。
使用表意字符,也可能以两种方法书写数字。如数字1,234可以表示为"一千二百三十四"或"一二三四"。在数字解析使支持这些数字意味着实现必须能区分这两种情况。
有时候数字需要解析,但它们并不是数的一部分。例如由字母和数字组成的标示符。
只有在另一层上(如实现一个完整的数学公式解析器),对上标(superscripting)的解释才是至关重要的。
4.6 正规化(Normalization)
(1)可选择的拼写(Alternative Spelling)
在Unicode标准中对最常用的一些加重音符的字符分配明确的编码。这些字符也可以通过组合获得,对于加重音符的字母,可以由基字符和非间距标记(nonspacing mark)组合而来。
Unicode标准提供对可由基字符加一个或多个非间距标记组合而来字符的分解。分解映射与特定Unicode标准的版本有关。
(2)正规化(Normalization)
系统可能会将Unicode编码格式的文本正规化为特定的序列,如将组合字符序列正规化为由预组合字符的序列,或者相反。
无法处理非间距标记的系统,可以正规化为预组合字符,适用于大多数基于拉丁语的现代语言。对于无法处理的组合字符,系统可以使用替代显示方法,至少在显示上表示组合。
对可以处理非间距标记的系统,执行正规化消除预组合字符可能会有用,使系统对组合字符有统一的表示,保持对这类字符处理的一致性。
4.7 压缩(Compression)
使用Unicode字符编码可能会增加用于保存文件文本部分的存储和内存空间。因此,对Unicode文件或串进行压缩是一个很好的选择。压缩往往建立一个更高层的协议,并且依赖于所使用的压缩方法的知识进行交换。
4.8 换行的原则(Newline Guidelines)
换行符在不同的平台上表示为:carriage return(CR)、line feed(LF)、CRLF,或next line(NEL)。不仅换行符使用不同的字符表示,并且在相同平台上,它们也具有不明确的行为。当转换字符集编码时,这些字符通常被直接转换为对应的 Unicode码点。这意味着,即使是处理纯Unicode文本的程序也必须解决这些问题。特别是随着Web的出现,在一台机子上的文本可能具有不同的来源,将引起很大问题。
换行符用来明确指示行的边界。
4.8.1 定义(Definitions)
Hex Values for Acronyms
Acronym Name Unicode ASCII
CR carriage return 000D 0D
LF line feed 000A 0A
CRLF carriage return and line feed 000D,000A 0D,0A
NEL next line 0085 85
VT vertical tab 000B 0B
FF form feed 000C 0C
LS line separator 2028 n/a
PS paragraph separator 2029 n/a
在Unicode标准中,没有正式地分配控制字符,而是为各种7位和8位字符编码标准中使用控制字符提供相应的码点。确保了Unicode标准与其他编码标准的相关性和相互映射。
缩写NLF(newline function)表示针对一个新行分隔符的一般控制功能。
4.8.2 背景(Background)
段落分隔符(paragraph separator)用于指示段落之间的分隔。行分隔符(line separator)指示在何处进行断行,特别是在一个段落中。
记录分隔符(record separator)用于分隔记录。例如,当交换表格式数据时,一种普通的格式是使用TAB分隔单元和在一行单元后使用CRLF。尽管这种功能与行分隔不是正好相同,但使用了同样的字符。
NLF开始时作为行分隔符。现在,在一些简单的文本编辑器中还作为行的分隔符。随着平台和程序开始使用自动分行进行字处理,这些字符被用于表示段落分隔符。
一旦NLF被用来表示段落分隔符,在一些情况下,另一个控制字符就被作为行分隔符使用。例如,在Microsoft Word中,就使用vertical tabulation(VT)。
4.8.3 建议(Recommendation)
在Unicode 中,定义了两个明确的分隔字符:U+2029 PARAGRAPH SEPARATOR(PS)和U+2028 LINE SEPARATOR(LS)。在Unicode文本中,应该在所表达功能明确的地方使用PS和LS字符。否则,当从其他字符集转换为Unicode时,当解释文本中的字符时,和当从Unicode转换为其他字符集时,使用以下规则处理NLF。
即使实现知道在一个特定的平台上用哪个字符表示NLF,在输入和解释时CR、LF、CRLF和NEL应该被相同对待。只要在输出时,才有必要进行区分。
(1)从其他字符编码集转换
R1 如果知道NLF的确切的用法,则转换为LS或PS。
R1a 如果不知道NLF的确切用法,则映射为与平台对应的NFL。
(2)解释文本中的字符
R2 总把PS解释为段落间隔,把LS解释为行间隔。
R2a 在字处理中,把任一NLF都解释为PS。
R2b 在简单文本编辑中,把任一NLF都解释为LS。
R2c 在解析中选择最安全的解释。
例如,对R2c,涉及断句启发规则的实现会按照以下方法,将NLF安全的解释为LS:
当一个NLF应是PS时,假设把它解释为LS。因为多数段落总是以标点符号结束,这只会在个别情况造成对句子边界的错误识别。
当一个NLF应是LS时,假设把它解释为PS。在这种情况下,行分隔符将是句子断开,对断句启发规则带来很大错误。
(3)转换为其他字符编码集
R3 如果已知转换的目标,根据目标协定,适当地对NLF、LS和PS进行映射。
例如,当映射为Microsoft Word对文档的内部协定时,LS将映射为VT,PS和其他NLF将映射为CRLF。
R3a 如果不知道转换的目标,将NLF、LS和PS映射到平台的换行协定。
(4)输入和输出
R4 函数readline应该在遇到NLF、LS、FF或PS时停止。在典型的实现中,不包括停止位置的NLF、LS、FF或PS。
因为分隔符会丢失,对这种readline函数的使用仅限于与分隔符的类型无关的文本处理。
R4a 函数writeline应该根据(3)中的协议转换NLF、LS和PS。
(5)页面分隔符
FF一般用作页面分隔符,在文本中应该按照情况解释。当在屏幕上显示时,在分隔符后的文本会被强制放如下一页。它与段落分隔符无关:一个段落可以在一页开始在下一页中继续。除非是在页面中显示,在大多数解析过程和readline中,与LS的解释相同。
4.9 正则表达式(Regular Expressions)
面向字节的正则表达式工具需要扩展以正确处理Unicode。下面是扩展所涉及方面:
Unicode是一个很大的字符集,只适用于处理小字符集的正则表达式工具可能无法调整。
Unicode包括多种语言,它们具有与英语或其他西欧语言非常不同特性。
4.10 纯文本中的语言信息(Language Information in Plain Text)
4.10.1 语言标记的需要
在纯文本数据中嵌入语言信息的需要经常被夸大。一些普通操作,如对照(collation)很少需要这些额外信息。
然而,语言信息对某些操作非常有用,如对一个混合语言的文档执行拼写检查或者连字(hyphenating)。对于为无格式文本选择却省字体也非常有用,例如日文字体中的省略符号具有与英文字体不同的外观。当前的字体和布局(layout)技术基于语言信息产生不同结果。尽管语言信息对于执行文本-语音转换 (text-to-speech)操作有用,但当前的文本-语音转换软件都必须对文本执行非常复杂的语法分析,因此确定语言的额外工作就不那么重要了。
语言信息可以使用带外信息(out-of-band)或内嵌标记(inline tag)表示。在内部实现中,通常使用带外信息,保存在与文本并联的数据结构中,而不是嵌入到文本数据中。带外信息不影响对文本的正常处理,还可以轻松的支持对文本的操作。
4.10.2 语言标记与汉字统一
对Unicode中汉字统一的一个常见误解是觉得没有语言信息就无法正确显示汉字字符。其实,汉字统一的目标和方法是确保文本可读。尽管需要添加字体、大小、宽度和其他格式规格,以便在源和目标机器上准确产生相同的外观,但在没有这些规格时,纯文本也能保证可读。
因为不同国家所使用的统一的汉字间的不同,都仅限于格式上的变化,不会引起Unicode中的混乱。在Unicode中的汉字统一不会使读者音唯一不同的字体显示而无法识别一个字符。如果准确的字体信息很重要,最好使用格式文本。
4.11 编辑和选择(Editing and Selection)
一致的文本元素(Consistent Text Elements)
从用户的角度,文本的基本表示不是所关心的,但重要的是,编辑接口必须对用户所认为的字符提供一个统一的实现。用户希望在鼠标选择、方向键移动、退格等操作中,这些字符表现得像一个个单元。例如,当实现这些行为后,对一个表示为基字符加非间距组合标记序列的加重音符字母,使用右移方向键时,逻辑上会从基字符的开始跳到最后一个非间距字符后面。
在词中的编辑和选择,一般有三种类型的边界(boundary)。
簇边界(cluster boundary)
任意定义的簇边界可能会出现在像梵文(Devanagari)这样的书写系统中,选择操作可能会应用于音节或者音节的一部分。在这种情况下,组合字符序列,如ka+vowel sign或者联合的簇ka+halant+ta,作为单一的单元选择。
堆叠字符边界(stacked boundary)
堆叠字符边界一般比簇边界更细。独立的元素(如梵文vowel sign a)可以不受约束的选择,但是任何堆叠在一起的字符(包括垂直连字符,如阿拉伯文中的lam+meem)只能作为单一的单元选择。
原子字符边界(atomic character boundary)
原子字符边界的使用最接近于单个Unicode字符的选择。然而,大多数当前系统都采用某种矩形加亮的方式表示选择操作。这种方法限制了编辑操作的一致性,因为一些字符序列不是从行的起始处成直线地发展。当字符堆叠时,两种机制被用于对部分选择地显示:直线的和非直线的边界。
直线的边界(linear boundary)
使用直线边界,将合成字形的全部宽度都归属于序列的第一个字符,认为其余字符没有宽度。
这是最简单的一种机制。它的优点是只需要很少的额外实现工作。它的缺点是选择窄字符变得非常困难,更不用说零宽度的字符。需要用户刚好从非间距标记右边开始选择,并且正好拖到左边。如果有多个非间距标记,它也不允许对单个标记进行选择。
非直线的边界(nonlinear boundary)
使用非直线边界把任何堆叠字符分成各个部分。可以通过对多个矩形加亮,或者对单个字符着色的方法进行表示。
注意到,通过更多的操作,一个预组合的字符在删除操作中可以表现得像一个具有原子字符边界组合字符序列一样。这个过程包括动态地获得字符的分解表示,得到用作模拟的组件。
在多数系统中,字符时文本中最小的可寻址单元,所以选择操作和属性分配操作(如字体、颜色、字符间距等)都在字符的基础上执行。对于预组合地字符无法模拟这种可寻址性,系统地修改所有文本编辑工具来对字符的一部分进行寻址,会十分低效。
由于文本元素不具有一个单一的概念,因此,对字符边界的编辑也没有一个统一的概念。在不同情况下,用户可能会在编辑过程中使用不同程度的粒度大小。可以考虑两种方法:首先,用户可能设定对字符边界的一个全局偏好;第二,用户可能有可选的命令机制,如Shift-Delete,可以提供对却省模式更细(或更粗)的控制。
4.12 处理非间距标记的策略
依据一下策略,开发者可以实现对非字符间距有效和高效使用的系统和例程。开发者也可以选择适用于绝大多数已有系统的最小限度的技术,和适用于要求更苛刻的情况的复杂技术,如高端的桌面出版。
在这里,术语非间距标记(nonspacing mark)和组合字符(combining character)可以互换使用。有时会使用术语diacritic、accent、stress mark、Hebrew point、Arabic vowel等,而不是非间距标记(它们表示特定类型的非间距标记)。
为支持非间距标记,只需要相对较小数量的实现特性。存在多种可能层次的实现。一个最小的系统可以产生较好的结果,并且相对容易实现。要求大多数特性地系统,只是对已有软件地简单修改。
因为有一些语言要求非间距标记,如Arabic、Hebrew和印度次大陆的语言,已有一些可以处理这些字符的系统,可以利用已有经验来生成处理Unicode标准中这些字符的多用途软件。
显示(rendering)
一部分确定的组合字符序列可以通过简单的替换来有效显示。当遇到一个有基字符加一个或多个非间距组合标记组成的序列时,可以使用表示组合形式的字形进行替换。在简单地字符显示中,一个非间距组合标记不增加宽度,一个组合字符序列的具有与基字符相同的宽度。当截断串时,从结尾处开始向后执行截断总是最容易。后续的非间距标记将不会与前面的基字符分开。
一个更复杂得显示系统会考虑使用非间距标记时对宽度和字距更细微的调整,或者组合字符序列具有与基字符不同宽度。对大多数应用而言,这样地显示系统并不是必需的。
其他处理:正确的多语言比较例程也必须能够把字符序列作为一个字符比较,或者把一个字符看作是一个字符序列。只要提供了适当的数据,这些例程也能处理组合字符序列。当查询串时,要检查目标串中可能会影响最后一个匹配字符解释的附加非间距标记。
断行算法一般使用状态机,确定词间的中断。这样的算法可以很容易地改进,来阻止将非间距标记从基字符分开。
键盘输入(Keyboard Input)
用于组合字符序列输入的一个常见实现,是使用所谓的dead key。这些键与打字机生成这样序列所使用的机制匹配,通过在非间距标记之后键入基字符。在计算机的实现中,当按下针对重音符的dead key时键盘进入一种特殊的状态,只有当键入一些有限数目的"合法"基字符之一时产生一个预组合的字符。根据需要,可以改进系统来生成组合字符序列或者预组合的字符。尽管打字员,特别是使用Latin书写系统的,是针对这类系统培训的,然而在Unicode标准中一些书写系统(包括Latin)可能会依据书写的顺序来实现,用户首先键入基字符,其后跟着重音符或其他非间距标记。
在书写顺序的情况下,每一次键入都在屏幕上产生一个不同的自然变化。要给已有的字符添加重音符,用户需要把插入点移到字符后在键入重音符。
截断(Truncation)
有两种类型的阶段:根据字符数目截断和根据显示宽度截断。根据字符数目截断可能带来数据损失,也可以是无损失的。
根据字符数目进行截断使用在,由于存储限制,只有有限数目的字符可以放入某区域;也用于,为了传送和其他目的将文本插入缓冲区中。在后一种情况下,如果在处理前缓冲区中的数据可以无缝的重新组合,或者预先检查一下可能出现的跨缓冲区组合字符序列,就可以做到不丢失数据。
当调整数据以适应有现长度的区域时,一些信息将会丢失。在文本边界上进行截断(例如,在组合字符序列的最后或者在最后一个词边界)通常比在最后一个码点后截断更可取。
根据显示宽度截取用于有限范围内的可视显示。在这种情况下,截断是依据结果串的宽度而不是字符的数目。在简单的系统中,依据宽度截断很容易,从末尾处开始向后操作减去字符的宽度。由于后续非间距标记对串的尺寸没有贡献,最后结果不会把非间距标记与它们的基字符分开。
如果文本环境会更复杂,字符的宽度可能会依赖上下文环境,由于字符间距调整、连字或上下文信息等的作用。对这种系统,一个组合字符的宽度可能会与一个单独的窄字符(如i)的宽度不同。处理这种情况,必须对截断结果进行核查。
一个不同的选择是在图形上对字符进行修剪。但不幸的是,结果可能很难看。并且,如果修剪出现在字符之间,可能不会给出任何世界反馈表示字符被删除了。
4.13 非间距标记的显示(Rendering Nonspacing Marks)
在这里假定使用均衡字体(proportional font),单个字符的宽度可以变化。对于等宽字体(monospaced font),可以使用各种技术,但一般而言,对于这种字体的多数书写系统,可能只有一种正确的显示外观。
当显示的序列中包含多于一个的非间距标记时,却省情况下,非间距标记从基字符向外堆叠。即,如果亮格非间距标记出现在基字符的之上,则第一个非间距标记位于基字符上面,第二个非间距标记为与第一个标记上面。如果亮格非间距标记出现在基字符的之下,则第一个非间距标记位于基字符下面,第二个非间距标记为与第一个标记下面。
这种却省行为可能会根据排字上的偏好,或者某个特定书写系统中对多个非间距标记的特定正字法处理,而改变。
后退的显示(fallback rendering)
有几个方法可用于处理在一个固定的可显示集合外未知的组合字符序列。
一种方法是Show Hidden,通过先显示基字符再把非间距标记作为单个单元显示,来表示无法描绘序列。
另一种方法是Simple Overlap,将重叠的零宽度非间距标记放置在却省的固定位置处,一般所放置的位置例可能的基字符较远。尽管显示结果对于一些字母而言没有吸引力,但在只有一个非间距标记的情况下,结果一般还是可以辨认的。
在一个退化的情况下,一个非间距标记作为文本的首字符出现,或者被行分隔符、段落分隔符或其他引起位置分隔的格式符从它的基字符分开。这种结果称为不良的组合字符序列。不良的组合字符序列在显示时,看作是以一个空格作为基字符。
双向定位(bidirectional positioning)
在双向文本中,非间距标记与它们的基字符一起重新排序。即视觉上,在使用双向算法之后它们应用于相同的基字符。
调整(justification)
典型地,对文本的完全调整要给间距字符(space character)添加额外的空间;然而,如果只有很少(或没有)间距字符,一些系统会在字符间添加额外的字间隔空(letterspacing)。如果在文本中包含零宽度的非间距标记,则需要对该过程进行改进。
因为非间距标记总是跟随它们的基字符,正确的调整过程应该只有当第二个字符是一个基字符时才会在字符见添加字间隔空。
规范等价性(Canonical Equivalence)
在显示多个重音符时,必须考虑规范等价性,以便使任两个规范等价的序列显示结果相同。这一点在当规范顺序与习惯的键盘输入顺序不相同时特别重要,如具有元音符号的阿拉伯文和使用点的希伯莱文。在这些情况下,显示系统得到的是典型的键入顺序或者是经过正规化(normalization)的规范顺序。
显示系统应该处理组合标记的任何具有规范等价性的序列。这不会有性能问题,因为对组合标记重新排序所需的时间与其他显示工作的耗时相比微不足道。
一个显示系统,在需要时,可以在内部对标记重新排序,只要结果序列是规范等价的。
定位方法(Positioning Methods)
有一些方法可用于定位非间距标记,使它们相对于基字符和前一个非间距标记(如果有的话)的位置正确。
使用连字(positioning with Ligature)
一个固定范围的组合字符序列可以使用相对简单的替换来有效显示。当字形可以表示一个序列<基字符,非间距标记>时,使用这个字形替换组合形式。因为非间距标记的扩展宽度为零,组合字符序列将自动具有与基字符相同的宽度。跟复杂的文本显示系统可能会采取进一步的措施来处理一些特殊情况,如组合字符序列的紧排(kern)或者宽度与基字符不同。
使用连字可能是支持非间距标记最简单的方法。对于较小的固定字集,如那些对应ISO/IEC 8859-1(Latin-1)重预组合字符的,可以直接采用该方法。因为组合字符序列几乎总是具有与基字符相同的宽度,对这些字符的显示、测量和编辑与一般连字的情况相比都更容易。
如果组合字符序列不能形成一个连字,就需要采用以下两种方法之一。如果这些方法都不可用,则使用后退的方法。
根据上下文结构定位(positioning with contextual forms)
处理非间距标记定位的一个较通用的方法是使用上下文的结构。在这种情况下,有几个不同的字形对应于重音符的不同位置。依据大致的形状和宽度,基字形(基字符的字形?)通常分成数目较小的一些类别。根据基字形的类别,为非间距标记选择一个特定的字形。
在一般情况下,可以从一些具有不同高度的字形中进行选择,以便堆叠字形。这种方法可以与使用连字的方法结合使用,就可在特定情况下,使用连字生成更高的变形。
使用增强的字距调整(positioning with enhanced kerning)
第三种用于定位读音符号的技术是对常规的字距调整(水平的和垂直的)的扩充。典型地,字距调整过程唯一对字形映射一个位置偏移量。例如,在词语"To"中,"o"应该向"T"下面靠一点。这种系统的扩充则分别映射一个垂直的和水平的偏移量。
为了针对一般情况可以有效应用,字距调整过程也必须能够处理比简单字符对更复杂的情况,如在一个基字符后可能有多个读音符号。
使用增强的字句调整技术进行定位,也可以和使用连字的方法结合运用。
4.14 定位文本元素边界(Locating Text Element Boundaries)
Unicode 编码的文本串经常需要被分解为文本元素。文本元素的一般例子包括字符、词、行和句子。文本元素的准确确定可能会依据地区而变化。但要与用户的理解相匹配并不是总能达到的,因为文本本身并不总是包含足够的信息用于明确决定边界。例如,句点"."(U+002E FULL STOP)的使用具有歧义,有使用于表示句子结束,有时用于缩写,有时则用于数字。然而,在多数情况下,文本边界可以符合用户的理解。
4.15 标识符(Identifiers)
Unicode 标准的实现面临的一个常见任务是提供针对标识符的解析工具。为了促进在基于Unicode字符的解析器中对标识符的标准化处理,这里针对标识符语法的定义提出一套指导方针。这些指导方针并不比普通程序设计语言中规则更复杂,只不过包含了更多具有不同类型的字符。
基于属性的标识符语法(property-based identifier syntax)
这里提供的正式语法就是要明确,一个标识符是由一个字母或者一个表意字符开始,包含任意数目的字母、表意字符、数字或下划线的字符串组成的。每种程序设计语言标准都有自己的标识符语法,不同程序设计语言对ASCII范围内特定字符的使用有不同的约定。对这些语法进行扩充以具备Unicode实现的全部行为,只需要讲这些特定规则与下面提供的样本语法结合。
为了正确的涵盖Unicode标准,样本标识符语法中的革新之处包括:
结合对组合标记的恰当处理。
允许有布局和格式控制字符,在解析标识符时忽略。
组合标记(combining marks)
标识符语法中必须考虑组合标记。由一个基字符跟随若干组合标记组成组合字符序列对一个标识符而言是有效的。
封闭的组合标记被排除在<ident_extend>的语法定义外,因为由它们和字母所组合得到的组合字符不是这些标识符有效的组成部分。
布局和格式控制字符(layout and format control character)
用于控制组合行为,双向顺序控制和可选显示格式的Unicode字符,被明确定义为不影响中断行为。不像空格符或其他分隔符,它们不用来指示词、行或其他单元的边界。因而,为了标识符定义,将它们明确包括在内。一些实现可能选择过滤掉这些可忽略字符,这种方法的优点在于两个显示相同的标识符更可能是相同的。
特殊字符调整(specific character adjustments)
特殊的标识符语法可以被看作是基于字符属性对普通语法的少量修改。例如, SQL标识符允许下划线作为标识符的一部分(但不能作为开始字符);而C标识符允许既下划线作为标识符的一部分也可以作为标识符的开始字符。
可以考虑排除在标识符外的字符集合包括所有兼容映射具有<font>标记的字符。
语法规则(Synactic Rule)
<identifier> := <identifier_start> (<identifier_start>|
<identifier_entent>)*
Sytactic Classes for Identifiers
Syntactic Class Properties
<identifier_start> General Category = L or Nl, or
Other_ID_Start = true
<identifier_extend> General Category = Mn, Mc, or Nd, Pc, or Cf
可选建议(Alternative Recommendation)
使用语法类别不足之处是,用于详细定义的存储空间,以及随着新版本Unicode标准添加的新字符无法被已有的解析器识别。也就是说,无法做到向上兼容。
解决该问题的一个方法是,不去定义允许使用的码点集合,而是将一个较小的固定的码点集合保留给语法使用并且允许使用其他任何码点(包括非分配的码点)用作标识符的一部分。按照这种规范编写的解析器对任何版本的Unicode标准得表现相同。
这种方法的缺点是标识符中部分可能是没有意义的东西,因为将词汇分类与人类的可理解性分开了。然而,可理解性可以通过其他方法解决,如使用用法指南限定使用有意义的术语。例如W3C指定的规范XML 1.1。
通过增加不允许使用字符的集合,可以得到针对标识符较直观的建议。这种方法使用Unicode标准一个特定版本中关于标识符类别的所有规范,并且永远不允许使用该版本中不推荐用作标识符的字符。该版本Unicode标准中没有分配的所有码点可用于标识符,已经考虑到将来对版本的添加。这种方法保证了向上兼容的标识符稳定性,以及将字符合理地划分为具有或不具有意义的标识符组成。
可以对禁止使用的码点列表进行一些额外的扩充,来进一步限制不合理的标识符。
4.16 排序和查找
排序和查找操作部分相一致,都要实现相互比较项的等价程度判定。在查找操作中,等价定义项是否匹配;在排序操作中,等价影响项在有序队列中的邻近。等价的确定经常依赖于应用和语言,但对于支持Unicode标准的实现而言,排序和查找必须考虑到Unicode字符的等价性和规范顺序。
与语言文化有关的排序和查找
排序顺序随着文化的不同而变化,并且一些特殊的应用需要变化。排序的顺序可以依据词或者句子,区分大小写或者不分大小写,忽略重音符或者不忽略;也可以是依据语音,或者基于字符的外观,比如使用笔划和部首对东亚的表意字符排序。对汉字的语音排序需要使用词语的查找词典,或者是可以维持文本中词和相关语音拼写的特殊程序。
语言不仅决定使用哪一种排序,而且决定什么构成排序的基本元素。例如,瑞典语中将U+00C4 LATINE CAPITAL LETTER A WITH DIAERESIS作为一个单独的字母,在字母表中排在z之后;然而,在德语中,则作为ae或者识跟随在a之后的其他重音形式。西班牙语在传统上将连字 ll看作在l和m之间的字母来排序。
因此,不可能在编码时以某种顺序安排字符以便通过简单的二进制串比交接可以生成期待的顺序,也不可能提供单级的排序权重表。后者意味着字符编码细节对文化上期待的排序只具有间接的影响。
与语言无关的排序
在一些环境下,应用程序可能需要进行与语言无关的排序,即对文本数据排序,而不考虑针对串如何排序的与语言相关的文化期望。例如,一个临时的索引可能只需要以某些定义良好的顺序排列,但排序的准确细节并不重要或者对用户不可见。然而,即使在这种情况下,也需要注意一些问题。
首先,三种Unicode编码格式的二进制排序存在一些细微的差别。只需要对Unicode串进行二进制比较的实现必须考虑这一点,不至于在使用不同编码格式的应用程序间引起互操作问题。
一些排序或者查找应用,即使不关心排序中与语言相关的差别,也要求与大小写无关。传统上,执行与大小写无关比较的实现是通过在二进制比较前将两个串都转换为大写的形式来完成的。然而,这种方法一般不能扩展到Unicode标准中的所有字符。
查找
查找也受比较操作中一些同样的问题影响。也增加了其他一些特征,如只匹配词(即在匹配的两边都是词的边界)。一种技术是针对一个弱匹配进行快速查找。当发现一个候选匹配时,根据其他标准(如匹配变音符,词匹配,大小写匹配等等)。
当查找串时,必须检查目标串中尾随的非间距标记,可能影响最后一个匹配字符的解释。也就是,查找"San Jose"可能会在串"Visiting San José, Costa Rica is a ..."发现一个匹配。如果要求准确的匹配,则应该否决该匹配。如果只要求弱匹配,则可以接受该匹配,但是在返回目标字串的位置和长度时必须包括尾随的非间距标记。
弱等价的一个重要应用是与大小写无关的检索。一些传统的实现将查找串和目标串都映射为大写。然而,大小写映射是依赖语言的,并且不是没有歧义。
因为从外部字符集的错误映射,产生一个相关问题。为了解决这个问题,可以将用户易搞混的字符归为一个弱匹配类。这种方法在查找命名的文件或其他对象时可以更好的满足用户的语气。
次线性查找(Sublinear Searching)
使用比较信息,通过硬算(brute force),国际化的查找是可能的。然而,这种策略在最坏情况下需要O(m*n)算法,在一般情况下需要O(m)算法,n是所寻找的模式中字符的数目,m是目标串中的字符数。
一些算法可以使用次线性的算法对简单文本进行快速查找。通过在目标串中跳过字符,这些算法在通常情况下的复杂度只有O(m/n)。
在次线性查找中采用与语言有关的比较算法的主要问题,与多映射和可忽略有关。另外,次线性算法预先计算信息表。
4.17 二进制顺序
如果比较文本对最终用户是可见的,就应该使用正确的语言排序。然而,在有一些情况下,只需要一个快速的有良好定义的排序。在这种情况下,可以使用一个二进制排序。
Unicode 中的所有编码格式并没有相同的二进制顺序。UTF-8和UTF-32的数据以码点顺序排序,而UTF-16的数据(码点高于U+FFFF)则不是。而且,当UTF-16或UTF-32数据使用某个Unicode模式序列化,并以字节比较时,得到的字节序列可能具有也可能没有相同的二进制排序,因为交换字节顺序将影响数据的大体排序。由于这些因素,UTF-16BE、UTF-16LE、UTF-32LE编码方案下的文本不是以码点顺序排序。
一般,Unicode文本的却省二进制排列顺序应该是码点顺序。然而,可能需要与特定编码格式中的编码单元顺序(或是特定编码方案的字节排序)匹配,以便完成不同应用中使用的排序。
4.18 Case Mapping
Case 是特定字母表中字符的一个标准属性,比如Latin、Greek、Cyrillic、Armenian,和古代格鲁吉亚文,字符被认为是单个字母的变体。这些变体在形状和大小上可能区别很大,称为大写字母和小写字母。一般大写字母比小写字母大。具有大小写差异的字母表称为bicameral;没有的则称为 unicameral。
为了兼容性还包含了某些组合字符,如U+01F1 "DZ" LATIN LETTER DZ,就有了第三种状态,称作titlecase,用于当词的第一个字符被大写时。这种字符的一个例子是U+01F2 "Dz" LATIN CAPITAL LETTER D WITH SMALL LETTER Z。
因此,三种状态形式为UPPERCASE、Titlecase和lowercase。
术语"titlecase"可用于指词语,它的第一个字母是一个大写字母或者是titlecase字母,其余字母为小写。然而,并不是所有在文档标题中的词或者句子中的第一个词都是titlecase。
决定哪一个词是titlecase依赖于语言。例如"Taming of the Shrew"在英语中是适当的大写,但"Taming Of The Shrew"不是。而且,决定什么真正组成一个词是与语言相关的。例如,l'arbre在法语种可能被认为是两个词,但can't在英语种被认为是一个词。
Case Mapping的困难
一旦字符集超出了ASCII的范围,case mapping就会有一些困难。
在多数情况下,titlecase与uppercase相同,但并不总是这样。例如,U+01F1 "DZ" capital dz的titlecase是U+01F2 "Dz" capital d with small z。
case mapping可能生成与源串的长度不同的串。例如,德文字符U+00DF LATIN SMALL LETTER SHARP S在转换成大写时扩张成两个字符的序列"SS"。这种情况也出现在没有预组合字符的情况下。
由一些字符需要特殊的处理,如U+0345 combining iota subscript。
依赖上下文环境,字符也可能有不同的case mapping。例如,U+03A3 GREEK CAPITAL LETTER SIGMA,当后面跟随其他字母的时,对应的小写字符为U+03C3 GREEK SMALL LETTER SIGMA;没有跟其他字母时,对应小写字符为U+03C2 GREEK SMALL LETTER FINAL SIGMAL。
字符的case mapping可能依赖于地区。
由于一些字母实际上不分大小写,没有匹配的大写形式,因此,将一个串转换为大写的过程并不意味着不包括任何小写字母。
可逆性(Reversibility)
必须注意到,没有case转换操作时可逆的。例如:
toUpperCase(toLowerCase("John Brown")) -> "JOHN BROWN"
toLowerCase(toUpperCase("John Brown")) -> "john brown"
甚至还有一些单个词,像意大利语中的vederLa或英语中的名字McGowan,既不是大写,也不是小写或titlecase。这种形式有时称作 inner-caps,通常用于程序设计和Web名称。一旦串"McGowan"被转换成大写、小写或titlecase,就不可能通过另一个大写、小写或titlecase操作恢复原样。也存在单个的字符没有可逆的映射,如希腊文中的sigma。
对于使用单个命令键组成的序列在不同case间转换所选择内容的字处理软件,建议保存初始串,并且可以通过键序列返回初始串。用户界面要生成以下对一系列命令键响应的结果。注意,初始串每隔四次就会被存储。
1. The quick brown
2. THE QUICK BROWN
3. the quick brown
4. The Quick Brown
5. The quick brown
在字处理软件中,大写、小写和titlecase可以使用字符类型来表示。去除字符类型,就将文本恢复为初始状态。然而,如果采用这种方法,任何拼写检查软件必须注意case类型,以便可以对真正的外观进行检查。
不分大小写的匹配(Caseless Matching)
不分大小写的匹配是使用case folding实现的,该过程将串映射为一种消除了大小写差异的规范形式。Case folding顾及到查找中的不分大小写的快速匹配,因为只需要二进制比较。它不仅仅是只转换为小写形式。
通常,初始的串不会被转换的串替代,因为这样的替代可能会抹掉重要的信息。例如,名字"Marco di Silva"转换为"marco di silva",失去了关于哪个字母是大写的信息。
在Unicode Character Database(UCD)中的文件CaseFolding.txt用于执行与地区无关的case folding。该文件是通过单字符映射和多字符映射,从UCD中的case mapping生成的。它将所有具有不同case形式的字符转换成一个普通形式。对两个串进行不分大小写的比较时,可以利用这些数据对串进行转换,在使用二进制比较。