在javascript中,使用Array.from计算unicode编码的字符的长度不正确的问题

unicode 字符范围从 0x0000 到 0xFFFF,包含可能看到和接触到的所有(各种语言的)标准打印字符,这些字符成为基本多语言平面( Basic Multilingual Plane,  Bmp)。

在Bmp集之外还有很多其他扩展Unicode字符,范围直到0x10FFFF。这些符号通常是星形符号(astral symbol)。这个名称是指BMP之外的字符的16个平面的集合

对于某些星形符号,使用 .length 计算长度不准确,比如,下面的例子变量 a 实际上是一个字符,但是 长度是2,这样显然是不对的

 这种情况,可以使用 Array.from(a).length 才能算出字符真正的长度

let a = '\uD834\uDD1E'
console.log(a.length)
console.log(Array.from(a).length)

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值