我将数据存储在SQLite数据库中作为BINARY(16),其值由
PHP的
hex2bin函数在32个字符的十六进制字符串上确定.
例如,字符串434e405b823445c09cb6c359fb1b7918返回CN @ [4EÀ¶ÃYûy.
存储在此数据库中的数据需要由JavaScript操纵,为此,我使用了以下函数(改编自Andris的答案here):
// Convert hexadecimal to binary string
String.prototype.hex2bin = function ()
{
// Define the variables
var i = 0, l = this.length - 1, bytes = []
// Iterate over the nibbles and convert to binary string
for (i; i < l; i += 2)
{
bytes.push(parseInt(this.substr(i, 2), 16))
}
// Return the binary string
return String.fromCharCode.apply(String, bytes)
}
这按预期工作,从434e405b823445c09cb6c359fb1b7918返回CN @ [4EÀ¶ÃYûy.
然而,我遇到的问题是,当直接处理PHP的hex2bin函数返回的数据时,我得到字符串CN @ [ 4E Y y而不是CN @ [4EÀ¶ÃYûy.这使得我无法在两者之间工作(对于上下文,JavaScript被用于为使用从PHP Web应用程序检索的数据工作的离线iPad应用程序提供动力)因为我需要能够使用JavaScript来生成32 -character十六进制字符串,将其转换为二进制字符串,并使用PHP的hex2bin函数(和SQLite的HEX函数).
我相信这个问题是JavaScript使用UTF-16而二进制字符串存储为utf8_unicode_ci.我最初的想法是,我需要将字符串转换为UTF-8.使用谷歌搜索引导我到here并搜索StackOverflow引导我到bobince的答案here,两者都推荐使用unescape(encodeURIComponent(str)).然而,这确实回归了我需要的东西(CN @ [ 4E Y y]:
// CN@[Â4EöÃYûy
unescape(encodeURIComponent('434e405b823445c09cb6c359fb1b7918'.hex2bin()))
那么我的问题是:
如何使用JavaScript将十六进制字符串转换为UTF-8二进制字符串?