[Blog Read] 字符集与编码

Java字符编码根本原理    http://lavasoft.blog.51cto.com/62575/273608/

java的源文件:GBK,UTF-8,GB18030等

java的Class文件:Unicode(实际上是utf-16)

jvm内存中:Unicode,从外部文件,数据库或者网络读取到的字符串可能是非Unicode的,所以需要转化。互转的时候,要能够兼容,否则会出现乱码。

转化的方法:getBytes(String charsetName)    String(byte[] bytes, String charsetName)


String.getBytes("XXX")时发生了什么    http://yueyemaitian.iteye.com/blog/468668

这个解释了下getBytes(String charsetName)和String(byte[] bytes, String charsetName)


编码字符集与Java -Java World乱码问题根源之所在    http://www.blogjava.net/ramon/archive/2006/09/24/71505.html

 (精)字符集GBK和UTF8的区别说明     http://blog.itpub.net/55022/viewspace-713901

iso8859-1,单字节编码。
GB2312,双字节编码,只能编码简体字,兼容iso8859-1。
GBK,双字节编码,支持简体和繁体,兼容GB2312。
GB18030,变长编码,收录了所有Unicode3.1中的字符,包括中国少数民族字符,GBK不支持的韩文字符等等,也可以说是世界大多民族的文字符号都被收录在内。 兼容GBK。

GBK,GB2312以及Unicode都既是字符集,也是编码方式,而UTF-8只是编码方式,并不是字符集
GBK编码中英文字符只占一个字节

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
### 回答1: Python中可以使用chardet库来实现编码字符集的检测。下面是一个简单的示例代码: ```python import chardet def detect_encoding(file_path): with open(file_path, 'rb') as file: data = file.read() result = chardet.detect(data) encoding = result['encoding'] confidence = result['confidence'] return encoding, confidence file_path = 'test.txt' encoding, confidence = detect_encoding(file_path) print(f"Detected encoding: {encoding}") print(f"Confidence: {confidence}") ``` 上述代码中,首先导入了chardet库,然后定义了一个`detect_encoding`的函数,该函数接受一个文件路径作为参数。然后使用`open`函数打开文件,并以二进制模式读取文件内容。接着使用chardet库的`detect`函数对文件内容进行编码检测,返回一个字典类型的结果。结果字典中包含了编码名称和置信度。最后将编码名称和置信度打印出来。 在上述示例中,文件路径为'test.txt',你可以根据自己的需要修改文件路径。运行代码后,将会输出检测到的编码和置信度。 chardet库可以识别多种编码类型,如UTF-8、GBK、ISO-8859-1等。通过使用该库,我们可以方便地实现编码字符集的检测。 ### 回答2: Python中可以使用chardet库来实现编码字符集的检测。在使用之前,首先需要安装chardet库,可以使用pip install chardet命令进行安装。 接下来,在Python程序中引入chardet库的检测功能: ```python import chardet ``` 然后,读取需要进行编码字符集检测的文件,可以使用open()函数打开文件并读取内容。 ```python with open('file.txt', 'rb') as f: data = f.read() ``` 接着,调用chardet库的detect()函数来检测文件的编码字符集。 ```python result = chardet.detect(data) ``` 最后,可以通过result变量获取编码字符集的检测结果: ```python encoding = result['encoding'] confidence = result['confidence'] ``` encoding表示检测到的文件编码字符集名称,confidence表示检测结果的置信度。 完整的代码示例: ```python import chardet with open('file.txt', 'rb') as f: data = f.read() result = chardet.detect(data) encoding = result['encoding'] confidence = result['confidence'] print('文件的编码字符集为:', encoding) print('检测结果的置信度为:', confidence) ``` 通过上述代码,可以实现对文件编码字符集的检测,并输出检测结果。 ### 回答3: Python提供了多种库来实现编码字符集的检测,其中最常用的是chardet库。chardet可以自动推测出一段文本的编码字符集。 使用chardet库进行编码字符集的检测非常简单。首先,需要安装chardet库,可以使用pip命令来安装: ``` pip install chardet ``` 安装完成后,就可以在Python代码中导入并使用chardet库了。下面是一个简单的示例: ```python import chardet def detect_encoding(text): result = chardet.detect(text) encoding = result['encoding'] confidence = result['confidence'] return encoding, confidence text = b'\xe4\xb8\xad\xe6\x96\x87' # 使用字节序列作为输入数据 encoding, confidence = detect_encoding(text) print("编码字符集: ", encoding) print("置信度: ", confidence) ``` 在上面的示例中,我们首先导入了chardet库。然后,定义了一个函数detect_encoding,它接受一个字节序列作为输入,并返回推测的编码字符集和对应的置信度。 接着,我们定义了一个字节序列text作为输入数据,并调用detect_encoding函数来进行编码字符集的检测。最后,我们打印出检测结果。 运行以上代码,输出的结果将会是: ``` 编码字符集: utf-8 置信度: 0.938125 ``` 这表示输入数据很可能是使用UTF-8编码。置信度越接近1,表示推测结果越可信。 除了chardet库,Python还提供了其他的库,如unicodecsv和codecs,可以用来检测和处理不同编码字符集的文本数据。具体选择哪个库,可以根据实际需求和情况来决定。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值