关于python解释器编码,window编码,以及读取文件解码问题

本文内容转载: https://blog.csdn.net/qq_33692803/article/details/81321340?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf
关于编码的历史演变,utf-8是如何一步步发展来的,windows为啥依旧保持gbk的编码。。。
等等这些问题,网上一搜一大堆,大部分都是转发、分享后的雷同内容,依旧解决不了我内心的疑惑。。。
编码是个蛋疼的事情,倘若不弄清楚, 怎么在中国混?
经过自己查阅多方文档、多次深入实验,我树立了对编码的基本世界观。                                                                                           

基础内容请自行谷歌..废话不多说,直接上干货!!

下面用几个简单的代码段, 一步步讲解编码中 “编”“解”的问题!!(linux中运行)                                                                      

 


“ 代码 一 ”:

 
  1. import sys, locale

  2.  
  3. s = "小甲"

  4. print(s)

  5. print(type(s))

  6. print(sys.getdefaultencoding())

  7. print(locale.getdefaultlocale())

  8.  
  9. with open("utf1","w",encoding = "utf-8") as f:

  10. f.write(s)

  11. with open("gbk1","w",encoding = "gbk") as f:

  12. f.write(s)

  13. with open("jis1","w",encoding = "shift-jis") as f:

  14. f.write(s)

代码很 简单,学过Python的人应该都能看懂是啥意思~~
我们看一下运行结果:

“ 代码 一 ” 运行结果:

 
  1. 小甲

  2. <class 'str'>

  3. utf-8

  4. ('en_US', 'UTF-8')

  5.  
正如大家所想, 就是将“小甲”原样打印出来, 再把“小甲”存到3个文件中。
(shift-jis是日文编码格式)

这么   煞笔  的代码我还会不知道吗?  ( 重点在后面 )                                                                                                                                     

这里解释一下打印出来的两个“utf-8”是什么意思:

上面的 utf-8 指:系统默认编码

  • 注: 不要把系统以为是操作系统,这里可以理解成python3的编译器本身

下面的 utf-8 指:本地默认编码

  • 注: 这个才是操作系统的编码。(在Windows运行会变成gbk)

 

现在我们分别查看utf1 、gbk1、jis1 这三个文件的内容:

 
  1. utf1 : 小甲

  2. gbk1 : С▒▒▒

  3. jis1 : ▒▒▒b

问题:
为什么 utf1 的内容很清楚,没有编码问题,而gbk1 、jis1 的内容都出现了乱码?

解释:
因为我文件存储时用的编码格式不是utf-8,而此时读取这两个文件时,使用的是linux操作系统的默认编码“utf-8”。
那么写入磁盘时不是用utf-8, 读出时却用utf-8,当然读不出来了。
(这里需要大家了解encoding的真实作用)                                                                                                                                     

 

“ 代码 二 ”:

 
  1. #coding=gbk

  2. import sys, locale

  3.  
  4. s = "小甲"

  5. #coding=gbk

  6. import sys, locale

  7.  
  8. s = "小甲"

  9. print(s)

  10. print(type(s))

  11. print(sys.getdefaultencoding())

  12. print(locale.getdefaultlocale())

  13.  
  14. with open("utf2","w",encoding = "utf-8") as f:

  15. f.write(s)

  16. with open("gbk2","w",encoding = "gbk") as f:

  17. f.write(s)

  18. with open("jis2","w",encoding = "shift-jis") as f:

  19. f.write(s)

代码结结构一样很简单
但是请大家注意:  我在头部加了某个编码声明
在代码运行前, 请大家自行猜测结果~~~                                                                                                                                                                                                                                                                

“ 代码 二 ” 运行结果 :

 
  1. 灏忕敳

  2. <class 'str'>

  3. utf-8

  4. ('en_US', 'UTF-8')

  5. Traceback (most recent call last):

  6. File "2", line 15, in <module>

  7. f.write(s)

  8. UnicodeEncodeError: 'shift_jis' codec can't encode character '\u704f' in position 0: illegal multibyte sequence

  9.  

问题来了:

1、代码中明明 s = “小甲”, 为什么变成了 “灏忕敳” ??
2、为什么 jis 的编码失败了?(之前顶多只出现了乱码的问题,还不会报错,那它内部到底发生了什么?)
3、“coding=gbk” 到底是什么意思??
4、我明明写了 “coding=gbk” 的编码声明,为什么系统编码、本地默认编码还是没有改变?(那我写了有啥用?)                                                                                                                                


解释一下:

以上这么多问题, 主要是因为没搞清楚头文件的 “coding=gbk” 编码声明是什么意思!!

1、它的意思是python3编译器在读取该.py文件时候,我应该用什么格式将它  “解码”?只和读取有关,所以当你确定你代码编辑时候用的是什么格式编码的,你才能把相应的编码格式写入头文件。
(在此示范代码中,我用的是linux的默认编码编辑,也就是utf-8,那么在后面运行的时候,却要求解释器用gbk去解码,自然很过分,就会出现了s=“小甲” 乱码的问题)

(大家一定要知道,编码是 “编” 和 “解” 的两个步骤,一定要一一对应才能正确解码!虽然通常我们都叫“编码格式”,这是有一定误导性的。
实际上另一半是“解码格式”,要有意识地区分 “编” 和 “解” ,我们不能像网上有些文章一样将这两者混为一谈!!)

2、根据上面的解释应该可以明白,写了它之后,并不会更改本地、系统默认编码。
(本地默认编码只跟操作系统相关,linux中是utf-8,windows中是gbk。)
(系统默认编码实际是有python3和python2的差异的,python3是utf-8,python2是ascii。)

3、那么,上面两种编码的作用体现在哪里呢?

敲黑板,划重点: 

系统默认编码 指:
在python3编译器读取.py文件时,若没有头文件编码声明,则默认使用“utf-8”来对.py文件进行解码。并且在调用 encode()这个函数时,不传参的话默认是“ utf-8 ”。( 这与下面的open( )函数中的“encoding”参数要做区分,非常误导人!!!

本地默认编码 指:
在你编写的python3程序时,若使用了  open( )函数 ,而不给它传入  “ encoding ” 这个参数,那么会自动使用本地默认编码。没错,如果在Windows系统中,就是默认用 gbk格式!!!

(这个问题困扰了我好久, 不说好了一直默认utf-8到天长地久的嘛,咋换成win后就频频失信呢。所以请大家在这里注意:linux中可以不用传“ encoding” 的参数, 而win中不能忘了~~~)

4、再来回答一下报错的问题:
因为我们的编译器已经用了gbk来解码此.py文件了,所以读取出来的变量 s 已经变成了我们现在看到的“ 灏忕敳 ” 了!那么此时把 s 存到磁盘文件中,实际上存的是乱码后的 “ 灏忕敳 ”。而在日文中,是没有这3个字的, 所以自然反馈说 “ 在 position 0 的位置,编码失败了”                                                                                                                                                                                                                                                                

 

现在我们再来分别查看utf2 、gbk2、jis2 这三个文件的内容:

 
  1. utf2 : 灏忕敳

  2. gbk2 : 小甲

  3. jis2 :

(跟你想象中的结果是否一样呢??嘿嘿嘿~~)

问题:

1、为什么 我用 “utf-8 ” 去编码存储,后来用linux默认的 “ utf-8 ” 去解码,却出现乱码?
2、为什么我用“ gbk ” 去编码存储, 后面用linux默认的 “ utf-8 ” 去解码,明明编码、解码格式不一致,却能够正常显示?                                                                                                                                

解释:

1、实际上面两个问题是同一个问题,相信细心的同学已经知道问题出在哪里了,我上文已经说的很清楚了。此时的变量 s 已经变成了“ 灏忕敳 ”, 那么utf2这个文本文件自然是显示“灏忕敳”。

2、而“灏忕敳”这三个字符是怎么来的呢?

(重点中的重点)

 
  1. 第1步: 小甲(unicode) ---用 "utf-8" 编码---> e5b0 8fe7 94b2 (utf-8编码后的二进制代码)

  2.  
  3. 第2步: e5b0 8fe7 94b2 ---用 “gbk” 解码---> " 灏忕敳 " (unicode)(乱码)

  4.  
  5. 第3步: “ 灏忕敳 ” --- 用 “ gbk ” 编码---> e5b0 8fe7 94b2 ( 第2步的逆向)

  6.  
  7. 第4步: e5b0 8fe7 94b2 ---用 “ utf-8 ” 解码---> 小甲(unicode)

 

我想上述的步骤够清楚了吧 ~ 
第3、 4 步就是逆推回去,就变成了正常的 “ 小甲 ”
看懂了这个  “ 编码 ” 和  “ 解码 ” 的过程,你的编码问题已经解决大半了!                                                                                                                                

 

“ 代码 三 ”:

 
  1. #coding=shift-jis

  2. import sys, locale

  3.  
  4. s = "小甲"

  5. print(s)

  6. print(type(s))

  7. print(sys.getdefaultencoding())

  8. print(locale.getdefaultlocale(), "\n\n")

  9.  
  10. a = s.encode("shift-jis")

  11. print(a)

  12. print(type(a))

  13. b = a.decode("utf-8")

  14. print(b)

  15. print(type(b))

  16. print(a.decode("gbk"))

  17.  
  18. with open("utf3","w",encoding = "utf-8") as f:

  19. f.write(s)

  20. with open("gbk3","w",encoding = "gbk") as f:

  21. f.write(s)

  22. with open("jis3","w",encoding = "shift-jis") as f:

  23. f.write(s)

代码整体结构还是老样子,只不过中间多加了一小段代码,便于解释~                                                                                                                                

“ 代码 三 ” 运行结果 :

 
  1. 蟆冗抜

  2. <class 'str'>

  3. utf-8

  4. ('en_US', 'UTF-8')

  5.  
  6.  
  7. b'\xe5\xb0\x8f\xe7\x94\xb2'

  8. <class 'bytes'>

  9. 小甲

  10. <class 'str'>

  11. 灏忕敳

这里可以看到,此时我们的变量 s 已经变成了“ 蟆冗抜 ”(另一个用jis解码造成的乱码)。

那么此时,我把 “ 蟆冗抜 ” 用 “ shift-jis ” 解码回去并赋值给变量 a,打印一下,可以看到 a 就是正常显示的 “ 小甲 ”, 这也证明了我上面的推断是绝对正确的!!                                                                                                                                                                                                                                                                

现在,我们依旧分别查看一下 utf3 、gbk3、jis3 这三个文件的内容:

 
  1. utf3 : 蟆冗抜

  2. gbk3 : ▒▒ߒi

  3. jis3 : 小甲

(oops~~ 见鬼,又是这么乱七八糟的东西)

这里我澄清一下,实际上utf3这个至少还能有文字,这叫乱码。而gbk3那个东西一团黑是什么鬼,是报错,linux的默认编码无法解码gbk3的文件,所以打印地乱七八糟。

问题:

  • 为什么 utf3 的文件是显示乱码, 而 gbk3 的文件却是报错呢??

解释:

  • 这是因为 utf-8 与 gbk 编码的算法差异。
  • 我们最常看到的是utf-8解码报错,因为它是可变长的的编码,有1个字节的英文字符,也有2个字节的阿拉伯文,也有3个字节的中文和日文。
  • gbk是定长的2字节,比较死板,utf-8编出来的二进制文件,它常常也会一股脑的全部按照2个字节、2个字节地去解码,结果可想而知,全是乱码!!!
  • 而utf-8是有严格定义的,一个字节的字符高位必须是0;三个字节的字符中,第一个字节的高位是1110开头。
  • 相关utf-8的编码算法链接

 

 

至此,代码的示范部分就结束了~~ 码字码得我手酸 ~~~~(>_<)~~~~


最后,

tips:

1、所有文件的编码格式都由你当下使用的编辑器决定的!!在windows中编辑的文本放在浏览器解析显示的时候,有时乱码,有时又正常,这是由于windows中很多文本编辑器默认使用和操作系统一致的编码格式。
所以在文本存储前,一定要搞清楚我们用的是utf-8还是gbk!!!
而当你使用Python的 open( ) 函数时,是内存中的进程与磁盘的交互,而这个交互过程中的编码格式则是使用操作系统的默认编码(Linux为utf-8,windows为gbk)

2、相信学Python的同学们经常会听到,python3 的默认编码是utf-8。而有的时候,又有人说python3 的默认编码是unicode,那么是不是会有人跟我初学时候一样傻傻分不清楚这两者的关系呢?

  • 实际上unicode就是一个字符集,一个字符与数字一一对应的映射关系,因为它一律以2个字节编码(或者也有4个字节的,这里不讨论),所以占用空间会大一些,一般只用于内存中的编码使用。
  • 而 utf-8 是为了实现unicode 的传输和存储的。因为它可变长,存英文时候可以节省大量存储空间。传输时候也节省流量,所以更加 “ international ”~

       所以说,上述两种说法没有歧义,进程在内存中的表现是“ unicode ”的编码;当python3编译器读取磁盘上的.py文件时,是默认使用“utf-8”的;当进程中出现open(), write() 这样的存储代码时,需要与磁盘进行存储交互时,则是默认使用操作系统的默认编码。

### 如何使用Python读取BDF文件 为了处理BDF(Bitstream Distribution Format)字体文件,在Python中有多种方法可以实现这一目标。一种常见的方式是利用第三方库来解析并操作这些特定格式的文件。 对于BDF文件而言,`fontTools` 是一个非常有用的工具包[^1]。该库提供了对TrueType、OpenType以及包括BDF在内的其他几种字体格式的支持。下面是一个简单的例子展示如何加载和查询BDF文件中的信息: ```python from fontTools.ttLib import TTFont def load_bdf_font(file_path): """ 加载给定路径下的BDF字体文件. 参数: file_path (str): BDF 文件的位置 返回: dict: 包含有关字体的信息字典 """ try: # 尝试打开指定路径的BDF文件 with open(file_path, 'rb') as f: bdf_data = f.read() # 使用TTFont类初始化对象; 注意这里虽然名为TTFont但它支持更多类型的字体文件 font = TTFont() font.importXML(bdf_data.decode()) # 解码二进制数据为字符串形式 # 获取一些基本信息作为返回值的一部分 info = { "familyName": font['name'].getName(1).toUnicode(), "styleName": font['name'].getName(2).toUnicode(), "fullName": font['name'].getName(4).toUnicode(), "version": font['head'].fontRevision, "glyphCount": len(font.getGlyphOrder()) } return info except Exception as e: print(f"Error loading BDF file: {e}") raise # 示例调用函数 bdf_info = load_bdf_font('./example.bdf') print(bdf_info) ``` 需要注意的是上述代码片段假设所使用的 `fontTools` 版本已经包含了对BDF文件的良好支持;如果遇到任何问题,则可能需要安装最新版本或者寻找专门针对BDF文件的操作模块。 另外,还有另一个更专注于X Window System下位图字体(BDF/PCF) 的Python库叫做 `pybdftools` ,它能够提供更加直接的方式来访问和修改这类资源文件的内容[^2]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值