关于python解释器编码,window编码,以及读取文件解码问题

本文内容转载: https://blog.csdn.net/qq_33692803/article/details/81321340?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-1.add_param_isCf
关于编码的历史演变,utf-8是如何一步步发展来的,windows为啥依旧保持gbk的编码。。。
等等这些问题,网上一搜一大堆,大部分都是转发、分享后的雷同内容,依旧解决不了我内心的疑惑。。。
编码是个蛋疼的事情,倘若不弄清楚, 怎么在中国混?
经过自己查阅多方文档、多次深入实验,我树立了对编码的基本世界观。                                                                                           

基础内容请自行谷歌..废话不多说,直接上干货!!

下面用几个简单的代码段, 一步步讲解编码中 “编”“解”的问题!!(linux中运行)                                                                      

 


“ 代码 一 ”:

 
  1. import sys, locale

  2.  
  3. s = "小甲"

  4. print(s)

  5. print(type(s))

  6. print(sys.getdefaultencoding())

  7. print(locale.getdefaultlocale())

  8.  
  9. with open("utf1","w",encoding = "utf-8") as f:

  10. f.write(s)

  11. with open("gbk1","w",encoding = "gbk") as f:

  12. f.write(s)

  13. with open("jis1","w",encoding = "shift-jis") as f:

  14. f.write(s)

代码很 简单,学过Python的人应该都能看懂是啥意思~~
我们看一下运行结果:

“ 代码 一 ” 运行结果:

 
  1. 小甲

  2. <class 'str'>

  3. utf-8

  4. ('en_US', 'UTF-8')

  5.  
正如大家所想, 就是将“小甲”原样打印出来, 再把“小甲”存到3个文件中。
(shift-jis是日文编码格式)

这么   煞笔  的代码我还会不知道吗?  ( 重点在后面 )                                                                                                                                     

这里解释一下打印出来的两个“utf-8”是什么意思:

上面的 utf-8 指:系统默认编码

  • 注: 不要把系统以为是操作系统,这里可以理解成python3的编译器本身

下面的 utf-8 指:本地默认编码

  • 注: 这个才是操作系统的编码。(在Windows运行会变成gbk)

 

现在我们分别查看utf1 、gbk1、jis1 这三个文件的内容:

 
  1. utf1 : 小甲

  2. gbk1 : С▒▒▒

  3. jis1 : ▒▒▒b

问题:
为什么 utf1 的内容很清楚,没有编码问题,而gbk1 、jis1 的内容都出现了乱码?

解释:
因为我文件存储时用的编码格式不是utf-8,而此时读取这两个文件时,使用的是linux操作系统的默认编码“utf-8”。
那么写入磁盘时不是用utf-8, 读出时却用utf-8,当然读不出来了。
(这里需要大家了解encoding的真实作用)                                                                                                                                     

 

“ 代码 二 ”:

 
  1. #coding=gbk

  2. import sys, locale

  3.  
  4. s = "小甲"

  5. #coding=gbk

  6. import sys, locale

  7.  
  8. s = "小甲"

  9. print(s)

  10. print(type(s))

  11. print(sys.getdefaultencoding())

  12. print(locale.getdefaultlocale())

  13.  
  14. with open("utf2","w",encoding = "utf-8") as f:

  15. f.write(s)

  16. with open("gbk2","w",encoding = "gbk") as f:

  17. f.write(s)

  18. with open("jis2","w",encoding = "shift-jis") as f:

  19. f.write(s)

代码结结构一样很简单
但是请大家注意:  我在头部加了某个编码声明
在代码运行前, 请大家自行猜测结果~~~                                                                                                                                                                                                                                                                

“ 代码 二 ” 运行结果 :

 
  1. 灏忕敳

  2. <class 'str'>

  3. utf-8

  4. ('en_US', 'UTF-8')

  5. Traceback (most recent call last):

  6. File "2", line 15, in <module>

  7. f.write(s)

  8. UnicodeEncodeError: 'shift_jis' codec can't encode character '\u704f' in position 0: illegal multibyte sequence

  9.  

问题来了:

1、代码中明明 s = “小甲”, 为什么变成了 “灏忕敳” ??
2、为什么 jis 的编码失败了?(之前顶多只出现了乱码的问题,还不会报错,那它内部到底发生了什么?)
3、“coding=gbk” 到底是什么意思??
4、我明明写了 “coding=gbk” 的编码声明,为什么系统编码、本地默认编码还是没有改变?(那我写了有啥用?)                                                                                                                                


解释一下:

以上这么多问题, 主要是因为没搞清楚头文件的 “coding=gbk” 编码声明是什么意思!!

1、它的意思是python3编译器在读取该.py文件时候,我应该用什么格式将它  “解码”?只和读取有关,所以当你确定你代码编辑时候用的是什么格式编码的,你才能把相应的编码格式写入头文件。
(在此示范代码中,我用的是linux的默认编码编辑,也就是utf-8,那么在后面运行的时候,却要求解释器用gbk去解码,自然很过分,就会出现了s=“小甲” 乱码的问题)

(大家一定要知道,编码是 “编” 和 “解” 的两个步骤,一定要一一对应才能正确解码!虽然通常我们都叫“编码格式”,这是有一定误导性的。
实际上另一半是“解码格式”,要有意识地区分 “编” 和 “解” ,我们不能像网上有些文章一样将这两者混为一谈!!)

2、根据上面的解释应该可以明白,写了它之后,并不会更改本地、系统默认编码。
(本地默认编码只跟操作系统相关,linux中是utf-8,windows中是gbk。)
(系统默认编码实际是有python3和python2的差异的,python3是utf-8,python2是ascii。)

3、那么,上面两种编码的作用体现在哪里呢?

敲黑板,划重点: 

系统默认编码 指:
在python3编译器读取.py文件时,若没有头文件编码声明,则默认使用“utf-8”来对.py文件进行解码。并且在调用 encode()这个函数时,不传参的话默认是“ utf-8 ”。( 这与下面的open( )函数中的“encoding”参数要做区分,非常误导人!!!

本地默认编码 指:
在你编写的python3程序时,若使用了  open( )函数 ,而不给它传入  “ encoding ” 这个参数,那么会自动使用本地默认编码。没错,如果在Windows系统中,就是默认用 gbk格式!!!

(这个问题困扰了我好久, 不说好了一直默认utf-8到天长地久的嘛,咋换成win后就频频失信呢。所以请大家在这里注意:linux中可以不用传“ encoding” 的参数, 而win中不能忘了~~~)

4、再来回答一下报错的问题:
因为我们的编译器已经用了gbk来解码此.py文件了,所以读取出来的变量 s 已经变成了我们现在看到的“ 灏忕敳 ” 了!那么此时把 s 存到磁盘文件中,实际上存的是乱码后的 “ 灏忕敳 ”。而在日文中,是没有这3个字的, 所以自然反馈说 “ 在 position 0 的位置,编码失败了”                                                                                                                                                                                                                                                                

 

现在我们再来分别查看utf2 、gbk2、jis2 这三个文件的内容:

 
  1. utf2 : 灏忕敳

  2. gbk2 : 小甲

  3. jis2 :

(跟你想象中的结果是否一样呢??嘿嘿嘿~~)

问题:

1、为什么 我用 “utf-8 ” 去编码存储,后来用linux默认的 “ utf-8 ” 去解码,却出现乱码?
2、为什么我用“ gbk ” 去编码存储, 后面用linux默认的 “ utf-8 ” 去解码,明明编码、解码格式不一致,却能够正常显示?                                                                                                                                

解释:

1、实际上面两个问题是同一个问题,相信细心的同学已经知道问题出在哪里了,我上文已经说的很清楚了。此时的变量 s 已经变成了“ 灏忕敳 ”, 那么utf2这个文本文件自然是显示“灏忕敳”。

2、而“灏忕敳”这三个字符是怎么来的呢?

(重点中的重点)

 
  1. 第1步: 小甲(unicode) ---用 "utf-8" 编码---> e5b0 8fe7 94b2 (utf-8编码后的二进制代码)

  2.  
  3. 第2步: e5b0 8fe7 94b2 ---用 “gbk” 解码---> " 灏忕敳 " (unicode)(乱码)

  4.  
  5. 第3步: “ 灏忕敳 ” --- 用 “ gbk ” 编码---> e5b0 8fe7 94b2 ( 第2步的逆向)

  6.  
  7. 第4步: e5b0 8fe7 94b2 ---用 “ utf-8 ” 解码---> 小甲(unicode)

 

我想上述的步骤够清楚了吧 ~ 
第3、 4 步就是逆推回去,就变成了正常的 “ 小甲 ”
看懂了这个  “ 编码 ” 和  “ 解码 ” 的过程,你的编码问题已经解决大半了!                                                                                                                                

 

“ 代码 三 ”:

 
  1. #coding=shift-jis

  2. import sys, locale

  3.  
  4. s = "小甲"

  5. print(s)

  6. print(type(s))

  7. print(sys.getdefaultencoding())

  8. print(locale.getdefaultlocale(), "\n\n")

  9.  
  10. a = s.encode("shift-jis")

  11. print(a)

  12. print(type(a))

  13. b = a.decode("utf-8")

  14. print(b)

  15. print(type(b))

  16. print(a.decode("gbk"))

  17.  
  18. with open("utf3","w",encoding = "utf-8") as f:

  19. f.write(s)

  20. with open("gbk3","w",encoding = "gbk") as f:

  21. f.write(s)

  22. with open("jis3","w",encoding = "shift-jis") as f:

  23. f.write(s)

代码整体结构还是老样子,只不过中间多加了一小段代码,便于解释~                                                                                                                                

“ 代码 三 ” 运行结果 :

 
  1. 蟆冗抜

  2. <class 'str'>

  3. utf-8

  4. ('en_US', 'UTF-8')

  5.  
  6.  
  7. b'\xe5\xb0\x8f\xe7\x94\xb2'

  8. <class 'bytes'>

  9. 小甲

  10. <class 'str'>

  11. 灏忕敳

这里可以看到,此时我们的变量 s 已经变成了“ 蟆冗抜 ”(另一个用jis解码造成的乱码)。

那么此时,我把 “ 蟆冗抜 ” 用 “ shift-jis ” 解码回去并赋值给变量 a,打印一下,可以看到 a 就是正常显示的 “ 小甲 ”, 这也证明了我上面的推断是绝对正确的!!                                                                                                                                                                                                                                                                

现在,我们依旧分别查看一下 utf3 、gbk3、jis3 这三个文件的内容:

 
  1. utf3 : 蟆冗抜

  2. gbk3 : ▒▒ߒi

  3. jis3 : 小甲

(oops~~ 见鬼,又是这么乱七八糟的东西)

这里我澄清一下,实际上utf3这个至少还能有文字,这叫乱码。而gbk3那个东西一团黑是什么鬼,是报错,linux的默认编码无法解码gbk3的文件,所以打印地乱七八糟。

问题:

  • 为什么 utf3 的文件是显示乱码, 而 gbk3 的文件却是报错呢??

解释:

  • 这是因为 utf-8 与 gbk 编码的算法差异。
  • 我们最常看到的是utf-8解码报错,因为它是可变长的的编码,有1个字节的英文字符,也有2个字节的阿拉伯文,也有3个字节的中文和日文。
  • gbk是定长的2字节,比较死板,utf-8编出来的二进制文件,它常常也会一股脑的全部按照2个字节、2个字节地去解码,结果可想而知,全是乱码!!!
  • 而utf-8是有严格定义的,一个字节的字符高位必须是0;三个字节的字符中,第一个字节的高位是1110开头。
  • 相关utf-8的编码算法链接

 

 

至此,代码的示范部分就结束了~~ 码字码得我手酸 ~~~~(>_<)~~~~


最后,

tips:

1、所有文件的编码格式都由你当下使用的编辑器决定的!!在windows中编辑的文本放在浏览器解析显示的时候,有时乱码,有时又正常,这是由于windows中很多文本编辑器默认使用和操作系统一致的编码格式。
所以在文本存储前,一定要搞清楚我们用的是utf-8还是gbk!!!
而当你使用Python的 open( ) 函数时,是内存中的进程与磁盘的交互,而这个交互过程中的编码格式则是使用操作系统的默认编码(Linux为utf-8,windows为gbk)

2、相信学Python的同学们经常会听到,python3 的默认编码是utf-8。而有的时候,又有人说python3 的默认编码是unicode,那么是不是会有人跟我初学时候一样傻傻分不清楚这两者的关系呢?

  • 实际上unicode就是一个字符集,一个字符与数字一一对应的映射关系,因为它一律以2个字节编码(或者也有4个字节的,这里不讨论),所以占用空间会大一些,一般只用于内存中的编码使用。
  • 而 utf-8 是为了实现unicode 的传输和存储的。因为它可变长,存英文时候可以节省大量存储空间。传输时候也节省流量,所以更加 “ international ”~

       所以说,上述两种说法没有歧义,进程在内存中的表现是“ unicode ”的编码;当python3编译器读取磁盘上的.py文件时,是默认使用“utf-8”的;当进程中出现open(), write() 这样的存储代码时,需要与磁盘进行存储交互时,则是默认使用操作系统的默认编码。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是 Python 实现对文本文件做 LZ77 编码并保存为二进制文件的代码示例: ```python import time def lz77_compress(uncompressed, window_size=12, look_ahead_buffer_size=5): compressed = bytearray() pos = 0 while pos < len(uncompressed): max_match_length = 0 max_match_distance = 0 for dist in range(1, window_size + 1): start_pos = max(0, pos - dist) match_length = 0 while pos + match_length < len(uncompressed) and uncompressed[start_pos + match_length] == uncompressed[pos + match_length] and match_length < look_ahead_buffer_size: match_length += 1 if match_length > max_match_length: max_match_length = match_length max_match_distance = dist if match_length == look_ahead_buffer_size: break if max_match_length > 0: compressed.append(max_match_distance // 256) compressed.append(max_match_distance % 256) compressed.append(max_match_length) pos += max_match_length else: compressed.append(0) compressed.append(0) compressed.append(uncompressed[pos]) pos += 1 return compressed def lz77_decompress(compressed): decompressed = bytearray() pos = 0 while pos < len(compressed): dist = compressed[pos] * 256 + compressed[pos + 1] length = compressed[pos + 2] if dist == 0: decompressed.append(length) pos += 3 else: start_pos = len(decompressed) - dist for i in range(length): decompressed.append(decompressed[start_pos + i]) pos += 3 return decompressed # 读取文件并进行 LZ77 编码 start_time = time.time() with open('input.txt', 'r') as f: uncompressed = f.read() compressed = lz77_compress(uncompressed.encode()) with open('compressed.bin', 'wb') as f: f.write(compressed) end_time = time.time() print(f"LZ77 编码耗时:{end_time - start_time:.3f} 秒") # 读取二进制文件并进行 LZ77 解码 start_time = time.time() with open('compressed.bin', 'rb') as f: compressed = f.read() decompressed = lz77_decompress(compressed) with open('output.txt', 'w') as f: f.write(decompressed.decode()) end_time = time.time() print(f"LZ77 解码耗时:{end_time - start_time:.3f} 秒") ``` 以上代码中,`lz77_compress` 函数和 `lz77_decompress` 函数的实现与前面的示例类似,不同之处在于压缩结果和解压缩输入都是字节数组,而不是字符串。 程序中使用了 Python 的 `time` 模块来统计编码解码所需要的时间。程序首先读取原始文本文件,对其进行 LZ77 编码并将结果保存为二进制文件。然后程序再次读取二进制文件,进行 LZ77 解码并将结果保存为文本文件。最后程序打印出编码解码所需要的时间,单位为秒。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值