网页使用什么编码方式(utf-8,gbk,gb2312)等对实际内容的提取影响不大,并不会报错,但爬取到的中文可能存在乱码的现象。虽然现在大部分采用utf-8的网页并不会让你遇到这个问题,但是如果遇到了,知道解决办法还是很重要的。
昨天爬取某网页时,发现提取出的几千行信息中呈现出大量中文乱码现象。话不多说,直接给出博主的解决方案:
1.我使用的是requests包,将爬取到的网页使用的content方法改成text方法,就可以将中文乱码正常显示。(需要尝试,大概率可能成功,不成功采用方法2)
2.随即又发现一个问题,稍微生僻一些的汉字会以问号的格式显示。这个时候,就不得不考虑编码问题了。
将
改为
问题解决。