Python爬虫为何会乱码?

http代理让网络爬虫变得顺利,大幅度降低了入门槛,这样也是很多人开始学习爬虫程序的因素之一。今天万变http代理跟大家分享常见的问题,就是爬虫为什么会发生乱码。

网络爬虫总共有两种,一是选择nutch、hetriex,二是自写网络爬虫,二者在解决乱码时,基本原理是相同的,但前面解决乱码时,需要看懂源码后进行改动。而后者更随意省事,能够在编码时进行解决。这也是许多人在用框架写网络爬虫会发生各种各样的乱码时,不知道从哪里下手的缘故了。

1、网络爬虫发生乱码的缘故 源网页页面编码和爬取下来后的编码转换不一致。如源网页页面为gbk编码的字节流,而大家爬取下后程序直接使用utf-8进行编码并输出到存储文件中,这必然会引起乱码,特别注意区分源网编码A、程序直接使用的编码B、统一转换字符的编码C

A、是webpage的服务器端编码

B、爬取到的数据,原始状况为字节数组,它是由A来编码的,只有B=A时,才能够 保证不发生乱码,否则当字符集不兼容时,总是会发生乱码,此步骤往往用于测试。

C、统一转码是指得到网页页面的原始编码A后,再进行的统一编码,主要是为了将各个网页页面的数据统一成一类编码,往往选择字符集较大的utf-8为宜。

每个网页页面都会有自己的编码,像gbk、utf-8、iso8859-1,以及日文的jp系统编码、西欧、俄文等编码各不相同,当进行漫爬时总是会扩展出各种编码,有的网络爬虫是对web网页页面进行简单的编码识别再进行统一编码,有的是不做源网页页面的判断直接统一按utf-8来解决,这显然是会造成乱码状况

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值