Python Scrapy爬虫中文乱码问题“鎴愬姛”及用chardet解决乱码问题

在爬取某个网站时,爬取第一个页面能正常获取,爬取第二个页面,获取文章内容时,返回的数据为中文乱码,乱码如下:

{"rptCode":200,"msg":"鎴愬姛","data":{"docId":989402,"docTitle":"閾惰淇濋櫓鏈烘瀯鎭㈠鍜屽缃鍒掑疄鏂芥殏琛屽姙娉�"}

尝试解决:

查找办法让在setting.py文件中添加设置编码格式的代码:

FEED_EXPORT_ENCODING = 'utf-8'

添加后依旧不可以。

使用其他的格式编码:

reponse.body.decode('gbk')

会报错,某个字段不能被转换。

继续查找其他方法,此方法可以解决:

首先安装 chardet 库,使用以下代码,可以正常解决乱码问题,

用chardet检测编码,只需要一行代码:

>>> chardet.detect(b'Hello, world!')
{'encoding': 'ascii', 'confidence': 1.0, 'language': ''}
import chardet
gbkContent = response.body.decode(chardet.detect(response.body)['encoding'])
print(gbkContent)

成功结果如下

{"rptCode":200,"msg":"成功","data":{"docId":989402,"docTitle":"恢复和处置计划实施暂行办法"}

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值