Traceback (most recent call last):
File "e:\python\installation\lib\site-packages\scrapy\robotstxt.py", line 16, in decode_robotstxt
robotstxt_body = robotstxt_body.decode('utf-8')
UnicodeDecodeError: 'utf-8' codec can't decode byte 0xd5 in position 225: invalid continuation byte
{'title': '陈列师', 'location_name': '北京', 'money': None}
***注意:***scrapy默认的解码格式是"utf-8"的格式
那么,如果我们使用scrapy框架爬虫时遇见了"gbk"编码格式的网站应该怎么办?
我的选择和建议是直接修改