- 博客(2)
- 收藏
- 关注
原创 关于python爬虫出现UnicodeDecodeError或乱码问题
爬虫的工作顺序为:request请求页面内容 → 解析器decode页面内容 → 重新encode页面内容 → 写入到目标文件或打印出来无论是出现UnicodeDecodeError还是乱码,都是上述过程中使用的字符编码集的问题;1.首先,在浏览器中查看其页面的charset,,作为解码器解码的依据2.选择自己所需的字符编码集,同时注意,所选字符编码集要兼容当时decode所使用的编码集3.接着注意,在windows下的ide,在读写时大多默认使用utf-8作为编码集,因此在读写时需注意手动设
2020-05-26 22:42:42 689
原创 关于使用fiddler无法抓取ios数据包的一些问题
一.老生常谈的配置问题 1.端口被其他软件占用 解决方法:在cmd中输入netstat查询,如果被占用就换一个 2.没有正确勾选配置 解决办法:https://blog.csdn.net/weixin_43664254/article/details/94601280二.一部分APP传输数据不采用http协议 fiddler的工作原理是解析app发送的http请求,如果app...
2020-05-13 14:12:07 1319
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人