Python爬虫总结——常见的报错、问题及解决方案

本文全面解析Python爬虫技术,涵盖HTML、CSS、JavaScript解析,正则表达式应用,XPath与lxml模块详解,以及实战中的反爬策略破解。深入探讨了Request对象使用技巧,代理IP、模拟登录等高级主题,同时分享了常见问题与错误的解决方案。
摘要由CSDN通过智能技术生成


在爬虫开发时,我们时常会遇到各种BUG各种问题,下面是我初步汇总的一些报错和解决方案。
在以后的学习中,如果遇到其他问题,我也会在这里进行更新。
各位如有什么补充,欢迎评论区留言~~~



问题:

IP被封,或者因访问频率太高被拦截???

解决方案之一:

使用代理IP即可。


问题:

正确使用XPath之后并没有输出???

解决方案之一:

XPath只能提取未注释的代码,改用正则表达式即可。


问题:

容易被反爬搞死???

解决方案之一:

headers中都要带上User-Agent,而Cookie能不带则不带。


报错:

在这里插入图片描述
类型错误:需要类似字节的对象,而不是字符串???

解决方案之一:

str通过encode()方法可以编码为指定的bytes;

PS:反过来,如果我们从网络或磁盘上读取了字节流,那么读到的数据就是bytes。要把bytes变为str,就需要用decode()方法。


报错:

在这里插入图片描述
UTF-8不能处理字节???

解决方案之一:

在headers中加入Cookie即可输出正常的HTML。


报错:

在这里插入图片描述
‘ gbk ’不能处理‘ \xa0 ’ ???

解决方案之一:
with open('%s.html' % title, 'w', encoding='utf-8') as f:
    f.write(rep)

问题:

在这里插入图片描述
输出结果是字节类型,json对象无法正常显示???

解决方案之一:

使用json.loads方法即可。


问题:
url = 'https://tieba.baidu.com/f?kw=%E8%8B%B1%E9%9B%84%E8%81%94%E7%9B%9F&ie=utf-8&pn=0'

网址复制到py文件中,却变成了“乱码”???

解决方案之一:

调用urllib.parse.unquote进行URL解码即可。


问题:

在这里插入图片描述
URL地址不规范???

解决方案之一:

分析URL时,我们一般从第二页开始分析,而不是第一页。


问题:

不想Cookie中携带自身账号内容???

解决方案之一:

利用浏览器的无痕窗口功能,进入网页再取Cookie即可。


报错:
解决方案之一:

报错:
解决方案之一:



未完待续哦~~~~



为我心爱的女孩~~


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

WoLykos

若对你有所帮助,请鼓励我一下~

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值