使用urllib和beautifulSoup实现爬虫抓取小说网站书名,解决BUG:NoneType object has no attribute 'find_all'

本文介绍如何使用Python的urllib库抓取小说网站的数据,并通过BeautifulSoup进行解析。在解析过程中,特别提到了一个常见错误:当对象为None时调用'find_all'方法会抛出AttributeError。解决方案是确保在调用该方法前对象已正确初始化。
摘要由CSDN通过智能技术生成

首先找一个网站,例如

urlHTML='http://www.douban.com/tag/%E5%B0%8F%E8%AF%B4/?focus=book'


接下来利用urllib库抓取数据,保存数据到一个变量中

request_data=urllib.request.urlopen(urlHTML)


用beautifulSoup解析网页语法,并保存结果,注意此处第二个参数不能使用单引号,

否则会出现BUG      NoneType object has no attribute 'find_all'

soup=BeautifulSoup(request_data,"html.parser")



字典定义筛选规则,使用bS库find方法抓取数据
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值