python re爬虫_Python使用requests+re简单入门爬虫

1. 找到网页并分析网页结构

首先进入豆瓣电影Top250这个网页,按下f12打开开发者工具,如下图

6929d0fd3b4c16e1c5a7e46b70d43b88.png

然后开始分析网页,点击开发者工具左上角的有个箭头的东西去找你需要找的数据,在这里我发现每个电影的信息都是在

的标签内,所以可以用正则表达式来先提取每一个电影,然后在分别提取每个电影中的数据。每个电影现在的数据都可以获取了,但是这个url只有25个电影,怎样获取下一页的呢?这里我们可以在每个页面获取下一页的链接,然后通过循环来继续获取下一页的电影数据即可

cbefbc8c6dcdb4a80bc71374c2baf892.png

我们可以先用开发者工具的箭头点一下后页,然后就显示右边的箭头数据出来,这里我们也可以用正则表达式来获取下一页的链接,然后接下来的工作就是循环了,好了分析结束,开始敲代码吧!

2.用面向对象的方法进行爬取数据

先用requests对网页进行请求,获取网页的html结构,在这里,为了防止网页的反爬虫技术,我加了个请求头(记得使用requests库之前先导入,没有的可以在命令行通过 pip install requests 进行下载)

b5b5a5c2d645afdb6db8273f2154f147.png

请求头在开发者工具中查看,如下图所示

856a5c1f82f3322d338f91185a06cc05.png

接下用正则表达式进行获取数据

先匹配每一个电影和每一页数据(使用正则表达式的库是re)

a684ae24ac6f721739840b54b29b27b4.png

接下来获取每个电影的数据

a6ec4015ab187759f0c54f9ffdda124f.png

bb6363f594dce84df6e5e2e7c176737e.png

注意:获取到上面的数据,有的是空的,所以还需要进行判断是否为空,为了好看,我用了三元表达式进行判断,完成之后把他们存入字典

52f2d381df64c393622ecedf5e8d523f.png

接下来就是进行循环取下一页的数据了

0dfc433f759b0481af5ef624851e3822.png

3.如果你有点数据库基础的话,还可以把他们存入数据库,在这里我把这些数据存入MySQL数据库,代码如下,需要自己先建好数据库好表格

这是操作数据库的类(使用的库为pymysql)

daad26b68cae1085f93bb136835c6b43.png

9cdffc17a2d21b1b200dfcd876a8002c.png

然后回到爬虫类进行把数据存入数据库

a07948609c63d5fbbce5a11c9ec81cc3.png

4.成功后你就会在数据库中查到以下数据

f92e3100640ff0bff7b7c4c5f1c76c84.png

最后,非常感谢你看完了这篇文章,喜欢的话,可以转发点赞下.

完整代码获取:关注Python爱好者社区回复top250

来源:sergiojune

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值