爬取豆瓣TOP250

本文详细介绍了如何使用Python进行网络爬虫,通过requests和lxml库爬取并解析豆瓣Top250电影的名称、链接、星级、评分、评价等信息,最后将数据保存到CSV文件中。
摘要由CSDN通过智能技术生成

一、准备工作

  1. 安装python。
  2. 安装jupyter库,按window+R,会弹出一个方框,输入cmd会弹出窗口,输入pip install jupyter,安装jupyter库。
  3. 安装好jupyter后,建一个文件夹,在文件夹路径那里输入cmd,会出现一个窗口了,再直接输入jupyter notebook,按回车,便可直接进入jupyter的网络编辑页面。
    如图:
    在这里插入图片描述
    出现此界面后便会自动跳转到jupyter的网络编辑页面,如图:
    在这里插入图片描述
    在此页面后,点击右上角的New,选择Python3,会新建一个网页编辑器。

二、开始分析网页

(1)URL链接分析网页

第一页:https://movie.douban.com/top250?start=0&filter=
第二页:https://movie.douban.com/top250?start=25&filter=
第三页:https://movie.douban.com/top250?start=50&filter=
第四页:https://movie.douban.com/top250?start=75&filter=
第五页:https://movie.douban.com/top250?start=100&filter=
以上为豆瓣电影top250的前五个网页链接,由上我们可以看出黄色标记出来的部分是它们的不同,并且是有规律的,0,、25、50、75、100,所以可以推出后五页的链接。
例如:第九页的链接为:https://movie.douban.com/top250?start=200&filter=

(2)用for循环分析

结果如下:
在这里插入图片描述

(3)用函数表示出URL链接

在这里插入图片描述
将start=0改为start=%s,后面的%page表示将page函数中的数值范围赋予给s,即可得出十个网页的链接。点击第五个链接,就到top250 中的第五页,与之前得到的链接相同。

三、爬取网页

(1)安装requests库

进行这步操作需要安装requests库,按window+R,会弹出一个方框,输入cmd会弹出窗口,输入pip install requests,安装requests库。
以请求第一页为例如图:
在这里插入图片描述

(2)在网页上对代码进行审查

在空白处点击右键,进入检查,点击network,点击all,在对网页进行刷新,就会出现网页的组成,如图片、文字、文件等。
如图:在这里插入图片描述

(3)请求源代码(HTML),向服务器发出请求

在这里插入图片描述

(4)伪装浏览器

首先,将代码审查中的user-agent复制过来,将其构成一个字典。
如图:

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值