Python爬虫小白教程(二)—— 爬取豆瓣评分TOP250电影

文章目录
前言
安装bs4库
网站分析
获取页面
爬取页面
页面分析
其他页面
前言
经过上篇博客Python爬虫小白教程(一)—— 静态网页抓取后我们已经知道如何抓取一个静态的页面了,现在就让我们爬取豆瓣评分TOP250的电影实战一下。

安装bs4库
除了Requests库之外,我们还需要BeautifulSoup库来解析爬取到的页面。在cmd中输入:

pip install bs4
1
或者在Anaconda Prompt中输入:

conda install bs4
1
网站分析
打开豆瓣电影TOP250 的网站,使用Chrome中的“检查”功能查看该网页的请求头,如下图所示。

按照教程一中的方法提取请求头:

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
    'Host':'movie.douban.com'
}
1
2
3
4
发现第一页只有25个电影,点击下方第二页后URL变为https://movie.douban.com/top250?start=25&filter=
,点击第三页后URL变为https://movie.douban.com/top250?start=50&filter=,由此我们可以发现URL的规律。又发现将URL后面的&filter=删除后仍可以打开网页,故为了简便将URL改为https://movie.douban.com/top250?start=25。

获取页面
为了模块化我们在此将获取页面的代码封装到一个函数中,如下。

import requests
from bs4 import BeautifulSoup

def get_page(url,params=None,headers=None):

    response = requests.get(url, headers=headers, params=params)
    print(response.url)
    page = BeautifulSoup(response.text, 'lxml')
    print("响应状态码:", response.status_code)
    
    return page
1
2
3
4
5
6
7
8
9
10
11
BeautifulSoup(response.text, 'lxml')中的lxml参数是一种常用的解析页面的方法。

爬取页面
运行下面的代码,即可得到第一页的网页代码。

headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
        'Host':'movie.douban.com'
    }
page = get_page('https://movie.douban.com/top250', headers=headers)
print(page)
1
2
3
4
5
6
输出如下

爬取成功后我们进行下一步的页面分析。

页面分析
Chrome中有一个很快捷的方法让我们找到想要获取的元素在网页代码中的位置。如下图所示,点击左上角的按钮,点击后用鼠标点击想要获取的元素。


然后系统将会为我们自动定位到该元素的代码。

分析此电影以及其他电影名字的位置,可见它们都在<div class="hb">中,然后我们用page的find_all函数来找到代码中所有calss为hb的div,并将其保存到div_list中。

div_list = page.find_all('div',class_='hd')
print(div_list)
1
2
输出如下:

然后我们分析其中一个div。

print(div_list[0])
1
输出为:

<div class="hd">
<a class="" href="https://movie.douban.com/subject/1292052/">
<span class="title">肖申克的救赎</span>
<span class="title"> / The Shawshank Redemption</span>
<span class="other"> / 月黑高飞(港)  /  刺激1995(台)</span>
</a>
<span class="playable">[可播放]</span>
</div>
1
2
3
4
5
6
7
8
电影名字就在第一个span中,因此仅需要

div_list[0].a.span
1
便可以将第一个span中的内容输出来,输出为
<span class="title">肖申克的救赎</span>
使用.text获取里面的文字,再使用strip()去除空格,即

div_list[0].a.span.text.strip()
1
现在的输出是

'肖申克的救赎'
1
至此我们已经获得一个电影的名字,其余的使用循环即可,并将其保存到名为title_list的列表中,代码如下:

title_list = []

for div in div_list:
    title = div.a.span.text.strip()
    title_list.append(title)
1
2
3
4
5
至此我们已经获得第一个页面的所有电影名字。

其他页面
根据前面网站分析的步骤我们可以知道只要将传入Requests中get的参数params改变一下即可获得其他页面的网页,下面用一个循环获取其他的页面。

for i in range(11):
    params = {"start":(i*25)}
    page = get_page('https://movie.douban.com/top250',params=params,headers=headers)
1
2
3
综上,所有代码如下:

import time
import requests
from bs4 import BeautifulSoup

# 定义获取页面的函数
def get_page(url,params=None,headers=None):

    response = requests.get(url, headers=headers, params=params)
    page = BeautifulSoup(response.text, 'lxml')
    print(response.url)
    print("响应状态码:", response.status_code)
    
    return page


title_list = [] # 电影名列表
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
        'Host':'movie.douban.com'
    }
for i in range(11):
    params = {"start":(i*25)}
    page = get_page('https://movie.douban.com/top250',params=params,headers=headers)
    
    div_list = page.find_all('div',class_='hd')
    
    for div in div_list:
        title = div.a.span.text.strip()
        title_list.append(title)
    # 每次爬完后休眠1秒钟,防止爬取速度太快被封ip
    time.sleep(1)

title_list
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
输出如下:

使用

print(len(title_list))
1
可知title_list长度为250,可见我们已经成功获取到豆瓣评分TOP250 的所有电影名。
————————————————
版权声明:本文为CSDN博主「YonminMa」的原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接及本声明。
原文链接:https://blog.csdn.net/weixin_44547562/article/details/103533502

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值