Python基础爬虫:爬取豆瓣电影Top250的数据
一、基本介绍:
1. 爬取网页的url
https://movie.douban.com/top250
2.观察与分析页面
(1)分析页码跳转时url的变化规律
第一页(第1~25部电影)对应的url:
https://movie.douban.com/top250?start=0
第二页(第26~50部电影)对应的url:
https://movie.douban.com/top250?start=25
第三页(第51~75部电影)对应的url:
https://movie.douban.com/top250?start=50
以此类推,可以得出页码跳转时url的变化规律:
urls = ['https://movie.douban.com/top250?start={}'.format(str(i)) for i in range(0, 226, 25)]
(2)页面源码分析
这是一部电影的html源码截取。我们可以发现:
- class="title"的span标签的文本内容是电影的名称。
- class="bd"的div标签中第一个p标签的文本内容是电影基本信息。
- class="rating_num"的span标签的文本内容是电影的评分。
- class="star"的div标签中最后一个span标签的文本内容是评论人数。
二、代码清单:
import requests
from bs4 import BeautifulSoup
import time
import re
import pymysql
headers = {
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/90.0.4430.93 Safari/537.36 Edg/90.0.818.51'
}
def get_info(url):
web_data = requests.get(url, headers=headers)
web_data.encoding = 'utf-8'
soup = BeautifulSoup(web_data.text, 'lxml')
# 获取电影名称的所有父容器
titles_obj = soup.findAll('div', {"class":"hd"})
# 遍历所有的父容器,取出所有电影标题的元素
titles = [i.find('span', class_="title") for i in titles_obj]
# 获取电影描述的所有父容器
description_obj = soup.findAll('div', {"class":"bd"})
# 遍历所有的父容器,取出所有电影描述的元素
descriptions = [i.find('p', class_="") for i in description_obj]
# 过滤None值
descriptions = list(filter(None, descriptions))
# 获取所有的电影评分的元素
ranks = soup.select('span.rating_num')
# 获取电影评论数的所有父容器
comments_obj = soup.findAll("div", {"class":"star"})
# 遍历所有的父容器,取出所有电影评论数的元素
comments = [i.find_all("span")[3] for i in comments_obj]
for title, description, rank, comment in zip(titles, descriptions, ranks, comments):
data = {
'title': title.get_text().strip(),
'description':description.get_text().strip(),
'rank':rank.get_text().strip(),
'comment':comment.get_text().strip()
}
if __name__ == '__main__':
urls = ['https://movie.douban.com/top250?start={}'.format(str(i)) for i in range(0, 226, 25)]
for url in urls:
print('url======', url)
get_info(url)
time.sleep(1)