首先进行url分析:
第一页、第二页、第三页的url如下:
https://movie.douban.com/top250
https://movie.douban.com/top250?start=25&filter=
https://movie.douban.com/top250?start=50&filter=
其中,第一页也等价于
https://movie.douban.com/top250?start=0&filter=
页面分析:
这里一个
- 标签就代表一部电影。
且所有想要获取的目标数据都在
1.导包
from lxml import etree
import requests
import csv
2.拿到目标url
doubanUrl = ‘https://movie.douban.com/top250?start={}&filter=’
3.获取网页源码
def getSource(url):
headers = {
‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36’}
response = requests.get(url, headers=headers)
response.encoding = ‘utf-8’
return response.text
4.解析数据
def getEveryItem(source):
html_element = etree.HTML(source)
class = ‘info’ 电影的名字,评分,引言,详情页的
movieItemList = html_element.xpath(“//div[@class=‘info’]”)
定义一个空列表,添加字典数据
movieList = []
for eachMovie in movieItemList:
定义一个字典保存每部电影的数据
movieDict = {}
标题
title = eachMovie.xpath(“div[@class=‘hd’]/a/span[@class=‘title’]/text()”)
副标题
otherTitle = eachMovie.xpath(“div[@class=‘hd’]/a/span[@class=‘other’]/text()”)
详情页url
star = eachMovie.xpath(“div[@class=‘bd’]/div[@class=‘star’]/span[@class=‘rating_num’]/text()”)[0]
link = eachMovie.xpath(‘div[@class=“hd”]/a/@href’)[0]
quote = eachMovie.xpath(“div[@class=‘bd’]/p[@class=‘quote’]/span/text()”)
非空判断
if quote:
quote = quote[0]
else:
quote = ‘’
保存数据,标题是主标题+副标题
movieDict[‘title’] = ‘’.join(title+otherTitle)
movieDict[‘url’] = link
movieDict[‘star’] = star
movieDict[‘quote’] = quote
#print(movieDict)
movieList.append(movieDict)
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。
深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!
因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)
学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!**
由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新
如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注Python)