Python爬虫爬取豆瓣数据XPath的使用,又到一年金三银四

import requests

import csv

2.拿到目标url

doubanUrl = ‘https://movie.douban.com/top250?start={}&filter=’

3.获取网页源码

def getSource(url):

headers = {

‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/91.0.4472.114 Safari/537.36’}

response = requests.get(url, headers=headers)

response.encoding = ‘utf-8’

return response.text

4.解析数据

def getEveryItem(source):

html_element = etree.HTML(source)

class = ‘info’ 电影的名字,评分,引言,详情页的

movieItemList = html_element.xpath(“//div[@class=‘info’]”)

定义一个空列表,添加字典数据

movieList = []

for eachMovie in movieItemList:

定义一个字典保存每部电影的数据

movieDict = {}

标题

title = eachMovie.xpath(“div[@class=‘hd’]/a/span[@class=‘title’]/text()”)

副标题

otherTitle = eachMovie.xpath(“div[@class=‘hd’]/a/span[@class=‘other’]/text()”)

详情页url

star = eachMovie.xpath(“div[@class=‘bd’]/div[@class=‘star’]/span[@class=‘rating_num’]/text()”)[0]

link = eachMovie.xpath(‘div[@class=“hd”]/a/@href’)[0]

quote = eachMovie.xpath(“div[@class=‘bd’]/p[@class=‘quote’]/span/text()”)

非空判断

if quote:

quote = quote[0]

else:

quote = ‘’

保存数据,标题是主标题+副标题

movieDict[‘title’] = ‘’.join(title+otherTitle)

movieDict[‘url’] = link

movieDict[‘star’] = star

movieDict[‘quote’] = quote

#print(movieDict)

movieList.append(movieDict)

return movieList

5.保存数据

def writeData(movieList):

with open(‘douban.csv’, ‘w’, encoding=‘utf-8’ , newline=‘’) as f:

writer = csv.DictWriter(f, fieldnames=[‘title’, ‘star’, ‘quote’, ‘url’])

(1)Python所有方向的学习路线(新版)

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数初中级Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python爬虫全套学习资料》送给大家,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

由于文件比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频

如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
img

比较大,这里只是将部分目录截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频**

如果你觉得这些内容对你有帮助,可以添加下面V无偿领取!(备注:python)
[外链图片转存中…(img-B6fLdEhU-1711066939893)]

  • 28
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python爬虫是一种通过编写代码来自动抓取互联网上数据的工具。而豆瓣音乐是一个很受欢迎的音乐平台,所以爬取豆瓣音乐的数据是一个常见的应用场景。 要实现爬取豆瓣音乐,首先我们需要了解一下豆瓣音乐网页的结构。通过分析豆瓣音乐的页面HTML代码,可以发现每首歌曲都包含在一个特定的HTML元素中,例如一个<div>标签或者一个<ul>标签。在这个标签内,歌曲的信息通常都是按照固定的格式排列的,比如包含歌曲名、歌手、专辑等信息。 接下来,我们可以使用Python爬虫库,例如requests或者Scrapy来发送HTTP请求并获取豆瓣音乐的网页内容。通过解析这个网页内容,可以提取出我们所需要的歌曲信息。 在实际操作中,我们可以使用XPath或者正则表达式等工具来提取网页中的数据。举个例子,如果我们想要获取歌曲名,可以使用XPath表达式“//div[@class='song-title']”或者正则表达式“<div class="song-title">(.+?)</div>”来提取出这个信息。 爬取到的数据可以保存在本地文件或者数据库中。如果我们想要爬取多个页面的数据,可以使用Python的循环来遍历不同的页面,并将每个页面的数据保存到同一个文件或数据库中。 需要注意的是,在进行网页爬取的过程中,我们应该尊重豆瓣音乐的规定和爬取的道德规范。我们可以通过设置合适的请求头和请求频率来避免对网站造成不必要的压力。 总的来说,使用Python爬虫爬取豆瓣音乐是一个相对简单且实用的应用场景。通过这个过程,我们不仅可以获取到感兴趣的音乐数据,还能够锻炼和提高我们的编程和数据处理能力。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值