python爬取豆瓣top250最简单方法

python爬取豆瓣电影排名及相关信息
这个程序是我自己先开始做,在爬取的过程中遇到了很多问题,毕竟是初学者,然后在百度找了一些别人的程序参考,改正了错误,同时也学到了很多,起码同样的错误不会再犯第二次。
下面讲讲我做这个小爬虫过程


首先找到豆瓣TOP250的url
豆瓣TOP250.(https://movie.douban.com/top250)

安装lxml库

打开终端命令窗口

pip install lxml

安装完成后,检测是否安装成功
打开python IDLE输入

import lxml

from lxml import etree

如果没有报错,说明安装成功

导入lxml库

from lxml import etree

导入requests库

import requests

输入url

url = 'https://movie.douban.com/top250'

获得响应

>>> import requests
>>> url = 'https://movie.douban.com/top250'
>>> r=requests.get(url)
>>> r.status_code
418
>>> 

可以看到豆瓣网返回值为418,说明不能成功访问,只有返回值为200才能成功访问。
这时候我们需要修改头部信息

修改headers

>>> import requests
>>> url = 'https://movie.douban.com/top250'
>>> r=requests.get(url)
>>> r.status_code
418
>>> kv={'user-agent':'Mozilla/5.0'}
>>> r=requests.get(url,headers=kv)
>>> r.status_code
200
>>> 

这样返回值为200,说明可以访问

获得网页代码

data = requests.get(url,headers=kv).text
s = etree.HTML(data)

爬取电影名称

movies = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')
for i in range(25):  
    print("{}".format(movies[i]))

输出结果如下
在这里插入图片描述
你可能会疑惑movies = s.xpath()里的内容是怎么得来的
在谷歌浏览器中打开豆瓣TOP250的网址,进入网页后,按F12键启动浏览器开发工具
如下图所示
在这里插入图片描述
我感觉让它在网页底部显示比较方便操作
在这里插入图片描述
点击X右边的那三个垂直排列的小点,会显示红圈中的内容,第三个就是设置底部显示。

如果你懂一点HTML语言知识会很有帮助,找到电影名称的标签,鼠标右击选择复制(Copy),在复制类型中选择 Copy XPath类型然后粘贴到movies = s.xpath()的括号中,注意用引号括起来
复制内容应该是这个(//*[@id=“content”]/div/div[1]/ol/li[1]/div/div[2]/div[1]/a/span[1]),把li[1]的‘[1]'去掉,这样才能显示整个列表。
在这里插入图片描述

爬取豆瓣评分和其他相关信息

用同样的方法爬取豆瓣评分、演员名字、时间、地点、类型等信息

score = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')
actor = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()[1]')
time = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()[2]')

完整代码和输出结果

from lxml import etree
import requests
url = 'https://movie.douban.com/top250'
kv={'user-agent':'Mozilla/5.0'}
data = requests.get(url,headers=kv).text
s = etree.HTML(data)
movies = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[1]/a/span[1]/text()')
score = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/div/span[2]/text()')
actor = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()[1]')
time = s.xpath('//*[@id="content"]/div/div[1]/ol/li/div/div[2]/div[2]/p[1]/text()[2]')
for i in range(25):
    print("{} {} {} {}".format(movies[i],score[i],actor[i],time[i]))

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
好了,这个小爬虫就结束啦,记得点赞哦在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

数据攻城小狮子

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值