python爬取豆瓣电影top250并保存为xlsx_python 爬虫获取豆瓣电影排行榜前250并写入excel...

本文介绍了如何使用Python爬虫抓取豆瓣电影Top250的数据,包括设置请求头解决418错误,利用lxml库解析HTML,以及将数据保存到Excel文件。爬虫通过遍历每一页获取电影名称、信息、评分和标语,遇到缺失数据时进行了异常处理。最后,数据被存储在一个名为'douban1.xls'的Excel文件中。
摘要由CSDN通过智能技术生成

豆瓣电影排行榜前250 分为10页,第一页的url为https://movie.douban.com/top250,但实际上应该是https://movie.douban.com/top250?start=0 后面的参数0表示从第几个开始,如0表示从第一(肖申克的救赎)到第二十五(触不可及),https://movie.douban.com/top250?start=25表示从第二十六(蝙蝠侠:黑暗骑士)到第五十名(死亡诗社)。等等,

所以可以用一个步长为25的range的for循环参数

for i in range(0, 250, 25):print(i)

分析完页面组成后,开始获取页面,直接request.get()发现没有返回任何东西,输出一下响应码

url = 'https://movie.douban.com/top250?start=0'res= request.get(url=url)print(res.status_code)

发现返回响应码418

以前没见过这个,拉网线上网查一下,发现给get里面加一个header参数就行了

这里可以用自己浏览器的user-agent,如

headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.103 Safari/537.36'}

或者用fake_agent(安装直接用pip install fake_agent) 来为自己生成一个随机的agent添加到header字典中

from fake_useragent importUserAgent

headers= {'User-Agent': UserAgent().random}

之后就可以得到页面源码了。

然后使用lxml.etree,即xpath解析页面源码。用浏览器插件xpath finder快速定位到元素

importrequestsimportlxml.etree as etree

url= 'https://movie.douban.com/top250?start=0'headers= {'User-Agent': 'Mozilla/5

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,以下是Python代码实现: ```python import requests from bs4 import BeautifulSoup import openpyxl # 发送请求并获取面内容 def get_html(url): headers = { 'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/88.0.4324.146 Safari/537.36' } response = requests.get(url, headers=headers) response.encoding = 'utf-8' html = response.text return html # 解析面内容,并返回数据 def parse_html(html): soup = BeautifulSoup(html, 'html.parser') movie_list = soup.find('ol', class_='grid_view').find_all('li') data = [] for movie in movie_list: title = movie.find('div', class_='hd').find('span', class_='title').get_text() # 电影名称 star = movie.find('div', class_='star').find('span', class_='rating_num').get_text() # 评分 quote = movie.find('span', class_='inq').get_text() if movie.find('span', class_='inq') else '' # 引言 data.append((title, star, quote)) return data # 保存数据到Excel文件 def save_to_xlsx(data, filename): workbook = openpyxl.Workbook() sheet = workbook.active sheet.title = '豆瓣电影Top250' sheet.cell(row=1, column=1, value='电影名称') sheet.cell(row=1, column=2, value='评分') sheet.cell(row=1, column=3, value='引言') for i, item in enumerate(data): sheet.cell(row=i+2, column=1, value=item[0]) sheet.cell(row=i+2, column=2, value=item[1]) sheet.cell(row=i+2, column=3, value=item[2]) workbook.save(filename) if __name__ == '__main__': url = 'https://movie.douban.com/top250' html = get_html(url) data = parse_html(html) save_to_xlsx(data, '豆瓣电影Top250.xlsx') ``` 这段代码爬取豆瓣电影Top250的数据,并将数据保存Excel文件。你只需要将代码复制到Python文件,然后在终端运行即可。Excel文件会保存在当目录下。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值