爬虫之手刃豆瓣Top250电影排行并保存为csv格式

直接上手刃豆瓣Top250电影排行榜

# 拿到页面源代码 request
# 通过re来提取想要的有效信息 re
import requests
import re
import csv

url = "https://movie.douban.com/top250"
'''
输入此网址可以爬取前25电影:https://movie.douban.com/top250
输入此网址可以爬取26-50电影:https://movie.douban.com/top250?start=25&filter=
输入此网址可以爬取51-75电影: https://movie.douban.com/top250?start=50&filter=
想获取更多自己试试
'''
headers = {
"User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3538.25 Safari/537.36 Core/1.70.3861.400 QQBrowser/10.7.4313.400"
}
resp = requests.get(url, headers=headers)
page_content = resp.text

# 解析数据
obj = re.compile(r'<li>.*?<div class="item">.*?<span class="title">(?P<name>.*?)'
                 r'</span>.*?<p class="">.*?<br>(?P<year>.*?)'
                 r'&nbsp.*?<span class="rating_num" property="v:average">(?P<evaluate>.*?)'
                 r'</span>.*?<span>(?P<numbers>.*?)人评价</span>', re.S)
# 开始匹配
result = obj.finditer(page_content)
f = open("data.csv", mode="w", encoding='utf-8') # 创建要保存的csv文件
csvwriter = csv.writer(f)
for it in result:
    # print(it.group("name"))
    # print(it.group("year").strip())
    # print(it.group("evaluate"))
    # print(it.group("numbers"))
    dic = it.groupdict()
    dic['year'] = dic['year'].strip() # 因为year采取的时候有需要的空格所以需要进行strip处理
    csvwriter.writerow(dic.values())

f.close() # 养成好习惯,使用完文件之后要关闭文件
print("over!")



csv的实验结果如下图所示

 

 

 

 

 

 

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值