豆瓣top250数据爬虫

设计思路:
  • 通过url,去网页上爬取豆瓣top250的影片信息。

  • 获取图片url

  • 获取网页源文件文本内容

  • 切片获取所需资源

  • 建立文件夹

  • 将信息写入文本文件

  • 下载图片

重点及难点:
  • 网页反爬虫,人机检验
  • 有的影片没有推荐理由
  • 图片下载
  • 新建文件夹
解决方法:
  • 网页反爬虫,人机检验

对Request头进行封装,Request.Request(url=”url”,headers=)其中headers为user agent,作为人机检验,需要用户去网页获取user agent数据,如:“User-Agent”: "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36 Edg/87.0.664.66"使用时为字典形式。

  • 有的影片没有推荐理由

对于没有推荐理由的影片,程序会报错,使用try…except…语句进行异常捕捉,出现异常时返回没有推荐理由的文本信息。

  • 图片下载

使用request中的一个方法urlretrieve(url,filename=”下载路径和文件名”)。

  • 新建文件夹

使用python内置模板os的方法makedirs(“新建文件夹路径”)

实际代码:
from urllib import request
import os
import time
from random import randint
user_agent={"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/87.0.4280.88 Safari/537.36 Edg/87.0.664.66"}#user agent为字典形式
for a in range(0,10):
    req=request.Request(url="https://movie.douban.com/top250?start={}&filter=".format(a*25),headers=user_agent)#头封装
    html=request.urlopen(req)
    text_html=html.read().decode()
    for i in range(1,26):
        rank=text_html.split("<li>")[i].split("<em")[1].split(">")[1].split("<")[0]
        name=text_html.split("<li>")[i].split("title")[1].split(">")[1].split("<")[0]
        try:
            info=text_html.split("<li>")[i].split("inq")[1].split(">")[1].split("<")[0]
        except IndexError:
            info="该片没有推荐理由"
        os.makedirs("inf/{}".format(name))
        infoo=open("inf/{}/{}.txt".format(name,name),"w")
        infoo.write("排名:{},片名:《{}》,推荐理由:{}".format(rank,name,info))
        pic = text_html.split("<li>")[i].split("img width")[1].split("src=\"")[1].split("\"class")[0]
        print(pic)
        request.urlretrieve(pic,filename="inf/{}/{}.jpg".format(name,name))
        print("排名:{},片名:《{}》,推荐理由:{}".format(rank,name,info))
    time.sleep(randint(2,10))
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值