教你利用Scrapy框架全站爬取视频资源信息

1、先在settings.py把配置配好

# 关闭ROBOTS协议
ROBOTSTXT_OBEY = False
# 设置log 日志等级
LOG_LEVEL = 'WARNING'

# 开启管道
ITEM_PIPELINES = {
   'mini_resource_scrapy.pipelines.MiniResourceScrapyPipeline': 300,
}

# 设置USER_AGENT 这个直接打开浏览器,F12控制台随便找个请求,请求头信息里面有
USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/58.0.3029.110 Safari/537.36"

2、在items.py文件中定义数据模型,把要爬的字段在这里定义,我这里贴代码给大家参考 

import scrapy


class MiniResourceScrapyItem(scrapy.Item):
    # define the fields for your item here like:
    # name = scrapy.Field()
    _id = scrapy.Field()       # 数据id
    add_date = scrapy.Field()  # 视频添加的时间
    title = scrapy.Field()     # 标题
    director = scrapy.Field()   # 导演
    stars = scrapy.Field()  # 主演,这里我存数组
    type = scrapy.Field()  # 电影类型 这里我存数组
    area = scrapy.Field()  # 电影地区
    year = scrapy.Field()  # 电影年份
    describe = scrapy.Field()  #电影描述
    source = scrapy.Field()   # 视频来源,(这里我都写目前爬取的网站地址)
    video_url = scrapy.Field() # 视频播放url地址
    cover_img = scrapy.Field()  # 视频封面url 地址
    score = scrapy.Field()     # 电影评分 (我爬的网站没有拿到评分信息,后面都给初始值 0 )
    play_count = scrapy.Field() # 视频播放次数 (给初始值 0)
    is_show = scrapy.Field()  #  前端是否展示
    is_new = scrapy.Field()  # 是否是最新 

3、配置管道pipelines.py, 用于把爬取来的数据存起来,存文件活着数据库这里随你,这里我直接存文件

import codecs,json
# 用codecs提供的open方法来指定打开的文件的语言编码,它会在读 取的时候自动转换为内部unicode 

class MiniResourceScrapyPipeline(object):
    def __init__(self):
        self.file = codecs.open('movie.json', 'w', encoding='utf-8')

    # 在open_spider 方法中打开文件也可以,爬虫启动的时候,文件之打开一次,爬虫结束的时候关闭文件
    # def open_spider(self, spider):
    #     pass


    # 在文件里面存入json 数据
    def process_item(self, item, spider):
        lines = json.dumps(dict(item), ensure_ascii=False) + "\n"
        self.file.write(lines)
        return item

    # 爬虫结束,关闭文件
    def spider_closed(self, spider):
        self.file.close()

4、正式开始我们的爬虫代码 爬的是 https://www.80mv.cc/ 这个视频网站,大家也可以用别的网站爬,xpath要写正确啊,逻辑都一样

import scrapy
from ..items import MiniResourceScrapyItem
import re


class Mv80Spider(scrapy.Spider):
    name = 'mv80'
    total_page = 4 # 这边我只爬取3页数据 
    page_index = 1 # 从第一页开始
    origin = 'https://www.80mv.cc'
    id_compile = re.compile(r'80detail_(\d+).html')
    r_compile = re.compile(r'https:(.+)/index.m3u8', re.I)
    # allowed_domains = ['www.80mv.cc']
    start_urls = ['https://www.80mv.cc/80show_dianying--------{}---.html']
    
    # 设置爬取的开始url地址
    def start_requests(self):
        for i in range(self.page_index, self.total_page):
            yield scrapy.Request(url=self.start_urls[0].format(i))
    
    def parse(self, response):
        lis = response.xpath('//ul[contains(@class,"stui-vodlist clearfix")]/li')
        for tag in lis:
            page_url = tag.xpath('.//a[@class="stui-vodlist__thumb lazyload"]/@href').extract_first()
            _id = self.id_compile.search(page_url).groups()[0]
            # 电影标题
            title = tag.xpath('.//a[@class="stui-vodlist__thumb lazyload"]/@title').extract_first()
            # 电影封面图
            cover_img = tag.xpath('.//a[@class="stui-vodlist__thumb lazyload"]/@data-original').extract_first()
            # 电影详情内页地址
            detail_url = tag.xpath('.//a[@class="stui-vodlist__thumb lazyload"]/@href').extract_first()
            # print(title, cover_img)
            # 实例化数据模型 把数据存入
            item = MiniResourceScrapyItem()
            item['title'] = title
            item['cover_img'] = cover_img
            item['_id'] = _id
            # 进入详情页继续爬取详情信息
            yield scrapy.Request(
                url='{}{}'.format(self.origin, detail_url),
                callback=self.video_detail,
                meta={'item': item})


    # 视频详情页
    def video_detail(self, response):
        item = response.meta['item']
        des = response.xpath('//div[@class="stui-content__detail"]')
        stars = des.xpath('./p[1]//a//text()').extract()

        director = des.xpath('./p[2]/a/text()').extract_first()

        describe = des.xpath('./p[5]/span[2]/text()').extract_first()

        m_type = des.xpath('string(./p[3]/span[contains(text(), "类型")]/following-sibling::text())')\
            .extract_first().strip().split(',')

        area = des.xpath('string(./p[3]/span[contains(text(), "地区")]/following-sibling::text())')\
            .extract_first().strip()

        year = des.xpath('string(./p[3]/span[contains(text(), "年份")]/following-sibling::text())')\
            .extract_first().strip()
        add_date = des.xpath('string(./p[4]/span[contains(text(), "时间")]/following-sibling::text())') \
            .extract_first().strip()

        video_page_url = response.xpath('//ul[@class="stui-content__playlist clearfix"]/li/a/@href').extract_first()
        video_page_url = '{}{}'.format(self.origin, video_page_url)
        item['stars'] = stars
        item['type'] = m_type  # 类型
        item['area'] = area  # 区域
        item['year'] = year  # 年代
        item['director'] = director  # 导演
        item['describe'] = describe  # 描述
        item['score'] = 0  # 没有电影评分,给个初始值
        item['play_count'] = 0  # 点击次数 给个初始值
        item['is_show'] = True  # 是否展示
        item['is_new'] = True if year == '2021' else False  # 是否是最新
        item['add_date'] = add_date
        item['source'] = '80S影院'

        yield scrapy.Request(url=video_page_url, callback=self.video_play_page, meta={'item': item})
    
    # 视频播放页
    def video_play_page(self, response):
        item = response.meta['item']
        script_str = response.xpath('//div[@class="stui-player__video clearfix"]/script[1]/text()').extract_first()
        g_url = self.r_compile.search(script_str)
        video_url = g_url.group().replace('\\', '')
        item['video_url'] = video_url
        print(item)
        yield item

 5、这是我爬的数据

代码结束,文字很少,全是代码,如果有不明白的地方可以留言,大家相互学习讨论

!!!!!!下面是我自己的小程序,请大家多多扫码打开给点支持吧!!!!

首先一定要知道 Scrapy爬虫框架 对新手非常的不友好,或者从某些视频网站上跟着视频学或者说从培训机构里学几天技能掌握的,主要原因有以下两个方面。框架模块内容太多,虽然只是实现了一个简单的爬虫工作,但是实际上完成一个页面的抓取在框架里最少要走8个以上的步骤,但是这些步骤都是基本都是依靠配置文件完成的,没有丰富的爬虫经验,这些模块很多都不知道是做什么的,也不知道怎么配置。基于框架内进行数据抓取仅限于那些通用的网站抓取,你就简单理解为一个完成重复工作的机器人就行了。但是如果是那种反爬比较厉害的网站那就是另外一种情况了,完全是爬虫工程师和网站开发者的一个博弈了,所以这种情况不适合任何一种爬虫框架。对于那些想在工作中摸鱼的Python工程师来说就一定要使用爬虫框架,你会发现省不少力气而且效率真心非常高,不过一切都是在对框架熟练掌握的基础上、和对业务的深刻理解来说来说。但凡说 Scrapy 无用的基本上没有认真阅读过 Scrapy 的源码,对于 Scrapy框架 中的众多功能在搭建爬虫系统的时候能想到用几个?而且是基本是没有做过大型的爬虫系统项目的。咱们倒着推这个事,你就知道为什么要用Scrapy框架了。我之前的单位是国家互联网的新闻中心,做的项目中的有一项是复现863课题舆情监控系统中的内容,使用的方法是 Scrapy爬虫框架 结合 Django Web 搭建的数据采集系统,抓取的目标对象包括新闻、博客、论坛等等,其中每天目标检测网站成千上万,如果不用框架去做这种数据采集得累死。1.抓取的数据存哪里?单纯Scrapy爬虫脚本写好了执行抓取任务时数据保存到哪里?ES、Mongodb、MySQL?如果做过开发的人都知道存 Mongodb 中,那些说把数据存到 MySQL 的人基本上99%是从培训机构里出来的,因为大多数培训机构爬虫是不讲 Mongodb 的。通过业务计算逻辑把数据传输到生产 ES 环境中。2.几千、几万个爬虫脚本应该怎么管理?很多刚入行的人都觉得爬虫脚本难写,其实并不是这样。最难的是如何管理密密麻麻数不清的爬虫脚本,这里介绍Python如何处理这个事情。管理方式无非集中,Web管理环境、GUI管理环境、手动管理环境,不管是哪一种都需要一定的开发基础和管理思路。比较省事的用别人写好的Scrapy管理框架,比如Gerapy爬虫管理框架。如同这样web直接一键管理爬虫脚本,更多内容看上面的文章,这里就不重复了。3.Scrapy如何面对反爬的?跟大多数单线抓取某个网站解决其反爬一样,只要把反爬的逻辑设置好,比如最简单的更换代理IP,更换header,解析JS生成cookie访问等等,都可以在框架中设置配置文件。4.如何提高代码编写效率以及数据爬取效率?一定要阅读源码,一定要阅读源码,一定要阅读源码你才能知道这个框架里到底有什么内容可以用。5.基于Python各种框架开发的爬虫定制化项目。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CjBkl

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值