通过scrapy爬取图片、文件、视频

scrapy官方默认使用的下载文件是:

settings.py:'scrapy.pipelines.files.FilesPipeline': 1  # FilesPipeline要置于其他pipeline之前

items.py:     file_urls = scrapy.Field()        file = scrapy.Field()

scrapy官方默认下载图片是

settings.py:'scrapy.pipelines.images.ImagesPipeline': 1

items.py 

item必须有:  

image_urls = scrapy.Field()    image_name = scrapy.Field()
但如果我们之间使用官方定义的pipline则下载的文件名称是乱码,因为url进过哈希之后是一个字符串,所有我们要自定义我们的pipeline,查询源码发现,下载重命名则只需要重新file_path方法即可。下载图片、文件、视频都可以用下边这个pipeline去下载

区别:下载图片、文件不用设置heads,但下载视频必须要有Referer,不然会403爬不下来

当你的url在spider中传的是列表时,在 def_media_requests方法中的yield Request下方放开#for url in item即可

spider

需要添加下载路径:

FILES_STORE = "C:/Users/asus/Desktop/zip/pdf"
IMAGES_STORE = "C:/Users/asus/Desktop/zip/ddd"

下载视频:

 #1、下载视频
    start_urls = [
        'https://video.eastday.com/a/200712033214444291719.html',
        'http://www.bjft.gov.cn/zfxxgk/ftq11GG01/xxgkmlxz/ftbm_list.shtml',
        'http://www.bjyq.gov.cn/yanqing/zbm/zfb80/ldbz95/index.shtml'
    ]
    # basic_url = 'https://shortmvpc.eastday.com'

    def start_requests(self):
        heads = {
            'Referer': 'https://video.eastday.com/a/200712033214444291719.html',
            'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/83.0.4103.116 Safari/537.36'
        }
        yield scrapy.Request(url=self.start_urls[0], headers=heads, callback=self.parse, meta={"type": "video"})

    def parse(self, response):
        if response.meta['type'] == 'video':
            yield scrapy.Request(response.url, callback=self.parse_video)

    def parse_video(self, response):
        item = DpdfItem()
        # 提取 url 组装成列表,并赋给 item 的 file_urls 字段
        urls = response.xpath("//input[@id='mp4Source']")
        for url in urls:
            # file   file_urls
            item['file'] = "视频"
            item['file_urls'] = 'https:' + url.xpath("./@value").extract_first()
            yield item
Referer也可以写在setting配置文件中

 

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
引用\[1\]:在使用Scrapy进行爬虫时,可以通过定义items.py文件来指定需要爬取的字段格式。可以继承NewscrawlerItem类并定义更多的实体类,比如增加图片、视频信息的item。这里以自动生成的NewcrawlerItem为例。\[1\] 引用\[2\]:在继承NewsBasicSpider创建BusinessinsiderSpider时,可以通过导入需要的模块和类,并定义相应的属性和方法来实现解析每个item的工作。在parse方法中,可以使用xpath来提取需要的链接,并通过yield scrapy.Request来发送请求并解析item。\[2\] 引用\[3\]:scrapy-redis是一个非常优秀的解决多任务、分布式爬虫的框架,可以用于多网站的增量爬取和部署。它依赖于Python 2.7, 3.4或3.5 + Redis >= 2.8 + Scrapy >= 1.1 + redis-py >= 2.10。安装非常简单,只需要使用pip install scrapy-redis命令即可。\[3\] 根据你提供的引用内容,scrapy是一个用于爬取网页数据的Python框架。它可以通过定义items来指定需要爬取的字段格式,并通过继承Spider类来实现具体的爬虫逻辑。在使用scrapy进行爬虫时,可以使用xpath来提取需要的数据,并通过yield scrapy.Request来发送请求并解析item。此外,scrapy-redis是一个用于解决多任务、分布式爬虫的框架,可以用于多网站的增量爬取和部署。它依赖于Python、Redis、Scrapy和redis-py等库。 #### 引用[.reference_title] - *1* *2* *3* [【python网络爬虫与NLP系列】一、利用scrapy+redis实现新闻网站增量爬取](https://blog.csdn.net/TiffanyRabbit/article/details/80424355)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^insert_down28v1,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值