Scrapy框架 -- crawlSpider爬虫

本文介绍了如何使用Scrapy框架创建一个分布式爬虫项目,针对特定网址抓取图片信息。首先设置项目和爬虫文件,然后修改配置文件以忽略robots.txt规则和设定用户代理。接着定义爬取规则和XPath表达式来提取图片标题和详情页URL。在items中定义字段,通过Request进行详情页请求,并在解析详情页时获取图片地址。最后,定义了一个管道文件用于打印items内容,确保爬取的数据得以处理和存储。
摘要由CSDN通过智能技术生成

一、新建一个分布式爬虫项目,并进入该项目创建爬虫文件

scrapy startproject fenbushi
cd fenbushi
scrapy genspider-t crawl fenbushipc www.xxx.com

二、修改配置文件settings

ROBOTSTXT_OBEY = False
LOG_LEVEL = 'ERROR'
USER_AGENT = "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/111.0.0.0 Safari/537.36"

三、编写爬虫文件

1、指定要爬取的网址

start_urls = ["https://699pic.com/soso/-complex---------0--3-.html"]
rules = (Rule(LinkExtractor(allow=r'/soso/-complex---------0--\d+-\.html'), callback="parse_item", follow=True),)

2、获取图片的名称和详情页地址

标题列表=response.xpath('//*[@id="wrapper"]/div[4]/div/div')
for i in 标题列表:
   标题=i.xpath('./a/@title').extract_first()
   详情页=i.xpath('./a/@href').extract_first()

3、items添加字段

标题 = scrapy.Field()
地址 = scrapy.Field()

4、赋值给items对象

item对象=FenbushiItem()
item对象['标题']=标题
yield scrapy.Request(url=详情页,callback=self.详情页解析,meta={'ietm':item对象})
def 详情页解析(self,response):
    item=response.meta['item']
    图片地址=response.xpath('//*[@id="wrapper"]/div[2]/div[1]/div/div[1]/div[2]/div[1]/div/a/@href').extract_first()
    item['地址']=图片地址
    yield item

5、管道文件打印items对象

class FenbushiPipeline:
    def process_item(self, item, spider):
        print(item)
        return item

6、开启管道文件

ITEM_PIPELINES = {
   "fenbushi.pipelines.FenbushiPipeline": 300,
}

7、运行效果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

web安全工具库

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值