URL 字段的解析

1.修改爬取的目标地址

我们知道如果想要爬取网站的数据需要在spiders文件中创建一个蜘蛛,创建后这个蜘蛛中会自动生成一个类,类名也是由蜘蛛名加Spider组成,如上一节中爬去csdn网站生成的: CsdnSpider 类,这个类中的 name 也就是蜘蛛的名称, allowed_domains 是允许爬取网站的域名, start_urls 是需要爬取的目标网站的网址,如果需要更改爬取的目标页面,只需要修改 start_urls 就可以了;


import scrapy
class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['www.csdn.net']
    start_urls = ['http://www.csdn.net/']
    def parse(self, response):
        pass

2.解析标题的超链接a标签的跳转地址和标题内容

  • 那我们继续用csdn的今天推荐作为爬取信息,首先需要在CsdnSpider类中的 parse(self,response) 方法中使用response对象来对css选择器获取到的a元素的href值进行解析,如 response.css('h2 a::attr(href)').extract() ,这样就可以得到一个url地址的列表;

import scrapy
class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['www.csdn.net']
    start_urls = ['http://www.csdn.net/']
    def parse(self, response):
       urls = response.css('.company_list .company_name a::attr(href)').extract()
       print(urls)

  • 接着我们循环得到的列表,拿到每一个a标签的url地址,然后使用Request请求,需要传递两个参数,一个是url用于告诉我们接下来解析哪个页面,可以通过 parse.urljoin() 方法拼接页面链接,另一个是callback回调函数。

这个回调函数是我们自己定义的,也会传递一个response对象,通过这个response对象对css选择器获取的元素进行解析,这样我们就可以拿到每个解析页面的标题内容了;


import scrapy
from scrapy.http import Request
from urllib import parse
class CsdnSpider(scrapy.Spider):
    name = 'csdn'
    allowed_domains = ['www.csdn.net']
    start_urls = ['http://www.csdn.net/']
    def parse(self, response):
       # 获取url
       urls = response.css('.company_list .company_name a::attr(href)').extract()
       # print(urls)
       # 解析页面
       for url in urls:
           yield Request(url = parse.urljoin(response.url, url), callback=self.parse_analyse, dont_filter=True)
    # 回调函数
    def parse_analyse(self, response):
        title = response.css('.company_list .company_name a::text').extract_first()
        print(title)

3.Request对象的介绍

  • class scrapy.http.Request(url[, callback, method='GET', headers, body, cookies, meta, encoding='utf-8',priority=0, dont_filter=False, errback]) ,一个request对象代表一个HTTP请求,通常由Spider产生,经Downloader执行从而产生一个Response;

  • url :用于请求的URL;

  • callback :指定一个回调函数,该回调函数以这个request是的response作为第一个参数,如果未指定callback则默认使用spider的parse()方法;

  • method : HTTP请求的方法,默认为GET;

  • headers :请求的头部;

  • body :请求的正文,可以是bytes或者str;

  • cookies :请求携带的cookie;

  • meta :指定Request.meta属性的初始值,如果给了该参数,dict将会浅拷贝;

  • encoding :请求的编码, 默认为utf-8;

  • priority :优先级,优先级越高,越先下载;

  • dont_filter :指定该请求是否被 Scheduler过滤,该参数可以使request重复使用;

  • errback :处理异常的回调函数;

参考: https://www.9xkd.com/user/plan-view.html?id=8660944990

来自 “ ITPUB博客 ” ,链接:http://blog.itpub.net/69908432/viewspace-2648483/,如需转载,请注明出处,否则将追究法律责任。

转载于:http://blog.itpub.net/69908432/viewspace-2648483/

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值