scrapy简单应用

14 篇文章 0 订阅
1 篇文章 0 订阅

import scrapy

class ZhihuSpider(scrapy.Spider):
# 爬虫名字,名字唯一,允许自定义
name = ‘zhihu’
# 允许爬取的域名,scrapy每次发起的url爬取数据,先回进行域名检测,检测通过就爬取
allowed_domains = [‘zhihu.com’]
#发起的起始url地址,scrapy项目启动自动调用start_request()方法,把start_urls
# url的作为请求url发起请求,把获取到的response交给回调函数,回调函数传递给parse
# 解析数据
start_urls = [‘http://zhihu.com/’]

custom_settings = {
    # 请求头
    'user-agent': None,
    # 请求来源
    # 'referer': 'https://www.zhihu.com/',
}

def start_requests(self):
    '重写start_requests方法'
    for url in self.start_urls:
        #自定义解析方法
        yield scrapy.Request(url=url,method='Get',callback=self.define_parse)



def parse(self, response):
    pass

def define_parse(self,response):
    print(response)
    #输出状态码
    self.logger.info(response.status)
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值