scrapy爬虫框架简单入门实例(二)

本文介绍了使用Scrapy爬虫框架如何自动提交表单、抓取中奖号码,并将数据导出为JSON文件。通过编写Item类、使用CSS选择器解析数据,设置pipelines进行数据处理,最后讨论了数据排序与反爬挑战。
摘要由CSDN通过智能技术生成

接着上一篇文章,我们已经可以用爬虫访问目标网站爬取页面了,现在需要自动提交表单查询数据,并且从页面中筛选出每期中奖号码保存为json文件导出。首先创建一个scrapy.Item类(打开项目文件夹下的items.py文件):

import scrapy


class SsqSpiderItem(scrapy.Item):
    issue_num = scrapy.Field()
    red = scrapy.Field()
    blue = scrapy.Field()

我们需要爬取每期中奖号码的期数,以及红球数组和蓝球号;定义属性值为scrapy.Field()。然后回到爬虫代码引入这个类:

from ssq_spider.items import SsqSpiderItem

直接贴一个写好的代码:

# -*- coding: utf-8 -*-
import scrapy
from scrapy.http import Request, FormRequest
from ssq_spider.items import SsqSpiderItem


class SsqSpider(scrapy.Spider):
    name = 'ssq'
    allowed_domains = ['http://zst.aicai.com/ssq/']  # 爬取域名
    # start_urls = ['http://zst.aicai.com/ssq/']
    # 爬取网址,只适于不需要提交cookie的网站,因为没法设置cookie等信息
    scope_date = [['2012001', '2014200'],
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值