python之scrapy初探

1、知识点

"""
Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,我们只需要实现少量的代码,就能够快速的抓取
Scrapy模块:
        1、scheduler:用来存放url队列
        2、downloader:发送请求
        3、spiders:提取数据和url
        4、itemPipeline:数据保存

入门:
    1、创建一个scrapy项目
        scrapy startproject mySpider
    2、生成一个爬虫 ,#定义范围,防止爬去其他网址
        scrapy genspider sina "sina.com.cn"
    3、提取数据
        完善spider,使用xpath等方法
    4、保存数据
        pipeline中保存数据
   5、运行爬虫
     scrapy crawl sina
项目详解: 1、scrapy.cfg:项目配置文件 2、items.py :需要爬去的字段 3、middlewares.py:中间件 4、pipelines.py:数据的处理和保存 , item为爬去的数据
"""

2、目录结构

3、解析案例

# -*- coding: utf-8 -*-
import scrapy


class SinaSpider(scrapy.Spider):
    name = 'sina' #爬虫名
    allowed_domains = ['sina.com.cn']  #允许爬取的范围
    start_urls = ['http://sports.sina.com.cn/nba/']    #开始爬取的url

    def parse(self, response):
        # ret = response.xpath("//div[@class='-live-page-widget']//a/text()").extract()
        # print(ret)
        # pass

        li_list = response.xpath("//div[@class='-live-page-widget']")

        for li in list:
            item = { }
            item["data"]= li.xpath(".//a/text()").extract()[0]
            print(item)

 

转载于:https://www.cnblogs.com/ywjfx/p/11070925.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值