scrapy 爬虫框架及链家租房信息爬取示例

本文介绍了如何在Windows和Linux系统上安装Scrapy,并通过创建Scrapy项目爬取链家租房信息。详细步骤包括设置items、middlewares、pipelines以及创建爬虫文件。提供了两种运行项目的办法:直接在终端运行或通过main.py脚本执行。
摘要由CSDN通过智能技术生成

scrapy爬虫框架

1.scrapy安装

  • Windows 系统安装

pip install scrapy
  • Linux 系统安装

yum -y install scrapy
vim .bashrc
alias scrapy="home/user1/python3/bin/scrapy"
source .bashrc
#分布执行上述命令

在这里插入图片描述

2.创建scrapy 项目爬取链家租房

  • 打开创建项目的目录,点击shfit 键,鼠标右击,打开在此处打开命名窗口

scrapy startprojects 项目名称

在这里插入图片描述

  • 在pycharm 中打开刚刚创建的项目

在这里插入图片描述

  • items.py 设置要获取的字段

  • middlewares 设置响应头、代理ip 等

  • piplines 数据存储

  • 创建爬虫文件

 cd spiders
scrapy genspider lianjiazufang https://sh.lianjia.com/zufang/

在这里插入图片描述

  • 运行scrapy项目

方法一,terminal中直接运行
scrapy crawl lianjiazufang
方法二,创建main.py ,运行main脚本即可
from scrapy import cmdline
cmdline.execute("scrapy crawl lianjiazufang".split())
  • 链接爬虫项目具体内容

整体框架

在这里插入图片描述

lianjiazufang.py

import scrapy
from lianjia.items import LianjiaItem
import re

class LianjiazufangSpider(scrapy.Spider):
    name = 'lianjiazufang'
    allowed_domains = ['sh.lianjia.com']
    start_urls = ['https://sh.lianjia.com/zufang/pg1/']

    def parse(self, response):
        name_item_list = response.xpath('//div[@class="content__list--item"]')
        print(response.request.headers)
        for name_item in name_item_list:
            info={
   }
            #租房标题
            info["content_title"] = name_item.xpath('.//div/p/a/text()').extract_first().strip()
            #租房url
            info["content_url"] = "https://sh.lianjia.com"+name_item.xpath('.//div/p/a/@href').extract_first()
            #使用yield 来发送异步请求
            #使用的是scrapy.Request 发送请求的
            #回调函数,只写方法的名称&#x
  • 3
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值