python_scrapy_房天下

2 篇文章 0 订阅
1 篇文章 0 订阅

scrapy-讲解

xpath选取节点常用的标签元素如下。

标记描述
extract提取内容转换为Unicode字符串,返回数据类型为list
/从根节点选取
//匹配选择的当前节点选择文档中的节点
.节点
@属性
*任何元素节点
@*任何属性节点
node()任何类型的节点

爬取房天下-前奏

分析
1、网址:url:https://sh.newhouse.fang.com/house/s/。
2、确定爬取哪些数据:1)网页地址:page。2)所在位置名称:name。3)价格:price。4)地址:address。5)电话号码:tel
2、对网页进行分析。
在这里插入图片描述

打开url后,可以看到我们需要的数据,然后可以看下面还是有分页的。

在这里插入图片描述

可以看到打开url后查看网页元素,我们所要的数据都在一对ul标签内。

在这里插入图片描述
在这里插入图片描述

打开li一对标签,我们需要的name是在a标签下面的,而且在文本左右有不清楚的空格换行等需要特殊处理。
我们需要的price是在55000标签下面,注意,有的房子被买完了就没有价格显示,这个坑小心踩了。
一次类推我们可以找到对应的address和tel。

在这里插入图片描述

分页标签元素可以看到,当前页面的的a的class="active"。在打开主页面是a的文本是1,表示第一页。

爬取房天下-前具体实现过程

先新建scrapy项目
1)切换到项目文件夹:Terminal控制台上面输入 scrapy startproject hotel,hotel是演示的项目名称,可以根据自己需要自定义。
2)根据需要在items.py文件夹下配置参数。在分析中可知需要用到五个参数,分别是:page,name,price,address,tel。配置代码如下:

class HotelItem(scrapy.Item):
   # 这里的参数要与爬虫实现的具体参数一一对应
   page = scrapy.Field()
   name = scrapy.Field()
   price = scrapy.Field()
   address = scrapy.Field()
   tel = scrapy.Field()

3)新建我们的爬虫分支。切换到spiders文件夹,Terminal控制台上面输入 scrapy genspider house sh.newhouse.fang.comhouse是项目的爬虫名称,可以自定义,sh.newhouse.fang.com是爬取的区域选择。
在spider文件夹下面就有我们创建的house.py文件了。
代码实现与解释如下

import scrapy
from ..items import *
class HouseSpider(scrapy.Spider):
  name = 'house'
  # 爬取区域限制
  allowed_domains = ['sh.newhouse.fang.com']
  # 爬取的主页面
  start_urls = ['https://sh.newhouse.fang.com/house/s/',]
  def start_requests(self):
      for url in self.start_urls:
          # 回掉函数传的模块名称,没有括号。这是一种约定。
          yield scrapy.Request(url=url,callback=self.parse)
  def parse(self, response):
      items = []
      # 获取当前页面显示的值
      for p in response.xpath('//a[@class="active"]/text()'):
          # extract使提取内容转换为Unicode字符串,返回数据类型为list
          currentpage=p.extract()
      # 确定最后一页
      for last in  response.xpath('//a[@class="last"]/text()'):
          lastpage=last.extract()
      # 切换到最近一层的标签。//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置  /从根节点选取
      for each in response.xpath('//div[@class="nl_con clearfix"]/ul/li/div[@class="clearfix"]/div[@class="nlc_details"]'):
          item=HotelItem()
          # 名称
          name=each.xpath('//div[@class="house_value clearfix"]/div[@class="nlcd_name"]/a/text()').extract()
          # 价格
          price=each.xpath('//div[@class="nhouse_price"]/span/text()').extract()
          # 地址
          address=each.xpath('//div[@class="relative_message clearfix"]/div[@class="address"]/a/@title').extract()
          # 电话
          tel=each.xpath('//div[@class="relative_message clearfix"]/div[@class="tel"]/p/text()').extract()
          # 所有item里面参数要与我们items里面参数意义对应
          item['name'] = [n.replace(' ', '').replace("\n", "").replace("\t", "").replace("\r", "") for n in name]
          item['price'] = [p for p in price]
          item['address'] = [a for a in address]
          item['tel'] = [s for s in tel]
          item['page'] = ['https://sh.newhouse.fang.com/house/s/b9'+(str)(eval(p.extract())+1)+'/?ctm=1.sh.xf_search.page.2']
          items.append(item)
      print(item)
      # 当爬取到最后一页,类标签last就自动切换成首页
      if lastpage=='首页':
          pass
      else:
          # 如果不是最后一页,继续爬取下一页数据,知道爬完所有数据
          yield scrapy.Request(url='https://sh.newhouse.fang.com/house/s/b9'+(str)(eval(currentpage)+1)+'/?ctm=1.sh.xf_search.page.2', callback=self.parse)

4)在spiders下运行爬虫,Terminal控制台上面输入 scrapy crawl house
结果如下图所示
在这里插入图片描述
整体项目结构如右图tts文件夹是我这边用于存储数据的的txt文件。本项目里面可以不需要。
在这里插入图片描述
如有发现错误请联系微信:sunyong8860
python的路上爬着前行

评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值