爬虫三:用xpath爬取链家网二手房信息

爬虫流程

  1. 发起请求,通过使用HTTP库向目标站点发起请求,即发送一个Request,请求可以包含额外的headers等信息,并等待服务器响应。
  2. 获取响应内容如果服务器能正常响应,则会得到一个Response,Response的内容就是所要获取的页面内容,其中会包含:html,json,图片,视频等。
  3. 解析内容得到的内容可能是html数据,可以使用正则表达式、第三方解析库如Beautifulsoup,etree等,要解析json数据可以使用json模块,二进制数据,可以保存或者进一步的处理。
  4. 保存数据保存的方式比较多元,可以存入数据库也可以使用文件的方式进行保存。

xpath表达式

       在 XPath 中,有七种类型的节点:元素、属性、文本、命名空间、处理指令、注释以及文档节点(或称为根节点)。

选取节点:

       XPath 使用路径表达式在 XML 文档中选取节点。节点是通过沿着路径或者 step 来选的。路径表达式:

表达式描述
nodename选取此节点的所有子节点。
/从根节点选取。
//从匹配选择的当前节点选择文档中的节点,而不考虑它们的位置。
.选取当前节点。
..选取当前节点的父节点。
@选取属性。

谓语(Predicates)

       放在方括号[]中,相当于筛选条件,用来查找[]中指定的特定节点或者包含某个指定的值的节点。一些带有谓语的路径表达式和结果:

路径表达式结果
/bookstore/book[1]选取属于 bookstore 子元素的第一个 book 元素。
/bookstore/book[last()]选取属于 bookstore 子元素的最后一个 book 元素。
/bookstore/book[last()-1]选取属于 bookstore 子元素的倒数第二个 book 元素。
/bookstore/book[position()<3]选取最前面的两个属于 bookstore 元素的子元素的 book 元素。
//title[@lang]选取所有拥有名为 lang 的属性的 title 元素。
//title[@lang='eng']选取所有 title 元素,且这些元素拥有值为 eng 的 lang 属性。
/bookstore/book[price>35.00]选取 bookstore 元素的所有 book 元素,且其中的 price 元素的值须大于 35.00。
/bookstore/book[price>35.00]/title选取 bookstore 元素中的 book 元素的所有 title 元素,且其中的 price 元素的值须大于 35.00。

选取未知节点

       XPath 通配符可用来选取未知的 XML 元素。

通配符描述
*匹配任何元素节点。
@*匹配任何属性节点。
node()匹配任何类型的节点。

       例子:

路径表达式结果
/bookstore/*选取 bookstore 元素的所有子元素。
//*选取文档中的所有元素。
//title[@*]选取所有带有属性的 title 元素

选取若干路径

       在路径表达式中使用“|”运算符可以选取若干个路径。

路径表达式结果
//book/title | //book/price选取 book 元素的所有 title 和 price 元素。
//title | //price选取文档中的所有 title 和 price 元素。
/bookstore/book/title | //price选取属于 bookstore 元素的 book 元素的所有 title 元素,以及文档中所有的 price 元素。

其它例子

//*[@category='cooking']:属性为cooking的元素

//*[@category='web' and  @cover='paperback'] :属性为web的有两个,可以用and加限定条件继续匹配

//*[@category='web' or @cover='paperback']

//*[not(@category='web')]

//book[@*]:所有有属性的book节点

//*[@*]:所有有属性的元素

/bookstore//price:绝对和相对的结合,找到所有的price

//@cover:相对查找属性cover

/bookstore/book[1]/*:第一个book下的全部内容

/bookstore/book[1]/title[@*]:第一个book的title属性

/bookstore//price[text()>30]或者/bookstore//price[.>30]:所有price大于30的元素亲属关系匹配

//book[1]/year[.=2005] 或者//book[1]/year[.=2005]/following-sibling::*:找到year节点的下一级price

//book[1]/year[.=2005]/following-sibling::*:找到year节点的上一级(有两个,可以限定一下)

//book[1]/year[.=2005]/preceding-sibling::title

//book[1]/year[.=2005]/parent::*:找到父级元素

基于最后一个book找到上一个book的year节点:

基于属性cover再找到下一book的最后一个author

//*[text()='Per Bothner']/parent::*:基于文本Per Bothner找到父元素

//author[contains(.,'Vaidy')]:文本中包含'Vaidy'的元素,前面的点代表的是文本,也可是写text()

实战:爬取链家二手房源信息

import requests
from lxml import etree
import pandas as pd
import datetime
t1=datetime.datetime.now()
#参数设置
headers={'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.100 Safari/537.36'}#请求头,模拟浏览器进行请求
page_num=2#爬取页数
url='https://bj.lianjia.com/ershoufang/'#要爬取的网址

#开始爬取
title,content,price,link=[],[],[],[]
for i in range(page_num):
    print('第{}页爬取中......'.format(i+1))
    response=requests.get(url,headers=headers)#向一级网页发送请求
    if response.status_code==200:    
        response.encoding=response.apparent_encoding#字符编码设置为网页本来所属编码
        html=response.text#获取网页代码
        html_etree = etree.html(html)#将网页文本代码转为etree对象
        #解析提取数据
        title+=html_etree.xpath('//div[@class="title"]/a/text()')#提取标题
        content+=html_etree.xpath('//div[@class="houseInfo"]/text()')#提取房源信息
        price+=html_etree.xpath('//div[@class="totalPrice"]/span/text()')  #提取价格
        link+=html_etree.xpath('//div[@class="title"]/a/@href')#提取链接
    else:
        print('第{}页请求失败!'.format(i+1))
        
#数据存储
data=pd.DataFrame(zip(title,content,price,link),columns=['标题','房源信息','价格','链接'])
data.to_excel('链接二手房源信息爬取结果.xlsx')

t2=datetime.datetime.now()
print('finish,total spend ts:{}'.format(t2-t1))

如果对你有帮助,请点下赞,予人玫瑰手有余香!

时时仰望天空,理想就会离现实越来越近!

  • 3
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 3
    评论
使用requests库和xpath爬取链家租房的房源信息的步骤如下: 1. 首先,你需要使用requests库发送一个HTTP请求到链家站,获取到页的内容。你可以使用requests库的get方法,并传入链家站的URL作为参数。 2. 接下来,你需要使用xpath来解析页的内容。你可以使用lxml库中的etree模块来创建一个Element对象,然后使用该对象的xpath方法来提取你需要的信息。你可以使用xpath表达式来定位到房源信息所在的HTML元素。 3. 在xpath表达式中,你可以使用标签名、属性、class等来定位到具体的房源信息。你可以使用element对象的xpath方法来获取到一个包含所有房源信息的列表。 4. 遍历房源信息列表,将每个房源的所在地区、小区名、户型、面积、朝向、价格等信息保存到一个字典中。 5. 创建一个空的DataFrame对象,并指定列名为\['地区', '小区名', '户型', '面积', '朝向', '价格(元/月)'\]。 6. 遍历字典列表,将每个字典作为一行数据添加到DataFrame对象中,可以使用DataFrame的append方法。 7. 最后,将DataFrame对象保存到Excel文件中,可以使用pandas库的to_excel方法。 综上所述,你可以使用requests库和xpath爬取链家租房的房源信息,并将数据保存到Excel文件中。 #### 引用[.reference_title] - *1* *3* [利用xpath爬取链家租房房源数据并利用pandas保存到Excel文件中](https://blog.csdn.net/renhongbin614/article/details/104540204)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] - *2* [爬虫:用xpath爬取链家二手房信息](https://blog.csdn.net/qq_23860475/article/details/103505587)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v91^control_2,239^v3^insert_chatgpt"}} ] [.reference_item] [ .reference_list ]

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值