python爬虫实战 | 爬取洛杉矶上千房源(建议收藏)

前言

最近打算签证流程结束后,开始看看加州的房子了,毕竟研究生是不太容易住校内的,具体来说还是看看洛杉矶的房源。因为网站在国外,访问比较慢,不同页的也不好比较,于是想着把它全部爬取下来整理成docx文档,便于搜索和直接筛选,比如价格太高的直接删掉,剩下的就是满足需求的房源了。

本文简单分析下代码后将所有源码和文件公开,大家各取所需~

python库

PackageVersion
python-docx0.8.11
requests2.21.0
lxml4.6.2
bs40.0.1

其中:

  • python-docx库用于操作docx文件,将爬取的信息保存下来
  • requests发送网络请求
  • lxml中的etree用于通过Xpath查找想要的页面元素
  • bs4用于定位网页源码中的元素并统一筛选

房源平台

本代码中爬取的对象是 www.apartments.comhttps://tripalink.com/,想必留学生们都对这两个网站非常熟悉。经测试,两个网站均无任何反爬机制,毕竟是公开的第三方平台,房源入驻打广告,也没有什么私有资料,既然给爬那随便爬。。。

开始


1.导入库

首先我们导入python库

#coding=utf-8
import os
import re
import docx
import urllib
import requests

from datetime import *
from lxml import etree
from bs4 import BeautifulSoup

from docx import Document
from docx.shared import Inches, Cm
from docx.enum.text import WD_PARAGRAPH_ALIGNMENT
from docx.enum.table import WD_TABLE_ALIGNMENT
from docx.enum.dml import MSO_THEME_COLOR_INDEX

结尾版式

先引入一个docx文件里的末尾版式添加函数,不理解的可以先不看,后面会用到:

def endnote(document):
    p = document.add_paragraph('欢迎点赞收藏关注~')
    p.paragraph_format.alignment = WD_PARAGRAPH_ALIGNMENT.CENTER
    p = document.add_paragraph('https://blog.csdn.net/weixin_42815846')
    p.paragraph_format.alignment = WD_PARAGRAPH_ALIGNMENT.CENTER
    document.add_picture('比心.png', width=Inches(1))
    document.paragraphs[-1].alignment = WD_PARAGRAPH_ALIGNMENT.CENTER

2.请求函数

再进入一个页面获取函数,此函数的输入为页面的url链接,返回页面内容,其中headers可以根据自己浏览器的具体信息来修改,当然也可以不改,作用就是伪装自己,让网站以为你是浏览器访问,而不是python源码在请求数据。

def getHtml(url):    
    # 借助user-agent
    headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36'
    }
    # 借助requests获取响应对象
    response = requests.get(url=url, headers=headers)
    # 从响应对象中获取响应内容
    # 设置编码格式
    response.encoding = "utf-8"
    return response.text

3.Xpath提取信息

既然已经把页面请求到手,那可以通过Xpath进行搜索我们想要的信息了,代码如下。不懂Xpath可以先搜一搜Xpath的用法,再返回来看此代码。此代码爬取了 www.apartments.com 上加州洛杉矶的房源信息,第一个循环中的page范围为1-28,因为在作者爬取时该地方的房源有28页,因此循环进行爬取。

for page in range(1, 29):
    print(f"第{page}页")
    html = getHtml(f'https://www.apartments.com/los-angeles-ca/{page}/')  
    bs4 = BeautifulSoup(html, 'html.parser')

    # 根据属性结构获取内容
    content = bs4.find_all(name="li", attrs={"class": "mortar-wrapper"})
    selecter=etree.HTML(html)
    
    for index in range(1, len(content)+1):
        title = selecter.xpath(f'//*[@id="placardContainer"]/ul/li[{index}]/article/header/div[1]/a/div[1]/span')[0].xpath('string(.)')
        addr = selecter.xpath(f'//*[@id="placardContainer"]/ul/li[{index}]/article/header/div[1]/a/div[2]')[0].xpath('string(.)')
        # 房屋链接
        roomlink = selecter.xpath(f'//*[@id="placardContainer"]/ul/li[{index}]/article')[0].xpath('@data-url')[0]
        rooms.append([title, addr, roomlink])
        
        prefix = selecter.xpath(f'//*[@id="placardContainer"]/ul/li[{index}]/article/section/div')[0]
        # 图片链接
        picsrc = prefix.xpath('./div[1]/div[2]/div[2]/ul/li[1]/a')
        picsrc = picsrc[0].xpath('@href')[0] if len(picsrc)>0 else "无"
        # Virtual Tour
        VRtour = prefix.xpath('./div[1]/div[2]/div[2]/ul/li[2]/a')
        VRtour = VRtour[0].xpath('@href')[0] if len(VRtour)>0 else "无"
        # 免租
        freeRent =  prefix.xpath('./div[2]/div/div[1]/div')
        freeRent = freeRent[0].xpath('@data-specials-label')[0] if len(freeRent)>0 else "否"
        # 价格
        price = prefix.xpath('./div[2]/div/div[2]/div')[0].xpath('string(.)')
        # 类型
        roomtype = prefix.xpath('./div[2]/div/div[3]/div[1]')[0].xpath('string(.)')
        # 是否可用
        available = prefix.xpath('./div[2]/div/div[3]/div[2]')[0].xpath('string(.)')
        # 便利设施
        amenities = []
        for i, per1 in enumerate(prefix.xpath('./div[2]/div/div[4]/span')):
            amenities.append(per1.xpath('string(.)'))
        # 电话
        telephone = prefix.xpath('./div[2]/div/div[5]/a/span')
        telephone = telephone[0].xpath('string(.)') if len(telephone)>0 else "无"
        rooms[-1].extend([picsrc, VRtour, freeRent, price, roomtype, available, amenities, telephone])

可见,在代码中爬取了房源的很多信息:房屋名、房屋链接、内部图片链接、VR看房、免租信息、价格、住房类型、可用性、便利设施以及联系电话等。其中图片链接还可以进一步将图片爬取下来,但是为了docx文档的组织便利性,仅将链接保存下来 (毕竟它给你看的多半不是实际的样子。。懂的都懂


4.存入docx

最后利用如下函数将所有信息存入docx,用到了Document类。其中add_heading表示加标题,第二个参数中的0表示0号标题,1表示1号标题;add_paragraph表示加一个段落;用到了add_table添加表格,以及居中、合并、设置列宽等操作。

def apartments2docx(data):
    document = Document()
    header = 'LA lease from www.apartments.com {}'.format(datetime.now().strftime('%a, %b %d %H:%M'))
    document.add_heading(header, 0)
    names = ['房屋类型', 'Availability', '价格', '是否免租', '便利设施', '室内概览', 'VR看房', '房屋链接', '联系方式']
    orders = [7, 8, 6, 5, 9, 3, 4, 2, 10]
    for i, room in enumerate(data):
        document.add_heading(f"{i+1}. "+room[0], 1)
        document.add_paragraph(room[1])
        table = document.add_table(rows=10, cols=2, style='Table Grid')

        for index, column in enumerate(table.columns):
            for cell in column.cells:
                cell.width = Inches(1) if index == 0 else Inches(5)

        table.cell(0,0).merge(table.cell(0,1))
        
        for row, obj_row in enumerate(table.rows):
            if row == 0:
                obj_row.cells[0].text = "租赁信息"
            else:
                x = orders[row-1]
                obj_row.cells[1].text = room[x] if x != 9 else '、'.join(room[x])
                obj_row.cells[0].text = names[row-1]
        table.cell(0,0).paragraphs[0].paragraph_format.alignment = WD_TABLE_ALIGNMENT.CENTER

        document.add_paragraph('')
    endnote(document)
    document.save('ApartmentsRooms.docx')

如有报错Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。')),换一个headers可以解决,可能网站还是有对一个客户端请求的回应上限


效果展示

在这里插入图片描述
在这里插入图片描述


小结(附源码)

本代码中对tripalink的爬取不再赘述,唯一不同的是没用Xpath,而是直接对BeautifulSoup对象进行操作。源码和爬取的文档链接附在GitHub 点击此处

  • 25
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 27
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 27
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值