python爬虫实战,爬取洛杉矶上千房源!(1)

开始

==

1.导入库


首先我们导入python库

#coding=utf-8

import os

import re

import docx

import urllib

import requests

from datetime import *

from lxml import etree

from bs4 import BeautifulSoup

from docx import Document

from docx.shared import Inches, Cm

from docx.enum.text import WD_PARAGRAPH_ALIGNMENT

from docx.enum.table import WD_TABLE_ALIGNMENT

from docx.enum.dml import MSO_THEME_COLOR_INDEX

结尾版式


先引入一个docx文件里的末尾版式添加函数,不理解的可以先不看,后面会用到:

def endnote(document):

p = document.add_paragraph(‘欢迎点赞收藏关注~’)

p.paragraph_format.alignment = WD_PARAGRAPH_ALIGNMENT.CENTER

p = document.add_paragraph(‘https://blog.csdn.net/weixin_42815846’)

p.paragraph_format.alignment = WD_PARAGRAPH_ALIGNMENT.CENTER

document.add_picture(‘比心.png’, width=Inches(1))

document.paragraphs[-1].alignment = WD_PARAGRAPH_ALIGNMENT.CENTER

2.请求函数


再进入一个页面获取函数,此函数的输入为页面的url链接,返回页面内容,其中headers可以根据自己浏览器的具体信息来修改,当然也可以不改,作用就是伪装自己,让网站以为你是浏览器访问,而不是python源码在请求数据。

def getHtml(url):

借助user-agent

headers = {

‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36’

}

借助requests获取响应对象

response = requests.get(url=url, headers=headers)

从响应对象中获取响应内容

设置编码格式

response.encoding = “utf-8”

return response.text

3.Xpath提取信息 既然已经把页面请求到手,那可以通过Xpath进行搜索我们想要的信息了,代码如下。不懂Xpath可以先搜一搜Xpath的用法,再返回来看此代码。此代码爬取了 www.apartments.com 上加州洛杉矶的房源信息,第一个循环中的page范围为1-28,因为在作者爬取时该地方的房源有28页,因此循环进行爬取。

for page in range(1, 29):

print(f"第{page}页")

html = getHtml(f’https://www.apartments.com/los-angeles-ca/{page}/')

bs4 = BeautifulSoup(html, ‘html.parser’)

根据属性结构获取内容

content = bs4.find_all(name=“li”, attrs={“class”: “mortar-wrapper”})

selecter=etree.HTML(html)

for index in range(1, len(content)+1):

title = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article/header/div[1]/a/div[1]/span’)[0].xpath(‘string(.)’)

addr = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article/header/div[1]/a/div[2]')[0].xpath(‘string(.)’)

房屋链接

roomlink = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article’)[0].xpath(‘@data-url’)[0]

rooms.append([title, addr, roomlink])

prefix = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article/section/div’)[0]

图片链接

picsrc = prefix.xpath(‘./div[1]/div[2]/div[2]/ul/li[1]/a’)

picsrc = picsrc[0].xpath(‘@href’)[0] if len(picsrc)>0 else “无”

Virtual Tour

VRtour = prefix.xpath(‘./div[1]/div[2]/div[2]/ul/li[2]/a’)

VRtour = VRtour[0].xpath(‘@href’)[0] if len(VRtour)>0 else “无”

免租

freeRent = prefix.xpath(‘./div[2]/div/div[1]/div’)

freeRent = freeRent[0].xpath(‘@data-specials-label’)[0] if len(freeRent)>0 else “否”

价格

price = prefix.xpath(‘./div[2]/div/div[2]/div’)[0].xpath(‘string(.)’)

类型

roomtype = prefix.xpath(‘./div[2]/div/div[3]/div[1]’)[0].xpath(‘string(.)’)

是否可用

available = prefix.xpath(‘./div[2]/div/div[3]/div[2]’)[0].xpath(‘string(.)’)

便利设施

amenities = []

for i, per1 in enumerate(prefix.xpath(‘./div[2]/div/div[4]/span’)):

amenities.append(per1.xpath(‘string(.)’))

电话

telephone = prefix.xpath(‘./div[2]/div/div[5]/a/span’)

telephone = telephone[0].xpath(‘string(.)’) if len(telephone)>0 else “无”

rooms[-1].extend([picsrc, VRtour, freeRent, price, roomtype, available, amenities, telephone])

文末有福利领取哦~

👉一、Python所有方向的学习路线

Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。img

👉二、Python必备开发工具

img
👉三、Python视频合集

观看零基础学习视频,看视频学习是最快捷也是最有效果的方式,跟着视频中老师的思路,从基础到深入,还是很容易入门的。
img

👉 四、实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。(文末领读者福利)
img

👉五、Python练习题

检查学习结果。
img

👉六、面试资料

我们学习Python必然是为了找到高薪的工作,下面这些面试题是来自阿里、腾讯、字节等一线互联网大厂最新的面试资料,并且有阿里大佬给出了权威的解答,刷完这一套面试资料相信大家都能找到满意的工作。
img

img

👉因篇幅有限,仅展示部分资料,这份完整版的Python全套学习资料已经上传

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里无偿获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 7
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值