python爬虫实战,爬取洛杉矶上千房源!

document.paragraphs[-1].alignment = WD_PARAGRAPH_ALIGNMENT.CENTER

2.请求函数


再进入一个页面获取函数,此函数的输入为页面的url链接,返回页面内容,其中headers可以根据自己浏览器的具体信息来修改,当然也可以不改,作用就是伪装自己,让网站以为你是浏览器访问,而不是python源码在请求数据。

def getHtml(url):

借助user-agent

headers = {

‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.100 Safari/537.36’

}

借助requests获取响应对象

response = requests.get(url=url, headers=headers)

从响应对象中获取响应内容

设置编码格式

response.encoding = “utf-8”

return response.text

3.Xpath提取信息 既然已经把页面请求到手,那可以通过Xpath进行搜索我们想要的信息了,代码如下。不懂Xpath可以先搜一搜Xpath的用法,再返回来看此代码。此代码爬取了 www.apartments.com 上加州洛杉矶的房源信息,第一个循环中的page范围为1-28,因为在作者爬取时该地方的房源有28页,因此循环进行爬取。

for page in range(1, 29):

print(f"第{page}页")

html = getHtml(f’https://www.apartments.com/los-angeles-ca/{page}/')

bs4 = BeautifulSoup(html, ‘html.parser’)

根据属性结构获取内容

content = bs4.find_all(name=“li”, attrs={“class”: “mortar-wrapper”})

selecter=etree.HTML(html)

for index in range(1, len(content)+1):

title = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article/header/div[1]/a/div[1]/span’)[0].xpath(‘string(.)’)

addr = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article/header/div[1]/a/div[2]')[0].xpath(‘string(.)’)

房屋链接

roomlink = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article’)[0].xpath(‘@data-url’)[0]

rooms.append([title, addr, roomlink])

prefix = selecter.xpath(f’//*[@id=“placardContainer”]/ul/li[{index}]/article/section/div’)[0]

图片链接

picsrc = prefix.xpath(‘./div[1]/div[2]/div[2]/ul/li[1]/a’)

picsrc = picsrc[0].xpath(‘@href’)[0] if len(picsrc)>0 else “无”

Virtual Tour

VRtour = prefix.xpath(‘./div[1]/div[2]/div[2]/ul/li[2]/a’)

VRtour = VRtour[0].xpath(‘@href’)[0] if len(VRtour)>0 else “无”

免租

freeRent = prefix.xpath(‘./div[2]/div/div[1]/div’)

freeRent = freeRent[0].xpath(‘@data-specials-label’)[0] if len(freeRent)>0 else “否”

价格

price = prefix.xpath(‘./div[2]/div/div[2]/div’)[0].xpath(‘string(.)’)

类型

roomtype = prefix.xpath(‘./div[2]/div/div[3]/div[1]’)[0].xpath(‘string(.)’)

是否可用

available = prefix.xpath(‘./div[2]/div/div[3]/div[2]’)[0].xpath(‘string(.)’)

便利设施

amenities = []

for i, per1 in enumerate(prefix.xpath(‘./div[2]/div/div[4]/span’)):

amenities.append(per1.xpath(‘string(.)’))

电话

telephone = prefix.xpath(‘./div[2]/div/div[5]/a/span’)

telephone = telephone[0].xpath(‘string(.)’) if len(telephone)>0 else “无”

rooms[-1].extend([picsrc, VRtour, freeRent, price, roomtype, available, amenities, telephone])

可见,在代码中爬取了房源的很多信息:房屋名、房屋链接、内部图片链接、VR看房、免租信息、价格、住房类型、可用性、便利设施以及联系电话等。其中图片链接还可以进一步将图片爬取下来,但是为了docx文档的组织便利性,仅将链接保存下来 (毕竟它给你看的多半不是实际的样子。。

4.存入docx


最后利用如下函数将所有信息存入docx,用到了Document类。其中add_heading表示加标题,第二个参数中的0表示0号标题,1表示1号标题;add_paragraph表示加一个段落;用到了add_table添加表格,以及居中、合并、设置列宽等操作。

def apartments2docx(data):

document = Document()

header = ‘LA lease from www.apartments.com {}’.format(datetime.now().strftime(‘%a, %b %d %H:%M’))

document.add_heading(header, 0)

names = [‘房屋类型’, ‘Availability’, ‘价格’, ‘是否免租’, ‘便利设施’, ‘室内概览’, ‘VR看房’, ‘房屋链接’, ‘联系方式’]

orders = [7, 8, 6, 5, 9, 3, 4, 2, 10]

for i, room in enumerate(data):

document.add_heading(f"{i+1}. "+room[0], 1)

document.add_paragraph(room[1])

table = document.add_table(rows=10, cols=2, style=‘Table Grid’)

for index, column in enumerate(table.columns):

for cell in column.cells:

cell.width = Inches(1) if index == 0 else Inches(5)

table.cell(0,0).merge(table.cell(0,1))

for row, obj_row in enumerate(table.rows):

if row == 0:

obj_row.cells[0].text = “租赁信息”

else:

x = orders[row-1]

obj_row.cells[1].text = room[x] if x != 9 else ‘、’.join(room[x])

obj_row.cells[0].text = names[row-1]

table.cell(0,0).paragraphs[0].paragraph_format.alignment = WD_TABLE_ALIGNMENT.CENTER

document.add_paragraph(‘’)

endnote(document)

document.save(‘ApartmentsRooms.docx’)

如有报错Failed to establish a new connection: [WinError 10060] 由于连接方在一段时间后没有正确答复或连接的主机没有反应,连接尝试失败。')),换一个headers可以解决,可能网站还是有对一个客户端请求的回应上限 效果展示。

å¨è¿éæå¥å¾çæè¿°

å¨è¿éæå¥å¾çæè¿°

小结(附源码)

本代码中对tripalink的爬取不再赘述,唯一不同的是没用Xpath,而是直接对BeautifulSoup对象进行操作。
近期有很多朋友通过私信咨询有关Python学习问题。为便于交流,点击蓝色自己加入讨论解答资源基地
自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。

img

img

img

img

img

img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

blog.csdnimg.cn/img_convert/9f49b566129f47b8a67243c1008edf79.png)

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上前端开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以扫码获取!!!(备注:Python)

  • 11
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值