Python爬取链家租房信息并保存数据至本地

 我选择爬虫作为python期末作业,爬取成都链家租房网站信息。

先说一下我的思路:

1、请求租房首页,获取列表中各个房屋的详情页url

2、请求各个房屋的详情页,爬取其中的房屋详情信息

3、翻页,爬取更多数据

4、保存数据至本地

首先打开我们的目标网站,我想爬的是链家官方的锦江区一居室,七百多条条数据完全够用了。

然后鼠标右键进行检查:

发现href中的url,这是我们第二次请求所需要的

import parsel
import random
import requests
import pprint
import csv
import re
from bs4 import BeautifulSoup
import time

user_agents =[
    'Mozilla/5.0 (Windows; U; Windows NT 5.1; it; rv:1.8.1.11) Gecko/20071127 Firefox/2.0.0.11',
    'Opera/9.25 (Windows NT 5.1; U; en)',
    'Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)',
    'Mozilla/5.0 (compatible; Konqueror/3.5; Linux) KHTML/3.5.5 (like Gecko) (Kubuntu)',
    'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.0.12) Gecko/20070731 Ubuntu/dapper-security Firefox/1.5.0.12',
    'Lynx/2.8.5rel.1 libwww-FM/2.14 SSL-MM/1.4.1 GNUTLS/1.2.9',
    'Mozilla/5.0 (X11; Ubuntu; Linux i686; rv:10.0) Gecko/20100101 Firefox/10.0',
]
agent = random.choice(user_agents)
headers = {
    'User-Agent': agent
}

response = requests.get(url=url,headers=headers)
#parsel模块无法直接对字符串数据解析提取
selector = parsel.Selector(response.text)
#css选择器,根据标签属性内容提取对应数据
href = selector.css('#content > div.content__article > div.content__list > div > a::attr(href)').getall()

接下来查看房屋详情页,我想要的是标题、月租价格、以及”房屋信息“中的面积、朝向、楼层、电梯、车位、用水、用电、燃气、采暖这些信息。 

 

    for index in href:
        link = "https://cd.lianjia.com"+index
        print(link)
        house_data = requests.get(url=link,headers=headers).text
        selector_house = parsel.Selector(house_data)
        title = selector_house.css('body > div.wrapper > div > div.content.clear.w1150 > div.top_content > div.top_left > p::text').get().replace(" ","").replace("\n","")
        price = selector_house.css('#aside > div.content__aside--title > span::text').get()
        house_info = selector_house.css('#info > ul > li::text').getall()
        area = house_info[1][3:]
        direction = house_info[2][3:]
        floor = house_info[7][3:]
        lift = house_info[8][3:]
        car = house_info[10][3:]
        water = house_info[11][3:]
        electricity = house_info[13][3:]
        gas = house_info[14][3:]
        heating = house_info[16][3:]

        info = {
            '详情页': link,
            '标题': title,
            '月租': price,
            '面积': area,
            '朝向': direction,
            '楼层': floor,
            '电梯': lift,
            '车位': car,
            '用水': water,
            '用电': electricity,
            '燃气': gas,
            '暖气': heating

        }
        # pprint.pprint(info)
        print(info)

保存至本地:

f = open('house_data.csv',mode='a',encoding='utf-8',newline='')
csv_writer = csv.DictWriter(f, fieldnames=[
    '标题',
    '月租',
    '面积',
    '朝向',
    '楼层',
    '电梯',
    '车位',
    '用水',
    '用电',
    '燃气',
    '暖气',
    '详情页'
])
# 写入表头
csv_writer.writeheader()

 记得import csv,以及在info字典后面加上:

csv_writer.writerow(info)

于是变成了这样:

info = {
            '详情页': link,
            '标题': title,
            '月租': price,
            '面积': area,
            '朝向': direction,
            '楼层': floor,
            '电梯': lift,
            '车位': car,
            '用水': water,
            '用电': electricity,
            '燃气': gas,
            '暖气': heating

        }
        # pprint.pprint(info)
        csv_writer.writerow(info)
        print(info)

获取多页:(需要通过观察和尝试,此处不赘述)

学习跳转链接:在万维网爬虫中进行翻页爬取的三种常用方案-CSDN博客

for i in range(1,27):
    url=f'https://cd.lianjia.com/zufang/jinjiang/ab200301001000pg{i}l0/'

可以跑起来了,但是出现了报错:

打印出错的url地址,发现这个页面的结构和其他的不同

 

于是把它也加上 

title = selector_house.css('body > div.wrapper > div > div.content.clear.w1150 > div.top_content > div.top_left > p::text' 
                                   or 'body > div.wrapper > div:nth-child(2) > div.content.clear.w1150 > p::text').get().replace(" ","").replace("\n","")

 但是仍然会报错,我就把replace删了,最后把七百多条全爬完了,在excel表格里手工修改了一下格式:

 

  • 13
    点赞
  • 27
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值