爬虫教程-抓取房产网站信息

抓取房产网站信息

本次的教程爬取一下某绿色房产网站的房产信息,具体信息可以参照上篇爬虫教程,这次唯一的不同是我们需要获得更多的信息。

本次要获得详情页面的更为详细的信息,从目录点到详情页。
在这里插入图片描述
详情页里面红框里的内容就是我们要获取的。
在这里插入图片描述
从目录页按F12的html链接来看,详情页的链接写在’div’, class_ = 'list-item’里面。套个循环,获取一页中的所有详情页的链接,进到详情页,根据详情页的信息根据正则表达式获得即可。

完整代码。

import urllib
import re
from bs4 import BeautifulSoup
import pandas as pd

baseurl = 'https://sh.sydc.anjuke.com/xzl-zu/p'
findsuburl = re.compile(r'<a href="(.*?)"')
findinner = re.compile(r'<span class="value">(.*?)</span>')
index = 0
raw_data = pd.DataFrame(columns = ['日租','性质','月租', '面积', '付款',
                            '类型', '起租期', '楼层', '使用率','装修',
                           '工位数', '楼盘', '分割', '地址','相关费用'])


for page in range(1, 2):
    url = baseurl + str(page)
    head = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Safari/537.36'}
    request = urllib.request.Request(url, headers = head)
    response = urllib.request.urlopen(request)
    html = response.read().decode('utf-8')
    soup = BeautifulSoup(html,'html.parser')

    for each_item in soup.find_all('div', class_ = 'list-item'):
        each_item = str(each_item)
        suburl = str(re.findall(findsuburl,each_item)[0])
        sub_request = urllib.request.Request(suburl, headers = head)
        sub_response = urllib.request.urlopen(sub_request)
        sub_html = sub_response.read().decode('utf-8')
        sub_soup = BeautifulSoup(sub_html,'html.parser')
        if len(sub_soup.find_all('div', class_ = 'basic-info-wrapper'))!= 0:
            ineer_text = str(sub_soup.find_all('div', class_ = 'basic-info-wrapper')[0])
            seltext = re.findall(findinner,ineer_text)
            if len(seltext) == 16:
                del seltext[-5]
                raw_data.loc[index] = seltext
            index += 1
  • 3
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Python爬虫实例教程-代码,是一个指导如何使用Python编写爬虫教程。下面我将用300字中文来回答这个问题。 这个教程的代码示例主要分为以下几个部分。 第一部分是爬虫的准备工作,包括安装Python和相关的第三方库,如requests、BeautifulSoup等。首先需要安装Python,并配置好相关环境变量。然后使用pip安装requests和BeautifulSoup库,这两个库是编写爬虫时常用的工具。 第二部分是使用requests库发送网络请求,获取网页的HTML源代码。首先需要导入requests库,然后使用get方法发送网络请求,传入要爬取的网页地址。之后可以通过response对象的text属性获取网页的HTML源代码。 第三部分是使用BeautifulSoup库解析HTML源代码,提取出需要的数据。首先需要导入BeautifulSoup库,然后将HTML源代码作为参数传入BeautifulSoup类的构造函数。之后可以使用BeautifulSoup对象的find、findAll等方法,根据HTML标签和属性来提取出需要的数据。 第四部分是保存爬取的数据。可以使用Python自带的文件操作函数,如open、write等,将爬取的数据保存到本地文件中。 最后,还可以通过循环、条件判断等控制结构,以及其他的Python编程技巧,对爬虫代码进行更加复杂的处理和优化。 总的来说,Python爬虫实例教程-代码提供了一个从安装环境到写爬虫代码的全过程。通过学习这些代码示例,可以掌握如何使用Python编写爬虫,以及一些常用的爬虫技巧和工具的使用。希望以上回答可以帮助到你。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值