爬虫实战(一)之爬取房天下新房数据

最近想熟悉一下爬虫,所以记录实战爬虫,首先以此为开篇。

本示例主要用到requests库bs4库requests库用来获取网页内容,bs4库则是解析网页内容,获取有用数据。

代码中url可切换当地房天下网址

# -*- coding:utf-8 -*-
# author:zhoulong
'''
房天下天水新房信息
'''
import requests
from bs4 import BeautifulSoup
import numpy as np
import re
URL = 'http://newhouse.tianshui.fang.com/house/s/b91/'
HTML = requests.get(URL)
SOUP = BeautifulSoup(HTML.content, 'html.parser', from_encoding='gb18030')
last_page = SOUP.select('.last')
page_number = int(last_page[0]['href'].split('/')[3].split('9')[1])#根据尾页划分页码
url_demo = 'http://newhouse.tianshui.fang.com/house/s/b9{}/'#i+1,name.text.strip(),
#房价价格
house_price_list=[]
for i in range(1,(page_number+1)):
    url = url_demo.format(i)
    html = requests.get(url)
    soup = BeautifulSoup(html.content,'html.parser',from_encoding='gb18030')
    names = soup.select('.nlcd_name a')#class定位组合查找
    adresses = soup.select('.address a')#查找地址
    all_type = soup.findAll(name="span", attrs={"class": re.compile(r"forSale|inSale|outSale|zusale|zushou")})#出售
    all_money = soup.findAll(name="div", attrs={"class": re.compile(r"nhouse_price|kanesf")})#价格
    for i,name in enumerate(names):
        print(i+1,' name:'+name.text.strip(),'  address:'+''.join(re.split(r'\s+', adresses[i].text.replace('\n','').replace('',''))),
              all_type[i].text,' house_price: '+all_money[i].text.replace('\n',''))
        house_price_list.append(re.findall('\d+',all_money[i].text.replace('\n','')))
house_price_list=[int(i[0]) for i in house_price_list if i]
print('*'*80)
print('* '+' 房价均价:'+str(np.mean(house_price_list))+' '*60+'*')
print('* '+' 房价最高价:'+str(np.max(house_price_list))+' '*60+'*')
print('* '+' 房价最低价:'+str(np.min(house_price_list))+' '*61+'*')
print('*'*80)

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值