爬取链家数据3

本文介绍了一次使用Python进行链家数据爬取的实践过程,通过代码展示了如何获取并解析数据。
摘要由CSDN通过智能技术生成

1、直接上代码: 

#coding:utf-8
import sys
reload(sys)
sys.setdefaultencoding("utf-8")
import pandas as pd
import urllib2
import urllib
import time
import re
from bs4 import BeautifulSoup

totalPrice=[]
houseinfo=[]
followinfo=[]
for i in range(1,3):
    #读取指定网页的内容
    myurl="http://hz.lianjia.com/ershoufang/pg"+str(i)
    req = urllib2.Request(myurl)
    myResponse = urllib2.urlopen(req)
    myPage = myResponse.read()
    unmyPage = myPage.decode('utf-8')

    #匹配房源的总价
    c1=re.findall('<div.*?class="totalPrice".*?><span>(.*?)</span>(.*?)</div>',unmyPage,re.S)
    for item in c1:
        newitem=item[0]+item[1]
        totalPrice.append(newitem)
        #print newitem

    #匹配房源信息
    c2=re.findall('data-el="region">(.*?)</div>',unmyPage,re.S)
    for item in c2:
        item=re.sub('</a>','',item)  #将</a>替换掉
        houseinfo.append(item)

    #匹配房源关注度
    c3=re.findall('<span.*?class="starIcon"></span>(.*?)</div>',unmyPage,re.S)
    for item in c3:
        followinfo.append(item)

house=pd.DataFrame({'totalprice':totalPrice,'houseinfo':houseinfo,
    'followinfo':followinfo})
print house,house.index
print house.head()

#使用pandas对数据进行清洗
houseinfo_split = pd.DataFrame((x.split('|') for x in house.houseinfo),index=house.index,
    columns=['小区','户型','面积','朝向','装修','电梯'])
print houseinfo_split

运行结果:

G:\python2.7\python.exe E:/python37/jiebacut_01/DateCrawler/lianjia/lianjia3.py
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值