Python爬取北京地区短租房信息

本文利用Requests和BeautifulSoup第三方库,爬取小猪短租网北京地区短租房的信息。代码参考《从零开始学Python网络爬虫》。


完整代码如下:



  1. from bs4 import BeautifulSoup

  2. import requests

  3. import time


  4. headers = {

  5.     'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/62.0.3202.94 Safari/537.36'

  6. }


  7. def judgment_sex(class_name):

  8.     if class_name == ['member_icol']:

  9.         return '女'

  10.     else:

  11.         return '男'


  12. def get_links(url):

  13.     wb_data = requests.get(url,headers = headers)

  14.     soup = BeautifulSoup(wb_data.text,'lxml')

  15.     links = soup.select('#page_list > ul > li > a')

  16.     for link in links:

  17.         href = link.get("href")

  18.         get_info(href)


  19. def get_info(url):

  20.     wb_data = requests.get(url,headers = headers)

  21.     soup = BeautifulSoup(wb_data.text,'lxml')

  22.     tittles = soup.select('div.pho_info > h4')

  23.     addresses = soup.select('span.pr5')

  24.     prices = soup.select('#pricePart > div.day_l > span')

  25.     imgs = soup.select('#floatRightBox > div.js_box.clearfix > div.member_pic > a > img')

  26.     names = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > a')

  27.     sexs = soup.select('#floatRightBox > div.js_box.clearfix > div.w_240 > h6 > span')


  28.     f = open('xiaozhu_data.txt', 'a+',encoding='utf-8')

  29.     for tittle,address,price,img,name,sex in zip(tittles,addresses,prices,imgs,names,sexs):

  30.         data = {

  31.             'tittle':tittle.get_text().strip(),

  32.             'address':address.get_text().strip(),

  33.             'price':price.get_text(),

  34.             'img':img.get("src"),

  35.             'name':name.get_text(),

  36.             'sex':judgment_sex(sex.get("class"))

  37.         }

  38.         print(data,file = f)

  39.     f.close


  40. if __name__ == '__main__':

  41.     urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(number) for number in range(1,50)]

  42.     for single_url in urls:

  43.         get_links(single_url)

  44.         time.sleep(2)


欢迎一起交流学习!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值