爬虫——关于beautifulsoup4. next_slibing属性的一个坑

import requests
import csv
import time
import json
from bs4 import BeautifulSoup as bs

## 试着一下爬7个标签的数据

观察发现每个小区的基本信息都分别存在 “info”和“xiaoquListItemRight”连个子类里

### 首先,确定我们的预期需求,我们想爬取的数据是
* 小区名
* 他的链接
* 售房、出租情况
* 位置
* 标签
* 总价
* 参考均价

### 然后我们运用“检查”去锁定Elements
所有的
每个小区的信息都存在 li class = 'clear xiaoquListItem'这个类里

#### info 中包括 'title' 'houseInfo'  'positionInfo' 'agentInfo' 'tagList'这几个子类
##### title 里有名称和链接 houseinfo里有售房租房的状况 postion里有位置 tag里有他的特色,

#### XiaoquListItemRight 里则包括 ‘totalprice’ 和‘priceDesc’主要是总价和参考价格




```python
head = {'Host': 'bj.lianjia.com',
        'Referer': 'https://bj.lianjia.com/?utm_source=baidu&utm_medium=pinzhuan&utm_term=biaoti&utm_content=biaotimiaoshu&utm_campaign=sousuo&ljref=pc_sem_baidu_ppzq_x',
        'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/75.0.3770.142 Safari/537.36' 
    
       }

url = 'https://bj.lianjia.com/xiaoqu/rs东花市/'
r = requests.get(url, headers=head)
soup =bs(r.text)
print (soup.prettify())
xiaoqu = soup.find_all('li',class_ = "clear xiaoquListItem")
xiaoqu[1].prettify()
print(type(soup),type(xiaoqu),type(xiaoqu[1]))

在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值