课时12 第三节练习项目:爬取租房信息

小猪租房http://bj.xiaozhu.com/search-duanzufang-p1-0/

首先爬取30页的详情页链接

from bs4 import BeautifulSoup
import requests

page_link = [] # <- 每个详情页的链接都存在这里,解析详情的时候就遍历这个列表然后访问就好啦~

def get_page_link(page_number):
    for each_number in range(1,page_number): # 每页24个链接,这里输入的是页码
        full_url = 'http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(each_number)
        wb_data = requests.get(full_url)
        soup = BeautifulSoup(wb_data.text,'lxml')
        for link in soup.select('a.resule_img_a'): # 找到这个 class 样为resule_img_a 的 a 标签即可
            page_link.append(link.get('href'))

get_page_link(30)#测试
print(page_link)#测试

另外一种代码:(反爬虫封锁IP有待验证)

from bs4 import BeautifulSoup
import requests

each_link = []
urls = ['http://bj.xiaozhu.com/search-duanzufang-p{}-0/'.format(str(i)) for i in range(1,10)]

def get_each_page_link(urls):
    for url in urls:
        #print(url)
        wb_data = requests.get(url)
        #print(wb_data)
        Soup = BeautifulSoup(wb_data.text, 'lxml')

        for i in Soup.select('a.resule_img_a'):
            each_link.append(i.get('href'))
#获取每一页的链接

get_each_page_link(urls)
print(each_link)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值