Python爬虫小试

借鉴了别人的文章(https://blog.csdn.net/weixin_42029733/article/details/93064205),但是那文章有点不全面,我来重做顺便练练手。

关于pandas库的使用请参考文章:https://blog.csdn.net/brucewong0516/article/details/79092579

需求是这样的,就是从链家爬取一些小区的信息。我用来测试链家的链接为:https://nn.lianjia.com/

先定位到小区然后随便选一个区域,得到的第一页链接为:

https://nn.lianjia.com/xiaoqu/qingxiuqu/

第二页和第三页链接为:

https://nn.lianjia.com/xiaoqu/qingxiuqu/pg2/

https://nn.lianjia.com/xiaoqu/qingxiuqu/pg3/

然后看链家下面的总数为20页,那我们就可以拿到规律,第一页的链接固定,后面每翻一页后缀多出/pg页数/

然后就可以写代码了,需要注意的是,需要引用到几个库,我们先通过命令行管道安装需要的到的库:

pip install BeautifulSoup4

pip install request

pip install lxml

一、爬取数据代码:

import socket
import re
import requests
from bs4 import BeautifulSoup
#from urllib import request

'''第一步:爬取小区信息'''
def export_communityInfo(xiaoquInfo_list):
    '&
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值