Python实现爬虫案例分享

    又到了每周一次的CSDN时刻,用博客记录我漫漫Python路的每一步第一次,2019年3月8日作业:用Python实现爬虫,爬取安居客租房信息,以下是我的代码过程:

'''
#爬取安居客租房信息
'''
#导入需要的模块
import requests
from lxml import etree
import csv
import time
import random
from pip._vendor.msgpack.fallback import newlist_hint

#定义抓取函数
def spider():
    headers={'User-Agent':'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/70.0.3514.0 Safari/537.36'}
    prefix_url='https://xa.zu.anjuke.com/fangyuan/l2/?pi'
    for i in range(1,2):
        url = prefix_url+str(i) # 拼出完整的url
        html = requests.get(url,headers=headers)  # 获取页面
        selector = etree.HTML(html.text)  # 获取selector
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值