写一个爬取智联招聘数据的类,并将数据保存在excel表格中

本文介绍了一个Python爬虫类,用于抓取智联招聘的职位数据。该爬虫通过初始化函数设置基础URL和请求头,获取HTML源代码。解析函数用于提取职位总数和每页信息,同时对数据进行清洗,最后将数据存储到Excel表格中。
摘要由CSDN通过智能技术生成

此爬虫的中各个函数的作用:

    1.初始化函数
        基础的url地址,请求头,用来记录HTML源代码属性,total_page总页数
    2.start函数
        爬虫的主函数
    3.get_html函数
        根据url地址获取html源代码,转换为str类型,并赋值得self.html
    4.parse_total函数
        从html源代码中根据正则提取职位总个数,计算总页码,math.ceil()向上取整
    5.parse_info函数
        根据总页码。获取每一页的html源代码,根据正则提取职位信息,并对数据进行简单的清洗工作
        将数据存储到表格中
    6.filter函数
        将正则匹配到的数据进行清洗,把多余的数据剔除


引入需要的包

import re
from urllib import request, parse
# xlwt操作excel表格
import xlwt
from random import choice

声明一个爬虫类

class ZhiLianSpider(object):

初始化函数,在初始化函数中需要拼接url,准备请求头,声明html属性,用来记录源代码

    def __init__(self, kw, citys):
        #1.准备城市名字与关键词,拼接url
        data = {
            'jl': '+'.join(citys),
            'kw': kw,
        }
        # 记录搜索关键词
        self.kw = kw
        # http://sou.zhaopin.com/jobs/searchresult.ashx?j1=%E5%8C%97%E4%BA%AC%252B%E4%B8%8A%E6%B5%B7%252B%E5%B9%BF%E5%B7%9E&
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值