【Python爬虫案例学习20】Python爬虫爬取智联招聘职位信息

目的:输入要爬取的职位名称,五个意向城市,爬取智联招聘上的该信息,并打印进表格中

####基本环境配置:

  • Python版本:2.7
  • 开发工具:pycharm
  • 系统:win10
    ####相关模块:
import urllib2
import re
import xlwt

####完整代码:

import urllib2
import re
import xlwt

'''
遇到不懂的问题?Python学习交流群:821460695满足你的需求,资料都已经上传群文件,可以自行下载!
'''
class ZLZP(object):

    def __init__(self,workname,citys):
        # 记录查找工作名称
        self.workname = workname
        # 基础URL地址
        self.url = 'http://sou.zhaopin.com/jobs/searchresult.ashx?'
        # 工作名称
        args = 'kw=%s&jl='%workname
        # 工作地点
        for city in citys:
            # 判断城市是否为最后一个
            if city == citys[-1]:
                args += city
            else:
                args += city
                args += '%2B'
        # kw=python&jl=北京%2B上海%2B南京%2B广州%2B深圳
        # 拼接完整的url地址
        self.url += args
        self.headers = {
            'User-Agent':'Mozilla/5.0 (Windows NT 6.1; WOW64; rv:54.0) Gecko/20100101 Firefox/54.0'
        }
    # 根据页码获取某一页HTML源代码
    def get_page(self,pageNum):
        # 1.根据页码拼接完整的url地址
        getUrl = self.url + '&p=%s'%pageNum
        # 2.创建request对象
        request = urllib2.Request(getUrl,headers=self.headers)
        try:
            response = urllib2.urlopen(request)
        except Exception ,e:
            print '获取第%s页数据失败,原因%s'%(pageNum,e)
            return None
        else:
            return response.read()

    # 从html代码中提取总职位数
    def get_total(self,html):
        # 1.准备正则表达式
        pattern = re.compile(r'<span class="search_yx_tj.*?em>(.*?)</em>',re.S)
        # 2.根据正则表达式从源代码中查找数据
        rs = re.search(pattern,html)
        # 3.记录总职位数,计算总页数
        total = int(rs.group(1))
        print  '共搜索到%s个相关职位信息...'%total
        # 不能被60整除,总页码+1
        if total%60 == 0:
            self.totalPage = total/60
        else:
            self.totalPage = total/60+1
    # 提取数据函数
    def get_data(self,html):
        # 1.准备正则
        # print html
        pattern = re.compile(r'<table.*?class="newlist.*?<td class="zwmc.*?<a.*?>(.*?)</a>.*?<td class="gsmc.*?_blank">(.*?)</a>.*?<td class="zwyx">(.*?)</td.*?<td class="gzdd">(.*?)</td>',re.S)
        # 2.从html源代码中搜索
        results = re.findall(pattern,html)
        # 3.去除数据中标签
        rs_data = []
        for rs in results:
            remove_b = re.compile(r'<.*?>',re.S)
            name = re.sub(remove_b,'',rs[0])
            rs_tp = (name,rs[1],rs[2],rs[3])
            rs_data.append(rs_tp)
        return rs_data
    # 开始爬虫函数
    def start(self):
        # 1.获取第一页查询职位的HTML源代码
        html = self.get_page(1)
        if html == None:
            return
        # 2.从html源代码中提取总职位数
        self.get_total(html)
        # 3.for循环循环总页数次(循环10次)
        # 创建workbook对象
        workbook = xlwt.Workbook(encoding='utf-8')
        print type(self.workname)
        # unicode 将一个str类型的字符串转换为unicode字符
        # 中文编码格式GBK,
        print type(unicode(self.workname,encoding='utf-8'))
        name = u'智联表'+unicode(self.workname,encoding='utf-8')
        print type(name)
        sheet = workbook.add_sheet(name)
        sheet.write(0,0,'职位名称')
        sheet.write(0,1,'公司名称')
        sheet.write(0,2,'职位月薪')
        sheet.write(0,3,'工作地点')
        # count 记录当前的行号
        count = 1
        for x in range(1,11):
            # 1.根据页码获取该页的HTML源代码
            print '正在写入第%s页数据....'%x
            html = self.get_page(x)
            if html == None:
                continue
            # 2.从html源代码中提取数据
            rs_data = self.get_data(html)
            # 3.写入本地文件
            for rs in rs_data:
                sheet.write(count,0,rs[0])
                sheet.write(count,1,rs[1])
                sheet.write(count,2,rs[2])
                sheet.write(count,3,rs[3])
                count+=1
        # 保存文件
        print type(self.workname)
        filename = u'智联%s职位信息.xls'%unicode(self.workname,encoding='utf-8')
        workbook.save(filename)

'''
    Python3之前:
    要存储到本地的数据,保证是UTF-8编码
    要在Python中使用的字符,保证是Unicode类型的字符
    unicode(self.workname,encoding='utf-8')
    字符串类型 str 输入的文本内容、''或""包裹的文本
'''


if __name__ == '__main__':

    workname = raw_input('请输入要查询的工作名称:')
    # 存放工作城市
    citys = []
    # 只要城市小于5个,继续输入城市
    while len(citys) < 5:
        city = raw_input('请输入意向城市,最多输入5个,输入0结束:')
        if city == '0':
            break
        citys.append(city)

    zlzp = ZLZP(workname,citys)
    zlzp.start()
  • 0
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值