Python爬取前程无忧职位信息(正则暴力匹配)

写在前面

最近在学习爬虫和数据分析,在CSDN看到TRHX • 鲍勃的文章,受益匪浅,但是在爬取数据的时候,发现前程无忧使用了动态加载js,使用requests无法爬取部分数据,而且调用lxml解析网页变得比以前更难了,这里使用的反反爬就是selenium和re正则暴力匹配…bs4可能仅仅用于解决Unicode字符编码问题。

demo主体

拼接起来即为完整代码。

用到的包

#用于请求网页数据
import requests
#正则表达式、json字典
import re,json
#爬取过程中用于暂停
import time
#用于操作Excel
import openpyxl
#模拟真实用户获取职位信息总页数
from selenium import webdriver
from selenium.webdriver.chrome.options import Options
#使用bs4解析网页
from bs4 import BeautifulSoup as bs

初始化变量

#预调用selenium
chrome_options = Options()
chrome_options.add_argument('--headless')
chrome_options.add_argument('--disable-gpu')

#大致的url框架
url = 'https://search.51job.com/list/000000,000000,0000,00,9,99,%s,2,%s.html'
#请求头
headers = {
    'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/84.0.4147.13 Safari/537.36'
    }
#要爬取的职位关键词
keyword = input('请输入您想要抓取的职位信息关键词:')
#创建工作表
wb = openpyxl.Workbook()
ws = wb.active
ws.title = "前程无忧%s工作信息" % keyword

抓取页数

"""
因为总页数调用了js文件
用requests的话返回的数据里找不到
所以使用selenium获取职位信息总页数
嫌麻烦的话可以直接去前程无忧网站搜索一下关键词...
"""
def get_page():
    #访问第一页即可
    URL = url % (keyword,str(1))
    #selenium无可视化
    browser = webdriver.Chrome(executable_path = 'chromedriver.exe',options = chrome_options)
    #访问网页
    browser.get(URL)
    #保存网页数据
    page_text = browser.page_source
    #正则匹配,括号内是要返回的信息
    pattern = re.compile('"total_page":"(.*?)"')
    #匹配所有信息,并获取列表头,实际上也就只有一条
    number = re.findall(pattern,page_text)[0]
    return number

清洗工资数据

#清洗工资数据,这里借用了大佬的方法
def wish_data(wages_old):
    if '元/天' in wages_old:
        if '-' in wages_old.split('元')[0].split('-')[0]:
            wages1 = wages_old.split('元')[0].split('-')[1]
            wages2 = wages_old.split('元').split('-')[1]
            wages_new = (float(wages2) + float(wages1)) / 2 * 30
        else:
            wages_new = float(wages_old.split('元')[0]) * 30
        return wages_new
    elif '千/月' in wages_old or '千以下/月' in wages_old or '千以上/月' in wages_old:
        if '-' in wages_old.split('千')[0]:
            wages1 = wages_old.split('千')[0].split('-')[0]
            wages2 = wages_old.split('千')[0].split('-')[1]
            wages_new = (float(wages2) + float(wages1)) / 2 * 1000
        else:
            wages_new = float(wages_old.split('千')[0]) * 1000
        return wages_new
    elif '万/月' in wages_old or '万以下/月' in wages_old or '万以上/月' in wages_old:
        if '-' in wages_old.split('万')[0]:
            wages1 = wages_old.split('万')[0].split('-')[0]
            wages2 = wages_old.split('万')[0].split('-')[1]
            wages_new = (float(wages2) + float(wages1)) / 2 * 10000
        else:
            wages_new = float(wages_old.split('万')[0]) * 10000
        return wages_new
    elif '万/年' in wages_old or '万以下/年' in wages_old or '万以上/年' in wages_old:
        if '-' in wages_old.split('万')[0]:
            wages1 = wages_old.split('万')[0].split('-')[0]
            wages2 = wages_old.split('万')[0].split('-')[1]
            wages_new = (float(wages2) + float(wages1)) / 2 * 10000 / 12
        else:
            wages_new = float(wages_old.split('千')[0]) * 10000 / 12
    #小数部分四舍五入并返回清洗后的数据
    return round(wages_new)

循环爬取信息

#获取每一页中的职位信息
def get_dict(i):
    #使用requests访问网页
    response = requests.get(url = url % (keyword,str(i)),headers = headers)
    #设定数据的格式
    response.encoding = response.apparent_encoding
    #保存网页数据
    html = response.text
    #其实这里使用bs4仅仅是解决Unicode编码问题
    bf = bs(html,'lxml')
    #第一次正则匹配,匹配所有的职位信息
    pattern_string = re.compile('window.__SEARCH_RESULT__\s=\s(.*?),"jobid_count"')
    data = re.findall(pattern_string,str(bf))
    #删除信息中所有的转义字符
    data = data[0].replace('\\','')
    #第二次正则匹配,逐条划分职位信息
    pattern_getlist = re.compile('{"type".*?}')
    #注意此时获取的是一个列表而不是字典
    dict1 = re.findall(pattern_getlist,data)
    return dict1

保存信息

#将职位信息逐条添加到工作表中
def save_data(data_dict):
    #获取列表长度,其实可以直接用for i in range(len(data_dict))
    length = len(data_dict)
    for i in range(length):
        #将信息加载为字典
        dict2 = json.loads(data_dict[i])
        #捕捉一些保存在字典中列表的数据
        content = dict2['attribute_text']
        #学历要求
        education = ''.join([i for i in content if i in '本科大专应届生在校生硕士'])
        #招聘人数
        need_people = ''.join([i for i in content if '招' in i])
        #英语要求,似乎都没有写明...也可能写的是四六级叭
        english = ''.join([i for i in content if '英语' in i])
        #如果经历要求为空的话则设置为不详
        if dict2['workyear'] == '':
            dict2['workyear'] = '不详'
        #否则为其加个‘年’字
        else:
            dict2['workyear'] += '年'
        #如果公司福利为空的话则设置为不详
        if dict2['jobwelf'] == '':
            dict2['jobwelf'] = '不详'
        #如果工资没有写明的话设置为面议
        if dict2['providesalary_text'] == '':
            dict2['providesalary_text'] = '面议'
        #如果写明的话则调用函数对数据进行清洗
        #不想清洗的话将else语句注释掉即可,我这里是为了绘图方便
        else:
            dict2['providesalary_text'] = wish_data(dict2['providesalary_text'])
        #以下两项同理,没有匹配到也设置为不详
        if education == '':
            education += '不详'
        if english == '':
            english += '不详'
        #为工作表添加一行数据
        ws.append([
            dict2['job_title'],
            dict2['workarea_text'],
            dict2['providesalary_text'],
            education,
            dict2['workyear'],
            need_people,
            #这里只取发布的日期,空格作为分隔符
            dict2['issuedate'].split(' ')[0],
            english,
            dict2['job_href'],
            dict2['company_name'],
            dict2['companyind_text'],
            dict2['companysize_text'],
            dict2['jobwelf'],
            dict2['company_href']
            ])

控制函数

def run():
    #工作表的第一行,设置各列标题
    ws.append(['职位','地区','月薪(元)','学历要求','经验要求','招聘人数','发布时间','英语要求',
               '职位详情','公司信息','公司行业','公司规模','福利待遇','公司详情'])
    #调整工作表的列宽
    for column in ['A','I','J','K','M','N']:
        ws.column_dimensions[column].width = 22.0
    for column in ['B','G']:
        ws.column_dimensions[column].width = 13.0
    #获取页数并转化为整数型变量
    n = int(get_page())
    print("%s职位共有%s页" % (keyword,str(n)))
    #按需爬取
    need_page = int(input('请输入您想要抓取的页数:'))
    #用于大量网页出现异常时结束循环
    error_page = 0
    #统计爬取出错的页数
    error_list = []
    #开始循环爬取每一页,将n修改为具体数值以限定要爬取的总页数
    for i in range(1,need_page + 1):
        #捕捉异常,如有异常则爬取下一页
        try:
            data_dict = get_dict(i)
            save_data(data_dict)
            #提示抓取成功
            print("第%s页数据抓取完成!" % str(i))
        except:
            #遇到异常时将错误页数增加1
            error_page += 1
            #将错误页添加到统计列表
            error_list.append(i)
            #提示错误
            print("第%s页:error" % str(i))
            pass
        #当总的错误页数大于20时,退出循环,可以自行设定退出条件
        if error_page > 20:
            print("出现了不可控的异常!已经退出循环!")
            break
        #将程序休眠3秒,防止爬取速度过快被封IP地址
        #也是因为这个原因,所以没有使用多线程,其实是不会2333
        time.sleep(3)
    #当错误页数不为0的时候,输出统计到的错误页列表
    if error_page != 0:
        print('以下页数抓取失败:')
        print(error_list)
    #提示程序执行完成
    print("所有数据抓取完成!")
    """
    将工作表保存,如果中途结束则什么都没有
    所以事先想好要爬的页数
    或者按需要修改成每爬取一页就保存一次
    具体怎么做就不再详述了
    """
    wb.save('前程无忧%s职位信息.xlsx' % keyword)

入口函数

#入口函数    
if __name__ == '__main__':
    run()

数据可视化

这里只放一下加载数据的函数,具体如何绘图请参考文末的文章。

def get_data():
	#读取工作表的第2、3、4列
    filename = '前程无忧python职位信息.xlsx'
    df = pd.read_excel(filename, usecols= [2,3,4])
	#删除空值
    df = df.drop(df[df['月薪(元)'] == '面议'].index)
    df = df.drop(df[df['经验要求'] == '不详'].index)
    df = df.drop(df[df['学历要求'] == '不详'].index)
	#修改列标题
    df.rename(columns={'月薪(元)':'工资','经验要求':'经验','学历要求':'学历' }, inplace=True)
    #需要保存的话就把注释取消掉
	#df.to_excel('绘图数据.xlsx')
	#将“工资列”的数据定义位整型
    df['工资'] = df['工资'].astype("int")
    return df

存在不足

对"经验需求"的分析有待优化,信息也不是逐页保存的,而是循环结束之后统一保存,遇到突发异常时可能导致没有任何数据。

参考文献

Python Selenium库的使用

爬虫实战 — 前程无忧招聘信息爬取 + 数据可视化

Python正则表达式的语法以及re模块的使用

使用Python中openpyxl库来操作Excel

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值