Python爬虫爬取智联招聘(进阶版)_爬虫智行


至此,职位详细信息的获取及保存的工作已经完成,来看一下此时的main函数:



def main(city, keyword, region, pages):
   ‘’’
   主函数
   ‘’’
   csv_filename = ‘zl_’ + city + ‘_’ + keyword + ‘.csv’
   txt_filename = ‘zl_’ + city + ‘_’ + keyword + ‘.txt’
   headers = [‘job’, ‘years’, ‘education’, ‘salary’, ‘company’, ‘scale’, ‘job_url’]
   write_csv_headers(csv_filename, headers)
   for i in range(pages):
       ‘’’
       获取该页中所有职位信息,写入csv文件
       ‘’’
       job_dict = {}
       html = get_one_page(city, keyword, region, i)
       items = parse_one_page(html)
       for item in items:
           html = get_detail_page(item.get(‘job_url’))
           job_detail = get_job_detail(html)

job_dict[‘job’] = item.get(‘job’)
           job_dict[‘years’] = job_detail.get(‘years’)
           job_dict[‘education’] = job_detail.get(‘education’)
           job_dict[‘salary’] = item.get(‘salary’)
           job_dict[‘company’] = item.get(‘company’)
           job_dict[‘scale’] = job_detail.get(‘scale’)
           job_dict[‘job_url’] = item.get(‘job_url’)

# 对数据进行清洗,将标点符号等对词频统计造成影响的因素剔除
           pattern = re.compile(r’[一-龥]+')
           filterdata = re.findall(pattern, job_detail.get(‘requirement’))
           write_txt_file(txt_filename, ‘’.join(filterdata))
           write_csv_rows(csv_filename, headers, job_dict)


## 4、数据分析


本节内容为此版本的重点。


### 4.1 工资统计


我们对各个阶段工资的占比进行统计,分析该行业的薪资分布水平。前面我们已经把数据保存到csv文件里了,接下来要读取`salary`列:



def read_csv_column(path, column):
   ‘’’
   读取一列
   ‘’’
   with open(path, ‘r’, encoding=‘gb18030’, newline=‘’) as f:
       reader = csv.reader(f)
       return [row[column] for row in reader]

main函数里添加

print(read_csv_column(csv_filename, 3))

#下面为打印结果
[‘salary’, ‘7000’, ‘5000’, ‘25000’, ‘12500’, ‘25000’, ‘20000’, ‘32500’, ‘20000’, ‘15000’, ‘9000’, ‘5000’, ‘5000’, ‘12500’, ‘24000’, ‘15000’, ‘18000’, ‘25000’, ‘20000’, ‘0’, ‘20000’, ‘12500’, ‘17500’, ‘17500’, ‘20000’, ‘11500’, ‘25000’, ‘12500’, ‘17500’, ‘25000’, ‘22500’, ‘22500’, ‘25000’, ‘17500’, ‘7000’, ‘25000’, ‘3000’, ‘22500’, ‘15000’, ‘25000’, ‘20000’, ‘22500’, ‘15000’, ‘15000’, ‘25000’, ‘17500’, ‘22500’, ‘10500’, ‘20000’, ‘17500’, ‘22500’, ‘17500’, ‘25000’, ‘20000’, ‘11500’, ‘11250’, ‘12500’, ‘14000’, ‘12500’, ‘17500’, ‘15000’]


从结果可以看出,除了第一项,其他的都为平均工资,但是此时的工资为字符串,为了方便统计,我们将其转换成整形:



salaries = []
sal = read_csv_column(csv_filename, 3)
   # 撇除第一项,并转换成整形,生成新的列表
   for i in range(len(sal) - 1):
       # 工资为’0’的表示招聘上写的是’面议’,不做统计
       if not sal[i] == ‘0’:
           salaries.append(int(sal[i + 1]))
   print(salaries)

下面为打印结果

[7000, 5000, 25000, 12500, 25000, 20000, 32500, 20000, 15000, 9000, 5000, 5000, 12500, 24000, 15000, 18000, 25000, 20000, 0, 20000, 12500, 20000, 11500, 17500, 25000, 12500, 17500, 25000, 25000, 22500, 22500, 17500, 17500, 7000, 25000, 3000, 22500, 15000, 25000, 20000, 22500, 15000, 22500, 10500, 20000, 15000, 17500, 17500, 25000, 17500, 22500, 25000, 12500, 20000, 11250, 11500, 14000, 12500, 15000, 17500]


我们用直方图进行展示:



plt.hist(salaries, bins=10 ,)
plt.show()


生成效果图如下:


![](https://img-blog.csdn.net/20180425203353549?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3podXNvbmd6aXll/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)


从图中可以看出工资分布的情况,这样在你找工作时可以做一个参考。


### 4.2 职位描述词频统计


对职位描述词频统计的意义是可以了解该职位对技能的基本要求,如果正在找工作,可以估计一下自己的要求是否符合该职位;如果想要一年后换工作,那么也可以提前做好准备,迎接新的挑战。


词频统计用到了 jieba、numpy、pandas、scipy库。如果电脑上没有这两个库,执行安装指令:


* `pip install jieba`
* `pip install pandas`
* `pip install numpy`
* `pip install scipy`


#### 4.2.1 读取txt文件


前面已经将职位描述保存到txt文件里了,现在我们将其读出:



def read_txt_file(path):
   ‘’’
   读取txt文本
   ‘’’
   with open(path, ‘r’, encoding=‘gb18030’, newline=‘’) as f:
       return f.read()


简单测试一下:



import jieba
import pandas as pd

content = read_txt_file(txt_filename)
segment = jieba.lcut(content)
words_df=pd.DataFrame({‘segment’:segment})
print(words_df)

输出结果如下:

segment
0        岗位职责
1          参与
2          公司
3        软件产品
4          后台
5          研发
6           和
7          维护
8          工作
9          参与
10        建筑物
11         联网
12       数据分析
13         算法
14          的
15         设计
16          和
17         开发
18          可
19         独立
20         完成
21         业务
22         算法
23         模块
…           …


从结果可以看出:“岗位职责”、“参与”、“公司”、软件产品“、”的“、”和“等单词并没有实际意义,所以我们要将他们从表中删除。


#### 4.2.2 stop word


下面引入一个概念:stop word, 在网站里面存在大量的常用词比如:“在”、“里面”、“也”、“的”、“它”、“为”这些词都是停止词。这些词因为使用频率过高,几乎每个网页上都存在,所以搜索引擎开发人员都将这一类词语全部忽略掉。如果我们的网站上存在大量这样的词语,那么相当于浪费了很多资源。


在百度搜索stpowords.txt进行下载,放到py文件同级目录。接下来测试一下:



content = read_txt_file(txt_filename)
segment = jieba.lcut(content)
words_df=pd.DataFrame({‘segment’:segment})

stopwords=pd.read_csv(“stopwords.txt”,index_col=False,quoting=3,sep=" ",names=[‘stopword’],encoding=‘utf-8’)
words_df=words_df[~words_df.segment.isin(stopwords.stopword)]

print(words_df)

以下为输出结果

0        岗位职责
1          参与
2          公司
3        软件产品
4          后台
5          研发
7          维护
8          工作
9          参与
10        建筑物
11         联网
12       数据分析
13         算法
15         设计
17         开发
19         独立
21         业务
22         算法
23         模块
24         开发
28         产品
29         目标
31         改进
32         创新
33         任职
35         熟练
38         开发
39         经验
40         优先
41         熟悉
…      …


从结果看出,那些常用的stop word比如:“的”、“和”、“可”等已经被剔除了,但是还有一些词如“岗位职责”、“参与”等也没有实际意义,如果对词频统计不产生影响,那么就无所谓,在后面统计时再决定是否对其剔除。


#### 4.2.3 词频统计


重头戏来了,词频统计使用numpy:



import numpy

words_stat = words_df.groupby(by=[‘segment’])[‘segment’].agg({“计数”:numpy.size})
   words_stat = words_stat.reset_index().sort_values(by=[“计数”],ascending=False)
   print(words_stat)

以下是爬取全部“北京市海淀区Python工程师”职位的运行结果:

segment   计数
362      开发  505
590      熟悉  409
701      经验  281
325      工作  209
820      负责  171
741      能力  169
793      设计  161
82       优先  160
409      技术  157
621      相关  145
322    岗位职责  127
683      系统  126
64       产品  124
904      项目  123
671      算法  107
78       任职  107
532      框架  107
591      熟练  104


可以看出,某些词语还是影响了统计结果,我将以下stop word加入stopword.txt中:



开发、熟悉、熟练、精通、经验、工作、负责、能力、有限、相关、岗位职责、任职、语言、平台、参与、优先、技术、学习、产品、公司、熟练掌握、以上学历


最后运行结果如下:



775      设计  136
667      系统  109
884      项目  105
578      熟练   95
520      框架   92
656      算法   90
143      分析   90
80       优化   77
471     数据库   75
693      维护   66
235      团队   65
72       代码   61
478      文档   60
879      需求   58
766     计算机   56
698      编程   56
616      研发   49
540      沟通   49
527      模块   49
379      性能   46
695      编写   45
475    数据结构   44


这样基本上就是对技能的一些要求了,你也可以根据自己的需求再去修改stopword.txt已达到更加完美的效果。


#### 4.2.4 词频可视化:词云


词频统计虽然出来了,可以看出排名,但是不完美,接下来我们将它可视化。使用到`wordcloud`库,详细介绍见 github ,使用`pip install wordcloud`进行安装。



from scipy.misc import imread
from wordcloud import WordCloud, ImageColorGenerator

# 设置词云属性
   color_mask = imread(‘background.jfif’)
   wordcloud = WordCloud(font_path=“simhei.ttf”,   # 设置字体可以显示中文
                   background_color=“white”,       # 背景颜色
                   max_words=100,                  # 词云显示的最大词数
                   mask=color_mask,                # 设置背景图片
                   max_font_size=100,              # 字体最大值
                   random_state=42,
                   width=1000, height=860, margin=2,# 设置图片默认的大小,但是如果使用背景图片的话,                                                   # 那么保存的图片大小将会按照其大小保存,margin为词语边缘距离
                   )

# 生成词云, 可以用generate输入全部文本,也可以我们计算好词频后使用generate_from_frequencies函数
   word_frequence = {x[0]:x[1]for x in words_stat.head(100).values}
   word_frequence_dict = {}
   for key in word_frequence:
       word_frequence_dict[key] = word_frequence[key]

wordcloud.generate_from_frequencies(word_frequence_dict)
   # 从背景图片生成颜色值  
   image_colors = ImageColorGenerator(color_mask)
   # 重新上色
   wordcloud.recolor(color_func=image_colors)
   # 保存图片
   wordcloud.to_file(‘output.png’)
   plt.imshow(wordcloud)
   plt.axis(“off”)
   plt.show()


运行效果图如下(左图为原图,右图为生成的图片):


![](https://img-blog.csdn.net/20180425203426887?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3podXNvbmd6aXll/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)


至此,词频统计及其可视化完成。


## 5、其他想法


本例中进行了两种数据分析,虽为进阶版,但是还是有很多可以继续发挥的地方:


* 分析工作年限和工资的关系并展示、预测
* 统计不同工作岗位的薪资差别
* 利用多线程或多进程提升效率


有兴趣的可以尝试做一下。



完整代码:



#-*- coding: utf-8 -*-
import re
import csv
import jieba
import numpy
import requests
from tqdm import tqdm
import pandas as pd
from scipy.misc import imread
from wordcloud import WordCloud, ImageColorGenerator
from collections import Counter
from bs4 import BeautifulSoup
import matplotlib.pyplot as plt
from requests.exceptions import RequestException

def get_one_page(city, keyword, region, page):
‘’’ 获取网页html内容并返回 *‘’'*paras = {
‘jl’: city, # 搜索城市
‘kw’: keyword, # 搜索关键词
‘isadv’: 0, # 是否打开更详细搜索选项
‘isfilter’: 1, # 是否对结果过滤
‘sg’: ‘d5259c62115f44e3bbb380dc88411919’,
‘p’: page, # 页数
‘re’: region # region的缩写,地区,2005代表海淀
}

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.108 Safari/537.36',

‘Host’: ‘sou.zhaopin.com’,
‘Referer’: ‘http://sou.zhaopin.com/jobs/searchresult.ashx?jl=530&kw=python%E5%B7%A5%E7%A8%8B%E5%B8%88&sm=0&p=1’,
‘Accept’: ‘text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8’,
‘Accept-Encoding’: ‘gzip, deflate’,
‘Accept-Language’: ‘zh-CN,zh;q=0.9’
}

url = 'https://sou.zhaopin.com/jobs/searchresult.ashx?'

try:
# 获取网页内容,返回html数据
response = requests.get(url, params=paras, headers=headers)
print(response.url)
# 通过状态码判断是否获取成功
if response.status_code == 200:
return response.text
return None except RequestException as e:
return None****def parse_one_page(html):
‘’’ 解析HTML代码,提取有用信息并返回 ‘’'# 正则表达式进行解析
pattern = re.compile(‘<td class=“zwmc”.*?href=“(.*?)” target=“_blank”>(.*?).*?’ # 匹配职位详情地址和职位名称
‘.*? target=“_blank”>(.*?).*?’ # 匹配公司名称
‘(.*?)’, re.S) # 匹配月薪

匹配所有符合条件的内容

items = re.findall(pattern, html)

**for** item **in** items:
    job_name = item[1]
    job_name = job_name.replace('<b>', '')
    job_name = job_name.replace('</b>', '')

    salary_avarage = 0

temp = item[3]
if temp != ‘面议’:
idx = temp.find(‘-’)
# 求平均工资
salary_avarage = (int(temp[0:idx]) + int(temp[idx+1:]))//2

html = get_detail_page(job_url)

print(html)

yield {
‘job’: job_name,
‘job_url’: item[0],
‘company’: item[2],
‘salary’: salary_avarage
}

def get_detail_page(url):
‘’’ 获取职位详情页html内容并返回 *‘’'*headers = {
‘User-Agent’: ‘Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36’,
‘Host’: ‘jobs.zhaopin.com’,
‘Accept’: ‘text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,image/apng,*/*;q=0.8’,
‘Accept-Encoding’: ‘gzip, deflate’,
‘Accept-Language’: ‘zh-CN,zh;q=0.9’
}

**try**:
    # 获取网页内容,返回html数据

response = requests.get(url, headers=headers)
# 通过状态码判断是否获取成功
if response.status_code == 200:
return response.text
return None except RequestException as e:
return None****def get_job_detail(html):
requirement = ‘’

使用BeautifulSoup进行数据筛选

soup = BeautifulSoup(html, ‘html.parser’)
# 找到

  • 标签
    for ul in soup.find_all(‘ul’, class_=‘terminal-ul clearfix’):
    # 该标签共有8个子标签,分别为:

职位月薪|工作地点|发布日期|工作性质|工作经验|最低学历|招聘人数|职位类别

lis = ul.find_all(‘strong’)
# 工作经验
years = lis[4].get_text()
# 最低学历
education = lis[5].get_text()
# 筛选任职要求
for terminalpage in soup.find_all(‘div’, class_=‘terminalpage-main clearfix’):
for box in terminalpage.find_all(‘div’, class_=‘tab-cont-box’):
cont = box.find_all(‘div’, class_=‘tab-inner-cont’)[0]
ps = cont.find_all(‘p’)
# “立即申请"按钮也是个p标签,将其排除
for i in range(len(ps) - 1):
requirement += ps[i].get_text().replace(”\n", “”).strip() # 去掉换行符和空格

筛选公司规模,该标签内有四个或五个
  • 标签,但是第一个就是公司规模

scale = soup.find(class_=‘terminal-ul clearfix terminal-company mt20’).find_all(‘li’)[0].strong.get_text()

**return** {'years': years, 'education': education, 'requirement': requirement, 'scale': scale}

def write_csv_file(path, headers, rows):
‘’’ 将表头和行写入csv文件 ‘’'# 加入encoding防止中文写入报错

newline参数防止每写入一行都多一个空行

with open(path, ‘a’, encoding=‘gb18030’, newline=‘’) as f:
f_csv = csv.DictWriter(f, headers)
f_csv.writeheader()

做了那么多年开发,自学了很多门编程语言,我很明白学习资源对于学一门新语言的重要性,这些年也收藏了不少的Python干货,对我来说这些东西确实已经用不到了,但对于准备自学Python的人来说,或许它就是一个宝藏,可以给你省去很多的时间和精力。

别在网上瞎学了,我最近也做了一些资源的更新,只要你是我的粉丝,这期福利你都可拿走。

我先来介绍一下这些东西怎么用,文末抱走。


(1)Python所有方向的学习路线(新版)

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

(4)200多本电子书

这些年我也收藏了很多电子书,大概200多本,有时候带实体书不方便的话,我就会去打开电子书看看,书籍可不一定比视频教程差,尤其是权威的技术书籍。

基本上主流的和经典的都有,这里我就不放图了,版权问题,个人看看是没有问题的。

(5)Python知识点汇总

知识点汇总有点像学习路线,但与学习路线不同的点就在于,知识点汇总更为细致,里面包含了对具体知识点的简单说明,而我们的学习路线则更为抽象和简单,只是为了方便大家只是某个领域你应该学习哪些技术栈。

在这里插入图片描述

(6)其他资料

还有其他的一些东西,比如说我自己出的Python入门图文类教程,没有电脑的时候用手机也可以学习知识,学会了理论之后再去敲代码实践验证,还有Python中文版的库资料、MySQL和HTML标签大全等等,这些都是可以送给粉丝们的东西。

在这里插入图片描述

这些都不是什么非常值钱的东西,但对于没有资源或者资源不是很好的学习者来说确实很不错,你要是用得到的话都可以直接抱走,关注过我的人都知道,这些都是可以拿到的。

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化学习资料的朋友,可以戳这里无偿获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 25
    点赞
  • 24
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值