用python分析招聘网站关于数据分析的工作岗位(1)

CompanyNature = selector.xpath(‘//div[@class=“tCompany_sidebar”]/div/div[2]/p[1]/text()’).extract()[0].strip().replace(‘,’,‘;’)

CompanySize = selector.xpath(‘//div[@class=“tCompany_sidebar”]/div/div[2]/p[2]/text()’).extract()[0].strip().replace(‘,’,‘;’)

IndustryField = selector.xpath(‘//div[@class=“tCompany_sidebar”]/div/div[2]/p[3]/text()’).extract()[0].strip().replace(‘,’,‘;’)

Salary = selector.xpath(‘//div[@class=“cn”]/strong/text()’).extract()[0].strip().replace(‘,’,‘;’)

infos = selector.xpath(‘//div[@class=“cn”]/p[2]/text()’).extract()

Workplace = infos[0].strip().replace(’ ‘,’‘).replace(’,‘,’;')

Workyear = infos[1].strip().replace(’ ‘,’‘).replace(’,‘,’;')

if len(infos) == 4:

Education = ‘’

RecruitNumbers = infos[2].strip().replace(’ ‘, ‘’).replace(’,‘,’;')

ReleaseTime = infos[3].strip().replace(’ ‘, ‘’).replace(’,‘,’;')

else:

Education = infos[2].strip().replace(’ ‘, ‘’).replace(’,‘,’;')

RecruitNumbers = infos[3].strip().replace(’ ‘, ‘’).replace(’,‘,’;')

ReleaseTime = infos[4].strip().replace(’ ‘, ‘’).replace(’,‘,’;')

if len(infos) == 7:

Language, Specialty = infos[5].strip().replace(’ ‘,’‘), infos[6].strip().replace(’ ‘,’‘).replace(’,‘,’;')

elif len(infos) == 6:

if ((‘英语’ in infos[5]) or (‘话’ in infos[5])):

Language, Specialty = infos[5].strip().replace(’ ‘,’‘).replace(’,‘,’;'), ‘’

else:

Language, Specialty = ‘’, infos[5].strip().replace(’ ‘,’‘).replace(’,‘,’;')

else:

Language, Specialty = ‘’, ‘’

Welfare = selector.xpath(‘//div[@class=“t1”]/span/text()’).extract()

PositionAdvantage = ‘;’.join(Welfare).replace(‘,’, ‘;’)

item[‘JobTitle’] =JobTitle

item[‘CompanyName’] =CompanyName

item[‘CompanyNature’] =CompanyNature

item[‘CompanySize’] = CompanySize

item[‘IndustryField’] = IndustryField

item[‘Salary’] =Salary

item[‘Workplace’] = Workplace

item[‘Workyear’] =Workyear

item[‘Education’] =Education

item[‘RecruitNumbers’] = RecruitNumbers

item[‘ReleaseTime’] =ReleaseTime

item[‘Language’] = Language

item[‘Specialty’] = Specialty

item[‘PositionAdvantage’] = PositionAdvantage

yield item

保存到csv文件

通过pipelines项目管道保存至csv文件

class Job51Pipeline(object):

def process_item(self, item, spider):

with open(r’D:\Data\ZhaoPin.csv’,‘a’, encoding = ‘gb18030’) as f:

job_info = [item[‘JobTitle’], item[‘CompanyName’], item[‘CompanyNature’], item[‘CompanySize’], item[‘IndustryField’], item[‘Salary’], item[‘Workplace’], item[‘Workyear’], item[‘Education’], item[‘RecruitNumbers’], item[‘ReleaseTime’],item[‘Language’],item[‘Specialty’],item[‘PositionAdvantage’],‘\n’]

f.write(“,”.join(job_info))

return item

配置setting

设置用户代理, 下载延迟0.5s, 关闭cookie追踪, 调用pipelines

USER_AGENT = ‘Mozilla/5.0 (Windows NT 6.3; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/68.0.3440.106 Safari/537.36’

DOWNLOAD_DELAY = 0.5

COOKIES_ENABLED = False

ITEM_PIPELINES = {

‘job51.pipelines.Job51Pipeline’: 300,

}

运行程序

新建main.py文件, 并执行以下代码

from scrapy import cmdline

cmdline.execute(‘scrapy crawl zhaopin’.split())

这样开始了数据爬取, 最终爬取到9000多条数据, 在分析这些数据之前, 先看看数据都是什么样, 进入数据概览环节.

数据概览


读取数据

import pandas as pd

df = pd.read_csv(r’D:\aPython\Data\DataVisualization\shujufenxishiJob51.csv’)

#由于原始数据中没有字段, 需要为其添加字段

df.columns = [‘JobTitle’,‘CompanyName’,‘CompanyNature’,‘CompanySize’,‘IndustryField’,‘Salary’,‘Workplace’,‘Workyear’,‘Education’,‘RecruitNumbers’, ‘ReleaseTime’,‘Language’,‘Specialty’,‘PositionAdvantage’]

df.info()

抛出异常: UnicodeDecodeError: 'utf-8' codec can't decode byte 0xbd in position 0: invalid start byte

  • 解决办法; 用Notepad++将编码转换为utf-8 bom格式

转换之后, 再次执行

抛出异常: ValueError: Length mismatch: Expected axis has 15 elements, new values have 14 elements

  • 解决办法: 在列表[‘JobTitle…PositionAdvantage’]后面追加’NNN’, 从而补齐15个元素.

追加之后, 再次执行, 执行结果为:

<class ‘pandas.core.frame.DataFrame’>

RangeIndex: 9948 entries, 0 to 9947

Data columns (total 15 columns):

JobTitle 9948 non-null object

CompanyName 9948 non-null object

CompanyNature 9948 non-null object

CompanySize 9948 non-null object

IndustryField 9948 non-null object

Salary 9948 non-null object

Workplace 9948 non-null object

Workyear 9948 non-null object

Education 7533 non-null object

RecruitNumbers 9948 non-null object

ReleaseTime 9948 non-null object

Language 901 non-null object

Specialty 814 non-null object

PositionAdvantage 8288 non-null object

NNN 0 non-null float64

dtypes: float64(1), object(14)

memory usage: 1.1+ MB

可以了解到的信息: 目前的数据维度9948行X15列, Education, Language, Specialty, PositionAdvantage有不同程度的缺失(NNN是最后添加, 仅仅是用来补齐15元素), 14个python对象(1个浮点型)

描述性统计

由于我们所需信息的数据类型都是python对象, 故使用以下代码

#注意是大写的字母o

df.describe(include=[‘O’])

从以下信息(公司名称部分我没有截图)中可以得到:

职位名称中’数据分析师’最多, 多为民营公司, 公司规模150-500人最多, 行业领域金融/投资/证券最多, 薪资中6-8千/月最多, 大多对工作经验没有要求, 学历要求多为本科, 多数均招1人等信息.

在这里插入图片描述

职位名称的种类就有4758种, 他们都是我们本次分析的数据分析师岗位吗, 先来确认下:

zhaopin.JobTitle.unique()

array([‘零基础免费培训金融外汇数据分析师’, ‘数据分析师(周末双休+上班舒适)’, ‘数据分析师’, …,

‘数据分析实习(J10635)’, ‘数据分析实习(J10691)’, ‘数据分析实习(J10713)’], dtype=object)

这仅仅显示了职位名称中的一部分,而且还都符合要求, 换种思路先看20个

JobTitle = zhaopin.groupby(‘JobTitle’, as_index=False).count()

JobTitle.JobTitle.head(20)

0 (AI)机器学习开发工程师讲师

1 (ID67391)美资公司数据分析

2 (ID67465)美资公司数据分析

3 (ID67674)500强法资汽车制造商数据分析专员(6个月)

4 (ID67897)知名500强法资公司招聘数据分析专员

5 (Senior)DataAnalyst

6 (免费培训)数据分析师+双休+底薪

7 (实习职位)BusinessDataAnalyst/业务数据分析

8 (急)人力销售经理

9 (提供食宿)银行客服+双休

10 (日语)股票数据分析员/EquityDataAnalyst-Japanese/

11 (越南语)股票数据分析员/EquityDataAnalyst-Vietnam

12 (跨境电商)产品专员/数据分析师

13 (韩语)股票数据分析员/EquityDataAnalyst-Korean

14 ***数据分析

15 -数据分析师助理/实习生

16 -数据分析师助理/统计专员+双休五险+住宿

17 -无销售不加班金融数据分析师月入10k

18 -金融数据分析师助理6k-1.5w

19 -金融数据分析师双休岗位分红

Name: JobTitle, dtype: object

可以看到还有机器学习开发讲师, 人力销售经理, 银行客服等其他无效数据.

现在我们对数据有了大致的认识, 下来我们开始数据预处理.

数据预处理


数据清洗

数据清洗的目的是不让有错误或有问题的数据进入加工过程, 其主要内容包括: 重复值, 缺失值以及空值的处理

删除重复值

如果数据中存在重复记录, 而且重复数量较多时, 势必会对结果造成影响, 因此我们应当首先处理重复值.

#删除数据表中的重复记录, 并将删除后的数据表赋值给zhaopin

zhaopin = df.drop_duplicates(inplace = False)

zhaopin.shape

(8927, 15)

对比之前的数据, 重复记录1021条.

过滤无效数据

我们了解到职位名称中存在无效数据, 我们对其的处理方式是过滤掉.

#筛选名称中包含’数据’或’分析’或’Data’的职位

zhaopin = zhaopin[zhaopin.JobTitle.str.contains(‘.?数据.?|.?分析.?|.?Data.?’)]

zhaopin.shape

(7959, 15)

缺失值处理

在pandas中缺失值为NaN或者NaT, 其处理方式有多种:

  1. 利用均值等集中趋势度量填充

  2. 利用统计模型计算出的值填充

  3. 保留缺失值

  4. 删除缺失值

#计算每个特征中缺失值个数

zhaopin.isnull().sum()

JobTitle 0

CompanyName 0

CompanyNature 0

CompanySize 0

IndustryField 0

Salary 0

Workplace 0

Workyear 0

Education 1740

RecruitNumbers 0

ReleaseTime 0

Language 7227

Specialty 7244

PositionAdvantage 1364

NNN 7959

dtype: int64

  • Education: 缺失值占比1740/7959 = 21.86%, 缺失很有可能是"不限学历", 我们就用"不限学历"填充

zhaopin.Education.fillna(‘不限学历’, inplace=True)

  • Language: 缺失值占比7227/7959 = 90.80%, 缺失太多, 删除特征

  • Specialty: 缺失值占比7244/7959 = 91.02%, 同样缺失很多, 删除

zhaopin.drop([‘Specialty’,‘Language’], axis=1, inplace = True)

  • PositionAdvantage: 缺失占比1364/7959 = 17.14%, 选用众数中的第一个’五险一金’填充

zhaopin.PositionAdvantage.fillna(zhaopin.PositionAdvantage.mode()[0], inplace = True)

  • NNN: 没有任何意义, 直接删除

zhaopin.drop([“NNN”], axis=1, inplace = True)

最后, 检查缺失值是否处理完毕

zhaopin.isnull().sum()

JobTitle 0

CompanyName 0

CompanyNature 0

CompanySize 0

IndustryField 0

Salary 0

Workplace 0

Workyear 0

Education 0

RecruitNumbers 0

ReleaseTime 0

PositionAdvantage 0

dtype: int64

数据加工


由于现有的数据不能满足我们的分析需求, 因此需要对现有数据表进行分列, 计算等等操作.

自我介绍一下,小编13年上海交大毕业,曾经在小公司待过,也去过华为、OPPO等大厂,18年进入阿里一直到现在。

深知大多数Python工程师,想要提升技能,往往是自己摸索成长或者是报班学习,但对于培训机构动则几千的学费,着实压力不小。自己不成体系的自学效果低效又漫长,而且极易碰到天花板技术停滞不前!

因此收集整理了一份《2024年Python开发全套学习资料》,初衷也很简单,就是希望能够帮助到想自学提升又不知道该从何学起的朋友,同时减轻大家的负担。
img
img



既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,基本涵盖了95%以上Python开发知识点,真正体系化!

由于文件比较大,这里只是将部分目录大纲截图出来,每个节点里面都包含大厂面经、学习笔记、源码讲义、实战项目、讲解视频,并且后续会持续更新

如果你觉得这些内容对你有帮助,可以添加V获取:vip1024c (备注Python)
img

(1)Python所有方向的学习路线(新版)

这是我花了几天的时间去把Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

最近我才对这些路线做了一下新的更新,知识体系更全面了。

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
img

在这里插入图片描述

(2)Python学习视频

包含了Python入门、爬虫、数据分析和web开发的学习视频,总共100多个,虽然没有那么全面,但是对于入门来说是没问题的,学完这些之后,你可以按照我上面的学习路线去网上找其他的知识资源进行进阶。

在这里插入图片描述

(3)100多个练手项目

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了,只是里面的项目比较多,水平也是参差不齐,大家可以挑自己能做的项目去练练。

在这里插入图片描述

一个人可以走的很快,但一群人才能走的更远。不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎扫码加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!
[外链图片转存中…(img-81IFtfrt-1712553538706)]

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值