51 Job招聘数据分析与可视化

本文通过爬虫获取51Job2017年3月到5月的数据岗位招聘信息,分析了数据岗位的地域分布、企业情况、薪酬等维度,揭示了大数据行业在一线城市及沿海地区的活跃度,民营企业在数据岗位中的主导地位,以及不同技能与薪酬的关系。通过SAS EM建模,使用Logistic回归等方法进行预测。
摘要由CSDN通过智能技术生成

招聘数据分析与可视化

背景

为了分析现有数据行业的招聘情况,抓取2017年3月14日到2017年5月13日发布在51Job上的数据相关招聘职位116273条信息,并从中筛选出职位是数据分析、数据挖掘、文本挖掘、视觉学习、计算广告、数据开发、数据架构师等的数据岗位招聘信息10134条。
从地域分布、企业情况、岗位需求、薪酬等维度去量化分析数据岗位的招聘现状。发现不同薪酬分层下的岗位数量基本与城市发展趋势、行业汇聚、人才聚集呈现正比。
地域分布上,大数据的发展,当前最活跃于发达的一线城市以及沿海地区,但是二线城市中杭州、南京、成都、武汉也是可以选择的。
企业情况上,行业主要集中在电子商务、金融、IT软件等轻资产企业,同时,零售、电信也具有一定需求;企业属性主要是民企、合资企业和上市公司三大类,民营企业占据半边天;企业规模上,数据岗位只有在一定规模的企业,才能凸显重要性,50~500人之间的企业成为主要的岗位提供者。
选择企业行业、企业性质、企业规模、工作地域、学历、技能(r,sas、python、hadoop、spark、excel、java、sql、hive、hbase),其中技能做二值化处理进行模型构建。使用SAS EM进行建模,利用树代替对数值和属性变量进行补缺,最优转换进行变量转换,比较Logistc回归、神经网络、随机森林、梯度Boosting和决策树。

数据抽取

爬虫获取

基于Python的51job招聘网站的数据分析可视化期末大作业是使用Python编程语言对51job招聘网站上的就业数据进行分析和可视化展示的项目。 数据分析是通过对招聘网站上的大量职位信息进行提取、清洗和统计分析来获取有价值的信息的过程。这个项目中,我们可以使用Python的爬虫技术从51job网站上获取职位信息,并对获取到的数据进行清洗和整理。 在数据分析的过程中,我们可以使用Python的各种数据处理和分析库,比如pandas和numpy等,对数据进行统计分析,如职位数量、工资水平、招聘公司、工作地点等方面的统计。我们可以使用这些统计结果来获取就业市场的概况和趋势,并对不同职位、行业和地区进行比较和分析。 除了数据分析可视化也是一个重要的环节。通过使用Python的数据可视化库,如matplotlib和seaborn等,我们可以将分析结果以图表的形式展示出来,使得数据更具有可读性和可理解性。我们可以使用柱状图、折线图、饼图等来展示不同方面的数据,从而更好地传达对数据的理解和分析。 此外,我们还可以将可视化结果更进一步地呈现在网页上,通过使用Flask等web开发框架来构建一个网页应用,用户可以通过网页来查看和交互操作可视化图表,从而深入了解就业市场的情况。 综上所述,基于Python的51job招聘网站的数据分析可视化期末大作业是通过使用Python编程语言进行数据爬取、清洗、分析和可视化,以获取对就业市场的深入理解和有价值的洞察。这个项目将数据分析可视化结合起来,通过直观、清晰的图表展示,将分析结果更好地传达给用户。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值