15分钟,教你用Python爬网站数据,并用BI可视化分析!_招聘网站信息抓取可视化分析

作为一名在数据行业打拼了两年多的数据分析师,虽然目前收入还算ok,但每每想起房价,男儿三十还未立,内心就不免彷徨不已~

两年时间里曾经换过一份工作,一直都是从事大数据相关的行业。目前是一家企业的BI工程师,主要工作就是给业务部门出报表和业务分析报告。

回想自己过去的工作成绩也还算是不错的,多次通过自己分析告,解决了业务的疑难杂症,领导们各种离不开。

但安逸久了总会有点莫名的慌张,所以我所在的这个岗位未来会有多大发展空间,十年之后我能成为什么样的人呢?自己的收入空间还有多少?

一番惆怅之后,别再问路在何方了,于是抄起自己的“家伙”,花了一小会时间爬了智联招聘上BI岗位的数据信息,做了个分析。

PS:所用工具为Python+BI

数据分析的过程如同烧一顿饭,先要数据采集(买菜),然后数据建模(配菜)、数据清洗(洗菜)、数据分析(做菜)、数据可视化(摆盘上菜)。

所以第一步,要采集/选择数据。

一、Python爬取智联招聘岗位信息(附源码)

选择智联招聘,通过Python来进行“BI工程师”的关键数据信息的爬取,这里大家也可以试着爬取自己岗位的关键词,如“数据分析师”、“java开发工程师 ”等。经过F12分析调试,数据是以JSON的形式存储的,可以通过智联招聘提供的接口调用返回。

img
那么我这边通过Python对智联招聘网站的数据进行解析,爬取了30页数据,并且将岗位名称、公司名称、薪水、所在城市、所属行业、学历要求、工作年限这些关键信息用CSV文件保存下来。

附上完整Python源码:

import requests
import json
import csv
from urllib.parse import urlencode
import time
 
def saveHtml(file_name,file_content): #保存conten对象为html文件
 with open(file_name.replace('/','_')+'.html','wb') as f:
 f.write(file_content)
 
def GetData(url,writer):#解析并将数据保存为CSV文件
 response= requests.get(url)
 data=response.content
 saveHtml('zlzp',data) #保存html文件
 jsondata=json.loads(data)
 dataList=jsondata['data']['results']
 #print(jsondata)
 for dic in dataList:
 jobName=dic['jobName'] #岗位名称
 company=dic['company']['name'] #公司名称
 salary=dic['salary'] #薪水
 city=dic['city']['display'] #城市
 jobtype = dic['jobType']['display'] #所属行业
 eduLevel=dic['eduLevel']['name'] #学历要求
 workingExp=dic['workingExp']['name'] #工作经验
 print(jobName,company,salary,city,jobtype,eduLevel,workingExp)
 writer.writerow([jobName,company,salary,city,jobtype,eduLevel,workingExp])
param={ 'start':0,
 'pageSize':60,
 'cityId':489,
 'workExperience':-1,
 'education':-1,
 'companyType': -1,
  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Python虫综合作业的数据分析是基于抓取Python职位数据的结果进行分析和展示。首先,我们需要使用Python虫技术抓取招聘网站或者职位搜索平台上的Python职位相关信息,包括职位名称、薪资、公司名称、工作地点、发布日期等。 抓取到的数据可以存储在数据库中,比如MySQL或者MongoDB等。接下来,我们可以使用数据分析和可的库,比如pandas、numpy、matplotlib等,对数据进行处理和可分析。 首先,我们可以使用pandas进行数据清洗和转换,比如去除重复数据、空数据、格式转换等。然后,我们可以使用pandas进行数据统计和分析,比如计算平均薪资、城市分布、公司薪资排名等。 接着,我们可以使用matplotlib库进行数据。可以绘制一些统计图表,比如直方图、饼图、散点图、折线图等,以展示数据的分布、趋势和关联性。比如,我们可以通过柱状图展示不同城市Python职位的数量,通过饼图展示不同薪资区间的职位比例等。 此外,我们还可以使用其他可工具进行更加复杂和多样数据展示。比如使用Tableau、Power BI等工具,可以生成更加交互式和美观的数据报表和仪表盘,让数据更加直观和易于理解。 最后,我们可以对可的结果进行解读和分析,从中获取一些有用并且具有洞察力的信息。比如,我们可以发现哪些城市的Python职位需求量较高,哪些薪资区间的职位更为普遍等。 综上所述,通过Python虫技术抓取Python职位数据,并使用数据分析和可工具对其进行分析和展示,可以帮助我们更好地了解Python职位市场的情况,并从中获取有价值的信息

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值