基于互联网的招聘信息统计与分析(作业)

实习要求:

  • ** 一、基于互联网的招聘信息统计与分析:**
    项目流程

    • 1.项目简介:

      • 该项目通过挖掘和分析互联网的招聘信息,并将进行数据统计与分析,把不同的岗位薪酬,相同岗位的不同待遇等方面进行对比。可以直观的感受岗位、薪资和就业前景,更加直观的展望行业的未来,把握就业的最新动态。
    • 2.数据来源:

      • Python爬取拉钩招聘网的关于python岗位的招聘信息。
    • 3.环境搭建

      • 我使用的是原有的教学中的node-01、node-02、node-03基础上克隆一台node-04作为可视化虚拟机
    • 4.数据预处理

      • 创建Maven项目,选择jar打包方式,编写MapReduce程序,执行数据预处理
    • 5.数据仓库

      • 从节点连接至hive服务端,创建名为lagou的数据仓库,创建表,导入数据
    • 6.数据分析

      • 通过hive将字段明细表继续查询
    • 7.数据导出

      • 运动sqoop将hive中的表数据导出到MySQL关系数据库中,方便可视化
    • 8.可视化

      • 将抽象的数据图形化,采用Echarts辅助实现
  • 二、搭建node-04搭建可视化节点

    • 1.克隆

    • 2.修改node-04配置

      • (1)修改node-04的ip

      • (2)修改node-04的主机名

      • (3)删除物理地址绑定文件

      • (4)重启查看

      • (5)ping外网

      • (6)修改虚拟机 /etc/hosts

      • (7)修改myid

      • (8)修改zoo.cfg

      • (9)查看集群效果

  • 三、获取数据python爬虫获取

    • 1.模拟浏览器爬取拉勾关于python的岗位信息

    • 2.爬取

  • 四、数据预处理 文件传输至hdfs,编写mr清洗数据

    • 1.rz导入表格

    • 2.flume上传

    • 3.flume启动

    • 3.flume采集日志

  • 五、存储数据到hive和hdfs
    hive

    • 1.安装hive

    • 2.解压hive

    • 3.重命名

    • 4.配置

    • 5.装载mysql驱动

    • 6.删除guava包

    • 7. ./schematool -dbType mysql -initSchema

      • 错误原因:hadoop和hive的两个guava.jar版本不一致

      • 解决办法:删除低版本的那个,将高版本的复制到低版本目录下

        • 再次运行,成功

    • 8.修改配置

    • 9.启动hive

    • 10.hive创建python_job表

      • 查看python_job表

    • 11.尝试hive内部导入 load data inpath “/export/Lagou.csv” into table lagou; 报错

      因为我们还没有往hdfs导入文件

    • 12.在完成六、七、八后已经可以解决这个问题,同时使用本地内存完成set hive.exec.mode.local.auto=true;再次尝试

      • 再次导入数据,成功。经过后面的修改,修改为lagou_data

  • 六、修改hdfs配置

  • 节点磁盘、内存全为0,因为多次格式化,需要修正

    • 1.搭建好平台后,使用hadoop fs -put向hadoop中上传文件时,报以下错误

      • 1.1查看jps发现能查到节点信息

      • 1.2使用hadoop dfsadmin -report命令查看磁盘使用情况,发现都是空的

    • 2.这个问题一般是由于使用hadoop namenode -format 格式化多次,导致spaceID不一致造成的,解决方法如下:

      • 2.1停止集群所有的服务。指令为:stop-all.sh

      • 2.2删除hdfs中配置的data目录下的所有文件(级core-site.xml中配置的hadoop.tmp.dir)。

      • 2.3重新格式化namenode。指令为:hadoop namenode -format

      • 2.4重新启动hadoop集群。指令为:start-all.sh 再使用hadoop dfsadmin -report查看

      • 成功,进行下一步。

  • 七、向hive导入数据
    将数据导入到hive中,便于下一步分析

    • 1.查看hive里的数据库

    • 2.查看hdfs,这里的lagou对应hive里面创建的lagou表

    • 3.导入数据,同时存在于dfs和hive

    • 4.从hive查看

    • 至此,hive存储数据已经完成了,接下来就可以将数据存放在mysql中了

  • 八、hive数据分析

  • 分析:“python开发工程师”,“python数据工程师”等岗位在北京、上海、深圳、程度的岗位数
    分析相关岗位学历的薪资水平,并做出条形图展示出来。由于爬取的工资是一个范围,并且是k表示,所以将“k”替换为“000”,并取中间值
    分析“python开发工程师”、“python工程师”、“Python后端”等岗位的平均工资、最高工资、最低工资,并作条形图将结果展示出来;

    • 1.要进行的分析:“python开发工程师”,“python数据工程师”等岗位在北京、上海、深圳、程度的岗位数

      • 1.1尝试直接用分析"python数据工程师",发生错误

      • 1.2查看错误,发现要开启yarn

      • 1.3再次分析,错误

        • 1.3.1尝试其他方法
      • 1.4 分析“python开发工程师”、“python工程师”、“Python数据工程师”"python后端"等大数据相关岗位在成都、北京、上海、广州、深圳的岗位数,并做饼图将结果展示出来。

        analysis_1:计算python开发工程师岗位数量
        analysis_2:计算python工程师岗位数量
        analysis_3:计算Python数据工程师岗位数量

        • 1.4.1计算python开发工程师岗位数量

          • 导入

          • ①发生错误,查看原因:namenode内存空间不够,jvm不够新job启动导致。解决方法:将hive可以设置成本地模式来执行任务试试:set hive.exec.mode.local.auto=true;

          • ②改为本地模式,再次启动,成功

          • ③继续分析北京、上海、广东、深圳

          • 查看

        • 1.4.2计算python工程师岗位数量

          • 导入

          • 查看

        • 1.4.3计算Python数据工程师岗位数量

          • 导入

          • 查看

          • 发现关于“数据工程师”的岗位为0

          • 查看csv文件,发现确实没有相关岗位信息,换一个岗位“%python后端%”

        • 1.4.4计算python后端岗位数量

          • 导入

          • 查看,发现仍保留了数据开发的值

          • ①删除关于数据开发的结果

          • ②再次insert

          • 查看

    • 2.分析相关岗位学历的薪资水平,并做出条形图展示出来。由于爬取的工资是一个范围,并且是k表示,所以将“k”替换为“000”,并取中间值

      • 2.1重新导入数据

      • 2.3在hdfs和hive创建表

      • 2.4上传数据

      • 2.5查看,这一次薪酬输出的是int,可以进行下一步的分析

      • 2.6创建表education,存储工作名称,薪资,学历要求

        • 重命名为edu

      • 2.7创建表edu_money,用来存储平均、最高、最低工资

      • 2.8将学历分为“本科”“大专”“不限”,求平均、最大、最小薪资

        • 查看

    • 3.分析“python开发工程师”、“python工程师”、“Python后端”等岗位的平均工资、最高工资、最低工资,并作条形图将结果展示出来;

      • 3.1新建一个的表,名字随便取,我这儿就取的是job_salary,创建四个字段,分别用来存储工作名称,最高,最低,平均工资

      • 3.2再创建一个过度表,名字取caiji,用来装名称,薪资,地点三个数据

      • 3.3然后就向job_salary表插入数据

        • 查看数据

        • 经过调整,如下。显示出三种岗位薪资的平均值,最小值和最大值

    • 4.导出数据到hdfs中

      • 查看数据

      • 4.1python开发工程师饼图

      • 4.2python工程师饼图

      • 4.3python数据工程师饼图

      • 4.4学历

      • 4.5三个职业薪资水平

    • 5.用sqoop将数据存储到mysql中

      • 5.1 通过sqoop查看mysql所有数据库和表,可以发现mysql下的表为空。我们要将python_job python_houduan python_shuju python_kaifa job_salary edu_money导入到mysql

  • 九、sqoop连接mysql

  • 十、数据导出
    用sqoop将数据存储到mysql

    • 1.导入三种岗位在不同地域的岗位数量:python_kaifa python_shuju python_houduan,首先要在mysql中创建相同数据类型的表。

    • 2.尝试导入:先将hive中的python_job导入mysql表中的lagou_data 出现错误

      • 2.1解决:在命令行输入:hadoop classpath

      • 2.2 把上述输出的值添加到yarn-site.xml文件对应的属性 yarn.application.classpath下面

      • 2.3重启yarn,关闭防火墙,再次导入mysql。出现错误:缺少jar包

      • 2.4进入/tmp/sqoop-root/compile下查看

        • ①选择第一个进入,复制lagou_data.jar到sqoop/bin目录下

        • ②运行,出现错误

        • ③查询,修改hosts,并且使用主机名

      • 2.5再次运行,发现map已经跑完了还报错。说明是mysql有问题,可能是mysql创建对应表的字段的长度不够。换一个表:python开发工程师python_kaifa后再次运行。成功 从mysql查看与hive数据一致但是没有jobNumber,需要修改编码格式再导入

      • 2.6删除mysql中的表修改mysql端的库和表的格式

        • 2.6.1删除表和库

        • 2.6.2再次创建python_kaifa

        • 2.6.3先查看lagou库的格式,如果不是utf8则修改

          SHOW CREATE DATABASE lagou;

        • 2.6.4可以发现lagou库的格式为latin1,修改其格式

          ALTER DATABASE lagou DEFAULT CHARACTER SET utf8;

        • 2.6.5查看库中的表的编码格式,不是则修改为utf8

          SHOW CREATE TABLE lagou.python_kaifa;

        • 2.6.6同样将其修改为utf8

          ALTER TABLE lagou.python_kaifa CONVERT TO CHARACTER SET utf8 COLLATE utf8_general_ci;

        • 2.6.7创建其他表,发现全部随lagou库变为utf8

      • 2.7 同上,将其他数据导入MySQL

        • ①python后端python_houduan,在mysql中查看

          sqoop export --connect “jdbc:mysql://127.0.0.1:3306/lagouuseUnicode=true&characterEncoding=utf-8” --username root --password Lyh123456! --table python_houduan --export-dir /user/hive/warehouse/lagou.db/python_houduan --input-fields-terminated-by ‘’

        • ②python工程师python_shuju,在mysql中查看

          sqoop export --connect “jdbc:mysql://127.0.0.1:3306/lagouuseUnicode=true&characterEncoding=utf-8” --username root --password Lyh123456! --table python_shuju --export-dir /user/hive/warehouse/lagou.db/python_shuju --input-fields-terminated-by ‘’

        • ③创建学历与薪资的关系表 edu_money并导入数据,并在mysql中查看

          sqoop export --connect “jdbc:mysql://127.0.0.1:3306/lagouuseUnicode=true&characterEncoding=utf-8” --username root --password Lyh123456! --table edu_money --export-dir /user/hive/warehouse/lagou.db/edu_money --input-fields-terminated-by ‘’

        • ④创建岗位工资的平均最大最小的表job_salary,在mysql中查看

          sqoop export --connect “jdbc:mysql://127.0.0.1:3306/lagouuseUnicode=true&characterEncoding=utf-8” --username root --password Lyh123456! --table job_salary --export-dir /user/hive/warehouse/lagou.db/job_salary --input-fields-terminated-by ‘’

        • ⑤导入python_kaifa,在mysql中查看,没有乱码,显示完整

          sqoop export --connect “jdbc:mysql://127.0.0.1:3306/lagouuseUnicode=true&characterEncoding=utf-8” --username root --password Lyh123456! --table python_kaifa --export-dir /user/hive/warehouse/lagou.db/python_kaifa --input-fields-terminated-by ‘’

  • 十一、可视化
    利用pymysql和pyecharts实现数据可视化

    • 1.mysql授权

      GRANT ALL PRIVILEGES ON *.* TO ‘root’@‘%’ IDENTIFIED BY ‘Lyh123456!’ WITH GRANT OPTION;

      • 1.1mysql-front可以查看数据,代表mysql可以被连接

      • 1.2python通过pymysql连接mysql表

    • 2地区岗位数

      • 1.1python开发工程师 后面的表格可视化只需要修改sql = "select * from 表格名称"即可

        import pymysql
        from pyecharts.charts import Pie
        from pyecharts import options as opts
        db = pymysql.connect(host=“192.168.137.140”,port=3306,database=“lagou”,user=‘root’,password=‘Lyh123456!’)
        cursor = db.cursor()
        sql = “select * from python_shuju"cursor.execute(sql)
        data = cursor.fetchall()
        print(data)
        addr = [‘北京’,‘上海’,‘深圳’,‘成都’,‘广东’]
        num = [data[0][1],data[1][1],data[2][1],data[3][1],data[4][1]]
        data_pair = [list(z) for z in zip(addr, num)]
        data_pair.sort(key=lambda x: x[1])
        # 画饼图c = (
        Pie()
        .add(”“, [list(z) for z in zip(addr,num)])
        .set_global_opts(title_opts=opts.TitleOpts(title=“python工程师地区岗位分布”,subtitle=‘单位:个数’),toolbox_opts=opts.ToolboxOpts())
        .set_series_opts(label_opts=opts.LabelOpts(formatter=”{b}: {c}"))
        ).render(“python工程师地区岗位分布.html”)

      • 1.2python工程师

      • 1.3python后端

    • 3学历与薪资

      import pymysql
      from pyecharts.charts import Bar
      from pyecharts import options as opts
      db = pymysql.connect(host=“192.168.137.140”,port=3306,database=“lagou”,user=‘root’,password=‘Lyh123456!’)
      cursor = db.cursor()
      sql = "select * from edu_money"cursor.execute(sql)
      data = cursor.fetchall()
      print(data)
      zhiwei = [data[0][0],data[1][0],data[2][0]]
      print(zhiwei)
      min_list = [data[0][2],data[1][2],data[2][2]]
      max_list = [data[0][3],data[1][3],data[2][3]]
      average_list = [data[0][1],data[1][1],data[2][1]]
      bar = Bar()
      bar.add_xaxis(xaxis_data=zhiwei)
      # 第一个参数是图例名称,第二个参数是y轴数据bar.add_yaxis(series_name=“最低工资”, y_axis=min_list)
      bar.add_yaxis(series_name=“最高工资”, y_axis=max_list)
      bar.add_yaxis(series_name=“平均工资”, y_axis=average_list)
      # 设置表的名称bar.set_global_opts(title_opts=opts.TitleOpts(title=‘学历’, subtitle=‘工资单位:元/月’), toolbox_opts=opts.ToolboxOpts(), )
      bar.render(“学历与薪资.html”)

    • 4不同岗位薪资图

      import pymysql
      from pyecharts.charts import Bar
      from pyecharts import options as opts
      db = pymysql.connect(host=“192.168.137.140”,port=3306,database=“lagou”,user=‘root’,password=‘Lyh123456!’)
      cursor = db.cursor()
      sql = "select * from job_salary"cursor.execute(sql)
      data = cursor.fetchall()
      # print(data)zhiwei = [data[0][0], data[1][0], data[2][0]]
      print(zhiwei)
      min_list = [data[0][2], data[1][2], data[2][2]]
      max_list = [data[0][3], data[1][3], data[2][3]]
      average_list = [data[0][1], data[1][1], data[2][1]]
      print(min_list)
      print(max_list)
      print(average_list)
      bar = Bar()
      bar.add_xaxis(xaxis_data=zhiwei)
      # 第一个参数是图例名称,第二个参数是y轴数据bar.add_yaxis(series_name=“最低工资”, y_axis=min_list)
      bar.add_yaxis(series_name=“最高工资”, y_axis=max_list)
      bar.add_yaxis(series_name=“平均工资”, y_axis=average_list)
      # 设置表的名称bar.set_global_opts(title_opts=opts.TitleOpts(title=‘薪资水平图’, subtitle=‘工资单位:元/月’), toolbox_opts=opts.ToolboxOpts(), )
      bar.render(“薪资水平图.html”)

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
人力资源部 月招聘分析报告 拟制 日期 审核 日期 签发 日期 目 录 1、简介 1.1 目的 1.2 范围 2、衡量指标定义 3、数据源 4、衡量指标分析 4.1 简历初选通过率 4.2 有效简历率 4.3 初试通过率 4.4 复试通过率 4.5 报到率 4.6 招聘计划完成率 4.7 人均直接招聘成本 4.8 招聘渠道分布 4.9 录用人员信息分布 4.10 月招聘指标汇总 5、发现的问题及改进措施 5.1 问题一 5.2 问题二 5.3 问题三 5.4 问题四 人力资源部 月招聘分析报告 关键词: 简历初选通过率、有效简历率、初试通过率、复试通过率、报到率、招聘计划完成率、 人均直接招聘成本、招聘渠道分布、录用人员信息分布。 摘要: 本月人力资源部共对 份简历进行了初步筛选,简历初选通过率为 ,有效简历率为 ,初试通过率为 ,复试合格率为 ,报到率为 ,招聘计划完成率为 ,最终录用 人,人均直接招聘成本为 元。 缩略语清单: 1 简介 1.1目的 本报告是对各部门及各子公司招聘工作的衡量和分析,适用对象为公司高层领导、各部门经理、招聘专业人员等 1.2 范围 本报告衡量和分析的范围为 年 月及各子公司招聘计划完成率,并通过简历初选通过率、有效简历率、笔试通过率、复试通过率、报到率、招聘计划完成率、人均直接招聘费用、录用人员信息渠道分布等指标进行说明。 2 衡量指标定义 本报告使用的衡量指标的定义可见各表标题 3 数据源 本报告计算使用的原始数据来源为由 拟制,经公司主管领导批准的 月招聘计划、 月份招聘工作总结。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值