初级者与转行者,大数据如何学习最高效,简历该如何优化?_涤生大数据课程(2)

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  1. 熟练Hive常见的函数的使用,尤其是函数的套用分析,官网上,也就那几十个重点。
  2. 熟练掌握Hive窗口函数分析函数,行转列,列转行等,初级开发一般会给数据让你写函数统计分析,所以网上看下常见的数据分析。
  3. Hive常见的性能优化,参数优化:可以自己测试实例,知道有哪些方向。很多小型公司其实根本用不着,或者说常见的参数性能优化都会在集群层面配置好,不用每个开发在代码里前置优化,比如小文件的治理,启用压缩,默认存储格式,调度策略,严格模式,开启数据倾斜负载均衡等等。一般需要在代码里配置也就是比如内存溢出,调整下内存,动态分区等。常见优化系列  比如hive一般必问的数据倾斜之类的。
  4. 熟练掌握SQL使用,可以写出较位复杂的业务场景的SQL,这也是工作中用到最多的。熟练掌握SQL优化,所以一定要掌握SQL的执行流程才懂得优化。SQL执行流程
  5. 其他就是hive常见的"CRUD"语法的使用。尤其是分区表的操作。
  6. spark的基础语法,看公司,一般公司离线hive居多,也有部分需要spark的,也有公司离线也已Spark为准。Spark基本的性能优化。

对于初学者,离线分析的话,主要重点掌握这些,后续可以不断深入或者拓展。其他的有时间了解最好。

1.2.1实时开发技术栈分析

实时分析具体技术栈就看公司规模了,相比离线实时难度会更加高,所以初学者,转行的同学,不建议直接实时,可以先做一年离线熟悉整个技术框架后,熟悉大数据开发后在逐步学习实时,因为实时技术栈学习的知识点较多,难度较大。

实时主要分为数据接入flume/kafka,很多公司也不用flume了,Sparkstreaming/flink数据清洗(storm基本淘汰了),redis缓存,Hbase数据存放供实时查询,或者直接入数仓供离线T+1分析,后者搞些大屏等,存储也有多种看实际需求。

所以一般实时主要在这三个方向,数据接入,数据清洗,数据存放。可能干其中一步,也可能干整个流程(针对小型公司)。当然数据接入kafka这块,基本配置完数据源后,后期变动不大。主要还在数据清洗这块。SparkSreaming/Flink,这块需要用JAVA/Scala开发等。相对学习的东西比较多。可以选择熟练重点掌握一个组件,如Kafka,重点突破,源码,性能优化等。也可以重点突破Flink或者Hbase,都会有市场的。

建议重点掌握几个组件其中之一,重点突破,这样会有突出点。

1.3.1大数据运维技术栈

一般中小型公司,使用Cdh集群比较多,集群规模一般在十几台到一两百台居多,一般运维1-5人居多,更多的是两三个人,当然也有些中小型公司选择上云,使用云服务部署集群节省服务器硬件损耗以及运维的成本。大公司上千台,上万台都是使用apache 然后自我定制的版本的,运维团队人员也多,几十人,上百人。

大数据运维,一般很少公司你去了需要搭建集群的,一般公司在你去后都是运维现存到的集群。即使需要搭建小集群的,选择CDH集群也比较简单。超详细版企业离线部署CDH6.10集群与配置使用 ) 集群的运维中其实集群搭建是最简单,集群的安全运维和优化才是重点,如何保证集群的高可用才是目的,比如指标的采集,监控,自动化运维,告警,集群的性能优化,管理平台的搭建等等,包括组件的二次开发,日常高负载时性能问题的优化,有些需要深入熟悉内核,有些则需要经验配合。

初级大数据运维技术栈:

  1. 了解/掌握基本的服务器硬件配置相关信息,网络架构,交换机,ip,dns的基本使用与原理(可做了解,一般公司会有专门搞硬件这块的基础运维,当然现在的大数据运维也是之前基础运维转来的)
  2. 熟悉掌握linux操作系统的安装(Centos,ubuntu等),安装配置,以及之后基本的优化,比如实现批量化安装,相关工具ansible等使用。
  3. 熟练使用shell编程,linux常用的命令,运维相关的命令。
  4. 熟悉掌握大数据相关组件的安装配置,集群的搭建,CDH集群安装配置一定要掌握,Apache版本的官网也有,跟着步骤来即可,没必要记清楚每一步,忘了网上查,但是要搭建一次。
  5. 熟悉大数据集群常见的组件的基本原理与基本知识点,初级前期可以不用很深入。重点掌握hdfs/HA,yarn/HA,Zookeeper, 计算引擎hive,spark等。尤其是组件之间的配合使用原理,集群架构等。
  6. 熟悉常见集群的参数优化,分为存储和计算,存储如hdfs常见的参数优化,计算引擎Hive、spark等常见参数优化。
  7. 熟悉大数据常见的监控指标,具体可以参考CDH集群里的监控指标。apache集群监控指标的采集,展示方案,如grapha等。
  8. 集群遇到的生产问题处理,比如JN挂了,Namenode重启,集群节点退役,扩展集群等等,包括组件的升级。

2.简历优化与面试

**简历的书写很重要,很重要。因为面试官一般通过预览简历决定了这个人是不是自己需要招聘的人,决定了你有没有初面的机会。所以一定要在你简历里突出企业招聘需要的技术栈或者工作经验。一般面试官初筛简历:学校(是否名校)+工作背景(是否大厂)+技术栈/项目经验(技术是否深入),所以三维之中一定要有一维突出。**其次简历的排版一定要整齐,用PDF,而不是Word。简历最好2-4页,不要1页太单薄。

所以,比如面试大数据开发,离线/实时,**简历一定要突出重点。**比如你面离线或者实时,简历中就突出上面对应的技术栈,以及对应技术栈的性能优化,对应技术栈的项目经验。比如面数仓开发技术栈写熟练掌握Hive的函数相关函数的使用,熟练进行业务开发;熟练大数据数仓建模;熟练掌握Hive常见异常分析,性能优化,数据治理,熟练掌握spark用于业务分析等。以及对应的技术栈的项目或数据分析经历。

核心技术点,一定要写到性能优化,不能所有的技术栈都是描述性的信息,而且要用专业化的技术语言描述。项目要写出业务难点与技术的结合,突出业务与技术的实现。比如下面这种就不太好。

简历的优化,只能结合实际修改。毫不夸张地说我认识的某大厂一大哥,工作好几年的老油子了。每次换工作简历都会花几百块钱在某招聘网站找人优化, 从排版到话术,技术栈的描述,包括一些常见问题的指导,确认效果很奈斯,可以参考下。现在大哥薪水越来越高,面试也助力不少。

同样技术的人,会面试的人和不会面试的人可能前者可以拿到offer后者不被录取,毕竟在那么短的时间内如何有效地展示自己,显露自己的技术,确实是个技术活。

作者联合阿里巴巴,B站,平安等大数据技术专家,运维专家几个小伙伴一起开设了为期4-6个月的大数据运维与大数据开发课程,让大家少走弯路,拒绝demo,做优质的实战型学习课程。不赚钱,交个朋友,可私信我哦。

毕业工作几年,月入还不到2万的建议速看_涤生手记-CSDN博客

尖叫提示:图片双击放大,或者保存本地查看详细

1.附资深大数据开发完整课程体系与规划

资深大数据开发学习路线

1.附资深大数据运维完整课程体系与规划

资深大数据运维学习线路图

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

13a03fab5e56a57acb)**

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

  • 10
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值