大数据面试求职经验总结_大数据专家面试(2)

写在前面:空杯心态,多投多改,把握好校招机会,它是你最容易通往大厂的机会。

计算机专业应届生面试指南

面试经验分享:

  1. 提前了解应聘公司信息,知道该公司是做什么的,发展情况,招聘的岗位的要求等 ;

2、面试不要说自己是培训班出身,个人技能里千万尽量不要体现出学习、了解字样

3、找工作策略:先可以找一些普通公司试试经验,面试几次熟悉套路后,再去面试心仪公司。

4、简历写的不要太多,尤其是项目不用写太细,提前想好可能被提问的点,留一些空间现场聊。

5、不要进入误区,完全依靠培训课程内容还不够,课程内容只是帮助大家完善一个项目和既能,面试考察基本功(数据结构、基础算法)

6、面试的时候要听清问题再回答,可以停顿一段时间再回答。

7、现场面试的话建议要简历,(1)注意礼貌,着装合体(2)辅助描述

8、聪明程度,迂回法;合理利用规则,如电话面试。

9、时间把握 (1)自我介绍 5分钟左右或以内 (2)中间环节,尽可能用项目、工作内容占满。

一、简历

简历是获得面试机会的敲门砖,

1.自我介绍

主要考察应聘者的逻辑思维、语言表达、自我认知等能力。

参考建议:

第一,条理清晰,层次分明,突出与岗位要求相吻合的技能、个人所长、行为风格、实际经验等。

第二,现场表达必须与个人简历所写保持一致。

第三,控制时间,一般不超过 5分钟。

第四,尽量口语化,语言平实可信。

我的建议:提前打好稿子,背熟,注意自我介绍往往时间不需要过长,面试官通过自我介绍了解你的基本情况后,然后展开提问,所以自我介绍中要有吸引面试官的点,去引导面试官提问,以下是我之前观看视频收集的自我介绍模板,每个人情况不一样,仅供参考!

关于校招简历自我介绍模板:

关于社招简历自我介绍模板:

2.项目:

关于项目如何编写亮点、流程,强烈推荐观看以下视频。:

TALKDATA【终于把项目讲明白了】如何封装简历上的项目?项目亮点怎么写、项目流程如何描述、如何与面试官聊项目_哔哩哔哩_bilibili

注意:根据自己的项目分点展开写,挑重点,内容不宜过多。

3.专业技能模板:

注:主要学会用词搭配,内容根据自己个人情况及招聘岗位删改。

模板1

■ 语言开发

1.扎实的Java基础,理解IO,多线程,集合,熟练使用Java,Scala进行开发;

2.掌握常用的数据结构和算法,如栈、队列、递归和常用排序算法;

■ 计算引擎

1)熟练掌握MapReduce的原理和运作流程,对海量的数据进行分析;

2)熟练掌握Spark Core和Spark SQL对离线数据进行相应的分析;

3)熟练掌握Spark Streaming实现对实时数据进行分析;

4)熟练掌握HQL语句的编写,进行业务分析。

■ 存储工具

2)熟练掌握Hbase的架构,以及相对应组件的工作原理,能够根据业务的不同设计相应的表,并且进行相应的优化,设计相应的二级索引;

3)熟练掌握Redis的工作原理,能够对相应的数据进行快速的操作;

4)熟练掌握MySQL的工作原理,能够使用开发语言进行数据库的连接,熟练的使用SQL语句对相应的业务进行分析。

■ 相关组件

1)对Hadoop生态圈有详细的理解,能够独立完成Hadoop集群的搭建和 Hadoop系统架构的搭建;

2)熟练掌握HDFS分布式文件系统原理,实现对数据的合理存储;

3)熟练掌握Yarn(分布式资源管理)架构和工作原理,熟悉资源分配的整 个流程;

4)熟练掌握Flume的工作机制,内部的运作流程。实现相应的配置,实现数 据的拉取;

5)熟练掌握Sqoop(SQL-to-Hadoop)的工作的原理,运作流程,实现数据 在各组件之间的传输;

6)熟练掌握Kafka分布式消息队列的架构。能够使用Kafka和Flume结合对 实时数据进行简单的处理;

7)熟练掌握Zookeeper(分布式协作服务)的架构,工作原理;

8)能够使用Oozie(工作流程调度器)进行程序流式运行;

9)掌握Git管理工具。

模板2

■ 语言

1.Java

•熟悉JVM的垃圾清理机制和调优,理解Java多线程的技术;

•拥有OOP的思想,能够熟练地使用Java语言进行MapReduce以及Spark的开发。

2.能够熟练使用Scala语言进行Spark的业务开发。

3.熟悉Linux命令,能够编写Shell脚本。

4.精通SQL语句,能够进行Hive和SparkSQL的开发。

■ 框架

1.Hadoop

•熟悉HDFS的读写流程,并能用其进行海量数据的存取;

•熟悉MapReduce的运行流程,并能用其进行海量数据的分析;

•熟悉Hive的原理,能够熟练使用hql语句以及自定义UDF进行Hive的数据分析,能够进行Hive的调优;

•了解ZooKeeper的原理,能够使用ZooKeeper对集群进行协同服务;

•理解HBase的特性,能够使用HBase进行数据的存储,能够完成HBase的表设计;

•熟悉Flume的框架,能够使用Flume实现不同场景下的数据采集;

•熟知Sqoop的原理,能够使用Sqoop实现不同场景下的数据传输。

2.Spark

•熟悉Spark的框架以及Spark任务的执行流程;

•熟悉RDD的属性,能够使用RDD算子进行Spark Core的开发;

•精通SQL,能够进行Hive on Spark以及SparkSQL的开发;

•能够使用Spark Streaming进行实时处理;

•理解消息中间件Kafka的原理与结构,能够完成Kafka与Spark的对接。

■ 工具

1.熟悉IEDA/Eclipse开发工具,熟悉Git版本控制工具;

2.熟悉数据库连接工具Navicat和Linux系统远程连接工具MobaXterm;

3.熟悉数据仓库建模工具PowerDesigner,能够完成ODS层,DW层以及DM层的设计。

■ 数据库

1.精通SQL语句,熟悉MySQL数据库;

2.熟悉Redis的数据类型以及常规操作,了解Redis的持久化和主从配置。

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

中…(img-UqkzSIB5-1714321537368)]
[外链图片转存中…(img-6fBo8F5K-1714321537368)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 24
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值