本文章目录如下:
一、大数据相关职位介绍(数据来源于拉钩、智联)
(一)大数据相关职位列举
(二)每个相关职位的岗位职责与要求
二、非程序员转型大数据职位推荐与SWOT分析
(一)金融财会,统计,其他商科转型大数据。
(二)非科班理工科转型大数据
(三)除了第 1 条以外的文科专业同学转型大数据。
三、程序员转型大数据职位推荐与SWOT分析
(一)Java 后端 / Java Web 程序员转型大数据。
(二)Python 程序员转型大数据。
(三)数据库相关工作人员转型大数据。
(四)运维相关工作人员转型大数据。
(五)其他(如前端,实施人员等)
四、我的想法
一、大数据相关职位介绍(数据来源于拉钩、智联)
既然要转型大数据,那从职业的角度先为大家介绍一下大数据相关的职位。
大数据相关的职位列举
(一)开发岗位
ETL工程师
数据仓库工程师
大数据工程师
Hadoop开发工程师
Java大数据工程师
Spark开发工程师
大数据运维工程师
(二)数据岗位
数据可视化工程师
机器学习算法工程师
数据挖掘工程师
大数据分析师
如果你对大数据开发感兴趣,想系统学习大数据的话
可以加入大数据技术学习交流扣扣群:4583+数字45782
欢迎添加,私信管理员,了解课程介绍,获取学习资源
(三)综合岗位
大数据架构师
大数据科学家
(四)职能岗位
大数据产品经理
数据运营
BI工程师
商业分析师
每个相关职位的岗位职责与要求
01. ETL工程师(参考微贷网招聘信息)
岗位职责:
a. 负责数据仓库工具开发,
b. 负责外围系统建设和数据仓库建设,
c. 针对业务场景编写ETL通用工具脚本,
d. 数据字典编写,形成对其它团队的数据接口文档;
岗位要求:
a. 熟悉Hive、Mysql、HBase中的一种并熟悉SQL。
b. 对数字或互联网金融领域敏感,对数据建模、存取、处理、可视化等相关技术有很强的学习热情。
c. 熟悉数据仓库任务调度。
d. 熟悉linux,熟悉LINUX常用命令,至少熟悉python,php,shell等一种脚本语言。
e. 了解HADOOP,HIVE有使用这两个平台,或有在上面开发过相关应用。
f. 熟悉DataStage、Informatica、微软DTS、OWB、Kettle中的一种或多种ETL工具,能够熟练的进行事实表、维度表、汇总表的ETL开发。
g. 具备良好的沟通能力,做事认真、仔细,有责任心,具有团队协作能力。
优先考虑:
a. 有分布式存储/实时计算开发经验优先
b. 熟悉PostgreSQL、Greenplum优先
c. 熟悉Hadoop、Spark技术优先
d. 有海量数据处理经验者优先
02. 数据仓库工程师(参考贝贝网招聘信息)
岗位职责:
a. 基于大型分布式平台的数据仓库模型设计及实现。
b. ETL开发、优化、技术攻关,BI报表定制开发数据支持。
c. 协助建立数据模型,对数据进行挖掘、优化及统计。
d. 负责企业级数据仓库架构设计、建模以及ETL开发,构建可扩展的数据仓库解决方案。
e. 负责公司日常运营报表开发维护,和业务及分析部门沟通协作,提供多层面数据服务。
f. 提供完善的数据保障体系,包括元数据管理、数据质量、数据安全等。
岗位要求:
a. 两年以上数据仓库实施经验,ETL实施经验,认可数据产生价值。
b. 理解数据库原理,熟练Mysql,了解Hadoop,Hive,Spark。
c. 熟悉Linux 操作系统,熟练掌握 Shell、Python。
d. 具备较强的业务理解能力和项目管理、推动力。
e. 熟悉数据标准管理、元数据管理、数据质量管理,对整体数据有综合的把控能力。
f. 计算机或相关专业本科及以上学历 。
g. 具有丰富的数据开发经验,对数据处理、数据建模、数据分析等有深刻认识和实战经验。
h. 熟悉SQL,有一定的SQL性能优化经验。
i. 熟练掌握Java语言,MapReduce编程,脚本语言Shell/Python/Perl之一。
j. 业务理解力强,对数据、新技术敏感,对云计算、大数据技术充满热情。
k. 积极乐观、诚信、有责任心;具备强烈的进取心、求知欲及团队合作精神。
优先考虑:
暂无
03. 大数据工程师(参考京东招聘信息)
岗位职责:
a. 负责大数据处理中的各个环节,参与需求分析、架构设计、技术决策以及详细设计。
b. 为现有大数据Hadoop、hive平台提供性能调优、架构优化重组,解决系统中的关键问题和技术难题。
c. 把握基础业务复杂系统的设计,确保系统的架构质量,编写核心部分代码。
d. 持续挑战新的技术方向,攻克大数据量,高并发,高稳定性,易用性等各种技术难点。
岗位要求:
a. 本科或以上,计算机软件或相关专业毕业。
b. 扎实的编程能力,熟悉算法和数据结构,熟悉计算机的基础理论。
c. 熟悉大数据处理相关技术,包括但不限于 Hadoop、