真实大数据简历模版(三)【大数据-2年经验】电商_大数据实战项目简历csdn(2)

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

1)采用Flume对用户数据进行采集。
2)使用SparkSql计算业务指标。
3)Mahout推荐算法的嵌入。
4)Hive数据仓库设计和维护,数据主题的抽取,数据维度分析。
5)数据的ETL清洗。
6)运用Sqoop导入到Mysql。
7)数据报表展示。
责任描述:
1)Flume收集日志。
2)Kafka对数据流的分离。
3)参与Hive数据仓库设计的讨论。
4)ETL数据清洗。

项目名称: xxx网站用户精准定位系统
项目描述:根据用户在网站的停留时间、跳出率、回访者、新访问者、回访次数、回访相隔天数; 注册用户和非注册用户,分析两者之间的浏览习惯;用户选择什么样的入口形式(广告或者网站入口链接)更为有效; 用户访问网站流程,用来分析页面结构设计是否合理; 用户在页面上的网页热点图分布数据和网页覆盖图数据;用户在不同时段的访问量情况等。对有关数据进行统计、分析,从中发现用户访问网站的规律,并将这些规律与网络营销策略等相结合,从而发现目前网络营销活动中可能存在的问题,并为进一步修正或重新制定网络营销策略提供依据。同时对网站进一步的优化升级。
技术要点:
1)开发日志采集系统:采用埋点代码,采集用户访问行为。
2)采用Flume对记录日志进行收集。
3)Kafka根据业务对数据流的分离。
4)Spark进行业务指标的计算。
5)Hive数据仓库设计。
6)ETL数据的清洗。
7)Sqoop的数据到导入和导出。
8)数据报表展示。
责任描述:
1)Flume收集日志。
2)Kafka对数据流的分离。
3)参与Hive数据仓库设计的讨论。
4)ETL数据清洗。
项目名称:xx公司 xx平台 预警平台产品
项目描述:在电商平台上有很多的业务系统,一旦某个系统的运行出现异常,不能及时发现,将会对平台的运营产生一定的不好的影响。项目主要是通过在各个业务系统上部署埋点代码,分析各个业务系统的运行健康状态,主要包括:购物车系统分析、订单系统分析、支付系统分析、物流系统分析等等,当获取到相关的异常日志信息时就会向有关人员发送消息,保证及时获取异常信息,及时解决异常信息,将不良的影响降到你最低。
技术要点:
1)使用 Flume 收集相关业务系统的日志,自定义拦截器,对应不同的业务系统。
2)将 Flume 采集的业务系统的日志信息存入到 Kafka 中。
3)使用 KafkaSpout 读取日志信息,并定时更新规则库信息与其进行匹配。
4)当触发相关的业务系统报警规则之后,会用阿里大于发送短信通知。
5)使用 Redis 的过期时间保证消息不重复发送。
6)将日志告警信息保存到关系型数据库MySQL 中,供前端报表展示获取业务系统健康状态。
责任描述:
1)前期参与项目分析,讨论对那些系统日志信息进行采集。
2)与 Java 业务组相关人员进行沟通,对接我们的采集任务。
3)使用 Strom 与 Kafka 整合,编写业务代码。
4)当规则触发时,使用阿里大于向有关人员发送短信通知。

工作经历
2015/9 - 2016/5,郑州创新信息公司,Java程序员。
2016/7 - 2017/11,上海中最信息科技有限公司,大数据工程师。
自我评价
1)学习能力强,适应能力强,责任心强,抗压力强。
2)具备较好的沟通能力、团队协作精神、学习能力以及独立解决问题能力。

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

更新**

需要这份系统化资料的朋友,可以戳这里获取

  • 3
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
项目一Spark离线处理本项目来源于企业级电商网站的大数据统计分析平台,该平台以 Spark 框架为核心,对电商网站的日志进行离线和实时分析。 该大数据分析平台对电商网站的各种用户行为(访问行为、购物行为、广告点击行为等)进行分析,根据平台统计出来的数据,辅助公司中的 PM(产品经理)、数据分析师以及管理人员分析现有产品的情况,并根据用户行为分析结果持续改进产品的设计,以及调整公司的战略和业务。最终达到用大数据技术来帮助提升公司的业绩、营业额以及市场占有率的目标。 本项目使用了 Spark 技术生态栈中最常用的个技术框架,Spark Core、Spark SQL 和 Spark Streaming,进行离线计算和实时计算业务模块的开发。实现了包括用户访问 session 分析、页面单跳转化率统计、热门商品离线统计、广告流量实时统计 4 个业务模块。通过合理的将实际业务模块进行技术整合与改造,该项目几乎完全涵盖了 Spark Core、Spark SQL 和 Spark Streaming 这个技术框架中大部分的功能点、知识点,学员对于 Spark 技术框架的理解将会在本项目中得到很大的提高。 项目二Spark实时处理项目简介对于实时性要求高的应用,如用户即时详单查询,业务量监控等,需要应用实时处理架构项目场景对于实时要求高的应用、有对数据进行实时展示和查询需求时项目技术分别使用canal和kafka搭建各自针对业务数据库和用户行为数据的实时数据采集系统,使用SparkStreaming搭建高吞吐的数据实时处理模块,选用ES作为最终的实时数据处理结果的存储位置,并从中获取数据进行展示,进一步降低响应时间。 
一、课程简介随着技术的飞速发展,经过多的数据积累,各互联网公司已保存了海量的原始数据和各种业务数据,所以数据仓库技术是各大公司目前都需要着重发展投入的技术领域。数据仓库是面向分析的集成化数据环境,为企业所有决策制定过程,提供系统数据支持的战略集合。通过对数据仓库中数据的分析,可以帮助企业改进业务流程、控制成本、提高产品质量等。二、课程内容本次精心打造的数仓项目的课程,从项目架构的搭建,到数据采集模块的设计、数仓架构的设计、实战需求实现、即席查询的实现,我们针对国内目前广泛使用的Apache原生框架和CDH版本框架进行了分别介绍,Apache原生框架介绍中涉及到的技术框架包括Flume、Kafka、Sqoop、MySql、HDFS、Hive、Tez、Spark、Presto、Druid等,CDH版本框架讲解包括CM的安装部署、Hadoop、Zookeeper、Hive、Flume、Kafka、Oozie、Impala、HUE、Kudu、Spark的安装配置,透彻了解不同版本框架的区别联系,将大数据全生态系统前沿技术一网打尽。在过程中对大数据生态体系进行了系统的讲解,对实际企业数仓项目中可能涉及到的技术点都进行了深入的讲解和探讨。同时穿插了大量数仓基础理论知识,让你在掌握实战经验的同时能够打下坚实的理论基础。、课程目标本课程以国内电商巨头实际业务应用场景为依托,对电商数仓的常见实战指标以及难点实战指标进行了详尽讲解,具体指标包括:每日、周、月活跃设备明细,留存用户比例,沉默用户、回流用户、流失用户统计,最近连续3周活跃用户统计,最近7天内连续3天活跃用户统计,GMV成交总额分析,转化率及漏斗分析,品牌复购率分析、订单表拉链表的设计等,让学生拥有更直观全面的实战经验。通过对本课程的学习,对数仓项目可以建立起清晰明确的概念,系统全面的掌握各项数仓项目技术,轻松应对各种数仓难题。四、课程亮点本课程结合国内多家企业实际项目经验,特别加入了项目架构模块,从集群规模的确定到框架版本选型以及服务器选型,手把手教你从零开始搭建大数据集群。并且总结大量项目实战中会遇到的问题,针对各个技术框架,均有调优实战经验,具体包括:常用Linux运维命令、Hadoop集群调优、Flume组件选型及性能优化、Kafka集群规模确认及关键参数调优。通过这部分学习,助学生迅速成长,获取前沿技术经验,从容解决实战问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值