55.Spark大型电商项目-用户访问session分析-top10活跃session之本地测试以及阶段总结。

目录

本地测试

UserVisitSessionAnalyzeSpark.jaba

总结


本篇文章记录用户访问session分析-top10活跃session之本地测试以及阶段总结。

本地测试

UserVisitSessionAnalyzeSpark.jaba

为防止sessionCount为null而报错


                        for(String sessionCount : top10Sessions) {
                            if(sessionCount != null){
                                String sessionid = sessionCount.split(",")[0];
                                long count = Long.valueOf(sessionCount.split(",")[1]);

                                // 将top10 session插入MySQL表
                                Top10Session top10Session = new Top10Session();
                                top10Session.setTaskid(taskid);
                                top10Session.setCategoryid(categoryid);
                                top10Session.setSessionid(sessionid);
                                top10Session.setClickCount(count);

                                ITop10SessionDAO top10SessionDAO = DAOFactory.getTop10SessionDAO();
                                top10SessionDAO.insert(top10Session);

                                // 放入list
                                list.add(new Tuple2<String, String>(sessionid, sessionid));
                            }
                        }

总结

目前为止,做了些什么?

1、公共组件
  1.1 配置管理组件
  1.2 JDBC辅助组件
  1.3 工具类
  1.4 模拟数据生成程序
  1.5 单元测试
  1.6 domain、dao

2、第一个模块:用户访问session分析模块
  2.0 基础:session粒度聚合、按筛选条件进行过滤
  2.1 session聚合统计:统计出访问时长和访问步长,各个区间范围的session数量,占总session数量的比例
  2.2 session随机抽取:按时间比例,随机抽取出100个session
  2.3 top10热门品类:获取通过筛选条件的session,点击、下单和支付次数最多的10个品类
  2.4 top10活跃session:获取top10热门品类中,每个品类点击次数最多的10个session

3、技术点和知识点
  3.1 正规的大型大数据项目的架构(公共组件的封装、包的划分、代码的规范)
  3.2 复杂的大数据分析需求(纯spark作业代码,1500行+)
  3.3 Spark Core大部分算子在实际项目中的综合应用实战:map、reduce、count、group
  3.4 高级技术点:自定义Accumulator、按时间比例随机抽取算法、二次排序、分组取TopN算法
  3.5 标准和正规的大数据项目开发流程:数据调研、需求分析、技术方案设计、数据库设计、编码实现、单元测试、本地测试

4、完成了第一个业务模块:用户访问session分析,开发

5、走完剩下的流程:性能调优、生产环境测试

6、接下来要做什么?:
  6.1 性能调优:按照本人开发过的大量的单个spark作业,处理10亿到100亿级别数据的经验,要针对我们写好的spark作业程序,实施十几个到二十个左右的复杂性调优技术;性能调优相关的原理讲解;性能调优技术的实施;实际经验中应用性能调优技术的经验总结;掌握一整套复杂的Spark企业级性能调优解决方案;而不只是简单的一些性能调优技巧(网上一些博客、其他一些视频、其他一些书)
  6.2 数据倾斜解决方案:针对写好的spark作业,实施一整套数据倾斜解决方案:实际经验中积累的数据倾斜现象的表现,以及处理后的效果总结
  6.3 troubleshooting:针对写好的spark作业,讲解实际经验中遇到的各种线上报错问题,以及解决方案
  6.4 生产环境测试:Hive表

上百节课详细讲解,需要的小伙伴自行百度网盘下载,链接见附件,永久有效。 课程介绍: 讲解一个真实的、复杂的大型企业级大数据项目,是Spark大型项目实战课程。 通过本套课程的学习,可以积累大量Spark项目经验,迈入Spark高级开发行列。 课程特色: 1、项目全面覆盖了Spark Core、Spark SQL和Spark Streaming这三个技术框架几乎全部的初级和高级的技术点和知识点, 让学员学以致用,通过一套课程,即掌握如何将Spark所有的技术点和知识点应用在真实的项目,来实现业务需求! 2、项目的4个功能横块,全郃是实际企业项目提取出来的,并进行技术整合和改良过的功能模块.全都是企业级的复杂和真实的需求,业务模块非常之复杂,绝对不是市面上的Dem级别的大数据项目能够想比拟的,学习过后,真正帮助学员增加实际 企业级项目的实战经验。 3、项目通过实际的功能模块和业务场景,以及讲师曾经开发过的处理十亿、甚至百亿以上数据级别的SparK作业的经验积累,贯穿讲解了大量的高级复杂的性能调优技术和知识、troubleshooting解决线上报错和故障的经验、高端的全方位数据倾斜处理和解决方案.真正帮助学员掌握高精尖的Spark技术! 4、项目采用完全还原企业大数据项目开发场景的方式来讲解,每一个业务模块的讲解都包括了需求分析、方案设计、数据设计、编码实现、功能测试、性能调优等环节,真实还原企业级大数据项目开发场景。 模块简介: 1、用户访问session分析,该模块主要是对用户访问session进行统计分析.包括session的聚合指标计算、 按时间比例随机抽取session、获取每天点击、下单和购买排名前10的品类、并获取top10品类的点击量排名前10的session.该模块可以让产品经理、数据分析师以及企业管理层形象地看到各种条件下的具体用户行为以及统计指标.从而对公司的产品设计以及业务发展战略做出调整.主要使用Spark Core实现. 2、页面单跳转化率统计,该模块主要是计算关键页面之间的单步跳转转化率,涉及到页面切片算法以及页面流匹配算法.该模块可以让产品经理、数据分析师以及企业管理层看到各个关键页面之间的转化率.从而对网页布局,进行更好的优化设计。主要使用Spark Core实现. 3、热门商品离线统计,该模块主要实现每天统计出各个区域的top3热门商品.然后使用Oozie进行离线统计任务的定时调度,使用Zeppeline进行数据可视化的报表展示.该模块可以让企业管理层看到公司售卖的 商品的整体情况,从而对公司的商品相关的战略进行调螫.主要使用Spark SQL实现。 4、广告流量实时统计.该模块负责实时统计公司的广告流量.包括广告展现流量和广告点击流量,实现动态黑名单机制以及黑名单过滤,实现滑动窗口内的各城市的广告展现流立和广告点击流直的统计,实现 每个区域诲个广告的点击流置实时统计,实现每个区域top3点击量的广告的统计,主要使用Spark Streaming实现.
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值