hadoop+Spark实战基于大数据技术之电视收视率企业项目实战

在这里插入图片描述

课程简介
本课程将通过一个电视收视率项目实战驱动讲解,项目案例是国内的一家广电企业作为非洲国家的一个运营商,以用户收视行为数据作为基础数据,通过对频道和节目的分析,采用多维度统计分析的方法挖掘用户的收视行为特征。

课程收获
1.通过此案例可以学习大数据整体开发流程,课程是围绕一个大数据整理流程而做的教学课程
2.让大家明白大数据不同技术的相互协调,从收集数据,过滤数据,数据分析,数据展示,调度的使用而开发的课程
3.从hadoop,hive应用快速的过度到spark上面而做的整套流程
4.学完此课程可以企业流程做一个整体的认识

课程目录

第1节项目的简介 00:05:45分钟 |
第2节项目的背景 00:07:38分钟 |
第3节项目流程演示 00:11:57分钟 |
第4节讲课的内容和对应的知识点 00:11:53分钟 |
第5节php展示统计分析之后的数据 00:02:28分钟 |
第6节大数据架构介绍并且企业使用的测试集群环境和人员配置 00:07:15分钟 |
第7节VM的安装 00:05:56分钟 |
第8节centos的安装和网络配置00:24:10分钟 |
第9节通过第三方连接centos的方法00:06:48分钟 |
第10节CentOS的yum源更新已经关闭防火墙00:15:37分钟 |
第11节JAVA的安装和hadoop安装00:12:18分钟 |
第12节完全分布式搭建(上)00:26:30分钟 |
第13节完全分布式搭建(下)00:08:00分钟 |
第14节通过hadoop自带的demo运行单词统计00:09:03分钟 |
第15节写一个sh脚本,可以通过一台机器控制多台机器00:16:15分钟 |
第16节hadoop常用的命令简单介绍00:05:55分钟 |
第17节maven的安装00:13:26分钟 |
第18节maven的使用时出现的问题以及解决问题方法00:02:04分钟 |
第19节MAPREDUCE 示例编写及编程规范00:15:22分钟 |
第20节安装时间同步工具,让所有电脑进行同步00:09:55分钟 |
第21节Hive简介和工作流程00:09:42分钟 |
第22节Mysql的安装,centos7安装mysql注意点00:12:45分钟 |
第23节安装Hive,并且使用Hive做一个小案例00:31:15分钟 |
第24节把txt文件的数据导入到Hive表中00:07:20分钟 |
第25节Flume采集系统结构图00:07:40分钟 |
第26节Flume的安装部署和实战00:35:15分钟 |
第27节sqoop数据迁移和安装00:08:22分钟 |
第28节sqoop数据从hadoop里面导入到mysql里面00:07:35分钟 |
第29节sqoop数据从mysql里面导入到hadoop里面00:14:39分钟 |
第30节Azkaban介绍和安装00:14:03分钟 |
第31节Azkaban创建SSL配置和配置文件00:15:57分钟 |
第32节Azkaban实战通过5个不同场景介绍原理00:34:21分钟 |
第33节电视采集项目流程篇之通过linux日志收集数据到hdfs上面00:38:42分钟 |
第34节电视采集项目流程篇之通过MAPREDUCE 把收集数据进行清洗00:19:01分钟 |
第35节电视采集项目流程篇之清洗数据绑定到hive表中(上)00:03:27分钟 |
第36节电视采集项目流程篇之清洗数据绑定到hive表中(下)00:17:03分钟 |
第37节电视采集项目流程篇之根据hive绑定数据统计计算保存到hive表中00:04:46分钟 |
第38节电视采集项目流程篇之把hive表中数据导入到mysql中00:13:13分钟 |
第39节电视采集项目流程篇之安装php环境并且快速熟悉php语法00:09:48分钟 |
第40节电视采集项目流程篇之安装php和echarts进行结合展示图表00:18:23分钟 |
第41节电视采集项目流程篇之Azkaban调度脚本的编写00:32:04分钟 |
第42节电视采集项目流程篇之Azkaban流程调度演示,最终在php页面展示00:05:35分钟 |
第43节hadoop和hive项目怎么平滑的转到spark上面介绍00:05:40分钟 |
第44节Spark介绍和整体架构00:08:04分钟 |
第45节Spark历史和特点00:05:01分钟 |
第46节Spark下载源码和安装和使用00:34:04分钟 |
第47节Spark创建RDD集合00:46:16分钟 |
第48节Spark中transformation的介绍00:25:15分钟 |
第49节Spark中action的介绍00:07:30分钟 |
第50节Spark SQL发展史00:05:26分钟 |
第51节HiveContext00:08:01分钟 |
第52节Spark SQL和DataFrame00:14:56分钟 |
第53节电视采集项目流程如何把hadoop项目平滑过渡到spark项目上00:03:59分钟 |
第54节电视采集项目流程spark篇通过sparksql处理业务逻辑上00:09:21分钟 |
第55节电视采集项目流程spark篇通过sparksql处理业务逻辑下00:13:31分钟 |
第56节电视采集项目流程spark篇通过Azkaban调度spark00:20:22分钟 |
第57节项目总体总结00:07:10分钟 |
第58节简历指导00:09:52分钟 |

下载地址:百度云下载

  • 0
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
实战大数据(hadoop spark flink)pdf是指利用大数据处理技术(如HadoopSpark、Flink)进行实际的数据分析和应用开发,并以PDF格式进行文档化。 大数据处理技术的出现,使得企业和机构可以处理和分析海量的数据,从而发掘出更多有价值的信息和洞察。而HadoopSpark和Flink作为目前比较流行的大数据处理框架,具有各自的特点和适用场景。 首先,Hadoop是一个基于分布式文件系统的大数据处理框架,能够实现数据的存储和计算的分布式处理。它采用MapReduce计算模型,可以对大规模数据进行批处理,适用于离线的数据分析任务。因此,在实战大数据的PDF中,可以介绍如何使用Hadoop进行大数据的存储和离线计算,以及如何利用Hadoop的生态系统组件如Hive、HBase等进行数据处理和查询。 其次,Spark是一个内存计算框架,它具有很强的处理速度和灵活性。Spark提供了一系列的API,可以方便地处理和分析大规模数据,同时支持批处理和实时流处理,适用于交互式和实时的数据分析任务。在实战大数据的PDF中,可以介绍如何使用Spark进行数据的处理和分析,包括数据清洗、特征工程、机器学习等方面的实践。 最后,Flink是一个流式计算框架,它具有低延迟、高吞吐量和状态一致性等特点。Flink支持基于时间的窗口计算、迭代计算和状态管理等功能,适用于复杂的实时数据分析任务。在实战大数据的PDF中,可以介绍如何使用Flink进行实时数据处理和分析,包括窗口计算、流式机器学习等方面的实践。 总之,实战大数据(hadoop spark flink)pdf可以从不同维度和使用场景来介绍大数据处理技术的应用,帮助读者了解和掌握这些技术在实际项目中的使用方法和优势。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值