spark sql 类型转换array_Spark简介

作者:梁伟雄

作者简介:Spark爱好者

前置知识

在我们一起学习Spark之前,我们需要先了解Spark在整个Hadoop生态圈的位置。如下图(图片来源于网络,如有侵权请告知删除):

7e93e02dae2dfcfeb08bf46d2c037635.png

上图自下而上描绘了数据在整个Hadoop生态圈的流转过程。首先,我们会通过Flume、Sqoop、DataX等数据采集工具把数据从数据源抽取到HDFS分布式文件系统并以三副本的形式保存。这里的数据源有很多种,如日志、数据库等。存储在HDFS上的数据要发挥其价值,需要相关的工具来对数据进行处理(包括ETL、分析、计算等),继而得到各种业务指标、报表或者数据产品。而上述所提到的相关的工具可以是Spark、MapReduce等。

Spark大数据计算引擎,可以对大规模数据集进行基于内存的分布式计算。但熟悉数仓建模的朋友会更加偏向于使用Hive来构建整个数仓体系,并且Hive的稳定性及其易用性(使用HQL代替MapReduce来处理问题)也是Hive至今仍在大数据领域占有重大话语权的主要原因。在Spark发展的过程中,Spark和Hive之间的整合就从未间断,从一开始的Shark到后面的Spark SQL。目前,Hive使用的场景基本都可以使用Spark来替代。Hive更多的用于T+1的场景,而Spark更加灵活,数据处理速度会更快,对时间要求高的业务场景可以考虑Spark的使用。

当然,整个Hadoop生态圈除了HDFS存储引擎以及Spark计算引擎,还包括以下组件:资源调度系统YARN,负责资源的申请和调度,作业调度系统如Oozie、Azkaban、Airflow、DophinScheduler等,Zookeeper集群协调管理,消息队列如Kafka。其他组件,这里就不一一细说。下面通过一个例子把上面所提到的大数据组件串联起来。比如说:

  1. 直接使用Spark读取MySQL、日志等数据源,也可以使用Fl

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值