spark1.5 hivecontext java_SparkContext,SQLContext,HiveContext的理解

整体来说

SparkContext是spark api的入门,可以用来编程

SQLContext是sparkSQL的一个分支入口,可以用来操作sql

HiveContext是spark sql中另外分支,用来操作hive

第一步spark driver应用程序创建SparkContext,SparkContext 允许spark driver应用程序通过资源管理器访问集群。资源管理器可以是yarn。

为了创建SparkContext,第一步可以创建SparkConf,SparkConf存储的配置信息,Spark driver应用程序将传给SparkContext。

现在你的Spark driver应用程序有SparkContext,它知道使用和请求集群资源。如果是yarn的RM和NM将会为executor分配container。如果资源有效的,在集群上executor将会根据配置参数分配memeory和cores。

c9fc741d6a96

image

每一个spark driver应用程序都有自己的executors在集群上。集群保持运行只要spark driver应用程序有SparkContext。executors运行用户code,运行计算和缓存应用程序的数据。SparkContext创建job,分解为stages。

SparkContext

其实是连接集群以及获取spark配置文件信息,然后运行在集群当中。

SQLContext

spark处理结构化数据的入口,允许创建DataFrame以及sql查询。

HiveContext

Spark sql执行引擎,集成hive数据,读取在classpath的hive-site.xml配置文件配置hive

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值