Spark实例创建及参数解释

def get_sparkSession(myApp):
    conf = (SparkConf().setMaster("yarn").setAppName(myApp)
            .set("spark.executor.memory", "2g")
            .set('hive.exec.dynamic.partition', 'true')
            .set('spark.sql.autoBroadcastJoinThreshold','-1')
            .set('hive.exec.dynamic.partition.mode', 'nostrick')
            .set('hive.exec.max.dynamic.partitions', '100000')
            .set('hive.exec.max.dynamic.partitions.pernode', '100000')
            .set("spark.port.maxRetries", "100")
            )
    spark = SparkSession.builder.config(conf=conf).enableHiveSupport().getOrCreate()
    # SparkSession 是 Spark SQL 的入口,使用 Dataset 或者 Datafram 编写 Spark SQL 应用的时候,第一个要创建的对象就是 SparkSession。
    # Builder 是 SparkSession 的构造器。 通过 Builder, 可以添加各种配置。
    return spark

在这里插入图片描述

参数参考: http://spark.apachecn.org/#/docs/20

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值