记录一次spark配置

//序列化
sparksession.conf.set(“spark.serializer”, “org.apache.spark.serializer.KryoSerializer”)
//保证数据不丢失
sparksession.conf.set(“spark.streaming.stopGracefullyOnShutdown”, “true”)
//开启被压
// sparksession.conf.set(“spark.streaming.backpressure.enabled”, “true”)
// 启用反压机制时每个接收器接收第一批数据的初始最大速率
//sparksession.conf.set(“spark.streaming.backpressure.initialRate”, “5000”)
//spark.streaming.kafka.maxRatePerPartition设定对目标topic每个partition每秒钟拉取的数据条数。
//假设此项设为1,批次间隔为10s,目标topic只有一个partition,则一次拉取的数据量为1101=10。
//sparksession.conf.set(“spark.streaming.kafka.maxRatePerPartition”, “1000”)

// SparkContext默认只有一个实例。如果在config(SparkConf)中设置了allowMultipleContexts为true,
//当存在多个active级别的SparkContext实例时Spark会发生警告,而不是抛出异常,要特别注意。
// 如果没有配置,则默认为false
sparksession.conf.set("spark.driver.allowMultipleContexts", "true")
//这里spark设置的默认poll的timeout是512毫秒,如果512毫秒后没拉到数据就会抛异常
sparksession.conf.set("spark.streaming.kafka.consumer.poll.ms", "1000")
//增加job并行度的参数
sparksession.conf.set("spark.streaming.concurrentJobs", "10")
//获取topic分区leaders(kafka中leade有时会发生变换)及其最新offsets时,调大重试次数
sparksession.conf.set("spark.streaming.kafka.maxRetries", "5")
//超时时间
sparksession.conf.set("spark.network.timeout", "300s")
//rpc超时时间
sparksession.conf.set("spark.rpc.askTimeout", "600s")
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值