spark解决org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow

在使用pyspark和Spark SQL的Thrift JDBC接口查询数据时遇到`org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow`错误。尝试通过增加`spark.kryoserializer.buffer.max`等配置参数来解决问题。首先尝试在`spark-defaults.conf`文件中配置,但未成功,因为Spark SQL Thrift JDBC不受此文件影响。然后,通过`spark-shell`测试确认配置未生效。最终,通过在启动命令行中添加配置参数`--conf spark.kryoserializer.buffer.max=3236381`等解决了问题。
摘要由CSDN通过智能技术生成

pyspark --queue default\
--driver-memory 10G \
--executor-cores 6 \
--executor-memory 10G \
--executor-cores 6 \
--conf spark.kryoserializer.buffer.max=256m \
--conf spark.kryoserializer.buffer=64m \
--conf spark.driver.maxResultSize=4096m \
--conf spark.executor.memoryOverhead=2048m \
--conf spark.driver.memoryOverhead=2048m

 

使用spark sql的thrift jdbc接口查询数据时报这个错误

Exception in thread "main" java.sql.SQLException: org.apache.spark.SparkException: Job aborted due to stage failure: Task 3107 in stage 308.0 failed 4 times, most recent failure: Lost task 3107.3 in stage 308.0 (TID 620318, XXX): org.apache.spark.SparkException: Kryo serialization failed: Buffer overflow. Available: 1572864, required: 3236381
Serialization trace:
values (org.apache.spark.sql.catalyst.expressions.GenericInternalRow). To avoid this, increase spark.kryoserializer.buffer.max value.
        at org.ap
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值