pgpool(3.6.5)的一个巨坑

在现场环境中突然发现spark application卡死,而卡死的状态又与普通的阻塞不同,看起来就是执行了一部分job之后,后面的Job都没有提交了。
而更为诡异的是,如果把指向不用pgpool,而直接用一个普通的pg库,整个spark application是正常的。
此时猜测可能问题出在driver端代码上,发现有一个类似这样的代码:
df.write().jdbc(...)
主要就是将df写成一张pg表。
查看了spark源码也很简单:
1.判断表是否存在(使用语句为select * from 表名 limit 1)
2.创建表
3.写数据
查看pg_stat_activity,发现是有query=select * from 表名 limit 1 语句的,处于idle状态。
IDEA远程连spark单步调试,发现卡住的正是第一步:
select * from 表名 limit 1
不用spark,而使用普通的jdbc执行这句话,也存在卡死的状况。
需要说明的是,查询的这种表是不存在的,也就是说这句话是会抛出异常的。不会是pg抛出了异常,而pgpool未能正确的处理此异常吧?

事实证明,pgpool确实是在处理error message时有问题,9月5日发布的3.6.6版本修复了此问题:


所以解决方案,就是采用3.6.6版本的pgpool。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值