SparkSession写入mysql出现的数据库死锁问题?

最近工作中模型出现的死锁问题

azkaban spark任务报错信息

代码:

代码上看都是正常的DataFrame写入mysql操作,并且是update操作

来看看数据库结构:

这次看到,数据库时由联合主键构成的,查看了源数据,发现hive中数据又很多是相同的数据。

此前:做了一个小测试,将所有的联合主键取消掉,这个表没有的主键,因此写操作是insert操作了,执行spark任务后,没有出现这种操作,因此可以看出错误的原因由于重复数据太多,并且对于这种联合主键表的原因,大可能滴出现DeadLock死锁问题;

解决:

方法一:联合主键取消改成唯一主键(由于生产上的表,所以不能,个人原因)

方法二:代码中做distinct或filter操作将,重复数据过滤掉或进行去重,并设置SparkSession的事务级别,可以查看Spark官网

直接上代码:

这样,后发现Spark任务执行成功,并且写入数据成功,不会报上述DeadLock死锁问题

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值