spark任务一直卡住,问题分析、解决

项目场景:

spark运行中,job一直在执行中,运行过程中会有hdfs, db的交互


问题描述:

有个同学跟我反映问题,spark运行中,job一直在执行中,executor,driver都在跑,没有任何异常, 正常是很快跑完,但跑10min都动不动,很奇怪,让我帮忙看看

在这里插入图片描述


原因分析:

碰到问题,处理问题思路: 1.先确定driver,executor是否正常,从页面看,是正常 2.看看任务在做什么,看看executor的task在干忙什么,通过executor tab把正常运行任务的task对应executor的stack打出来看看 3.问题发现:如下图:线程是running状态,但有线程锁 4.百度一下查锁的命令,查锁命令如下, 执行一下,发现确实是被其他同学上锁了。。。,问题排查、处理完毕,收工 select * from v$locked_object t1, v$session t2, dba_objects t3 where t1.session_id = t2.sid and t1.object_id = t3.object_id order by t2.logon_time;

在这里插入图片描述


解决方案:

任务卡住的原因是表被锁,释放锁就行。

关键是: 排查问题的思路!!!找出真正的问题,fix!

  • 2
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
Spark编程实践中,可能会遇到以下问题: 1. 环境配置问题Spark需要在分布式环境下运行,因此环境配置可能比较复杂,容易出现问题解决办法是仔细阅读官方文档,按照文档说明逐步安装和配置环境,确保环境正确配置。 2. 编程模型问题Spark编程模型和RDD的API使用可能比较陌生,容易出现使用不当或者理解不透彻的情况。解决办法是多进行实践,多查阅官方文档和相关书籍,加深对Spark编程模型和API的理解。 3. 性能优化问题Spark程序可能存在性能瓶颈,需要进行性能优化。解决办法是使用Spark提供的性能分析工具,如Spark UI等,分析程序性能瓶颈,并采取相应的优化措施,如调整并行度、使用广播变量等。 4. 数据处理问题Spark程序需要处理大量的数据,可能会出现数据倾斜、数据倒灌等问题解决办法是采用适当的数据分区策略,如随机分区、哈希分区等,避免数据倾斜和数据倒灌。 5. 调试问题Spark程序可能存在调试困难的问题,因为程序在分布式环境下运行,可能存在多个节点,调试难度较大。解决办法是使用Spark提供的调试工具,如Spark Shell、Spark UI等,辅助进行调试。 总之,Spark编程实践的问题多种多样,需要我们结合实际情况进行具体分析解决。通过不断实践和学习,我们可以逐步掌握Spark编程技巧和方法,提高Spark程序的开发效率和性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值