今日spark服务器端执行报错经验总结

题目起的不好,这篇类似于日记一样,记录一下排错过程吧~~

任务总是执行失败,

 首先做了本地运行工程的排错,也做了print输出排错, (本地工程的流程就是  读本地csv文件,然后一些处理逻辑,然后输出保存到本地文件), 没什么错误

spark报错信息体现的就是函数的入参在函数内部错乱,

线上输出print的内容从spark日志看的方法是:

 一样的代码,服务器端的处理逻辑是,读hive表,经过一些逻辑处理,然后存到hive表中,应该是数据出问题了,查看源头hive表,发现列存在错乱情况,终于排查到错误所在,是数据的问题,不是写的代码的逻辑的问题。

解决方法就是 try except  将异常数据给他跳过吧

心痛,排了一天的错,没想到是数据这里的问题。。。原计划又被拖慢了·· 这大概就是要踩的坑吧,踩过了下次才会很容易想到,才会避免类似问题,也算是成长吧

幸运的是,找到报错的源头了,

体会是:解决bug真的靠运气,也靠经验

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值