spark:dataframe前面进行join然后写入hdfs文件的坎坷历程

本文记录了在使用Spark DataFrame执行join操作后写入HDFS时遇到的错误,首先出现文件找不到的问题,尝试清理HDFS缓存未解决问题。作者建议先在本地测试,如果本地可行而虚拟机不行,可能是虚拟机配置问题。通过查看日志发现是datanode的错误,并通过添加配置文件解决了问题。最后呼吁加强原创内容审核。
摘要由CSDN通过智能技术生成

在这里插入图片描述
这个是代码的片段,然后在运行的时候这段代码的时候报错,刚开始是报文件找不到。例如下图
在这里插入图片描述
然后开始一顿百度,其他的人都说什么清除hdfs的临时目录,再此我提醒大家
如果你的代码在一开始执行前面的过程能够正常写入hdfs的时候!就不要相信那些所谓的清除hdfs的缓存目录。你可以放到本地测试一下,
如果本地可以,虚拟机不行的话,那么就是你的虚拟机的问题。
记得要养成看log的文件的习惯!
例如下图在这里插入图片描述
这个是datanode的报错。
然后确定是虚拟机问题以后在去百度。添加配置文件

<property>
		<name>dfs.replication</name>
		&l
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值