spark 调用saveAsTextFile输出文件 报错NullPointerException
写了一个简单的分区并输出本地文件,结果输出的文件都是空白文件:
查询之后 发现是本地缺少hadoop需要的一个文件所致
如果本地已经安装了hadoop 一般不会有此问题 如果不愿安装 可按照下述方法解决
1)下载需要的文件 winutils.exe
将此文件放置在某个目录下,比如C:\winutils\bin\中。
3)在程序的一开始声明:System.setProperty(“hadoop.home.dir”, “c:\winutils\”)
winutils.exe文件下载
链接:https://
转载
2021-02-01 15:30:02 ·
522 阅读 ·
0 评论