这空值动不动就Null point error,是个巨大的坑,昨天调试了一天的程序发现,dataframe转rdd进行类似于filter一些的操作,最后count的时候就会报空指针的错误,但是df不转为rdd而是直接df.filter(func)的话,就可以不报错地完美运行。究其根本...待下回分解。
关于spark/Scala的空值处理:
https://www.cnblogs.com/wwxbi/p/6011422.html
https://blog.csdn.net/u012798083/article/details/82849438
https://www.jianshu.com/p/95896d06a94d
https://blog.csdn.net/bowenlaw/article/details/104298923