用SparkSQL读取Hive中的数据后,将DataFrame转化成JavaRDD,想要foreach打印里面的内容,或者collect一下,都会报错: 说是某各类没有序列化,但是我找来找去没有在闭包内部使用外部类,连collect一下也报错。 上网查说是版本的bug,这是Spark2.2.0的bug,后面2.2.1以后就修复了,我就换了2.2.1的版本,就直接可以跑了