在用spark.read.csv 导入文件时,文件编码格式不是utf8格式,则会出现乱码情况。
val cameraDF = spark.read
.option("encoding","GBK")
.option("header", true)
.schema("sxtid string,sxtxlh string")
.csv("data/month5_B/data2/camera_info.csv")
加入以上代码即可解决
当文件中的头字段为中文时,用完header后,继续使用schema进行重新覆写字段名 。