SparkSQL 中文编码问题及头字段名为中文问题解决
在用spark.read.csv 导入文件时,文件编码格式不是utf8格式,则会出现乱码情况。 val cameraDF = spark.read .option("encoding","GBK") .option("header", true) .schema("sxtid string,sxtxlh string") .csv("data/month5_B/data2/camera_info.csv")加入以上代码即可解决当文件中的头字段为中文时,用完he
原创
2021-07-06 14:38:24 ·
2911 阅读 ·
0 评论