val data = spark.read.
.option("header", "true")
.option("inferSchema", "true")
.option("multiLine", true)
.option("delimiter", ",")
.format("csv")
.load("hdfs://hadoop-master:9000/datasource/myfile.csv")
可使用multiline option解决读的多行问题
输出csv时,可使用apache的common包解决特殊符号问题:StringEscapeUtils.escapeCsv() 或者用option("quoteAll",true)
如若需要进一步移除特殊字符,可使用.replaceAll("[\b\r\n\t]*", "")方法替换字符
spark 读写scv文件遇到换行问题
最新推荐文章于 2022-06-16 11:31:50 发布