SparkSQL读取CSV文件

一、核心代码

   val spark = SparkSession
                    .builder()
                    .master("local[2]")
                    .appName("app")
                    .getOrCreate()
    //读取文件
    val srcDF = spark
                    .read
                    .format("csv")
                    .option("header","true")
                    .option("multiLine", true)
                    .load("file:///C:\\1.csv")

    spark.stop()

二、关键参数

       format指定读取csv文件。

       header是否指定头部行作为schema。

       multiLine在单元格中可能因为字数多有换行,但是不指定这个参数,处理数据时可能会报错。指定这个参数为true,可以将换行的单元格合并为1行。

三、写出csv文件

      

write.csv("/data/csv")

   如果字段内有换行的话,最好对字段进行处理。

translate(jsonData,'\r\n','')
//将字段中换行去掉

 

  • 2
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值