[Spark] spark中API的使用

1. FileSystem

/** file system API */
import org.apache.hadoop.fs.{FileSystem, Path}
import org.apache.hadoop.conf.Configuration

val conf = new Configuration()
val path = new Path(dir)
val fs: FileSystem = FileSystem.get(path.toUri, conf)
if (fs.exists(path)) {
  colorful_green_println(path.toString + " exists and delete.")
  fs.delete(path)
}

2. CommendLine

import org.apache.commons.cli.{BasicParser, CommandLine, Options}
/** Parse the arguments */
val options: Options = new Options()
options.addOption("yesterday", true, "The date of yesterday.")
options.addOption("window", true, "The window of data we used.")
options.addOption("base_dir", true, "The base dir of path")

val parser: BasicParser = new BasicParser()
val cl: CommandLine = parser.parse(options, args)
val yesterday = cl.getOptionValue("yesterday")
val window = cl.getOptionValue("window").toInt
val base_dir = cl.getOptionValue("base_dir")
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值