package total
import org.apache.spark.sql.{DataFrame, Row, SQLContext, SparkSession}
import org.apache.spark.{SparkConf, SparkContext}
import java.util.Properties
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.types.{LongType, StringType, StructField, StructType}
object CountProvince {
def main(args: Array[String]): Unit = {
/**
* 第一种写入Mysql方式
*/
/**
* 第一步判断参数个数
*/
if (args.length < 2){
println(
"""
|total.CountProvince<inputFilePath><outputFilePath>
|<inputFilePath> 输入的文件路径
|<outputFilePath> 输出的文件路径
""".stripMargin
)
System.exit(0)
}
/**
* 接收参数
*/
val Array(inputFile,outputFile) = args
val conf = new SparkConf().setAppName(s"${this.getClass.getSimpleName}")
// val sc = new SparkContext(conf)
// val input &
Mysql学习(三)Spark(Scala)写入Mysql的两种方式
最新推荐文章于 2024-06-07 16:52:11 发布