Spark之 使用SparkSql操作mysql和DataFrame的Scala实现

Spark之 使用SparkSql操作mysql和DataFrame的Scala实现

通过读取文件转换成DataFrame数据写入到mysql中

package com.zy.sparksql

import java.util.Properties

import org.apache.spark.SparkContext
import org.apache.spark.rdd.RDD
import org.apache.spark.sql.{DataFrame, Row, SparkSession}
import org.apache.spark.sql.types.{IntegerType, StringType, StructType}

/**
  * 通过读取文件转换成DataFrame数据写入到mysql中
  */
object SparkSqlToMysql {
  def main(args: Array[String]): Unit = {
    //创建sparkSession
    val sparkSession: SparkSession = SparkSession.builder().appName("SparkSqlToMysql").master("local").getOrCreate()
    //读取数据
    val sc: SparkContext = sparkSession.sparkContext
    val fileRDD: RDD[String] = sc.textFile("D:\\person.txt")
    //切分
    val lineRDD: RDD[Array[String]] = fileRDD.map(_.split(","))

    //关联  通过StructType指定schema将rdd转换成DataFrame
    val rowRDD: RDD[Row] = lineRDD.map(x => Row(x(0).toInt, x(1), x(2).toInt))
    val schema = (new StructType).add("id", IntegerType, true).add("name", StringType, true).add("age", IntegerType, true)
    //根据rdd和schema创建DataFrame
    val personDF: DataFrame = sparkSession.createDataFrame(rowRDD, schema)

    //将df注册成表
    personDF.createOrReplaceTempView("person")

    //操作表
    val resultDF: DataFrame = sparkSession.sql("select * from person order by age desc")

    //将数据存到mysql中
    //创建properties对象 设置连接mysql的信息
    val prop: Properties = new Properties()
    prop.setProperty("user", "root")
    prop.setProperty("password", "root")

    /** mode方法可以指定数据插入模式
      * overwrite:覆盖,覆盖表中已经存在的数据,如果表不存在它会事先帮你创建
      * append:追加,向表中追加数据,如果表不存在它会事先帮你创建
      * ignore:忽略,表示如果表事先存在,就不进行任何操作
      * error :如果表存在就报错,它是默认选项
      */
    resultDF.write.mode("error").jdbc("jdbc:mysql://192.168.44.31:3306/spark", "person", prop)

    sparkSession.stop()
  }
}

 

从mysql中读取数据到DataFrame中

package com.zy.sparksql

import java.util.Properties

import org.apache.spark.sql.{DataFrame, SparkSession}

/**
  * 从mysql中读取数据到DataFrame中
  */
object DataFromMysql {
  def main(args: Array[String]): Unit = {
    //创建sparkSession
    val sparkSession: SparkSession = SparkSession.builder().appName("DataFromMysql").master("local").getOrCreate()
    //创建properties对象 设置连接mysql的信息
    val prop: Properties = new Properties()
    prop.setProperty("user", "root")
    prop.setProperty("password", "root")

    //读取mysql数据
    val mysqlDF: DataFrame = sparkSession.read.jdbc("jdbc:mysql://192.168.44.31:3306/spark", "person", prop)
    mysqlDF.show()

    sparkSession.stop()
  }
}

 

posted @ 2018-02-18 22:07 青衫仗剑 阅读( ...) 评论( ...) 编辑 收藏
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值