Spark/scala 写数据到Mysql数据库方法一

首先需要使用Navicat在数据库建库santi,在santi内建表santi_001
表的格式需要与santi_001(lal: String,count:Int,time:String)相同。
代码如下。
使用SQL语句写入数据库

import java.sql.{DriverManager, Connection}
import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkContext, SparkConf}

object ToMysql{
/**
*’host’: “192.168.137.131”,
*’user’: “root”,
*’password’: “password”,
*’database’: “santi”,
*’charset’: ‘utf8’
* */

case class santi_001(lal: String,count:Int,time:String)
//模式匹配,测试后不模式匹配也写入成功
val url=”jdbc:mysql://192.168.137.131:3306/santi”
def myFun(iterator: Iterator[(String, Int,String)]): Unit = {
var conn: Connection= null
var ps:java.sql.PreparedStatement=null
//比Statement方便,S执行一条Sql就得执行一次Statement,而PS性能体现在多次执行Sql,而且参数设置更加方便
val sql=”insert into santi_001(lal, count,time) values (?,?,?)”

conn=DriverManager.getConnection(url,”root”,”password”)
ps = conn.prepareStatement(sql)
iterator.foreach(data => {
ps.setString(1, data._1)
ps.setInt(2, data._2)
ps.setString(3, data._3)
ps.executeUpdate() //执行了Sql语句
}
)
}

def main(args: Array[String]) {
//创建环境变量
val sparkConf = new SparkConf().setAppName(“PeakTimePeople”)
//创建环境变量实例
val sc = new SparkContext(sparkConf)
val a=List((“12@21”,12,”20160201”),(“13@12”,31,”20160831”),(“13@12”,31,”20160826”))
val data:RDD[(String, Int, String)] = sc.parallelize(a) //parallelize可分区的makeRDD
data.foreachPartition(myFun) //foreachPartition对每一个分区使用Function
sc.stop()
}
}

执行结果
这里写图片描述

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值