Spark读写mysql

Spark读写Mysql

需要下载对应版本的mysql-connector-java-5.1.40.jar包,放入spark的jars目录下。
代码:

1.读mysql

val jdbcDF=spark.read.format("jdbc")
.option("url","jdbc:mysql://192.168.xxx.xxx:3306/test")
.option("driver","com.mysql.jdbc.Driver")
.option("dbtable","kafsql")     //表名
.option("user","root")          //用户名
.option("password","root")      //密码
.option("numPartitions", 5)     //并行数,按主键将表分为五个部分并行读取。存在两个问题:1.主键不连续,会造成数据倾斜,读取效率会受影响;2.值最好不要大于cup核数,否则部分任务依然等待cup资源释放后才进行
.load()

2.写入mysql

//写入数据
import java.util.Properties
import org.apache.spark.sql.types._
import org.apache.spark.sql.Row
//设置两条数据
val people=spark.sparkContext.parallelize(Array("25 张三 man 65 2019-06-19","26 小华 women 45 2019-06-19").map(s=>s.split(" "))
//设置模式信息
val fields=Array(StructField("id",IntegerType,false),StructField("name",StringType,true),StructField("sex",StringType,true),StructField("age",IntegerType,true),StructField("stime",StringType,true)) //true表示允许为空值
val schema=StructType(fields)
//生成dataframe
val rdd=people.map(p=>Row(p(0).toInt,p(1).trim,p(2).trim,p(3).toInt,p(4).trim))
val df=spark.createDataFrame(rdd,schema)
//链接数据库,创建prop变量保存JDBC参数
val prop=new Properties()
prop.put("user","root")
prop.put("password","root")
prop.put("driver","com.mysql.jdbc.Driver")
df.write.mode("append").jdbc("jdbc:mysql://192.168.xxx.xxx:3306/test","test.kafsql",prop)
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

鱼遇雨愈愉

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值