[原创]SparkR针对mysql的数据读写操作实现

网上翻了两天没找到一份有用的文章,自己研究SparkR的官方api文档,总算找到了实现的接口

我是用R语言加载SparkR库的方式,当然也可以直接用SparkR控制台就不用自己加载SparkR的库了

 

#首先加载sparkR的库

Sys.setenv(TEST_HOME = "/root/software/spark-1.6.0-bin-hadoop2.6")

library(SparkR, lib.loc = c(file.path(Sys.getenv("TEST_HOME"), "R", "lib")))

 

#初始化sqlContext

sc <- sparkR.init(master = "local[*]", sparkEnvir = list(spark.driver.memory="2g"))

sqlContext <- sparkRSQL.init(sc)

 

#mysql数据库加载表数据,url、用户名和密码修改为自己的

df <- loadDF(sqlContext, source="jdbc", url="jdbc:mysql://192.168.11.8:3306/testdb?characterEncoding=UTF-8", dbtable="testdb.forecast",user="root",password="***")

 

//把df注册为临时表tbl

registerTempTable(df,"tbl")

 

#创建一条数据记录

#df转换为R的data.frame

df2=as.data.frame(df)

 

#修改下数据内容

df2[1,]=c('2002-02-02',6)

 

#把R的data.frame数据转换为spark的DataFrame

df3=as.DataFrame(sqlContext,df2)

 

//数据记录df3插入mysql数据表,overwrite=TRUE时删除数据表全部数据,写入新数据,=FALSE时把数据记录追加入数据表,保留原表数据

insertInto(df3,"tbl",overwrite=TRUE)

 

大功告成,去sql server查询一下,数据已经添加成功了

转载于:https://www.cnblogs.com/greatOldCoder/p/9238638.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值