SparkSQL操作sqlserver和postgresql示例

 def main(agrs: Array[String]){
    //configuration and new Spark Context
    val conf = new SparkConf().setAppName("SparkSQL_Select_Table")
          .set("spark.driver.allowMultipleContexts", "true")
          .set("spark.sql.shuffle.partitions","12")
           //本地启动
          .setMaster("local[2]");
    val sc = new SparkContext(conf);
   
    //new SparkSQL Context
    val sqlContext = new org.apache.spark.sql.SQLContext(sc);
   
    val tableName = "test";
    val sql = "select count(*) from test";
    
    //Connection URL to sqlserver
    val sqlsUrl = "jdbc:sqlserver://ip:port;DatabaseName=dbName;username=user;password=user"
    
    //Connection URL to postgresql
    //val pgUrl = "jdbc:postgresql://ip:port/dbName?currentSchema=modelName&user=pg&password=pg"
    
    val df = sqlContext.load("jdbc", Map("url" -> sqlsUrl, "dbtable" -> tableName))
       df.registerTempTable(tableName);
    val dataResult = sqlContext.sql(sql);
    dataResult.show();
    //release Spark Context
    sc.stop();
  }

 

最近一直在用SparkSQL,将关系型数据库的数据导出到指定位置,这个指定位置概念很广泛,本地,分布式存储,分布式数据库,或者Tachyon这种内存文件系统。

 

上述代码需要注意,如果Master是本地,对应的JDBC驱动包在引用的jar包中即可,如果提交到Mesos或者yarn上,需要使用maven或sbt将JDBC驱动包一起打包到提交的jar包中,否则executor会报文件找不到的异常

 

 

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

zhao_rock_2016

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值