spark mysql 数据源_spark sql 连接使用mysql数据源

spark sql 可以通过标准的jdbc连接数据库,获得数据源

package com.xx;

import org.apache.spark.SparkConf;

import org.apache.spark.SparkContext;

import org.apache.spark.sql.DataFrame;

import org.apache.spark.sql.SQLContext;

/**

* spark sql

* @author Chenj

*/

public class SparkSql {

private static final String appName = "spark sql test";

private static final String master = "spark://192.168.1.21:7077";

private static final String JDBCURL = "jdbc:mysql://192.168.1.55/lng?useUnicode=true&characterEncoding=utf-8&user=root&password=123456";

public static void main(String[] avgs){

SparkConf conf = new SparkConf().

setAppName(appName).

setMaster(master).

setSparkHome(System.getenv("SPARK_HOME")).

setJars(new String[]{System.getenv("JARS")});

SparkContext sparkContext = new SparkContext(conf);

SQLContext sqlContext = new SQLContext(sparkContext);

DataFrame user = sqlContext.jdbc(JDBCURL, "tsys_user");

user.show();

}

}

首先得上传mysql 的驱动jar包到集群中。

使用

./spark-submit --driver-class-path ../lib/mysql-connector-java-5.1.36.jar --class com.xx.SparkSql --master spark://ser21:7077 /usr/local/spark-1.0-SNAPSHOT.jar

--driver-class-path 为jdbc驱动地址,

原文:http://my.oschina.net/u/160697/blog/516300

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值