spark sql 以JDBC为数据源

一、环境准备:

安装mysql后,进入mysql命令行,创建测试表、数据:

 

将 mysql-connector-java 的jar文件拷贝到 \spark_home\lib\下,你可以使用最新版本,下载地址:

 http://dev.mysql.com/downloads/connector/j/

 

二、实现代码

1、准备工作:

         SparkConf conf =  new  SparkConf().setAppName( " JDBCDataSource "); // .setMaster("local");  
        JavaSparkContext sc =  new JavaSparkContext(conf);
        SQLContext sqlContext =  new SQLContext(sc);

 

2、从JDBC数据读取:

         Map<String, String> options =  new  HashMap<String, String>();

options.put("url", "jdbc:mysql://spark1:3306/testdb");
        

//读取第一个表

options.put("dbtable", "student_infos");

DataFrame studentInfosDF = sqlContext.read().format("jdbc")
                .options(options).load();

 

//读取第二个表

options.put("dbtable", "student_scores");

 

DataFrame studentScoresDF = sqlContext.read().format("jdbc")
.options(options).load();

 

 

3、 写入数据到JDBC

 


studentsDF.javaRDD().foreach( new  VoidFunction<Row>() {
    

    privatestaticfinallong serialVersionUID = 1L;
            
            public void call(Row row) throws Exception {
                // TODO Auto-generated method stub
                String sql = "insert into good_student_infos values(" 
                        + "'" + String.valueOf(row.getString(0)) + "',"
                        + Integer.valueOf(String.valueOf(row.get(1))) + ","
                        + Integer.valueOf(String.valueOf(row.get(2))) + ")";   
                
                Class.forName("com.mysql.jdbc.Driver");         
                
                Connection conn = null;
                Statement stmt = null;
                try {
                    conn = DriverManager.getConnection("jdbc:mysql://spark1:3306/testdb", "", "");      //可能有重复创建conn的问题,此处不做讨论   
                    stmt = conn.createStatement();
                    stmt.executeUpdate(sql);
                } catch (Exception e) {
                    e.printStackTrace();
                } finally {
                    if(stmt != null) {
                        stmt.close();
                    } 
                    if(conn != null) {
                        conn.close();
                    }
                }
            }
        }); 

 

 

三、bug解决

写本片文章的目的就是要记录这个错误,按照以上的方式实现,仍然会有报错,错误信息:"No suitable driver found for jdbc:mysql://spark1:3306/testdb",问题在于,仅仅将mysql-connector-java 的jar文件放到/spark_home/lib 目录是不够的,下面是群里技术前辈告诉我的解决方法, 原样贴上:

 

 

转载于:https://www.cnblogs.com/key1309/p/5350179.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值