第68课:SparkSQL JDBC实战详解学习笔记

本文详细介绍了如何使用SparkSQL通过JDBC连接并操作MySQL数据库。内容涵盖配置DataFrameReader,加载数据,执行数据处理,以及将处理结果写回数据库。实例展示了数据的读取、转换、JOIN操作和数据写回的过程,强调了在大规模数据处理中SparkSQL的优势。
摘要由CSDN通过智能技术生成

第68课:SparkSQL JDBC实战详解学习笔记

本期内容:

1 SparkSQL操作关系型数据库的意义

2 SparkSQL操作关系型数据库实战

 

一.使用Spark通过JDBC操作数据库

SparkSQL可以通过JDBC从传统关系型数据库中读写数据,读取数据后直接生成的是DataFrame,然后再加上借助于Spark内核的丰富的API来进行各种操作。

不通过SparkSQL,直接通过RDD也可以操作Mysql

二.通过Java实战SparkSQL操作Mysql数据库。

package com.dt.spark.SparkApps.sql;

 

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.SQLException;

import java.sql.Statement;

import java.util.ArrayList;

import java.util.Iterator;

import java.util.List;

 

import org.apache.spark.SparkConf;

import org.apache.spark.api.java.JavaPairRDD;

import org.apache.spark.api.java.JavaRDD;

import org.apache.spark.api.java.JavaSparkContext;

import org.apache.spark.api.java.function.Function;

import org.apache.spark.api.java.function.PairFunction;

import org.apache.spark.api.java.function.VoidFunction;

import org.apache.spark.sql.DataFrame;

import org.apache.spark.sql.DataFrameReader;

import org.apache.spark.sql.Row;

import org.apache.spark.sql.RowFactory;

import org.apache.spark.sql.SQLContext;

import org.apache.spark.sql.types.DataTypes;

import org.apache.spark.sql.types.StructField;

import org.apache.spark.sql.types.StructType;

 

import scala.Tuple2;

 

public class SparkSQLJDBC2Mysql {

 

public static void main(String[] args) {

SparkConf conf = new SparkConf().setMaster("local").setAppName("SparkSQLJDBC2Mysql");

JavaSparkContext sc = new JavaSparkContext(conf);

SQLContext sqlContext = new SQLContext(sc);

/**

 * 1.通过format

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值