Spark读取jdbc

22 篇文章 0 订阅
2 篇文章 0 订阅
该Java程序展示了如何使用ApacheSpark的SparkSessionAPI从MySQL数据库中读取数据。它设置了Spark运行模式为本地,连接到指定的数据库并读取名为userTable的表,然后计算行数并显示结果。
摘要由CSDN通过智能技术生成
/* SimpleApp.java */

import org.apache.spark.api.java.function.FilterFunction;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

/**
 * 计算文件中分别包含a和b的行数
 */
public class JdbcReadApp {
    public static void main(String[] args) throws InterruptedException {
        /*
        local 本地单线程
        local[K] 本地多线程(指定K个内核)
        local[*] 本地多线程(指定所有可用内核)
        spark://HOST:PORT 连接到指定的  Spark standalone cluster master,需要指定端口。
        mesos://HOST:PORT 连接到指定的  Mesos 集群,需要指定端口。
        yarn-client客户端模式 连接到  YARN 集群。需要配置 HADOOP_CONF_DIR。
        yarn-cluster集群模式 连接到 YARN 集群。需要配置 HADOOP_CONF_DIR。
         */
        //本地运行要设置spark.master为local或在VM options中输入“-Dspark.master=local”
        // spark-shell --master local
        System.setProperty("spark.master", "local");
//        System.setProperty("spark.master", "local[2]");
        SparkSession spark = SparkSession.builder().appName("JdbcRead Application").getOrCreate();

        Dataset<Row> logData = spark.read().format("jdbc")
                .option("url", "jdbc:mysql://192.168.129.102:3306/mydbname")
                .option("driver", "com.mysql.jdbc.Driver")
                .option("dbtable", "userTable")
                .option("user", "root")
                .option("password", "123456")
                .load();

        long count = logData.count();
        System.out.println("Lines count: " + count );
//        System.out.println("lines : " + logData.toString());
        logData.show();
        //暂不退出main,方便使用http://127.0.0.1:4040/ 进行查看
        Thread.sleep(1000*60*10);

        spark.stop();
    }
}

pom.xml

<?xml version="1.0" encoding="UTF-8"?>
<project xmlns="http://maven.apache.org/POM/4.0.0"
         xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"
         xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
    <groupId>edu.berkeley</groupId>
    <artifactId>simple-project</artifactId>
    <modelVersion>4.0.0</modelVersion>
    <name>Simple Project</name>
    <packaging>jar</packaging>
    <version>1.0</version>

    <properties>
        <maven.compiler.source>8</maven.compiler.source>
        <maven.compiler.target>8</maven.compiler.target>
    </properties>
    <dependencies>
        <dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-sql_2.12</artifactId>
            <version>3.1.2</version>
        </dependency>
        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>8.0.27</version>
        </dependency>
    </dependencies>
</project>
Spark分区读取JDBC可以通过指定分区列和分区数来实现。Spark的分区读取功能可以更好地利用并行处理的能力,并提高数据读取的效率。 首先,我们需要创建一个JDBC连接,并指定要读取的表名。然后,可以通过调用SparkSession对象的jdbc方法来读取数据。在jdbc方法中,我们需要指定JDBC连接信息、表名、分区列、分区数等参数。 例如,假设我们要读取的表名为"employees",通过"department_id"列进行分区,分为4个分区,可以按以下方式调用jdbc方法: ```python val spark = SparkSession.builder() .appName("JDBC Read Partition") .master("local[*]") .getOrCreate() val jdbcUrl = "jdbc:mysql://localhost:3306/mydatabase" val tableName = "employees" val partitionColumn = "department_id" val numPartitions = 4 val jdbcDF = spark.read.format("jdbc") .option("url", jdbcUrl) .option("dbtable", tableName) .option("partitionColumn", partitionColumn) .option("numPartitions", numPartitions) .load() ``` 通过以上代码,Spark将根据指定的分区列和分区数,将数据读取并分发到不同的分区中进行并行处理。这样可以充分利用Spark的并行计算能力,提高数据处理的效率。 需要注意的是,分区的数量应该根据数据的大小和集群的规模合理选择。如果分区过多,可能会导致过多的小任务,影响性能;如果分区过少,可能会导致某些节点的负载过重,也会影响性能。因此,需要根据实际情况进行调优。 总结起来,Spark分区读取JDBC可以通过指定分区列和分区数来实现并行处理,提高数据读取的效率和性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值