spark 集成 ClickHouse 和 MySQL (读和写操作)(笔记)

目录

前言:

一.spark读出

1. spark 读出 MySQL表数据

1.2 spark 读出 ClickHouse表数据

 二.spark写入

1. spark 写入 MySQL表数据

 2.spark 写入 ClickHouse表数据


前言:

这篇文章主要记录的是用spark集成ClickHouse和MySQL,

将数据read出,和将数据write写入表的 (记录笔记)

创建sparkSession

因为这个不是重点,所以先简单创建下,实际是需要按照你的需求创建的

// 创建SparkSession
val spark = SparkSession.builder()
  .appName("Write to MySQL")
  .config("spark.sql.catalogImplementation", "hive")
  .getOrCreate()

一.spark读出

1. spark 读出 MySQL表数据

//读取数据    
 spark.read.format("jdbc")
      .option("url","jdbc:mysql://address-ip:3306/ds_db01??characterEncoding=UTF-8")  //url
      .option("driver","com.mysql.jdbc.Driver")     //驱动
      .option("user","root")                        //用户名
      .option("password","123456")                   //密码
      .option("dbtable","product_info")                //表
      .load().createOrReplaceTempView("v")
    spark.sql("select * from v")      //查询

1.2 spark 读出 ClickHouse表数据

    //    以jdbc为连接方式进行连接clickhouse
    val frame = sc.read.format("jdbc")
      .option("driver","ru.yandex.clickhouse.ClickHouseDriver" )//      配置driver
      .option("url", "jdbc:clickhouse:/address-ip:8123/shtd_result")//       配置url
      .option("dbtable", "cityavgcmpprovince")
      .option("user", "default")
      .option("password", "123456")
      .load()

 二.spark写入

1. spark 写入 MySQL表数据

// 将数据写入MySQL表
processedData.write
  .format("jdbc")
  .option("driver", "com.mysql.jdbc.Driver")
  .option("url", "jdbc:mysql://mysql-host:3306/database")
  .option("dbtable", "mysql_table")
  .option("user", "username")
  .option("password", "password")
  .mode(SaveMode.Append)
  .save()

 2.spark 写入 ClickHouse表数据

// 将数据写入ClickHouse表
processeData.write
  .format("jdbc")
  .option("driver", "ru.yandex.clickhouse.ClickHouseDriver")
  .option("url", "jdbc:clickhouse://clickhouse-host:8123/database")
  .option("dbtable", "clickhouse_table")
  .option("user", "username")
  .option("password", "password")
  .mode(SaveMode.Append)
  .save()
processedData:代表你处理好的数据的DataFrame对象。
path/to/processedData.parquet:代表你处理好的数据的存储路径,可以是Parquet、CSV等格式。
mysql-host:代表MySQL数据库的主机名或IP地址。
database:代表MySQL数据库的名称。
mysql_table:代表要写入的MySQL表的名称。
username:代表连接MySQL所需的用户名。
password:代表连接MySQL所需的密码

mode参数

1. SaveMode.Append:将新数据追加到目标表的末尾。如果表不存在,则创建一个新表并保存数据。

2. SaveMode.Overwrite:完全覆盖目标表的数据。如果表不存在,则创建一个新表并保存数据。

3. SaveMode.ErrorIfExists:如果目标表已经存在,则抛出一个错误。用于避免意外地覆盖已有数据。

4. SaveMode.Ignore:如果目标表已经存在,则忽略保存操作,不做任何处理。

这些参数用于指定保存数据时的行为。根据具体的需求,选择合适的保存模式可以确保数据正确地保存到目标表中,同时避免意外覆盖或丢失数据。

  • 0
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
数据分析职业是一个多金的职业,数据分析职位是一个金饭碗的职位,前景美好,但是要全面掌握大数据分析技术,非常困难,大部分学员的痛点是不能快速找到入门要点,精准快速上手。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。学员通过本课程的学习,不仅可以掌握使用Python3进行Spark3数据分析,还会掌握利用Scala/java进行Spark数据分析,多语言并进,力求全面掌握;另外通过项目驱动,掌握Spark框架的精髓,教导Spark源码查看的技巧;会学到Spark性能优化的核心要点,成为企业急缺的数据分析人才;更会通过ClickhouseSpark搭建OLAP引擎,使学员对大数据生态圈有一个更加全面的认识和能力的综合提升。真实的数据分析项目,学完即可拿来作为自己的项目经验,增加面试谈薪筹码。课程涉及内容:Ø  Spark内核原理(RDD、DataFrame、Dataset、Structed Stream、SparkML、SparkSQL)Ø  Spark离线数据分析(千万简历数据分析、雪花模型离线数仓构建)Ø  Spark特征处理及模型预测Ø  Spark实时数据分析(Structed Stream)原理及实战Ø  Spark+Hive构建离线数据仓库(数仓概念ODS/DWD/DWS/ADS)Ø  Clickhouse核心原理及实战Ø  Clickhouse engine详解Ø  SparkClickhouse导入简历数据,进行数据聚合分析Ø  catboost训练房价预测机器学习模型Ø  基于Clickhouse构建机器学习模型利用SQL进行房价预测Ø  Clickhouse集群监控,Nginx反向代理Grafana+Prometheus+Clickhouse+node_exporterØ  Spark性能优化Ø  Spark工程师面试宝典       课程组件:集群监控:福利:本课程凡是消费满359的学员,一律送出价值109元的实体书籍.
### 回答1: Spark SQL可以通过JDBC连接操作MySQL数据库,也可以通过HiveContext连接操作Hive数据仓库。对于MySQL数据库,需要先将MySQLJDBC驱动包添加到Spark的classpath中,然后使用SparkSession的read和write方法MySQL表。对于Hive数据仓库,需要先启动Hive服务,并将Hive的JDBC驱动包添加到Spark的classpath中,然后使用HiveContext的sql方法执行HiveQL语句。 ### 回答2: Spark SQL 是 Spark 的一个子模块,它支持对结构化数据进行处理和分析,同时 Spark SQL 可以与多种数据源进行集成和交互,其中包括 MySQL 数据库和 Hive 数据仓库。 Spark SQL 操作 MySQL 数据库的实现方式通常是通过 JDBC 驱动来实现的。首先需要在 Spark 的配置文件中添加 MySQL 驱动的相关配置信息,同时也需要将 MySQL 驱动的 JAR 包添加到 Spark 的 Classpath 中,然后就可以使用 Spark SQL 的数据源 API 将 MySQL 数据库中的数据载入到 Spark 的 DataFrame 中进行处理和分析了。 Spark SQL 操作 Hive 数据仓库的实现方式也较为简单,因为 Spark 提供了对 Hive 的原生支持,可以直接将 Hive 表作为 Spark SQL 的数据源进行处理和分析。在使用 Spark SQL 操作 Hive 数据仓库时,需要在 Spark 的配置文件中添加 Hive 的相关配置信息,同时也需要将 Hive 的 JAR 包添加到 Spark 的 Classpath 中,然后就可以在 Spark SQL 中使用 Hive 数据源 API 从 Hive 数据仓库中取数据进行分析和处理。 总的来说,Spark SQL 操作 MySQL 和 Hive 数据仓库都比较方便,只需要配置好相关的驱动和参数,就可以像处理普通数据文件一样对这些数据进行查询和转换。此外,Spark SQL 还支持多种数据源的交互,包括 JSON,CSV,Parquet,Avro 和 ORC 等格式的数据文件。Spark SQL 的数据源兼容性很好,可以方便地与多种数据源进行集成使用,为分布式数据处理和分析带来更多的便利和灵活性。 ### 回答3: Spark SQL是以SQL语言为基础的Apache Spark模块。它支持从多种数据源中取数据,进行数据操作和数据分析。其中,MySQL数据库和Hive数据仓库都是比较常见的数据源之一。下面就分别介绍一下Spark SQL操作MySQL和Hive的方法和步骤。 1. Spark SQL操作MySQL数据库 步骤一:导入MySQLJDBC driver Spark SQL需要使用MySQL JDBC driver来操作MySQL数据库,因此需要先将其导入到Spark代码中。可以在maven中央仓库中找到适合版本的MySQL JDBC driver,然后将其添加到项目中。 步骤二:连接MySQL数据库 在Spark SQL中,一般通过jdbc的方式来连接MySQL数据库。需要提供MySQL服务的IP地址和端口,数据库名称以及登录MySQL的用户名和密码。连接MySQL数据库的代码示例: ``` val jdbcDF = spark.read .format("jdbc") .option("url", "jdbc:mysql://mysqlip:3306/test") .option("dbtable", "userinfo") .option("user", "root") .option("password", "root") .load() ``` 上述代码中,将MySQL的IP地址和端口、数据库名称、表名、用户名和密码等信息封装在.option()中。 步骤三:操作MySQL数据库 连接成功后,即可对MySQL数据库进行操作Spark SQL操作MySQL的方式与操作DataFrame或SQL类似。例如: ``` jdbcDF.show() ``` 上述代码中,使用.show()方法来展示加载到DataFrame中的MySQL表的数据。 2. Spark SQL操作Hive数据仓库 步骤一:配置Hive Support 为了让Spark SQL支持Hive,需要在构建Spark时开启Hive Support。可以在Spark官网(https://spark.apache.org/downloads.html)下载已经包含了Hive Support的Spark压缩包,或者自行下载源码进行编译。 步骤二:连接Hive数据仓库 连接Hive数据仓库需要使用Hive JDBC driver。可以从Apache官网(https://hive.apache.org/downloads.html)下载Hive JDBC driver并添加到项目。 连接Hive数据仓库的代码示例: ``` val spark = SparkSession.builder() .appName("SparkHive") .master("local") .enableHiveSupport() .getOrCreate() ``` 上述代码中,通过.enableHiveSupport()方法开启Spark SQL支持Hive。创建完SparkSession后,即可连接Hive数据库。 步骤三:操作Hive数据库 连接成功后,即可在Spark SQL中操作Hive数据库。Spark SQL通过HiveQL来操作Hive数据库,与操作SQL语句类似。例如: ``` spark.sql("SELECT * FROM testdb.userinfo").show() ``` 上述代码中,使用sql()方法来执行SELECT语句,并展示结果。 综上,Spark SQL可以操作MySQL和Hive等多种数据源。操作MySQL需要导入MySQL JDBC driver,并通过jdbc连接MySQL数据库;操作Hive需要在构建Spark时开启Hive Support,并导入Hive JDBC driver。操作数据库的代码与Spark SQL操作DataFrame和SQL基本一致。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

小辉懂编程

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值