spark连接mysql,hbase

本文详细介绍了如何使用Spark连接并操作MySQL与HBase。首先讲解了如何配置及使用`foreach`和`foreachPartition`算子将文件数据写入MySQL表中,接着介绍了为Spark项目添加相关依赖以读取文件数据并写入HBase表的步骤和代码实现。
摘要由CSDN通过智能技术生成

 

通过spark读取文件数据写入mysql表中

  • 添加pom依赖

        <dependency>
            <groupId>mysql</groupId>
            <artifactId>mysql-connector-java</artifactId>
            <version>5.1.38</version>
        </dependency>

9.1 foreach算子实现

  • 代码开发

package com.ssd.rdd
import java.sql.{Connection, DriverManager, PreparedStatement}

import org.apache.spark.rdd.RDD
import org.apache.spark.{SparkConf, SparkContext}

object Data2MysqlForeach {
  def main(args: Array[String]): Unit = {
    //1、构建SparkConf
    val sparkConf: SparkConf = new SparkConf().setAppName("Data2MysqlForeach").setMaster("local[2]")

    //2、构建SparkContext
    val sc = new SparkContext(sparkConf)
    sc.setLogLevel("warn")

    //3、读取数据文件
    val data: RDD[String] = sc.textFile("E:\\data\\person.txt")

    //4、切分每一行    // id  name  age
    val personRDD: RDD[(String, String, Int)] = data.map(x => x.split(",")).map(x => (x(0), x(1), x(2).toInt))

    //5、把数据保存到mysql表中
        personRDD.foreach(line =>{
          //每条数据与mysql建立连接
          //把数据插入到mysql表操作
            //1、获取连接
              val connection: Co
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
Spark可以通过JDBC连接连接MySQL、Hive和HBase连接MySQL: 1. 首先需要下载MySQL的JDBC驱动程序,并将其添加到Spark的classpath中。 2. 然后可以使用以下代码连接MySQL: ``` val jdbcDF = spark.read .format("jdbc") .option("url", "jdbc:mysql://localhost:3306/mydatabase") .option("dbtable", "mytable") .option("user", "myusername") .option("password", "mypassword") .load() ``` 其中,url指定了MySQL连接地址,dbtable指定了要读取的表名,user和password指定了登录MySQL的用户名和密码。 连接Hive: 1. 首先需要在Spark的classpath中添加Hive的JDBC驱动程序。 2. 然后可以使用以下代码连接Hive: ``` val jdbcDF = spark.read .format("jdbc") .option("url", "jdbc:hive2://localhost:10000/default") .option("dbtable", "mytable") .option("user", "myusername") .option("password", "mypassword") .load() ``` 其中,url指定了Hive的连接地址,dbtable指定了要读取的表名,user和password指定了登录Hive的用户名和密码。 连接HBase: 1. 首先需要在Spark的classpath中添加HBase的JDBC驱动程序。 2. 然后可以使用以下代码连接HBase: ``` val jdbcDF = spark.read .format("jdbc") .option("url", "jdbc:phoenix:localhost:2181:/hbase") .option("dbtable", "mytable") .option("user", "myusername") .option("password", "mypassword") .load() ``` 其中,url指定了HBase连接地址,dbtable指定了要读取的表名,user和password指定了登录HBase的用户名和密码。
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值