2023大数据技能竞赛模块B数据抽取Task1_3(电商)

本文介绍了如何使用Scala和Spark从MySQL的shtd_store库中抽取base_province表的增量数据到Hive的ods库,包括添加新字段create_time、分区etl_date,并展示如何执行showpartitions操作。
摘要由CSDN通过智能技术生成

任务一

编写Scala代码,使用Spark将MySQL的shtd_store库中表user_info、sku_info、base_province、base_region、order_info、order_detail的数据增量抽取到Hive的ods库中对应表user_info、sku_info、base_province、base_region、order_info、order_detail中。(若ods库中部分表没有数据,正常抽取即可)


第三题: 

抽取shtd_store库中base_province的增量数据进入Hive的ods库中表base_province。根据ods.base_province表中id作为增量字段,只将新增的数据抽入,字段名称、类型不变并添加字段create_time取当前时间,同时添加静态分区,分区字段为etl_date,类型为String,且值为当前比赛日的前一天日期(分区字段格式为yyyyMMdd)。使用hive cli执行show partitions ods.base_province命令,将结果截图粘贴至客户端桌面【Release\任务B提交结果.docx】中对应的任务序号下;

下面代码运行前需要去hive里面添加一个字段create_time

ALTER TABLE ods.base_province ADD COLUMNS (create_time STRING);

代码实现:

package ModuleB.Task1

import org.apache.spark.SparkConf
import org.apache.spark.sql.SparkSession
import org.apache.spark.sql.functions._

object Task1_3 {
  def main(args: Array[String]): Unit = {
    // 设置 Spark 应用的配置
    val conf = new SparkConf().setAppName("Task1_3").setMaster("local[*]")
    // 创建 SparkSession
    val spark = SparkSession.builder().config(conf).enableHiveSupport().getOrCreate()
    // 设置 Hive 执行的动态分区模式
    spark.conf.set("hive.exec.dynamic.partition.mode", "nonstrict")
    // 设置 SparkContext 的日志级别
    spark.sparkContext.setLogLevel("OFF")

    // 通过 JDBC 读取 MySQL 中的数据
    val mysqldf = spark.read.format("jdbc")
      .option("driver", "com.mysql.jdbc.Driver")
      .option("url", "jdbc:mysql://master:3306/shtd_store")
      .option("user", "root")
      .option("password", "123456")
      .option("dbtable", "base_province")
      .load()


    // 创建 Hive 中的临时表 ods
    spark.sql("select * from ods.base_province").createOrReplaceTempView("ods")
    // 创建 MySQL 中的临时表 mysql
    mysqldf.createOrReplaceTempView("mysql")

    // 使用 mysql SQL 语句,筛选增量数据并存储在 DataFrame df1 中
    val df1 = spark.sql(
      """
        |select * from
        |mysql
        |where
        |mysql.id not in (select id from ods)
        |""".stripMargin)
    df1.show()

    // 获取昨天的日期
    val etlDate = java.time.LocalDate.now().minusDays(1).format(java.time.format.DateTimeFormatter.ofPattern("yyyyMMdd"))

    // 添加 etl_date 列,表示数据抽取日期
    val df2 = df1.withColumn("etl_date", lit(etlDate))
      // 添加 create_time 列,表示数据创建时间
      .withColumn("create_time", date_format(current_timestamp(), "yyyyMMdd"))

    // 将增量数据写入 Hive 表 ods.base_province,以 etl_date 列进行分区
    df2.write.format("hive").mode("append").partitionBy("etl_date").saveAsTable("ods.base_province")

    // 打印 Hive 表 ods.base_province 的分区信息
    spark.sql("show partitions ods.base_province").show()
    spark.stop()
  }
}

以上代码如有错误,请各位大佬指正

以下是抽取增量数据进入Hudi的代码: ```scala import org.apache.spark.sql.functions._ import org.apache.hudi.QuickstartUtils._ val jdbcUrl = "jdbc:mysql://localhost:3306/shtd_store?useSSL=false&serverTimezone=UTC" val dbProperties = new java.util.Properties() dbProperties.setProperty("user", "root") dbProperties.setProperty("password", "root") val user_df = spark.read.jdbc(jdbcUrl, "user_info", dbProperties) val hudi_options = Map[String, String]( HoodieWriteConfig.TABLE_NAME -> "user_info", HoodieWriteConfig.RECORDKEY_FIELD_OPT_KEY -> "id", HoodieWriteConfig.PRECOMBINE_FIELD_OPT_KEY -> "operate_time", HoodieWriteConfig.PARTITIONPATH_FIELD_OPT_KEY -> "etl_date", HoodieWriteConfig.KEYGENERATOR_CLASS_OPT_KEY -> "org.apache.hudi.keygen.NonpartitionedKeyGenerator", HoodieWriteConfig.OPERATION_OPT_KEY -> "upsert", HoodieWriteConfig.BULK_INSERT_SORT_MODE_OPT_KEY -> "GLOBAL_SORT", HoodieWriteConfig.BULK_INSERT_INPUT_RECORDS_NUM_OPT_KEY -> "500", HoodieWriteConfig.BULK_INSERT_PARALLELISM_OPT_KEY -> "2", HoodieWriteConfig.FORMAT_OPT_KEY -> "org.apache.hudi", HoodieWriteConfig.HIVE_SYNC_ENABLED_OPT_KEY -> "false", HoodieWriteConfig.HIVE_DATABASE_OPT_KEY -> "default", HoodieWriteConfig.HIVE_TABLE_OPT_KEY -> "user_info", HoodieWriteConfig.HIVE_PARTITION_FIELDS_OPT_KEY -> "etl_date", HoodieWriteConfig.HIVE_PARTITION_EXTRACTOR_CLASS_OPT_KEY -> "org.apache.hudi.hive.NonPartitionedExtractor", HoodieWriteConfig.HOODIE_TABLE_TYPE_OPT_KEY -> "MERGE_ON_READ" ) val etl_date = java.time.LocalDate.now.minusDays(1).format(java.time.format.DateTimeFormatter.BASIC_ISO_DATE) val hudi_df = user_df .withColumn("etl_date", lit(etl_date)) .withColumn("operate_time", coalesce(col("operate_time"), col("create_time"))) .withColumn("operate_time_long", unix_timestamp(col("operate_time"), "yyyy-MM-dd HH:mm:ss")) .withColumn("create_time_long", unix_timestamp(col("create_time"), "yyyy-MM-dd HH:mm:ss")) .withColumn("increment_ts", greatest(col("operate_time_long"), col("create_time_long"))) .filter(col("increment_ts") >= unix_timestamp(lit(etl_date), "yyyyMMdd")) .selectExpr("id", "username", "age", "gender", "create_time", "operate_time") .repartition(2) hudi_df.write .format("org.apache.hudi") .options(hudi_options) .mode("append") .save("hdfs://localhost:9000/user/hive/warehouse/ods_ds_hudi.db/user_info") ``` 执行完毕后,可以在Hive中使用`show partitions ods_ds_hudi.user_info`命令查看分区情况。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

xfcloud

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值