大数据培训-如何连通 Hive 数仓和ClickHouse

以下文章来源于大数据技术与架构

背景

目前公司的分析数据基本存储在 Hive 数仓中,使用 Presto 完成 OLAP 分析,但是随着业务实时性增强,对查询性能的要求不断升高,同时许多数据应用产生,比如对接 BI 进行分析等,Presto不能满足需求,在这个阶段我们引入了ClickHouse,用来建设性能更强悍,响应时间更短的数据分析平台,以满足实时性要求,但如何连通 Hive 数仓和ClickHouse呢?没错,当然是 Seatunnel 啦!

 

01 环境准备

官方推荐的
seatunnel1.5.7+spark2.4.8+scala2.11

全部解压安装到/u/module下即可

[hadoop@hadoop101 module]$ unzip /u/software/19.Seatunnel/seatunnel-1.5.7.zip -d /u/module/

[hadoop@hadoop101 module]$ tar -zxvf /u/software/19.Seatunnel/spark-2.4.8-bin-hadoop2.7.tgz -C /u/module

[hadoop@hadoop101 module]$ tar -zxvf /u/software/19.Seatunnel/scala-2.11.8.tgz -C /u/module

将 hive-site.xml 复制到 spark2/conf 目录下,这里取的是从 hive 复制到 Hadoop 配置目录下的

[hadoop@hadoop101 module]$ cp $HADOOP_CONF/hive-site.xml /u/module/spark-2.4.8-bin-hadoop2.7/conf

注意:如果你跟我一样,原来 Hive 默认使用Spark3,那么需要设置一个 Spark2 的环境变量

[hadoop@hadoop101 module]$ sudo vim /etc/profile

# SPARK_HOME

export SPARK_HOME=/u/module/spark

export PATH=$PATH:$SPARK_HOME/bin

# SPARK_END

# 多版本共存Spark,for waterdrop and Hive

export SPARK2_HOME=/u/module/spark-2.4.8-bin-hadoop2.7

#Scala Env

export SCALA_HOME=/u/module/scala-2.11.8/

export PATH=$PATH:$SCALA_HOME/bin

[hadoop@hadoop101 module]$ source /etc/profile

创建jobs目录存放执行conf文件

[hadoop@hadoop101 module]$ mkdir /u/module/seatunnel-1.5.7/jobs

02 数据准备

Hive:

drop table if exists prod_info;

create table prod_info

(

prod_sn string comment 'sn',

create_time string comment '创建时间'

)COMMENT '产品信息表'

PARTITIONED BY (`dt` string)

STORED AS PARQUET

TBLPROPERTIES ("parquet.compression" = "lzo");

插入数据:

insert into prod_info values ('F0001','2022-01-18 00:00:00.0','2022-01-18');

insert into prod_info values ('F00012','2022-01-19 00:00:00.0','2022-01-19');

ClickHouse:

drop table if exists prod_info;

create table prod_info

(

prod_sn String,

create_time DateTime

)engine =MergeTree

partition by toYYYYMMDD(create_time)

primary key (prod_sn)

ORDER BY (prod_sn)

03 多表全量or增量数据导入CK

使用cat <<!EOF把变量传进去,把脚本生成在jobs文件夹中,大数据培训然后再使用 seatunnel 的命令执行

关键点:

  1. 将输入参数封装成一个方法,方便一个脚本操作多个数仓表;
  2. 加入CK远程执行命令,插入前清除分区,以免导入双倍数据;
  3. 加入批量执行条件;

[hadoop@hadoop101 module]$ touch ~/bin/mytest.sh && chmod u+x ~/bin/mytest.sh && vim ~/bin/mytest.sh

注意:

  1. 这边 hive 中表压缩格式是 parquet+lzo ,读取出来没问题,插入时报错,我直接将之前搭建 Hadoop集群时$HADOOP_HOME/share/hadoop/common/hadoop-lzo-0.4.20.jar放到/u/module/spark-2.4.8-bin-hadoop2.7/jars(spark 目录下的 jars )下,即可解决
  2. 若 hive 表中有做分区,则需指定 spark.sql.hive.manageFilesourcePartitions=false

#!/bin/bash

# 环境变量

unset SPARK_HOME

export SPARK_HOME=$SPARK2_HOME

SEATUNNEL_HOME=/u/module/seatunnel-1.5.7

CLICKHOUSE_CLIENT=/usr/bin/clickhouse-client

# 接收两个参数,第一个为要抽取的表,第二个为抽取时间

# 若输入的第一个值为first,不输入第二参数则直接退出脚本

if [[ $1 = first ]]; then

if [ -n "$2" ] ;then

do_date=$2

else

echo "请传入日期参数"

exit

fi

# 若输入的第一个值为all,不输入第二参数则取前一天

elif [[ $1 = all ]]; then

# 判断非空,如果不传时间默认取前一天数据,传时间就取设定,主要是用于手动传参

if [ -n "$2" ] ;then

do_date=$2

else

do_date=`date -d '-1 day' +%F`

fi

else

if [ -n "$2" ] ;then

do_date=$2

else

echo "请传入日期参数"

exit

fi

fi

echo "日期:$do_date"

import_conf(){

# 打印数据传输脚本并赋值

cat>$SEATUNNEL_HOME/jobs/hive2ck_test.conf<<!EOF

spark {

spark.sql.catalogImplementation = "hive"

spark.app.name = "hive2clickhouse"

spark.executor.instances = 4

spark.executor.cores = 4

spark.executor.memory = "4g"

# 此参数为调用Hive分区必带!

spark.sql.hive.manageFilesourcePartitions=false

}

input {

hive {

pre_sql = "$1"

table_name = "$2"

}

}

filter {}

output {

clickhouse {

host = "$3"

database = "$4"

table = "$5"

fields = $6

username = "default"

password = ""

}

}

!EOF

$SEATUNNEL_HOME/bin/start-seatunnel.sh --config $SEATUNNEL_HOME/jobs/hive2ck_test.conf -e client -m 'local[4]'

}

# 全量数据导入

import_prod_info_first(){

$CLICKHOUSE_CLIENT --host hadoop101 --database test --query="truncate table test.prod_info"

import_conf "select prod_sn,substring(create_time,1,19) as create_time from default.prod_info" "prod_info" "hadoop101:8123" "test" "prod_info" "[\"prod_sn\",\"create_time\"]"

}

# 增量数据导入

import_prod_info(){

do_date_2=`echo $do_date |sed 's/-//g'`

# 为避免重复导入,导入前先清除分区,这是在建立表分区的前提下

$CLICKHOUSE_CLIENT --host hadoop101 --database test --query="alter table test.prod_info drop partition '${do_date_2}'"

import_conf "select prod_sn,substring(create_time,1,19) as create_time from default.prod_info where dt='${do_date}'" "prod_info" "hadoop101:8123" "test" "prod_info" "[\"prod_sn\",\"create_time\"]"

}

case $1 in

"prod_info_first"){

import_prod_info_first

};;

"prod_info"){

import_prod_info

};;

"first"){

import_prod_info_first

};;

"all"){

import_prod_info

};;

"tmp"){

import_prod_info

};;

esac

03.1首日全量导入

执行首日全量导入,后面的 2022-01-19 是为了配合数仓流程加入的

[hadoop@hadoop101 bin]$ mytest.sh first 2022-01-19

ClickHouse中查看是否导入:

 

查看CK的当前分区:

select * from system.parts p where table = 'prod_info' order by partition desc ;

 

可见数据导入无误~

03.2每日增量导入

hive中新增记录测试增量更新:

hive> insert into prod_info values ('F000123','2022-01-20 00:00:00.0','2022-01-20');

[hadoop@hadoop101 bin]$ mytest.sh all 2022-01-20

 

可见增量更新脚本也无误!

调试时可以修改 tmp 条件里的内容,然后使用调度工具如Dolphin Scheduler、Azkaban上监控多个脚本的分步执行情况,以便定位问题。

04 总结

本文主要分享了一个基于 Seatunnel 的生产力脚本,介绍了如何连通 Hive 数仓与 ClickHouse ,将 ClickHouse 无缝加入离线数仓流程,并进行流程测试。实际生产使用时,数据传输速度飞快。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
数据分析职业是一个多金的职业,数据分析职位是一个金饭碗的职位,前景美好,但是要全面掌握大数据分析技术,非常困难,大部分学员的痛点是不能快速找到入门要点,精准快速上手。本课程采用项目驱动的方式,以Spark3和Clickhouse技术为突破口,带领学员快速入门Spark3+Clickhouse数据分析,促使学员成为一名高效且优秀的大数据分析人才。学员通过本课程的学习,不仅可以掌握使用Python3进行Spark3数据分析,还会掌握利用Scala/java进行Spark数据分析,多语言并进,力求全面掌握;另外通过项目驱动,掌握Spark框架的精髓,教导Spark源码查看的技巧;会学到Spark性能优化的核心要点,成为企业急缺的数据分析人才;更会通过ClickhouseSpark搭建OLAP引擎,使学员对大数据生态圈有一个更加全面的认识和能力的综合提升。真实的数据分析项目,学完即可拿来作为自己的项目经验,增加面试谈薪筹码。课程涉及内容:Ø  Spark内核原理(RDD、DataFrame、Dataset、Structed Stream、SparkML、SparkSQL)Ø  Spark离线数据分析(千万简历数据分析、雪花模型离线数仓构建)Ø  Spark特征处理及模型预测Ø  Spark实时数据分析(Structed Stream)原理及实战Ø  Spark+Hive构建离线数据仓库(数仓概念ODS/DWD/DWS/ADS)Ø  Clickhouse核心原理及实战Ø  Clickhouse engine详解Ø  SparkClickhouse导入简历数据,进行数据聚合分析Ø  catboost训练房价预测机器学习模型Ø  基于Clickhouse构建机器学习模型利用SQL进行房价预测Ø  Clickhouse集群监控,Nginx反向代理Grafana+Prometheus+Clickhouse+node_exporterØ  Spark性能优化Ø  Spark工程师面试宝典       课程组件:集群监控:福利:本课程凡是消费满359的学员,一律送出价值109元的实体书籍.

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值