spark 写tidb_11 TiSpark 简介与实战 - 11.4 TiSpark 结合大数据体系 - 《TiDB实战(TiDB in Action)》 - 书栈网 · BookStack...

11.4 TiSpark 结合大数据体系

作为新兴的存储引擎,TiDB 虽然在架构上比大多数传统主流的大技术体系要相对优雅和先进,但由于技术生态以及迁移成本等问题,不可能在短时间内取而代之,因此必然面临和前辈共处一室的尴尬场景。毕竟谁也拉不下面子把自己辛苦收集和处理的数据再抽取一次丢给对方使用,但老板又说要实现数据协同效应,怎么办呢?下面介绍一些皆大欢喜的解决办法。

11.4.1 与 Hive 表混和读写

但凡有些规模和积累的公司一定不会对基于 Hadoop 集群的 Hive 表陌生,毕竟廉价,稳定且成熟。但 Hive 表不适合存放频繁变化的数据,而这却是 TiDB 的强项,这就导致了很多业务公司可能既有 Hadoop 集群又有 TiDB 集群。要实现完美的混和访问,我们希望达到以下三个核心目标:

对业务 SQL 来讲,不能有 Hive/TiDB 表的区分,都按库名+表名进行访问,不要有多余操作。

由于访问 Hive 表可能需要消耗巨大资源,因此最好可以使用与之配套的计算集群资源。

确保 hive-site.xml 能够被 Spark 访问到,例如 hive-site.xml 复制到 SPARK_HOME/conf 下。hive-site.xml 中包含了 Hive Metastore 相关信息,只有 Spark 可以读取它,才能访问 Hive 中的数据。

下节将用一个具体的例子进行阐述。

11.4.2 使用 beeline + Livy + Spark + Tispark 实现混访软件环境清单:

Livy 服务,版本:基于 0.6 版本的改动版,作用:提交原始任务到 Spark 客户端;

beeline 客户端,版本:3.1.1,作用:连接 Livy 服务的客户端;

Spark 客户端,版本:2.4.0,作用:向 yarn 集群提交 Spark 作业;

Tispark Jar 包,版本:2.1.8,作用:提供与 TiKV 交互的能力;

YARN 集群,作用:提供计算资源。

函数封装代码:

functionrunMixSQLOnLivy(){

exportHIVE_HOME=/usr/local/share/apache-Hive-3.1.1-bin

/usr/local/share/apache-Hive-3.1.1-bin/bin/beeline-n hdfs_user_name-p hdfs_user_pwd--verbose=false--color=false\

-u"jdbc:Hive2://bj0000,bj0001,bj0002:2222/;serviceDiscoveryMode=zooKeeper;zooKeeperNamespace=mix-livy"\

--Hiveconflivy.session.conf.spark.sql.extensions=org.apache.spark.sql.TiExtensions\

--Hiveconflivy.session.conf.spark.tispark.pd.addresses=10.10.10.11:2379,10.10.10.12:2379,10.10.10.13:2379\

--Hiveconflivy.session.conf.spark.jars=hdfs://com-hdfs/user/spark/tispark-core-2.1.4-spark_2.4-jar-with-dependencies.jar \

--Hiveconflivy.session.name=session_name_${RANDOM}_$2 \

--Hiveconflivy.session.queue=your_yarn_queue_name \

-e"$1"

}

封装函数说明:

上述函数为封装的 shell 脚本函数,接收 2 个参数,$1 是 SQL 代码,$2 是可选的参数用以进行任务标识,本身使用了 $RANDOM 保证 session 名称不重复;

beeline 本身支持多种用户认证的方式,因此可以根据环境的具体情况变化,详情不在这里讲述。这里使用的是使用 hdfs 用户来认证;

-u 是指 JDBC URL,用来连接 livy 服务;

TiDB 相关参数:

a) spark.sql.extensions=org.apache.spark.sql.TiExtensions

b) spark.tispark.pd.addresses=10.10.10.11:2379,10.10.10.12:2379,10.10.13.10:2379

c) spark.jars=hdfs://com-hdfs/user/spark/tispark-core-2.1.4-spark_2.4-jar-with-dependencies.jar

livy.session.name 需要保证唯一,因此加了随机数及$2;

livy.session.queue 是 YARN 的队列名称;

如果不加 -e “$1” 即可以实现交互查询。

实际效果演示:

(1) 查看库:

0:jdbc:Hive2://bj0000,bj0001,bj0002:2222/> show databases;

+----------------------------------------------------+

|databaseName|

+----------------------------------------------------+

|sales_db|

|db_em|

|db_test|

|db_shr|

+----------------------------------------------------+

上面 sales_db 是 Hive 库,db_em 及以下是 TiDB 库。

(2) 单独查询 TiDB 库表:

0:jdbc:Hive2://bj0000,bj0001,bj0002:2222/> select count(1) from db_em.app_war_room_fpyr_rt;

RSC clientisexecuting SQL query:selectcount(1)fromdb_em.app_war_room_fpyr_rt,statementId=91583fc3-0837-4b26-b579-b438a53f151e,session=SessionHandle[b6933d96-8ec0-47b9-a767-ff2da5c5b2b2]

[Stage0:>(0+1)/1]

+-----------+

|count(1)|

+-----------+

|224|

+-----------+

1row selected(6.505seconds)

(3) 单独查 Hive 表:

0:jdbc:Hive2://bj0000,bj0001,bj0002:2222/> select count(1) from sales_db.mdms_tsqa_syyt;

RSC clientisexecuting SQL query:selectcount(1)fromsales_db.mdms_tsqa_syyt,statementId=324d7d1d-03bc-4d9b-849f-18967305a454,session=SessionHandle[b6933d96-8ec0-47b9-a767-ff2da5c5b2b2]

[Stage2:>(0+1)/151]

...

[Stage3:>(0+0)/1]

+------------+

|count(1)|

+------------+

|142380109|

+------------+

1row selected(25.169seconds)

(4) 混和查询并写入 Hive 表:

0:jdbc:Hive2://bj0000,bj0001,bj0002:2222/> insert into dc_tmp.test_for_mix select count(1) as cnt from sales_db.mdms_tsqa_syyt union select count(1) as cnt from db_em.app_war_room_fpyr_rt;

RSC clientisexecuting SQL query:insertintodc_tmp.test_for_mixselectcount(1)ascntfromsales_db.mdms_tsqa_syytunionselectcount(1)ascntfromdb_em.app_war_room_fpyr_rt,statementId=7e87c512-d5c5-4ba1-bd62-d013ff16a4e7,session=SessionHandle[b6933d96-8ec0-47b9-a767-ff2da5c5b2b2]

[Stage5:>(0+0)/151]

......

[Stage10:>(0+0)/1]

+---------+

|Result|

+---------+

+---------+

Norows selected(31.221seconds)

(5) 检查结果:

0:jdbc:Hive2://bj0000,bj0001,bj0002:2222/> select cnt from dc_tmp.test_for_mix;

RSC clientisexecuting SQL query:selectcntfromdc_tmp.test_for_mix,statementId=18247b15-d9fb-4b97-87a1-6fa9cc3afad8,session=SessionHandle[b6933d96-8ec0-47b9-a767-ff2da5c5b2b2]

[Stage11:>(0+1)/1]

......

[Stage11:>(0+1)/1]

+------------+

|cnt|

+------------+

|142380109|

|224|

+------------+

2rows selected(2.977seconds)

可以看到是成功的实现了混和访问,对业务逻辑来说,数据在Hive库或者在TiDB库没有任何感知。

11.4.3 改进地方:

1. 写回TiDB

TiDB 4.0 实现大事务支持之前,TiSpark 没有理想的方案支持向 TiDB 原生写入数据的方案。用户可以选择的是:

使用 Spark 原生的 JDBC 方案,将 TiDB 当做 MySQL 写入数据,具体方案请参考文档。这个方案的缺陷是,数据必须被拆分为小批次插入,而这些批次之间无法维持事务原子性。换句话说,如果插入在中途失败,那么已经写入的数据并不会自动回滚,而需要人工干预。

第二个方案是使用 TiSpark 的大批写入,这个方案可以导入大量数据且维持事务的原子性,但是由于缺少锁表和大事务支持,并不推荐在生产环境使用。

在 TiSpark 完成对应 TiDB 4.0 大事务对应的支持后,用户就可以使用 TiSpark 作为一种主要的 TiDB 跑批方案,无论是向 TiDB 写入还是由 TiDB 向其他系统写出。在本文写作的时间点,此功能尚未完成,如有相关需要,请关注官方 Github 页面更新 TiSpark 版本。

2. 库重名问题

TiDB 和 Hive 重名的情况,需要为 TiSpark 开启表名前缀模式,该模式会为所有 TiDB 表在 TiSpark 中加入前缀(而并不会改变 TiDB 内实际的表名)。例如,希望 TiDB 表在 TiSpark 中以 tidb_ 作为前缀使用,则增加如下配置(这并不会实际改变 TiDB 的表名):

spark.tispark.db_prefix"tidb_"

11.4.4TiSpark 与其他系统协同

由于 TiSpark 没有直接修改 Apache Spark 代码,因此 Spark 原生兼容的大多数功能仍可正常运行。可以参考 Apache Spark 如何访问各个系统的文档正常使用,这里不做赘述。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值