在Spark中如何通过YDB实现比原生Spark性能高100倍的多表关联

本文介绍了如何在Spark中利用YDB通过索引优化,实现多表关联查询的性能提升。通过生成中间关联索引、创建Spark的视图表以及执行关联查询四步操作,可以显著提高处理大规模数据时的效率。
摘要由CSDN通过智能技术生成

多表关联Join在Spark数据分析中是一个不可或缺的一部,我们以商品交易记录表(trade表)与用户信息表为例(user表)来阐述下如何实现高性能的多表关联分析。

经常会遇到这种情形,我们需要先找出【某一个省份】【工商银行】【交易金额在150~160元】的所有用户,并通过与用户信息表进行关联得到该用户的手机号,性别,年龄,职业等信息。

Spark的传统做法是对双表都进行暴力扫描,需要对trade表与user表都进行一次完整的扫描,根据扫描出来的结果在进行进一步的关联。用户信息表(User表)的数据量通常来说也是非常大的,运营商,阿里,腾讯都会有达数十亿条,数万维度的用户信息表,Spark默认方式的为将User表全部读取后在过滤的方式,性能是很慢的,我们可以换个方式,将这个过程对调一下,先进行过滤,在对过滤后的结果进行扫描,经过过滤后,需要处理的数据条数,是原先总量的万分之一或者千分之一,性能自然就会得到数百倍的提升。

其实这种方式大家并不陌生,传统数据库如mysql在做多表关联的时候,对关联的字段创建索引与不创建索引关联的效率相差很多,主要原因也是因为创建索引后,就不需要在对“用户表”,进行“全表扫描了”,仅仅读取需要的数据,关联效率自然就高了。

ydb支持这种通过索引方式的先过滤,后关联的方式,要实现这个需要进行四步骤。如下图所示:

图片


第一步:生成中间关联索引-相关示例SQL写法

1.1 导出要关联的小索引到/data/ycloud/ydb/export/20160108120656_0的src目录下
    select nickname from ydb_example_trade where ydbpartion in (20151011) and  province='辽宁省' and bank='工商银行' and amt>150 and amt<160   and ydbkv='export.joinchar:%01' and ydbkv='export.max.return.docset.size:100000000' and ydbkv='max.return.docset.size:100000000'  and ydbkv='async.run:true' and  ydbkv='export.type:index' and ydbkv='export.path:/data/ycloud/ydb/export/20160108120656_0/src'  limit 0,10
1.2 将导出的小索引,合并生成大索引,并存储到/data/ycloud/ydb/export/20160108120656_0的index目录下
    select nickname from ydb_example_trade where ydbpartion in (20151011)   and ydbkv='export.joinchar:%01' and ydbkv='export.max.return.docset.size:100000000' and ydbkv='max.return.docset.size:100000000'  and  ydbkv='join.pre.split:%01' and ydbkv='async.run:true' and ydbkv='join.pre.src:/data/ycloud/ydb/export/20160108120656_0/src' and ydbkv='join.pre.index:/data/ycloud/ydb/export/20160108120656_0/index'  limit 0,10

第二步,创建Ydb Trade映射到Spark的视图表
    CREATE external  TABLE spark_on_ydb_left_0 (
usernick_left string,tradetype string,amt string
)STORED BY 'cn.net.ycloud.ydb.handle.YdbStorageHandler'
 TBLPROPERTIES  (
"ydb.handler.hostport"="101.200.130.48:8080",
"ydb.handler.sql.key"="ydb.sql.spark_on_ydb_left_0",
"ydb.handler.sql"="select nickname as usernick_left,tradetype as tradetype,amt as amt from ydb_example_trade where ydbpartion in ('20151011') and province='辽宁省' and bank='工商银行' and amt>150 and amt<160  and ydbkv='export.joinchar:%01' and ydbkv='export.max.return.docset.size:100000000' and ydbkv='max.return.docset.size:100000000'     limit 0,10000 "
)

第三步,使用第一部生成的关联索引,创建Ydb User映射到Spark的视图表
   CREATE external  TABLE spark_on_ydb_right_0 (
usernick_right string,consume string,zhiye string,phonenum string,sex string,age string
)STORED BY 'cn.net.ycloud.ydb.handle.YdbStorageHandler'
 TBLPROPERTIES  (
"ydb.handler.hostport"="101.200.130.48:8080",
"ydb.handler.sql.key"="ydb.sql.spark_on_ydb_right_0",
"ydb.handler.sql"="select usernick as usernick_right,ydb_consume as consume,ydb_zhiye as zhiye,phonenum as phonenum,ydb_sex as sex,ydb_age as age from ydb_example_shu where ydbpartion in ('20151231')  and ydb_day='20151202'   and ydbkv='export.joinchar:%01' and ydbkv='export.max.return.docset.size:100000000' and ydbkv='max.return.docset.size:100000000'   andydbkv='join.in:usernick@/data/ycloud/ydb/export/20160108132631_0/index@nickname'    limit 0,10000 "
)

第四步,开始关联查询
    select l.usernick_left,l.tradetype,l.amt,r.usernick_right,r.consume,r.zhiye,r.phonenum,r.sex,r.age from spark_on_ydb_left_0 l  join spark_on_ydb_right_0 r on(l.usernick_left=r.usernick_right)  limit 100


这四个步骤,我们也准备了SparkExampleJoin示例程序放在了ydb的安装包下面,供您参考。

该功能在ydb1.0.7及以后版本可用,1.0.7版本下载地址:
http://yunpan.cn/cubwSX4MN9ACY 访问密码 48df


也可以访问这里获取更新版本的YDB http://ycloud.net.cn/yyydb

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值