Spark SQL External DataSource外部数据源

一:介绍

官网:https://spark.apache.org/docs/latest/sql-data-sources-load-save-functions.html
随着Spark1.2的发布,Spark SQL开始正式支持外部数据源。Spark SQL开放了一系列接入外部数据源的接口,来让开发者可以实现。
这使得Spark SQL支持了更多的类型数据源,如json, parquet, avro, csv格式。只要我们愿意,我们可以开发出任意的外部数据源来连接到Spark SQL。之前大家说的支持HBASE,Cassandra都可以用外部数据源的方式来实现无缝集成。

二:产生背景

1.数据以各种格式存储在系统中

2加载和保存数据不容易(Hive和mysql之间)

3.数据存在各种类型,不好解析

4.转换数据格式

5.格式转换

6.用户希望方便快速从不同数据源(json,parquet,rdbms),经过混合处理(json join parquet),再将处理结果以特定格式输出。

三:实现

一种将各种外部数据源集成到Spark Sql中的扩展方法
可以使用各种格式和stroage系统读写数据格式
数据源API可以自动删除列和过滤器推到来源:Parquet/JDBC

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值