SparkSQL中创建外部表及使用

6 篇文章 0 订阅

一、使用需求

工作中经常会需要与外围系统打交道,由于外围系统和本系统不处于同一个Hadoop集群下,且不具有访问本系统的权限,所以基本上大数据量的接口都是以文件的方式进行传输。如何快速、便捷的将文件入Spark库中?

通过SparkSQL中创建外部表的方式就能够很好地解决这一需求。

二、解决方案

1. hdfs上创建存放外部表数据文件的目录

hdfs dfs -mkdir -p /hupeng/data/ods_user_base

注意到,如果要创建多级目录时,需要加上-p参数。

2. 创建外部表

create external table ods_user_base (
    acc_nbr string comment '用户号码',
    product_type string comment '产品类型',
    cust_id string comment '客户ID',
    prd_inst_id string comment '产品实例ID',
    latn_id  string comment '所在地市',
    area_id string comment '所在区县'
)
row format delimited fields terminated by '|'
lines terminated by '\n'
stored as textfile location 'hdfs://streamcluster/hupeng/data/ods_user_base';

3. 准备数据文件

为了测试如果数据文件的部分字段数据缺失,外部表是否会报错。特意准备了如下内容的数据:

4. 将数据文件put进hdfs中对应的外部表目录

注意到,如果hdfs中外部表目录下数据文件存在的情况,需要替换掉该文件的时候可以加上 -f 参数。

5. 查看外部表数据是否正常

通过上图可以发现,如果数据文件中部分字段的值缺失,在外部表中会以null显示,并不会报错。

6. 测试数据文件中的字段值的个数大于外部表字段的个数情况

1)数据文件

图中红框的值是多余的。

2)数据文件put到hdfs中

 hdfs dfs -put -f ./ods_user_data.txt /hupeng/data/ods_user_base 

put的时候没有报错。

3)查看外部表数据

也没有报错,只是多余的值没有显示出来。

  • 2
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值