【Hive|Spark】spark写入hive表存储格式问题

目录

一、问题描述

二、原因分析

1、报错信息分析

2、思考

3、结论

三、解决办法


一、问题描述

        spark经过转化的DF/DS,存储hive的一般写法为:

DF.write.format("orc").mode(SaveMode.Append).saveAsTable("default.student")

        1、如果hive本身不存在此表,则会在hive自动创建对应的表进行数据存储。

        2、如果hive中存在此表,则就会分为两种情况进行考虑。

        第一种情况:存在的student表是使用spark写入hive程序自动创建得到的,则这种情况下可以正常写入。        

DF.write.format("orc").mode(SaveMode.Append).saveAsTable("default.student")

        第二种情况:存在的student表是使用hive命令创建得到的,这种情况下会报错。

create table student(name string,sex string) stored as orc; 

        报错信息为:

The format of the existing table default.student is `HiveFileFormat`. It doesn't match the specified format `OrcFileFormat`.;

二、原因分析

1、报错信息分析

  • The format of the existing table default.student is `HiveFileFormat`是说spark程序认为hive中使用命令创建的orc表,在它的眼中存储格式是HiveFileFormat。
  • It doesn't match the specified format `OrcFileFormat` 是说spark程序中要存储的student的dataFram是OrcFileFormat格式,与hive中创建表的存储格式不匹配。

2、思考

        为什么明明在hive中使用命令创建的student表就是orc格式,却和spark程序中要存储指定的orc格式不匹配呢?

3、结论

  • 在hive中使用命令创建的任何存储格式的表,在spark程序看来都是HiveFileFormat格式的表。
  • spark程序只认自己通过代码向hive创建各种存储格式的表并能与之对应匹配和存储数据。
  • 对于使用hive命令创建过的表,spark对应匹配的指定格式统一为HiveFileFormat格式。

三、解决办法

        对于hive命令已经创建过的任何存储格式的表,spark写入的时候统一使用如下写法:

DF.write.format("Hive").mode(SaveMode.Append).saveAsTable("default.student")

  • 1
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
该资源真实可靠,代码都经测试过,能跑通。 快速:Apache Spark以内存计算为核心。 通用 :一站式解决各个问题,ADHOC SQL查询,流计算,数据挖掘,图计算完整的生态圈。只要掌握Spark,就能够为大多数的企业的大数据应用场景提供明显的加速。存储层:HDFS作为底层存储Hive作为数据仓库 (Hive Metastore:Hive管理数据的schema) 离线数据处理:SparkSQL (做数据查询引擎<===> 数据ETL) 实时数据处理:Kafka + Spark Streaming 数据应用层:MLlib 产生一个模型 als算法 数据展示和对接:Zeppelin 选用考量: HDFS不管是在存储的性能,稳定性 吞吐量 都是在主流文件系统中很占有优势的 如果感觉HDFS存储还是比较慢,可以采用SSD硬盘等方案。存储模块:搭建和配置HDFS分布式存储系统,并Hbase和MySQL作为备用方案。 ETL模块:加载原始数据,清洗,加工,为模型训练模块 和 推荐模块 准备所需的各种数据。 模型训练模块:负责产生模型,以及寻找最佳的模型。 推荐模块:包含离线推荐和实时推荐,离线推荐负责把推荐结果存储存储系统中实时推荐负责产生实时的消息队列,并且消费实时消息产生推荐结果,最后存储存储模块中。 数据展示模块:负责展示项目中所用的数据。 数据流向:数据仓库怎么理解?两种东西,其一是IBM微软数据产品为代的,其二是Hadoop+Hive+Apache Hive数据仓库软件有助于使用SQL读取,写入和管理驻留在分布式存储中的大型数据集。 可以将结构投影到已经存储的数据上。 提供了命令行工具和JDBC驱动程序以将用户连接到Hive

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

郝少

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值