hive orc varchar乱码问题

1、问题产生的原因

作者使用的cdh版本是6.2.0,hive版本是2.1.0,原因是hive查询orc格式的varchar字段的时候没有指定编码,使用了默认编码,默认的编码不是utf-8引起的,具体可以参考这篇大佬源码追踪的文章,链接是:hive中文字段乱码排查

2、解决方法

2.1 hive on mapreduce解决

其实上面的链接有大佬给出的解决方法,有挺多的,可以重新打包,不过比较简单和推荐的还是直接在cm界面修改一下配置文件,指定am,maptask和reducetask的运行编码格式
在后面加上: -Dfile.encoding=utf-8 就可以了

2.2 hive on spark的解决

思路是一样的,就是指定作业的运行编码为utf-8,避免使用默认编码就行。
在cm的管理界面,进到spark的配置,搜索spark- 找到高级代码客户端配置 spark-default.conf,文本框输以下配置:

spark.executor.extraJavaOptions=-Dfile.encoding=UTF-8 -Dsun.jnu.encoding=UTF-8
spark.driver.extraJavaOptions=-Dfile.encoding=UTF-8 -Dsun.jnu.encoding=UTF-8
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值