spark-shell引用不了hive数据表的问题 sqlContext hiveContext

从上面两篇开始 一直进入一个错误中 关于 jack包引用的问题

cdh下载文件安装的

环境 centos 7.0


hadoop-2.6.0-cdh5.7.0

hive-1.1.0-cdh5.7.0

scala-2.11.0

spark-1.6.0-cdh5.7.0





从hadoop伪分布试安装  mysql hive scala的安装都没问题

直到spark安装 启动

spark-shell --master yarn --jars /home/hadoop/hive/lib/mysql-connector-java-5.1.44.jar


一直都在报jackson包相关的问题 原因是 hadoop版本用的是1.8的 而spark 用的是1.9或更高的版本

结果坑了将近2周时间  整了各种配置 结果spark可以运行了 却不支持hive表查询了 蒙了



com/fasterxml/jackson/databind/Module



然后尝试从spark官网下载 对应hadoop版本的 tar 结果一下就行了 终于都可以继续下一步 了




hive引用日志











评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值