- 博客(3)
- 资源 (7)
- 问答 (1)
- 收藏
- 关注
原创 在Spark 1.2.0的spark-shell中进行Hive数据库的操作
【环境配置】 Hive:0.13.1 Spark: 1.2.0 Spark和Hive都是伪分布式安装的 网上有一些教程,但或者Spark版本不同,或者不够全面。其实总结起来只有三步,如下: (1)打开spark-shell spark-shell (2)建立HiveContext对象 val hiveContext = new org.apache.spark.sql.h
2016-01-18 17:55:17 735
原创 基于Spark的Hive编程中,“Error:(8, 37) java: 程序包org.apache.spark.sql.api.java不存在”的解决办法
依赖Spark 1.2.0中的jar包编程时会出现这个问题,虽然这个Spark版本已较旧,但一些在旧的平台上开发的人,可能还会遇到这个问题,因此将问题的解决办法写在这里。 报的错误如下图所示: 其实问题本身不高深,原因就在于spark-assembly-1.2.0-hadoop2.4.0.jar这个jar包有问题。这个包实际是由org.apache.spark等许多小的packag
2016-01-18 14:34:08 6285
原创 使用CDH5.3.0中Hadoop安装包进行伪分布模式安装
这样做的目的是笔者要开发一个spark程序,将来移植到用CDH5.3.0部署的集群上,但是笔者的开发环境并没有这样的集群。由于网上搜索的结果很不准确(不同版本的Hadoop安装方式不一),所以作者经过一番尝试成功安装后,将安装步骤总结如下。 操作系统:Red Hat Enterprise Linux Server release 6.2 (Santiago) 一、安装Java 由于Had
2016-01-13 11:46:25 1973
使用Python的第三方库gTTS访问Google TTS服务
2017-03-28
Unreal 4引擎中,使用BehaviorTree控制AI行为的C++实现
2017-02-15
springboot + hibernate + gradle结合使用工程
2016-10-24
Protocol Buffers 2.5.0(Windows版)
2016-08-19
hive hcatschema hcatrecord 区别是什么???????
2016-01-04
TA创建的收藏夹 TA关注的收藏夹
TA关注的人