在Spark 1.2.0的spark-shell中进行Hive数据库的操作
【环境配置】Hive:0.13.1Spark: 1.2.0Spark和Hive都是伪分布式安装的网上有一些教程,但或者Spark版本不同,或者不够全面。其实总结起来只有三步,如下:(1)打开spark-shell spark-shell(2)建立HiveContext对象 val hiveContext = new org.apache.spark.sql.h
原创
2016-01-18 17:55:17 ·
704 阅读 ·
0 评论