hive-on-spark配置和使用方法:
配置:
1、将Hadoop/etc/hadoop/里面的core-site.xml和Hive/conf里的hive-site.xml复制到Spark/conf里
2、注意:如果你的mysql数据库装在windows,需要设置字符集为latin1
启动:
$SPARK/bin/spark-sql \
--master spark://node01:7077 \
--executor-memory 512m \
--total-executor-cores 2 \
--driver-class-path /export/software/mysql-connector-java-5.1.35-bin.jar
操作: