Hive on Spark

Hive on Spark用的是Spark执行引擎,而不是MapReduce
处理hive元数据的不再是map和reduce工程而是通过spark的rdd就可以充分利用Spark的快速执行能力来缩短HiveQL的响应时间
配置Hive on Spark
将编译后的spark下的lib下的 spark-assembly-*.jar 拷贝到hive的lib下

 * 在hive-site.xml 添加如下配置
            <!--修改hive的执行引擎为spark-->
        <property>
                <name>hive.execution.engine</name>
                <value>spark</value>
        </property>

            <!--在hdfs上hive数据存放目录,启动hadoop后需要在hdfs上手动创建 -->
    .   <property> 
            <name>hive.metastore.schema.verification</name> 
            <value>false</value>     
        </property>

             <!--默认 metastore 在本地,添加配置改为非本地-->
        <property>
             <name>hive.metastore.local</name>
             <value>false</value>
        </property>-->

            <!--记录 Spark事件,用于应用程序在完成后重构 webUI-->
        <property>
            <name>spark.eventLog.enabled</name>
            <value>true</value>
        </property>

            <!—hdfs目录存在-->
        <property>
            <name>spark.eventLog.dir</name>
            <value>hdfs:///hive_on_sparklogs</value>
        </property>

            <!--每个executor的内存大小-->
        <property>
            <name>spark.executor.memory</name>
            <value>512m</value>
        </property>

            <!--序列化对象-->
        <property>
            <name>spark.serializer</name>
            <value>org.apache.spark.serializer.KryoSerializer</value>
        </property>

            <!-- 先上传spark-assembly-1.6.1-hadoop2.6.0.jar包到hdfs上,并配置,避免任务运行时不需要下载-->
        <property>
            <name>spark.yarn.jar</name>
            <value>hdfs://itcast01:9000/spark-assembly-1.6.1-hadoop2.6.0.jar</value>
        </property>
  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值