CDH中 Apache Kylin使用spark引擎构建Cube

简介

    Kylin v2.0引入了Spark引擎,可以在构建Cube步骤中替换MapReduce,目前还是beta版本,以下是配置步骤。

配置步骤

    1.在kylin的安装目录下,新建目录hadoop_conf
          
  mkdir  $KYLIN_HOME/hadoop_conf
    
    2.将core-site.xml,hdfs-site.xml,hbase-site.xml,hive-site.xml,yarn-site.xml 5个配置文件放入刚才建立的目录。
     (如果使用的是Apache的Hadoop,hbase,hive等,去配置文件目录复制或者建立软连接,我使用的是CDH管理集群,那么配置文件 就在/etc/hadoop/conf,/etc/hive/conf,/etc/hbase/conf路径下,直接复制过去)
    cp /etc/hadoop/conf/hdfs-site.xml    $KYLIN_HOME/hadoop_conf
    cp /etc/hadoop/conf/yarn-site.xml    $KYLIN_HOME/hadoop_conf
    cp /etc/hadoop/conf/core-site.xml    $KYLIN_HOME/hadoop_conf
    cp /etc/hbase/conf/hdfs-site.xml    $KYLIN_HOME/hadoop_conf
    cp /etc/hive/conf/hdfs-site.xml    $KYLIN_HOME/hadoop_conf
        
    3.修改kylin.properties,添加以下配置(这里写 hadoop-conf的全路径,路径根据自己hadoo_conf目录所在位置决定
    kylin.env.hadoop-conf-dir=/opt/apache-kylin-2.1.0-bin-cdh57/hadoop_conf

            4.重启kylin
     
   bin/kylin.sh  stop
   bin/kylin.sh  start
        注:1.如果直接使用bin/kylin.sh restart重启,有可能配置会不生效,我就遇到了,用上面的方式重启就没问题
               2.在kylin的web页面上,有system选项卡,里面有reload   config,本来我以为修改配置文件后可以点击此按钮,不用重启,但是实验证明这样配置也无法生效。所以保险的方法就是按照上面的方式重启。
    
    5.下面是官方,关于配置spark引擎的文档,给出链接以便查阅
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 3
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值