Kylin1.6在CDH下安装部署

1 篇文章 0 订阅
一、下载kylin
访问URL:http://kylin.apache.org/cn/
下载文件apache-kylin-1.6.0-cdh5.7-bin.tar.gz并上传到opt目录解压
tar -zxvf apache-kylin-1.6.0-cdh5.7-bin.tar.gz
如果是5.5、5.7版本,也是下载for CDH 5.5/5.7/5.8 - apache-kylin-1.6.0-cdh5.7-bin.tar.gz

如果是HDP(ambari)的,下载:
for HBase 0.98 (includes HDP 2.2, CDH 5.2/5.3) - apache-kylin-1.6.0-bin.tar.gz
for HBase 1.x (includes HDP 2.3/2.4, EMR 5.0) - apache-kylin-1.6.0-hbase1.x-bin.tar.gz

以下是CDH环境操作,HDP类似。

二、配置Kylin
root用户操作
vi /opt/apache-kylin-1.6.0-cdh5.7-bin/conf/kylin.properties

在文件结尾添加如下内容:
kylin.rest.servers=IP:7070
kylin.job.jar=/tmp/kylin/kylin-job-latest.jar
kylin.coprocessor.local.jar=/tmp/kylin/kylin-coprocessor-latest.jar

三、添加环境变量
export JAVA_HOME=/usr/java/jdk1.8.0_65
exportCLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
exportCATALINA_HOME=/opt/apache-tomcat-7.0.69
exportHADOOP_HOME=/opt/cloudera/parcels/CDH-5.7.5-1.cdh5.7.5.p0.3/lib/hadoop
export HBASE_HOME=/opt/cloudera/parcels/CDH-5.7.5-1.cdh5.7.5.p0.3/lib/hbase
exportHIVE_HOME=/opt/cloudera/parcels/CDH-5.7.5-1.cdh5.7.5.p0.3/lib/hive
exportKYLIN_HOME=/opt/apache-kylin-1.6.0-cdh5.7-bin
exportPATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:HIVE_HOME/bin:$PATH

提前安装JDK和tomcat,这里不叙述了。

source /etc/profile 生效

拷贝jar到/tmp/kylin目录下(如果没有对应的目录则手工创建)

cp /opt/apache-kylin-1.6.0-cdh5.7-bin/lib/kylin-coprocessor-1.6.0.jar /tmp/kylin/kylin-coprocessor-latest.jar
cp /opt/apache-kylin-1.6.0-cdh5.7-bin/lib/kylin-job-1.6.0.jar /tmp/kylin/kylin-job-latest.jar

四、启动及访问kylin
./kylin.sh start  (启动的时候可能会发生后面的问题)

最后输出,表示启动成功:
A new Kylin instance is started by root, stop it using "kylin.sh stop"
Please visit http://<ip>:7070/kylin
You can check the log at /opt/apache-kylin-1.6.0-cdh5.7-bin/logs/kylin.log

访问kylin界面
http://ip:7070/kylin  用户名密码:ADMIN/KYLIN (大写)

问题处理:
当执行 ./check_env.sh 或./kylin.sh start时遇到 mkdir: Permission denied: user=root, access=WRITE, inode="/":hdfs:supergroup:drwxr-xr-x
failed to create /kylin, Please make sure the user has right to access /kylin

解决方法:
默认会在HDFS上创建/kylin目录,需要hdfs权限
可以在check-env.sh中 将hadoop fs -mkdir -p $WORKING_DIR 变成 sudo -u hdfs hadoop fs -mkdir -p $WORKING_DIR,得以解决
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值