点一下关注吧!!!非常感谢!!持续更新!!!
目前已经更新到了:
- Hadoop(已更完)
- HDFS(已更完)
- MapReduce(已更完)
- Hive(已更完)
- Flume(已更完)
- Sqoop(已更完)
- Zookeeper(已更完)
- HBase(已更完)
- Redis (已更完)
- Kafka(已更完)
- Spark(已更完)
- Flink(已更完)
- ClickHouse(已更完)
- Kudu(已更完)
- Druid(已更完)
- Kylin(正在更新…)
章节内容
上节我们完成了如下的内容:
- Kylin 历史
- Kylin 历程
- Kylin 特点
- Kylin 架构
- Kylin 组件
依赖环境
集群规划
我这里就不根据上图来做了,因为我的服务器资源比较紧张,我就自由安排了。
需要注意:要求HBase的hbase.zookeeper.quorum值必须只能是 host1、host2这种,不允许host1:2181、host2:2181这种。
cd /opt/servers/hbase-1.3.1/conf
vim hbase-site.xml
(之前HBase实验已经做过了,配置就是这样的)
保险起见,放一个截图:
项目下载
下载地址如下:
https://archive.apache.org/dist/kylin/
这里使用的是:
https://archive.apache.org/dist/kylin/apache-kylin-3.1.1/apache-kylin-3.1.1-bin-hbase1x.tar.gz
你可以通过wegt或者本地下载完传到服务器上,按照需求,我这里是上传到 h122 节点上
cd /opt/software
wget https://archive.apache.org/dist/kylin/apache-kylin-3.1.1/apache-kylin-3.1.1-bin-hbase1x.tar.gz
等待下载完毕
解压移动
cd /opt/software
tar -zxvf apache-kylin-3.1.1-bin-hbase1x.tar.gz
运行结果如下图所示:
接着将其移动到servers目录,方便后续的管理:
环境变量
vim /etc/profile
我们需要加入Kylin的环境变量:(记得刷新环境变量)
export KYLIN_HOME=/opt/servers/apache-kylin-3.1.1-bin-hbase1x
export PATH=$PATH:$KYLIN_HOME/bin
配置环境变量如下图所示:
依赖组件
cd $KYLIN_HOME/conf
ln -s $HADOOP_HOME/etc/hadoop/hdfs-site.xml hdfs-site.xml
ln -s $HADOOP_HOME/etc/hadoop/core-site.xml core-site.xml
ln -s $HBASE_HOME/conf/hbase-site.xml hbase-site.xml
ln -s $HIVE_HOME/conf/hive-site.xml hive-site.xml
ln -s $SPARK_HOME/conf/spark-defaults.conf spark-defaults.conf
执行的结果如下图所示:
配置环境
我们需要修改 kylin.sh
cd $KYLIN_HOME/bin
vim kylin.sh
# 需要写入这些依赖 防止后续报错
export HADOOP_HOME=/opt/servers/hadoop-2.9.2
export HIVE_HOME=/opt/servers/apache-hive-2.3.9-bin
export HBASE_HOME=/opt/servers/hbase-1.3.1
export SPARK_HOME=/opt/servers/spark-2.4.5-bin-without-hadoop-scala-2.12
配置结果如下图所示:
检查依赖
$KYLIN_HOME/bin/check-env.sh
我这里报错了,可能是之前的环境变量有问题:
我找了一圈,看到 Flink YARN 这里HADOOP_CONF_DIR可能配置错了:
# Flink YRAN
# export HADOOP_CONF_DIR=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_CLASSPATH=`hadoop classpath`
修改完的结果为如下:(这里我暂时注释了,防止我的FlinkYRAN以后不能用了)
重新进行测试环境,检查顺利通过,看里边还有一些和Flink、Kafka的配置等,你需要的话可以加入:
启动集群
ZooKeeper
启动 h121 h122 h123集群模式
需要每个节点都运行
zkServer.sh start
HDFS
启动 h121 h122 h123
h121运行即可,但是要检查确认
start-dfs.sh
YRAN
启动 h121 h122 h123
h121运行即可,但是要检查确认
start-yarn.sh
HBase
启动 h121 h122 h123
h121运行即可,但是要检查确认
start-hbase.sh
Metastore
启动 h121 即可
nohup hive --service metastore > /tmp/metastore.log 2>&1 &
运行结果如下图:
history server
启动 h121 即可
mr-jobhistory-daemon.sh start historyserver
Kylin
启动 h122
kylin.sh start
运行过程如下图所示:
节点详情
h121
与上图对应一下:
- Metastore
- Zookeeper
- HBase
- HDFS
- JPS跳过
- YARN
- Hadoop
h122
- JPS跳过
- YRAN
- ZooKeeper
- HBase
- 好像是Kylin
- HDFS
h123
- YARN
- JPS跳过
- HBase
- ZooKeeper
- Hadoop
- HDFS
启动结果
http://h122.wzk.icu:7070/kylin/login
我们访问之后可以看到如下的内容:
登录进入
默认都是大写
账号 ADMIN
密码 KYLIN
登录进入之后,就是如下的结果: