2024年最新第一个“国产“Apache顶级项目——Kylin(1),2024年最新一线互联网架构师筑基必备技能之大数据开发篇

img
img

网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。

需要这份系统化资料的朋友,可以戳这里获取

一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!

[root@node01 software]$ tar -zxvf hbase-1.3.1-bin.tar.gz -C /export/servers

(4)修改 HBase 对应的配置文件

① hbase-env.sh 文件的修改内容如下

export JAVA_HOME=/opt/module/jdk1.8.0_144 
export HBASE_MANAGES_ZK=false

② hbase-site.xml 文件的修改内容如下

注意:

  • 修改HDFS NameNode节点名称
  • 修改zookeeper服务器名称
  • 修改zookeeper数据目录位置
<configuration>
        <property>
                <name>hbase.rootdir</name>
                <value>hdfs://node01:8020/hbase_1.3.1</value>
        </property>

        <property>
                <name>hbase.cluster.distributed</name>
                <value>true</value>
        </property>

        <!-- 0.98后的新变动,之前版本没有.port,默认端口为60000 -->
        <property>
                <name>hbase.master.port</name>
                <value>16000</value>
        </property>
        <property>
              <name>hbase.zookeeper.property.clientPort</name>
              <value>2181</value>
      </property>
      <property>
              <name>hbase.master.info.port</name>
              <value>60010</value>
      </property>
        <property>
                <name>hbase.zookeeper.quorum</name>
                <value>node01,node02,node03</value>
        </property>

        <property>
        	<name>hbase.zookeeper.property.dataDir</name>
         	<value>/export/servers/zookeeper-3.4.9/zkdatas</value>
        </property>
      <property>
                <name>hbase.thrift.support.proxyuser</name>
                <value>true</value>
      </property>
      <property>
                <name>hbase.regionserver.thrift.http</name>
                <value>true</value>
      </property>
</configuration>

③ 在 regionservers 文件中增加如下内容

node01
node02
node03

④ 软连接 Hadoop 配置文件到 HBase

ln -s /export/servers/hadoop-2.7.2/etc/hadoop/core-site.xml $PWD/core-site.xml
ln -s /export/servers/hadoop-2.7.2/etc/hadoop/hdfs-site.xml $PWD/hdfs-site.xml

⑤ 将 HBase 远程发送到其他集群

[root@node01 servers]$ xsync hbase_1.3.1/

(4)配置 HBase 环境变量

# Apache HBase 1.3.1
export HBASE\_HOME=/export/servers/hbase-1.3.1
export PATH=$HADOOP/sbin:$HADOOP/bin:$HBASE\_HOME/bin:$PATH

刷新环境变量

source /etc/profile

(5)启动 HBase 服务。

进入hbase shell

bin/start-hbase.sh

执行上述操作,执行list命令,如果能显示以下内容,表示安装成功。

hbase(main):002:0> list
TABLE                                                                                                                  
0 row(s) in 0.1380 seconds

=> []

当然,你也可以通过host:port的方式来访问 HBase 的页面,例如:http://node01:16010/

在这里插入图片描述

OK,安装完了 Hbase1.3.1,接着我们开始安装 kylin 。

Kylin安装

(1)下载 Kylin 安装包

(2)解压 apache-kylin-2.6.3-bin-hbase1x.tar.gz/export/servers 目录下

tar -zxf /export/softwares/apache-kylin-2.6.3-bin-hbase1x.tar.gz -C /export/servers/

注 意 : 启 动 前 需 检 查 /etc/profile 目 录 中 的 HADOOP_HOMEHIVE_HOMEHBASE_HOME 是否配置完毕

(3)启动

① 在启动 Kylin 之前,需要先启动 Hadoop(HDFS、YARN、JobHistoryServer)、Zookeeper 和 HBase。需要注意的是,要同时启动 Hadoop 的历史服务器,对 Hadoop 集群配置进行如下修改。

配置 mapred-site.xml 文件。

[root@node01 hadoop]$ vim mapred-site.xml
 <property>
 <name>mapreduce.jobhistory.address</name>
 <value>node01:10020</value> 
 </property> 
 <property> 
 <name>mapreduce.jobhistory.webapp.address</name> 
 <value>node01:19888</value>
 </property>

配置 yarn-site.xml 文件。

[root@node01 hadoop]$ vim yarn-site.xml 
<!-- 日志聚集功能开启 --> 
<property> 
<name>yarn.log-aggregation-enable</name> 
<value>true</value>
</property>
<!-- 日志保留时间设置为 7 天 -->
<property> 
<name>yarn.log-aggregation.retain-seconds</name> 
<value>604800</value> 
</property>

修改配置后,分发配置文件,重启 Hadoop 的 HDFS 和 YARN 的所有进程。

启动 Hadoop 历史服务器。

[root@node01 hadoop-2.6.0-cdh5.14.0]$ sbin/mr-jobhistory-daemon.sh start historyserver

② 启动 Kylin

[root@node01 kylin]$ bin/kylin.sh start

启动之后查看各台节点服务器的进程。

--------------------- node01 ---------------- 
3360 JobHistoryServer 
31425 HMaster 
3282 NodeManager
3026 DataNode 
53283 Jps 
2886 NameNode 
44007 RunJar 
2728 QuorumPeerMain 
31566 HRegionServer 
--------------------- node02 ---------------- 
5040 HMaster 
2864 ResourceManager 
9729 Jps 
2657 QuorumPeerMain 
4946 HRegionServer 
2979 NodeManager 
2727 DataNode 
--------------------- node03 ---------------- 
4688 HRegionServer 
2900 NodeManager 
9848 Jps 
2636 QuorumPeerMain 
2700 DataNode 
2815 SecondaryNameNode

在浏览器地址栏中输入node01:7070/kylin/login,查看 Web 页面,如图所示:
在这里插入图片描述
        用户名为 ADMIN,密码为 KYLIN(系统已填)

(4)关闭Kylin

如果我们想要关闭 Kylin,只需要执行下面的命令:

[root@node01 apache-kylin-2.6.3]# bin/kylin.sh stop

Kylin的使用

到了这一步,我们终于将 Kylin 安装好了,下面我们来讲一下 Kylin 的具体使用。

准备测试数据表

为了让最终的演示更具有说明力,同时也为了方便后续的学习,接下来我们需要先准备几张测试数据表。

1、(事实表)dw_sales

列名列类型说明
idstring订单id
date1string订单日期
channelidstring订单渠道(商场、京东、天猫)
productidstring产品id
regionidstring区域名称
amountint商品下单数量
pricedouble商品金额

2、(维度表_渠道方式)dim_channel

列名列类型说明
channelidstring渠道id
channelnamestring渠道名称

3、(维度表_产品名称)dim_product

列名列类型说明
productidstring产品id
productnamestring产品名称

4、(维度表_区域)dim_region

列名列类型说明
regionidstring区域id
regionnamestring区域名称
导入测试数据

准备好了测试数据之后,我们需要将在 Hive 中 建好对应的表,这里我采取的是执行已经写好的脚本hive.sql文件,创建测试表。

对应的数据文件和sql脚本不方便在这里展示,需要的同学可以添加我的微信:zwj_bigdataer 获取

操作步骤:

1、使用 beeline 连接Hive

!connect jdbc:hive2://node1:10000

2、创建并切换到 itcast_dw 数据库

create database itcast_kylin_dw;
use itcast_kylin_dw;

3、执行上面我们提到的hive.sql文件,执行sql、创建测试表

-- 执行sql文件
source hive.sql
-- 查看表是否创建成功
show tables;

在这里插入图片描述
4、在home目录创建~/dat_file 文件夹,并将测试数据文件上传到该文件夹中

mkdir ~/dat_file

导入数据到表中

-- 导入数据
LOAD DATA LOCAL INPATH '/root/dat\_file/dw\_sales\_data.txt' OVERWRITE  INTO TABLE dw_sales;
LOAD DATA LOCAL INPATH '/root/dat\_file/dim\_channel\_data.txt' OVERWRITE  INTO TABLE dim_channel;
LOAD DATA LOCAL INPATH '/root/dat\_file/dim\_product\_data.txt' OVERWRITE  INTO TABLE dim_product;
LOAD DATA LOCAL INPATH '/root/dat\_file/dim\_region\_data.txt' OVERWRITE  INTO TABLE dim_region;

5、执行一条SQL语句,确认数据是否已经成功导入
在这里插入图片描述

指标和维度

在确认完成了上面的数据准备操作之后,我们就可以对 kylin 进行实际操作了。但我们还需要先了解一下,什么是指标和维度

首先来看下面的 demo
在这里插入图片描述
        相信各位朋友已经有了自己的想法和答案,这里提供一种思考方式:

红色字体是指标/度量?还是维度?
答案:指标/度量【到底要看什么?获取什么?】

蓝色字体是指标/度量?还是维度?
答案:维度【怎么看!怎么获取!】

结论:需求决定哪些是维度,哪些是指标。

好了,明确了什么是维度,什么是指标之后,我们就可以正式开启kylin的使用之旅了~

按照日期统计订单总额/总数量(Kylin方式)

做任何事情都有一个顺序,使用一门新的技术亦是如此。要使用Kylin进行OLAP分析,需要按照以下方式来进行。

1、创建项目(Project)

2、创建数据源(DataSource)

  • 指定有哪些数据需要进行数据分析

3、创建模型(Model)

  • 指定具体要对哪个事实表、那些维度进行数据分析

4、创建立方体(Cube)

  • 指定对哪个数据模型执行数据预处理,生成不同维度的数据

5、执行构建、等待构建完成

6、再执行SQL查询,获取结果

具体步骤:
1、创建 Project

(1)点击 + 图标创建工程,如图所示:

img
img
img

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

据分析

4、创建立方体(Cube)

  • 指定对哪个数据模型执行数据预处理,生成不同维度的数据

5、执行构建、等待构建完成

6、再执行SQL查询,获取结果

具体步骤:
1、创建 Project

(1)点击 + 图标创建工程,如图所示:

[外链图片转存中…(img-QDNg2Wx1-1715661735142)]
[外链图片转存中…(img-IfzcErUM-1715661735143)]
[外链图片转存中…(img-e1bdQdmJ-1715661735143)]

既有适合小白学习的零基础资料,也有适合3年以上经验的小伙伴深入学习提升的进阶课程,涵盖了95%以上大数据知识点,真正体系化!

由于文件比较多,这里只是将部分目录截图出来,全套包含大厂面经、学习笔记、源码讲义、实战项目、大纲路线、讲解视频,并且后续会持续更新

需要这份系统化资料的朋友,可以戳这里获取

  • 12
    点赞
  • 28
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Apache Kylin 是一款开源的分布式分析引擎,旨在为 OLAP(联机分析处理)场景下大数据处理提供高效的解决方案。Kylin 架构设计主要包括四层:数据存储层、计算层、查询层和访问层。 数据存储层:Kylin 支持多种数据源,包括 HBase、Hive 和 RDBMS。在数据存储层,Kylin 将数据进行切分和存储,并构建多维数据模型和 Cube 模型,以此支持多维分析查询。 计算层:Kylin 计算层主要负责构建 Cube 数据模型,从而支持快速的多维分析。Kylin 使用 MapReduce、Spark 和 Flink 等分布式计算框架构建 Cube 模型,并且采用增量计算和全量计算相结合的方式,以保证数据的实时更新和高效查询。 查询层:Kylin 查询层主要提供两种查询方式:SQL 和 REST API。Kylin 查询层可以直接访问 Kylin Cube 数据模型,同时支持 SQL JOIN 和聚合操作,以支持丰富的多维分析操作。 访问层:Kylin 访问层主要负责提供数据可视化和 BI 工具集成。Kylin 支持多种数据可视化工具,如 Tableau、PowerBI 和 Superset 等,以及多个 BI 工具的集成,如 Apache ZeppelinApache Superset 和 Apache Druid 等。 总之,Apache Kylin 架构设计以分布式计算为核心,通过数据存储、计算、查询和访问四层框架提供高效、快速、多维的 OLAP 型数据分析解决方案,可广泛应用于电商、金融、广告等场景的数据分析处理。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值