02-01---flink+clickhouse构建亿级电商实时数据平台

虚拟机的语句详解:

1.zookeeper

启动:zkServer.sh start 

zkServer.sh start 

zkServer.sh status

zkCli.sh

2.kafka

kafka-server-start.sh /usr/local/apps/kafka/config/server.properties 

kafka如何创建topic:https://blog.csdn.net/lanmolei814/article/details/78353898

3.flink操作语句

进入cd /usr/local/apps/flink/bin

启动flink:./start-cluster.sh 

4.hadoop安装

hadoop namenode -format

start-dfs.sh
start-yarn.sh

5.clickhouse

service clickhouse-server start service clickhouse-server stop service clickhouse-server restart

clickhouse--client

6.hbase

start-hbase.sh

代码的github地址:https://github.com/FandySww/FlinkAnanlySystem

资料:

---

数据收集的日志结构:

小程序:

app的:

搜集我们的浏览日志:

我们把这些结构变成实体,方便我们去处理。

---1-5---

代码:

fastjson和null的做法:

---1-6---

kafka环境的搭建:

资料:

centos虚拟机的克隆:https://blog.csdn.net/qq_28764557/article/details/88851553

虚拟机的地址: 133 134 135

安装zk和kafka。

在131上安装了zookeeper和kafka。

zk单机安装:

第一步修改环境变量,具体略。

第二步修配置文件:

---

kafka的安装,第一步,直接配置

第二步:两个地方:

1.

2.

3.

第三步:配置环境变量,略

第四步:启动

kafka如何创建topic:在bin目录下./kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic dataiinfo

---

启动总结:

zk:

kafka:

---1-7---

回到代码:

向topic发消息:./kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 1 --partitions 1 --topic dataiinfo

代码:

kafka控制台监听消息:

./kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092  --topic datainfo

测试kafka的代码。测试下kafka的代码:

---1-8---

安装flink:

第一步:

进入cd /usr/local/apps/flink/bin

启动flink:./start-cluster.sh 

访问:http://192.168.244.133:8081/

可以看到:

跑一个例子:

---1-9--

flink+kafka构建实时分析:

这个是十分重要的。

新建模块:

添加依赖:

  <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-core</artifactId>
            <version>1.9.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.11</artifactId>
            <version>1.9.0</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka_2.11</artifactId>
            <version>1.9.0</version>
        </dependency>

---10---

启动下我们的工程:

1.启动注册中心:

2.启动datacollect

3.测试下kafka的发送


4.这个类

---11---

hadoop环境的安装。

安装文件:

安装步骤:

第一步:进入到这个目录

第二步:修改配置文件

第三步:修改core配置文件

 

这里需要改下配置:我这里是9008

 

第四步:修改下一个配置文件,配置副本数。

第五步:修改下一个xml

拷贝这个xml的副本:

第六步:继续配置,配置免密登录

一直回车。

要新建一个用户slave修改hostname为slave才会成功。

关于用户:https://blog.csdn.net/liu_qingbo/article/details/78383892

linux创建用户:https://www.cnblogs.com/drizzle-xu/p/9155268.html

这里我要添加一个slave的。

测试下:

第七步:格式化

再配置下基本配置文件:

启动hadoop:

没有我们再次修改一次环境变量:

第八步:启动yarn

第九步:控制台

http://192.168.244.133:50070/dfshealth.html#tab-overview

http://192.168.244.133:8088/cluster

---12---

clickhouse:

什么是t+1

---13---

安装:过

默认配置文件的修改:

第一步:修改第一个配置文件

这两个配置文件都要修改:

第一个文件修改的地方为:

第二个文件修改的地方为:

启动:https://blog.csdn.net/yyoc97/article/details/103111811

指定配置文件启动:

访问下:

clickhouse的终极启动秘籍:https://blog.csdn.net/yyoc97/article/details/103111811

---14---

数据类型:

---

简单的使用:

建表:

插入数据:

insert into youfantest(id,name,create_date) values(1,'xiaobai','2020-11-29')

insert into youfantest(id,name,create_date) values(5,'xiaohuang','2020-11-29')

insert into youfantest(id,name,create_date) values(2,'xiaohong','2020-11-30')

insert into youfantest(id,name,create_date) values(3,'xiaohei','2020-11-28')

insert into youfantest(id,name,create_date) values(4,'xiaolv','2020-11-27')

---15---

其它的连接案例:https://blog.csdn.net/magicpenta/article/details/89515550

---16---

通过java查询数据:

---17---

日志数据完善与优化:

---18---

---19---

HBASE安装:

第一步:进入这个目录

第二步:修改hbase-site.xml文件。

注意hbase安装在134这台机器上。

先启动下hadoop记住两个命令:

注意我的地址是9008.

注意这个9000改为9008

第三步:配置hbase的环境变量

第四步:启动hdfs和zookeeper

第五步配置下java环境

第六步启动:

地址:http://192.168.244.133:60010/master-status

hbase安装包:http://archive.apache.org/dist/hbase/2.2.1/

----

按照这个帖子操作可以启动hbase

1.https://www.cnblogs.com/h--d/p/11580398.html

2.https://blog.csdn.net/weixin_34419326/article/details/90626388

3.重点:hbase启动失败:https://www.cnblogs.com/zlslch/p/9192887.html

/usr/local/apps/zookeeper-3.4.5/data

/usr/local/apps/hbase-2.2.1/hbase

/usr/local/apps/jdk8

操,重大新闻,我安装的是单机版本的hbase,这里看下:

---20---

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
上层应用业务对实时数据的需求,主要包含两部分内容:1、 整体数据实时分析。2、 AB实验效果的实时监控。这几部分数据需求,都需要进行的下钻分析支持,我们希望能够建立统一的实时OLAP数据仓库,并提供一套安全、可靠的、灵活的实时数据服务。目前每日新增的曝光日志达到几亿条记录,再细拆到AB实验更细维度时,数据量则多达上百亿记录,多维数据组合下的聚合查询要求秒级响应时间,这样的数据量也给团队带来了不小的挑战。OLAP层的技术选型,需要满足以下几点:1:数据延迟在分钟级,查询响应时间在秒级2:标准SQL交互引擎,降低使用成本3:支持join操作,方便维度增加属性信息4:流量数据可以近似去重,但订单行要精准去重5:高吞吐,每分钟数据量在千W级记录,每天数百亿条新增记录6:前端业务较多,查询并发度不能太低通过对比开源的几款实时OLAP引擎,可以发现Doris和ClickHouse能够满足上面的需求,但是ClickHouse的并发度太低是个潜在的风险,而且ClickHouse数据导入没有事务支持,无法实现exactly once语义,对标准SQL的支持也是有限的。所以针对以上需求Doris完全能解决我们的问题,DorisDB是一个性能非常高的分布式、面向交互式查询的分布式数据库,非常的强大,随着互联网发展,数据量会越来越大,实时查询需求也会要求越来越高,DorisDB人才需求也会越来越大,越早掌握DorisDB,以后就会有更大的机遇。本课程基于真实热门的互联网电商业务场景为案例讲解,具体分析指标包含:AB版本分析,下砖分析,营销分析,订单分析,终端分析等,能承载海量数据实时分析,数据分析涵盖全端(PC、移动、小程序)应用。整个课程,会带大家实践一个完整系统,大家可以根据自己的公司业务修改,既可以用到项目中去,价值是非常高的。本课程包含的技术:开发工具为:IDEA、WebStormFlink1.9.0DorisDBHadoop2.7.5Hbase2.2.6Kafka2.1.0Hive2.2.0HDFS、MapReduceFlume、ZookeeperBinlog、Canal、MySQLSpringBoot2.0.8.RELEASESpringCloud Finchley.SR2Vue.js、Nodejs、Highcharts、ElementUILinux Shell编程等课程亮点:1.与企业接轨、真实工业界产品2.DorisDB高性能分布式数据库3.大数据热门技术Flink4.支持ABtest版本实时监控分析5.支持下砖分析6.数据分析涵盖全端(PC、移动、小程序)应用7.主流微服务后端系统8.天级别与小时级别多时间方位分析9.数据实时同步解决方案10.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS+ElementUI11.集成SpringCloud实现统一整合方案12.互联网大数据企业热门技术栈13.支持海量数据实时分析14.支持全端实时数据分析15.全程代码实操,提供全部代码和资料16.提供答疑和提供企业技术方案咨询企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。 
随着互联网的发展,数据的不断膨胀,从刚开始的关系型数据库到非关系型数据库,再到大数据技术,技术的不断演进最终是随着数据膨胀而不断改变,最初的数据仓库能解决我们的问题,但是随着时代发展,企业已经不满足于数据仓库,希望有更强大的技术来支撑数据的存储,包括结构化,非结构化的数据等,希望能够积累企业的数据,从中挖掘出更大的价值。基于这个背景,数据湖的技术应运而生。本课程基于真实的企业数据湖案例进行讲解,结合业务实现数据平台,让大家在实践中理解和掌握数据湖技术,未来数据湖的需求也会不断加大,希望同学们抓住这个机遇。项目中将以热门的互联网电商业务场景为案例讲解,具体分析指标包含:流量分析,订单分析,用户行为分析,营销分析,广告分析等,能承载海量数据实时分析,数据分析涵盖全端(PC、移动、小程序)应用。Apache Hudi代表Hadoop Upserts anD Incrementals,管理大型分析数据集在HDFS上的存储。Hudi的主要目的是高效减少摄取过程中的数据延迟。Hudi的出现解决了现有hadoop体系的几个问题:1、HDFS的可伸缩性限制 2、需要在Hadoop中更快地呈现数据 3、没有直接支持对现有数据的更新和删除 4、快速的ETL和建模 5、要检索所有更新的记录,无论这些更新是添加到最近日期分区的新记录还是对旧数据的更新,Hudi都允许用户使用最后一个检查点时间戳,此过程不用执行扫描整个源表的查询。 本课程包含的技术: 开发工具为:IDEA、WebStorm Flink1.9.0、HudiClickHouseHadoop2.7.5 Hbase2.2.6Kafka2.1.0 Hive2.2.0HDFS、MapReduceSpark、ZookeeperBinlog、Canal、MySQLSpringBoot2.0.2.RELEASE SpringCloud Finchley.RELEASEVue.js、Nodejs、HighchartsLinux Shell编程课程亮点: 1.与企业接轨、真实工业界产品 2.ClickHouse高性能列式存储数据库 3.大数据热门技术Flink4.Flink join 实战 5.Hudi数据湖技术6.集成指标明细查询 7.主流微服务后端系统 8.数据实时同步解决方案 9.涵盖主流前端技术VUE+jQuery+Ajax+NodeJS 10.集成SpringCloud实现统一整合方案 11.互联网大数据企业热门技术栈 12.支持海量数据实时分析 13.支持全端实时数据分析 14.全程代码实操,提供全部代码和资料 15.提供答疑和提供企业技术方案咨询企业一线架构师讲授,代码在老师的指导下企业可以复用,提供企业解决方案。  版权归作者所有,盗版将进行法律维权。  
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值