大数据项目实战---电商埋点日志分析(第一部分,往hdfs中写入埋点日志的数据)

本文介绍了大数据项目实战,主要涉及电商埋点日志的分析。首先制作埋点日志dummy文件,然后搭建Hadoop环境,接着配置Flume从日志文件读取数据并写入Kafka。再安装Kafka,启动Flume agent并使用Kafka Manager监控。最后,配置消费Flume将数据从Kafka读取并写入HDFS。
摘要由CSDN通过智能技术生成

https://www.bilibili.com/video/BV1L4411K7hW?p=31&spm_id_from=pageDriver

架构:

Zookeeper                     66,88,99
HDFS NameNode         66,88
MR RM                         66,88
HDFS DataNode          66,88,99
MR NodeManager        66,88,99
生产Flume                    66,88
Kafka                            66,88,99
消费Flume                    66,88
Hive                              88
Hive 的MetaDB Mysql            66

数据流

生产Flume读取日志文件做简单ETL后写入到kafka,然后消费Flume从kafka中将数据读出写入到hdfs。项目中还应用了zookeeper来协调分布式kafka和分布式Hadoop。

步骤

1)制作埋点日志dummy文件

1.1)编写Java程序生成埋点日志文件,并Maven打包(期望完成时间2021-7-2,实际完成时间2021-7-3)

1.2)将打好的jar包传到66服务器和88服务器。

2)搭建Hadoop环境

安装Hadoop,并进行验证和调优。https://blog.csdn.net/hailunw/article/details/117910952

<Hadoop_Home>/etc/hadoop/hdfs-site.xml
<Hadoop_Home>/etc/hadoop/core-site.xml
<Hadoop_Home&g

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值