Flume+Kafka+SparkStreaming实时统计网站日志--2、项目技术选型和项目架构

一、项目技术选型

    基于 Flume+Kafka+SparkStreaming实时统计网站日志–1、项目介绍 ,选择flume、Kafka、Spark Streaming来完成本项目。项目中数据流向图如下:
在这里插入图片描述
      flume_kafka_spark集成数据流向图,红色箭头为数据流向,当数据经过Spark Streaming处理后,存入HBase,然后在web上展示。具体的做法见后续文章。

二、组件使用版本

  • hadoop2.7.7
  • spark-2.4.4
  • hbase-1.3.1
  • kafka_2.11-0.11.0.2
  • Flume1.6.0
  • zookeeper-3.4.11
  • jdk1.8.0_151
  • scala 2.11.8
  • 开发工具是 windows10上的 IDEA 2017.2
  • 上述组件的集群安装在Ubuntu16.04.5

三、本项目一些约定

  • Hadoop集群及各个组件的搭建不涉及,自行查找
  • 项目开发中包名以 project.weblog.ylqdh.bigdata 开头
  • hadoop集群安装 ubuntu16.04.5-server 虚拟机下,开发在win10上
  • 项目的代码放在github上 ylqdh的Github
  • 项目的服务器ip及对应如下表:
    |       IP              |  hostname  | 服务器在文章中的名称 |
    | 172.16.13.150 | redhat-test  |    服务器A  |
    | 172.16.13.151 | szgwnet01  |   服务器B   |
    | 172.16.13.152 | szgwnet02  |   服务器C   |
    | 172.16.13.153 | szgwnet03  |   服务器D   |

接下来就是实际的flume+Kafka操作了,请看下一篇3、Flume采集数据到Kafka

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值