flume mysql连接池_Flume+Kafka+Spark Streaming

Flume

Flume的定位就是数据收集的技术

安装

1、下载

http://www.apache.org/dyn/closer.lua/flume/1.8.0/apache-flume-1.8.0-bin.tar.gz

2、上传到指定的服务器(master)中的某个目录

3、解压

tar -xvf apache-flume-1.8.0-bin.tar.gz

4、cd apache-flume-1.8.0-bin/conf

5、cp flume-conf.properties.template flume-conf.properties

6、vi flume-conf.properties

配置

第六步配置conf文件,将netcat数据展示到 console

## 定义 sources、channels 以及 sinks

## 数据源配置 依次为 netcat数据源,收集的数据暂时放在内存中

agent1.sources = netcatSrc ## netcat数据源

agent1.channels = memoryChannel ## 收集的数据暂时放在内存中

agent1.sinks = loggerSink ## 数据放在哪里去, 以log console的方式打到控制台

## netcatSrc 的配置

agent1.sources.netcatSrc.type = netcat ## source服务类型

agent1.sources.netcatSrc.bind = localhost ## 服务启在哪台机器上

agent1.sources.netcatSrc.port = 44445 ## 服务启动的端口

## loggerSink 的配置

agent1.sinks.loggerSink.type = logger

## memoryChannel 的配置

agent1.channels.memoryChannel.type = memory

agent1.channels.memoryChannel.capacity = 100

## 通过 memoryChannel 连接 netcatSrc 和 loggerSink

agent1.sources.netcatSrc.channels = memoryChannel ## 源数据放入channel

agent1.sinks.loggerSink.channel = memoryChannel ## 从channel中读取输出 这里是打印在控制台

启动

# 启动 一个agent conf读取配置文件,也就是我们上编辑的文件,并且通过logger打印INFO级别的日志到控制台

bin/flume-ng agent --conf conf --conf-file conf/flume-conf.properties --name agent1 -Dflume.root.logger=INFO,console

表示启动成功

2735041e832c73ccbcbaf677ff6fab6a.png

验证

在另外一个客户端上 通过telnet localhost 44445(地址和端口就是配置文件中 netcatSrc 的配置)

687081cabdd4320b9abf44c0420fc9f1.png

这样就表示连接上了,可以在上面随便输出内容,然后在Flume中就会接收到并打印在控制台

244b61c71881c5e749d6e98ff3b4ddb7.png

上面过程使用命令启动,启动的是一个agent,而接收一条记录,称为一个event

下面的从netcat中获取数据,不是输出到控制台,而是写在hdfs里

## 定义 sources、channels 以及 sinks

agent1.sources = netcatSrc

agent1.channels = memoryChannel ## 内存不稳定 agent挂掉,数据就丢了,可以用fileChannel,保存在文件中

agent1.sinks = hdfsSink

## netcatSrc 的配置

agent1.sources.netcatSrc.type = netcat

agent1.sources.netcatSrc.bind = localhost

agent1.sources.netcatSrc.port = 44445

## hdfsSink 的配置

agent1.sinks.hdfsSink.type = hdfs

agent1.sinks.hdfsSink.hdfs.path = hdfs://master:9999/user/hadoop-twq/spark-course/steaming/flume/%y-%m-%d

agent1.sinks.hdfsSink.hdfs.batchSize = 5 ## 到5条记录才写一次

agent1.sinks.hdfsSink.hdfs.useLocalTimeStamp = true

## memoryChannel 的配置

agent1.channels.memoryChannel.type = memory

agent1.channels.memoryChannel.capacity = 100

## 通过 memoryChannel 连接 netcatSrc 和 hdfsSink

agent1.sources.netcatSrc.channels = memoryChannel

agent1.sinks.hdfsSink.channel = memoryChannel

从实时查看日志中获取数据源,并保存到 HDFS中

## 定义 sources、channels 以及 sinks

agent1.sources = logSrc

agent1.channels = fileChannel

agent1.sinks = hdfsSink

## l

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
【优质项目推荐】 1、项目代码均经过严格本地测试,运行OK,确保功能稳定后才上传平台。可放心下载并立即投入使用,若遇到任何使用问题,随时欢迎私信反馈与沟通,博主会第一时间回复。 2、项目适用于计算机相关专业(如计科、信息安全、数据科学、人工智能、通信、物联网、自动化、电子信息等)的在校学生、专业教师,或企业员工,小白入门等都适用。 3、该项目不仅具有很高的学习借鉴价值,对于初学者来说,也是入门进阶的绝佳选择;当然也可以直接用于 毕设、课设、期末大作业或项目初期立项演示等。 3、开放创新:如果您有一定基础,且热爱探索钻研,可以在此代码基础上二次开发,进行修改、扩展,创造出属于自己的独特应用。 欢迎下载使用优质资源!欢迎借鉴使用,并欢迎学习交流,共同探索编程的无穷魅力! 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip 基于业务逻辑生成特征变量python实现源码+数据集+超详细注释.zip

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值