阿里云日志服务 + Flume + Kafka + Spark Streaming--part one

由于历史的原因,公司所有的日志都通过阿里云日志服务的logtail进行收集并存储到日志服务

首先查看阿里云日志服务SLS的官方文档

https://help.aliyun.com/document_detail/123446.html#title-4jc-gkl-7nq

上面的文档有Flume关于sls配置文件的配置

阿里云日志服务sls的Flume插件安装

https://github.com/aliyun/aliyun-log-flume

打开上面的链接,按照文档的步骤操作

[hadoop@hadoop004 software]$ wget http://apache.tt.co.kr/flume/1.9.0/apache-flume-1.9.0-bin.tar.gz

[hadoop@hadoop004 software]$ tar -zxf apache-flume-1.9.0-bin.tar.gz -C ../app/

[hadoop@hadoop004 software]$ git clone https://github.com/aliyun/aliyun-log-flume.git

[hadoop@hadoop004 software]$ cd aliyun-log-flume/

[hadoop@hadoop004 aliyun-log-flume]$ mvn clean compile assembly:single -DskipTests

漫长的等待。。。

 上面虽然我下载了apache-flume-1.9.0,但我还是任性的使用apache-flume-1.6.0-cdh5.7.0-bin,开干!

[hadoop@hadoop004 aliyun-log-flume]$ cd target/

[hadoop@hadoop004 target]$ ls
aliyun-log-flume-1.1.jar  archive-tmp  classes  generated-sources  maven-status

[hadoop@hadoop004 target]$ cp aliyun-log-flume-1.1.jar /data/aaron/app/apache-flume-1.6.0-cdh5.7.0-bin/lib/

[hadoop@hadoop004 bin]$ cd -
/data/aaron/app/apache-flume-1.6.0-cdh5.7.0-bin/conf/conffile

[hadoop@hadoop004 conffile]$ vim sls-flume.conf

sls-flume-kafka.sources = sls-source
sls-flume-kafka.channels = sls-memory-channel
sls-flume-kafka.sinks = kafka-sink

sls-flume-kafka.sources.sls-source.type = com.aliyun.loghub.flume.source.LoghubSource
sls-flume-kafka.sources.sls-source.endpoint = cn-shenzhen.log.aliyuncs.com
sls-flume-kafka.sources.sls-source.project = <Your Loghub project>
sls-flume-kafka.sources.sls-source.logstore = <Your Loghub logstore>
sls-flume-kafka.sources.sls-source.accessKeyId = <Your Accesss Key Id>
sls-flume-kafka.sources.sls-source.accessKey = <Your Access Key>
sls-flume-kafka.sources.sls-source.deserializer = JSON


sls-flume-kafka.channels.sls-memory-channel.type = memory

sls-flume-kafka.sinks.kafka-sink.type = logger

sls-flume-kafka.sources.sls-source.channels = sls-memory-channel
sls-flume-kafka.sinks.kafka-sink.channel = sls-memory-channel

 启动Flume

[hadoop@hadoop004 conffile]$ cd -
/data/aaron/app/apache-flume-1.6.0-cdh5.7.0-bin/bin

[hadoop@hadoop004 bin]$ ./flume-ng agent --name sls-flume-kafka --conf /data/aaron/app/apache-flume-1.6.0-cdh5.7.0-bin/conf/conffile --conf-file /data/aaron/app/apache-flume-1.6.0-cdh5.7.0-bin/conf/conffile/sls-flume.conf -Dflume.root.logger=INFO,console

成功了!

运行了一段时间,

再等了一会,又正常了哈哈

应该是已启动Flume,就把阿里云日志服务的日志一下子给干过来了

下一步就是把日志导进Kafka,敬请期待!!!

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 5
    评论
一、项目简介 本项目教程以国内电商巨头实际业务应用场景为依托,同时以阿里云ECS服务器为技术支持,紧跟大数据主流场景,对接企业实际需求,对电商数仓的常见实战指标进行了详尽讲解,让你迅速成长,获取最前沿的技术经验。 二、项目架构 版本框架:Flume、DateHub、DataWorks、MaxCompute、MySql以及QuickBI等; Flume:大数据领域被广泛运用的日志采集框架; DateHub:类似于传统大数据解决方案中Kafka的角色,提供了一个数据队列功能。对于离线计算,DataHub除了供了一个缓冲的队列作用。同时由于DataHub提供了各种与其他阿里云上下游产品的对接功能,所以DataHub又扮演了一个数据的分发枢纽工作; 据上传和下载通道,提供SQL及MapReduce等多种计算分析服务,同时还提供完善的安全解决方案; DataWorks:是基于MaxCompute计算引擎,从工作室、车间到工具集都齐备的一站式大数据工厂,它能帮助你快速完成数据集成、开发、治理、服务、质量、安全等全套数据研发工作; QuickBI & DataV:专为云上用户量身打造的新一代智能BI服务平台。 三、项目场景 数仓项目广泛应用于大数据领域,该项目技术可以高度适配电商、金融、医疗、在线教育、传媒、电信、交通等各领域; 四、项目特色 本课程结合国内多家企业实际项目经验。从集群规模的确定到框架版本选型以及服务器选型,手把手教你从零开始搭建基于阿里云服务器的大数据集群。采用阿里云ECS服务器作为数据平台,搭建高可用的、高可靠的Flume数据采集通道,运用阿里云DateHub构建中间缓冲队列并担任数据分发枢纽将数据推送至阿里自主研发的DataWorks对数据进行分层处理,采用MaxCompute作为处理海量数据的方案,将计算结果保存至MySQL并结合阿里的QuickBI工作做最终数据展示。
评论 5
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值