Linux_ODPS-D2-3-启动flume,运行jar包
1. 启动flume程序
[root@hadoop102 ~]# su ataliyun
[ataliyun@hadoop102 ~]# /opt/module/flume/bin/flume-ng agent -n a1 -c /opt/module/flume/conf/ -f /opt/module/flume/conf/file-flume-datahub.conf -Dflume.root.logger=info,console
Info: Sourcing environment configuration script /opt/module/flume/conf/flume-env.sh
。。。com.aliyun.datahub.flume.sink.DatahubSink.start(DatahubSink.java:221)] Datahub Sink k1: started
flume-ng agent 启动flume程序
-n 任务名称,必须和配置文件中的前缀一致
-c flume的基本配置文件位置
-f flume的任务配置文件位置
-Dflume.root.logger=info,console 打印控制台
2. 运行jar包,生成日志
复制一个hadoop102的ssh 再运行jar
Welcome to Alibaba Cloud Elastic Compute Service !
# 后台启动 日志扔到黑洞 观察【数据总线】DataHub-【项目】gmall_datahub_5-【Topic】base_log中的数据变化(1000条刷进来了)
[ataliyun@hadoop102 ~]# java -jar /opt/module/log-collector-1.0-SNAPSHOT-jar-with-dependencies.jar > /dev/null 2>&1 &
[1] 1607
[ataliyun@hadoop102 ~]#
# 或者
[ataliyun@hadoop102 module]$ java -jar log-collector-1.0-SNAPSHOT-jar-with-dependencies.jar