
大数据之Kafka———Flume日志系统写入kafka
3.启动ag 其中有三个组件Source(监管当前机器的端口),Channel(进行分流),Sink(进行输出内容)(端口启动后可以在端口中输入内容 可以在上面启动的kafka里查看到)1./opt/events/data文件下的users.csv。2.连接好端口可以在端口输入内容由 ng进行处理。4.通过Sink将数据写到kb22在启动消费者。1.通过Telnet 方式连接当前机器的端口。如果端口启动不了查看一下端口是否被占用。5.将文件拷贝到监控目录下。# 4. 配置sink。3.创建队列 生产者。








