linux kafka 消费过滤文本

过滤出每行文化含’10.0.0.1’ip的文本输出到文件里
bin/kafka-console-consumer.sh --zookeeper 127.0.0.1:2181 --topic flumetokafka |grep -a ‘10:56’>ip.txt

Linux上启动Kafka消费者客户进行测试通常涉及以下几个步骤: 1. **安装依赖**:首先需要在系统上安装Java Development Kit (JDK) 和 Kafka客户库。你可以通过包管理器(如apt-get、yum或Homebrew)进行安装。 2. **配置环境变量**:设置`JAVA_HOME`指向你的Java安装路径,并确保`PATH`包含对应bin目录,以便运行Java命令。 3. **获取Kafka Consumer API**:如果还没有的话,从Apache Kafka项目官网下载并解压最新的版本,然后将` confluent-kafka-java` 或 `kafka-clients` JAR包添加到项目的构建路径。 4. **创建配置文件**:编写一个Kafka消费者配置文件,例如`consumer.properties`,包括主题名称(`bootstrap.servers`)、组名(`group.id`)、偏移量策略(`auto.offset.reset`)等属性。 5. **编写消费者示例程序**:使用Java语言,利用Kafka的Consumer API,编写一个消费者类。这个类通常会有一个主函数,从配置读取数据,连接到Kafka服务器,订阅主题,然后处理消息。 ```java import org.apache.kafka.clients.consumer.ConsumerRecord; import org.apache.kafka.clients.consumer.ConsumerRecords; import kafka.javaapi.consumer.ConsumerConnector; public class SimpleConsumer { public static void main(String[] args) { Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("group.id", "test-consumer-group"); props.put("enable.auto.commit", "true"); props.put("auto.commit.interval.ms", "1000"); // 创建连接 ConsumerConnector consumer = kafka.consumer.Consumer.createJavaConsumerConnector(props); // 定义消费队列 TopicPartition topicPartition = new TopicPartition("my-topic", 0); List<ConsumerRecord<byte[], byte[]>> records = consumer.poll(100); // 拿到最新消息 // 处理消息 for (ConsumerRecord<byte[], byte[]> record : records) { System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), new String(record.key()), new String(record.value())); } // 关闭连接 consumer.shutdown(); } } ``` 6. **运行程序**:编译并运行你的Java程序,如果一切正常,你应该能看到打印出的消息。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值