简单的kafka的例子

kafka生产者

package cn.itcast.storm.kafka.simple;

import kafka.javaapi.producer.Producer;
import kafka.producer.KeyedMessage;
import kafka.producer.ProducerConfig;

import java.util.Properties;
import java.util.UUID;

/**
 * 这是一个简单的Kafka producer代码
 * 包含两个功能:
 * 1、数据发送
 * 2、数据按照自定义的partition策略进行发送
 *
 *
 * KafkaSpout的类
 */
public class KafkaProducerSimple {
    public static void main(String[] args) {
        /**
         * 1、指定当前kafka producer生产的数据的目的地
         *  创建topic可以输入以下命令,在kafka集群的任一节点进行创建。
         *  bin/kafka-topics.sh --create --zookeeper zk01:2181 --replication-factor 1 --partitions 1 --topic test
         */
        String TOPIC = "orderMq";
        /**
         * 2、读取配置文件
         */
        Properties props = new Properties();
        /*
         * key.serializer.class默认为serializer.class
         */
        props.put("serializer.class", "kafka.serializer.StringEncoder");
        /*
         * kafka broker对应的主机,格式为host1:port1,host2:port2
         */
        props.put("metadata.broker.list", "kafka01:9092,kafka02:9092,kafka03:9092");
        /*
         * request.required.acks,设置发送数据是否需要服务端的反馈,有三个值0,1,-1
         * 0,意味着producer永远不会等待一个来自broker的ack,这就是0.7版本的行为。
         * 这个选项提供了最低的延迟,但是持久化的保证是最弱的,当server挂掉的时候会丢失一些数据。
         * 1,意味着在leader replica已经接收到数据后,producer会得到一个ack。
         * 这个选项提供了更好的持久性,因为在server确认请求成功处理后,client才会返回。
         * 如果刚写到leader上,还没来得及复制leader就挂了,那么消息才可能会丢失。
         * -1,意味着在所有的ISR都接收到数据后,producer才得到一个ack。
         * 这个选项提供了最好的持久性,只要还有一个replica存活,那么数据就不会丢失
         */
        props.put("request.required.acks", "1");
        /*
         * 可选配置,如果不配置,则使用默认的partitioner partitioner.class
         * 默认值:kafka.producer.DefaultPartitioner
         * 用来把消息分到各个partition中,默认行为是对key进行hash。
         */
        props.put("partitioner.class", "cn.itcast.storm.kafka.MyLogPartitioner");
//        props.put("partitioner.class", "kafka.producer.DefaultPartitioner");
        /**
         * 3、通过配置文件,创建生产者
         */
        Producer<String, String> producer = new Producer<String, String>(new ProducerConfig(props));
        /**
         * 4、通过for循环生产数据
         */
        for (int messageNo = 1; messageNo < 100000; messageNo++) 
                  "用来配合自定义的MyLogPartitioner进行数据分发");

            /**
             * 5、调用producer的send方法发送数据
             * 注意:这里需要指定 partitionKey,用来配合自定义的MyLogPartitioner进行数据分发
             */
            producer.send(new KeyedMessage<String, String>(TOPIC, messageNo + "", "appid" + UUID.randomUUID() + "itcast"));
        }
    }
}
 

kafka消费者

package cn.itcast.storm.kafka.simple;

import kafka.consumer.Consumer;
import kafka.consumer.ConsumerConfig;
import kafka.consumer.ConsumerIterator;
import kafka.consumer.KafkaStream;
import kafka.javaapi.consumer.ConsumerConnector;
import kafka.message.MessageAndMetadata;

import java.util.HashMap;
import java.util.List;
import java.util.Map;
import java.util.Properties;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;

public class KafkaConsumerSimple implements Runnable {
    public String title;
    public KafkaStream<byte[], byte[]> stream;
    public KafkaConsumerSimple(String title, KafkaStream<byte[], byte[]> stream) {
        this.title = title;
        this.stream = stream;
    }
    @Override
    public void run() {
        System.out.println("开始运行 " + title);
        ConsumerIterator<byte[], byte[]> it = stream.iterator();
        /**
         * 不停地从stream读取新到来的消息,在等待新的消息时,hasNext()会阻塞
         * 如果调用 `ConsumerConnector#shutdown`,那么`hasNext`会返回false
         * */
        while (it.hasNext()) {
            MessageAndMetadata<byte[], byte[]> data = it.next();
            String topic = data.topic();
            int partition = data.partition();
            long offset = data.offset();
            String msg = new String(data.message());
            System.out.println(String.format(
                    "Consumer: [%s],  Topic: [%s],  PartitionId: [%d], Offset: [%d], msg: [%s]",
                    title, topic, partition, offset, msg));
        }
        System.out.println(String.format("Consumer: [%s] exiting ...", title));
    }

    public static void main(String[] args) throws Exception{
        Properties props = new Properties();
        props.put("group.id", "dashujujiagoushi");
        props.put("zookeeper.connect", "zk01:2181,zk02:2181,zk03:2181");
        props.put("auto.offset.reset", "largest");
        props.put("auto.commit.interval.ms", "1000");
        props.put("partition.assignment.strategy", "roundrobin");
        ConsumerConfig config = new ConsumerConfig(props);
        String topic1 = "orderMq";
        String topic2 = "paymentMq";
        //只要ConsumerConnector还在的话,consumer会一直等待新消息,不会自己退出
        ConsumerConnector consumerConn = Consumer.createJavaConsumerConnector(config);
        //定义一个map
        Map<String, Integer> topicCountMap = new HashMap<>();
        topicCountMap.put(topic1, 3);
        //Map<String, List<KafkaStream<byte[], byte[]>> 中String是topic, List<KafkaStream<byte[], byte[]>是对应的流
        Map<String, List<KafkaStream<byte[], byte[]>>> topicStreamsMap = consumerConn.createMessageStreams(topicCountMap);
        //取出 `kafkaTest` 对应的 streams
        List<KafkaStream<byte[], byte[]>> streams = topicStreamsMap.get(topic1);
        //创建一个容量为4的线程池
        ExecutorService executor = Executors.newFixedThreadPool(3);
        //创建20个consumer threads
        for (int i = 0; i < streams.size(); i++)
            executor.execute(new KafkaConsumerSimple("消费者" + (i + 1), streams.get(i)));
    }
}

 

对应的分组策略

package cn.itcast.storm.kafka;

import kafka.producer.Partitioner;
import kafka.utils.VerifiableProperties;
import org.apache.log4j.Logger;


public class MyLogPartitioner implements Partitioner {
    private static Logger logger = Logger.getLogger(MyLogPartitioner.class);

    public MyLogPartitioner(VerifiableProperties props) {
    }

    public int partition(Object obj, int numPartitions) {
        return Integer.parseInt(obj.toString())%numPartitions;
//        return 1;
    }

}
 

### 回答1: 好的,以下是一个简单的示例配置: ``` server { listen 80; server_name example.com; location /kafka { proxy_pass http://kafka-broker:9092; } } ``` 在这个配置中,nginx会监听端口80,然后当有请求访问`example.com/kafka`的时候,会将请求代理给地址为`kafka-broker:9092`的kafka broker。 ### 回答2: Nginx是一款高性能的开源Web服务器软件,可以作为反向代理服务器来转发请求。Kafka是一种分布式消息系统,用于处理高吞吐量的实时数据流。现在我们来举一个例子,说明如何使用Nginx作为代理来连接Kafka。 假设我们有一个生产者(producer)和一个消费者(consumer)。生产者负责产生消息并发送到Kafka集群,而消费者则从Kafka中读取消息进行处理。 首先,我们需要配置Nginx作为代理服务器。在Nginx的配置文件中,我们需要指定代理服务器的监听端口,并定义相应的转发规则,将请求转发给Kafka集群的某个节点。我们可以使用Nginx的`proxy_pass`指令来实现这个功能。例如: ``` server { listen 80; server_name example.com; location /kafka { proxy_pass http://kafka-cluster:9092; } } ``` 上述配置将会把所有以`/kafka`开头的请求都转发给`http://kafka-cluster:9092`,即Kafka集群中的某个节点。 接下来,我们可以通过发送HTTP请求来测试Nginx代理是否正常工作。假设我们要发送一条消息到Kafka的某个主题(topic)中,我们可以通过发送POST请求到Nginx的代理地址。例如: ``` POST http://example.com/kafka/topics/example-topic Content-Type: application/json { "message": "Hello Kafka!" } ``` Nginx将会把该请求转发给Kafka集群中的某个节点,然后生产者将会把消息发送到指定的主题中。 消费者可以通过从Kafka集群中读取消息来处理。假设我们有一个消费者应用程序部署在某个服务器上,我们可以使用Kafka的相关客户端库来连接到Kafka集群,并从指定的主题中读取消息。 总结一下,我们可以通过配置Nginx作为代理服务器,将客户端的请求转发给Kafka集群中的某个节点,实现生产者和消费者与Kafka的交互。这样,我们就可以更灵活地管理和控制Kafka消息系统,并且通过Nginx的性能优势提高性能和可靠性。 ### 回答3: 当使用Nginx代理Kafka时,可以将Nginx作为中间层,将请求从客户端传递给Kafka集群。Nginx作为代理服务器可以提供负载均衡、缓存、安全性等功能,以提高Kafka集群的性能和可靠性。 首先,客户端发起请求时,请求被发送到Nginx代理服务器。Nginx可以配置多个反向代理服务器模块,每个模块中定义了一个Kafka的地址和端口。当请求到达Nginx时,它将决定将请求转发到哪个Kafka实例。 然后,Nginx根据预先定义的负载均衡算法选择一个可用的Kafka实例,并将请求转发给该实例。该负载均衡算法可以是轮询、IP哈希等。通过使用Nginx的负载均衡功能,可以确保请求均匀地分配给Kafka集群中的各个实例,避免某个实例过载导致性能下降。 最后,选定的Kafka实例接收到请求并进行处理。它可以根据请求中的主题、分区等信息,将消息发送到相应的Kafka Broker上。这样,Nginx代理服务器作为中间层可以将客户端的请求传递给Kafka集群,并提供负载均衡和高可用性的支持。 总之,通过使用Nginx代理Kafka,可以充分利用Nginx强大的功能和性能,提高Kafka集群的可靠性和性能。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值